85
Benem ´ erita Universidad Aut ´ onoma de Puebla FACULTAD DE CIENCIAS F ´ ISICO MATEM ´ ATICAS MATRICES ALEATORIAS CON ESTRUCTURA TESIS PARA OBTENER EL T ´ ITULO DE LICENCIADA EN MATEM ´ ATICAS APLICADAS PRESENTA ARELI KARINA MART ´ INEZ TAPIA DIRECTORES DE TESIS DR. OCTAVIO ARIZMENDI ECHEGARAY DR. HUGO AD ´ AN CRUZ SU ´ AREZ PUEBLA, PUE. AGOSTO 2018

Benem erita Universidad Autonoma de Puebla€¦ · tratar de resolver el problema del valor propio pero ser a imposible debido a que los sistemas grandes generalmente no son integrables

  • Upload
    others

  • View
    5

  • Download
    0

Embed Size (px)

Citation preview

Page 1: Benem erita Universidad Autonoma de Puebla€¦ · tratar de resolver el problema del valor propio pero ser a imposible debido a que los sistemas grandes generalmente no son integrables

Benemerita UniversidadAutonoma de Puebla

FACULTAD DE CIENCIAS FISICO MATEMATICAS

MATRICES ALEATORIAS CON ESTRUCTURA

TESIS

PARA OBTENER EL TITULO DELICENCIADA EN MATEMATICAS APLICADAS

PRESENTAARELI KARINA MARTINEZ TAPIA

DIRECTORES DE TESISDR. OCTAVIO ARIZMENDI ECHEGARAY

DR. HUGO ADAN CRUZ SUAREZ

PUEBLA, PUE. AGOSTO 2018

Page 2: Benem erita Universidad Autonoma de Puebla€¦ · tratar de resolver el problema del valor propio pero ser a imposible debido a que los sistemas grandes generalmente no son integrables
Page 3: Benem erita Universidad Autonoma de Puebla€¦ · tratar de resolver el problema del valor propio pero ser a imposible debido a que los sistemas grandes generalmente no son integrables

A mis padres.

Page 4: Benem erita Universidad Autonoma de Puebla€¦ · tratar de resolver el problema del valor propio pero ser a imposible debido a que los sistemas grandes generalmente no son integrables
Page 5: Benem erita Universidad Autonoma de Puebla€¦ · tratar de resolver el problema del valor propio pero ser a imposible debido a que los sistemas grandes generalmente no son integrables

Agradecimientos

Quiero agradecer a Dios por permitirme terminar esta etapa de mi vida.A mis padres, Felipe de Jesus Martınez y Marıa Reyna Tapia por todos

los esfuerzos que han hecho a lo largo de mi vida, por apoyarme en todas misdecisiones de estudio, los amo.

A mi hermano Phil, por todas las horas de charlas, por los consejos y porincentivarme a ser una verdadera matematica.

Agradezco enormemente al Dr. Octavio Arizmendi, por permitirme tra-bajar bajo su direccion. Por toda su paciencia, confianza y apoyo a lo largode la elaboracion de esta tesis.

Al Dr. Hugo Adan Cruz Suarez por todos sus comentarios en el transcursode la elaboracion de esta tesis.

Al Dr. Carlos Vargas Obieta, por sus aportaciones y observaciones a estatesis.

Al Dr. Vıctor Hugo Vazquez Guevara, a la Dra. Hortensia Josefina ReyesCervantes y el Dr. Francisco Solano Tajonar Sanabria por sus observacionesy comentarios para mejorar esta tesis.

A Kike, por todos los bellos momentos que he pasado a su lado a lo largode estos cinco anos, por todo su apoyo y motivacion a seguir adelante.

A Diana, Vanessa, Iris y Ricardo, que hicieron mas amena mi estancia enel Cimat.

A Gaby, Sinai, America, Mina, Hernan y tod@s mis amig@s con los quehe compartido tantos momentos a lo largo de la licenciatura. En particular,agradezco a Hernan por dedicarme el tiempo necesario para poder resolvertodas mis dudas sobre Fısica.

Page 6: Benem erita Universidad Autonoma de Puebla€¦ · tratar de resolver el problema del valor propio pero ser a imposible debido a que los sistemas grandes generalmente no son integrables
Page 7: Benem erita Universidad Autonoma de Puebla€¦ · tratar de resolver el problema del valor propio pero ser a imposible debido a que los sistemas grandes generalmente no son integrables

i

Introduccion

La Teorıa de Matrices Aleatorias fue estudiada por primera vez en ladecada de los 30’s por Wishart [26] y otros investigadores en matematicaestadıstica. Sin embargo, fue hasta los 50’s que Wigner [25] introdujo estateorıa a la fısica matematica. Esto dio inicio a la Teorıa de Matrices Aleatoriasmoderna.

El Teorema de Wigner o Ley del semicırculo establece, bajo ciertas con-diciones sobre una sucesion de matrices AN con caracterısticas particulares,que para cada x ∈ R cuando N →∞

FAN(x) :=

1

N#i : λNi ≤ x c.s.−→

∫ x

−∞f(t)1[2,−2](t)dt,

en donde f(t) = 12π

√4− t2, −2 ≤ t ≤ 2 es la funcion de densidad del

semicırculo.Anos despues, en 1991, Voiculescu [22] estudio matrices aleatorias con

ciertas simetrıas y mostro que satisfacen la propiedad conocida como liber-tad asintotica que relaciona estas matrices con operadores altamente no con-mutativos esto transformo la teorıa dramaticamente pues permitio aplicarherramientas de Analisis Funcional a la Teorıa de Matrices Aleatorias.

Hoy en dıa, las matrices aleatorias tienen aplicaciones en campos tandiversos como la Teorıa de Numeros (hipotesis de Riemann), ecuaciones di-ferenciales estocasticas, fısica de la materia condensada, fısica estadıstica,sistemas caoticos, algebra lineal numerica, redes neuronales, estadıstica mul-tivariada, teorıa de la informacion, procesamiento de senales y redes de pe-quenos mundos ([6], [9], [13]).

En esta tesis se estudia la distribucion asintotica de matrices markovianascuya dependencia en las entradas es fuerte, considerando que algunos de losensambles de matrices aleatorias de dimension grande se comportan comovariables aleatorias libres, lo que se conoce como libertad asintotica y sirvepara calcular la distribucion espectral de matrices aleatorias. El objetivo esdemostrar de manera diferente usando la teorıa de grafos que la distribu-cion asintotica de matrices Markovianas es la convolucion de dos variablesaleatorias libres.

En el Capıtulo 1 definimos formalmente que es una matriz aleatoria y unensamble de matrices aleatorias. Mencionando algunos ensambles de matrices

Page 8: Benem erita Universidad Autonoma de Puebla€¦ · tratar de resolver el problema del valor propio pero ser a imposible debido a que los sistemas grandes generalmente no son integrables

aleatorias. Por otro lado, se definen los conceptos primordiales de teorıa degrafos y su conexion con los numeros de Catalan y las trayectorias de Dyck;que son base importante para poder realizar la demostracion del Teorema deWigner que presentamos al final del capıtulo.

En el Capıtulo 2 se introduce la Probabilidad Libre o Probabilidad noConmutativa, considerando sus propiedades basicas y los criterios que sedeben de considerar para hablar de independencia libre. Ademas, se defineel concepto de variable aleatoria semicircular que es de gran importancia enla teorıa de matrices aleatorias. Para finalizar el capıtulo se demuestra queuna sucesion de matrices aleatorias que cumplen con ciertas caracterısticasconvergen a variables con distribucion semicircular.

Finalmente, en el Capıtulo 3, se estudian las matrices de Markov y sucomportamiento cuando el tamano tiende a infinito con ejemplos diversos. Alo largo de todo el capıtulo se observa que las matrices de Markov tendranun comportamiento similar al de una diferencia de dos variables aleatoriaslibres.

Page 9: Benem erita Universidad Autonoma de Puebla€¦ · tratar de resolver el problema del valor propio pero ser a imposible debido a que los sistemas grandes generalmente no son integrables

Indice general

Introduccion I

Notacion V

1. Teorema de Wigner 11.1. Matrices Aleatorias . . . . . . . . . . . . . . . . . . . . . . . . 21.2. Preliminares . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41.3. Teorema de Wigner . . . . . . . . . . . . . . . . . . . . . . . . 11

2. Independencia Libre Asintotica 192.1. Espacios de Probabilidad No Conmutativos . . . . . . . . . . . 192.2. Independencia Libre . . . . . . . . . . . . . . . . . . . . . . . 252.3. Independencia Libre y Matrices Aleatorias . . . . . . . . . . . 36

3. Matrices de Markov 51

Conclusion 70

Bibliografıa 73

iii

Page 10: Benem erita Universidad Autonoma de Puebla€¦ · tratar de resolver el problema del valor propio pero ser a imposible debido a que los sistemas grandes generalmente no son integrables
Page 11: Benem erita Universidad Autonoma de Puebla€¦ · tratar de resolver el problema del valor propio pero ser a imposible debido a que los sistemas grandes generalmente no son integrables

Notacion

Sımbolo DescripcionE el conjunto de aristas.V el conjunto de vertices.G un grafo.

G el esqueleto de un grafo.T un arbol.R el conjunto de los numeros reales.C el conjunto de los numeros complejos.Z el conjunto de los numeros enteros.N el conjunto de los numeros enteros no negativos.Ck el k-esimo numero de Catalan.P la medida de probabilidad.E el valor esperado.tr la traza normalizada.Tr la traza no normalizada.CG el algebra del grupo G.NC(n) el conjunto de todas las particiones que no se cruzan del

conjunto 1, . . . , n.K(π) el complemento de Kreweras.<a la parte real de a.=a la parte imaginaria de a.P(n) el conjunto de todas las particiones del conjunto 1, . . . , n.

v

Page 12: Benem erita Universidad Autonoma de Puebla€¦ · tratar de resolver el problema del valor propio pero ser a imposible debido a que los sistemas grandes generalmente no son integrables
Page 13: Benem erita Universidad Autonoma de Puebla€¦ · tratar de resolver el problema del valor propio pero ser a imposible debido a que los sistemas grandes generalmente no son integrables

Capıtulo 1

Teorema de Wigner

Wigner introdujo la teorıa de matrices en fısica matematica alrededorde los anos 50’s cuando realizaba una gran cantidad de experimentos connucleos pesados; los atomos pesados absorben y emiten miles de frecuencias.Ası que un experimento de este estilo nos proporciona una gran cantidadde diferencias en los niveles de energıa y es difıcil encontrar el conjunto deniveles a partir de las diferencias dadas. De hecho, es imposible conocer laenergıa de los niveles exactamente y etiquetarlos. Para abordar este problemase requiere comprender el problema del valor propio

Hψi = Eiψi,

en donde H es el Hamiltoniano del sistema (ver Capıtulo 3 de [7]), y Eison los niveles de energıa junto con las funciones propias ψi. Pero escribir elHamiltoniano H ya era un problema debido a los cientos de nucleos involu-crados.

La teorıa con la que Wigner contaba en ese tiempo lo llevaba a realizaruna ecuacion de Schrodinger (ver Capıtulo 4 de [27]) e intentar resolverla,pero debido al tamano del Hamiltoniano no era posible. Tambien considerotratar de resolver el problema del valor propio pero serıa imposible debido aque los sistemas grandes generalmente no son integrables. Finalmente decidiousar metodos estadısticos. En lugar de buscar una solucion aproximada parael sistema nuclear, se centro en la distribucion de los niveles de energıa,la teorıa estadıstica no predecirıa la secuencia detallada de niveles en unnucleo, pero describirıa la apariciencia general y el grado de irregularidad delos niveles. Wigner supuso que el conocimiento detallado del sistema no serıaimportante para la descripcion estadıstica del sistema. Ası, Wigner propuso

1

Page 14: Benem erita Universidad Autonoma de Puebla€¦ · tratar de resolver el problema del valor propio pero ser a imposible debido a que los sistemas grandes generalmente no son integrables

2 Teorema de Wigner

describir las propiedades de un nucleo pesado a traves de un conjunto dematrices aleatorias, donde las entradas de la matriz fueran independientes ycon cierta distribucion.

Todo lo que Wigner y mas tarde Dyson requirieron fue que

Las matrices fueran hermitianas o simetricas reales, de tal modo quelos valores propios fueran reales.

Que el conjunto se comportara “naturalmente” bajo ciertos grupos desimetrıa fısica (ensamble de matrices gaussianas unitarias (GUE); en-samble de matrices gaussianas ortogonales (GOE); ensamble de matri-ces gaussianas simplectico (GSE), donde las entradas de las matricesson reales o cuaternionicas (ver Capıtulo 2 de [13])).

Durante las decadas de los 50’s, 60’s, y principios de los 70’s, varios inves-tigadores comenzaron a probar la hipotesis de Wigner con datos experimen-tales reales en una gran variedad de situaciones fısicas obteniendo resultadosimpresionantes. Por ejemplo, en [3] se encuentra que las fluctuaciones de ni-vel del Billar cuantico de Sinai es consistente con las predicciones del GOE.Lo que llevo a fortalecer la creencia de que las leyes de las fluctuaciones denivel son universales.

Gracias a las dificultades que tuvo Wigner al tratar de resolver su pro-blema fue que descubrio la ley del semicırculo en 1955.

Este capıtulo esta organizado como sigue. En la Seccion 1 se introducenlas definiciones basicas de la teorıa de matrices aleatorias. En la Seccion 2 sepresenta una introduccion a la teorıa de grafos ademas de su relacion con losnumeros de Catalan, las trayectorias de Dyck y los momentos de la ley delsemicırculo. Finalmente, en la Seccion 3 se presenta una demostracion delTeorema de Wigner usando el metodo de momentos.

1.1. Matrices Aleatorias

La primera vez que aparecieron las matrices aleatorias en matematicaestadıstica no fueron tan relevantes, Wigner fue el que impulso su aplicacional resolver su problema de fısica nuclear. En la actualidad son utilizadas envarias ramas de la Fısica y la Matematica. Si se requiere profundizar en lateorıa de matrices aleatorias se puede consultar: [13] y [19].

Page 15: Benem erita Universidad Autonoma de Puebla€¦ · tratar de resolver el problema del valor propio pero ser a imposible debido a que los sistemas grandes generalmente no son integrables

1.1 Matrices Aleatorias 3

Definicion 1.1. Una matriz aleatoria toma valores en el espacio Mn×p(R)o Mn×p(C), en donde n y p son enteros positivos (usualmente el estudio seenfoca en el caso en que n = p). Sea A = (aij)

Ni,j=1 una matriz aleatoria, la

entrada aij es una variable aleatoria definida en

L∞−(Ω,F ,P) :=⋂

1≤p<∞

Lp(Ω,F ,P),

en donde (Ω,F ,P) es un espacio de probabilidad, esto es, Ω es un conjuntono vacıo, F es un σ-campo de subconjuntos medibles de Ω y P : F → [0, 1]una medida de probabilidad.

Recordemos que una matriz H es hermitiana si y solo si

H = H†,

en donde † es la transpuesta conjugada, en terminos de elementos de matricesse lee

hij = hji,

donde · representa la conjugacion compleja.Un caso particular son las matrices simetricas. Una matriz H es simetrica

si y solo si todas sus entradas son reales y

H = HT ,

en donde T representa la transposicion.

Definicion 1.2. Sea X = (xij) una matriz aleatoria en MN(C). Si X eshermitiana y xij : 1 ≤ i ≤ j ≤ N son variables aleatorias independientes,diremos que X es una matriz de Wigner.

Observacion 1.3. Los valores propios de una matriz aleatoria hermitianaen Mn(C) son reales y aleatorios.

Definicion 1.4. Un ensamble de matrices aleatorias es una sucesionXNN≥1 de matrices aleatorias de tamano N ×N con N ∈ N.

A continuacion, se presenta la definicion de algunos ensambles importan-tes dentro de la teorıa de matrices aleatorias.

Page 16: Benem erita Universidad Autonoma de Puebla€¦ · tratar de resolver el problema del valor propio pero ser a imposible debido a que los sistemas grandes generalmente no son integrables

4 Teorema de Wigner

Definicion 1.5. Un ensamble G = GN se dice gaussiano ortogonalGOE(N) si para todo N ∈ N, GN = (GN

ij )i,j=1,...,N es tal que Gij, 1 ≤ i ≤j ≤ N son variables aleatorias independientes identicamente distribuidascon

GNii ∼ N(0, 1),

GNij ∼ N(0,

1

2) ∀ i 6= j,

el GOE(N) esta definido sobre el espacio de matrices reales simetricas N×Ncaracterizado por la siguiente propiedad:

El ensamble es invariante bajo cada transformacion

G 7→ OTGO,

donde O es una matriz ortogonal, OTO = OOT = 1.

Definicion 1.6. Un ensamble G = GN se dice gaussiano unitarioGUE(N) si para todo N ∈ N, GN = (GN

ij )i,j=1,...,N es tal que Gij, 1 ≤ i ≤j ≤ N son variables aleatorias independientes identicamente distribuidascon

GNii ∼ N(0, 1),

GNij ∼ N(0,

1

2) ∀ i 6= j,

el GUE(N) esta definido sobre el espacio de matrices hermitianas N × Nque se caracteriza por la siguiente propiedad:

El ensamble es invariante bajo transformaciones unitarias

G 7→ U †GU,

en donde U es una matriz unitaria, U †U = UU † = 1.

1.2. Preliminares

En terminos generales, el Teorema de Wigner nos describe la densidadde los eigenvalores cuando N tiende a infinito. Para su demostracion, esnecesario definir algunos conceptos y proposiciones. Esta seccion se basadaen [8], [15] y [24].

Page 17: Benem erita Universidad Autonoma de Puebla€¦ · tratar de resolver el problema del valor propio pero ser a imposible debido a que los sistemas grandes generalmente no son integrables

1.2 Preliminares 5

Definicion 1.7. Sea V = i1, . . . , ik un conjunto de vertices y E = (ip, iq) :ip, iq ∈ V un conjunto de aristas

Una arista es un par ordenado de puntos llamados vertices, ei =(il, im).

Una arista dirigida es una arista en donde no es importante el ordende los vertices, (il, im) = (im, il).

Una arista no dirigida es simplemente una arista; esto es, sı importael orden de los vertices, (il, im) 6= (im, il).

Una arista aislada (il, il+1) es aquella tal que para cualquier otra aris-ta (im, im+1) se tiene que (il, il+1) 6= (im, im+1) y (im, im+1) 6= (il, il+1).

Definicion 1.8. Sea V = i1, . . . , ik un conjunto de vertices y E = (ip, iq) :ip, iq ∈ V un conjunto de aristas

Un grafo es un par G = (V,E) con conjunto de vertices V y conjuntode aristas E.

Un grafo conexo es un grafo (V,E) tal que cualquier par de verticesv1, v2 en V se pueden conectar por una trayectoria, esto es, existe unasubcoleccion de aristas (i1, i2), (i2, i3), . . . , (in−1, in) de E tal que v1 = i1y v2 = in.

Un grafo conexo tiene un ciclo si existe una subcoleccion de aristas(i1, i2), (i2, i3), . . . , (in−1, in) de E tal que i1 = in.

El esqueleto de un grafo conexo se define por G = (V , E) en dondeV es el conjunto de los distintos vertices de V y E es el conjunto dearistas no dirigidas que se obtienen de quitar las repeticiones de E.

Para tener una mejor nocion de los grafos, en la Figura 1.1, se presentanejemplos de cada uno de ellos.

Page 18: Benem erita Universidad Autonoma de Puebla€¦ · tratar de resolver el problema del valor propio pero ser a imposible debido a que los sistemas grandes generalmente no son integrables

6 Teorema de Wigner

(a) grafo (b) grafo conexocon ciclo

1

23

1

23

I) II)V(i) = 1,2,3,1,2E(i) = (1,2),(2,1),(2,3),(3,1),(1,2)

(i) = 1,2,3(i) = (1,2),(2,3),(3,1)

(c) grafo y su esqueleto

Figura 1.1: Tipos de grafos.Fuente: Elaboracion propia.

Definicion 1.9. Si G = (V,E) es un grafo, entonces G1 = (V1, E1) esllamado un subgrafo de G si ∅ 6= V1 ⊆ V y E1 ⊆ E, en donde cada aristade E1 incide con vertices de V1.

Definicion 1.10. Sea G = (V,E) un grafo, se tiene que:

Un arbol es un grafo conexo acıclico y lo denotaremos por T .

Un arbol con raız es un arbol con una arista dirigida fija que llama-remos raız.

En la Figura 1.2, se muestran algunos ejemplos de estructuras de arboles.

Page 19: Benem erita Universidad Autonoma de Puebla€¦ · tratar de resolver el problema del valor propio pero ser a imposible debido a que los sistemas grandes generalmente no son integrables

1.2 Preliminares 7

(a)

(b)

• • • •

(c)

••

••

• •• • •

(d)

Figura 1.2: (a), (b), (c) son arboles y (d) es un arbol con raız.Fuente: Discrete and Combinatorial Mathematics [8], El Teorema De Wignerpara Matrices Aleatorias [15].

Notacion 1.11. Consideremos G = (V,E) un grafo. El numero de verticesy aristas de G lo denotaremos por |V | y |E|, respectivamente.

Lema 1.12. Sea G = (V,E) un grafo conexo, entonces

|V | ≤ |E|+ 1.

La igualdad ocurre si y solo si G es un arbol.

Demostracion. Observemos que los grafos conexos se pueden clasificar enacıclicos y cıclicos. Los grafos conexos acıclicos son por definicion arboles.En primer lugar, demostraremos que si G es un arbol entonces |V | = |E|+1.La prueba se hara por el principio de Induccion matematica en |E|.

Si |E| = 0, entonces el arbol consiste de un solo vertice. Ası, |V | = 1 =|E| + 1. Asumiendo que es cierto para cada arbol que tiene a lo sumo karistas, con k ≥ 0.

Ahora, consideremos un arbol T = (V,E) con |E| = k + 1. Si por uninstante se remueve una arista de tal manera que se obtienen dos subarbolesdigamos T1 = (V1, E1) y T2 = (V2, E2) en donde |V | = |V1| + |V2| y |E1| +|E2|+ 1 = |E|.

Dado que 0 ≥ |E1| ≥ k, 0 ≥ |E2| ≥ k se sigue por la hipotesis de induccionque |E1| + 1 = |V1| y |E2| + 1 = |V2|. En consecuencia, |v| = |V1| + |V2| =(|E1|+ 1) + (|E2|+ 1) = (|E1|+ |E2|+ 1) + 1 = |E|+ 1.

Por lo tanto, |V | = |E|+ 1 siempre que G sea un arbol.Ahora, demostremos que si G es un grafo conexo cıclico, entonces |V | <

|E|+1. Como G es un grafo cıclico existen al menos dos trayectorias distintas

Page 20: Benem erita Universidad Autonoma de Puebla€¦ · tratar de resolver el problema del valor propio pero ser a imposible debido a que los sistemas grandes generalmente no son integrables

8 Teorema de Wigner

que van de (k, l) a (s, t), esto es, existe al menos una arista doble a lo largo dela trayectoria, ası quitaremos aristas de tal manera que obtengamos un arbolT = (V,E ′) debido a que el numero de aristas se conserva y |E ′| < |E|. ComoT es un arbol se cumple que |V | = |E ′|+1, entonces |V | = |E ′|+1 < |E|+1.

Por lo tanto, |V | < |E|+1 siempre que G sea un grafo conexo cıclico.

Nuestro interes se centra en contar el numero de arboles con raız que sepueden formar con k aristas, el conteo se hara de tal manera que se iden-tificara con 2k-tuplas de entradas dicotomicas de la forma (ξ1, ξ2, . . . , ξ2k)y construidas de la siguiente manera, si en el i-esimo paso del recorrido laarista en turno es recorrida por primera vez entonces ξi = 1 y si ya habıapasado por ella entonces ξi = −1.

Esto nos da una biyeccion entre los arboles con raız de k-aristas y elsubconjunto T2k de −1, 12k que consta de los elementos (ξ1, ξ2, . . . , ξ2k)tales que

ξj = ±1,

ξ1 + ξ2 + . . .+ ξ2k = 0,

ξ1 + ξ2 + . . .+ ξj ≥ 0, j = 1, 2, . . . , 2k,

estas tres condiciones garantizan que el recorrido inicia y termina en la raız,que al termino del recorrido se recorra la misma cantidad de aristas de ida yde vuelta.

Definicion 1.13. (1) Una trayectoria NE-SE, es una trayectoria en elplano Z2 que empieza en (0, 0) y tiene pasos de la forma (1, 1) (pasosNorte-Este) o de la forma (1,−1) (pasos Sur-Este).

(2) Sea γ una trayectoria NE-SE, diremos que es una trayectoria deDyck si todos los puntos visitados por γ son de la forma (i, j) conj ≥ 0 y el ultimo de ellos es de la forma (k, 0).

Observemos que dado un numero positivo k, el conjunto de trayectoriasNE-SE con k pasos es identificado naturalmente con −1, 1k, identificandouna trayectoria γ con la sucesion ±1 las cuales aparecen como segundoscomponentes para los k pasos de γ. Se ve inmediatamente que una k-tupla(λ1, λ2, . . . , λk) corresponde a una trayectoria de Dyck sı y solo si

Page 21: Benem erita Universidad Autonoma de Puebla€¦ · tratar de resolver el problema del valor propio pero ser a imposible debido a que los sistemas grandes generalmente no son integrables

1.2 Preliminares 9

λ1 + . . .+ λj ≥ 0, ∀ 1 ≤ j ≤ k,

λ1 + . . .+ λk = 0,

a partir de la igualdad, es claro que las trayectorias de Dyck con k pasos solopueden existir cuando k es par. Ademas, tenemos una biyeccion entre lastrayectorias de Dyck de 2k pasos y el conjunto T2k de −1, 12k, y como yahabıamos mencionado antes tambien existe una biyeccion entre los arbolesde raız de k-aristas y el conjunto T2k de −1, 12k, en consecuencia existeuna biyeccion entre las trayectorias de Dyck de 2k pasos con los arboles deraız de k-aristas.

Notacion 1.14. Para cada entero n ≥ 0 denotaremos por Cn al n-esimonumero de Catalan,

Cn :=1

n+ 1

(2n

n

)=

(2n)!

n!(n+ 1)!,

con la convencion que C0 = 1.

Proposicion 1.15. El numero de arboles con raız que se pueden formar conk aristas coinciden con el k-esimo numero de Catalan

Ck =1

k + 1

(2k

k

), k ≥ 1.

Demostracion. Primero contaremos el numero de trayectorias NE-SE queinician en (0, 0) y terminan en (m,n) ∈ Z2. Una trayectoria NE-SE con uNE-pasos y v SE-pasos termina en (u+ v, u− v) para algunos u, v ∈ N∪0;esto pasa sı y solo si m > 0, |n| ≤ m y m,n tienen alguna paridad.

Si se satisfacen estas ultimas condiciones, entonces las trayectorias quellegan hasta (m,n) son precisamente todas aquellas que tienen m+n

2NE-pasos

y m−n2

SE-pasos. Como las trayectorias se pueden identificar con m-tuplas en−1, 1m se concluye que m+n

2componentes son iguales a 1, y que se pueden

contar con

(mm+n

2

).

En particular, el numero de trayectorias que van de (0, 0) a (2k, 0) es(2k

k

), pero no todas son de Dyck. Nos interesa contar las trayectorias que

Page 22: Benem erita Universidad Autonoma de Puebla€¦ · tratar de resolver el problema del valor propio pero ser a imposible debido a que los sistemas grandes generalmente no son integrables

10 Teorema de Wigner

no son de Dyck, es decir, aquellas que bajan del eje x, para ello utilizaremosun “truco de reflexion”. Sea α una trayectoria que no es de Dyck que vade (0, 0) a (2k, 0) y sea j el mınimo de 1, . . . , 2k − 1 tal que (j,−1) ∈ α.Entonces α se puede escribir como una yuxtaposicion de dos trayectorias,α = α′∨α′′, donde α′ va desde (0, 0) a (j,−1) y α′′ va desde (j,−1) a (2k, 0).

Sea α′′ la reflexion α′′ sobre la recta y = −1, ası α′′ es una trayectoria queva desde (0, 0) a (2k,−2). Entonces, podemos definir F (α) := α′ ∨ α′′, unatrayectoria NE-SE desde (0, 0) a (2k,−2), como se muestra en la Figura 1.3.

0-1

-2

Figura 1.3: grafica y su reflexion.Fuente: Lectures on the Combinatorics of Free Probability [16].

La transformacion F es una biyeccion. En efecto, sea β una trayectoriaque va de (0, 0) a (2k,−2) entonces existe un mınimo j ∈ 1, . . . , 2k − 1tal que β esta por debajo de la recta y = −1 despues de j pasos. Escribimosβ = β′ ∨ β′′ con β′ de (0, 0) a (j,−1) y β′′ desde (j,−1) a (2k, 0), y sea β′′

la reflexion de β′′ en la recta y = −1; entonces α := β′ ∨ β′′ es la unicatrayectoria en el dominio de F tal que F (α) = β.

Se sigue que el numero de trayectorias que terminan en (2k, 0) pero noson de Dyck es igual al numero de trayectorias que terminan en (2k,−2) que

son

(2k

k − 1

). Finalmente, el numero de trayectorias de Dyck con 2k pasos

es (2k

k

)−(

2k

k − 1

)=

1

k + 1

(2k

k

)= Ck.

Page 23: Benem erita Universidad Autonoma de Puebla€¦ · tratar de resolver el problema del valor propio pero ser a imposible debido a que los sistemas grandes generalmente no son integrables

1.3 Teorema de Wigner 11

1.3. Teorema de Wigner

E. P. Wigner obtuvo la Ley del Semicırculo tambien conocida como Teo-rema de Wigner durante la decada de los 50’s, logrando explicar el compor-tamiento estadıstico de los niveles de energıa de un sistema fısico en terminosde los valores propios cuando la dimension de las matrices es grande.

Definicion 1.16. Sea A una matriz aleatoria hermitiana de tamano N×N yλ1, λ2, . . . , λN sus valores propios. La funcion de distribucion espectralempırica de A se define por

FA(x) :=1

N#1 ≤ i ≤ N : λi ≤ x, x ∈ R,

determina la proporcion de valores propios menores o iguales a x.

Consideremos matrices de Wigner que satisfacen las siguientes condicio-nes

E[aij] = 0, (1.1)

E|aij|2 =1

N, (1.2)

Mk := supN∈N

max1≤i≤j≤N

E|√Naij|k <∞. (1.3)

Es necesario que nuestras matrices se normalicen, de lo contrario se dis-persarıa la masa y no habrıa convergencia; (1.3) es una condicion para acotarlos momentos que nos permite usar el metodo de momentos.

Notacion 1.17. Sean

B :=√NA y bij :=

√Naij,

iii := (i1, . . . , ik) ∈ 1, 2, . . . , Nk, ik+1 = i1,

QQQ(iii) := E[bi1i2bi2i3 · · · biki1 ],∑iii

:=N∑

i1,...,ik=1

:=N∑i1=1

· · ·N∑ik=1

.

Page 24: Benem erita Universidad Autonoma de Puebla€¦ · tratar de resolver el problema del valor propio pero ser a imposible debido a que los sistemas grandes generalmente no son integrables

12 Teorema de Wigner

A consecuencia de que QQQ(iii) tiene una estructura cıclica, podemos identi-ficar cada ındice iii con un grafo conexo G(iii) = (V (iii), E(iii)) en donde V (iii) =i1, . . . , ik son los vertices y E = (i1, i2), . . . , (ik, i1) las aristas dirigidastal y como se definio en la seccion anterior. Ademas, podemos representar algrafo conexo como se ilustra en la Figura 1.4.

••

i2ik

i3

ik+1

i1

Figura 1.4: grafo de los ındices de bi1i2bi2i3 · · · biki1 .Fuente: El Teorema de Wigner para matrices aleatorias [15].

Recordemos que dadas A = (aij) una matriz de tamano m×n y B = (bij)una matriz de tamano n × s el producto de AB sera una matriz de tamanom× s donde la kj-coordenada es ckj =

∑mk=1 aikbkj. De manera que podemos

escribir la traza no normalizada de la k-esima potencia de B como

Tr((B)k) =N∑i1

((B)k)i1i1 =N∑

i1,i2=1

bi1i2((B)k−1)i2i1

= · · · =N∑

i1,...,ik=1

bi1i2bi2i3 · · · biki1 .

Teorema 1.18 (Teorema de Wigner). Si AN , N ≥ 1 es una sucesionde matrices de Wigner que cumplen las condiciones (1.1)-(1.3), entonces ladistribucion espectral empırica de AN converge casi seguramente a la distri-bucion del semicırculo, es decir, para cada x ∈ R, cuando N −→∞

FAN(x) :=

1

N#i : λNi ≤ x c.s.−→

∫ x

−∞f(t)1[2,−2](t)dt,

Page 25: Benem erita Universidad Autonoma de Puebla€¦ · tratar de resolver el problema del valor propio pero ser a imposible debido a que los sistemas grandes generalmente no son integrables

1.3 Teorema de Wigner 13

en donde f(t) = 12π

√4− t2,−2 ≤ t ≤ 2 es la funcion de densidad del se-

micırculo.

La convergencia del Teorema de Wigner se demostrara a partir del metodode momentos (Ver Capıtulo 2 de [19]). El metodo de momentos establece:

Sean Fn y F funciones de distribucion para las cuales existen sus momen-tos∫xkFn(dx) y

∫xkF (dx) para k = 1, 2, . . . respectivamente. Si F esta uni-

camente determinada por sus momentos y∫xkFn(dx)→

∫xkF (dx), cuando

n→∞ para k = 1, 2, . . ., entonces Fn(x)→ F (x) cuando n→∞ para cadapunto de continuidad de F .

Notemos que, los momentos de la distribucion espectral empırica cumplela relacion ∫

xkFAN(dx) =

Tr(AkN)

Nc.s., k = 1, 2, . . . ,

a consecuencia de que la funcion espectral empırica se puede interpretarcomo una distribucion uniforme continua en los valores propios, en dondecada valor propio tiene probabilidad 1

Nde ocurrir.

Proposicion 1.19. Los momentos pares de la distribucion del semicırculoestan dados por los numeros de Catalan∫ 2

−2

x2k 1

√4− x2dx = Ck.

Es claro que los momentos impares es cero por la simetrıa de la distribucion.

Demostracion. Sea

m2k =1

∫ 2

−2x2k√

4− x2dx, (simetrıa)

=1

π

∫ 2

0x2k√

4− x2dx, (cambio x = 2√y)

=22k+1

π

∫ 1

0yk−

12 (1− y)

12dy, (Beta(α1, α2), α1 = k + 1/2, α2 = 3/2)

=22k+1

π

Γ(k + 12)Γ(3

2)

Γ(k + 2),

Page 26: Benem erita Universidad Autonoma de Puebla€¦ · tratar de resolver el problema del valor propio pero ser a imposible debido a que los sistemas grandes generalmente no son integrables

14 Teorema de Wigner

usando las propiedades Γ(k + 2) = (k + 1)! y Γ(η + 1) = ηΓ(η) para η > 0,se tiene que

Γ

(k +

1

2

)=

(2k − 1)

2

(2k − 3)

2· · · 3

(3

2

),

Γ

(3

2

)=

1

(1

2

)=

1

2

√π,

de donde

m2k =22k+1

π

(2k − 1)(2k − 3)(2k − 5) · · · 3 · 1√π

2k

√π

2

=k!2k

k!(k + 1)!(2k − 1)(2k − 3)(2k − 5) · · · 3 · 1

=(2k)!

k!(k + 1)!= Ck.

Teorema 1.20. Bajo las mismas condiciones del Teorema 1.18 sobre matri-ces aleatorias AN se cumple la convergencia en esperanza

ETr[(AN)k]

N

−→

C k

2, si k es par,

0, si k es impar,

cuando N −→∞.

Para la demostracion del Teorema 1.20, introduciremos cierta notacion yenunciaremos dos lemas.

Observemos que

Page 27: Benem erita Universidad Autonoma de Puebla€¦ · tratar de resolver el problema del valor propio pero ser a imposible debido a que los sistemas grandes generalmente no son integrables

1.3 Teorema de Wigner 15

Etr[(AN)k]

= E

tr[(N

−12 BN)k]

=

1

Nk2

+1

N∑i1,...,ik=1

E[bi1i2bi2i3 · · · biki1 ]

=1

Nk2

+1

∑iii

QQQ(iii)

=1

Nk2

+1

∑GGG(iii)

1≤|V (iii)|≤[ k2

]+1

QQQ(iii) +

+1

Nk2

+1

∑GGG(iii)

|V (iii)|≥[ k2

]+2

QQQ(iii), (1.4)

esta ultima desigualdad se cumple al clasificar sus terminos de acuerdo alnumero de vertices que tienen los esqueletos de los grafos.

Lema 1.21. Si E(iii) tiene una arista aislada entonces QQQ(iii) = 0.

Demostracion. De la definicion de BN es claro que E[bij] = 0 para cada i, jy que bij y blm son independientes cuando (i, j) 6= (l,m) o (l,m) 6= (i, j).Luego si (il, il+1) es una arista aislada de E(iii)

QQQ(iii) = E[bi1i2 · · · bil−1ilbilil+1bil+1il+2

· · · biki1 ]= E[bilil+1

]E[bi1i2 · · · bil−1ilbil+1il+2· · · biki1 ] = 0.

Lema 1.22. Si |V (iii)| ≥ [k2] + 2 entonces E(iii) tiene por lo menos una arista

aislada.

Demostracion. Por el Lema 1.21, |E(iii)|+1 ≥ |V (iii)| de donde |E(iii)| ≥ [k2]+1,

esto es, hay por lo menos [k2] + 1 aristas no dirigidas distintas, entonces E(iii)

debe de tener una arista dirigida, pues de lo contrario E(iii) tendrıa por lomenos 2([k

2] + 1) = k+ 2 aristas, cuando k es par o por lo menos k+ 1 aristas

cuando k es impar, lo cual en ambos casos es imposible pues |E(iii)| = karistas.

Page 28: Benem erita Universidad Autonoma de Puebla€¦ · tratar de resolver el problema del valor propio pero ser a imposible debido a que los sistemas grandes generalmente no son integrables

16 Teorema de Wigner

A consecuencia de los Lemas 1.21 y 1.22, (1.4) se reduce a

Etr[(AN)k]

=

1

Nk2

+1

∑GGG(iii)

1≤|V (iii)|≤[ k2

]+1

QQQ(iii).

Demostracion del Teorema 1.20. Dado que k ∈ Z tenemos dos casos:• Caso k impar. Por la desigualdad de Holder generalizada (Ver [1] pagina

85) y (1.3) se tiene que

|QQQ(iii)| = |E[bi1i2bi2i3 · · · biki1 ]| ≤ [E|bi1i2|k]1k · · · [E|biki1|k]

1k

≤ M1kk · · ·M

1kk = Mk.

Luego,∣∣Etr [(AN)k]∣∣ ≤ 1

Nk2

+1

∑GGG(iii)

1≤|V (iii)|≤[ k2

]+1

|QQQ(iii)| ≤ 1

Nk2

+1

∑GGG(iii)

1≤|V (iii)|≤[ k2

]+1

Mk

≤ 1

Nk2

+1

N∑i1,...,i[ k2 ]

=1

Mk ≤N [ k

2]+1

Nk2

+1Mk

=Mk

N12

−→ 0 cuando N −→∞.

• Caso k par. Sea

Etr[(AN)k

]= S1 + S2,

en donde

S1 =1

Nk2

+1

∑GGG(iii)

1≤|V (iii)|≤[ k2

]

QQQ(iii) y1

Nk2

+1

∑GGG(iii)

|V (iii)|=[ k2

]+1

QQQ(iii).

Pero,

|S1| ≤1

Nk2

+1

N∑i1,...,ik=1

|QQQ(iii)| ≤ Nk2Mk

Nk2

+1−→ 0 cuando N −→∞.

Page 29: Benem erita Universidad Autonoma de Puebla€¦ · tratar de resolver el problema del valor propio pero ser a imposible debido a que los sistemas grandes generalmente no son integrables

1.3 Teorema de Wigner 17

De manera que S1 converge a cero cuando N −→ ∞. Resta demostrar queS2 converge a C k

2. En este caso |V (iii)| = k

2+ 1 por el Lema 1.12, se tiene que

|E(iii)| ≤ k2. Si |E(iii)| > k

2entonces E(iii) tiene al menos una arista aislada y

por el Lema 1.22, QQQ(iii) = 0.

Si |E(iii)| = k2, por el Lema 1.12, G(iii) es un arbol, por lo tanto, cada arista

en E(iii) tiene su arista opuesta en E(iii). En este caso QQQ(iii) es de la forma

QQQ(iii) = E[|be1|2|be2|2 · · · |be k

2

|2]

=∏e∈E(iii)

E|be|2 =∏e∈E(iii)

E|√Nae|2 = 1.

Como G(iii) es un arbol con raız, de la Proposicion 1.15 hay C k2

formas de

enumerar las aristas

S2 =1

Nk2

+1

∑iii

G(iii) es arbol

QQQ(iii)

=1

Nk2

+1

∑A arbol

∑iii

G(iii)=A

1

=C k

2

Nk2

+1N(N − 1) . . .

(N − k

2

),

de donde

N(N − 1) . . . (N − k2)

Nk2

+1=

(N

N

)(N − 1

N

)· · ·

(N − k

2

N

)−→ 1,

cuando N −→∞. Por lo que,

S2 −→ C k2

cuando N −→∞.

En la Figura 1.5, se muestra la comparacion de la convergencia casi seguray la convergencia en media de los eigenvalores de una matriz en GOE(200).

Page 30: Benem erita Universidad Autonoma de Puebla€¦ · tratar de resolver el problema del valor propio pero ser a imposible debido a que los sistemas grandes generalmente no son integrables

18 Teorema de Wigner

−2 −1 0 1 2

01

23

45

67

Eigenvalores

Fre

cuen

cia

(a) Convergencia casi segura.

−2 −1 0 1 2

010

020

030

040

050

060

0

Eigenvalores

Fre

cuen

cia

(b) Convergencia en media con 100 realiza-ciones.

Figura 1.5: Comparacion de Convergencias con una matriz A200.Fuente: Elaboracion propia.

Notemos que la convergencia en media converge mas rapido a la distri-bucion del semicırculo en comparacion de la convergencia casi segura.

Page 31: Benem erita Universidad Autonoma de Puebla€¦ · tratar de resolver el problema del valor propio pero ser a imposible debido a que los sistemas grandes generalmente no son integrables

Capıtulo 2

Independencia Libre Asintotica

En 1983 Dan Virgil Voiculescu, tenıa gran interes en comprender los ope-radores de Von Neumann, gracias a esta motivacion fue creada la Proba-bilidad no conmutativa. Fue hasta 1985 que Voiculescu introdujo la nocionfundamental de los Espacios de Probabilidad No Conmutativos y la Indepen-dencia Libre.

En 1991, Voiculescu estudio que las matrices aleatorias satisfacıan la liber-tad asintotica, esto transformo la teorıa dramaticamente. En la actualidad,es facil obtener el comportamiento de una sucesion de variables aleatoriasconsiderando solo sus momentos y bajo ciertas condiciones con la ayuda dela independencia libre y la independencia libre asintotica.

2.1. Espacios de Probabilidad No Conmuta-

tivos

Definicion 2.1. Una algebra consta de un espacio vectorial A sobre uncampo K, junto con una operacion binaria de multiplicacion en el conjuntoA, tal que para todas las β ∈ K y a, b, c ∈ A se satisfacen las condicionessiguientes:

(βa)b = β(ab) = a(βb).

(a+ b)c = ac+ bc.

a(b+ c) = ab+ ac.

19

Page 32: Benem erita Universidad Autonoma de Puebla€¦ · tratar de resolver el problema del valor propio pero ser a imposible debido a que los sistemas grandes generalmente no son integrables

20 Independencia Libre Asintotica

Tambien, A es una algebra asociativa sobre K si ademas de las tres condi-ciones anteriores

(ab)c = a(bc) ∀ a, b, c ∈ A,

diremos que A es una algebra unitaria o una algebra con unidad sicontiene a su respectiva unidad que denotamos como 1A.

Definicion 2.2. Un Espacio de Probabilidad No Conmutativo es un par(A, ϕ) con A una algebra unitaria y ϕ un funcional lineal unitario

ϕ : A → C, ϕ(1A) = 1.

Los elementos a ∈ A son variables aleatorias no conmutativas o solo variablesaleatorias en (A, ϕ).

Se dice que ϕ es tracial si cumple con la propiedad

ϕ(ab) = ϕ(ba), ∀ a, b ∈ A.

Definicion 2.3. Sea (A, ϕ) un espacio de probabilidad no conmutativo, de-cimos que ϕ es no degenerado si ϕ(yx) = 0 para todo y ∈ A implica quex = 0 y ϕ(xy) = 0 para todo y ∈ A implica que x = 0.

Definicion 2.4. Si A esta equipada con la operacion antilineal

∗ : A → A si (a∗)∗ = a y (ab)∗ = b∗a∗, ∀ a, b ∈ A,diremos que A es una ∗-algebra.

Definicion 2.5. Sea A una ∗-algebra.

La variable aleatoria a ∈ A es autoadjunta si a = a∗.

La variable aleatoria u ∈ A es unitaria si u∗u = uu∗ = 1.

La variable aleatoria a ∈ A es normal si a∗a = aa∗.

Definicion 2.6. Sea (A, ϕ) un espacio de probabilidad y A una ∗-algebra

1) El estado ϕ es positivo si

ϕ(a∗a) ≥ 0, ∀ a ∈ A,en este caso llamamos a (A, ϕ) un ∗∗∗-espacio de probabilidad.

Page 33: Benem erita Universidad Autonoma de Puebla€¦ · tratar de resolver el problema del valor propio pero ser a imposible debido a que los sistemas grandes generalmente no son integrables

2.1 Espacios de Probabilidad No Conmutativos 21

2) Sea (A, ϕ) un ∗-espacio de probabilidad no conmutativo, el estado ϕ sedira fiel si

a ∈ A, ϕ(a∗a) = 0 =⇒ a = 0.

3) Sea (A, ϕ) un ∗-espacio de probabilidad, el estado ϕ es autoadjunto, sitiene la propiedad

ϕ(a∗) = ϕ(a), ∀ a ∈ A.

Proposicion 2.7. Si (A, ϕ) es un ∗-espacio de probabilidad, se cumple que

|ϕ(b∗a)|2 ≤ ϕ(a∗a)ϕ(b∗b), ∀ a, b ∈ A,

que comunmente es llamada la desigualdad de Cauchy-Schwarz para elfuncional ϕ.

La demostracion es exactamente igual que para el caso usual.

Ejemplo 2.8. A continuacion se presentan algunos espacios de probabilidadno conmutativos.

(1) Sea A = L∞−(Ω,F ,P) y sea ϕ definida por

ϕ(a) =

∫Ω

a(ω)dP (ω), a ∈ A,

entonces (A, ϕ) es un ∗-espacio de probabilidad (la ∗-operacion sobreA es la operacion compleja-conjugacion de una funcion compleja).

(2) Sea d un entero positivo, y Md(C) la algebra de matrices complejasde tamano d × d con la multiplicacion usual de matrices, y sea tr :Md(C) −→ C la traza normalizada,

tr(a) =1

d

d∑i=1

αii para α = (α)di,j=1 ∈Md(C),

entonces (Md(C), tr) es un ∗-espacio de probabilidad (donde la ∗-operacionesta dada por la transpuesta de la matriz y la conjugacion compleja delas entradas).

Page 34: Benem erita Universidad Autonoma de Puebla€¦ · tratar de resolver el problema del valor propio pero ser a imposible debido a que los sistemas grandes generalmente no son integrables

22 Independencia Libre Asintotica

(3) Sea G un grupo, se define CG como el algebra del grupo G. Esto es,CG es un espacio vectorial complejo que tiene una base indexada porlos elementos de G, y sus operaciones de multiplicacion y ∗-operacionse definen de manera natural:

CG :=

∑g∈G

αgg | αg ∈ C con un numero finito de αg 6= 0

con (∑

αgg)·(∑

βhh)

:=∑g,h

αgβh(gh) =∑k∈G

( ∑g,h:gh=k

αgβh

)k

y (∑αgg)∗

:=∑

αgg−1.

Sea e la unidad de G. El funcional τG : CG −→ C definido por

τG

(∑αgg)

:= αe,

es llamada la traza canonica de CG y (CG, τG) es un ∗-espacio deprobabilidad.

Es fundamental considerar el concepto de ∗-distribucion para un elementoarbitario aaa en un ∗-espacio de probabilidad (A, ϕ). Consideremos aaa ∈ Anormal, es decir, que aaa∗aaa = aaaaaa∗ el caso mas simple de las ∗-distribuciones.En este caso la ∗-subalgebra unitaria de A generada por aaa es

A = spanaaak(aaa∗)l|k, l ≥ 0.La ∗-distribucion de aaa tiene como objetivo tener un seguimiento de los valoresϕ(aaak(aaa∗)l) en donde k, l corren en N ∪ 0, tratando siempre de tener unamedida de probabilidad compacta y con soporte en C.

Definicion 2.9 (Distribucion en sentido analıtico). Sea (A, ϕ) un ∗-espaciode probabilidad y sea aaa un elemento normal de A. Si existe una medida deprobabilidad con soporte compacto µ en C tal que∫

zkzldµ(z) = ϕ(aaak(aaa∗)l), ∀ k, l ∈ N,

entonces µ esta unicamente determinada y es la medida de probabilidad dela ∗-distribucion de aaa.

Page 35: Benem erita Universidad Autonoma de Puebla€¦ · tratar de resolver el problema del valor propio pero ser a imposible debido a que los sistemas grandes generalmente no son integrables

2.1 Espacios de Probabilidad No Conmutativos 23

Definicion 2.10. Sea µ una medida de probabilidad sobre R con momentos

mn =

∫Rtndµ(t)

decimos que µ esta determinada por sus momentos, si µ es la unica medidade probabilidad υ sobre R tal que:∫

Rtndυ(t) = mn, ∀ n ∈ N ⇒ υ = µ.

Definicion 2.11. Sean (AN , ϕN) con N ∈ N y (A, ϕ) espacios de proba-bilidad no conmuativos y considere aN ∈ AN para cada N ∈ N y aaa ∈ A.Decimos que aN converge en distribucion hacia aaa cuando N → ∞ y lodenotaremos por

aNd−→ aaa,

si tenemos que

lımN→∞

ϕN(anN) = ϕ(aaan), ∀ n ∈ N.

Definicion 2.12. Un morfismo entre dos ∗-espacios de probabilidad (A, ϕ)y (B, ψ) es un homomorfismo de la ∗-algebra unitaria Φ : A → B con lapropiedad de que ψ Φ = ϕ.

Notacion 2.13. Sea s un entero positivo.

(1) Denotemos por C〈X1, . . . , Xs〉 el algebra unitaria libre generada pors indeterminados no-conmutadores X1, . . . , Xs. Los monomios de laforma Xr1 , Xr2 , . . . , Xrn en donde n ≥ 0 y 1 ≤ r1, . . . , rn ≤ s dan unabase lineal para C〈X1, . . . , Xs〉 y la multiplicacion de dos monomiosesta dado por la yuxtaposicion.

(2) Sea A una algebra unitaria, y sea a1, . . . , as elementos de A. Para cadaP ∈ C〈X1, . . . , Xs〉 denotemos por P (a1, . . . , as) los elementos de A quese obtienen de reemplazar X1, . . . , Xs con a1, . . . , as, respectivamente,en la escritura explıcita de P . Equivalentemente,

P ∈ C〈X1, . . . , Xs〉 7−→ p(a1, . . . , as) ∈ A,

es el homomorfismo de algebras unitarias unicamente determinada porel hecho de mapear Xr a ar, para 1 ≤ r ≤ s.

Page 36: Benem erita Universidad Autonoma de Puebla€¦ · tratar de resolver el problema del valor propio pero ser a imposible debido a que los sistemas grandes generalmente no son integrables

24 Independencia Libre Asintotica

Definicion 2.14. Sea (A, ϕ) un espacio de probabilidad no conmutativo ysean a1, . . . , as elementos de A

La familia

ϕ(ar1 · · · arn)|n ≥ 1, 1 ≤ r1, . . . , rn ≤ s,

es llamada la familia de momentos conjunta de a1, . . . , as.

El funcional lineal µ : C〈X1, . . . , Xs〉 −→ C definido por

µ(P ) := ϕ(P (a1, . . . , as)), P ∈ C〈X1, . . . , Xs〉,

es llamada la distribucion conjunta de a1, . . . , as en (A, ϕ).

Ejemplo 2.15. (1) Sea (Ω,F ,P) un espacio de probabilidad y seanf1, . . . , fs : Ω −→ R variables aleatorias acotadas. Entonces f1, . . . , fsson al mismo tiempo elementos del espacio de probabilidad no con-mutativo L∞−(Ω,F ,P) que aparece en el ejemplo 2.8(1). La distribu-cion conjunta µ de f1, . . . , fs en L∞−(Ω,F ,P) esta determinada por laformula

µ(Xr1 · · ·Xrn) =

∫Ω

fr1(ω) · · · frn(ω)dP (ω),

para cada n ≥ 1 y 1 ≤ r1, . . . , rn ≤ s.

(2) Sea d un entero positivo, y consideremos el ∗-espacio de probabilidadno conmutativo (Md(C), tr) del ejemplo 2.8(2). Sean A1, A2 ∈ Md(C)matrices hermitianas. Su distribucion conjunta µ : C〈X1, X2〉 −→ Cesta determinada por la formula

µ(Xr1 · · ·Xrn) = tr(Ar1 · · · arn), ∀ n ≥ 1, 1 ≤ r1, . . . , rn ≤ 2,

a menos que A1, A2 conmuten, el funcional µ no puede ser reemplazadopor un objeto mas simple (como una medida de probabilidad en R2) queregistre la misma informacion.

Page 37: Benem erita Universidad Autonoma de Puebla€¦ · tratar de resolver el problema del valor propio pero ser a imposible debido a que los sistemas grandes generalmente no son integrables

2.2 Independencia Libre 25

Definicion 2.16. Sea (A, ϕ) un ∗-espacio de probabilidad, sea x un elementoautoadjunto de A y sea r un entero postivo. Si x tiene distribucion igual a

2πr2

√r2 − t2dt sobre el intervalo [−r, r], entonces decimos que x es un ele-

mento semicircular de radio r.

Observacion 2.17. (1) la grafica de la funcion t ∈ [−r, r] 7→ 2πr2

√r2 − t2

no es exactamente un semicırculo pero es una semielipse.

(2) Los elementos semicirculares de radio 2 son llamados semicircularesestandar, son normalizados por la varianza. Es inmediato que, unelemento semicircular x de radio r tiene varianza

V ar(x) := ϕ(x2)− ϕ(x)2 dado por V ar(x) =r2

4.

2.2. Independencia Libre

Definicion 2.18. Sea (A, ϕ) un Espacio de Probabilidad no Conmutativo, ysea I un conjunto de ındices fijos.

Las subalgebras unitarias (Ai)i∈I son independientes tensorialmen-te, si las subalgebras Ai conmutan (es decir, ab = ba para todo a ∈ Aiy todo a ∈ Aj y todos i, j ∈ I con i 6= j) y si ϕ se factoriza la siguientemanera:

ϕ

(∏j∈J

aj

)=∏j∈J

ϕ(aj),

para todos los subconjuntos finitos J ⊂ I y todo aj ∈ Aj (j ∈ J).

La independencia tensorial (o clasica) de variables aleatorias se definepor la independencia tensorial de las algebras unitarias generadas; porlo que si a y b conmutan y sus momentos mixtos se factorizan diremosque a y b son tensorialmente independientes, es decir

ab = ba y ϕ(anbm) = ϕ(an)ϕ(bm), ∀ n,m ≥ 0.

Definicion 2.19. Sea (A, ϕ) una algebra unitaria con un funcional linealunitario. Suponga que A1, . . . ,As son subalgebras unitarias. Decimos queA1, . . . ,As son libremente independientes (o solo libres) con respecto aϕ si para cada r ≥ 2 y a1, . . . , ar ∈ A tal que

Page 38: Benem erita Universidad Autonoma de Puebla€¦ · tratar de resolver el problema del valor propio pero ser a imposible debido a que los sistemas grandes generalmente no son integrables

26 Independencia Libre Asintotica

ϕ(ai) = 0 para i = 1, . . . , r,

ai ∈ Aji con 1 ≤ ji ≤ s para i = 1, . . . , r,

j1 6= j2, j2 6= j3, . . . , jr−1 6= jr.

Tenemosϕ(a1, . . . , ar) = 0.

Es decir, el producto alternante de los elementos centrados es centrado.

Definicion 2.20. 1) Sea (A, ϕ) un espacio de probabilidad no conmutati-vo. Los elementos a1, . . . , as ∈ A se dicen libres o libremente inde-pendientes si las subalgebras unitarias generadas Ai = alg(1, ai) parai = 1, . . . , s son libres en A con respecto a ϕ.

2) Sea (A, ϕ) un ∗-espacio de probabilidad, entonces decimos quea1, . . . , as ∈ A son ∗-libres si las ∗-subalgebras unitarias generadas Bi =alg(1, ai, a

∗i ) para i = 1, . . . , s son libres en A con respecto a ϕ.

Lema 2.21. Sea (B, ϕ) un espacio de probabilidad no conmutativo. Conside-remos subalgebras unitarias A1, . . . ,As ⊂ B libres. Sea A el algebra generadapor A1, . . . ,As. Entonces ϕ|A esta determinado por ϕ|A1 , . . . , ϕ|As y la con-dicion de independencia libre.

Demostracion. Los elementos del algebra generada A son combinaciones li-neales de palabras de la forma a1 · · · as con aj ∈ Aij para algun ij ∈ 1, . . . , sque cumplen la condicion de que los elementos vecinos provienen de diferentessubalgebras.

Demostraremos que ϕ(a1 · · · as) esta unicamente determinado porϕ|A1 , . . . , ϕ|As .

La demostracion se hara por induccion sobre k. El caso k = 1 es claroporque a1 ∈ Aij . Ahora supongamos que tenemos una palabra de la formaa1a2 con a1 ∈ Ai1 y a2 ∈ Ai2 con i1 6= i2. Por definicion de independencialibre se tiene que

ϕ[(a1 − ϕ(a1)1)(a2 − ϕ(a2)1)] = 0,

pero

(a1 − ϕ(a1)1)(a2 − ϕ(a2)1) = a1a2 − ϕ(a2)a1 − ϕ(a1)a2 + ϕ(a1)ϕ(a2)1,

Page 39: Benem erita Universidad Autonoma de Puebla€¦ · tratar de resolver el problema del valor propio pero ser a imposible debido a que los sistemas grandes generalmente no son integrables

2.2 Independencia Libre 27

entonces,

ϕ(a1a2) = ϕ[ϕ(a2)a1 + ϕ(a1)a2 − ϕ(a1)ϕ(a2)] = ϕ(a1)ϕ(a2),

continuando de esta manera, sabemos que ϕ(a1 · · · as) = 0 por la definicionde libertad, donde aj = aj − ϕ(aj)1 es una variable aleatoria centrada.

Entonces

ϕ(a1, · · · , ak) = ϕ(a1 · · · as) + terminos de orden inferior en ϕ,

en donde los terminos de orden inferior son tratados por la hipotesis deinduccion.

Notacion 2.22. La operacion de pasar de una variable aleatoria aaa a

aaa := aaa− ϕ(aaa)1,

es usualmente llamada el centrado de aaa, en donde 1 es la unidad de laalgebra.

Ejemplo 2.23. Consideremos (A, ϕ) un espacio de probabilidad no conmu-tativo, y A, B dos subalgebras libres. Para a, a1, a2 ∈ A y b, b1, b2 ∈ B calcula-remos concretamente algunos momentos mixtos de tamano pequeno. El trucoprincipal es reducir un momento mixto general a los especiales consideradosen la definicion de independencia libre al central las variables involucradas.

(1) De acuerdo a la definicion de independencia libre, se tiene directamenteque ϕ(ab) = 0 si ϕ(a) = 0 y ϕ(b) = 0. Para calcular ϕ(ab) en generalse centran las variables como en la demostracion del lema anterior:

0 = ϕ((a− ϕ(a)1)(b− ϕ(b)1))

= ϕ(ab)− ϕ(a1)ϕ(b)− ϕ(a)ϕ(1b) + ϕ(a)ϕ(b)ϕ(1)

= ϕ(ab)− ϕ(a)ϕ(b),

implica que

ϕ(ab) = ϕ(a)ϕ(b), si a y b son libres.

(2) Siguiendo el mismo camino podemos escribir

ϕ((a1 − ϕ(a1)1)(b− ϕ(b)1)(a2 − ϕ(a2)1)) = 0,

lo que implica que

ϕ(a1ba2) = ϕ(a1a2)ϕ(b) si a1, a2, y b son libres.

Page 40: Benem erita Universidad Autonoma de Puebla€¦ · tratar de resolver el problema del valor propio pero ser a imposible debido a que los sistemas grandes generalmente no son integrables

28 Independencia Libre Asintotica

Proposicion 2.24. Sea (A, ϕ) un espacio de probabilidad no conmutativo.La subalgebra de escalares C1 es libre de cualquier otra subalgebra unitariaB ⊂ A.

Demostracion. Consideremos a1, . . . , ak como en la definicion de independen-cia libre, con k ≥ 2 (el caso k = 1 es claro). Entonces tenemos al menos unaj ∈ C1 con ϕ(aj) = 0, por lo que aj = 0 en consecuencia a1 · · · ak = 0 y asıϕ(a1 · · · ak) = 0.

Lema 2.25. Sea (A, ϕ) un espacio de probabilidad no conmutativo, y sea(Ai)i∈I una familia de subalgebras unitarias de A independientemente libres.Sean a1, . . . , ak elementos de las algebras Ai(1), . . . ,Ai(k), respectivamente, endonde los ındices i(1), . . . , i(k) ∈ I son tales que

i(1) 6= i(2), . . . , i(k − 1) 6= i(k),

y en donde ϕ(a1) = · · · = ϕ(ak) = 0. De la misma manera, sean b1, . . . , blelementos en Aj(1), . . . ,Aj(l) , respectivamente, tales que

ϕ(b1) = · · · = ϕ(bl) = 0.

Entonces, tenemos que

ϕ(a1 · · · akbl · · · b1) =

ϕ(a1b1) · · ·ϕ(akbk), si k = l, i(1) = j(1), . . . , i(k) = j(l)

0, en otro caso.

Demostracion. Si tenemos i(k) 6= j(l), entonces

ϕ(a1 · · · akbl · · · b1) = 0,

por otro lado, si consideramos i(k) = j(l), obtenemos que

ϕ(a1 · · · akbl · · · b1) = ϕ (a1 · · · ak−1 · ((akbl) + ϕ(akbl)1) · bl−1 · · · b1)

= 0 + ϕ(akbl) · ϕ(a1 · · · ak−1bl−1 · · · b1).

Page 41: Benem erita Universidad Autonoma de Puebla€¦ · tratar de resolver el problema del valor propio pero ser a imposible debido a que los sistemas grandes generalmente no son integrables

2.2 Independencia Libre 29

Proposicion 2.26. Sea (A, ϕ) un espacio de probabilidad no conmutativo,y sea (Ai)i∈I una familia de subalgebras unitarias de A independientementelibres, y sea B una subalgebra de A generada por

⋃i∈I Ai. Si ϕ|Ai

es unatraza para cada i ∈ I, entonces ϕ|B es una traza.

Demostracion. Observemos que un elemento a en B puede escribirse comouna combinacion lineal de 1 y elementos de la forma a1 · · · ak con k ≥ 1,ap ∈ Ai(p) tales que i(1) 6= i(2) 6= . . . i(k) y ϕ(a1) = · · · = ϕ(ak) = 0.

Queremos demostrar que ϕ(ab) = ϕ(ba) para todo a, b ∈ B, para elloes suficiente tomar a = a1 · · · ak y b = bl . . . b1 con ap ∈ Ai(p) y bq ∈ Aj(q)en donde i(1) 6= i(2) 6= . . . 6= i(k) y j(1) 6= j(2) 6= . . . j(l) y tales queϕ(a1) = · · · = ϕ(ak) = 0 y ϕ(b1) = · · · = ϕ(bl) = 0. Aplicando el Lemaprevio 2.25 obtenemos

ϕ(a1 · · · akbl · · · b1) = δkl · δi(k)j(k) · · · δi(1)j(i) · ϕ(a1b1) · · ·ϕ(akbk)

y

ϕ(bl · · · b1a1 · · · ak) = δkl · δj(1)i(1) · · · δj(l)i(l) · ϕ(blal) · · ·ϕ(b1a1).

La afirmacion se sigue de suponer que ϕ es una traza en cada Ai, esto es,que ϕ(apbp) = ϕ(bpap) para todo p.

Definicion 2.27. Sea S un conjunto finito totalmente ordenado.

(1) Llamamos a π = V1, . . . , Vr una particion del conjunto S si y solo siπ es una descomposicion de S en conjuntos no vacıos y disjuntos Vi,es decir,

Vi 6= ∅, Vi ∩ Vj = ∅ (i 6= j) y V1 ∪ . . . ∪ Vr = S.

Llamamos a V1, . . . , Vr los Bloques de π. El numero de bloques de πes denotado por |π|. Dados dos elementos p, q ∈ S, escribiremos p ∼π qsi p y q pertenecen al mismo bloque de π.

(2) El conjunto de todas las particiones de S las denotaremos por P(S).En el caso especial en que S = 1, . . . , n, lo denotaremos por P(n).

Page 42: Benem erita Universidad Autonoma de Puebla€¦ · tratar de resolver el problema del valor propio pero ser a imposible debido a que los sistemas grandes generalmente no son integrables

30 Independencia Libre Asintotica

(3) P(n) se convierte en una retıcula si introducimos el siguiente ordenparcial (llamado orden de refinamiento inverso): π ≤ σ si cadabloque de σ es una union de bloques de π. Podemos denotar el elementomas pequeno de P(n) por 0n que consiste de n bloques y el elementomas grande en P(n) por 1n que consiste de un solo bloque.

(4) Llamamos a π ∈ P(n) una particion que se cruza si existen 1 ≤ p1 <q1 < p2 < q2 ≤ n tales que p1 ∼π p2 6∼π q1 ∼π q2.

(5) Si el inciso (4) no ocurre, decimos que π no se cruza. El conjunto detodas las particiones que no se cruzan de S se denota por NC(S). Enel caso especial que S = 1, . . . , n, lo denotamos por NC(n).

Un ejemplo para el orden de refinamiento inverso es el siguiente:

1, 3, 2, 4 ≤ 1, 3, 2, 4.

Una particion π se puede representar graficamente de forma lineal, escribien-do todos los elementos del conjunto S de manera lineal y escribiendo unalınea vertical de cada elemento, ademas si los elementos estan en un mismobloque se unen con una lınea horizontal. Por ejemplo, considere la particionπ = 1, 3, 2, 4, 5, decir que “no se cruzan” se vuelve bastante evidenteen su representacion grafica

1 2 3 4 5

Mientras π = 1, 3, 2, 4, 5 se cruza

1 2 3 4 5

Consideremos ahora la coleccion de todas las particiones P(n) para todon,

P :=⋃n∈N

P(n),

Page 43: Benem erita Universidad Autonoma de Puebla€¦ · tratar de resolver el problema del valor propio pero ser a imposible debido a que los sistemas grandes generalmente no son integrables

2.2 Independencia Libre 31

y en un marco de un poset localmente finito en donde existe la nocion com-binatorial de una incidencia de algebra que es el conjunto de funciones es-peciales de dos argumentos para esas particiones de retıcula: la algebra deincidencia consiste de todas las funciones

f :⋃n∈N

(P(n)× P(n))→ C,

sujeto a la siguiente condicion:

f(π, σ) = 0, cuando π σ.

En algunas ocasiones, tambien podemos considerar funciones de un solo ele-mento, estas son restricciones de las funciones de dos variables como en elcaso anterior donde el primer argumento es igual a algun 0n, es decir,

f(π) = f(0n, π), para π ∈ P(n).

En esta incidencia tenemos una convolucion canonica ?: Para f y g funcionescomo las anteriores , definimos f ? g por

(f ? g)(π, σ) :=∑

τ∈P(n)π≤τ≤σ

f(π, τ)g(τ, σ), para π ≤ σ ∈ NC(n).

Las siguientes funciones especiales de la incidencia de la algebra son de graninteres: el elemento neutral δ para la convolucion combinatorial canonica estadado por

δ(π, σ) :=

1, si π = σ,0, en otro caso.

La funcion Zeta esta definida por

Zeta(π, σ) :=

1, si π ≤ σ,0, en otro caso.

Es facil verificar que la funcion Zeta posee un inverso que es llamado lafuncion de Mobius que denotaremos por Moeb y esta definida por

Moeb ? Zeta = Zeta ? Moeb = δ.

Consideremos ahora el conjunto NC(n), este conjunto tambien es una retıcu-la con respecto al refinamiento inverso. Por supuesto, tiene un elemento mas

Page 44: Benem erita Universidad Autonoma de Puebla€¦ · tratar de resolver el problema del valor propio pero ser a imposible debido a que los sistemas grandes generalmente no son integrables

32 Independencia Libre Asintotica

pequeno y un elemento mas grande que denotaremos por 0n y 1n respectiva-mente. Analogamente, podemos considerar la coleccion de todas las retıculasde particiones que no se cruzan para todo n,

NC :=⋃n∈N

NC(n),

y el algebra de incidencia como en el conjunto anterior de funciones especia-les con dos argumentos para estas retıculas: el algebra de incidencia de lasparticiones que no se cruzan consiste de todas las funciones

f :⋃n∈N

(NC(n)×NC(n))→ C,

sujeto a la condicion siguiente:

f(π, σ) = 0, cuando π σ.

Otra vez, tenemos la convolucion canonica ? sobre esta algebra de incidencia:Para las funciones f y g como antes, definimos f ? g por

(f ? g)(π, σ) :=∑

τ∈P(n)π≤τ≤σ

f(π, τ)g(τ, σ), para π ≤ σ ∈ NC(n).

Como antes, tenemos las siguientes funciones especiales: el elemento neutralδ para la convolucion canonica esta dado por

δ(π, σ) :=

1, si π = σ,0, en otro caso.

La funcion zeta esta definida por

zeta(π, σ) :=

1, si π ≤ σ,0, en otro caso.

Nuevamente la funcion zeta posee un inverso que llamaremos funcion deMobius : µ esta definida por

µ ? zeta = zeta ? µ = δ.

Page 45: Benem erita Universidad Autonoma de Puebla€¦ · tratar de resolver el problema del valor propio pero ser a imposible debido a que los sistemas grandes generalmente no son integrables

2.2 Independencia Libre 33

Definicion 2.28. La transformacion complemento K : NC(n)→ NC(n) sedefine considerando los numeros adicionales 1, . . . , n entrelazados entre ellos1, . . . , n de la siguiente manera:

1122 . . . nn.

Sea π una particion de 1, . . . , n que no se cruza. Entonces el comple-mento de Kreweras K(π) ∈ NC(1, . . . , n) ∼= NC(n) es definido por elelemento mas grande entre aquellos σ ∈ NC(1, . . . , n) que tiene la propiedadde que

π ∪ σ ∈ NC(1, . . . , n).

Ejemplo 2.29. Considere la particion

π := 1, 4, 8, 2, 3, 5, 6, 7 ∈ NC(8).

Para el complemento K(π) obtenemos

K(π) = 1, 3, 2, 4, 6, 7, 5, 8,

que lo podemos observar en la representacion grafica:

1 1 2 2 3 3 4 4 5 5 6 6 7 7 8 8

Definicion 2.30. Sea (A, ϕ) un ∗-espacio de probabilidad. Una familia au-toadjunta (si)i∈I ⊂ A es llamada una familia semicircular de covarianzaC = (cij)i,j∈I si C ≥ 0 y para algun n ≥ 1 y alguna n-tupla i1, . . . , in ∈ I setiene que

ϕ(si1 · · · sin) =∑

π∈NC2(n)

ϕπ[si1 , . . . , sin ],

en donde

ϕπ[si1 , . . . , sin ] =∏

(p,q)∈π

cipiq .

NC2(n) indica las particiones por pares que no se cruzan.

Page 46: Benem erita Universidad Autonoma de Puebla€¦ · tratar de resolver el problema del valor propio pero ser a imposible debido a que los sistemas grandes generalmente no son integrables

34 Independencia Libre Asintotica

Ejemplo 2.31. (1) Para los primeros tres momentos se tiene que:

ϕ(sasb) = cab,

ϕ(sasbscsd) = cabccd + cadcbc,

ϕ(sasbscsdsesf ) = cabccdcef +cabccfcde+cadcbccef +cafcbccde+cafcbe+ccd.

(2) Si I consiste solo de un elemento, entonces la definicion anterior sereduce, por supuesto, a la definicion de un elemento semicircular. Engeneral, cada elemento sj de una familia semicircular es un elementosemicircular. Sin embargo, en general sj no es libre.

Definicion 2.32. Sea (A, ϕ) un ∗-espacio de probabilidad. Un sistema cir-cular en (A, ϕ) es una familia x1, . . . , xk de elementos autoadjuntos de Atal que:

(1) cada x1, . . . , xk es un elemento semicircular estandar en (A, ϕ).

(2) x1, . . . , xk son libres con respecto a ϕ.

Proposicion 2.33. Sea (si)i∈I una familia semicircular de covarianza (cij)i,j∈Iy considere una descomposicion disjunta I =

⋃dp=1 Ip. Entonces, se sigue que

los siguientes dos estados son equivalentes.

(1) Los conjuntos si|i ∈ I1, . . . si|i ∈ Id son independientemente libres.

(2) cij = 0 cuando i ∈ Ip y jn ∈ Iq con p 6= q.

Corolario 2.34. Considere una familia semicircular (si)i∈I de covarianza(cij)i,j∈I . Entonces las siguientes afirmaciones son equivalentes

(1) La matriz de covarianza (cij)i,j∈I es diagonal.

(2) Las variables aleatorias (si)i∈I son libres.

Ejemplo 2.35. Consideremos s1 y s2 dos elementos circulares libres. Asuma-mos que ambos tienen varianza 1. Queremos calcular sus momentos mixtos,que estan dados por el conteo de la union de dos elementos similares, esto es,s1 con s1 y s2 con s2; los bloques conectados s1 con s2 no estan permitidos yademas no deben de cruzarse. Asi, se tiene que

ϕ(s1s1s2s2s1s2s2s1) = 2,

porque hay dos contribuciones de pares que no se cruzan, tales son

Page 47: Benem erita Universidad Autonoma de Puebla€¦ · tratar de resolver el problema del valor propio pero ser a imposible debido a que los sistemas grandes generalmente no son integrables

2.2 Independencia Libre 35

s1s1s2s2s1s2s2s1

y

s1s1s2s2s1s2s2s1

Definicion 2.36. Sea (A, ϕ) un espacio de probabilidad no conmutativo. Loscorrespondientes cumulantes libres (κπ)π∈NC son, para cada n ∈ N, π ∈ NC,funciones multilineales

κπ → An → C,(a1, . . . , an) 7→ κπ[a1, . . . , an],

que estan definidos como sigue:

κπ[a1, . . . , an] :=∑

σ∈NC(n)σ≤π

ϕσ[a1, . . . , an]µ(σ, π),

en donde µ es la funcion de Mobius sobre NC(n).Para n ≤ 1, escribimos κn := κ1n.

El siguiente resultado nos da una descripcion del producto de variables alea-torias libres.

Teorema 2.37. Sea (A, ϕ) un espacio de probabilidad no conmutativo y con-sideremos las variables aleatorias a1, . . . , an, b1, . . . , bn ∈ A tales que a1, . . . , any b1, . . . , bn son independientemente libres. Entonces tenemos que

ϕ(a1b1a2b2 · · · anbn) =∑

π∈NC(n)

κπ[a1, a2, . . . , an] · ϕK(π)[b1, b2, . . . , bn] (2.1)

y

κn(a1b1a2b2 · · · anbn) =∑

π∈NC(n)

κπ[a1, a2, . . . , an] · κK(π)[b1, b2, . . . , bn]. (2.2)

Ejemplo 2.38. (1) Escribiremos explıcitamente las formulas (2.1) y (2.2)para n pequeno.Para n = 1 tenemos que

ϕ(ab) = κ1(a)ϕ(b) y κ1(ab) = κ1(a)κ1(b).

Page 48: Benem erita Universidad Autonoma de Puebla€¦ · tratar de resolver el problema del valor propio pero ser a imposible debido a que los sistemas grandes generalmente no son integrables

36 Independencia Libre Asintotica

Que son solo versiones de la regla de factorizacion ϕ(ab) = ϕ(a)ϕ(b).Para N = 2 tenemos

ϕ(a1b1a2b2) = κ1(a1)κ1(a2)ϕ(b1b2) + κ2(a1a2)ϕ(b1)ϕ(b2)

y

κ2(a1b1, a2b2) = κ1(a1)κ1(a2)κ2(b1b2) + κ2(a1a2)κ1(b1)κ1(b2),

que son reformulaciones de:

ϕ(a1b1a2b2) = ϕ(a1)ϕ(a2)ϕ(b1b2)+ϕ(a1a2)ϕ(b1)ϕ(b2)−ϕ(a1)ϕ(a2)ϕ(b1)ϕ(b2).

(2) Veamos un caso especial de la formula (2.1) cuando a1, . . . , an son ele-mentos escogidos de elementos semicirculares si libres. Los unicos cu-mulantes no triviales son κ2(si, sj) = δij y tenemos

ϕ(sp(1)b1 · · · sp(n)bn) =∑

π∈NC(p)2 (n)

ϕK(π)[b1, . . . , bn], (2.3)

en donde NC(p)2 (n) denota las parejas que no se cruzan de n elementos

cuyos bloques solo conectan los p-ındices, es decir, solo los elementoscirculares.

Definicion 2.39. Sean µ y ν medidas de probabilidad en R con soportecompacto. Sean xxx y yyy variables aleatorias autoadjuntas en algun C-espaciode probabilidad tal que xxx tiene distribucion µ, yyy tiene distribucion ν, talesque xxx y yyy son independientemente libres. Entonces la distribucion de la sumaxxx+ yyy es llamada la convolucion libre de µ y ν y se denota por µ ν.

2.3. Independencia Libre y Matrices Aleato-

rias

Definicion 2.40. (1) Una familia de variables aleatorias autoadjuntasx1, . . . , xk que estan en algun ∗-espacio de probabilidad (L∞−(Ω,F ,P),E)

Page 49: Benem erita Universidad Autonoma de Puebla€¦ · tratar de resolver el problema del valor propio pero ser a imposible debido a que los sistemas grandes generalmente no son integrables

2.3 Independencia Libre y Matrices Aleatorias 37

es llamada una familia gaussiana (centrada), si su densidad con-junta es gaussiana, es decir, si existe una matriz C positiva N ×N talque para todo k ∈ N y todo 1 ≤ i(1), . . . , i(k) ≤ n que

E[xi(1) · · ·xi(k)] = (2π)−n/2(detC)−1/2

∫Rn

ti(1) · · · ti(k)e−12〈t,C−1t〉dt1 · · · dtn,

(2.4)

en donde t = (t1, . . . , tn) ∈ Rn y 〈·, ·〉 denota el producto internoestandar en Rn. Llamamos a C la matriz de covarianza de la familiagaussiana.

(2) Una familia clasica de variables aleatorias complejas a1, . . . , an es unafamilia gaussiana compleja si la coleccion de sus partes reales eimaginarias <a1,=a1, . . . ,<an,=an son una familia gaussiana.

Observacion 2.41. La ecuacion (2.4) es equivalente a decir que la funcioncaracterıstica del vector aleatorio x = (x1, . . . , xn) es de la forma

E[ei〈t,x〉] = exp

−1

2〈t, Ct〉

.

Teorema 2.42 (Formula de Wick). Sea x1, . . . , xn una familia gaussiana.Entonces tenemos que para todo k ∈ N y todo 1 ≤ i(1), . . . , i(k) ≤ N

E[xi(1) · · ·xi(k)

]=

∑π∈P2(k)

∏(r,s)∈π

E[xi(r)xi(s)

],

en donde P2(k) denota el conjunto de todos los pares del bloque del conjunto1, . . . , k. Si C = (cij)

Ni,j=1 es la matriz de covarianza de la familia gaussiana

entonces

E [xixj] = Cij, i, j = 1, . . . , N.

Definicion 2.43. Una matriz aleatoria gaussiana autoadjunta es una matrizaleatoria N × N con A = A∗ y tal que sus entradas forman una familiagaussiana que esta determinada por la covarianza

E [aijakl] =1

Nδilδjk, i, j, k, l = 1, . . . , N.

Observacion 2.44. Sea B = B∗ una matriz aleatoria autoadjunta de N×N

Page 50: Benem erita Universidad Autonoma de Puebla€¦ · tratar de resolver el problema del valor propio pero ser a imposible debido a que los sistemas grandes generalmente no son integrables

38 Independencia Libre Asintotica

Cada entrada se define como

bij = bji, ∀ i, j = 1, . . . , N.

Asumimos que las entradas son variables aleatorias gaussianas inde-pendientes (reales en la diagonal y complejas arriba de la diagonal) convarianza 1

N.

La covarianza para las entradas complejas de define como

E[aij akl] = E [aijalk] =1

Nδikδjl, i, j, k, l = 1, . . . , N.

Nuestro interes es calcular la distribucion de una matriz aleatoria gaus-siana autoadjunta, pero calcular sus valores propios no es muy factible; encambio calcular sus momentos es bastante accesible. Consideremos

ϕ := tr ⊗ E,

el m-esimo momento de una matriz aleatoria gaussiana autoadjunta A estadado por

ϕ(Am) =1

N

N∑i(1),...,i(m)=1

E[ai(1)i(2)ai(2)i(3) · · · ai(m)i(1)],

utilizando la formula de Wick y la covarianza descrita anteriormente (consi-derando modulo m, es decir, i(m+ 1) := i(1))

ϕ(Am) =1

N

N∑i(1),...,i(m)=1

∑π∈P2(m)

∏(r,s)∈π

E[ai(r)i(r+1)ai(s)i(s+1)]

=1

N

N∑i(1),...,i(m)=1

∑π∈P2(m)

∏(r,s)∈π

δi(r)i(s+1)δi(s)i(r+1)1

Nm2

=1

N1+m2

∑π∈P2(m)

N∑i(1),...,i(m)=1

∏(r,s)∈π

δi(r)i(s+1)δi(s)i(r+1).

Veamos a π como un 2-ciclo de permutaciones en Sm, es decir, π(r) = s yπ(s) = r. Ası,

Page 51: Benem erita Universidad Autonoma de Puebla€¦ · tratar de resolver el problema del valor propio pero ser a imposible debido a que los sistemas grandes generalmente no son integrables

2.3 Independencia Libre y Matrices Aleatorias 39

ϕ(Am) =1

N1+m2

∑π∈P2(m)

N∑i(1),...,i(m)=1

∏(r,s)∈π

δi(r)i(π(r)+1)

=1

N1+m2

∑π∈P2(m)

N∑i(1),...,i(m)=1

∏(r,s)∈π

δi(r)i(γπ(r)).

con γ ∈ Sm es la permutacion cıclica de un ciclo,

γ = (1, 2, . . . ,m− 1,m),

identifiquemos i = (i(1), . . . , i(m)) con la funcion i : 1, . . . ,m → 1, . . . , N,entonces de la definicion de

∏(r,s)∈π δi(r)i(γπ(r)) es obvio, que la funcion i debe

de ser constante sobre los ciclos de la permutacion γπ a fin de que contribuyacon un factor 1, en otro caso su contribucion sera cero. Para cada ciclo deγπ podemos elegir uno de los numeros 1, . . . , N para el valor constante de isobre esta orbita, y todas esas elecciones son independientes de otras, lo quesignifica que

N∑i(1),...,i(m)=1

∏(r,s)∈π

δi(r)i(γπ(r)) = Nnumero de ciclos de γπ.

Notacion 2.45. Para una permutacion σ ∈ Sm decimos que

#(σ) := numero de ciclos de σ.

Teorema 2.46. Para una matriz aleatoria gaussiana autoadjunta de N×N ,se tiene que para todo m ∈ N

ϕ(Am) =∑

π∈P2(m)

N#(γπ)−1−m2 .

Este tipo de expansion para momentos de matrices aleatorias es usualmen-te llamada una expasion de genero [5], debido a que las parejas en Smtambien se pueden identificar con superficies orientables y el correspondien-te exponente de N se puede expresar (a traves de la formula de Euler) enterminos del genero g de la superficie,

#(γπ)− 1−m/2 = −2g.

Page 52: Benem erita Universidad Autonoma de Puebla€¦ · tratar de resolver el problema del valor propio pero ser a imposible debido a que los sistemas grandes generalmente no son integrables

40 Independencia Libre Asintotica

Ejemplo 2.47. Veamos algunos ejemplos. Claramente, no existen empare-jamientos de un numero de elementos impares, todos los momentos imparesde una matriz son cero. Por lo tanto, solo consideraremos potencias de laforma m = 2k.

En el Cuadro 2.1 se muestra la informacion relevante para poder calcularlos primeros tres momentos pares de la matriz A.

m π γπ #(γπ)− 1− m2

2 (1, 2) (1)(2) 0

4(1, 2)(3, 4) (1, 3)(2)(4) 0(1, 3)(2, 4) (1, 4, 3, 2) −2(1, 4)(2, 3) (1)(2, 4)(3) 0

6

(1, 2)(3, 4)(5, 6) (1, 3, 5)(2)(4)(6) 0(1, 6)(2, 3)(4, 5) (1)(2, 4, 6)(3)(5) 0(1, 3)(2, 4)(5, 6) (1, 4, 3, 2, 5)(6) −2(1, 4)(2, 3)(5, 6) (1, 5)(2, 4)(3)(6) 0(1, 5)(2, 3)(4, 6) (1, 6, 5, 2, 4)(3) −2(1, 6)(2, 5)(3, 4) (1)(2, 6)(3, 5)(4) 0(1, 6)(2, 4)(3, 5) (1)(2, 5, 4, 3, 6) −2(1, 3)(2, 5)(4, 6) (1, 4)(2, 6, 5, 3) −2(1, 3)(2, 6)(4, 5) (1, 4, 6, 3, 2)(5) −2(1, 4)(2, 5)(3, 6) (1, 5, 3)(2, 6, 4) −2(1, 4)(2, 6)(3, 5) (1, 5, 4, 2)(3, 6) −2(1, 5)(2, 4)(3, 6) (1, 6, 4, 3)(2, 5) −2(1, 5)(2, 6)(3, 4) (1, 6, 3, 5, 2)(3) −2(1, 2)(3, 5)(4, 6) (1, 3, 6, 5, 4)(2) −2(1, 2)(3, 6)(4, 5) (1, 3)(2)(4, 6)(5) 0

Cuadro 2.1: Momentos de A.Fuente: Elaboracion propia.

Ası, tenemos que

ϕ(A2) = 1 ·N0,

ϕ(A4) = 2 ·N0 + 1 ·N−2,

ϕ(A6) = 5 ·N0 + 10 ·N−2.

Page 53: Benem erita Universidad Autonoma de Puebla€¦ · tratar de resolver el problema del valor propio pero ser a imposible debido a que los sistemas grandes generalmente no son integrables

2.3 Independencia Libre y Matrices Aleatorias 41

Notemos que las parejas que contribuyen en el orden principal de N0 sonaquellas que no se cruzan.

Definicion 2.48. Sea para cada N ∈ N, (AN , ϕN) un espacio de probabilidadno conmutativo. Sea I un conjunto de ındices y considere para cada i ∈ Iy cada N ∈ N variables aleatorias a

(N)i ∈ AN . Sea I = I1

⋃. . .⋃Im una

descomposicion de I en m subconjuntos disjuntos. Decimos que

a(N)i |i ∈ I1, . . . a(N)

i |i ∈ Im,

son asintoticamente libres (para N → ∞) si (a(N)i )i∈I converge en distri-

bucion a (ai)i∈I para algunas variables aleatorias ai ∈ A (i ∈ I) en algunespacio de probabilidad no conmutativo (A, ϕ) y si los lımites ai|i ∈ I1, . . . ,ai|i ∈ Im son libres en (A, ϕ).

La independencia libre asintotica es uno de los descubrimientos funda-mentales de Voiculescu en la teorıa de probabilidad libre. Para tener indepen-diencia libre asintotica debemos considerar al menos dos matrices aleatorias,el caso mas simple es tomar dos matrices aleatorias gaussianas adjuntas.

Sean A(1) = (a(1)ij )Ni,j=1 y A(2) = (a

(2)ij )Ni,j=1 dos matrices aleatorias gaussia-

nas. Preescribiremos la distribucion conjunta de toda la familia

a(1)11 , . . . , a

(1)NN , a

(2)11 , . . . , a

(2)NN ,

asumiendo que las entradas de la matriz A(1) son independientes de la matrizA(2). La coleccion de todas las entradas de nuestras matrices forman unafamilia gaussiana compleja con covarianza

E[a

(r)ij a

(p)kl

]=

1

Nδilδjkδrp.

El m-esimo momento de A(1) y A(2) esta dado por

Page 54: Benem erita Universidad Autonoma de Puebla€¦ · tratar de resolver el problema del valor propio pero ser a imposible debido a que los sistemas grandes generalmente no son integrables

42 Independencia Libre Asintotica

ϕ(A(p(1)) · · ·A(p(m))) =1

N

N∑i(1),...,i(m)=1

E[a

(p(1))i(1)i(2)a

(p(2))i(2)i(3) · · · a

(p(m))i(m)i(1)

]

=1

N

N∑i(1),...,i(m)=1

∑π∈P2(m)

∏(r,s)∈π

E[a

(p(r))i(r)i(r+1)a

(p(s))i(s)i(s+1)

]

=1

N

N∑i(1),...,i(m)=1

∑π∈P2(m)

∏(r,s)∈π

δi(r)i(s+1)δi(s)i(r+1)δp(r)p(s)1

Nm2

=1

N1+m2

∑π∈P2(m)

N∑i(1),...,i(m)=1

m∏r=1

δi(r)i(γπ(r))δp(r)p(π(r)).

Observemos que es el mismo calculo de momentos para una sola matriz, elfactor extra que tenemos es

∏mr=1 δp(r)p(π(r)), que condiciona los empareja-

mientos de π, no esta permitido hacer emparejamientos de una A(1) con unaA(2).

Notemos que la expresion∏m

r=1 δi(r)i(γπ(r)) = 1 ocurrira siempre y cuandola funcion i sea constante por bloques. En consecuencia,

N∑i(1),...,i(m)=1

m∏r=1

δi(r)i(γπ(r))δp(r)p(π(r)) = N#(γπ).

Notacion 2.49. Para p = (p(1), . . . , p(m)) tenemos

P(p)2 (m) = π ∈ P2(m)|p(π(r)) = p(r) para todo r = 1, . . . ,m,

pensemos en p como coloraciones de los puntos 1, . . . ,m. Tambien aborda-remos los elementos de P(p)

2 (m) como parejas con respecto a la coloracionp.

Proposicion 2.50. Sean A(1) y A(2) dos matrices aleatorias gaussianas auto-adjuntas. Entonces tenemos para todas las opciones m ∈ N y p(1), . . . , p(m) ∈1, 2 que

ϕ(A(p(1)) · · ·A(p(m))) =∑

π∈P(p)2 (m)

N#(γπ)−1−m2 .

Page 55: Benem erita Universidad Autonoma de Puebla€¦ · tratar de resolver el problema del valor propio pero ser a imposible debido a que los sistemas grandes generalmente no son integrables

2.3 Independencia Libre y Matrices Aleatorias 43

Ejemplo 2.51. Sean A(1) y A(2) dos matrices aleatorias gaussianas autoad-juntas. Consideremos m = 4, a continuacion se presentan algunos ejemplos.

ϕ(A(1)A(1)A(1)A(1)) = 2 ·N0 + 1 ·N−2

ϕ(A(1)A(1)A(2)A(2)) = 1 ·N0 + 0 ·N−2

ϕ(A(1)A(1)A(1)A(1)) = 0 ·N0 + 1 ·N−2.

Como antes, el termino principal para N → ∞ viene dado por las con-tribuciones de emparejamientos que no se cruzan, pero ahora los empareja-mientos sin cruces deben de conectar una A(1) con una A(1) y una A(2) conuna A(2). Esta es exactamente la regla para calcular momentos mixtos de unsistema semicircular de dos elementos semicirculares libres (Ejemplo 2.35).Ası que tenemos independencia libre asintotica entre dos matrices aleatoriasgaussianas independientes. En general, si se consideran n matrices aleatoriasgaussianas independientes seran asintoticamente libres.

Teorema 2.52. Sean A(1)N , . . . , A

(n)N , para cada N ∈ N una familia de matri-

ces aleatorias gaussianas autoadjuntas independientes de N × N . Entonces(A

(1)N , . . . , A

(n)N ) converge en distribucion a un sistema semicircular (s1, . . . , sn)

que consiste de n elementos semicirculares estandar libres. En particular,A

(1)N , . . . , A

(n)N son asintoticamente libres.

Podrıamos pensar que encontrar independencia libre asintotica esta res-tringida a una clase de distribuciones, como por ejemplo a los elementossemicirculares. Pero es posible encontrar apariencias mas generales de in-dependencia libre asintotica en el mundo de matrices aleatorias. En vez deobservar la relacion entre dos matrices gaussianas, reemplazaremos una deellas por una matriz “constante” o “no aleatoria” en MN(C) sin ningunaaleatoriedad, en donde el estado es la traza tr ya que el valor esperado actuatrivialmente.

Definicion 2.53. Sea (MN(L∞−(Ω,F ,P)), tr×E) un espacio de probabilidadno conmutativo de matrices aleatorias, diremos que las matrices en

MN(C) ∼= MN(C · 1L∞−(Ω,F ,P)) ⊂MN(L∞−(Ω,F ,P))

son matrices constantes.

Esperamos una independencia libre asintotica, en consecuencia lo que es-tamos viendo es una sucesion de matrices constantes DN , las cuales convergen

Page 56: Benem erita Universidad Autonoma de Puebla€¦ · tratar de resolver el problema del valor propio pero ser a imposible debido a que los sistemas grandes generalmente no son integrables

44 Independencia Libre Asintotica

en distribucion para N →∞. Por lo tanto, asumimos la existencia de todoslos lımites

lımN→∞

tr(DmN ), m ∈ N.

Denotemos este lımite por un elemento d definido en algun espacio de pro-

babilidad no conmutativo (A, ϕ), es decir, asumimos que DNdistr−→ d.

Notar que, tenemos una gran independencia libre para preescribir losmomentos deseados en el lımite.

Ahora trataremos de hacer calculos similares a los anteriores, esta vezconsiderando una matriz aleatoria A y una matriz costante D, ambas detamano N×N para poder entender los momentos mixtos de A y D. Podemosescribirlos de la forma

ϕ(ADq(1)ADq(2) · · ·ADq(m))

en donde cada Dq(i) es alguna potencia de D. Denotemos los entradas de lasmatriz Dq(i) por d

(i)ij .

ϕ(ADq(1)ADq(2) · · ·ADq(m))

=1

N

N∑i(1),...,i(m),j(1),...,j(m)=1

E[ai(1)j(1)d(1)j(1)i(2)ai(2)j(2)d

(2)j(2)i(3) · · · ai(m)j(m)d

(m)j(m)i(1)]

=1

N

N∑i(1),...,i(m),j(1),...,j(m)=1

E[ai(1)j(1)ai(2)j(2) · · · ai(m)j(m)] · d(1)j(1)i(2)d

(2)j(2)i(3) · · · d

(m)j(m)i(1)

=1

N

N∑i(1),...,i(m),j(1),...,j(m)=1

∑π∈P2(m)

∏(r,s)∈Π

E[ai(r)j(r)ai(s)j(s)] · d(1)j(1)i(γ(1)) · · · d

(m)j(m)i(γ(m))

=1

N

N∑i(1),...,i(m),j(1),...,j(m)=1

∑π∈P2(m)

∏(r,s)∈Π

δi(r)j(s)δi(s)j(r)1

Nm2

· d(1)j(1)i(γ(1)) · · · d

(m)j(m)i(γ(m)).

Nuevamente, identificamos a π ∈ P2(m) con una permutacion en Sm, y γ lapermutacion de un solo ciclo en Sm entonces para que quede comprendido,para un π fijo, la expresion

Page 57: Benem erita Universidad Autonoma de Puebla€¦ · tratar de resolver el problema del valor propio pero ser a imposible debido a que los sistemas grandes generalmente no son integrables

2.3 Independencia Libre y Matrices Aleatorias 45

N∑i(1),...,i(m),j(1),...,j(m)=1

∏(r,s)∈Π

δi(r)j(s)δi(s)j(r)1

Nm2

· d(1)j(1)i(γ(1)) · · · d

(m)j(m)i(γ(m))

=N∑

i(1),...,i(m),j(1),...,j(m)=1

m∏r=1

δi(r)j(π(r))δi(s)j(r)1

Nm2

· d(1)j(1)i(γ(1)) · · · d

(m)j(m)i(γ(m))

=N∑

j(1),...,j(m)=1

d(1)j(1)j(πγ(1)) · · · d

(m)j(m)j(πγ(m)).

Ejemplo 2.54. Para entenderlo mejor, consideremos π = (1, 4)(2, 3)(5, 6) ∈P2(6) y γ = (1, 2, 3, 4, 5, 6) ∈ S6. Denotemos por α = πγ, al efectuar lasoperaciones obtenemos que α = (1, 3)(4, 6)(2)(5) ∈ S6. Entonces se tiene

N∑j(1),...,j(6)=1

d(1)j(1)j(α(1))d

(2)j(2)j(α(2))d

(3)j(3)j(α(3))d

(4)j(4)j(α(4))d

(5)j(5)j(α(5))d

(6)j(6)j(α(6))

=N∑

j(1),...,j(6)=1

d(1)j(1)j(3)d

(2)j(2)j(2)d

(3)j(3)j(1)d

(4)j(4)j(6)d

(5)j(5)j(5)d

(6)j(6)j(4)

=N∑

j(1),...,j(6)=1

d(1)j(1)j(3)d

(3)j(3)j(1) · d

(4)j(4)j(6)d

(6)j(6)j(4) · d

(2)j(2)j(2) · d

(5)j(5)j(5)

= Tr[Dq(1)Dq(3)] · Tr[Dq(4)Dq(6)] · Tr[Dq(2)] · Tr[Dq(5)]

= N4 · tr[Dq(1)Dq(3)] · tr[Dq(4)Dq(6)] · tr[Dq(2)] · tr[Dq(5)].

Vemos que la ultima expresion es un producto de trazas a lo largo de losciclos α. Ası que, denotaremos por trα a este producto.

Anteriormente se introdujo la notacion ϕπ para las particiones que no secruzan. Por lo que es util definir ϕα en le caso de que α sea una permutacion.

Notacion 2.55. Sea n un entero positivo fijo dado, para todo 1 ≤ k ≤ n,sean los funcionales multilineales ϕk : Ak → C sobre un algebra A dada.Asumiendo que cada ϕk es tracial en sus k elementos en el sentido que

Page 58: Benem erita Universidad Autonoma de Puebla€¦ · tratar de resolver el problema del valor propio pero ser a imposible debido a que los sistemas grandes generalmente no son integrables

46 Independencia Libre Asintotica

ϕk(A1, . . . , Ak) = ϕk(Ak, A1, . . . , Ak−1),

para todo A1, . . . , Ak ∈ A. Entonces definimos para α ∈ Sn la expresionϕα[A1, . . . , An] para A1, . . . , An ∈ A como un producto de acuerdo al ciclode descomposicion de α. Denotemos por c1, . . . , cr los ciclos de α, entoncestenemos que

ϕα[A1, . . . , An] := ϕc1 [A1, . . . , An] · · ·ϕcr [A1, . . . , An],

en donde, para un ciclo c = (i1, i2, . . . , ip) definimos

ϕc[A1, . . . , An] := ϕp(Ai1 , . . . , Aip).

Lema 2.56. Sean D(1) = (d(1)ij )Ni,j=1, . . . , D

(m) = (d(m)ij )Ni,j=1 m matrices alea-

torias de tamano N × N y sea α ∈ Sm una permutacion de m elementos.Entonces,

N∑j(1),...,j(m)=1

d(1)j(1)j(α(1)) · · · d

(m)j(m)j(α(m)) = N#α · trα[D1, . . . , D(m)].

Por lo tanto, podemos escribir la conclusion de nuestro calculo de la si-guiente manera:

ϕ(ADq(1)ADq(2) · · ·ADq(m)) =∑

π∈P2(m)

trπγ[Dq(1), . . . , Dq(m)] ·N#(πγ)−1−m

2 .

Podemos hacer lo mismo para varias matrices aleatorias gaussianas indepen-dientes, restringiendo la suma sobre π a emparejamientos que respetan el“color” de matrices.

Proposicion 2.57. Sean A(1), . . . , A(n) n matrices aleatorias gaussianas au-toadjuntas independientes de tamano N × N , y D una matriz constante detamano N ×N . Entonces tenemos para todo m ∈ N, todo q(1), . . . , q(m) ∈ Ny todo 1 ≤ p(1), . . . , p(m) ≤ n que

ϕ(A(p(1))Dq(1) · · ·A(p(m))Dq(m)) =∑

π∈P(p)2 (m)

trπγ[Dq(1), . . . , Dq(m)]·N#(πγ)−1−m

2 .

Page 59: Benem erita Universidad Autonoma de Puebla€¦ · tratar de resolver el problema del valor propio pero ser a imposible debido a que los sistemas grandes generalmente no son integrables

2.3 Independencia Libre y Matrices Aleatorias 47

Ahora veremos la estructura asintotica de esta formula. Por la suposicion

de que DNdistr−→ d para algun d ∈ (A, ψ) la cantidad

trπγ[Dq(1), . . . , Dq(m)],

tiene un lımite, es decir

ψπγ[dq(1), . . . , dq(m)],

dado que el factor N#(πγ)−1−m2 suprime todas las particiones que se cruzan

cuando N →∞, obtenemos el siguiente resultado.

Proposicion 2.58. Sea, para cada N ∈ N, A(1)N , . . . , A

(n)N ; n matrices alea-

torias guassianas autoadjuntas independientes de tamano N × N , y DN

una matriz constante de tamano N × N tal que DNdistr−→ d para algun

d ∈ (A, ψ). Entonces para todo m ∈ N, para todo q(1), . . . , q(m) ∈ N ytodo 1 ≤ p(1), . . . , p(m ≤ n) que

lımN→∞

ϕ(A(p(1))Dq(1) · · ·A(p(m))Dq(m)) =∑

π∈NC(p)2 (m)

ψπγ[dq(1), . . . , dq(m)], (2.5)

en donde NC(p)2 (m) denota todos los pares de P(p)(m)

2 que no se cruzan.

Es similar a la formula de momentos alternos de dos familias libres devariables aleatorias, considerando que una de ellas es un sistema semicircu-lar. Recordando que si d1, . . . , dn, s1, . . . , sn son elementos en algun espaciode probabilidad no conmutativo (B, φ). Tales que s1, . . . , sn son un sistemasemicircular, es decir, que cada si es un elemento semicircular estandar ys1, . . . , sn son libres, y tales que s1, . . . , sn y d1, . . . , dn son libres, enton-ces para momentos alternados (ver ecuacion(2.3))

φ(sp(1)d1 · · · sp(m)dm) =∑

π∈NC(m)

κπ[sp(1), . . . , sp(m)] · φK(π)[d1, . . . , dm]

=∑

π∈NC(p)2 (m)

φK(π)[d1, . . . , dm].

Esto coincide con la formula (2.5), la unica diferencia es que tenemos K(π)en lugar de πγ. Sin embargo, para un emparejamiento que no se cruza eslo mismo, debido a que el complemento de una particion que no se cruza esπ−1γ pero π y π−1 coinciden, en consecuencia πγ es el complemento de π.Nos bastara con verificarlo con el siguiente ejemplo.

Page 60: Benem erita Universidad Autonoma de Puebla€¦ · tratar de resolver el problema del valor propio pero ser a imposible debido a que los sistemas grandes generalmente no son integrables

48 Independencia Libre Asintotica

Ejemplo 2.59. Consideremos la particion que no se cruza

π = 1, 6, 2, 4, 3, 5.

Entonces, tenemos que

πγ = (1, 4, 5)(2, 3)(6).

Que concuerda con el complemento K(π), que puede verse graficamente

1 1 2 2 3 3 4 4 5 5 6 6

Para concluir, generalizaremos en el siguiente teorema considerando variassucesiones de matrices aleatorias. Los calculos son similares si reemplazamoslas potencias de D por productos de matrices constantes.

Teorema 2.60. Para todos p, q enteros. Sean, para cada N ∈ N, A(1)N , . . . , A

(p)N

matrices aleatorias gaussianas independientes y sean D(1)N , . . . , D

(q)N matrices

constantes tales que convergen en distribucion para N →∞ , es decir,

D(1)N , . . . , D

(q)N

distr−→ d1, . . . , dq,

para algunos d1, . . . , dq ∈ (A, ψ). Entonces

A(1)N , . . . , A

(p)N , D

(1)N , . . . , D

(q)N

distr−→ s1, . . . , sp, d1, . . . , dq,

en donde cada si es un elemento semicircular estandar y s1, . . . , sp, d1, . . . , dqson libres. En particular, las matrices aleatorias gaussianas y las matricesconstantes son asintoticamente libres.

El Teorema 2.60 se puede ilustrar con la Figura 2.1, donde se tiene lasuma libre de una variable aleatoria semicircular con una Bernoulli en [−1, 1]utilizando el metodo de subordinacion comparada con la suma de una matrizcon entradas gaussianas independientes con una determinista diagonal dondela mitad son eigenvalores 1 y la otra mitad −1.

Page 61: Benem erita Universidad Autonoma de Puebla€¦ · tratar de resolver el problema del valor propio pero ser a imposible debido a que los sistemas grandes generalmente no son integrables

2.3 Independencia Libre y Matrices Aleatorias 49

Figura 2.1: Comparacion de suma de matrices con una suma libre.Fuente: Elaboracion propia.

Page 62: Benem erita Universidad Autonoma de Puebla€¦ · tratar de resolver el problema del valor propio pero ser a imposible debido a que los sistemas grandes generalmente no son integrables

50 Independencia Libre Asintotica

Page 63: Benem erita Universidad Autonoma de Puebla€¦ · tratar de resolver el problema del valor propio pero ser a imposible debido a que los sistemas grandes generalmente no son integrables

Capıtulo 3

Matrices de Markov

Las matrices de Markov aparecen por primera vez en [2] debido a que nose sabıa nada sobre la existencia del lımite de la distribucion espectral; perolo que sı se sabıa era que se consideraba como una matriz de distribucionlimitante de la forma

√n(An − A) utilizada para la derivada de una matriz

de transicion en un proceso de Markov.

En este capıtulo hacemos un estudio sobre Matrices de Markov analogoal de los capıtulos anteriores. Antes de presentar el resultado definamos loque es una matriz de Markov.

Definicion 3.1. Sea Xij : j ≥ i ≥ 1 un arreglo triangular superior infinitode variables aleatorias independientes identicamente distribuidas y definamosXij = Xji para j > i ≥ 1. Diremos que MMMn es una matriz de Markov sies simetrica y esta dada por

MMMn = XXXn −DDDn,

en donde XXXn = [Xij]1≤i,j≤n y DDDn = diag(∑n

j=1Xij)1≤i≤n es una matriz dia-gonal, ası cada renglon de MMMn suma cero, esto es

51

Page 64: Benem erita Universidad Autonoma de Puebla€¦ · tratar de resolver el problema del valor propio pero ser a imposible debido a que los sistemas grandes generalmente no son integrables

52 Matrices de Markov

−n∑j=2

X1j X12 X13 · · · X1n

X21 −n∑j 6=2

X2j X23 · · · X2n

.... . .

...

Xk1 Xk2 · · · −n∑j 6=k

Xkj · · · Xkn

.... . .

...

Xn1 Xn2 · · · −n−1∑j=1

Xnj

.

En el ejemplo de la Figura 3.1 se muestran: (a) La simulacion de la sumade la matriz XXXn con una matriz independiente diagonal DDDn y (b) Una si-mulacion del comportamiento de los eigenvalores de matrices de Markov, endonde claramente se ve un comportamiento similar, considerando que cadauna de las matrices es de tamano 100× 100 con 100 realizaciones para cadasimulacion.

−4 −2 0 2 4

010

020

030

040

0

Eigenvalores

Fre

cuen

cia

(a) suma de una matrizXXXn independiente deuna matriz diagonal DDDn.

−4 −2 0 2 4

010

020

030

040

050

0

Eigenvalores

Fre

cuen

cia

(b) Matriz de Markov.

Figura 3.1: Comparacion de Matrices.Fuente: Elaboracion propia.

Debido al comportamiento tan similar entre ambos casos, nos interesaestudiar una alternativa para una matriz de Markov comparandola con sumade matrices que son independientes entre sı.

SeaX = (xij)Ni,j=1 una matriz enGOE(N) y seaD = diag(

∑Nj=1 xij)1≤i≤N

una matriz diagonal, queremos calcular sus momentos mixtos dados por

Page 65: Benem erita Universidad Autonoma de Puebla€¦ · tratar de resolver el problema del valor propio pero ser a imposible debido a que los sistemas grandes generalmente no son integrables

53

E(tr(Xn1D

m1 · · ·XnkDmk)) con n1, . . . , nk,m1, . . . ,mk ∈ N. Calcularemos enprimer lugar E(tr(X2D2)) para despues tratar de generalizar.

E(tr(X2D2)) =1

N

∑i=(i1,i2)

E(xi1i2xi2i1di1i1di1i1)

=1

N

∑i=(i1,i2)

E(xi1i2xi2i1∑

j=(j1,j2)

xi1j1xi1j2)

=1

N

∑i,j

E(xi1i2xi2i1xi1j1xi1j2).

La ultima igualdad se puede separar de acuerdo a que ındices son iguales ycuales no. Para evitar una notacion pesada solo indicaremos en el subındicede las sumas que ındices coinciden, obviando los que no. De esta forma,podemos escribir la suma anterior como

E(tr(X2D2)) =1

N

∑j1=j2

E(xi1i2xi2i1xi1j1xi1j1) +1

N

∑i1=i2

E(xi1i1xi1i1xi1j1xi1j2)

+1

N

∑i2=j1

E(xi1i2xi2i1xi1i2xi1j2) +1

N

∑i1=j1

E(xi1i2xi2i1xi1i1xi1j2) + · · · ,

en donde los puntos indican considerar todas las formas de identificar subındi-ces. Dada una identificacion de ındices iii, jjj podemos asociar un grafo que semuestra en la Figura 3.2, realizando un procedimiento similar para la de-mostracion del Teorema de Wigner. Recordemos que para las matrices deWigner iniciabamos con un grafo cıclico debido a que solo se consideraba unmulti-ındice. En este caso, el grafo inicial tiene una estructura diferente aconsecuencia de que consideramos dos multi-ındices.

Page 66: Benem erita Universidad Autonoma de Puebla€¦ · tratar de resolver el problema del valor propio pero ser a imposible debido a que los sistemas grandes generalmente no son integrables

54 Matrices de Markov

••

ik+1i3

i2

ik

i1

••

...

j1

j2

jm

Figura 3.2: Grafo del comportamiento de dos multi- ındices.Fuente: Elaboracion propia.

Notemos que, como en el caso del Teorema de Wigner, tener una aristaaislada implica que E(xi1i2xi2i1xi1j1xi1j2) = 0 y por otra parte el numero deformas de escoger el ındice esta dado por N , N(N − 1), N(N − 1)(N − 2)o N(N − 1)(N − 2)(N − 3) de acuerdo al numero de vertices de la graficaidentificada 1, 2, 3 o 4, respectivamente.

En el Cuadro 3.1 se muestran todas las posibles identificaciones y susrespectivos grafos del momento mixto E(tr(X2D2)).

Restricciones Grafo Restricciones Grafo

i1

i2

j1

j2

i1 = i2

i1 j2

j1

(Continua en la pagina siguiente)

Page 67: Benem erita Universidad Autonoma de Puebla€¦ · tratar de resolver el problema del valor propio pero ser a imposible debido a que los sistemas grandes generalmente no son integrables

55

Restricciones Grafo Restricciones Grafo

i1 = i2 y j1 = j2

i1

j1 i1 = j1

j2

i1

i2

i1 = j1 y i2 = j2

i1

i2

i1 = j2

i1

i2

j1

i1 = j2 y i2 = j1

i1

i2

i2 = j1 i1

i2

j2

j1 = j2

i1

i2

j1 j1 = j2 y i1 = i2

i1

j1

(Continua en la pagina siguiente)

Page 68: Benem erita Universidad Autonoma de Puebla€¦ · tratar de resolver el problema del valor propio pero ser a imposible debido a que los sistemas grandes generalmente no son integrables

56 Matrices de Markov

Restricciones Grafo Restricciones Grafo

i2 = j2

i1

i2

j1 i2 = j2 y i1 = j1

i1

i2

i1 = j2 = j1

i1

i2

i1 = j2 = i2

i1

j1

i1 = j1 = i2

i1

j2

i2 = j1 = j2 i1

i2

i1 = i2 = j1 = i2

i1

(Continua en la pagina siguiente)

Page 69: Benem erita Universidad Autonoma de Puebla€¦ · tratar de resolver el problema del valor propio pero ser a imposible debido a que los sistemas grandes generalmente no son integrables

57

Restricciones Grafo Restricciones Grafo

Cuadro 3.1: Grafos de los momentos mixtos E(tr(X2D2)).Fuente: Elaboracion propia.

Despues de estudiar cada posible grafo, notemos que los unicos grafos quecontribuyen son aquellos que estan resaltados por un color rosado, debido aque representan la varianza de la variable, en terminos de grafos que tene-mos aristas dirigidas. En cambio, cuando tenemos aristas aisladas, el valoresperado sera cero y en consecuencia no contribuye a la suma.

Ası, cuando N →∞ se tiene que

E(tr(X2D2)) =N(N − 1)(N − 2)

NN2+N(N − 1)

NN2+

N

NN2−→ 1. (3.1)

Del ejemplo anterior podemos hacer la observacion de que los ındices i′s nose uniran con los j′s siempre que haya un numero par de ındices en amboscasos.

A continuacion se presenta un ejemplo de momentos mixtos con las ca-racterısticas de que cada matriz sera elevada a una potencia par ademas dever su comportamiento con la ayuda del Lema 1.12.

Consideremos el momento mixto E(tr(X6D2)) para X una matriz enMn(R) y D una matriz diagonal en Mn(R). Queremos ver que X es indepen-diente de D, a partir del comportamiento de los multi-ındices del grafo quese construye a partir de los subındices de cada variable.

E(tr(X6D2)) =∑

E(xi1i2xi2i3xi3i4xi4i5xi5i6xi6i1xi1j1xi1j2).

En la Figura 3.3 se muestra el grafo del momento mixto anterior.

Page 70: Benem erita Universidad Autonoma de Puebla€¦ · tratar de resolver el problema del valor propio pero ser a imposible debido a que los sistemas grandes generalmente no son integrables

58 Matrices de Markov

• •

• •

• •

i5

i6

i4

i1

i2

i3

j1 j2

Figura 3.3: Grafo inicial del momento mixto E(tr(X6D2)).Fuente: Elaboracion propia.

Para este ejemplo, todas las formas posibles de ındices de i para obtenerun arbol se presentan enseguida considerando siempre que j1 = j2.

i4 = i6, i5 = i1

i5 = i1, i4 = i2

i5 = i3, i6 = i2

i1 = i3 = i5

i6 = i2 = i4.

Ası, cualquier eleccion de igualdad que se elija obtendremos un arbol de laFigura 3.4.

Page 71: Benem erita Universidad Autonoma de Puebla€¦ · tratar de resolver el problema del valor propio pero ser a imposible debido a que los sistemas grandes generalmente no son integrables

59

• • • •

• • • •

• •

••

••

Figura 3.4: Arboles posibles.Fuente: Elaboracion propia.

Finalmente, para saber si la forma en que hemos reducido el grafo ha sidola mejor eleccion, aplicamos el Lema 1.12, considerando su esqueleto. Ası, setiene que

|V | − |E| = 5− 4 = 1,

y se verifica como en la Figura 3.5.

Page 72: Benem erita Universidad Autonoma de Puebla€¦ · tratar de resolver el problema del valor propio pero ser a imposible debido a que los sistemas grandes generalmente no son integrables

60 Matrices de Markov

• • • •

• • • •

• •

••

••

Figura 3.5: Esqueletos posibles.Fuente: Elaboracion propia.

Como se observo en el ejemplo, la transformacion del ciclo de los ındicesde i no depende de los ındices de j. A continuacion enunciaremos y demos-traremos algunos lemas que nos ayudaran a asegurar la independencia libreasintotica entre la matriz X y la matriz diagonal D.

Para formalizar esto introducimos la siguiente notacion.

Notacion 3.2. Sean X = (xij)Ni,j=1 matriz de Wigner de N × N definimos

la matriz D = diag(∑N

j=1 xij)1≤i≤N , consideremos de aquı en adelante lanotacion siguiente

A :=√NX con aij :=

√Nxij,

B := diag(N∑j=1

aij)1≤i≤N ,

Mn,m := supN∈N

max1≤i≤j≤N

E|√Nxij|n+m <∞. (3.2)

Page 73: Benem erita Universidad Autonoma de Puebla€¦ · tratar de resolver el problema del valor propio pero ser a imposible debido a que los sistemas grandes generalmente no son integrables

61

iii := (i1, . . . , ik) ∈ 1, 2, . . . , Nk, con ik+1 = i1 (3.3)

jjj := (j1, . . . , jl) ∈ 1, 2, . . . , Nl. (3.4)

QQQ(i, ji, ji, j) := E[ai1i2ai2i3 · · · aiki1ai1j1ai1j2 · · · ai1jl ].

Ademas, sea X = (xij)Ni,j=1 matriz de Wigner de N ×N definimos la matriz

D = diag(∑N

j=1 xij)1≤i≤N consideremos lo siguiente

A :=√NX con aij :=

√Nxij,

B := diag(N∑j=1

aij)1≤i≤N ,

Mn,m := supN∈N max

1≤i≤j≤NE|√Nxij|n+m, max

1≤i≤j≤NE|√Nxij|n+m <∞. (3.5)

Siguiendo la notacion de (3.3) y (3.4), se define

QQQ(i, ji, ji, j) := E[ai1i2ai2i3 · · · aiki1 ai1j1 ai1j2 · · · ai1jl ].

Como en el caso del Teorema de Wigner no podemos tener aristas aisladas.

Lema 3.3. Si E(i, ji, ji, j) tiene una arista aislada, entonces QQQ(i, ji, ji, j) = 0.

Demostracion. Como A = (aij)Ni,j=1 es una matriz de Wigner es claro que

E[akl] = 0 para cada k, l ademas bkl y bst son independientes cuando (k, l) 6=(s, t) o (s, t) 6= (k, l). Luego si (il, il+1) es una arista aislada de E(i, ji, ji, j) se tieneque

QQQ(i, ji, ji, j) = E[ai1i2 · · · ail−1ilailil+1ail+1il+2

· · · aiki1ai1j1ai1j2 · · · ai1jl ]= E[ailil+1

]E[ai1i2 · · · ail−1ilail+1il+2· · · aiki1ai1j1ai1j2 · · · ai1jl ] = 0.

Similarmente, si (i1, jm) es una arista aislada de E(i, ji, ji, j) se tiene que

QQQ(i, ji, ji, j) = E[ai1i2 · · · aiki1ai1j1 · · · ai1jm−1ai1jmai1jm+1 · · · ai1jl ]= E[ai1jmE[ai1i2 · · · aiki1ai1j1 · · · ai1jm−1ai1jm+1 · · · ai1jl = 0.

Page 74: Benem erita Universidad Autonoma de Puebla€¦ · tratar de resolver el problema del valor propio pero ser a imposible debido a que los sistemas grandes generalmente no son integrables

62 Matrices de Markov

Lema 3.4. Si |V (i, ji, ji, j)| ≥ [n+m2

] + 2, entonces E(i, ji, ji, j) tiene al menos unaarista aislada.

Demostracion. Por el Lema 1.12 |V (i, ji, ji, j)| ≤ |E(i, ji, ji, j)|+ 1, luego

[n+m

2] + 2 ≤ |E(i, ji, ji, j)|+ 1 =⇒ [

n+m

2] + 1 ≤ |E(i, ji, ji, j)|.

De la ultima desigualdad se tiene que E(i, ji, ji, j) tendrıa por lo menos 2([n+m2

]+1)aristas dirigidas, esto es (n+m) + 2 o (n+m) + 1 si n+m es par o imparrespectivamente, pero en ambos casos es imposible pues |E(i, ji, ji, j)| = n + m.Por lo tanto E(i, ji, ji, j) debe tener una arista aislada.

Teorema 3.5. Para todo n,m enteros. Sean X, X matrices de Wigner detamano N ×N independientes y sean D =

∑Nj=1 xij una matriz diagonal que

depende de X y D∑N

j=1 xij una matriz diagonal dependiente de X, entonces

E(tr(XnDm))− E(tr(XnDm))→ 0

cuando N →∞.

Demostracion. El momento mixto de Xn y Dm es

|E(tr(XnDm))| = |E(tr((N−12A)n(N−

32B)m))|

≤ 1

Nn+3m

2+1

∑|V |=[n+m]

|QQQ(i, ji, ji, j)|

=1

Nn+3m

2+1

∑|V |≤[n+m

2]+1

|QQQ(i, ji, ji, j)|+

+1

Nn+3m

2+1

∑|V |≥[n+m

2]+2

|QQQ(i, ji, ji, j)|.

Por los Lemas 3.3 y 3.4 el segundo sumando es igual a cero. En consecuenciala expresion del momento mixto se reduce a

|E(tr(XnDm))| ≤ 1

Nn+3m

2+1

∑|V |≤[n+m

2]+1

|QQQ(i, ji, ji, j)|. (3.6)

Page 75: Benem erita Universidad Autonoma de Puebla€¦ · tratar de resolver el problema del valor propio pero ser a imposible debido a que los sistemas grandes generalmente no son integrables

63

Por otro lado, acotamos QQQ(i, ji, ji, j) por la desigualdad de Holder y (3.2) obtene-mos que

|QQQ(i, ji, ji, j)| = |E[ai1i2 · · · aiki1ai1j1 · · · ai1jl ]|≤ [E|ai1i2 |n+m]

1n+m · · · [E|ai1jm|n+m]

1n+m

≤ M1

n+mn,m · · ·M

1n+mn,m = Mn,m.

Si n + m es impar, es decir, uno es par y el otro impar, entonces (3.6) sereduce a

|E(tr(XnDm))| ≤ 1

Nn+3m

2+1

N∑i1,...,ik,j1,...,jl=1k+l=[n+m

2]+1

|QQQ(i, ji, ji, j)|

≤ 1

Nn+3m

2+1

N∑i1,...,ik,j1,...,jl=1k+l=[n+m

2]+1

M

=N

n+m2

+1

Nn+3m

2+1Mn,m =

1

NmMn,m −→ 0.

Cuando N →∞.

Si n+m es par, consideramos dos casos, el primero donde son impares yel segundo donde son pares. Si n y m son impares consideremos el subgrafoG′ = (V ′, E ′) con V ′ = i1, . . . , in y E ′ = (il, il + 1) : il ∈ V ′, luego porser n impar, E ′ tiene una arista aislada, en consecuencia no se puede reducira un arbol. Similarmente ocurre si tenemos el subgrafo G′′ = (V ′′, E ′′) conV ′′ = i1, j1, . . . , jm y E ′′ = (i1, jl) : l ∈ 1, . . . ,m por ser m impar. Sesigue del Lema 3.3 que E(tr(XnDm)) = 0.

Si n y m son pares, partiendo de (3.6) tenemos

|E(tr(XnDm))| ≤ 1

Nn+3m

2+1

∑|V |≤n+m

2

|QQQ(i, ji, ji, j)|+ 1

Nn+3m

2+1

∑|V |=n+m

2+1

|QQQ(i, ji, ji, j)|,

(3.7)como ya tenemos una cota para QQQ(i, ji, ji, j), el primer sumando converge a cero

Page 76: Benem erita Universidad Autonoma de Puebla€¦ · tratar de resolver el problema del valor propio pero ser a imposible debido a que los sistemas grandes generalmente no son integrables

64 Matrices de Markov

cuando N −→∞, esto es

1

Nn+3m

2+1

∑|V |≤n+m

2

|QQQ(i, ji, ji, j)| ≤ 1

Nn+3m

2+1

N∑i1,...,ik,j1,...,jl=1

k+l=n+m2

Mn,m

≤ Nn+m

2

Nn+3m

2+1Mn,m

=Mn,m

Nm+1−→ 0.

Ası, (3.7) se reduce a

|E(tr(XnDm))| ≤ 1

Nn+3m

2+1

∑|V |=n+m

2+1

|QQQ(i, ji, ji, j)|. (3.8)

Por otro lado, estudiemos el comportamiento del momento mixto de Xn yDm.

|E(tr(XnDm))| = |E(tr[(N−12A)n(N−

32 B)m])|

≤ 1

Nn+3m

2+1

∑|V |=[n+m]

|E(ai1i2 · · · aini1 ai1j1 · · · ai1jm)|

=1

Nn+3m

2+1

∑|V |=[n+m]

|QQQ(i, ji, ji, j)|

=1

Nn+3m

2+1

∑1≤|V |≤[n+m

2]+1

|QQQ(i, ji, ji, j)|+

+1

Nn+3m

2+1

∑|V |≥[n+m

2]+2

|QQQ(i, ji, ji, j)|.

A consecuencia de los Lemas 3.3 y 3.4 el segundo sumando es igual a cero.Ası, la expresion del momento mixto se reduce a

|E(tr(XnDm))| ≤ 1

Nn+3m

2+1

∑1≤|V |≤[n+m

2]+1

|QQQ(i, ji, ji, j)|. (3.9)

A continuacion, realizaremos un analisis analogo al momento mixtoE(tr(XnDm)). Usando nuevamente la desigualdad de Holder y (3.5), acote-mos QQQ(i, ji, ji, j), esto es,

Page 77: Benem erita Universidad Autonoma de Puebla€¦ · tratar de resolver el problema del valor propio pero ser a imposible debido a que los sistemas grandes generalmente no son integrables

65

|QQQ(i, ji, ji, j)| = |E(tr(XnDm))|= |E(ai1i2 · · · aini1 ai1j1 · · · ai1jm)|≤ [E|ai1i2 |n+m]

1n+m · · · [E|ai1jm|n+m]

1n+m

≤ M1

n+mn,m · · · M

1n+mn,m = Mn,m. (3.10)

De manera que si n+m es impar, es decir uno de ellos es par y el otro impar,el momento mixto E(tr(XnDm)) se puede acotar por Mn,m, por lo que setendrıa que

|E(tr(XnDm))| ≤ 1

Nn+3m

2+1

N∑i1,...,ik,j1,...,jl=1k+l=[n+m

2]+1

|QQQ(i, ji, ji, j)|

≤ 1

Nn+3m

2+1

N∑i1,...,ik,j1,...,jl=1k+l=[n+m

2]+1

M

=N

n+m2

+1

Nn+3m

2+1Mn,m =

1

NmMn,m −→ 0.

cuando N −→ 0. Luego, si n+m es par pero n y m son impares se concluyeque E(tr(XnDm)) −→ 0 haciendo un analisis semejante al que se hizo paraE(tr(XnDm)). Finalmente, considerando el caso cuando n y m son pares, yseparando (3.9) en dos sumas tenemos

|E(tr(XnDm))| ≤ 1

Nn+3m

2+1

∑1≤|V |≤n+m

2

|QQQ(i, ji, ji, j)|+ 1

Nn+3m

2+1

∑|V |=n+m

2+1

|QQQ(i, ji, ji, j)|.

Acotando nuevamente el primer sumando, se tiene que tiende a cero, redu-ciendose el momento mixto a

|E(tr(XnDm))| ≤ 1

Nn+3m

2+1

∑|V |=n+m

2+1

|QQQ(i, ji, ji, j)|. (3.11)

Debido a que ya se ha estudiado el comportamiento de los momentos mixtospor separado, es momento de concluir su diferencia, entonces si n + m esimpar o n+m es par pero ambos impares

E(tr(XnDm))− E(tr(XnDm)) −→ 0,

Page 78: Benem erita Universidad Autonoma de Puebla€¦ · tratar de resolver el problema del valor propio pero ser a imposible debido a que los sistemas grandes generalmente no son integrables

66 Matrices de Markov

a consecuencia que tienden a cero por separado. Luego, si n + m es par yn,m son pares por (3.8) y (3.11) tenemos que

E(tr(XnDm))− E(tr(XnDm)) ≤ 1

Nn+3m

2+1

∑|V |=n+m

2+1

|QQQ(i, ji, ji, j)|−

− 1

Nn+3m

2+1

∑|V |=n+m

2+1

|QQQ(i, ji, ji, j)|

=1

Nn+3m

2+1

∑|V |=n+m

2+1

(|QQQ(i, ji, ji, j)| − |QQQ(i, ji, ji, j)|

) .Observemos que, QQQ(i, ji, ji, j) y QQQ(i, ji, ji, j) tienen la misma estructura de arboles, loque implica que |QQQ(i, ji, ji, j)| − |QQQ(i, ji, ji, j)| −→ 0.

Se puede generalizar el Teorema 3.5, como se enuncia a continuacion.

Teorema 3.6. Para todo n1, . . . , np,m1, . . . ,mq enteros. Sean X, X matri-

ces de Wigner de N × N independientes y sean D =∑N

j=1 xij una matriz

diagonal que depende de X y D∑N

j=1 xij una matriz diagonal dependiente de

X, entonces

E(tr(Xn1Dm1Xn2Dm2 · · ·XnpDmq))−E(tr(Xn1Dm1Xn2Dm2 · · ·XnpDmq)) −→ 0,

cuando N →∞.

No demostraremos el Teorema 3.6, porque es suficiente ver el comporta-miento de los subındices, como se muestra en el grafo de la Figura 3.6, endonde se puede observar que es parecido a la Figura 3.3 siempre quen1, . . . , np,m1, . . . ,mq sean pares como se presento en la demostracion delTeorema 3.5. Denotemos por ϕ = E⊗ tr y ∗ = (Xn1Dm1 · · ·XnpDmq) enton-ces

ϕ(∗) =∑

E(xi1i2 · · ·xin1 i1di1i1 · · · di1i1 · · ·xin1+m1+...+np in1+m1+...+np+1 · · ·

· · · din1+m1+...+np+1in1+m1+...+np+1 · · · din1+m1+...+np+1in1+m1+...+np+1)

=∑

E(xi1i2 · · · xin1 i1xi1j1 · · ·xi1jm1

· · ·xin1+m1+...+np in1+m1+...+np+1 · · ·

· · ·xin1+m1+...+np+1t1 · · ·xin1+m1+...+np+1tmq)

Page 79: Benem erita Universidad Autonoma de Puebla€¦ · tratar de resolver el problema del valor propio pero ser a imposible debido a que los sistemas grandes generalmente no son integrables

67

••

• • · · · •t2 tmqt1

• • · · · •j2 jm1j1

in1+m1+...+nk+ml+1in1+m1+...+np+1

i1

in1+m1+...+np−1+1

Figura 3.6: Comportamiento de los ındices deE(tr(Xn1Dm1Xn2Dm2 · · ·XnpDmq)).Fuente: Elaboracion propia.

Ası, como en el ejemplo de la Figura 3.3, se puede reducir el grafo de laFigura 3.6 a un arbol semejante a los que se presentan en la Figura 3.4. Lomismo ocurrira con su esqueleto, que sera parecido a los de la Figura 3.5.Analogamente, tendremos lo mismo para

E(tr(Xn1Dm1Xn2Dm2 · · ·XnpDmq)),

con lo que se concluye que

E(tr(Xn1Dm1Xn2Dm2 · · ·XnpDmq))−E(tr(Xn1Dm1Xn2Dm2 · · ·XnpDmq)) −→ 0.

De las consideraciones anteriores se concluye que la distribucion conjuntade (XN , DN) y (XN , D) es la misma cuando N −→ ∞. Sin embargo, porel Teorema 2.60 XN y DN son asintoticamente libres y por lo tanto X − Dconverge en distribucion a la diferencia de dos variables aleatorias libres,X∞ y D∞ donde X es semicircular y D es gaussiana. Esto nos demuestra elteorema principal de Bryc y Dembo [4].

Teorema 3.7. Sea Xij : j ≥ i ≥ 1 una coleccion de variables aleatoriasindependientes identicamente distribuidas con E(X12) = 0 y V ar(X12) = 1.

Page 80: Benem erita Universidad Autonoma de Puebla€¦ · tratar de resolver el problema del valor propio pero ser a imposible debido a que los sistemas grandes generalmente no son integrables

68 Matrices de Markov

Con probabilidad 1, µ(Mn/√n) converge debilmente cuando n −→ ∞ a la

convolucion libre γM de las medidas del semicırculo y la normal estandar.Esta medida γM es una medida de probabilidad simetrica no aleatoria condensidad suave acotada, no depende de la distribucion de X12 y tiene soporteno acotado.

Page 81: Benem erita Universidad Autonoma de Puebla€¦ · tratar de resolver el problema del valor propio pero ser a imposible debido a que los sistemas grandes generalmente no son integrables
Page 82: Benem erita Universidad Autonoma de Puebla€¦ · tratar de resolver el problema del valor propio pero ser a imposible debido a que los sistemas grandes generalmente no son integrables

70 Matrices de Markov

Conclusion

Como hemos visto a lo largo de la tesis, utilizamos las herramientas nece-sarias para demostrar el objetivo planteado: estudiar la distribucion asintoti-ca de matrices Markovianas.

Usando principalmente teorıa de grafos se demostro de manera diferentea la que presentan Bryc y Dembo en [4] que la distribucion asintoticade matrices Markovianas es la convolucion libre de las medidas delsemicırculo y la normal estandar.

Al ser un trabajo mas teorico que aplicado, se busco la forma de quefuera mas entendible para los futuros lectores, considerando que el areade Probabilidad no Conmutativa en Mexico es muy pequena, esperandoque se fortalezca en los proximos anos.

Las Simulaciones presentadas a los largo de la tesis fueron realizadasen R.

La tesis reune varias areas de Matematicas dentro de las que se inclu-yen Combinatoria, Probabilidad no Conmutativa, Analisis Funcional,Teorıa de Grafos, Teorıa de Matrices Aleatorias. Algunas tiene mas im-pacto que otras pero todas tienen un aporte importante dentro de estetrabajo.

Page 83: Benem erita Universidad Autonoma de Puebla€¦ · tratar de resolver el problema del valor propio pero ser a imposible debido a que los sistemas grandes generalmente no son integrables

Bibliografıa

[1] Robert B. Ash and Catherine A. Doleans-Dade. Probability and measuretheory. Academic Press, 2 edition, 2000.

[2] Z. D Bai. Methodologies in spectral analysis of large dimensional randommatrices, a review. Statist. Sinica 9, 1999.

[3] O. Bohigas, M. J. Giannoni, and C. Schmit. Characterization of chaoticquantum spectra and universality of level fluctuation laws. Phys. Rev.Lett., 52, 1984.

[4] W. Bryc, A. Dembo, and T. Jiang. Spectral measure of large randomhankel, markov and toeplitz matrices. The Annals of Probability, 34:1–38, 2006.

[5] E. Brezin, C. Itzykson, G. Parisi, and J. B. Zuber. Planar diagrams.Commun. Math. Phys, 59:35–51, 1978.

[6] Percy Deift. Four lectures on random matrix theory. In Asymmto-tic combinatorics with application to mathematical physics, volume 77.Springer-Verlag, 2003.

[7] David J. Griffiths. Introduction to quantum mechanics. Pearson PrenticeHall, 2 edition, 2005.

[8] Ralph P. Grimaldi. Discrete and combinatorial mathematics. PearsonEducation, Inc., 2004.

[9] Alice Guionnet. Large deviations and stochastic calculus for large ran-dom matrices. probability surveys, 1:72–172, 2004.

[10] Alice Guionnet. Large random matrices: Lectures on macroscopic asym-ptotics. Springer, 2008.

71

Page 84: Benem erita Universidad Autonoma de Puebla€¦ · tratar de resolver el problema del valor propio pero ser a imposible debido a que los sistemas grandes generalmente no son integrables

72 BIBLIOGRAFIA

[11] Fumio Hiai and Denes Petz. The Semicircle Law, free random varia-bles and entropy. Mathematical Surveys and Monographs 77. AmericanMathematical Society, 2006.

[12] Kenneth Hoffman. Linear algebra. Prentice-Hall, 2 edition, 1971.

[13] Madan Lal Mehta. Random matrices. Elsevier, 2004.

[14] James A. Mingo and Roland Speicher. Free probability and randommatrices, volume 35. Fields Institute Monographs, 2017.

[15] J. Armando Domınguez Molina and Alfonso Rocha Arteaga. El teoremade wigner para matrices aleatorias. Comunicacion del Cimat No. I-09-08/15-10-2009, pages 1–20, 2009.

[16] Alexandru Nica and Roland Speicher. Lectures on the combinatorics offree probability, volume 13. Cambridge University Press, 2016.

[17] Roland Speicher. Free probability theory and non-crossing partitions.Sem. Lothan. Combin, 39, 1997.

[18] Roland Speicher. Combinatorics of free probability theory. LecturesIHP, Parıs, 1999.

[19] Terrence Tao. Topics in random matrix theory, volume 132. AmericanMathematical Soc., 2012.

[20] Antonio M. Tulino and Sergio Verdu. Random matrix theory and wirelesscommunications. Now Publishers Inc., 2004.

[21] D. Voiculescu. Addition of certain non-commuting random variables.Journal of Functional Analysis, 66:223–235, 1986.

[22] D. Voiculescu. Limit laws for random matrices and free products. Inve-tiones Mathematicae, 104:201–220, 1991.

[23] D. Voiculescu, K. J. Dykema, and A. Nica. Free Random Variables,volume 1. CRM Monograph Series, American Mathematical Society,1992.

[24] Douglas B. West. Introduction to Graph Theory. Pearson Education,Inc., 2001.

Page 85: Benem erita Universidad Autonoma de Puebla€¦ · tratar de resolver el problema del valor propio pero ser a imposible debido a que los sistemas grandes generalmente no son integrables

BIBLIOGRAFIA 73

[25] E. Wigner. Characteristic vectors of bordered matrices with infinitedimensions. Annals of mathematics, 62:548–564, 1995.

[26] J. Wishart. The generalized product moment distribution in samplesfrom a normal multivariate population. Biometrika 20, pages 35–52,1928.

[27] Nouredine Zettili. Quantum mechanics concepts and applications. Wiley,2 edition, 2009.

[28] Alexander Zvonkin. Matrix integrals and map enumeration: An acces-sible introduction. Mathematical and Computer Modelling 26, 1997.