Upload
hacong
View
216
Download
0
Embed Size (px)
Citation preview
UNIVERSIDAD DE CÁDIZ
FACULTAD DE CIENCIAS
DEPARTAMENTO DE QUÍMICA ANALÍTICA
TÉCNICAS MATEMÁTICAS
APLICADAS A LA RESOLUCIÓN
DE SEÑALES ELECTROQUÍMICAS
DEL SISTEMA Pb (II) / Tl (I)
JOSÉ MARÍA PALACIOS SANTANDER
CÁDIZ 2000
TÉCNICAS MATEMÁTICAS APLICADAS A LA RESOLUCIÓN DE SEÑALES
ELECTROQUÍMICAS DEL SISTEMA Pb (II) / Tl (I).
El Director:
José Luis Hidalgo Hidalgo de
Cisneros, Profesor Titular del
Departamento de Química
Analítica de la Universidad de
Cádiz.
El Director:
Ignacio Naranjo Rodríguez,
P r o f e s o r T i t u l a r d e l
Departamento de Química
Analítica de la Universidad de
Cádiz.
Memoria presentada por José María Palacios Santander para
optar al Grado de Licenciatura en Ciencias Químicas.
Fdo.: José María Palacios Santander
D. JOSÉ LUIS HIDALGO HIDALGO DE CISNEROS, PROFESOR DEL
DEPARTAMENTO DE QUÍMICA ANALÍTICA, Y D. IGNACIO NARANJO
RODRÍGUEZ, PROFESOR TITULAR DEL DEPARTAMENTO DE QUÍMICA
ANALÍTICA DE LA UNIVERSIDAD DE CÁDIZ,
CERTIFICAN: Que el presente trabajo de investigación, realizado
íntegramente en los laboratorios de este Departamento bajo nuestra
dirección, reúne las condiciones exigidas para optar al Grado de
Licenciatura en Ciencias Químicas.
Y para que conste, expedimos y firmamos el presente certificado, en
Cádiz, a 6 de Junio de 2000.
Fdo.: J.L. Hidalgo Hidalgo de Cisneros Fdo.: I. Naranjo Rodríguez
D. MANUEL GARCÍA VARGAS, CATEDRÁTICO DE UNIVERSIDAD Y
DIRECTOR DEL DEPARTAMENTO DE QUÍMICA ANALÍTICA DE LA
UNIVERSIDAD DE CÁDIZ,
CERTIFICA: Que el presente trabajo, realizado íntegramente en los
laboratorios de este Departamento, bajo la dirección conjunta de los
Profesores D. José Luis Hidalgo Hidalgo de Cisneros y D. Ignacio Naranjo
Rodríguez, reúne las condiciones exigidas para optar al Grado de
Licenciatura en Ciencias Químicas.
Y para que conste, expido y firmo el presente certificado, en Cádiz,
a 6 de Junio de 2000.
Fdo.: Manuel García Vargas.
Pedir perdón y dar las gracias son dos cosas superdifíciles para
cualquier persona. En cuanto a la primera situación, porque a nadie
le gusta reconocer que ha fallado en algo. Con respecto a la segunda,
porque en ese acto nos sentimos vulnerables. Y no me refiero a dar
las gracias cuando te pasan el tarro del azúcar o te devuelven un
libro, sino a cosas más grandes, como la ayuda que me han prestado
durante la realización de este trabajo.
Yo ya he pedido perdón a quien correspondía, pero por si acaso,
de nuevo ruego disculpas a todas aquellas personas que han estado
a mi lado en todo este tiempo y que han sabido aguantarme, porque,
he de reconocer, que soy insufrible y “más pesao que un collá de
melones”.
En cuanto a los agradecimientos, si me sintiese vulnerable en
estos momentos, no haría justicia alguna a la labor que han llevado
a cabo las personas que nombro a continuación:
w En primer lugar (aunque aquí no hay lugares, pero por
alguien he de empezar), doy las gracias de todo corazón a mis
compañeros del Grupo de Instrumentación y Ciencias
Ambientales, que son los mejores (no os lo creáis, ¿eh?):
& A Laura, porque es la que más me ha soportado de todos,
por su comprensión y dulzura en los momentos difíciles.
& A Mª del Mar y Esther que me han aguantado durante todo
el santo y bendito día y además ¡desde las 8:00 de la
mañana! y que han sufrido mis canciones, mis rabietas y
mi vocabulario soez contra el electrodo de mercurio y todo
lo que se ponía a tiro.
% A Carlos (que es un tío estupendo y por el cual todos
suspiramos), por saber alegrarme en las malas situaciones
que hemos vivido en la “cueva” gracias a su humor y
simpatía.
& A Puri y Loli por sus consejos y esas comidas tan
estupendas que hemos pasado juntos.
%, & A Sergio y Juana Mari, que siempre han sabido
perdonarme (eso espero) el que les arrebatase o no les
dejase el ordenador. El pobre ya echa humo y se queda
colgado cada dos por tres, pero es que las redes
neuronales son la caña.
%, & A Jesús y Mª Eli, por su tranquila tranquilidad e inquieta
inquietud, respectivamente.
% A José Luis porque no puede estar en el tribunal y darme
una lección magistral de uso y desuso del castellano
echando mano de su querido D.R.A.E (“Diccionario de la
Real Academia Española”, para los no iniciados).
% A Ignacio, por las apariciones tan oportunas de las que ha
hecho gala cuando el puñe... electrodo de mercurio no
funcionaba ni siquiera a martillazos.
w A mis padres y a mi familia, por su amor y cariño, que han
sabido inculcar en mí cosas verdaderamente buenas, aunque
yo sea un cascarrabias (no sé que voy a dejar para cuando
tenga 50 años). En especial a mi madre, que un día de estos
me “esloma” por darle un susto.
w A mi amada Laura, por ser quien eres, el pilar que sostiene
mi vida.
w A mis directores de Tesis: José Luis e Ignacio, por la acertada
orientación que me han prestado y los esfuerzos que han
realizado para comprender todo lo que aquí se detalla.
Muchas veces he pensado que esto era mucho pedir para un
químico, pero como a José Luis se le antojaron las redes
neuronales, aquí puede recoger su primera cosecha.
w Por último, he querido dejar para el final a la persona que
más me ha ayudado literalmente con la realización de esta
memoria. Con él verdaderamente se ha hecho la luz en este
maremágnum de números, ecuaciones, hiperplanos, nodos,
modelos matemáticos, etc. Él también ha soportado mis
cabreos, aunque también mis momentos de humor, que son
más numerosos, ¡gracias a Dios! Andrés Jiménez2, muchas
gracias por todo. ¡Eres un tío Kohonudo!
A mi amada Laura, lo más hermoso
que me ha sucedido en este mundo.
A mis padres y a mi hermano.
ÍNDICE
-i-
Pág.ÍNDICE i
OBJETO DEL TRABAJO 1
CAPÍTULO 1: INTRODUCCIÓN 31) Introducción a las técnicas voltamperométricas 42) La voltamperometría 53) Aplicaciones de la voltamperometría 54) Ventajas e inconvenientes 75) Sensibilidad 86) El problema de la superposición de ondas y su resolución 87) Métodos de resolución de mezclas 10
A) Métodos físico-químicos 11Métodos basados en técnicas de separación 11Métodos químicos: formación de complejos y ácido-base 12Métodos instrumentales 12
a) Separaciones electrolíticas 12b) Actuación o modificación por ordenador en tiempo real 13c) Sustracción de datos almacenados 14
B) Métodos basados en modelización matemática 14Método de los espectros cocientes o de división de la señal 14Métodos de ajuste 16
a) Métodos referidos al tratamiento de la muestra 161) Regresión lineal múltiple 162) Regresión por mínimos cuadrados clásica 183) Regresión por mínimos cuadrados inversa 194) Regresión por mínimos cuadrados parciales 215) Regresión por búsqueda de proyecciones 246) Métodos discontinuos para regresión no lineal 287) Estimación de parámetros por calibración para datos característicos 308) Métodos globales de estimación de parámetros 31
b) Métodos referidos al tratamiento de las señales 311) Métodos recursivos para regresión no lineal 312) Estimación de parámetros en el dominio de Fourier 32
Reconocimiento de patrones 33a) Métodos supervisados 33
1) Análisis discriminante 34b) Métodos no supervisados (Técnicas de reducción de dimensiones) 35
1) Análisis de componentes principales 352) Escalado multidimensional 383) Análisis de clusters 41
ÍNDICE
-ii-
c) Técnicas de reconocimiento de señales 461) Derivación o diferenciación de señales 462) Ajuste de curvas (Deconvolución numérica) 463) Aplicación de transformadas de funciones 51
Redes neuronales artificiales 59a) Conceptos y estructura de la red neuronal 61b) Mecanismo de aprendizaje de las redes neuronales 64c) Aprendizaje supervisado 65d) Aprendizaje no supervisado 66e) Entrenamiento de la red neuronal 67f) Tipos de redes neuronales 69
1) Perceptrones 692) Red neuronal de Hopfield 693) Memoria asociativa bidireccional adaptativa 714) Red neuronal de Kohonen 725) Red neuronal de retropropagación 73
g) Algoritmo de retropropagación 74h) Red neuronal y clasificación 76i) Relación con modelos polinomiales 77j) Algunas aplicaciones de las redes neuronales 77
Sistemas expertos y modelos borrosos 81a) Aplicaciones de los sistemas expertos 81b) Modelos borrosos 82
Bibliografía 85
CAPÍTULO 2: PARTE EXPERIMENTAL: INSTRUMENTACIÓN Y REACTIVOS 90
1) Aparatos y material utilizado 91A) Aparatos 91B) Material utilizado 93
2) Productos y reactivos empleados 933) Preparación de disoluciones 944) Descripción del método experimental 95
A) Aspectos generales de la técnica utilizada 95B) Método experimental 96C) Parámetros del programa 98D) Procedimiento de actuación 99
Bibliografía 100
CAPÍTULO 3: RESULTADOS OBTENIDOS 1011) Patrones puros de talio 1022) Patrones puros de plomo 1053) Mezclas de los patrones de talio y plomo 108
A) Grupo A de mezclas (Diagonal superior) 113B) Grupo B de mezclas (Diagonal principal) 114
ÍNDICE
-iii-
C) Grupo C de mezclas (Diagonal inferior) 116
CAPÍTULO 4: TRATAMIENTO ESTADÍSTICO DE DATOS 1191) Descripción de los datos empleados en el tratamiento estadístico 120
A) Reducción de dimensiones 1202) Etapas del tratamiento estadístico de datos 123
A) Exploración de las señales de los patrones 124Análisis lineal discriminante (ALD) 124Escalado multidimensional 131
B) Aplicación de modelos analíticos 132C) Métodos de predicción o de separación de señales 138
Estimación por interpolación 138a) Verificación del método de estimación por interpolación 157
1) Prueba de validación 1602) Modelo mejorado I 1643) Modelo mejorado II 167
Redes neuronales artificiales 170a) Redes neuronales discretas 170b) Redes neuronales continuas 179
1) Afinamiento del modelo 203
Bibliografía 218
CONCLUSIONES 219
ANEXO I 223ANEXO II 232ANEXO III 236ANEXO IV 239ANEXO V 241ANEXO VI 244ANEXO VII 246ANEXO VIII 255ANEXO IX 257ANEXO X 259ANEXO XI 261ANEXO XII 263
Objeto del Trabajo
“...cuando miras a un abismo, el abismo también temira.”
Friedrich Nietzsche
OBJETO DEL TRABAJO
-2-
Con este trabajo el grupo de Instrumentación y Ciencias Ambientales da un paso más en
el campo de la quimiometría (utilización de las técnicas estadísticas en el diseño e interpretación
de experimentos), en el que ya se había iniciado con éxito en el campo de las técnicas
espectroscópicas, extendiéndolo ahora al campo electroquímico.
La selectividad es uno de los problemas más importantes a resolver en los métodos
voltamperométricos, puesto que muchas especies químicas ofrecen señales electroquímicas a
potenciales muy parecidos, provocando el solapamiento de los picos y haciendo muy difícil su
separación. Hoy por hoy, las técnicas instrumentales permiten solventar estas cuestiones en
algunos casos, siendo totalmente inútiles en otros. Es en éste punto donde las técnicas estadísticas
alcanzan un gran protagonismo, permitiendo separar señales incluso en los casos de solapamiento
más severo.
Tomando como modelo la mezcla de Tl (I) y Pb (II) que representa un caso de solapamiento
bastante severo ya que la diferencia entre los potenciales de pico de ambas especies es tan sólo
de 25 mV, en esta memoria se aborda el estudio y aplicación de técnicas estadísticas todavía muy
novedosas en electroanálisis, algunas relacionadas con la inteligencia artificial, como las redes
neuronales, y la comparación de los resultados obtenidos en este caso con otras técnicas
estadísticas más establecidas.
La metodología establecida en esta Tesis de Licenciatura constituirá la base sobre la que
desarrollar una Tesis Doctoral, con la finalidad de aplicar estos conocimientos en los distintos
campos de actividad de nuestro grupo: técnicas espectroscópicas, sensores electroquímicos y
sensores piezoeléctricos.
Capítulo 1:
Introducción.
//±0%DF0%DF×314JISULMVdãäÜî314JISULMVdãäÜî00¥½eiei
INTRODUCCIÓN
-4-
1. INTRODUCCIÓN A LAS TÉCNICAS VOLTAMPEROMÉTRICAS.
Los métodos electroquímicos de análisis se han convertido en una herramienta de gran
interés y utilidad en los laboratorios químicos a la hora de detectar y determinar sustancias de
origen muy diverso.
No obstante, el problema principal hoy día no se encuentra relacionado con la detección de
sustancias de manera simple y aislada como sucedía anteriormente, puesto que existen una gran
cantidad de técnicas que, según sus características, pueden servirnos en mayor o menor medida
para tal propósito. La cuestión fundamental a la que nos enfrentamos y para la que no tenemos
respuesta en la mayoría de los casos, radica en la detección de sustancias en muestras de
diferentes tipos, por ejemplo: aguas residuales, alimentos, etc.
En el mundo en el que vivimos las exigencias de pureza y, sobre todo, de calidad, se
encuentran a la orden del día. Ello implica la necesidad imperiosa de desarrollar métodos de
análisis y control para medios complejos, que nos facilite la solución a estos problemas. En este
punto es donde los métodos electroquímicos pueden desempeñar un papel muy importante, de
acuerdo con sus características.
Entre los más importantes, cabe destacar aquellos que se engloban dentro del marco de la
voltamperometría. Todos ellos se basan en la medida de la intensidad de corriente que se
desarrolla en una celda electroquímica en condiciones de polarización total de la concentración.1
En voltamperometría, se aplica una señal de excitación (potencial variable) a una celda
electroquímica, que provoca una respuesta de intensidad de corriente característica en la que se
basa el método.2 La celda contiene: un electrodo de trabajo (cuyo potencial varía con el tiempo
linealmente), un electrodo auxiliar o contraelectrodo (conduce la electricidad desde la fuente
hasta el electrodo de trabajo, a través de la disolución), un electrodo de referencia (su potencial
permanece constante durante la medida), el analito (en pequeña concentración) y el electrolito
soporte no electroactivo (en concentración elevada).3
Se genera una diferencia de potencial entre el electrodo de trabajo y el auxiliar y ésta se
mide entre el electrodo de trabajo y el de referencia.
En los últimos tiempos, la voltamperometría ha alcanzado un gran desarrollo, constituyendo
una técnica de análisis de trazas con grandes posibilidades de aplicación.
A continuación, se describirá brevemente el fundamento de la voltamperometría.
INTRODUCCIÓN
-5-
2. LA VOLTAMPEROMETRÍA.
La voltamperometría, históricamente desarrollada a partir de la polarografía, es un método
electroquímico que estudia curvas de despolarización electródica, intensidad-potencial,
conseguidas por electrólisis, usando generalmente electrodos sólidos o renovables de mercurio
estacionario, en condiciones tales que la reacción electródica total está controlada por la
velocidad de transferencia electrónica, de modo que el tiempo de electrólisis no interviene en
dicho fenómeno y requiriendo, además, un alto nivel de agitación. Al alcanzar la situación en que
dicha reacción se controla por la difusión de la sustancia reaccionante, se alcanza una meseta o
valor límite proporcional a la concentración de la disolución, que se considera constante.4, 5
La diferencia, por tanto, entre ambas técnicas radica en el tipo de electrodo de trabajo que
emplean y en el factor controlante de la reacción electródica, así como por la necesidad de
agitación en este último caso. La polarografía es, por tanto, un caso particular de la
voltamperometría.1, 6
La característica principal, en todos estos casos, es que la concentración del electrolito
inerte es muchísimo mayor que la del analito y el consumo de éste es mínimo.7
3. APLICACIONES DE LA VOLTAMPEROMETRÍA.
La voltamperometría es utilizada ampliamente por los químicos inorgánicos, los químico-
físicos y los bioquímicos con objetivos no analíticos que incluyen estudios fundamentales de
procesos de oxidación y reducción en diversos medios, procesos de adsorción sobre superficies
y mecanismos de transferencia de electrones en superficies de electrodos químicamente
modificados.1
Hace algunos años, la voltamperometría (en particular la polarografía clásica) fue utilizada
con frecuencia por los químicos para la determinación de iones inorgánicos y ciertas especies
orgánicas en disoluciones acuosas. A finales de los años cincuenta y principio de los años
sesenta, sin embargo, estas aplicaciones analíticas fueron ampliamente sustituidas por diversos
métodos espectroscópicos y la voltamperometría dejó de ser importante en análisis excepto para
ciertas aplicaciones especiales, tales como la determinación de oxígeno molecular en
disoluciones.
A mediados de los años sesenta, se desarrollaron varias modificaciones importantes de las
técnicas voltamperométricas clásicas para exaltar significativamente la sensibilidad y la
selectividad del método. Al mismo tiempo, el advenimiento de los amplificadores operacionales
de bajo coste hizo posible el desarrollo comercial de instrumentos relativamente baratos que
INTRODUCCIÓN
-6-
incorporaban muchas de estas modificaciones y los hacían asequibles a todos los químicos. El
resultado ha sido el resurgimiento del interés en la aplicación de los métodos voltamperométricos
para la determinación de una multitud de especies. Además, la voltamperometría acoplada con
la cromatografía líquida (HPLC) se ha convertido en una herramienta poderosa para el análisis
de mezclas complejas de diferentes tipos. La voltamperometría moderna continúa siendo también
una herramienta útil para algunos químicos interesados en el estudio de mecanismos y cinética
de reacciones de oxidación y reducción, al igual que de procesos de adsorción.2
El método voltamperométrico se emplea para la determinación analítica de: sustancias
solubles electroactivas y sustancias solubles o elementos no electroactivos pero que participan
químicamente en una reacción electroquímica, como son los indicadores electroquímicos.8
Se aplica principalmente en análisis químico cuantitativo, basado en la proporcionalidad
entre la corriente de difusión y la concentración de las sustancias electrorreducibles que la
motivan. Rara vez se usa para la caracterización química cualitativa, o en todo caso, con fines
de comprobación.9
La voltamperometría se utiliza mucho en el análisis de sustancias inorgánicas y orgánicas,10
aunque estas últimas son mucho más difíciles de determinar, debido a su tendencia a interferir
unas con otras y a la irreversibilidad de la mayoría de sus reacciones.11 Se ha aplicado con éxito
a prácticamente todos los iones inorgánicos, en una gran variedad de medios y de disolventes
(acuosos, orgánicos, sales fundidas, fase gaseosa) y también a muchas sustancias orgánicas
(operando en medios debidamente tamponados, ya que el ion hidrógeno interviene en todas la
oxidaciones y reducciones de dichas sustancias orgánicas). Su contribución ha sido decisiva en
la determinación de zinc, cadmio, plomo y oxígeno en disolución.9
La polarografía y la voltamperometría tienen su aplicación en multitud de campos. A modo
de ejemplos se puede citar la determinación de formaldehído en productos farmacéuticos;
manganeso en materiales biológicos, cereales o en atmósfera industrial; plomo en bebidas
carbónicas, compuestos orgánicos y alimentos envasados; paladio y sus aplicaciones a la
determinación de dióxido de carbono en sangre; ácido nicotínico y vitamina B en presencia de
ácido fólico; riboflavina en extractos hepáticos y vitamina K en productos farmacéuticos; acetona
en orina; cistina en ovoalbúmina; determinación de hidracida del ácido nicotínico, vitamina C
y K en productos farmacéuticos y sangre en orina.12
En química nuclear se ha empleado para determinar uranio e impurezas y también torio en
arenas.13 En la industria química se han realizado determinaciones de plomo tetraetilo en
gasolinas y análisis de aguas, atmósferas y gases.14
En la industria agrícola y edafología para el análisis de alimentos, plantas y suelos.15
Además, posee un gran número de aplicaciones en Química Física y Electroquímica: cinética
INTRODUCCIÓN
-7-
electroquímica;16 reversibilidad e irreversibilidad;17 determinación de potenciales de equilibrio
en procesos irreversibles;18 proceso electródicos controlados por una reacción química previa;19
detección de corrientes catalíticas;20 estudio de fenómenos de adsorción en electrodos;21 cinética
de reacciones electródicas; estudios de la naturaleza de iones complejos;22 cinética de reacciones
químicas;23 estructura electrónica de iones y comportamiento polarográfico;24 cálculo del número
de electrones implicados en la reacción electródica;25 cálculo del coeficiente de difusión;26
determinación del radio del capilar del electrodo de mercurio y cálculo de la tensión interfacial.27
También posee importantes aplicaciones en metalurgia: la polarografía se ha aplicado para
la determinación de diversos metales en aceros (cobre, plomo, níquel, cobalto, molibdeno,
vanadio, cromo y arsénico, entre otros), solos o en mezclas y en la determinación de distintos
elementos metálicos en materiales magnéticos, aleaciones, rocas y minerales.28
4. VENTAJAS E INCONVENIENTES.
Los métodos electroanalíticos y, entre ellos, la voltamperometría presentan ciertas ventajas
sobre otros tipos de procedimientos. Estas ventajas son las que se enumeran a continuación:
w las medidas electroanalíticas son a menudo específicas para un estado de oxidación
particular de un elemento;29
w se pueden aplicar señales de excitación diferentes al electrodo, permitiendo una
mejora significativa en la sensibilidad y selectividad por medio de la selección de las
señales de excitación/respuesta;30
w son de muy fácil puesta a punto, prestándose a las determinaciones en serie e incluso
automáticas;
w es posible repetir cuantas veces se desee la determinación sobre la misma muestra,
ya que ésta, prácticamente, no se consume y sólo se precisa una pequeña cantidad;
w se pueden determinar simultáneamente varios elementos, si las condiciones exigibles
de sensibilidad lo permiten;
w las determinaciones pueden realizarse a distancia o en recintos herméticamente
cerrados, como ocurre con muestras radioactivas;
w el equipo instrumental es bastante sencillo y económico comparado con otros
métodos instrumentales;31
w son métodos muy veloces, con un fundamento teórico bien desarrollado y aplicables
a una amplia variedad de sistemas.32
w son muy versátiles para el análisis cuantitativo y poseen cierta utilidad en el ámbito
INTRODUCCIÓN
-8-
cualitativo.33
Entre los inconvenientes podríamos destacar su poca selectividad, así como la necesidad
de eliminar el oxígeno en los procesos de reducción, mediante el paso de una corriente de
nitrógeno a través de la disolución de la celda.
En la actualidad, los métodos de impulso han sustituido casi completamente al método de
la polarografía clásica, ya que aumentan significativamente la sensibilidad del método
polarográfico y por su conveniencia y selectividad;10 además, en el caso de la onda cuadrada,
posee una gran velocidad y sensibilidad.34
5. SENSIBILIDAD.
La precisión de la determinación electroquímica depende de numerosos factores,
principalmente de la selectividad y reproducibilidad de la llamada corriente residual.35
Con respecto a la sensibilidad de los métodos electroanalíticos, en polarografía clásica, el
intervalo óptimo de concentración de la sustancia en estudio es del orden de 10-2 - 10-4 M ,
lográndose la determinación analítica con un error no superior al ± 1%; no obstante, se pueden
realizar medidas entre 10-4 - 10-5 M (límite de detección), con un error del ± 5%.9 Se trata, por
tanto, de un método de sensibilidad media, útil para analizar mezclas.36
Con las técnicas de voltamperometría de onda cuadrada y de pulso diferencial, se pueden
alcanzar sensibilidades del orden de 10-8 M, con errores no superiores al 1%, según la
concentración investigada y la naturaleza del método analítico. Por último, la voltamperometría
de redisolución anódica lleva la sensibilidad a un límite extraordinario, alrededor de 10-9 M.9
6. EL PROBLEMA DE LA SUPERPOSICIÓN DE ONDAS Y SU RESOLUCIÓN.
Como se ha comentado anteriormente, a la hora de analizar muestras reales en el
laboratorio, el principal problema con el que nos encontramos es que la disolución o sustancia
problema no contiene una única especie que haya que detectar y determinar. Al contrario, posee
en su seno diferentes elementos o compuestos químicos, cuyo número y abundancia de cada uno
depende de la complejidad de la mezcla.
Dos son los factores que van a influir en este punto: la selectividad y la sensibilidad, los
cuales constituyen uno de los mayores problemas a resolver en el análisis electroquímico, al igual
que en otros campos analíticos. La selectividad en los sensores voltamperométricos se obtiene
para diferentes especies electroactivas que sufren reducción (u oxidación) a diferentes potenciales
de electrodo; no obstante, muchos analitos pueden interferirse mutuamente si poseen potenciales
INTRODUCCIÓN
-9-
de pico muy próximos o si se encuentran en un exceso de concentraciones elevado sobre el otro
componente presente en la muestra.30 Esto provoca la superposición de señales de dos o más
especies existentes en la disolución, haciendo mucho más difícil la determinación
voltamperométrica.37 El grado de solapamiento puede ser tal que la existencia de dos procesos
en paralelo no puede distinguirse visualmente. En estos casos, pueden producirse malas
interpretaciones y resultados erróneos.38
Este problema de determinación de dos o más especies con potenciales de pico similares
ha suscitado gran interés en voltamperometría desde el comienzo de la técnica polarográfica
como método analítico.39
La resolución en técnicas electroquímicas voltamperométricas depende fundamentalmente
de la diferencia de los potenciales de pico de dos o más especies electroactivas presentes en la
disolución a analizar,37 de la altura de onda relativas (afectadas por las concentraciones relativas
y el número de electrones requeridos para cada reducción, si éstas son reversibles), del grado de
irreversibilidad del proceso redox40 y de la forma de la curva intensidad-potencial obtenida
usando una técnica particular.37
Para las técnicas electroanalíticas, Bond definió la resolución cuantitativa en términos de
diferencia entre los potenciales medios de onda de dos especies electroactivas que permitan que
el proceso de electrodo que está siendo medido pueda determinarse con una exactitud del 99%.
En este contexto, por ejemplo, para dos reducciones reversibles con valores iguales de
concentración y de n, número de electrones transferidos, la separación entre los potenciales
medios de onda, (ÄE½)·n requerida en onda cuadrada es de 155 mV.41 Según Sánchez Batanero,
la diferencia entre los potenciales de onda media de dos ondas polarográficas debe ser de 250
mV; de este modo, pueden ser consideradas como diferentes y apropiadas para llevar a cabo
determinaciones analíticas simultáneas.8
Para las técnicas que ofrecen señales en forma de pico, como la voltamperometría de onda
cuadrada, pulso diferencial y de redisolución, se producen serios solapamientos cuando la
diferencia en los potenciales de onda media es menor de 100/n mV (siendo n el número de
electrones envueltos en la reducción u oxidación electroquímica), especialmente cuando la
relación de concentraciones de las especies es mayor de 3:1.37
La selectividad de la voltamperometría de pulso diferencial no es suficiente para resolver
mezclas de metales tales como In(III) y Cd(II) o Pb(II) y Tl(I), porque los potenciales de pico de
esos metales son muy similares y, consecuentemente, los voltamperogramas se consideran
solapados. Por esta razón, se han usado las técnicas derivadas voltamperométricas. Sin embargo,
éstas introducen artefactos instrumentales indeseables que las hacen poco útiles a la hora de dar
una respuesta teórica.42
INTRODUCCIÓN
-10-
Como la anchura de un pico voltamperométrico (típicamente de 100 mV a la altura media)
es una fracción apreciable del rango de potencial accesible (normalmente 1500 mV), el
solapamiento de los picos se produce más comúnmente en voltamperometría que en
cromatografía o la mayoría de métodos espectrales.43
El éxito del método cuantitativo en la mayoría de los casos, puede atribuirse directamente
a que se encuentren condiciones de disoluciones particulares, que proporcionen una resolución
sobre ondas superpuestas. Es precisamente este factor, operando a la inversa, el que dificulta la
posibilidad de realizar análisis cualitativos mediante la voltamperometría. Cuando se conocen
las especies presentes, pueden tomarse medidas para eliminar interferencias; de otra manera, es
casi segura la superposición de ondas de electrólisis si se está estudiando una mezcla.44
7. MÉTODOS DE RESOLUCIÓN DE MEZCLAS.
El problema de la resolución de mezclas de especies electroanalíticas lleva mucho tiempo
estudiándose. Se han ideado gran cantidad de métodos de separación de ondas polarográficas y
voltamperométricas para lograr una correcta y adecuada detección y determinación de sustancias.
Y la investigación continúa.
A continuación se propone una clasificación de los distintos métodos de resolución de
mezclas. Estos se pueden dividir en dos tipos:
w métodos físico-químicos
w métodos basados en la modelización matemática
La última aproximación es mucho más sencilla y se prefiere cuando se usa el electrodo de
trabajo como un sensor electroquímico global o multianalito. No obstante, los métodos de
modelización matemática sufren muchas interferencias debidas al ruido introducido por la
manipulación matemática de la señal de la mezcla o global, denominado ruido de resolución.45
Dentro de los métodos físico-químicos podemos encontrar los siguientes:
# métodos basados en técnicas de separación
# métodos químicos: formación de complejos y ácido-base
# métodos instrumentales
Con referencia a los métodos basados en la modelización, tenemos:
INTRODUCCIÓN
-11-
# método de los espectros cocientes o de división de la señal
# métodos de ajuste
# reconocimiento de patrones
# redes neuronales artificiales
# sistemas expertos y modelos borrosos
Seguidamente, se comentarán cada uno de ellos: metodología, ventajas, aplicaciones, etc.
A) MÉTODOS FÍSICO-QUÍMICOS.
MÉTODOS BASADOS EN TÉCNICAS DE SEPARACIÓN.
Este tipo de métodos , junto con el de formación de complejos y reacciones ácido-base, es
quizás uno de los métodos de resolución de mezclas más antiguos que se han utilizado y, por
tanto, de los primeros en emplearse para tal fin.
Consiste, fundamentalmente, en la separación de las especies que componen la mezcla
mediante varias técnicas, como son el cambio de disolvente o el empleo de resinas de
intercambio iónico.
La aplicación del cambio de disolvente se refiere a la extracción del ion o iones que nos
interesan entre sí y de una mezcla de otros iones interferentes; o bien a eliminar, de una
disolución que se va a investigar, un ion que interfiere con otro u otros que se van a determinar
electroquímicamente. Un ejemplo de éste último caso lo constituye el trabajo realizado por
Almagro Huertas, utilizando polarografía clásica, destinado a la determinación de trazas de
algunos elementos: cobre, cadmio, níquel, cobalto, plomo y zinc en el uranio y sus compuestos.
El uranio (VI), presente en una concentración elevada en toda disolución de ataque de los
materiales que lo contienen, posee una onda a -0,4 V aproximadamente. Al encontrarse en gran
proporción, impide prácticamente la determinación polarográfica directa de cualquier otro
elemento que le acompañe como impureza o como componente de sus aleaciones. Por tanto, es
necesario separar el uranio de los restantes componentes de la disolución de ataque. El uranio
se extrae como un complejo de uranio-fosfato de tributilo a un disolvente orgánico,
especialmente ciclohexano, en presencia de nitrato amónico como agente salino desplazante.46
De este modo, una vez realizada la separación, el resto de las especies presentes en la muestra
pueden determinarse fácilmente por el método polarográfico.
Con respecto a las resinas de intercambio iónico, constituyen un magnífico instrumento para
la separación de iones que se interfieren mutuamente. Éstas pueden ser aniónicas o catiónicas,
INTRODUCCIÓN
-12-
según el tipo de ion que se desea retener, aunque también existen resinas capaces de retener
aniones complejos de los metales. Las resinas de intercambio aniónico han sido estudiadas
detalladamente por varios autores, lo que ha posibilitado el establecimiento de curvas de
absorción de gran número de iones en diferentes condiciones. Así, podría elaborarse un esquema
de separación mediante el cual, los diversos grupos formados por diferentes eluciones permitirían
el análisis de un material en principio complejo.
Varios autores han ideado diversos sistemas para el análisis de mezclas complejas, que
resultan especialmente útiles en la determinación de los microconstituyentes en diferentes
sustancias. Cabe citar la separación y determinación del zinc, cobalto, hierro y cobre, o la del
cadmio, cobre, manganeo, níquel y zinc.
Del mismo modo, también se han llevado a cabo aplicaciones de resinas líquidas a las
separaciones previas en polarografía.47
MÉTODOS QUÍMICOS: FORMACIÓN DE COMPLEJOS Y ÁCIDO-BASE.
Del mismo modo, los métodos químicos de formación de complejos o de reacciones ácido-
base48 permiten enmascarar dos o más sustancias presentes en la mezcla, separándolas de la
misma y posibilitando una correcta detección e identificación de la especie de interés, o ampliar
la diferencia existente entre los potenciales de onda media de cada una de las mismas,
impidiendo, de este modo, el solapamiento de las ondas voltamperométricas y alcanzando una
buena separación de la mezcla.37, 39, 45
Generalmente, una combinación del método físico-químico junto con el de complejación,
resultaría más factible que la aplicación individual de los mismos. Como ejemplo, podemos citar,
de nuevo, el trabajo de Almagro Huertas sobre la determinación de trazas de elementos en uranio,
detallado en el apartado anterior, en el cual, el uranio se extrae en forma de complejo y por un
cambio de disolvente, separándolo del resto de las especies.46
MÉTODOS INSTRUMENTALES.
a) Separaciones Electrolíticas.
Las separaciones electrolíticas, especialmente a potencial controlado, son de una gran
utilidad como técnica auxiliar en voltamperometría. Se pueden aplicar a la purificación de
reactivos, a la eliminación de interferencias por cambio de valencia, al aislamiento de elementos
a investigar o a la separación de grupos de elementos compatibles en el análisis polarográfico.
INTRODUCCIÓN
-13-
Todo ello se basa en que cada elemento tiene un potencial de deposición característico,
relacionado con su potencial redox, con el que coincide prácticamente si sus concentraciones no
son muy elevadas. Mediante un potenciostato capaz de controlar intervalos muy estrechos de
potencial pueden separarse elementos cuyos potenciales redox estén muy próximos, incluso en
0,2 V, en determinadas condiciones.
Generalmente, se utiliza un cátodo de mercurio, y los elementos que nos interesan pueden
quedar en disolución o disueltos en el mercurio del electrodo. Cuando ocurre esto último se
pueden recuperar estos elementos destilando el mercurio y recogiendo el residuo, y en otros casos
por maceración de dicho mercurio con ácido clorhídrico o ácido nítrico diluidos.
En otros casos, el cambio de valencia producido en el ion interferente puede eliminar la
onda que produce la perturbación. Un caso típico es la interferencia del ion hierro (III) con un
gran número de especies reducibles, ya que produce una onda a 0,00 V aproximadamente. Si se
produce una reducción prolongada a este potencial, se elimina esta causa de interferencia, ya que
el ion hierro (II) no produce onda hasta -1,5 V aproximadamente.
También adquieren gran importancia la separación de grupos de iones que luego se
determinan simultáneamente. Así, por ejemplo, si durante un cierto tiempo aplicamos a la celda,
con el potenciostato, una diferencia de potencial de -1,0 V, todos los elementos que se reducen
a potenciales menos negativos, como el cobre (II), plomo (II) o cadmio (II), pueden quedar
separados de aquellos que se reducen a potenciales superiores como el zinc (II), manganeso (II)
o aluminio (III).
También, hay que citar el método propuesto por Lingane para la determinación sucesiva de
cobre, plomo, estaño, níquel y cinc. Se electroliza la muestra a -0,35 V en un medio de cloruro
para depositar el cobre después de haber sido determinado inicialmente. A continuación, pueden
determinarse el plomo y el estaño en los medios apropiados, apareciendo sus ondas a un potencial
aproximado de -0,76 V. Después se electroliza la disolución a -0,70 V para depositar todo el
estaño y el plomo, y la disolución que queda sirve para determinar el níquel y el zinc.49
b) Actuación O Modificación Por Ordenador En Tiempo Real.
El método de actuación o modificación por ordenador en tiempo real no es muy conocido.
Consiste en provocar interrupciones en el potencial durante el proceso de medida, de modo que,
al continuar el barrido se alcanza una mejora en la señal, eliminando el solapamiento de los
picos, si no totalmente, por lo menos en gran medida. La interrupción se aplica después de cada
paso de reducción; es decir, cuando se ha detectado el primer componente y comienza la
detección del siguiente, siendo la separación entre ambos menor de 155/n mV.
INTRODUCCIÓN
-14-
Dos de las técnicas voltamperométricas en las que se ha empleado este método son la
voltamperometría en escalera y la onda cuadrada. No obstante, en este último caso, no se
obtienen resultados tan satisfactorios como en la anterior.41, 50
c) Sustracción De Datos Almacenados.
La resolución de mezclas con el método de sustracción de datos almacenados tampoco se
conoce ampliamente. La única limitación que presenta radica en la reproducibilidad de las curvas
intensidad-potencial grabadas.
El proceso de determinación de los componentes en una mezcla binaria A-B es el siguiente:
una vez obtenido el voltamperograma de la mezcla A-B en el potenciostato, se almacena en
memoria. Se prepara un blanco de B y también se almacena. A continuación, se sustrae éste del
polarograma mezcla y se examina visualmente el resultado: si la cantidad de B añadida es la
correcta (extremos de la curva a la misma altura), el paso siguiente consiste en determinar A con
una curva de calibrado; si se ha añadido demasiado B (extremos con valores negativos), se diluye
el blanco y se repite el proceso y si se ha añadido B por defecto (aparece un hombro), habrá que
añadir más cantidad de B y repetir el proceso de nuevo.
Este método no requiere formulación matemática alguna, ni ajustes de curvas, y es aplicable
para cualquier técnica voltamperométrica y para todo tipo de procesos: reversible, irreversible
o controlado cinéticamente. La altura de los picos de la mezcla, unas vez determinados sus
componentes, es idéntica a la de las muestras por separado, dentro del error experimental del ±
1%.
La determinación de la onda correcta debe hacerse de acuerdo con la comparación de
potenciales de pico y la forma de la onda (anchura media) con respecto a las curvas de
calibración.
Un problema que presenta es que conforme se aproximen más los potenciales medios de
onda de las especies de la mezcla, mejor hay que afinar en el análisis, hasta el punto de alcanzar
una completa anulación en el procedimiento de sustracción cuando se desean determinar especies
con el mismo valor de potencial medio de onda.39
B) MÉTODOS BASADOS EN MODELIZACIÓN MATEMÁTICA.
MÉTODO DE LOS ESPECTROS COCIENTES O DE DIVISIÓN DE LA SEÑAL.
Éste método se aplica fundamentalmente al estudio de señales completas, las cuales pueden
INTRODUCCIÓN
-15-
II I
f I Iglobalglobal k
indiv k
=+
⋅ +
tratarse también como un conjunto de muestras.
El método de los espectros cocientes o de división de la señal trata situaciones extremas de
solapamiento de ondas que son imposibles de resolver adecuadamente mediante el uso de otros
métodos. En este caso, se dispone de una mezcla de analitos con un exceso muy grande de uno
de ellos (concentración muy alta, de varios órdenes de magnitud con respecto a los otros) en las
que se pretende determinar el o los componentes minoritarios.
El proceso se lleva a cabo del siguiente modo: la señal global, correspondiente a una mezcla
de tres iones, se divide por la señal individual del componente mayoritario multiplicada por un
factor f. De este modo, se pretende eliminar lo más posible la contribución a la señal global del
componente en exceso, demostrando así la existencia de los componentes minoritarios.
La expresión aplicada para la resolución de los picos es la siguiente:
donde: Iglobal representa la intensidad de la señal global (mezcla de todos los componentes); Iindiv
es la intensidad de la señal del componente individual (el que se encuentra en exceso, a la misma
concentración que en la mezcla); Ik es un factor empleado para evitar divisiones por cero o entre
valores muy pequeños (varía entre un 1 y un 30% de la señal global) y f es el factor de
multiplicación.
La señal del compuesto en mayor concentración no se emplea tal cual, sino que se utiliza
parte de ella, ya que el componente individual no contribuye sólo a la señal global (se emplea un
90 - 95% de la señal individual, mediante un valor de f de 0,90 ó 0,95). Hay que aproximarse lo
más posible a esta contribución para que, al dividir, aparezcan los otros dos iones, que
contribuyen en menor proporción, pero lo suficiente para no poder usar la señal individual total.
De este modo, se pueden separar analitos, cuyos potenciales de onda media difieren menos
de 80 mV. El error relativo cuantificado es inferior al 10%, si se emplea éste sistema.45
Otra posibilidad es la de dividir la señal global por una señal exponencial del componente
en exceso, es decir, elevada a un exponente. De este modo, conforme aumenta ese exponente,
más aguda se hace la función del denominador y mejor resolución aporta. No obstante, esto
introduce un nuevo problema: el fenómeno de sobreagudización, que consiste en la aparición de
picos “fantasmas” o “artefactos” que no pertenecen a ninguna especie presente en disolución y
que impiden una correcta identificación de los picos correspondientes a cada sustancia. Aún así,
la distorsión introducida es menor que cuando se emplean algunos métodos de tipo matemático,
como por ejemplo, la transformada de Fourier. En este caso, se llegan a determinar especies
INTRODUCCIÓN
-16-
cuyos potenciales de onda media están separados unos 70 mV, lográndose una reproducibilidad
inferior al 5%. No obstante, el método de división de la señal es aplicable si los componentes de
la muestra son conocidos y si su potencial de pico es independiente de la concentración, dentro
de los límites del error experimental. La mezcla se resuelve finalmente con diagramas de
calibración.30
Una variante del método de los espectros cocientes es el de los espectros cocientes
derivados, que consiste en la unión de dos técnicas: la de derivación (“zero-crossing”) y la
comentada en este apartado. Éste método ha sido aplicado también con éxito en
espectrofotometría, para la resolución de mezclas binarias por medidas de áreas de sus espectros
cocientes51.
MÉTODOS DE AJUSTE.
Los métodos de estimación de parámetros constituyen una disciplina relacionada con el
ajuste de los datos a modelos matemáticos. Es útil cuando se desea establecer relaciones directas
entre la respuesta y la concentración diferentes a la forma lineal o no lineal.
Los modelos usados en rutinas de estimación de parámetros pueden ser analíticos,
expresables en forma ajustada o generados numéricamente. Los de forma ajustada pueden
proceder a su vez de relaciones teóricas para el sistema en estudio o derivados empíricamente.
Por otro lado, los numéricos requieren cálculos extensos para generar la función de respuesta
apropiada.
Debido a que estos modelos son con frecuencia más complejos que los de calibración
multivariante, algunas variantes de regresiones no lineales son utilizadas para ajustar el modelo
a los datos.
A continuación, se comentarán algunos de estos métodos de ajuste, según si se encuentran
referidos a una muestra o a una señal completa.
a) Métodos Referidos Al Tratamiento De La Muestra.
1) Regresión Lineal Múltiple.
El método de regresión lineal múltiple o MLR se emplea cuando muchas variables
independientes están relacionadas linealmente con un conjunto de variables dependientes. Cada
variable dependiente r se expresa como combinación lineal de un conjunto de variables
independientes (el conjunto de n concentraciones ci):
INTRODUCCIÓN
-17-
R C B F= ⋅ +
r b c fi ii
n
= ⋅ +=
∑0
r C b f= ⋅ +
donde, para el caso de una voltamperometría, r representa la intensidad de corriente, bi y ci son
respectivamente el coeficiente de regresión y la concentración de la especie i, n es el número total
de analitos en la mezcla y f el término de error. (Ejemplo: una muestra de agua donde se mide
la concentración de Fe3+, Cu2+ y Zn2+.)
La ecuación anterior describe la dependencia multilineal para una única muestra. Si existen
respuestas múltiples de cada medida, es decir, varias muestras, la ecuación anterior se transforma
en la siguiente expresión:
Ahora todos los parámetros representan matrices, donde r, b y f son vectores o matrices columna.
(Ejemplo: tres muestras distintas de agua donde se mide la concentración de las tres especies
anteriores.)
Si existe más de una variable dependiente, en notación matricial, la ecuación toma la forma
del modelo clásico:
(Ejemplo: un conjunto de n muestras de agua donde se mide la concentración de m variables en
p condiciones de pH.)
Para un conjunto de variables dependientes e independientes el fin de la calibración consiste
en estimar la matriz de los coeficientes de regresión B, que define el modelo MLR. No obstante,
se pueden distinguir tres situaciones:
w m > n; hay más variables que muestras. En este caso hay un número infinito de
soluciones para B, que ajustan la ecuación.
w m = n; el número de muestras es igual al de variables. Ofrece una única solución para
B. Esto nos permite escribir: F = Y !! XB = 0, donde F es la matriz de residuos, la cual
es nula.
w m < n; hay más muestras que variables. Esto no proporciona una solución exacta para
B; sin embargo, se puede conseguir una solución minimizando la matriz de los residuos
en la siguiente ecuación: F = Y !! XB.
El método más popular para hacer esto se denomina el método de mínimos cuadrados, cuya
INTRODUCCIÓN
-18-
( )B C C C Rt t= ⋅−1
A C K EA= ⋅ +
( )$K C C C At t= ⋅−1
solución es la siguiente:
La regresión por mínimos cuadrados ajusta bien los coeficientes cuando las variables
independientes son casi o totalmente ortogonales. Si existe cierta correlación entre las variables
independientes se producen problemas en la estimación de la matriz de los coeficientes B. Esto
se evita prestando especial atención a la hora de realizar las medidas de las mezclas, haciendo
uso de un buen diseño experimental.52, 53
Las aplicaciones del modelo MLR han sido muy diversas: se ha empleado para el estudio
de electrodos selectivos de iones, así como para aspectos de calibración no lineal de los mismos
y también para el análisis de datos voltamperométricos.
2) Regresión Por Mínimos Cuadrados Clásica.
Denominado también por los espectroscopistas método de matriz K y según los autores:
calibración total o directa. Constituye el primer método de regresión aplicado en el análisis
multivariante y está basado en el modelo de la ley de Beer que, para datos espectrales, es el
siguiente: la absorbancia a cada frecuencia es proporcional a la concentración, tal que se asume
que el error se centra en dicha respuesta. El modelo de la ley de Beer para m estándares de
calibración que contienen l componentes químicos con espectros de n respuestas digitalizadas
viene dado por:
donde A es la matriz de orden m×n de los espectros de calibración; C es la matriz m×l de las
concentraciones de los componentes; K es la matriz l×n de los productos de longitud de paso-
absortividad y EA es la matriz m×n de los errores espectrales o residuos no ajustados por el
modelo. K representa, por tanto, la matriz de concentración de los espectros de los componentes
puros y longitud de paso unidad.
La solución de la ecuación durante la calibración es:
donde son las estimaciones por mínimos cuadrados de la matriz K con la suma de los errores$K
espectrales al cuadrado que están siendo minimizados.
Durante la predicción, la solución de mínimos cuadrados para el vector de las
concentraciones de los componentes desconocidos, c, es:
INTRODUCCIÓN
-19-
C A P EC= ⋅ +
$ ( $ $ ) $c K K K at= ⋅ ⋅ ⋅
donde a es el espectro de la muestra desconocida. El espectro de componentes puros (filas de K)
son los factores o vectores de carga y las concentraciones químicas (elementos en C) son los
puntos.
El modelo transforma la representación del espectro de calibración en un nuevo sistema de
coordenadas, siendo las nuevas coordenadas los l espectros de los componentes puros. Las l
intensidades espectrales para cada mezcla en el nuevo sistema de coordenadas de espectros de
componentes puros son los elementos de C; esto es, las intensidades en el nuevo sistema son las
concentraciones de los componentes.
Al tratarse de un método de espectro completo ofrece cierta mejora en la precisión con
respecto a los métodos que están restringidos a un número de frecuencias pequeño; además,
permite el ajuste simultáneo de las líneas base espectrales y es muy útil para el examen e
interpretación de los residuos del espectro completo y del espectro de componentes puros
estimado por mínimos cuadrados.
No obstante, esta técnica requiere conocer todos los componentes químicos interferentes
e introducirlos en la calibración.
Cuando el solapamiento abarca todo el espectro de señales, se debe poseer información
sobre todos los componentes de la muestra para un análisis espectral cuantitativo seguro.
Por último, el tipo de información que puede extraerse de un CLS es la siguiente: existencia
de interacciones moleculares y qué parte de las mismas presente en la muestra interactúan;
existencia de no linealidad espectrométrica; presencia e identificación de componentes no
esperados en muestras desconocidas; presencia de interferentes; determinación de los
componentes que reaccionan en la mezcla reactiva y aquellos que constituyen los productos de
la reacción e información que permite una asignación estructural y química rápida de las bandas
espectrales.54
3) Regresión Por Mínimos Cuadrados Inversa.
El método ILS o de matriz P, para los espectroscopistas, recibe muchos nombres en la
literatura: MLR, calibración indirecta o parcial. Difiere del anterior en que la concentración es
función de la absorbancia, todo lo contrario que ocurría con el CLS. El modelo de la ley de Beer
inversa para m estándares de calibración con un espectro de n absorbancias digitalizadas viene
dado por:
INTRODUCCIÓN
-20-
c A p ec= ⋅ +
( )$p A A A ct t= ⋅−1
$ $c a pt= ⋅
donde C y A poseen el mismo significado que en el apartado anterior; P es la matriz n×l de los
coeficientes de calibración desconocidos que relacionan las l concentraciones de los componentes
con las intensidades espectrales y EC es el vector m×l de los errores de concentración al azar o
los residuos que no ajusta el modelo.
Si se asume que el error del modelo radica en el error de la concentración de los
componentes, el método minimiza los errores al cuadrado en las concentraciones durante la
calibración.
El uso de la ley de Beer inversa presenta la ventaja de que el análisis es univariante con
respecto al número de componentes químicos l, incluidos en el mismo.
Al considerar que los elementos en las distintas columnas de EC son independientes, un
análisis idéntico para cada analito individual puede obtenerse considerando el modelo reducido
para un componente:
donde c es el vector m×1 de las concentraciones del analito de interés en m muestras de
calibración; p es el vector n×1 de los coeficientes de calibración y ec el vector m×1 de los
residuos de la concentración no ajustados por el modelo.
Durante la calibración, la solución de mínimos cuadrados para p en la ecuación anterior
viene dada por:
En el proceso de predicción, la solución para la concentración del analito en una muestra
desconocida es:
Esto implica que el análisis espectral cuantitativo puede hacerse si sólo se conoce la
concentración de un componente en la mezcla de calibración. Los componentes no incluidos en
el análisis deben estar presentes y modelados implícitamente durante la calibración.
Las desventajas del ILS se enumeran a continuación: el análisis está restringido a un
número pequeño de frecuencias, debido a que la matriz que hay que invertir en la ecuación de $p
tiene una dimensión igual al número de frecuencias y este número no puede exceder el número
de mezclas de calibración empleadas en el análisis; además, un número de frecuencias elevado
en el análisis origina problemas de relaciones lineales, lo que provoca cierta degradación en los
resultados.
La mejora en la precisión y las ventajas del CLS no son posibles con el ILS. La
INTRODUCCIÓN
-21-
X T P t p
Y U Q F u q F
th h
t
th h
t
= ⋅ + = ⋅ +
= ⋅ + = ⋅ +
∑∑
Ω Ω
$u b th h h= ⋅
Y T B Q Ft= ⋅ ⋅ +
determinación del número de frecuencias a incluir en el análisis no es trivial para mezclas
complejas; una mala elección dará lugar a problemas de modelización de la línea base, a una
inflación del ruido debido a la colinealidad y a un sobreajuste.54
Como se ha podido comprobar, tanto el ILS como el CLS utilizan técnicas similares a las
de MLR, pero con distintas propiedades, ventajas y desventajas.
4) Regresión Por Mínimos Cuadrados Parciales.
El modelo PLS está construido sobre las propiedades del algoritmo NIPLS. La regresión
por mínimos cuadrados parciales extiende la idea de usar el modelo inverso y reemplazar las
variables con un conjunto truncado de sus componentes principales. Según algunos autores,53 es
un método mucho más robusto que el PCA y el MLR, ya que los parámetros del modelo no
varían mucho cuando se toman nuevas muestras de calibración del total de la población. Además,
se trata de un método de análisis de varios factores, al igual que el PCR y el CLS, aunque éste
último no se presenta normalmente como tal.
En el PLS, las variables independientes X y las dependientes Y se autodescomponen
simultáneamente. Las ecuaciones del PLS, que representan las relaciones externas, son:
donde T y U son los puntos para cada bloque, X e Y; P y Q son las cargas respectivas y Ù y F
son las matrices de los residuos, construidas a partir de los puntos y cargas de los componentes
principales descartados.
La descomposición simultánea de X e Y viene controlada por la relación interna:
donde bh es el vector de los coeficientes de regresión para el componente principal h-ésimo en
los bloques X e Y. Juega el mismo papel que los coeficientes de regresión bi en los modelos PCR
(regresión de componentes principales) y MLR.
Si en la relación externa para la variable Y, el factor uh es reemplazado por su valor
estimado ûh, se obtiene una relación mezclada que posee la siguiente expresión:
la cual, asegura la posibilidad de usar los parámetros del modelo a partir de un conjunto de
INTRODUCCIÓN
-22-
prueba.
Una forma de mejorar la relación interna es mediante el intercambio de puntos entre ambos
bloques de variables, X e Y. Además, para obtener puntos del bloque X que sean ortogonales,
como en PCA (análisis de componentes principales), es necesario introducir pesos.
La parte más importante de cualquier regresión es su utilización en la predicción del bloque
dependiente a partir del independiente. Esto se lleva a cabo por la descomposición del bloque X
y la construcción del Y. Para ello se requiere un número de componentes adecuado. Si el modelo
fundamental que relaciona ambas variables es un modelo lineal, el número de componentes
necesarios para describir este modelo es igual a la dimensionalidad del mismo. Modelos no
lineales exigen componentes extra que describan la no linealidad. El número de componentes que
se van a utilizar es una propiedad muy importante del modelo PLS.52, 53
Uno de los métodos mayormente empleados para la determinación del número de
componentes se denomina método de validación cruzada, basado en el cálculo del estadístico
PRESS o suma de los cuadrados de los residuos de predicción. Dado un conjunto de m muestras
de calibración se lleva a cabo la calibración a partir de m-1 muestras y, a través de ella, se predice
la concentración de la muestra suprimida durante el proceso de calibración. El esquema se repite
un total de m veces hasta que cada muestra haya sido suprimida una vez del conjunto. La
concentración predicha para cada muestra se compara luego con la concentración conocida en
la de referencia. El PRESS para todas las muestras de calibración es una medida de la bondad
del ajuste de un modelo PLS particular para una serie de datos de concentración. El PRESS se
calcula del mismo modo cada vez que un nuevo factor es añadido al modelo, tal que el número
de componentes cuyo PRESS sea mínimo será el que ofrezca una predicción óptima del mismo.
Pero éste mínimo no se encuentra bien definido la mayoría de las veces, ya que la medida de la
bondad del modelo a través de este método está basado en un número finito de muestras y, por
tanto, sujeto a error. Esto es, si se utiliza un número de factores h* que logran el PRESS mínimo,
se suelen producir sobreajustes.
Un mejor criterio para seleccionar el modelo óptimo implica la comparación del PRESS
a partir de modelos con un menor número de factores que h*. El modelo seleccionado es aquel
con el menor número de factores, tal que el PRESS para ese modelo no es significativamente
mejor que el PRESS para el modelo con h* factores. Se emplea el estadístico F para establecer
el límite de significación, de modo que el número de factores para el primer valor de PRESS
cuya relación de probabilidad de F cae por debajo de 0,75 es el que se selecciona como óptimo,
según Haaland y Thomas.
Otro posible criterio para seleccionar el modelo óptimo, el cual puede no ser tan sensible
a la existencia de interferencias, implica la estimación del error en el PRESS. El modelo
INTRODUCCIÓN
-23-
seleccionado sería aquel que posee el número más reducido de vectores de carga que alcanza un
PRESS dentro de un error estándar del PRESS obtenido a partir del modelo que alcanza el
PRESS mínimo. Tan sólo ocasionalmente se alcanza un número diferente de factores por ambos
métodos.54
Una vez obtenido el número óptimo de factores PLS, se necesita desarrollar la calibración
final, usando todas las m muestras de calibración con esos factores.
PCR y PLS se basan en la regresión de las concentraciones químicas sobre variables
latentes o factores, difiriendo uno de otro en que el segundo utiliza datos de concentración a
partir del conjunto de entrenamiento y de los datos del espectro en la modelización. Un gran
número de experimentos electroquímicos generan datos cuantitativos útiles que pueden ser
tratados con ambos métodos. Por ejemplo, algunos autores usaron el PLS para resolver
cuantitativamente respuestas solapadas obtenidas de voltamperometría de redisolución anódica
de pulso diferencial. Demostraron que calibrando con PLS un conjunto de datos pequeño, para
un problema de dos componentes, se obtuvo un resultado superior que cuando se aplicó un
análisis mucho más sencillo, que empleó tan sólo la corriente medida a dos potenciales para
resolver las ecuaciones simultáneas para las concentraciones.
Todo aquel conjunto de datos que no pueda usarse directamente para modelización por
software o métodos de calibración, puede ser transformado previamente al análisis. En esto se
basan ciertas investigaciones en las que se desarrolla un modelo de calibración para una serie de
electrodos selectivos de iones empleados en la determinación simultánea de Ca, Mg, K y Na. Los
errores de predicción obtenidos fueron inferiores a los del modelo MLR. La disparidad
aumentaba conforme al número de sensores en la serie. A mayor número de electrodos, más
información redundante en el conjunto de respuestas de los sensores para cada muestra. Esta
correlación es la responsable de la degradación de los resultados observados en MLR, de ahí que
el error fuese mayor en este modelo que con el PLS. En éste último, la colinealidad o
dependencia en las respuestas de los sensores no afecta al resultado, ya que la regresión está
mejor condicionada gracias al intercambio de puntos entre los bloques X e Y.
En resumen, cuando existen un gran número de variables en la calibración, PLS da un
resultado significativamente mejor que el modelo MLR.52, 53
Recientemente, se ha publicado un trabajo en el que se comparan dos métodos de PLS:
PLS-1 o normal y PLS-2; en el primero, los análisis de calibración y predicción se realizan para
un sólo componente y en el segundo para dos o más componentes simultáneamente. Ambos se
emplearon en la resolución de mezclas de tres componentes en dos tipos de diseños: triangular
y ortogonal, en técnicas espectroscópicas de absorción y de primera derivada. El número de
factores se determinó mediante validación cruzada. Las conclusiones obtenidas fueron que no
INTRODUCCIÓN
-24-
r G c fj j kj kk
K
j= ⋅ ⋅
+
=∑ θ
1
existía diferencia alguna entre los modelos de PLS empleados y que el diseño del conjunto de
calibración es muy importante para la habilidad predictiva del método de calibración
multivariante, siendo conveniente en algunos casos derivar antes la señal.
Posteriormente, Haaland y Thomas encontraron que en muestras reales, el modelo PLS-1
alcanzaba una mejor predicción que el PLS-2, aplicándose éste último para reconocimiento de
patrones más que para predicción de especies individuales. También explicaron el método PLS
y la base para cada paso de ejecución del algoritmo en cada una de las etapas: calibración y
predicción.54
También es de especial interés la aplicación del método PLS llevada a cabo por Espinosa-
Mansilla et al., dirigida a la determinación simultánea del 2-furfuraldehido, 5-
hidroximetilfurfuraldehido y malonaldehido en mezclas, mediante técnicas de espectrofotometría
derivada.55
Otros campos de aplicación del PLS son la espectrofotometría UV, de IR próximo y la
cromatografía.
5) Regresión Por Búsqueda De Proyecciones.
En ocasiones, una relación entre variables dependientes e independientes no puede forzarse.
Para estos casos, existe un método de calibración no lineal denominado regresión por búsqueda
de proyecciones. La matriz de las variables de respuesta R es modelada como una función de
combinaciones lineales de variables independientes, por ejemplo, concentraciones. La función
usada es un atenuador de ruido determinado empíricamente:
donde rj es el vector del bloque de respuestas; Gj es la función de atenuación univariante; èkj el
coeficiente de regresión; ck el vector de concentración para la especie k-ésima y fj el error
asociado con el ajuste de la respuesta para el sensor j-ésimo.
La función de eliminación de ruido puede usarse directamente o reemplazándolo por una
función analítica apropiada. La regresión por búsqueda de proyecciones es útil cuando no se
requieren conocimientos previos de datos o del modelo físico fundamental; no obstante, se puede
usar la expresión analítica para el modelo físico si ésta es conocida o puede estimarse.
El algoritmo comienza seleccionando un conjunto inicial de coeficientes indicadores è;
luego, para la respuesta, se genera un atenuador o eliminador de ruido G como una función de
combinaciones lineales seleccionada. A partir de la función de respuesta atenuada, se determina
INTRODUCCIÓN
-25-
la fracción de la variación no implicada en los datos y se utiliza para evaluar el ajuste. Si el valor
de la variación no explicada contenida en el ajuste cae por debajo de un umbral definido por el
usuario, el algoritmo de regresión culmina en este punto. Alternativamente, el proceso anterior
puede repetirse hasta obtener la tolerancia deseada.
Aunque se puede linealizar cualquier respuesta no lineal (algoritmo de Levenberg-
Marquardt) existe un límite de exactitud para cualquier método de linealización.
Con electrodos selectivos de iones es donde más comúnmente se producen relaciones de
no linealidad entre la respuesta y la concentración. Una de las aplicaciones de la regresión por
búsqueda de proyecciones ha ido por este camino y más concretamente a la calibración
multivariante de una serie de electrodos de este tipo. La respuesta de los electrodos constituyó
la matriz de respuestas, R y las concentraciones fueron las variables indicadoras, C. En este caso,
la función de eliminación de ruido fue sustituida por una expresión logarítmica empírica, que
modelaba la respuesta teórica de los electrodos selectivos de iones.
Cuando existen datos de calibración limitados es preferible utilizar la calibración con MLR
o PLS antes que este otro método.52
Existe mucha bibliografía que trata sobre comparación de distintos métodos de análisis y
calibración multivariante con respecto a una técnica en particular.
Un ejemplo lo constituye el trabajo de McClaurin et al. aplicado a la espectrofotometría UV
/ visible. En este caso, se contrastan tres métodos diferentes: PCR, PLS y análisis
multicomponente directo o DMA. PCR y PLS son métodos de calibración indirectos, que no
requieren las señales individuales de cada analito, ni necesitan conocer con antelación las
interferencias presentes en la disolución; sin embargo, requieren por otro lado un conjunto
adecuado de muestras de calibración que representen todos los fenómenos físico-químicos
esperados que puedan influir en la señal de las muestras para la predicción. En este conjunto se
debe conocer la concentración de cada analito y no así las interferencias. En contraste con ambos,
DMA sí necesita conocer ambos parámetros para calibrar con éxito. Para sistemas de 3 y 4
componentes resulta mejor el DMA, aunque la diferencia con respecto a los otros es mínimo.
Mientras que para sistemas de 5 componentes, aquel no es aplicable, siendo mejor PLS o PCR,
sin discrepancia entre ambos.56
Entre los trabajos más importantes que reflejan la diferente utilidad de los distintos métodos
de análisis y calibración multivariante se encuentran los dirigidos por Haaland y Thomas.
En el primero de ellos,54 se lleva a cabo un estudio teórico comparativo de diversos
métodos: regresión por mínimos cuadrados clásica o CLS, regresión por mínimos cuadrados
inversa o ILS, PLS y PCR, los cuales son empleados en investigaciones posteriores en el análisis
cuantitativo de datos espectrales. Tras dar una serie de explicaciones breves acerca del
INTRODUCCIÓN
-26-
fundamento de cada uno de ellos, haciendo especial hincapié en el PLS, demuestran que la
calibración PLS está compuesta por una serie de pasos CLS e ILS simplificados: etapa de
calibración CLS, seguida de una predicción y calibración ILS. Por medio de esto, han podido
identificar información espectral cualitativa interpretable químicamente, a través de los pasos
intermedios del algoritmo, afirmando que esta información es superior a la obtenida del método
PCR, pero no tan completa como la que se genera durante un análisis CLS. Descubren que el PLS
tiene propiedades que combinan ventajas separadas de los otros dos métodos de regresión,
mejorando las del PCR y establecen el método de obtención del número de factores a incluir en
el análisis a través del cálculo del PRESS y su relación con el estadístico F, proceso que se ha
comentado con anterioridad. De la información que puede obtenerse a partir del PLS hay que
destacar lo siguiente: el primer vector de carga con peso, ëë1, aproximación de primer orden al
espectro del componente puro del analito, puede usarse para asignar bandas y determinar qué
regiones del espectro son más relevantes para un analito en particular; y el vector bf, vector de
los coeficientes de regresión de la calibración final, indica qué región es importante para la
predicción y está relacionado con el espectro del componente puro, teniendo en cuenta todos los
efectos producidos por las interferencias y algunos provocados por las interacciones moleculares,
componentes no esperados y variaciones de la línea base. No obstante, es incapaz de detectar
desviaciones de la linealidad, ya que es capaz de modelar algunos de estas situaciones. Como
conclusión final a esta investigación, los autores afirman que a menos que uno de los vectores
de carga mayoritarios del PCR se encuentre directamente relacionado con el componente de
interés, éste método será generalmente menos útil para obtener información que el PLS y el CLS,
descartándose totalmente el ILS.
En un trabajo posterior,57 vuelven a compararse de nuevo los métodos PLS, CLS y PCR,
pero esta vez para datos de espectros de IR de cristales basados en silicatos. Mediante el análisis
de un conjunto de datos espectrales simulados, observaron que el PLS se aproxima al modelo de
predicción óptimo mucho más rápidamente que el PCR, siendo además computacionalmente más
eficaz. Sin embargo, no existe ninguna diferencia significativa entre sus errores de predicción.
Ambos modelos son muy superiores al CLS, ya que en éste sólo se conoce la concentración de
un analito en las muestras de calibración y los componentes desconocidos solapan todas las
características espectrales de los analitos. Su precisión mejora considerablemente cuando se
conoce la concentración de tres componentes en la calibración, sin que varíe en ningún momento
la de los otros dos.
Para terminar, a través de una última investigación,58 Haaland y Thomas contrastaron la
habilidad de predicción cuantitativa de cuatro métodos de calibración multivariante: PLS, CLS,
ILS y PCR, para el análisis de datos simulados bajo un amplio conjunto de condiciones
INTRODUCCIÓN
-27-
experimentales: de referencia; ruido espectral; ruido de concentración; solapamiento espectral;
linea base al azar; número de puntos de datos espectrales; diseño de calibración y número de
muestras de calibración, con el fin de estudiar cómo afecta cada uno de esos factores sobre los
distintos métodos. El resultado fue que los métodos de espectro completo (CLS, PLS y PCR)
superaban al ILS en un amplio rango de condiciones experimentales, de tal modo que, éste pasa
a ser competitivo cuando el conjunto de calibración está contaminado con errores razonablemente
grandes. Por otro lado, PCR y PLS resultaron muy parecidos, destacando éste en varias
situaciones: cuando se adiciona una línea base al azar y si existen componentes espectrales
mayoritarios que varían independientemente y que solapan con las características espectrales del
analito. Por tanto, la elección óptima del método de calibración depende de las condiciones
experimentales particulares. No obstante, según los autores, el PLS parece ser la elección más
razonable para un amplio rango de condiciones. El único peligro inherente que conlleva la
elección de éste o del PCR radica en los ajustes por exceso o por defecto que resultan de un
número inapropiado de factores. Por último, consideran que en el caso de que el modelo de la ley
de Beer sólo fuese válido para unas cuantas intensidades espectrales, el método ILS superaría con
creces a los de espectro completo, ya que estos contendrían intensidades espectrales fuera del
rango de aceptación del modelo.
Un último ejemplo, pero dedicado esta vez a la espectroscopía de absorción es el llevado
a cabo por Navarro-Villoslada et al.,59 los cuales han realizado un estudio comparativo para
seleccionar mezclas de calibración y longitudes de onda en métodos de calibración multivariante.
Los métodos estudiados fueron CLS, ILS, PLS, PCR y filtrado Kalman.
La elección del método de calibración depende de las condiciones del sistema particular.
Cuando se emplean datos experimentales, en vez de simulados, el conocimiento de su
comportamiento puede no sea predicho debido a una variedad de parámetros, principalmente:
ruido espectral y de concentración, número de longitudes de onda, así como las muestras
utilizadas en el conjunto de calibración, grado de solapamiento espectral, presencia de un pulso
de línea base y el error del modelo. Por otro lado, una aproximación muy común es la de usar un
diseño de mezclas para muestras sintéticas asegurando que se incluyen todas las variaciones
importantes. No obstante, existen limitaciones prácticas y económicas acerca del número de
muestras de calibración que van a usarse.
Para cada método, las muestras de calibración fueron seleccionadas al azar a partir de una
población total de 37 estándares de calibración, teniendo en cuenta el error estándar de predicción
o SEP:
INTRODUCCIÓN
-28-
( )SEP
c c
pij ij
i
p
=−
=∑
$2
1
( )( )Ξ = ⋅ − ⋅=
∑ w yj j j Nj
m
θ θ θ θ θ1 2 3
2
1
, , ,...,
donde ááij es la concentración estimada del componente j-ésimo para la muestra desconocida i-
ésima, cij es la concentración real del componente j-ésimo y p es el número de muestras
desconocidas. De este modo, para CLS y filtro Kalman se eligieron 20 mezclas de calibración,
15 para PLS y PCR y, por último, 20 para ILS.
La selección las longitudes de onda analíticas para cada método se realizó utilizando
diferentes criterios: el número de condiciones para CLS y filtro Kalman, la relación señal/ruido
y el número de condiciones para el método ILS, y todos los criterios previos y el espectro
completo para PCR y PLS.
Los mejores resultados se obtuvieron empleando el número de condiciones como criterio
para seleccionar las longitudes de onda analíticas; es decir, el rango de 280 - 300 nm para CLS
y filtro Kalman, entre 10 - 15 longitudes de onda para el ILS y para PLS y PCR también 15
longitudes de onda, en cuyo caso se corresponden con 5 factores, ya que el uso del espectro
completo requería 6.
Todos los métodos se aplicaron para evaluar la habilidad predictiva de cada método en la
determinación de la concentración de clorofenol en mezclas binarias, ternarias y cuaternarias,
mediante espectroscopía de absorción. Las mezclas empleadas fueron 14, elegidas al azar. Los
resultados fueron similares en todos los casos.
6) Métodos Discontinuos Para Regresión No Lineal.
En la regresión no lineal, la respuesta medida, y, es modelizada como una función no lineal
ö de un conjunto de parámetros que van a ser estimados, è i. Las funciones objeto Î que son
minimizadas en la regresión no lineal consisten normalmente en una suma pesada de los errores
al cuadrado entre la respuesta medida y la predicha:
donde wj son los coeficientes de peso. En el caso más simple, todos los pesos son iguales entre
sí y toman el valor 1.
Minimizando esta función objeto con respecto a los parámetros è i, resulta en un ajuste por
INTRODUCCIÓN
-29-
mínimos cuadrados no lineales del modelo h y el conjunto de parámetros è i a los datos. El
proceso se realiza iterativamente, en una búsqueda directa o por gradientes descendentes, según
el tipo de mínimo que exista en el área de estudio. El método del gradiente requiere información
derivada, la cual puede proporcionarse numérica o analíticamente.
Es posible modificar la función Î , tal que se lleve a cabo una búsqueda condicionada del
óptimo.
Una regresión no lineal, basada en la optimización simplex, se ha empleado con éxito para
una búsqueda directa en conjunción con un modelo de simulación de las diferentes finitas
explícitas o EFD.
En la literatura se ha propuesto un método de estimación de parámetros basado en el
simplex, que luego ha sido refinado para dar lugar al algoritmo COOL. Éste permite la
estimación de parámetros cinéticos y termodinámicos a partir de voltamperogramas de impulso
de sistemas que siguen un mecanismo E con cinética cuasireversible. Algunas aplicaciones del
método incorporan correcciones al efecto de la doble capa eléctrica sobre la cinética de la
reacción observada.
Este algoritmo posee varias ventajas: el escalado automático de las dimensiones del
modelo, eliminando la necesidad de exactitud en las medidas del área del electrodo y las
concentraciones de la disolución; la compensación mediante el instrumento a través de la
estimación de los parámetros de intersección de la regresión y que los intervalos de confianza son
calculados a través de la probabilidad máxima para cada uno de los parámetros estimados.
En principio, este método se ha aplicado al ajuste de series de voltamperogramas de onda
cuadrada a distintas frecuencias, aunque también se ha utilizado en impulso.
La regresión no lineal también se ha utilizado para los siguientes casos: el ajuste de datos
polarográficos, la resolución de voltamperogramas solapados, el análisis de áreas de respuesta
producidas por ondas polarográficas, la extracción de información cinética a partir de
polarografía de pulso diferencial mediante regresión no lineal basada en el simplex, análisis de
procesos EC de primer orden por el ajuste de polarogramas de corriente directa y derivativos, y
para análisis de datos de admitancia e impedancia, entre otros.
Como ejemplo de los métodos de regresión no lineal, podría destacarse el ajuste de datos
de voltamperometría de paso de potencial y semiderivativa, llevado a cabo por Boudreau y
Perone, a funciones gaussianas y de Cauchy asimétricas, aplicado todo ello a la resolución de
espectros solapados, aplicación que podrá constatarse cuando estudiemos la deconvolución
numérica en apartados posteriores.41
En otros trabajos, se ha llegado a resolver picos de componentes con una separación del
orden de 40 mV, empleando técnicas de voltamperometría de barrido lineal diferencial y de
INTRODUCCIÓN
-30-
redisolución anódica semidiferencial.
La estimación de parámetros cinéticos electroquímicos desde datos de cronoamperometría
y cronocoulometría empleando regresión no lineal y búsqueda simplex está bien establecida. Hay
que señalar algunas investigaciones en las que se empleó una linealización que transformó la
estimación no lineal en una regresión lineal. Esta aproximación hace uso de la misma estrategia
básica que sustenta el algoritmo COOL.
En la mayoría de estudios de regresión no lineal apenas se ha aplicado el problema del error
en la estimación de los parámetros obtenidos en el ajuste. Además, tampoco se han elegido
apropiadamente un conjunto de coeficientes de paso para la regresión, otra etapa crítica a la que
se ha prestado muy poca atención.
Para minimizar la elevada carga computacional, principal desventaja de este conjunto de
métodos, algunos autores, junto con la simulación por diferencias finitas explícita, emplearon el
algoritmo de Levenberg-Marquardt, un método de ajuste y estimación mucho más eficiente. Pero
incluso en este caso, hay que ejecutar la simulación completa para cada iteración en la regresión,
lo que supone un respetable cálculo computacional.52
7) Estimación De Parámetros Por Calibración Para Datos
Característicos.
Se ha propuesto un método alternativo de estimación de parámetros voltamperométricos
basado en el desarrollo de correlaciones empíricas entre parámetros de sistemas relevantes, tales
como constantes de velocidad homogénea y heterogénea y las características de respuestas
voltamperométricas producidas por estos sistemas.
Estos autores desarrollaron un paquete de simulaciones para generar voltamperogramas que
modelizaran un amplio rango de cinética de sistemas, dando lugar a curvas de trabajo para cada
mecanismo en estudio. Características clave, como la posición del pico, se pueden extraer de la
serie de voltamperogramas. Después se utiliza el análisis de regresión para correlacionar esas
características extraídas de las respuestas voltamperométricas a partir de los parámetros cinéticos
de los sistemas. Una vez generado el modelo adecuado, por distintos métodos, se emplea para
el análisis de los voltamperogramas de las muestras. Las características extraídas de estos se
utilizan para predecir parámetros de sistemas apropiados para el mecanismo en estudio. Los
parámetros obtenidos se usan luego en la simulación correspondiente para generar
voltamperogramas sintéticos, que son comparados posteriormente con los experimentales. Si el
ajuste observado es bueno, el procedimiento se acaba en este punto y se dan por buenos los
parámetros obtenidos. Si ocurre lo contrario, hay que repetir todo el proceso con un modelo
INTRODUCCIÓN
-31-
diferente.
Reduciendo los datos de una respuesta voltamperométrica completa a un conjunto de
parámetros descriptivo mediante el uso de una correlación empírica simple, se disminuyen
mucho los requerimientos computacionales y de almacenamiento.52
8) Métodos Globales De Estimación De Parámetros.
Se han propuesto análisis de datos voltamperométricos para estimar parámetros de cinética
heterogénea a partir de sistemas que muestran un mecanismo E. No se emplea ninguna técnica
quimiométrica sofisticada, constituyendo así una nueva forma de transformar y analizar los datos.
El principio base consiste en que los parámetros cinéticos para la reacción del electrodo
serán descritos especialmente en un espacio tridimensional, que se define por el potencial
aplicado, la corriente y la semiintegral de la corriente. El análisis resultante es reducido a una
simple representación gráfica. Una vez se ha llevado a cabo esta reducción, una regresión lineal
pesada es aplicada para obtener la estimación de los parámetros.52
b) Métodos Referidos Al Tratamiento De Las Señales.
1) Métodos Recursivos Para Regresión No Lineal.
El filtro Kalman fue el primer filtro digital lineal recursivo en el dominio temporal,
utilizado hoy día en un gran número de campos. Su habilidad para extraer parámetros a partir de
datos ruidosos y modelar sistemas complejos es bien conocida.
Consiste en un método de estimación donde se aplica una regresión lineal multivariante a
cada variable de forma individual (cuando se obtiene una se pasa a otra y así sucesivamente) y
no a todas al mismo tiempo. No requiere que todos los datos estén disponibles para el análisis,
con lo cual se puede realizar una calibración en tiempo real; además, puede aplicarse también al
análisis de datos obtenidos de manera discontinua e intermitente.
Su uso puede proporcionar una separación rápida de respuestas solapadas, ayuda a decidir
cómo y cuándo medir una respuesta y permite eliminar componentes extraños de respuestas
instrumentales. Con este método de filtrado, además, se puede evaluar la calidad de los modelos
que describen los procesos químicos.52, 60
Existen varias modificaciones al filtro Kalman básico para su uso en problemas de
optimización no lineales, ya que el filtro básico no es útil en casos de no linealidad. Estas
modificaciones incluyen el filtro Kalman extendido, el extendido iterativo, el de segundo orden
INTRODUCCIÓN
-32-
y otros órdenes superiores y el filtro Kalman linealizado. Aunque sólo los dos primeros se han
aplicado en electroquímica.
El filtro Kalman extendido se ha utilizado en problemas con modelos de medida no lineales,
sistemas no lineales dinámicos o ambos. Consiste en representar ambos modelos en series de
Taylor sobre la trayectoria actual del vector de estado. Las funciones se linealizan luego
truncando las series después de los términos lineales que definen la dinámica de sistemas
linealizados y matrices de medida. El resto del algoritmo es igual al filtro Kalman discreto lineal.
Sus aplicaciones más interesantes se basan en el empleo de su naturaleza recursiva para
optimizar de forma eficiente una simulación, mientras se ajusta el modelo de simulación a un
conjunto de datos.
Brown et al. fueron los primeros en acoplar una simulación por voltamperometría de
barrido lineal a un filtro Kalman extendido para desarrollar la optimización de forma recursiva.
De este modo, estimaron constantes de velocidad estándar y coeficientes de transferencia de
carga para reacciones de transferencia de electrones heterogéneas simples.61
Otros autores lo aplicaron para optimizar una simulación por voltamperometría cíclica.
Además, emplearon un filtro Kalman extendido iterativo y optimización simplex y de Marquardt.
Este procedimiento de optimización recursivo incrementa en muy poco tiempo el cálculo
computacional como consecuencia de la ejecución de la simulación individual.52
2) Estimación De Parámetros En El Dominio De Fourier.
Este método fue introducido por Binkley y Dessy, los cuales utilizaron regresión por
mínimos cuadrados lineales en el dominio de Fourier para resolver voltamperogramas de onda
cuadrada solapados.
Posee la ventaja de la naturaleza lineal de la transformada de Fourier: la FT de una
respuesta conjunta es igual a la suma de las FT de las respuestas individuales. De este modo,
como las respuestas son aditivas en ambos dominios, la estimación de parámetros puede
desarrollarse en cada uno de ellos. Además, se reduce la dimensionalidad del problema. La
información de la señal está contenida en la zona de baja frecuencia del espectro, lo que permite
que el tamaño del conjunto de datos sea reducido a partir del número original de puntos de datos,
en el voltamperograma muestra, hasta unos pocos coeficientes de frecuencia (los primeros) que
contienen información relevante de la señal.
Esta reducción en la dimensión de la matriz de datos resulta en un problema mejor
condicionado para el uso del modelo MLR.62
INTRODUCCIÓN
-33-
RECONOCIMIENTO DE PATRONES.
Estos métodos se encuentran muy relacionados con la clasificación e identificación de
muestras. Se pueden dividir en dos grandes conjuntos:
w métodos supervisados
w métodos no supervisados
a) Métodos Supervisados.
Los métodos de reconocimiento de patrones supervisados se basan en el desarrollo de reglas
o modelos de carácter semicuantitativo para la clasificación de muestras de origen desconocido,
sobre la base de un grupo de muestras con clasificación desconocida que se han caracterizado
previamente mediante una serie de medidas. Cada patrón de muestra u objeto contiene N
variables de respuesta, las cuales pueden ser escaladas o no, centradas con respecto a una media
o transformadas de otra manera para mejorar el posterior análisis de datos. Tanto las variables
transformadas como las que no han sufrido ningún tipo de cambio se denominan “caracteres”.
Con N caracteres, cada objeto en los datos es descrito por un vector en un espacio N-dimensional.
Cada uno de los métodos de reconocimiento de patrones pretende describir cómo cada una de las
muestras pertenecientes a una clase conocida están orientadas con respecto a las demás y con
respecto a las de otras clases en el espacio multidimensional. Mediante el establecimiento de
similitudes entre datos para muestras de clase desconocida y explotando este carácter, se puede
establecer una clasificación de las mismas.
El éxito de la clasificación depende de si las reglas de clasificación son óptimas para el
problema en estudio. En el análisis de datos multivariante, cada objeto representa un punto en
el espacio de patrones multidimensional, coincidiendo los ejes con las diferentes variables. Si las
variables usadas en el problema de clasificación se eligen de forma apropiada, entonces, los
objetos pertenecientes a las distintas clases se sitúan en subespacios separados del espacio de
patrones. Las reglas de clasificación desarrolladas por los métodos supervisados equivalen al
establecimiento de una serie de límites que dividen el espacio de patrones en varios subespacios.
Derde y Massart han establecido perfectamente los diferentes criterios, tanto en sus aspectos
técnicos (matemáticos) como prácticos, que deberían considerarse a la hora de seleccionar una
técnica de reconocimiento de patrones supervisada para una aplicación particular.63
Las aplicaciones de los métodos de reconocimiento de patrones son muy variadas. Por
ejemplo, Sybrandt y Perone fueron los primeros en aplicarlos al análisis cualitativo de mezclas
INTRODUCCIÓN
-34-
en polarografía de electrodo estacionario.64 En otros casos, se ha llegado más lejos y se han
conseguido cuantificar analitos en muestras complejas con un error inferior al 10 %.
Algunos autores han comparado varios métodos de reconocimiento de patrones en la
identificación de respuestas voltamperométricas, recomendando el uso del método de
clasificación por el vecino más próximo frente a la máquina de aprendizaje lineal.
También se han aplicado al estudio de cinéticas electroquímicas y a la identificación de
mecanismos, más concretamente a la extracción de información cualitativa sobre los procesos
de electrodo en experimentos voltamperométricos.52
A continuación, veremos una de las técnicas supervisadas más utilizadas en el
reconocimiento de patrones, así como otras relacionadas con los procesos de reducción de
dimensiones y de reconocimiento a partir de señales.
1) Análisis Discriminante.
El análisis discriminante, tanto el lineal o ALD como el cuadrático o AQD, es una técnica
discriminante, probabilística y paramétrica. Esta última característica se debe a que asume
cuestiones sobre la distribución de la población en estudio, como por ejemplo: en el ALD, las
clases se distribuyen normalmente de forma multivariante y su dispersión interna es la misma.
Aquí, las reglas de decisión se definen en un espacio reducido, cuyos ejes se obtienen
optimizando los criterios, tal que en este espacio se preserva la mayoría de las discriminaciones
entre clases. Esto se corresponde con la optimización de la relación dispersión-entre-
clases/dispersión-dentro-de-las-clases, observada en este espacio reducido. En el cálculo de las
variables canónicas, el criterio de selección de paso puede usarse para incluir aquellas variables
que son relevantes para la discriminación. El análisis discriminante ofrece de este modo la
posibilidad de eliminar parámetros redundantes. En ALD, los límites entre las diferentes clases
se sitúan a mitad de camino entre los centroides (punto central) de las clases.
ALD y AQD son técnicas probabilísticas, ya que mediante el uso del teorema de Bayes la
probabilidad posterior puede usarse para estimar el grado de exactitud de la clasificación. Como
estas técnicas son de tipo discriminatorio, la detección de objetos extraños es directamente
imposible.
Como las reglas de decisión están basadas sobre todas las clases del conjunto de
entrenamiento, la actualización con nuevos objetos y/o nuevas clases requiere la redeterminación
completa de las reglas de clasificación. Al asumir cuestiones sobre distribución de la población,
sólo variables medidas en un intervalo pueden utilizarse en el problema de clasificación.63
INTRODUCCIÓN
-35-
Z D D (1)t=
Λ = ⋅ ⋅−V Z V (2)1
D T V t= ⋅ (3)
b) Métodos No Supervisados (Técnicas De Reducción De Dimensiones).
A continuación, veremos un conjunto de técnicas empleadas para la reducción de
dimensiones, las cuales se incluyen dentro del grupo de los métodos no supervisados, puesto que
no necesitan reglas o modelos de carácter semicuantitativo para la clasificación de las muestras.
1) Análisis De Componentes Principales.
Uno de los métodos de modelización más utilizado como técnica de reducción de
dimensiones en quimiometría es el análisis de componentes principales o PCA. Consiste en una
familia de técnicas computacionales relacionadas con el aislamiento de las fuentes de variación
en un conjunto de datos. Dichas fuentes se aíslan descomponiendo la serie de datos en sus
autovectores y autovalores (vectores y valores propios).
El primer paso en el PCA es la formación de la matriz de covarianzas, Z:
a partir de la matriz de datos originales, D. La matriz de covarianzas se diagonaliza a través de
la siguiente transformación unitaria:
donde Ë es la matriz diagonal cuyos elementos son los autovalores de Z y V es la matriz de
autovectores, referida con frecuencia a valores abstractos o cargas. Los datos en D se reproducen
a partir de las cargas y los puntos (componentes o factores principales de los datos) por medio
de la relación:
Las cargas son los cosenos de los ángulos de los vectores directores o las proyecciones de los
datos sobre un conjunto de bases ortonormales que abarcan los datos D y los puntos son las
proyecciones de los datos o puntos de muestra sobre la dirección de los componentes principales.
El conjunto de bases se define por los puntos de datos T. Los vectores y las cargas pueden
calcularse por parejas mediante un procedimiento iterativo: NIPLS o regresión por mínimos
cuadrados parciales no lineal iterativo. Esta regresión extrae los vectores de carga del espectro
completo (vectores propios de Dt·D) en el orden de su contribución a la varianza en el espectro
de calibración. Tras la determinación del primer vector de carga, éste es eliminado del espectro
de calibración y el proceso se repite hasta que se ha calculado el número deseado de vectores de
INTRODUCCIÓN
-36-
D U S V t= ⋅ ⋅ (4)
carga.
Un método para la realización de autoanálisis en la ecuación (2) es por medio de la
descomposición de los valores individuales. En la descomposición de dichos valores, la matriz
de datos es dividida en el producto de tres matrices:
donde U es una matriz de autovectores fila (vectores propios de D·Dt), S es la matriz diagonal
de los valores individuales (raíces cuadradas de los autovalores) y V es la matriz de los
autovectores columna (vectores propios de Dt·D). La matriz V obtenida por descomposición de
los valores individuales es equivalente a la matriz V de la ecuación (2). La matriz producto de
la matriz de autovectores fila y la matriz de valores individuales es equivalente a la matriz de
puntos T en la ecuación (3).
Como consecuencia del proceso de descomposición se obtiene una reducción de ruido en
los datos.
Si existen n medidas, se obtienen n vectores propios en la diagonalización. No todos los
autovectores transportan información útil; algunos representan a los componentes de mayor ruido
del conjunto de datos. Al reunir los datos con una gran relación señal/ruido, el ruido dominará
en aquellos autovectores con autovalores pequeños, ya que aquel contribuye sólo en pequeña
cantidad a la variación de los datos. La eliminación de las cargas asociadas a autovalores propios
pequeños impide la reconstrucción de la información presente en la matriz de datos originales
y la reducción de ruido resulta de usar cargas y puntos truncados en la ecuación (3).
Si el ruido es una parte significativa de los datos, el número correcto de factores a retener
no se pone fácilmente de manifiesto. Cuidando la selección de un subconjunto de autovectores,
manteniendo aquellos que contienen mayormente la señal y eliminando los que contienen ruido
en mayor grado, es posible reducir el ruido en una serie de datos.
Otro beneficio de la descomposición consiste en la determinación de la verdadera
dimensionalidad del problema. Es posible disminuir un conjunto de datos expresado mediante
cientos de variables independientes en sólo unos cuantos vectores propios por medio del PCA.
El PCA se ha empleado para estudiar potenciales de onda media polarográficos de iones
metálicos alcalinos y alcalinotérreos. Se consiguió determinar el número apropiado de factores
requeridos para describir la variación causada por el disolvente. Con tres componentes
principales, los potenciales de onda medios en cada sistema de disolvente fueron modelados
adecuadamente.
Este modelo también puede usarse para estimar el número de componentes presentes en un
sistema cuando el número de componentes físicos que varían sistemáticamente es desconocido.
INTRODUCCIÓN
-37-
$D U V t= ⋅
Y U B= ⋅
Si los vectores de datos que representan las respuestas de la muestra son grabados a intervalos
regulares y discretos de tiempo, potencial o cualquier otra variable indexable, la evolución del
número de componentes presente en la mezcla puede asegurarse como una función de esa
variable indexable. Existen varias técnicas capaces de desarrollar esta estimación. Podemos
destacar el EFA o análisis de factores evolutivos, el EFA diferencial y la matriz de proyección.
Jones et al. emplearon mínimos cuadrados y análisis de factores (basado en PCA) para
resolver solapamientos en mezclas binarias utilizando técnicas de luminiscencia. En este caso,
el PCA incluye análisis de factores de aniquilación de rangos, que requiere mucho tiempo. No
obstante, una alternativa es el análisis de factores de transformación de objetos, el cual exige una
calibración elevada.65
Otra aplicación del PCA en el análisis cuantitativo de datos consiste en representar un
conjunto de datos por un número reducido de variables ortogonales, obteniéndose un gran
número de ventajas a la hora de realizar la regresión. El truncaje cuidadoso de los puntos y cargas
de un conjunto de datos con un bajo contenido en ruido permite modelizar únicamente la
variación sistemática y no así el ruido. Esta combinación de MLR y PCA se conoce como
regresión de componentes principales o PCR.
El paso clave para llevar a cabo una regresión útil, usando los componentes principales
como el conjunto de variables independientes, implica la eliminación (por truncaje) de los puntos
y cargas no significativos de los datos.
Cuando un conjunto incompleto de puntos y cargas son utilizados para representar una
matriz de datos D, resulta una matriz de datos estimados:$D
donde ââ y son los puntos y cargas truncados, respectivamente.V t
Como se emplea un número reducido de componentes principales en la reconstrucción, la
información presente en los datos originales ha sido comprimida en una dimensión espacial más
pequeña. Además, las nuevas variables usadas para representar los datos son ortogonales, puesto
que son puntos. En resumen, la PCR relaciona variables dependientes Y con un conjunto de
variables independientes en D, empleando para ello una matriz de puntos truncada obtenida a
partir de D en lugar de las variables independientes en D:
La estimación de los coeficientes se realiza por regresión de mínimos cuadrados, igual que
en MLR, pero con la ventaja importante de que la inversión âât·ââ puede hacerse sin dificultad.
Además, la PCR permite incluir variables independientes altamente correlacionadas tales como,
INTRODUCCIÓN
-38-
( )B C C C Rt t= ⋅−1
C R B F= ⋅ +
C U B= ⋅
espectros o voltamperogramas, sin problema de que la ecuación:
pueda fallar, debido al alto grado de similitud entre las variables independientes.
De igual modo, se puede incluir el uso de un modelo inverso donde la matriz de respuestas
R es modelada como la variable independiente y la matriz de concentraciones como la variable
dependiente:
Así, se asume que el error está incluido en la concentración. Esta aproximación es extraña, pero
puede satisfacerse si se realiza el truncaje apropiado de los puntos de R, ââ, y si estos se incluyen
en el modelo de regresión mediante la ecuación:
El ajuste de los puntos de datos por esta ecuación posee una doble ventaja: requiere menos
variables independientes y emplea datos con menos ruido, como consecuencia de la compresión
de datos y la reducción de ruido, generada en la descomposición propia, y el truncaje de los datos
de respuesta en R. Éste último debe elegirse bien, sino se producen errores en la modelización
por la introducción de tendencias.52, 53
2) Escalado Multidimensional
El escalado multidimensional puede considerarse como una alternativa al análisis factorial
y se utiliza típicamente como método exploratorio. En general, la finalidad de este análisis
consiste en detectar dimensiones subyacentes significativas que permitan al investigador dar
explicaciones sobre semejanzas o diferencias (distancias) entre los objetos que forman parte del
estudio. Mientras que en el análisis factorial, las similitudes entre objetos (variables) se expresan
en una matriz de correlación, con el escalado multidimensional, no sólo se pueden analizar dichas
matrices de correlación, sino también cualquier clase de matriz de similitudes o disimilitudes
(incluyendo conjuntos de medidas que no son consistentes internamente).
El siguiente ejemplo permite demostrar la lógica del análisis muldimensional. Supongamos
que construimos una matriz con las distancias entre las ciudades más grandes de España y,
posteriormente, analizamos dicha matriz especificando que se desea reproducir dichas distancias
en dos dimensiones. Como resultado del escalado multidimensional, probablemente
obtendríamos una representación bidimensional de las localizaciones de las ciudades; esto es,
INTRODUCCIÓN
-39-
( )[ ]Φ = −∑ d f dij iji j
2
,
básicamente resultaría un mapa bidimensional.
Por tanto, en general, este tipo de análisis intenta agrupar “objetos” (ciudades, en el ejemplo
anterior) en un espacio con un número particular de dimensiones (2, en nuestro caso), tal que se
reproduzcan las distancias observadas. Como resultado, podremos explicar las distancias en
términos de dimensiones subyacentes; en el ejemplo, las distancias tendrían sentido en términos
de dos dimensiones geográficas: norte/sur y este/oeste.
El escalado multidimensional no es tanto un procedimiento exacto como una forma de
“reagrupar” objetos de forma eficiente, tal que se alcance una configuración que aproxima mejor
las distancias observadas. Normalmente, este análisis hace uso de algoritmos de minimización
de funciones para evaluar diferentes configuraciones con la meta de maximizar la bondad del
ajuste. Para ello, mueve los objetos alrededor del espacio definido por un número de dimensiones
determinado y comprueba con que fiabilidad pueden reproducirse las distancias entre objetos con
cada nueva configuración.
La forma más común de determinar la bondad con la que una configuración particular
reproduce la matriz de distancias observada es mediante la medida del STRESS, Ö. Este se
define como:
donde dij son las distancias de los datos de entrada y f(dij) son los valores predichos para las
distancias, de acuerdo con el número de dimensiones especificado. Cuanto más pequeño sea el
valor del STRESS, mejor será el ajuste de la matriz de distancias reproducidas con respecto a
la matriz observada.
Normalmente, las distancias reproducidas para un número particular de dimensiones se
representan mediante un diagrama de Shepard.
Hay que resaltar que, en general, cuantas más dimensiones se empleen para reproducir la
matriz de distancias, mejor será el ajuste de la matriz reproducida frente a la observada (esto es,
un valor más pequeño del STRESS). Si se emplean tantas dimensiones como variables, se podrá
reproducir perfectamente la matriz de distancias observada. No obstante, el fin perseguido
consiste en reducir lo más posible la complejidad del sistema, es decir, explicar la matriz de
distancias mediante el menor número posible de dimensiones ocultas. Volviendo al ejemplo de
las ciudades, es más sencillo visualizar el conjunto en el mapa bidimensional que extraer
conclusiones directamente desde la matriz de distancias.
Para establecer el número de dimensiones más apropiado a nuestro sistema, lo más normal
es representar los valores de STRESS frente al número de dimensiones. Esta prueba fue
INTRODUCCIÓN
-40-
propuesta por Cattell en 1966 refiriéndose al problema del número de factores en el análisis
factorial. Un segundo criterio para decidir el número de dimensiones se basa en la claridad de la
configuración final. Algunas veces, como ocurre en nuestro ejemplo, las dimensiones resultantes
se pueden interpretar fácilmente. Sin embargo, en otras ocasiones, los objetos representan una
nube de puntos y no existe una forma fácil o directa de interpretar las dimensiones obtenidas.
Ante esta situación, lo más conveniente sería introducir dimensiones por exceso o por defecto
y comprobar la configuración final resultante. Con frecuencia se obtienen resultados bastante
buenos. Si, por el contrario, los datos no siguen ningún patrón o el gráfico del STRESS no
muestra un punto crítico claro, los datos son, probablemente, ruido aleatorio.
La interpretación de las dimensiones representa normalmente el paso final del análisis. Éste
puede realizarse gráficamente produciendo representaciones de los objetos en diferentes planos
bidimensionales. Soluciones en tres dimensiones pueden ser más complejas de interpretar. Lo
más sensato a la hora de buscar dimensiones significativas sería investigar la presencia de grupos
de puntos o patrones y configuraciones particulares. Por otro lado, una forma analítica de
interpretar dimensiones sería emplear técnicas de regresión múltiple que permitan hacer
corresponder algunas variables con las coordenadas de cada dimensión.
La principal característica del escalado multidimensional radica en que podemos analizar
cualquier clase de matriz de distancias o de similitudes. Estas similitudes pueden representar
cualquier cosa: desde el porcentaje de acuerdo entre jueces hasta el número de veces que un
sujeto falla para discriminar entre estímulos. Por ejemplo, en investigación psicológica se ha
aplicado muy comúnmente un método de escalado multidimensional relacionado con la
percepción de las personas, donde se analizaron las similitudes existentes entre rasgos descritos
para descubrir la dimensionalidad oculta de las percepciones de los rasgos de las personas.
También se ha aplicado para detectar el número y naturaleza de las dimensiones que subyacen
a la percepción de marcas o productos.
En general, el método de escalado multidimensional permite al investigador responder a
preguntas del tipo “¿cuánto se asemeja la marca A a la B?” y derivar, a partir de ellas, las
dimensiones ocultas sin que aquellos que responden conozcan siquiera cuál es el interés real del
investigador.
Aunque existe un cierto parecido en el tipo de preguntas a la cuales pueden aplicarse el
escalado multidimensional y el análisis de factores, ambos son fundamentalmente métodos
diferentes. El análisis de factores requiere que los datos subyacentes se encuentren distribuidos
de un modo normal multivariante, y que las relaciones sean lineales. El escalado
multidimensional no implica tales restricciones. Por otro lado, el análisis factorial tiende a extraer
un mayor número de factores (dimensiones) que el escalado. Como consecuencia de ello, este
INTRODUCCIÓN
-41-
último método suele presentar soluciones más interpretables. Más importante, sin embargo, es
que el escalado puede aplicarse a cualquier clase de matriz de distancias o de similitudes,
mientras que el análisis factorial requiere primeramente que el investigador calcule una matriz
de correlaciones. Por último, el escalado puede basarse en la asignación directa de similitudes
de objetos entre estímulos, mientras que el análisis de factores requiere objetos para clasificar
dichos estímulos en alguna lista de atributos (meta perseguida con el análisis de factores).
En resumen, los métodos de escalado multidimensional son aplicables a una amplia
variedad de diseños de investigación, puesto que las distancias medidas pueden obtenerse de
cualquier forma.66
3) Análisis De Clusters
El término análisis de clusters, acuñado por Tryon (1939) engloba un gran número de
algoritmos de clasificación diferentes, los cuales se utilizan para desarrollar taxonomías que
forman parte del análisis de datos exploratorios. Por ejemplo, los biólogos han de organizar las
diferentes especies de animales antes de que sea posible una descripción significativa de las
diferencias existentes entre ellos. De acuerdo con el sistema de clasificación empleado en
biología el hombre es un primate, un mamífero, un amniota, un vertebrado y un animal. En esta
clasificación, cuanto más alto es el nivel de agregación, menos similares son los miembros en la
clase respectiva. El hombre posee más en común con todos los otros primates que con los
miembros más “distantes” de los mamíferos (por ejemplo, los perros).
El método de análisis de clusters suele desarrollarse en base a variables y casos. Otro
ejemplo: imaginemos un estudio donde el investigador médico ha reunido datos sobre diferentes
medidas de salud física (variables) para una muestra de pacientes del corazón (casos). El
investigador desea agrupar los casos para detectar conjuntos de pacientes con síntomas similares.
Al mismo tiempo, el investigador puede querer agrupar variables (medidas de salud) para
detectar conjuntos de pacientes que presenten habilidades físicas similares.
Existen varios tipos de algoritmos empleados en el análisis de clusters:
w Algoritmo de agrupamiento en árbol (Joining-Tree Clustering): su propósito consiste en
reunir o agrupar los objetos en clusters sucesivamente más grandes, utilizando alguna
medida de la similitud o distancia. Un resultado típico de este método es el árbol
jerárquico, del cual se hablará posteriormente.
w Algoritmo de agrupamiento de dos vías (Two-way Joining): este algoritmo permite
agrupar simultáneamente variables y casos. Es útil en circunstancias en las que uno
INTRODUCCIÓN
-42-
espera que tanto unas como otros contribuyan simultáneamente al descubrimiento de
patrones significativos de agrupamiento. Por ejemplo, el investigador médico puede
querer identificar a los pacientes que son semejantes con respecto a grupos particulares
de medidas similares de bondad física. No obstante, la dificultad en la interpretación de
los resultados se desprende del hecho de que las similitudes entre diferentes clusters
pueden ser causadas por algún otro subconjunto de variables. De este modo, la
estructura resultante (clusters) no es homogénea por naturaleza. Probablemente, es el
método de agrupamiento menos usado de todos.
w Algoritmo de agrupamiento por las medias de K (K-means Clustering): es muy diferente
de los otros dos. Supongamos que se posee alguna hipótesis que relaciona el número de
clusters con nuestros casos o variables; entonces, lo más lógico sería especificar en el
ordenador que forme exactamente tres clusters que sean tan distintos como sea posible.
De este modo, el algoritmo obtendrá exactamente K grupos con las mayores diferencias
entre ellos. En el ejemplo de la salud física, el investigador médico, de acuerdo con su
experiencia clínica, puede decidir que sus pacientes pueden agruparse de acuerdo con
tres categorías clínicas diferentes de salud física. Esto llevaría a la pregunta de si su
intuición puede cuantificarse; esto es, si un análisis de cluster por las medias de K de la
medida de la salud física resultaría, en efecto, en tres grupos de pacientes, como se
esperaba. Si ocurre así, las medias de las diferentes medidas de salud física para cada
cluster representarían una forma cuantitativa de expresar la hipótesis o intuición de los
investigadores.
Computacionalmente, podría compararse este método con el análisis de la varianza a la
inversa. Éste comienza con un conjunto de K clusters elegidos al azar para luego mover
los objetos entre aquellos clusters con la finalidad de minimizar la variabilidad dentro
de los clusters y maximizarla entre ellos. Esto es análogo al ANOVA inverso en el
sentido de que el test de significancia en el ANOVA evalúa la variabilidad entre grupos
frente a la variabilidad entre clusters cuando se calcula dicho test para la hipótesis de
que las medias en los grupos son diferentes unas de otras. En este método de
agrupamiento, el programa intenta mover los objetos (casos) dentro y fuera de los
grupos (clusters) para conseguir los resultados más significativos del ANOVA.
Para interpretar los resultados del análisis de agrupamiento por las medias de K, se
examinarían las medias de cada cluster sobre cada dimensión, para asegurar cuán
diferentes son los K clusters. Idealmente, obtendríamos medias muy diferentes para la
mayoría de las dimensiones, si no todas, utilizadas en el análisis. La magnitud de los
valores de F del análisis de la varianza desarrollado sobre cada una de las dimensiones
INTRODUCCIÓN
-43-
es otro indicativo de lo bien que discriminan las respectivas dimensiones entre los
clusters.
El análisis de clusters se encuentra muy ligado con los árboles de clasificación. Es por esto,
que dedicamos aquí algunas palabras al respecto.
Los árboles de clasificación se utilizan para predecir la pertenencia de casos u objetos a las
clases de una variable de categoría dependiente a partir de sus medidas sobre una o más variables
de predicción.
Consiste en una técnica muy empleada cuya finalidad es la de predecir o explicar respuestas
en base a variables categóricas dependientes. Su flexibilidad los convierte en una opción para el
análisis muy atractiva, pero esto no conlleva que se haga uso de ella en detrimento de los
métodos más tradicionales. Sin embargo, como técnica exploratoria o como técnica de último
recurso, cuando los métodos tradicionales fallan, posee una importancia indiscutible, en opinión
de muchos investigadores.
Un árbol de clasificación podría asemejarse a los procesos de separación de la materia
particulada de acuerdo con el tamaño (diámetro) de los granos que la componen. En este caso,
el material granulado se hace pasar por tamices con tamaño de poro diferente ordenados de
menor a mayor diámetro. De este modo, primero se separan los granos más finos para terminar
con los más grandes. Este conjunto de tamices constituiría un árbol de clasificación. El proceso
de decisión utilizado aquí (tamaño del grano) proporciona un método eficiente para desarrollar
la clasificación.
La aplicabilidad de este tipo de estudio no es muy amplia en el campo de la probabilidad
ni en el de reconocimiento de patrones estadísticos. Sin embargo, se utilizan mucho en medicina
(diagnosis), ciencia computacional (estructura de datos), botánica (clasificación) y psicología
(teoría de decisiones).
Por otro lado, los árboles de clasificación permiten su representación gráfica. Esto da lugar
a una interpretación de los resultados más sencilla de lo que sería posible con una interpretación
estrictamente numérica. Por ejemplo, si se está interesado en las condiciones que provocan una
clase partircular de respuesta, un gráfico de tres dimensiones sería muy útil en este sentido para
determinar el nodo terminal del árbol que contiene un mayor número de respuestas del tipo
deseado.
Las dos características sobresalientes de este método son su naturaleza jerárquica y su
flexibilidad. La primera se relaciona con el hecho de que el procedimiento se desarrolla
estableciendo una serie de cuestiones, las cuales siguen una jerarquía determinada, y la decisión
final depende de las respuestas a todas las preguntas anteriores (el ejemplo más típico es el de
INTRODUCCIÓN
-44-
la clasificación de especies botánicas siguiendo una serie de tablas: éstas contienen un conjunto
de preguntas, las cuales siguen un orden, y las respuestas a ellas conducen a otras, y así
sucesivamente). Con respecto a la segunda, ésta radica en la habilidad para examinar los efectos
de todas las variables de predicción al mismo tiempo y no de forma individual. Si embargo, hay
otro medio por el cual los árboles de clasificación son más flexibles que los métodos
tradicionales, que consiste en la habilidad de este método para desarrollar divisores (splits)
univariantes (individuales o como combinaciones lineales), examinando los efectos de todos los
predictores a la vez. Además, los niveles de medida de las variables predictoras son mucho
menos exigentes que para el caso del análisis lineal discriminante.
El algoritmo QUEST (Quick, Unbiased, Efficient, Statistical Trees) es un programa de árbol
de clasificación desarrollado por Loh y Shih que emplea una modificación del análisis cuadrático
discriminante recursivo e incluye una serie de características innovadoras para la mejora de la
exactitud y eficacia del árbol de clasificación que se calcula. Esta aplicación es muy usada para
seleccionar los divisores univariantes antes mencionados. Existe otro programa de árbol de
clasificación denominado CART, descrito por Breiman en 1984, que utiliza una búsqueda
exhaustiva, en forma de malla, de todos los posibles divisores para un árbol de clasificación.
QUEST es mucho más veloz que CART cuando las variables predictoras poseen una docena de
niveles; además, no presenta sesgos. La utilización conjunta de ambos programas explota al
máximo la flexibilidad del árbol de clasificación. Otros programas son FACT y THAID, este
último relacionado con el programa AID (Automatic Interaction Detection) y CHAID (Chi-
Square Automatic Interaction Detection).
Una ventajas que presenta este método sobre los tradicionales, como el análisis lineal
discriminante, consiste en que el gráfico del árbol presenta toda la información posible de una
forma muy simple y directa, tal que se tarda muy poco tiempo en interpretar los resultados.
Como desventaja cabría citar que en ocasiones se obtienen un número superior de divisores
comparado con el análisis lineal discriminante. Sin embargo, gracias a la flexibilidad del método,
esto puede subsanarse aplicando el algoritmo QUEST que permite calcular combinaciones
lineales de divisores en vez de divisores individuales
En resumen, las ventajas y desventajas de los árboles de clasificación radica en que estos
son tan buenos como la elección de la opción de análisis utilizada para producirlos. Para
encontrar modelos que predigan bien, no hay ningún sustituto para una comprensión minuciosa
de la naturaleza de las relaciones entre las variables dependientes y las de predicción.
El proceso de cálculo computacional de los árboles de clasificación sigue cuatro etapas:
1) Especificar el criterio de exactitud en la predicción: la predicción de mayor exactitud se
INTRODUCCIÓN
-45-
define operacionalmente como la predicción con el mínimo coste, lo que equivale a
minimizar la proporción de clases mal clasificadas cuando las prioridades elegidas son
proporcionales al tamaño de las clases y cuando el coste de una mala clasificación es
igual para cada clase. En algunos casos se habla de pesos para las variables a la hora de
minimizar el coste.
2) Seleccionar los divisores para las variables predictoras: estas variables se utilizan para
predecir la pertenencia a las clases de las variables dependientes para los casos u objetos
en el análisis. A pesar de la naturaleza jerárquica del método, son elegidos todos al
mismo tiempo
3) Determinar cuándo parar el proceso de división: si no se coloca ningún límite al número
de divisiones que han de llevarse a cabo, se logrará eventualmente una clasificación
"pura", donde cada nodo terminal contendrá una única clase de casos u objetos.
Normalmente, una clasificación de este tipo es utópica, pero el resultado obtenido podría
asemejarse bastante a este caso. Otra opción para cesar las divisiones consiste en
permitir que éstas continúen hasta que todos los nodos terminales sean puros o no
contengan más casos que una fracción mínima especificada del tamaño de una o más
clases.
4) Seleccionar el tamaño correcto del árbol: se prefiere emplear un árbol de clasificación
que clasifique perfectamente tanto las muestras de prueba como de entrenamiento frente
a uno que clasifique bien únicamente las últimas (algo parecido a lo que ocurre con las
redes neuronales, las cuales estudiaremos posteriormente). Algunas estrategias para
lograr el tamaño correcto son: dejar crecer el árbol hasta un tamaño adecuado
determinado por el usuario a partir del conocimiento obtenido por investigaciones
previas, información de diagnóstico o incluso la intuición; otra estrategia consiste en
hacer uso de un procedimiento bien documentado y estructurado desarrollado por
Breiman para seleccionar el tamaño del árbol.
En definitiva, los métodos tradicionales y el árbol de clasificación emplean técnicas
diferentes para predecir la pertenencia a una clase en base a una variable categórica dependiente.
Él árbol de clasificación utiliza una jerarquía de predicciones, de elevado número en algunas
situaciones, para clasificar los casos en las clases predichas. Los métodos tradicionales utilizan
técnicas simultáneas para hacer una y sólo una predicción de pertenencia a una clase para cada
uno de los casos. Con respecto a otras situaciones, como obtener una predicción con una
determinada exactitud, el análisis de árbol de clasificación es más bien mediocre frente a los
métodos tradicionales.66
INTRODUCCIÓN
-46-
c) Técnicas De Reconocimiento De Señales.
Dentro de los métodos de reconocimiento de patrones se engloban las técnicas de
reconocimiento de señales, de especial relevancia a la hora de llevar a cabo el tratamiento
estadístico de los datos obtenidos en el análisis.
1) Derivación O Diferenciación De Señales.
Con respecto a las técnicas de reconocimiento de señales, la primera que nos encontramos
es la de derivación o diferenciación de señales (en el dominio de Fourier).
Hay que decir que no es útil cuando nos enfrentamos con solapamientos severos, puesto que
se alcanza poca resolución para el elevado coste de relación señal/ruido que implica. Esto se debe
a que se acentúan las frecuencias altas, relativas al ruido, en detrimento de las frecuencias bajas,
relacionadas con la señal, en el dominio de Fourier.41 No obstante, en otros casos, nos
proporciona gran cantidad de información y permite resolver las mezclas. En esta última
situación, las técnicas derivativas se aplican con éxito para la resolución de mezclas binarias,
mientras que mezclas más complejas no pueden ser resueltas normalmente por diferenciación.
En primer lugar, la primera derivada de una señal en forma de pico, que represente, por
ejemplo, intensidad-potencial, nos permite localizar el pico de la especie y determinar el
potencial de reducción u oxidación de cada componente. Esto se debe a que la señal corta el eje
de abcisas precisamente en ese punto, lo que muchos autores denominan "zero-crossing".
Las siguientes derivadas se emplean para agudizar más los picos obtenidos en el
voltamperograma original, que una vez diferenciados poseen componentes de frecuencias más
altas que afectan a la relación señal/ruido, como se ha comentado anteriormente. Además,
permiten calcular su anchura e intensidad.67 Por último, mediante el uso de curvas de calibrado,
se determina la concentración de cada componente.42, 68
Este método se ha empleado no sólo en voltamperometría, sino que también se ha aplicado
con éxito en espectrofotometría.
2) Ajuste De Curvas (Deconvolución Numérica).
El método de ajuste de curvas, también llamado deconvolución numérica, se ha convertido
en uno de los más empleados en investigación. Y no sólo se ha aplicado a la voltamperometría,
sino a otras muchas técnicas de análisis, como por ejemplo, la cromatografía,
El ajuste de curvas consiste en lo que su nombre indica: se intenta hacer coincidir lo mejor
INTRODUCCIÓN
-47-
( ) ( )( ) ( )
( )( )y X f Y
b X X X
b
f Y
b X X X
b
i
i
i
= ⋅ ⋅ −+ ⋅ −
+− ⋅
++ ⋅ −
0
0 1 2
2
0
0 1 2
221 2 1
11 2
exp lnln /
ln /
/
/
∆
∆
posible las señales obtenidas en el aparato de medición con curvas de origen muy diverso, con
el fin de detectar e identificar las sustancias que componen la mezcla. Las curvas de ajuste
pueden obtenerse de varias formas: a partir de bases de datos o librerías, que se construyen desde
señales de componentes individuales a diferentes concentraciones; de expresiones matemáticas
cuya formulación está perfectamente conocida en la literatura, tales como la función lorentziana,
gaussiana o de Cauchy; y también empíricamente, mediante el método de prueba y error.
A continuación, veremos algunos ejemplos basados en el ajuste de curvas o deconvolución
numérica y no todos ellos aplicados a la voltamperometría.
Boudreau y Perone ajustaron picos estándares e individuales de especies diferentes
empleando combinaciones lineales de funciones gaussianas y de Cauchy, ambas asimétricas,
estimando sus parámetros de ajuste. La elección de estas funciones fue completamente arbitraria.
Luego, las aplicaron a la mejora de la resolución cuantitativa de datos voltamperométricos
solapados, para casos donde los potenciales medios de onda diferían en menos de 155/n mV.
Para ello utilizaron técnicas de voltamperometría de onda cuadrada y en escalera, comparando
posteriormente los resultados obtenidos.
La forma de la función es la siguiente:
donde Y0 (A1) es la altura del pico; X0 (A2) su localización; ÄX½ (A3) la anchura de altura media;
b (A4) el factor de asimetría y f (A5) el factor de forma.
Primero se simularon voltamperogramas de especies individuales y sus parámetros fueron
ajustados a la expresión anterior, empleándose posteriormente dichos ajustes para simular
mezclas binarias de analitos y llevar a cabo la correspondiente separación o deconvolución de
los mismos. La deconvolución numérica implica la regresión de la ecuación, utilizando para ello
sólo 4 parámetros: altura (A1) y localización del pico (A2) de cada especie, permaneciendo el
resto como constantes conocidas. Se alcanza, de este modo, una cuantificación con un error
relativo inferior al 3 %, siendo el método válido para separaciones de 30/n mV y altura de pico
similar y, si ésta no lo es, para relaciones inferiores a 5:1.41
Otro ejemplo de deconvolución de picos muy solapados mediante ajuste de curvas es el
llevado a cabo por Huang et al. El método consiste en emplear una relación de corriente-voltaje
sintetizada previamente, la cual se intenta ajustar en lo posible al voltamperograma experimental
de la mezcla.
INTRODUCCIÓN
-48-
( )[ ]Y A F P F P= ⋅ ⋅ + − ⋅1 21 0,
Para ello, se construye una curva teórica: Ith = IA + IB, cuya intensidad es la suma de las
intensidades individuales de los dos analitos que constituyen la muestra. A continuación, se
corrige progresivamente IA e IB por variación de una serie de parámetros, tales como el potencial
y la intensidad del pico, el índice de reversibilidad y el factor de asimetría, con el fin de
minimizar la discrepancia entre Ith e Iexp - Ifondo. Los parámetros correctos de A serán aquellos
cuya curva se ajuste lo más posible a la de IA + Iblanco, sin el analito B, e igual para éste. Se aplicó
a diversos sistemas binarios: In (III) / Cd (II), Tl (I) / Pb (II) y Cr (III) / Zn(II), empleando
diferentes técnicas voltamperométricas en cada caso.69
Otra combinación lineal de funciones, pero esta vez de funciones lorentziana y gaussiana,
ha sido aplicada a la espectrofotometría infrarroja, ajustándola a los espectros en un
procedimiento basado en el método de mínimos cuadrados.70
En cromatografía, se han analizado picos cromatográficos solapados de forma cuantitativa
construyendo cromatogramas sintéticos, los cuales se ajustan a los experimentales por análisis
de regresión no lineal iterativo.71
Westerberg ha ideado un método de resolución de picos que utiliza un modelo de ajuste de
curvas que cubre los detalles para un modelo gaussiano, de gauss modificado y para modelos de
datos tabulares generales, ajustando los parámetros por el método de mínimos cuadrados
estándar.72
Las curvas de ajuste podían tener también un origen totalmente empírico o proceder de una
librería o base de datos creada para tal efecto. Este es el caso en el trabajo de Gutknecht y Perone,
en el que llevan a cabo deconvoluciones numéricas de curvas polarográficas de electrodo
estacionario. Por medio de una ecuación empírica que describe este tipo de ondas para una gran
cantidad de especies electroactivas, en la primera parte del proceso de análisis, las señales de las
especies estándares son ajustadas a la misma y las constantes de esta ecuación determinadas
específicamente para cada especie, almacenándolas en una librería.
A la hora de analizar una mezcla, estas constantes estándares son usadas para generar una
serie de curvas que luego son ajustadas a los componentes de la señal desconocida. El método
fue aplicado a dos tipos de mezclas: una, cuyos analitos se encontraban bien separados, y otra,
en las que la diferencia entre los potenciales de onda media era de 40 mV. Los errores relativos
obtenidos oscilaron entre el 1 y el 2 %.
La función descriptora de las curvas polarográficas de electrodo estacionario se obtuvo por
una combinación de términos geométricos y algebraicos, mediante el sistema de tanteo y error.
La función responde a la siguiente expresión:
INTRODUCCIÓN
-49-
( )Y tA
erft m t m
= ⋅ − ⋅⋅
−−
⋅
⋅
⋅−
−
21
2 2 2
2
2τσ
τ σσ
τ τexp
donde A determina la altura del pico; F es la función que une P1 y P2; P1 es la función, de tipo
gaussiano asimétrica, que representa el extremo de entrada de la señal; 1.0 es el término de
decaimiento del extremo de salida y P2 es la función que representa el decaimiento (exponencial),
en función del tiempo, del extremo de salida.
A la hora de llevar a cabo la deconvolución numérica, pueden emplearse dos
procedimientos: el primero consiste en ajustar una curva estándar almacenada en la librería a la
señal desconocida; en el segundo caso, se ajusta a la señal desconocida una curva calculada, la
cual es derivada desde una sumatoria de funciones individuales que describen las contribuciones
de los componentes individuales de la señal de la mezcla.32
En cromatografía, también se ha logrado aplicar con éxito el ajuste de curvas. Fellinger
utilizó un modelo EMG (gaussiano modificado exponencialmente), para describir los picos
cromatográficos asimétricos. La deconvolución de estos picos, que solapan entre sí, se lleva a
cabo mediante su división por una función de agudización, de tipo EMG, cuya parte gaussiana
y exponencial tienen área unidad y la primera se encuentra centrada en el origen de coordenadas,
lo que permite que se conserve el área y la localización del pico original durante la resolución del
sistema.
Este modelo permite explicar qué clase de señales pueden esperarse tras la deconvolución
y prueba la imposibilidad de conservar la forma del pico y el perfil de asimetría durante el
proceso. Del mismo modo, también explica por qué surgen lóbulos laterales y picos falsos
durante el procedimiento, lo que se encuentra directamente relacionado con los parámetros de
forma del pico agudizado.
La validez del modelo se comprobó mediante métodos numéricos de deconvolución:
método de relajación iterativa forzado (o condicionado), también llamado método de Janson, una
de las herramientas más útiles y poderosa hasta finales de los 80, y la deconvolución directa de
Fourier. Esta última es la responsable de la aparición de lóbulos laterales como consecuencia de
la introducción de ruido matemático.
El modelo EMG procede de considerar a un pico gaussiano como distorsionado por un
decaimiento de primer orden, debido a volúmenes muertos en el inyector o el detector de
volumen. La función que describe un pico EMG agudizado (convolución de una función de
densidad de distribución normal h(t) y una función de decaimiento exponencial f(t)) es:
donde Y(t) es el pico EMG original; A es el área del pico; ô es una constante de tiempo de la
función de decaimiento exponencial; erf es la función de error; ó es la contribución gaussiana
INTRODUCCIÓN
-50-
( )( ) ( )
h t Ht t
S S t t S t t
R
R R
= ⋅ −
⋅
−
+ − + − +
exp
...
12
0 1 2
2
2
( ) ( ) ( )x t h t y td d= ⋅ ′ + −
⋅ ′
ττ
σττ
σ, ,1
a la anchura del pico; t es el tiempo y m es la localización del máximo del pico gaussiano.
El resultado de la deconvolución es una combinación lineal de un pico gaussiano de
anchura ó´ y una función EMG de parámetros ó´ y ô:
donde ô y t poseen el mismo significado de la ecuación anterior; d es la constante de tiempo de
la función de decaimiento exponencial de área unidad; h(t,ó´) es la función gaussiana; ó´ es la
contribución gaussiana a la anchura del pico agudizado e y(t,ó´) es el pico EMG original.73
Goodman y Brenna realizaron deconvolución de señales mediante ajuste de curvas
empleando también funciones del tipo EMG. Pero, en este caso, fue aplicada a la técnica híbrida
cromatografía gaseosa/espectrometría de masas de relación de isótopos de combustión.
A la hora de ajustar los picos solapados se utilizaron combinaciones lineales de funciones
matemáticas de varios tipos: EMG, GID (funciones de Giddings), NLC (cromatográficas no
lineales) y HVL (Haarhoff-VanderLinde), para modelarlos satisfactoriamente.
Para resolver cuantitativamente solapamientos elevados, el mejor resultado se obtuvo con
la combinación Haarhoff-VanderLinde-EMG, estimando en buena medida las áreas de los
picos.74
Otro modelo propuesto para describir picos cromatográficos asimétricos, se basa en la
modificación de la desviación estándar de un pico gaussiano puro con la distancia al máximo del
pico, mediante el uso de una función polinomial:
donde H es la altura y t la posición en el máximo del pico; S0 es la desviación estándar de un pico
gaussiano simétrico y S1 y S2 son los coeficientes que cuantifican la asimetría del pico.
Este modelo se denomina PMG (gaussiano modificado polinomialmente) y muestra una
amplia flexibilidad con picos de amplio rango de asimetría y puede usarse para predecir con
seguridad los perfiles de los picos asimétricos.
Para ajustar los picos asimétricos se emplearon funciones polinómicas de hasta segundo o
tercer grado. De estos estudios se deducen que polinomios de primer grado son adecuados para
picos con bajo grado de asimetría y polinomios de mayor grado lo son cuando se trata de picos
de asimetría mayor.
Se aplicó al estudio y deconvolución de mezclas binarias y ternarias de componentes y los
INTRODUCCIÓN
-51-
A h Wbap= ⋅ ⋅ ⋅
1 64 0 75
0 717
, ,,
resultados fueron comparables o incluso superiores a los alcanzados con el modelo EMG, con
errores menores y no superiores al 10 %.
El modelo, además, sirve para predecir o simular picos cromatográficos, mediante el cálculo
de los parámetros del pico (altura, posición, eficacia y factor de asimetría), cuyo número es
coincidente con los de la función h(t): H, tR, S0 y S1.75
Otros métodos de deconvolución numérica están basados en la aplicación de ecuaciones
empíricas, que permiten calcular el área de los picos solapados. Un ejemplo, lo constituye la
ecuación diseñada por Foley:
donde A es el área del pico; hp y W son la altura y la anchura del pico, respectivamente, y b/a es
la simetría medida al 75 % de la altura del pico.76
Algunos autores emplean, para el ajuste de picos solapados, funciones matemáticas
diferentes a las vistas hasta ahora. Es el caso de Le-Vent, que compara el modelo Bigaussiano
(también utilizado por otros grupos de investigación)77 y el Gaussiano-Lorentziano, con el
EMG.78
Por último, otros modelos aplicados para la deconvolución numérica son la distribución
binomial y de Poisson79 y el EMS (función cuadrática modificada exponencialmente), esta última
dirigida para picos de FIA.80 Algunos de estos métodos son llevados a cabo, no de forma
numérica, sino gráficamente.
3) Aplicación De Transformadas De Funciones.
Entre los métodos más importantes de transformadas de funciones caben destacar la
transformada de Fourier y las “wavelet”. En este apartado se comentará tan sólo la primera de
ellas.
Hasta ahora, se ha hablado de métodos de derivación y de ajuste de curvas para resolver
mezclas de señales, en las que aparecen picos solapados correspondientes a más de un analito.
La transformada de Fourier es más sencilla y rápida de aplicar que cualquier otro método
matemático, algunos de los cuales requieren algoritmos mucho más complejos que éste, puesto
que trabaja en el dominio de las frecuencias.37 Sin embargo, suele perderse en un exceso de
ecuaciones matemáticas y en la aplicación de funciones o formas de onda arbitrarias68, tal como
ocurría con el ajuste de curvas, aunque en menor medida que éstas.
No obstante, este método de modelización presenta una clara desventaja con respecto a los
INTRODUCCIÓN
-52-
demás. Ésta radica en la introducción de cierto ruido matemático, denominado ruido de
resolución que, a veces, en determinadas situaciones, hacen imposible su aplicación para alcanzar
una correcta resolución del sistema multianalito. Uno de esos casos es el comentado
anteriormente en el apartado sobre el método de los espectros cocientes o de división de la señal:
la transformada de Fourier no es útil cuando uno de los analitos de la mezcla se encuentra en
concentración muy elevada con respecto a los restantes.
El ruido de resolución tiene su origen en varios factores: por un lado, el número final de
puntos que, a veces, es modificado mediante la adición de ceros, puesto que muchos programas,
para realizar la deconvolución por transformada de Fourier precisan de un número concreto de
datos: 2N, (siendo N un número entero positivo); y, por otro lado, los errores de redondeo,
inherentes a las matemáticas. Como veremos posteriormente, algunos autores relacionan
directamente el fenómeno de sobreagudización o la formación de picos laterales o “spikes” con
estos errores37, 45, lo que induce a equivocaciones a la hora de determinar y diferenciar las señales
de los analitos procedentes de la mezcla.
Como consecuencia de todo esto algunos autores aconsejan el uso de la transformada de
Fourier única y exclusivamente en aquellos análisis que no requieran una exactitud elevada.81
Con respecto a los campos de aplicación de la transformada de Fourier, algunos de los
cuales se comentarán en detalle con posterioridad, hay que decir que estos son muy amplios. Se
ha empleado para la deconvolución de picos en cromatografía73, 75, 82, 83 y espectroscopía68, en la
eliminación de ruido84 e interpolación de datos de señales,85 en estudios sobre efectos de
adsorción y sobre circuitos analógicos86, en investigaciones de efectos cinéticos de
transformación de carga heterogénea que monitorizan el estado de reacción del electrodo87 y, por
último, a medidas de admitancia faradaica88, 89.
Principalmente se ha usado para representar señales en el espacio de Fourier. Por ejemplo,
en la Figura 1, se recoge la representación gráfica en el dominio del tiempo (izquierda) y en el
de la frecuencia (derecha) del sonido que se obtiene al puntear una cuerda de guitarra en su punto
medio. Se obtiene entonces un sonido fundamental (frecuencia fundamental o dominante) que
se ha supuesto de 440 Hz, superpuesto a otros de frecuencias múltiplos impares de la
fundamental (1320, 2200, ... Hz) La amplitud de estos armónicos es inversamente proporcional
al cuadrado de su orden.
INTRODUCCIÓN
-53-
( ) ( )f xK
n xd
=⋅cosh2
Figura 1: Espectro de Fourier para una señal de sonido.
Como puede observarse, la señal en el tiempo se ha logrado descomponer en unas pocas
frecuencias y amplitudes dominantes en el espacio de Fourier, lo que supone una gran ventaja
si se combina con una técnica de reducción de dimensiones.90
Por otro lado, GrabariÉ et al. han llevado a cabo deconvolución de señales
voltamperométricas en mezclas de dos analitos, donde la diferencia entre los potenciales de onda
media de cada uno de ellos es menor de 100/n mV. Este método agudiza y estrecha los picos del
voltamperograma, eliminando el solapamiento en función de la magnitud de éste. La posición
del pico y la proporcionalidad lineal entre la altura del pico y la concentración de la especie
siguen manteniéndose.
El procedimiento es el siguiente: se divide la transformada de Fourier de la función a
deconvolucionar por la transformada de Fourier de la función deconvolución. Al resultado se le
aplica la transformada de Fourier inversa y se obtiene la función deconvolucionada.
La expresión de la función deconvolución que emplean estos autores es:
donde K es una constante arbitraria y nd es el número de electrones de la función deconvolución,
el cual no tiene que ser necesariamente un entero. El margen de reproducibilidad del pico se
encuentra dentro del intervalo de ±1 mV, con un grado de error del ±2 % en la altura.37 Se eligió
INTRODUCCIÓN
-54-
( )y f= − ⋅ ⋅ ⋅exp 2 2 2 2π σ
esta función deconvolución para minimizar o eliminar en lo posible los efectos de la cinética de
transferencia de carga heterogénea. En otras ocasiones, la elección es fundamentalmente
empírica: mediante el uso de una función modelo que describe con exactitud la forma de la
señales de la muestra. Tales funciones son determinadas con frecuencia por la aplicación de un
análisis de regresión. Sin embargo, otros autores han propuesto la señal individual de uno de los
componentes de la mezcla como función deconvolución.41, 91
El grado de agudización de los picos es función de la amplitud media de la función
deconvolución (esto es, aparece reflejada en el valor de nd). Si éste valor se aproxima a la
amplitud media del componente más estrecho en la señal solapada de la mezcla que se va a
deconvolucionar, se obtienen picos sobreagudizados, es decir, aparecen otros picos más pequeños
a ambos lados de los picos principales. El efecto de sobreagudización no influye en la posición
del pico, a menos que se produzca en tal extensión que el resultado de la deconvolución sea una
función oscilante a lo largo de todo el rango de potenciales aplicado.
La sobreagudización, aunque sea moderada, impide un buen reconocimiento de los picos
del voltamperograma. El grado de resolución del solapamiento es función de nd, cuyo valor
óptimo debe determinarse inspeccionando los picos resultantes de la deconvolución. Valores de
nd pequeños permiten deconvoluciones más agudas y estrechas. Sin embargo, cuanto menor sea
este valor, mayor grado de sobreagudización se producirá.
La deconvolución por transformada de Fourier es menos efectiva cuando los componentes
de la mezcla poseen diferentes valores de n.
Por último, hay que comentar que éste es uno de los casos en los que se utiliza el relleno
con ceros hasta obtener un número de puntos igual a 2N, como se ha apuntado con anterioridad;
además, se da el valor de cero a aquellos componentes que poseen frecuencias más altas y que
contribuyen a aumentar el ruido del voltamperograma. La unión de estos dos factores, en
conjunción con la aplicación de un método matemático, como es la transformada de Fourier,
explica la aparición de los picos “fantasma” englobados bajo el fenómeno de sobreagudización.37
Kirmse y Westerberg han establecido la base teórica de la agudización de picos simétricos
en el campo de las frecuencias, aplicándola fundamentalmente a la cromatografía de gases.
Asumiendo la forma gaussiana de los picos se hace la transformada de Fourier de la señal
mezcla y se divide por la transformada de Fourier de la función deconvolución, cuya expresión
es:
donde f es la frecuencia y ó la varianza. Al resultado se le aplica la transformada de Fourier
inversa y se obtiene un pico más estrecho y agudo, con un área proporcional a la concentración
INTRODUCCIÓN
-55-
( )W f, , cos
=+
⋅
→ <
→
0 54 0 46
0
π ff
f fc
c
Cualquier otra
del componente y reteniendo su posición.
En este caso, el fenómeno de sobreagudización está controlado por la relación existente
entre ó2l y ó2, varianza del pico l y varianza de la función de agudización, respectivamente. De
tal modo que, ó debe ser lo más cercana posible a ól, si se desea obtener una agudización
significativa; además, debe cumplirse ó2 < ó2l , si no, se produce una sobreagudización semejante
a como ocurría con el parámetro nd de GrabariÉ et al., dando lugar a una onda oscilante sin
sentido.
La aplicación del método provoca un aumento del ruido (ruido de digitalización), tal que,
tras la deconvolución se obtiene una función de onda que oscila bastante y carece de utilidad.
Para poder entresacar alguna información de ellas, se elimina de la función la zona de frecuencias
más altas, a partir de un punto denominado frecuencia de corte, fc y, a continuación, se aplica un
filtro o ventana denominada: ventana de Hamming, cuya forma es la siguiente:
El valor de fc se conoce a partir del espectro obtenido multiplicando la transformada de
Fourier de la mezcla por su complejo conjugado. Si se aplicase una ventana de tipo rectangular,
la agudización del pico sería mayor, pero el fenómeno de sobreagudización también se
acrecentaría, originando una confusión aún mayor.82
Debido a la gran sensibilidad de la transformada de Fourier al ruido, se encuentran muchas
dificultades a la hora de elegir la frecuencia de corte y la ventana de alisamiento.81
Este sistema es mejor que las técnicas de diferenciación: filtrado analógico y digital, que
aumentan la resolución a costa de la relación señal-ruido.67
Küllik et al. utilizaron también la transformada de Fourier para resolver mezclas en
cromatografía gaseosa. No obstante, emplearon funciones lineales como funciones de
deconvolución y, en vez de aplicar una ventana de Hamming, multiplicaron el resultado por una
función apodizada. Aunque se puede mejorar la resolución mediante la aplicación de filtros, estos
provocan la aparición de lóbulos en ambos laterales de los picos principales. Como única
condición es necesario conocer la amplitud media del pico más estrecho de los componentes de
la mezcla, cuestión que debe estar relacionada con los problemas de sobreagudización
anteriormente mencionados.81
En principio, la deconvolución por transformada de Fourier provoca la conversión de los
picos voltamperométricos en una función ä de Dirac, que permite la separación de dos procesos
INTRODUCCIÓN
-56-
( )( )
( )I E
n ER T
E E
n ER T
E E
=
⋅⋅
−
+⋅⋅
−
exp
exp
0
0
2
1
energéticamente iguales.
Basándose en esta premisa, Pizçta empleó el siguiente procedimiento: un primer paso
consiste en aplicar una ventana digital al conjunto de datos (se considera la señal como un
periodo de una función periódica y el filtrado evita discontinuidades entre esos periodos haciendo
que la señal comience y finalice en el mismo valor: cero) o, también puede sustraerse una recta
a la función mezcla. Seguidamente se adicionan ceros hasta duplicar la longitud de los datos, tal
que existan 2N puntos (debido a que el algoritmo asume deconvolución circular y se debe aplicar
linealmente) y se emplea la transformada de Fourier para llevarla al dominio de las frecuencias.
Por otro lado, previa elección de la amplitud de la función deconvolución, se sigue con ella un
proceso paralelo al anterior, empleándose el relleno con ceros para alcanzar la misma longitud
de datos que en el caso anterior; además, antes de pasarla al dominio de Fourier, hay que
“desenvolverla” o “desplegarla”. Una vez que ambas funciones se encuentran en el campo de las
frecuencias, se divide la señal mezcla por la de deconvolución; al resultado se aplica un filtro
adecuado de paso bajo para eliminar el ruido (frecuencias elevadas) producido por el tratamiento
matemático (división de números muy pequeños) y, posteriormente, la transformada de Fourier
inversa. Por último, si se sustrajo una recta al principio, ahora es el momento de añadirla, pero
dividida por un factor de proporcionalidad. Hay que resaltar que el proceso puede repetirse de
forma iterativa.
Este autor emplea la siguiente función de deconvolución:
donde n indica la amplitud de la función deconvolución y no tiene que ser un número entero.
Hay que elegir la función deconvolución y n de tal forma que aquella ha de tener una
amplitud menor o igual que la del pico más estrecho de la señal mezcla, como ocurría con
GrabariÉ et al. Si n es más pequeño, se produce sobreagudización y aparecen picos laterales; si
es mayor, se obtiene una oscilación sin sentido. Por tanto, la función deconvolución debe elegirse
con el fin de alcanzar un compromiso entre la oscilación lateral (sobreagudización) y la
resolución de los picos.
La determinación de la concentración de los componentes se lleva a cabo mediante el uso
de rectas de calibrado. La exactitud de dicha determinación depende de la distancia de los picos
solapados, de la relación de sus amplitudes (#20) y de sus amplitudes medias.91
Raspor, Pizçta y Branica utilizaron el procedimiento antes comentado y lo compararon con
INTRODUCCIÓN
-57-
el método de evaluación del propio aparato de medida y con el ajuste de tangentes manual. El
objetivo era obtener una correspondencia óptima con la recta de calibrado elaborada
previamente.83
Horlick también ha empleado la transformada de Fourier para resolver señales, pero en
espectroscopía.
Su método se basa fundamentalmente en lo siguiente: se aplica la transformada de Fourier
a la señal de la muestra; una vez en el dominio de las frecuencias, se separan la parte real y la
parte imaginaria; y, por último, se toma la parte real y se multiplica por una función de
deconvolución adecuada. Normalmente, se emplea la función de resolución del espectrómetro
(la amplitud, que es función de la rendija), con lo cual, se pierden las frecuencias más elevadas
(ruido) y se disminuye la amplitud de las frecuencias más bajas (señales de picos).
Este mismo procedimiento puede emplearse para mejorar la resolución de un espectro de
baja resolución. Para ello hay que utilizar una función de deconvolución apropiada, obtenida a
partir del cociente entre el espectro de frecuencias de alta resolución y el espectro de frecuencias
de baja resolución.
Otra aplicación de la transformada de Fourier empleada por Horlick ha sido la corrección
y eliminación de ruido de las señales, mediante el uso de filtros digitales de paso bajo, que
controla la frecuencia de corte y elimina los cambios de fase, o de igualación; éste último para
los casos en los que el ruido sea uniforme.68 Normalmente, la función se elige empíricamente.
La base de este fundamento estriba en que el ruido se produce en una zona diferente de la
que aparece la señal y, por tanto, puede ser eliminado. En la mayoría de los datos analíticos
sucede que los componentes de la señal poseen amplitud elevada y su respuesta varía lentamente,
mientras que el ruido es una fluctuación de amplitud pequeña que varía muy rápidamente. En casi
todos los sistemas el ruido es al azar o uniforme en el carácter, pero en el campo de las
frecuencias, la situación es diferente: la información que describe los componentes de la señal
está contenida en la zona de baja frecuencia del espectro, mientras que el ruido uniforme se
distribuye a lo largo de todo el rango del mismo.
La transformada de Fourier contiene componentes de frecuencias reales e imaginarios.
Como los datos son números reales, la parte imaginaria del espectro contiene la imagen espejo
del espectro real. Aunque la parte imaginaria, que contiene información redundante, no es
utilizada en la mayoría de las aplicaciones, debería incluirse en los cálculos para prevenir
violaciones del teorema de Parseval. Sin embargo, si sólo se usan componentes reales, los
resultados deben ajustarse por un factor de 2 para retener el mismo poder integrado total.
Determinando la frecuencia de corte más allá de la cual no existe información de la señal, es
posible eliminar de manera efectiva la mayoría del ruido de los datos.
INTRODUCCIÓN
-58-
Actualmente, se ha desarrollado un nuevo algoritmo que presenta una ventaja sobre el
método anterior: elimina la parte compleja de la transformación. No obstante, los resultados son
similares al empleo de la FT estándar o de la transformada de Hartley, versión real de la FT.
Asimismo, se han propuesto nuevas funciones de paso que reducen considerablemente la
resonancia asociada comúnmente a este tipo de funciones.52
En el trabajo de Horlick, éste multiplicó el filtro por la parte real de la señal en el dominio
de Fourier (convolución), eliminando así las frecuencias más altas que corresponden al ruido. Si
el filtro o la función no es la apropiada, se obtienen picos laterales falsos a ambos lados de la
señal original.68
Del mismo modo, Hayes et al. han utilizado la transformada de Fourier para llevar a cabo
una corrección de ruido en las señales. Esta operación implica los siguientes pasos: transformar
el espectro original a un espectro de Fourier, multiplicar éste por una función de filtro y hacerle
al resultado la transformada de Fourier inversa.
Las funciones de filtro rectangulares pueden ser aplicables cuando los datos originales
comienzan y acaban en valores próximos o iguales a cero. Si no es así, se introducen una serie
de picos laterales falsos tras el tratamiento. Esto sucede como consecuencia de que el algoritmo
matemático detecta la no iniciación o terminación en cero como un tránsito discontinuo, al igual
que le ocurría a Pizçta. En algunos casos, estas oscilaciones pueden abordar todo el
voltamperograma. No obstante, mediante ciertas modificaciones en la función del filtro se puede
minimizar este problema. A pesar de todo, esto provoca distorsiones en la respuesta final.
Una solución a esta cuestión sería la empleada por Hayes et al.: la aplicación de una
rotación-traslación a los datos originales, tal que los puntos iniciales y finales acaben en cero,
eliminando así el tránsito abrupto. Es lo que ellos denominan: “corrección de datos por
transformada de Fourier modificada”.
Este nuevo método fue comparado con la corrección por mínimos cuadrados, como la
realizada por Bond y GrabariÉ,92 siendo muy pequeña la diferencia significativa entre ambas
aproximaciones. Sin embargo, la balanza se equilibró a favor del método por transformada de
Fourier debido a su velocidad e interpretación.
Si el ruido y la señal solapan entre sí en el espectro, el método anteriormente comentado
no es factible, al producirse errores en la aplicación de la rotación-traslación.84
Por otro lado, O´Halloran y Smith han utilizado el espectro de las frecuencias para llevar
a cabo interpolaciones de datos electroquímicos no continuos, definiendo mejor la localización
del pico en el conjunto de datos.
El procedimiento es el siguiente: al conjunto de datos se le aplica la transformada de
Fourier; se rellena con ceros hasta obtener un número de datos de 2N y, por último, se hace la
INTRODUCCIÓN
-59-
transformada de Fourier inversa. El resultado es una red interpolada que contiene 2N veces el
número de puntos que los datos originales.
Antes o después de la interpolación se emplea un filtro digital para hacer una corrección de
ruido. Además, se ajusta un polinomio a varios puntos en cada extremo de la red de datos
originales y se resta de los mismos antes de la interpolación y/o filtrado. Esta modificación
asegura que los datos comiencen y acaben en cero, suprimiendo así el error de truncamiento.
Como paso final, se añade a la red de datos interpolados una versión convenientemente
interpolada del polinomio, provocando un aumento de la red de datos originales. Mientras el
llenado de ceros vaya precedido de la resta polinomial, éste no causa errores.
El número mínimo de datos necesarios para asegurar una buena definición del espectro en
el dominio de Fourier es de diez, lográndose de este modo unos parámetros de pico satisfactorios.
El fin de la interpolación de datos es el de evaluar distintos parámetros, tales como la
posición y magnitud del pico, su amplitud de área a la altura media, potenciales de onda media
y la separación de los picos, entre otros.85
Además, la transformada de Fourier permite llevar a cabo gran cantidad de estudios, tales
como el procesamiento de datos a partir del espectro de admitancia faradaica para estudios
cinético-mecanísticos en electroquímica, la obtención de espectros de respuesta de medidas de
relajación electroquímica de pequeña amplitud y características de no linealidad faradaica.
También se emplea para el cálculo de admitancias y para procesos de correlación y
decorrelación, siendo los dos últimos muy útiles en ensayos cualitativos y cuantitativos.86, 89
Por último, la transformada de Fourier se ha aplicado con éxito a gran número de técnicas
diferentes a las comentadas en los ejemplos anteriores. Entre ellas podemos destacar la
espectroscopía de absorción74 y la espectroscopía de resonancia de ion-ciclotrón.93
REDES NEURONALES ARTIFICIALES.
Este método de modelización matemática se ha empleado muy poco en electroquímica. Su
utilidad radica en el trazado de mapas no lineales, calibración multivariante no lineal y en
clasificación o reconocimiento de patrones lineal y no lineal.52
Existen numerosas formas de definir las redes neuronales. Algunas de estas definiciones
son las siguientes:
2. Una nueva forma de computación, inspirada en modelos biológicos.
3. Un modelo matemático compuesto por un gran número de elementos procesales
organizados en niveles.
INTRODUCCIÓN
-60-
4. “... un sistema de computación hecho por un gran número de elementos simples,
elementos de proceso muy interconectados, los cuales procesan información por medio
de su estado dinámico como respuesta a entradas externas.” [Hecht-Niesen].
5. “Redes neuronales artificiales son redes interconectadas masivamente en paralelo de
elementos simples (usualmente adaptativos) y con organización jerárquica, las cuales
intentan interactuar con los objetos el mundo real del mismo modo que lo hace el
sistema nervioso biológico.” [Kohonen].94
En relación con las redes neuronales, se habla muy frecuentemente de paradigmas. En este
contexto, un paradigma comprende normalmente la descripción de la forma de una unidad de
procesamiento y su función, una topología de red que describe los patrones por la cual una serie
de interconexiones pesadas transportan las señales de salida de unas unidades hasta la entrada
de otras, y una regla de aprendizaje para establecer los valores de los pesos. Las unidades de
procesamiento (neuronas) y las redes empleadas en estos paradigmas artificiales son la esencia
enormemente simplificada de las dendritas (ramas de entrada), axones (ramas de salida), sinapsis
(conexiones) e interconexiones encontradas en los sistemas vivos que poseen neuronas
biológicas. Se ha encontrado que esta esencia dispone del potencial para capturar una porción
significativa de las funciones de un sistema vivo. Aunque los paradigmas difieren en detalle unos
de otros, cada uno extrae su poder a partir de una serie de atributos.95
Los atributos de una red neuronal típica son: elementos de procesamiento simples; alta
conectividad; procesamiento en paralelo; transferencia no lineal; vías de retroalimentación;
procesamiento no algorítmico; adaptación (aprendizaje); autoorganización; tolerancia a fallos;
obtención de salidas útiles a partir de entradas borrosas; generalización; posee el potencial de
ejecutarse a altas velocidades; operación en tiempo real; y, por último, fácil inserción dentro de
la tecnología existente.95, 96
De entre todas las características anteriores, podríamos destacar las siguientes:
w aprendizaje adaptativo: capacidad de aprender a realizar tareas basadas en un
entrenamiento o una experiencia inicial
w autoorganización: una red neuronal puede crear su propia organización o
representación de la información que recibe mediante una etapa de aprendizaje
w tolerancia a fallos: la destrucción parcial de una red conduce a una degradación de
su estructura; sin embargo, algunas capacidades de la red se pueden retener, incluso
sufriendo un gran daño
w operación en tiempo real: los computadores neuronales pueden ser realizados en
INTRODUCCIÓN
-61-
Figura 2: Esquema comparativo entre una neurona biológica y una neuronaartificial.
paralelo, y se diseñan y fabrican máquinas con hardware especial para obtener esta
capacidad
w fácil inserción dentro de la tecnología existente: se pueden obtener chips
especializados para redes neuronales que mejoran su capacidad en ciertas tareas; ello
facilitará la integración modular en los sistemas existentes.96
a) Conceptos Y Estructura De La Red Neuronal.
A continuación, veremos algunos conceptos y una breve descripción de la estructura y el
funcionamiento de las redes neuronales, según Zupan y Gasteiger.97
Las redes neuronales surgieron a partir de un intento por modelar el funcionamiento del
cerebro humano.
En una neurona típica del córtex humano, las señales procedentes de otras neuronas entran en ella
a través de las dendritas (canales de entrada de la neurona). Si la suma de las señales recibidas
en un momento dado excede un cierto valor umbral, el cuerpo de la célula genera una señal de
salida la cual viaja luego a lo largo del axón (el canal de salida) y es transportada (corriente
abajo) a otras neuronas. El proceso mediante el cual la señal es transmitida de una neurona a la
siguiente se denomina sinapsis. La magnitud de la influencia de esta señal sobre la próxima
neurona está modulada por la eficacia de la intervención sináptica, denominada fortaleza
INTRODUCCIÓN
-62-
Figura 3: Esquema de una red neuronal artificial.
sináptica.
De este modo, la neurona artificial o simulada por ordenador se ha diseñado para imitar la
función de una neurona biológica. La entrada a esta nueva neurona es la señal que llega a ella
procedente de una o más neuronas y la salida significa la señal emitida por ella a la próxima
neurona corriente abajo. La sinapsis es representada aquí por las conexiones entre dos o más
neuronas artificiales y la fortaleza sináptica viene simbolizada por los pesos asociados con cada
conexión.
Un peso consiste simplemente en un número real. Si el peso es positivo, tiende a estimular
a la neurona siguiente para que transmita su propia señal corriente abajo; si el peso es negativo
no provoca esa estimulación. El conjunto de los valores de los pesos asociados con las neuronas
en una red determina las propiedades computacionales de la red y el entrenamiento de la misma
consiste en alcanzar unos valores adecuados de los pesos por modificación de los mismos.
Junto a los pesos, existe un parámetro adicional, è j, denominado sesgo, que es necesario
para determinar el funcionamiento propio de cada neurona j. Cada neurona necesita del sesgo
para ajustar todas sus entradas Netj tal que caigan dentro de la región donde pueden ser utilizadas
por la función de transferencia para obtener el mayor beneficio posible del desarrollo completo
de la red. Este parámetro, que siempre recibe el valor de 1, es tratado igual que cualquier otro
peso y debido a su valor puede considerarse como la línea base de toda la red.
La estructura de una red neuronal podría ser la que aparece representada en la Figura 3:
Dentro de cada neurona, tienen lugar dos procesos:
INTRODUCCIÓN
-63-
( )Net Inp wj i iji
j= ⋅ +∑ θ
( )( )
f Net
Inp w
j
i iji
j
=
+ ⋅ − ⋅ +
∑
1
1 exp θ
( ) ( )[ ]f Net Netj j= max , ,0 1 min
1) Todas las entradas pesadas a la neurona j son combinadas para producir una entrada
de red Netj, a partir de la matriz de multiplicación:
donde Inpi son las entradas a la neurona j que proceden de las i neuronas anteriores
y wij son los pesos asociados a cada una de las conexiones de las i neuronas
anteriores con la neurona j.
2) Netj se utiliza para determinar qué salida Outj se va a generar. La función por la cual
se calcula Outj a partir de Netj se denomina función de transferencia sigmoidal,
llamada también en otros casos función de apilamiento. Su forma es bastante
arbitraria y se haya limitada únicamente por dos condiciones, que deben mantenerse
para todos los valores de Netj: en primer lugar, sus valores deben pertenecer al
intervalo [0, 1]; en segundo lugar, debe ascender de forma monotónica.
Normalmente, esta función es no lineal, ya que es necesario mantener una relación
de este tipo entre la entrada Netj y la salida Outj; sin embargo, algunos autores han
utilizado funciones lineales.98 La forma de la función de transferencia más
comúnmente empleada es la función logística:
No obstante, existe otra función mucho más rápida computacionalmente denominada
límite o umbral lógico:
Desde el punto de vista de su utilización en hardware, el límite lógico es
considerablemente más sencillo y barato de usar que la función de transferencia
sigmoidal. Además, es muy útil en situaciones donde se realizan clasificaciones
alternativas de entradas individuales. Sin embargo, desde el punto de vista teórico no
es conveniente emplearla ya que su derivada no está definida en dos puntos.
La arquitectura o estructura de una red neuronal está determinada por la forma en como las
INTRODUCCIÓN
-64-
salidas de las neuronas están conectadas a otras neuronas. En el caso estándar, las neuronas o
unidades de procesamiento de la red se dividen en varios grupos denominados capas o estratos,
donde cada neurona de una capa está conectada a todas las neuronas presentes en la siguiente
(mediante esta topología de interconexión se pueden obtener modelos no lineales muy
complejos). Básicamente, son posibles arquitecturas mono- o multicapa. El primer estrato
consiste en un conjunto de entrada, donde cada neurona está conectada a una entrada individual.
Las siguientes capas se denominan capas ocultas. Y la última, capa de salida.
Todas las n neuronas de una capa poseen el mismo número de entradas, esto es, el mismo
número de pesos wij (i = 1, ..., m; j = 1, ..., n), los cuales serán modificados durante el proceso
de entrenamiento. Esas m entradas proceden de otras tantas neuronas situadas en la capa
inmediatamente anterior (capa oculta) o bien de un dispositivo de entrada externo (capa de
entrada). De este modo, todas las neuronas situadas en la misma capa reciben simultáneamente
una señal de entrada con m variables: X (x1, x2, ..., xj, ..., xm).
Por otro lado, cada neurona origina una única salida. Así, en el caso de una arquitectura
monocapa, las n salidas Outj de la capa actual, obtenidas por aplicación de una de las dos
ecuaciones anteriores, representarán la salida de la red. Si la estructura es multicapa, constituirán
las entradas del siguiente estrato, formado ahora por p neuronas. Esta nueva capa, posee ahora
n × p pesos y originará p salidas, las cuales serán propagadas hacia capas más profundas. La
salida final de la red completa está formada simplemente por las salidas colectivas de la capa
final de neuronas. El número de neuronas de una capa y el número de capas depende
considerablemente de la aplicación particular que se dé a la red, es decir, según el número de
variables para los objetos, el número de objetos implicados en el estudio o el número y calidad
de las respuestas.97
b) Mecanismo De Aprendizaje De Las Redes Neuronales.
El aprendizaje es el proceso por el cual una red neuronal modifica sus pesos en respuesta
a una información de entrada. Los cambios que se producen durante el proceso de aprendizaje
se reducen a la destrucción, modificación y creación de conexiones entre las neuronas. En los
modelos de redes neuronales artificiales, la creación de una nueva conexión implica que el peso
de la misma pasa a tener un valor distinto de cero. De la misma forma, una conexión se destruye
cuando su peso pasa a ser cero.
Durante el proceso de aprendizaje, los pesos de las conexiones de la red sufren
modificaciones, por tanto se puede afirmar que este proceso ha terminado (la red ha aprendido)
cuando los valores de los pesos permanecen estables (su variación en el tiempo es cero).
INTRODUCCIÓN
-65-
Un aspecto importante respecto al aprendizaje en las redes neuronales es el conocer cómo
se modifican los valores de los pesos; es decir, cuáles son los criterios que se siguen para cambiar
el valor asignado a las conexiones cuando se pretende que la red aprenda una nueva información.
Estos criterios determinan lo que se conoce como la regla de aprendizaje de la red. Existen
dos tipos de reglas que, posteriormente, van a permitir clasificar las redes en base a ellas. Esas
reglas son las siguientes:
w Aprendizaje supervisado
w Aprendizaje no supervisado
La diferencia entre ellas estriba en la existencia o no de un agente externo (supervisor) que
controle el proceso de aprendizaje de la red.
Otro criterio que se puede utilizar para diferenciar las reglas de aprendizaje se basa en
considerar si la red puede aprender durante su funcionamiento habitual o si el aprendizaje supone
la desconexión de la red; es decir, su inhabilitación hasta que el proceso termine. En el primer
caso se trataría de un aprendizaje ON LINE, mientras que el segundo es lo que se conoce como
aprendizaje OFF LINE.
c) Aprendizaje Supervisado.
Este tipo se caracteriza porque el proceso de aprendizaje se realiza mediante un
entrenamiento controlado por un agente externo (supervisor, maestro) que determina la respuesta
que debería generar la red a partir de una entrada determinada. El supervisor comprueba la salida
de la red y en el caso de que ésta no coincida con la deseada, se procederá a modificar los pesos
de las conexiones, con el fin de conseguir que la salida obtenida se aproxime a la deseada.
Existen tres formas de llevar a cabo esta clase de aprendizaje:
w Aprendizaje por corrección de error: consiste en ajustar los pesos de las conexiones
de la red en función de la diferencia entre los valores deseados y los obtenidos en la
salida de la red; es decir, en función del error cometido en la salida.
w Aprendizaje por refuerzo: en este caso, la función del supervisor se reduce a indicar
mediante una señal de refuerzo si la salida obtenida en la red se ajusta a la deseada
(éxito = +1, fracaso = -1), y en función de ello se ajustan los pesos basándose en un
mecanismo de probabilidades. Se podría decir que en este tipo de aprendizaje la
función del supervisor se asemeja más a la de un crítico (que opina sobre la respuesta
INTRODUCCIÓN
-66-
de la red) que a la de un maestro (que indica a la red la respuesta concreta que debe
generar), como ocurría en el caso anterior.
w Aprendizaje estocástico: consiste básicamente en realizar cambios aleatorios en los
valores de los pesos de las conexiones de la red y evaluar su efecto a partir del
objetivo deseado y de distribuciones de probabilidad. En este caso, se suele hacer la
siguiente analogía: se asocia la red neuronal con un sólido físico que posee cierto
estado energético. En el caso de la red, la energía de la misma representaría el grado
de estabilidad de la red, de tal forma que el estado de mínima energía correspondería
a una situación en la que los pesos de las conexiones consiguen que su
funcionamiento sea el que más se ajusta al objetivo deseado. Según lo anterior, el
aprendizaje consistiría en realizar un cambio aleatorio en los valores de los pesos y
determinar la energía de la red. Si la energía es menor después del cambio, es decir,
si el comportamiento de la red se acerca al deseado, se acepta el cambio. Si, por el
contrario, la energía no es menor, se aceptaría el cambio en función de una
determinada y preestablecida distribución de probabilidades.
d) Aprendizaje No Supervisado.
Las redes con aprendizaje no supervisado (también conocido como autosupervisado) no
requieren influencia externa para ajustar los pesos de las conexiones entre sus neuronas. La red
no recibe ninguna información por parte del entorno que le indique si la salida generada en
respuesta a una determina entrada es o no correcta. Por ello, suele decirse que estas redes son
capaces de autoorganizarse.
Estas redes deben encontrar las características, regularidades, correlaciones o categorías que
se puedan establecer entre los datos que se representen en su entrada. Al no existir ningún
supervisor que indique a la red la respuesta que debe generar ante una entrada concreta, hay
varias posibilidades en cuanto a la interpretación de la salida de estas redes, que depende de su
estructura y del algoritmo de aprendizaje empleado.
En algunos casos, la salida representa el grado de familiaridad o similitud entre la
información que se le presenta a la entrada y la mostrada hasta entonces (en el pasado). En otro
caso, podría realizar un agrupamiento o establecimiento de categorías, indicando la red a la salida
a qué categoría pertenece la información presentada a la entrada, siendo la propia red quien debe
encontrar las categorías apropiadas a partir de correlaciones entre las informaciones presentadas.
El aprendizaje sin supervisión permite realizar una codificación de los datos de entrada,
generando a la salida una versión codificada de la entrada, pero manteniendo la información
INTRODUCCIÓN
-67-
relevante de los datos.
Existen dos formas de aprendizaje no supervisado:
w Aprendizaje hebbiano: es una regla de aprendizaje no supervisado, puesto que la
modificación de los pesos se realiza en función de los estados (salidas) de las
neuronas obtenidos tras la presentación de cierto estímulo (información de entrada
a la red), sin tener en cuenta si se deseaba obtener o no esos estados de activación.
Consiste básicamente en el ajuste de los pesos de las conexiones de acuerdo con la
correlación (multiplicación en el caso de valores binarios +1 y -1) de los valores de
activación (salidas) de las dos neuronas conectadas. En este sentido, si las dos
unidades son activas (positivas), se produce un reforzamiento de la conexión; por el
contrario, cuando una es activa y la otra pasiva (negativa), se produce un
debilitamiento de la conexión.
w Aprendizaje competitivo y cooperativo: en este aprendizaje, suele decirse que las
neuronas compiten (y cooperan) unas con otras con el fin de llevar a cabo una tarea
dada. Con esto se pretende que cuando se presente a la red cierta información de
entrada, sólo una de las neuronas de salida de la red, o una por cierto grupo de
neuronas, se active (alcance su valor de respuesta máximo). Por tanto, las neuronas
compiten por activarse, quedando finalmente una, o una por grupo, como neurona
vencedora, anulándose el resto, que son forzadas a sus valores de respuesta mínimos.
La competición entre neuronas se realiza en todas las capas de la red, existiendo en
estas neuronas conexiones recurrentes de autoexcitación y conexiones de inhibición
(signo negativo) por parte de neuronas vecinas. Si el aprendizaje es cooperativo, estas
conexiones con las vecinas serán de excitación (signo positivo). El objetivo de este
aprendizaje es categorizar los datos de entrada a la red. De este modo, informaciones
similares que son clasificadas dentro de una misma categoría deben activar la misma
neurona de salida. Las clases o categorías son creadas por la propia red a partir de las
correlaciones entre los datos de entrada, al tratarse de un aprendizaje no
supervisado.99
e) Entrenamiento De La Red Neuronal.
Una vez elegida una arquitectura adecuada a nuestro problema, el siguiente paso consiste
en obtener los valores de los pesos a partir de patrones conocidos que nos permitan utilizar la red
para predecir muestras desconocidas. Es la fase de entrenamiento de la red neuronal. No obstante,
INTRODUCCIÓN
-68-
existen dos tipos de entrenamiento de acuerdo con la meta perseguida: obtener un vector de
salida predefinido Yk para cualquier señal de entrada Xk o activar, para cualquier objeto de
entrada Xk perteneciente a una clase p, una neurona dentro del segmento p-ésimo de las neuronas
de salida de la red.
En el primer caso, la red debe ser entrenada de manera supervisada a partir de un conjunto
de pares entrada/salida (Xk, Yk), denominado “conjunto de entrenamiento”. Xk es el vector de
entrada de m componentes (espectro, secuencia de proteínas, etc.) mientras que Yk es la salida
deseada o conjunto de respuestas para este vector de entrada particular. El entrenamiento
supervisado se inicia con unos valores de pesos al azar, que junto con la entrada individual Xk,
permite calcular el vector de salida. Este vector es comparado con el vector Yk conocido y que
se desea obtener. A continuación, se aplica una medida correctiva para cambiar los pesos de la
red (incluyendo los sesgos) en base a los errores observados en los patrones de salida, de tal
forma, que los pesos corregidos darán una mejor aproximación a Yk. El procedimiento de
corrección usado varía de una red a otra. La presentación de los pares de entrenamiento (Xk, Yk)
junto con los correspondientes pesos corregidos se considera un ciclo del procedimiento de
aprendizaje. El proceso se repite muchas veces hasta que se alcance un acuerdo aceptable entre
todos los pares (Xk, Yk) y la salida producida Y´k, o hasta que se exceda el número de ciclos
permitido. La ventaja de este proceso es que luego, a partir de estos patrones, se puede
generalizar (dentro de unos límites) para obtener resultados correspondientes a otras entradas que
no se hayan estudiado aún. Aunque el entrenamiento es bastante largo (según la estructura de la
red), una vez realizado, la red ofrece respuestas o predicciones casi instantáneamente. De este
modo, se sacrifica el tiempo de entrenamiento para alcanzar procesamientos posteriores
extremadamente rápidos.
En el segundo caso, la activación de una neurona específica o grupo de ellas, se logra
mediante un entrenamiento no supervisado, que únicamente requiere conocer el vector de entrada
Xk y la categoría asociada (o región) a la que pertenece. Esta categoría no se usa de manera
explícita, sino que aparece implicada por la posición del vector Xk en el espacio de medida de
sus variables. En este tipo de entrenamiento, se desea encontrar un mapa entre dos grupos de
objetos Xk y las regiones que están integradas finalmente en el plano (o matriz) de las neuronas
de salida de la red. En este caso, no se utiliza ninguna información acerca de los grupos a los que
pertenece el objeto Xk para la corrección de los pesos después de obtener la salida Y´k. De este
modo, la única posibilidad consiste en adjudicar las neuronas más activas (o posiblemente, la
región vecina completa). Después de evaluar la salida Y´k, a la neurona que ha provocado la salida
más grande se le asigna el valor 0 y sus correspondientes pesos wi0 son aumentados para que la
próxima vez ofrezca una respuesta todavía mayor. Algunas veces, no sólo se estimula la neurona
INTRODUCCIÓN
-69-
0, sino también sus vecinos superiores hasta el r-ésimo. El entrenamiento continúa hasta que el
vector de entrada Xk es trazado dentro del mapa de las regiones que estaban integradas en el
dominio completo de las neuronas de salida.97
f) Tipos De Redes Neuronales.
1) Perceptrones.
Este fue el primer modelo de red neuronal artificial desarrollado por Rosenblatt en 1958.
Despertó un enorme interés en los años 60, debido a su capacidad para aprender a reconocer
patrones sencillos: un perceptrón, formado por varias neuronas lineales para recibir las entradas
a la red y una neurona de salida, es capaz de decidir cuándo una entrada presentada a la red
pertenece a una de las dos clases que es capaz de reconocer.
La única neurona de salida del perceptrón realiza la suma ponderada de las entradas, resta
el umbral y pasa el resultado a una función de transferencia de tipo escalón. La regla de decisión
es responder +1 si el patrón presentado pertenece a la clase A, o -1 si el patrón pertenece a la
clase B. La salida dependerá de la entrada neta (suma de las entradas xi ponderada) y del valor
umbral è .
Una técnica utilizada para analizar el comportamiento de redes como el perceptrón es
representar en un mapa las regiones de decisión creadas en el espacio multidimensional de
entradas a la red. En estas regiones se visualiza qué patrones pertenecen a una clase y cuáles a
otra. El perceptrón separa las regiones por un hiperplano cuya ecuación queda determinada por
los pesos de las conexiones y el valor umbral de la función de activación de la neurona. En este
caso, los valores de los pesos pueden fijarse o adaptarse utilizando diferentes algoritmos de
entrenamiento de la red.
Sin embargo, el perceptrón, al constar sólo de una capa de entrada y otra de salida con una
única neurona tiene una capacidad de representación bastante limitada. Este modelo sólo es capaz
de discriminar patrones muy sencillos, linealmente separables.100
2) Red Neuronal De Hopfield.
En 1982, J.J. Hopfield demostró las propiedades tan interesantes y útiles que podían
encontrarse cuando se conectaban elementos de procesamiento simple en una estructura de
retroalimentación con conexiones de pesos especificadas de cierta forma. Además, supuso el
detonante de la explosión actual de interés por las redes neuronales.
INTRODUCCIÓN
-70-
( )
( )w
x xij
is
js
s
p
=⋅ ≠
=∑ para i j
para i = j1
0
Out signo w x
w x
w x
j ij ii
ij ii
ij ii
= ⋅
=
+ ⋅
≥
− ⋅
<
∑∑
∑
1 0
1 0
para
para
La memoria de los ordenadores digitales tradicionales deben buscar byte a byte para
recuperar una parte específica de información cuya dirección en el ordenador se desconoce.
Dicha búsqueda es eliminada si se emplea una memoria cuya información puede obtenerse en
un sólo paso, sin importar cuál sea su ubicación: memoria de contenido direccionable o CAM.
Hopfield describió una CAM que recuperaba correctamente una memoria completa, dada
cualquier subparte de tamaño suficiente. Que esta subparte contenga más o menos errores es
irrelevante; estos se corrigen automáticamente. Es decir, la idea de fondo de la red de Hopfield
es que sirve para reproducir cualquier patrón usado para el entrenamiento cuando se introduce
de nuevo en la red, incluso si el patrón presentado es defectuoso en mayor o menor medida.
Para ver cómo funciona la memoria de Hopfield, considérense un conjunto de cuatro
neuronas artificiales elementales o unidades de procesamiento. Cada unidad recibe unas entradas
pesadas procedentes de otras unidades y construye una suma. Los pesos son calculados a partir
de la memoria deseada, empleando los componentes xsi de todos los p patrones Xs en el conjunto
de entrenamiento (pero no en el sentido iterativo como el descrito anteriormente), mediante la
fórmula:
Si la suma excede un valor límite prefijado, tomado como 0, se elige su estado de salida
como 1; de otro modo, la salida es 0 (representación binaria). Esta operación la realizan
continuamente todas las unidades. Para obtener la salida Outj para un objeto desconocido, la
función sigmoidal o el límite lógico se reemplazan por una función de paso simple:
Tan pronto como se alcanzan las condiciones establecidas para cada unidad, se actualiza la salida
de la red de manera rápida, según las condiciones de hardware. Las unidades funcionan, por
tanto, asincrónicamente.
Una vez obtenida la salida de la red, ésta se introduce (retroalimentación) como una nueva
INTRODUCCIÓN
-71-
( ) ( )w f x f xij is
js
s
p
= ⋅=
∑1
entrada y se repite el proceso anterior hasta que dos salidas sucesivas no difieran
significativamente.
El algoritmo de Hopfield es rico en su analogía con respecto a los sistemas físicos y
biológicos. Se ha generalizado para sistemas continuos (no binarios) en los cuales las unidades
de procesamiento han clasificado las respuestas a las entradas.
La red de Hopfield es muy útil en aplicaciones químicas (por ejemplo, para la clasificación
de formas de líneas base espectrales), especialmente porque su entrenamiento es muy rápido
comparado con los de otros diseños de redes neuronales, y también se ha empleado para resolver
problemas de optimización combinatoria.95, 97
3) Memoria Asociativa Bidireccional Adaptativa.
La memoria asociativa bidireccional adaptativa o ABAM, la cual adapta su matriz de pesos
a los objetos que van a aprenderse, es una red neuronal monocapa que es similar, en algunos
aspectos, a la red de Hopfield.
ABAM hace uso de un entrenamiento supervisado y, de este modo, requiere pares de
objetos (Xk, Yk) para ejecutarlo. No existe ninguna condición que requiera que los objetos Xk
(xk1, xk2, ..., xkm) e Yk (yk1, yk2, ..., ykn) sean representados en un espacio con la misma dimensión,
esto es, que n sea igual a m. Como el ABAM es una red monocapa, los pesos wij se almacenan
en una matriz W de dimensiones m × n.
La idea básica del ABAM procede del hecho de que esa matriz m × n puede multiplicarse
desde dos direcciones diferentes: en la forma estándar, por un vector m-dimensional, o en la
forma traspuesta, vector n-dimensional. En el lenguaje de las redes neuronales, esto quiere decir
que o bien un objeto de entrada X produce la salida Y´, o bien la entrada Y en el lado de las
salidas produce un vector de salida X´, en el lado de las entradas a la matriz de pesos. De este
modo, para cualquier par de objetos (X, Y), se construye otro par (X´, Y´).
La matriz de pesos del ABAM se construye a partir de los pares de entrada del siguiente
modo:
donde f(u) es la función sigmoidal. El proceso de entrenamiento del ABAM comienza con el par
(X, Y) para el cual se calcula la matriz de pesos W; multiplicando dicha matriz por los vectores
X e Y, se obtiene el siguiente par (X´, Y´), y se repite el proceso desde el principio. El
INTRODUCCIÓN
-72-
( ) ( )d X x wsj i
sij
i
m
, W = −∑2
entrenamiento acaba cuando en la iteración i-ésima ocurre lo siguiente: Xi·Wi ÷÷ Yi; Yi·Wi T ÷÷
Xi, es decir, cuando se produce un par de objetos idénticos al par de entrada.
En resumen, podría decirse que en el ABAM las señales oscilan, mientras que en la red de
Hopfield circulan. Además, en contraste con la red de Hopfield, la entrada en el ABAM puede
ser de diferente dimensión que la salida, y en el caso extremo, incluso más pequeña. Una
dimensión pequeña de la capa de salida se traduce en una reducción del tamaño de la matriz de
pesos. Desafortunadamente, esto conlleva un efecto negativo sobre el número de pares que
pueden ser almacenados en el ABAM. Por tanto, hay que llegar a un acuerdo entre el tamaño de
la matriz y el número de pares que son aprendidos.97
4) Red Neuronal De Kohonen.
La arquitectura de red que semeja más ajustadamente las conexiones y el proceso de
aprendizaje de las neuronas biológicas es probablemente la descrita por Kohonen.
La red de Kohonen está basada en una capa individual bidimensional. Sin embargo, la red
de Kohonen puede incluirse dentro de una red mucho más compleja como una de sus capas
constituyentes o empleada en combinación con otras técnicas.
La característica más importante de la red de Kohonen es que obliga a las neuronas a
competir entre ellas para decidir cuál será estimulada. La competición puede decidirse en base
a la salida más grande obtenida para una entrada determinada, o comparando y encontrando la
neurona j que tiene todos los pesos wij (i = 1, m), es decir, el vector de pesos Wj (w1j, w2j, ..., wmj)
más parecido al vector de entrada Xs (xs1, x
s2, ..., x
sm):
El sumatorio en esta ecuación se corresponde con todos los m pesos en la neurona j. Después de
que todas las neuronas se hayan comprobado, la neurona j que alcanza el valor más pequeño de
d(Xs, Wj) para un vector de entrada dado Xs se selecciona para la estimulación, junto con su
sector. El sector se define como el conjunto de células más próximas a la seleccionada por uno
de los posibles criterios aplicados a la red de Kohonen. Esta neurona central denominada 0 puede
seleccionarse como la que posee la respuesta más grande Y0 o el vector de pesos W0 más
parecido al vector de entrada Xs. Para estimular la neurona j y su sector ha de emplearse una
función dependiente de la topología: a = a·(r0 - rj), que puede poseer un perfil lineal o en forma
de sombrero mexicano. Una vez se ha encontrado esta neurona, la corrección de todos los pesos
wij (i = 1, 2) de la neurona j-ésima que cae dentro de la región definida por la topología anterior
INTRODUCCIÓN
-73-
( ) ( ) ( ) ( )( )w w a r r x wijnuevo
ijviejo
j is
ijviejo= + ⋅ − ⋅ −0
se hace aplicando la siguiente ecuación:
No hay ningún problema si la diferencia entre xsi y el peso antiguo es positiva o negativa, ya que
si el primero es más grande o más pequeño que el segundo, el peso nuevo estará más cercano a
xsi que el viejo.
Una vez que el entrenamiento se ha completado, la red exhibe una estructura topológica
homomórfica con la forma del patrón de entrenamiento.
Existe un pequeño problema computacional inherente a la red de Kohonen, que
afortunadamente no da problemas si la red está aplicada sobre un ordenador en serie, pero que
puede afectar seriamente el desarrollo de aplicaciones a gran escala ejecutadas en ordenadores
en paralelo. Para establecer qué neurona (y sector) va a estimularse hay que llevar a cabo una
comprobación de todas las neuronas. Esto supone una seria restricción cuando se entrenan redes
extensas. Incluso para un ordenador en paralelo se requieren como mínimo log2 N pasos con N/2
comparaciones paralelas, siendo N el número de neuronas.97
5) Red Neuronal De Retropropagación.
Constituye el paradigma más popular y ampliamente utilizado en la literatura a causa de su
enorme aplicabilidad.
Supone una generalización del algoritmo de Widrow-Hoff, empleado de manera efectiva
durante años en el campo del procesamiento de señales adaptativas. Se demostró, además, que
podía servir para entrenar estructuras en forma de capas semejantes a los perceptrones,
incluyendo unidades no lineales capaces de desarrollar funciones del tipo OR exclusiva. Incluso
solventó cuestiones difíciles, tales como la conversión de un texto escrito a un idioma
comprensible, por medio del entrenamiento de un conjunto de patrones, y el reconocimiento de
dígitos de código postal ZIP escritos a mano.
Aunque el término de retropropagación se refiere a la propia regla de aprendizaje de los
valores de pesos de una red, en el contexto actual se empleará dicho término para hacer referencia
a las redes neuronales entrenadas por el citado algoritmo.
La red de retropropagación, al contrario que la de Hopfield, no emplea retroalimentación.
En su versión más simple, utiliza una estructura en forma de capas de alimentación directa, cuya
estructura fue descrita en el apartado de arquitectura de la red.
Supóngase una red neuronal con tres capas, las unidades de la capa de entrada no llevan a
INTRODUCCIÓN
-74-
( )Y t zj jj
M
= −=
∑12
2
1
cabo ningún procesamiento especial, simplemente amortiguan los valores de entrada y lo
transportan a la capa oculta por medio de un conjunto de conexiones pesadas. Seguidamente,
cada unidad de procesamiento en la capa intermedia calcula una suma pesada de sus entradas.
Los pesos pueden ser positivos (excitadores) o negativos (inhibidores). Después, la unidad de
procesamiento aplica una función de apilamiento sigmoidal (descrita con anterioridad) a dicha
suma, la cual transforma un amplio dominio de entrada en un rango limitado de salidas. La salida
de cada unidad en la capa oculta pasa a las correspondientes neuronas de la capa de salida, las
cuales, suman y apilan sus entradas pesadas para ofrecer, finalmente, una salida adecuada.
El entrenamiento de la red, se lleva a cabo de acuerdo a lo anteriormente explicado en el
apartado de entrenamiento de la red. Existe cierto número de algoritmos destinados a tal fin, entre
los cuales, podemos destacar el algoritmo del error de predicción recursivo98 y el algoritmo de
retropropagación, el cual trataremos a continuación.95
g) Algoritmo De Retropropagación.
El algoritmo más utilizado para ajustar los pesos en el entrenamiento de redes de
alimentación directa es la regla de la retropropagación del error, conocida en la literatura como
“backprop”. Este algoritmo de aprendizaje no refleja similitud particular alguna con los procesos
reales del cerebro. Consiste básicamente en un procedimiento multicapa y como tal requiere una
cantidad considerable de espacio en el ordenador y de tiempo de cálculo, incluso para redes de
tamaño medio. Se aplica especialmente en casos donde la ausencia de soluciones teóricas,
analíticas e incluso numéricas requieren una buena modelización con predicciones exactas.
El hecho de ser el algoritmo más empleado por los científicos que trabajan con redes
neuronales radica en su habilidad para ajustar todos y cada uno de los pesos de las conexiones
de la red, de modo que al introducir cualquier patrón de entrada en el interior de la misma ésta
sea capaz de ofrecer una salida adecuada al problema que se está tratando. Para llevar a cabo el
ajuste de los pesos, primero hay que considerar una medida del error en la salida que viene dado
por la suma de los cuadrados de los errores de las unidades de salida individuales:
donde tj es el valor buscado de la salida j-ésima de la última capa; zj es la salida calculada de la
última capa de la red y M es el número de unidades de salida.
Esta función de coste puede visualizarse como una superficie que representa el error como
la variable dependiente en un hiperespacio de N + 1 dimensiones, donde N es el número de pesos
INTRODUCCIÓN
-75-
w t w tE
wij ijij
( ) ( )+ = +
1 η
∂∂
en la red. Un estado instantáneo de la red aparece como un punto individual en la superficie. El
efecto de un cambio pequeño en cualquier peso puede observarse como un pequeño movimiento
de ese punto sobre la superficie, mientras que el resto de los pesos permanecen constantes. Un
cambio de peso pequeño puede provocar o un incremento o una disminución del error o ningún
cambio en absoluto. Como se desea hacer actuar a la red de acuerdo a un conjunto determinado
de patrones hay que ajustar los pesos para que el error alcance el valor más bajo posible.
Una observación crucial a tener en cuenta en este punto es que la dependencia por parte del
error de un pequeño cambio en cualquier peso puede determinarse adecuadamente por aplicación
directa de la regla de la cadena mediante diferenciación a partir del cálculo elemental. Para
aplicar la regla de la cadena, hay que obtener primero la contribución de cada unidad de salida
al error Y. Diferenciando la función de apilamiento sigmoidal, el error correspondiente en la
suma interna de cada una de las unidades se determina y se propaga hacia atrás en la red, estrato
a estrato, usando sucesivas aplicaciones de la regla de la cadena para derivadas parciales hasta
alcanzar la capa de entrada. De este modo, se logra obtener el error correspondiente a las salidas
de las unidades de las capas inmediatamente anteriores que alimentan los sucesivos estratos. Este
procedimiento puede extenderse para determinar la sensibilidad del error Y a cualquier peso en
la red neuronal.
Las sensibilidades representadas por el conjunto de tales derivadas, una por cada peso en
la red, define un vector gradiente en el hiperespacio de N + 1 dimensiones. El valor negativo de
este gradiente define la dirección del descenso más profundo hasta alcanzar el valor más bajo del
error Y. El entrenamiento de la red se lleva a cabo realizando pequeños pasos en la dirección del
descenso más profundo para cada ejemplar presentado. Para redes grandes, especialmente
aquellas que poseen una estructura formada por un gran número de estratos, cada contribución
de los pesos al error total es relativamente pequeña. Más aún, la superficie que define Y puede
ser muy compleja y tener múltiples mínimos. El punto del hiperespacio que representa el estado
de la red puede describir una trayectoria tortuosa conforme se ejecuta el entrenamiento.
Típicamente, la red debe procesar el entrenamiento de los patrones muchas veces antes de
obtener valores útiles de los pesos.95
Este método de ajuste de pesos se denomina método del gradiente descendente y, como se
ha podido comprobar, resulta bastante lento en la mayoría de los casos. Zupan y Gasteiger han
elaborado una amplia descripción matemática acerca del mismo. La expresión del algoritmo es
la siguiente:
INTRODUCCIÓN
-76-
y la función que realiza consiste en la actualización del peso wij de la capa t+1 empleando para
ello el peso de la capa t inmediatamente anterior. Uno de los parámetros que interviene en dicha
ecuación es la velocidad de aprendizaje ç . La actualización se realiza en base al error obtenido
E.101
h) Redes Neuronales Y Clasificación.
Una red neuronal de retropropagación puede emplearse para clasificar grupos de medidas.
Sea un conjunto de M medidas que representan un objeto o estado de un sistema, un miembro
de un conjunto de tales objetos o estado. Cada grupo puede agruparse como un vector
característico en el hiperespacio definido por las variables de medida. Para clasificar los objetos
o estados en dos categorías y poder separarlas por un hiperplano, puede utilizarse una función
lineal discriminante o perceptrón; no es necesaria una red neuronal más compleja.
La red puede desempeñar dicha tarea gracias a una función de apilamiento no lineal. En el
caso general de dos clases, si la red posee M entradas, una por cada una de las variables de
medida, y se proporciona una única salida, ésta puede emplearse para clasificar las medidas. Un
conjunto de entrenamiento de vectores característicos cuya clasificación se conoce a priori se
presentan una y otra vez a la entrada de la red. El error en el desarrollo de la red se utiliza para
ajustar los pesos, haciendo uso del algoritmo de retropropagación y el método del gradiente
descendente.
Al igual que ocurre con otros métodos de construcción de modelos matemáticos, es típico
alterar el modelo hasta lograr el mejor resultado. Si no se ha dotado a la red de un número
adecuado de grados de libertad mediante un número suficiente de unidades ocultas y pesos, la
clasificación de todos los vectores característicos puede resultar imposible. El error de la medida
puede ser, además, responsable de clasificaciones erróneas. Si se han empleado demasiadas
unidades ocultas y se ha entrenado muy exhaustivamente la red, ésta puede clasificar
correctamente los patrones o el conjunto de entrenamiento y, sin embargo, ejecutar un desarrollo
peor sobre nuevos vectores presentados para la clasificación. Este problema equivale al
sobreajuste de los datos.
Al igual que ocurre con la regresión polinomial, un ajuste exacto de los datos a un modelo
incorrecto o el ajuste de datos ruidosos puede resultar en una variabilidad de la función ajustada
o en el desarrollo de la red. Si los datos poseen algo de ruido y se ha elegido el número correcto
de unidades ocultas, la red proporciona un desarrollo sin ruido y responde correctamente a
entradas nuevas. Esto es lo que se conoce como capacidad de generalización de la red. La
generalización correcta de un número elevado de variables de entrada confusas y relacionadas
INTRODUCCIÓN
-77-
de forma no lineal es uno de los atributos más poderosos de la red de retropropagación.102
i) Relación Con Modelos Polinomiales.
Un modelo polinomial que exhibe el desarrollo del modelo de retropropagación requiere
numerosos términos cruzados de orden elevado. Estos términos surgen como consecuencia de
la necesidad de simular las ausencias de linealidad de las funciones de apilamiento que han de
emplearse. Hay que recordar, que capa por capa, la red suministra combinaciones no lineales en
otras combinaciones del mismo tipo. Una función polinomial equivalente sería virtualmente
imposible de ajustar por el método estándar de los mínimos cuadrados lineales, el cual
proporciona un conjunto de ecuaciones normales. El número de términos y ecuaciones sería
increíblemente grande, y los puntos de datos (vectores característicos) insuficientes para
establecer valores de los coeficientes. En cambio, la red de retropropagación es capaz de
desarrollar este problema como si sólo hubiese dado importancia a los términos de orden más
alto, eliminando a los otros. Esto no implica que la red neuronal sea un modelo polinomial, sino
que se pueden establecer ciertas similitudes entre ambos casos.102
j) Algunas Aplicaciones De Las Redes Neuronales.
El cálculo con redes neuronales ha suscitado un enorme interés no sólo en el campo de la
Química, sino en multitud de disciplinas relacionadas con aquella, como por ejemplo,
Bioquímica, Farmacia, Medicina e Ingeniería Química, entre otras.
En la literatura se dan cita gran número de artículos que cubren un amplio espectro acerca
del uso de las redes neuronales en química: problemas espectroscópicos (IR, masas, 1H-RMN,13C-RMN, XPS, AES, etc.) que incluyen calibración; estudios sobre aplicación de electrodos
selectivos de iones; estudios de relación cuantitativa estructura/actividad o QSAR; predicción
de la estructura secundaria de las proteínas; predicción de fallos y diagnóstico de sus posibles
causas durante el control de procesos químicos; en tecnología de microsensores metalocerámicos
gaseosos; determinación de parámetros cinéticos y clasificación de niveles de energía atómica.
Además, se han empleado muchas técnicas analíticas en combinación con redes neuronales:
voltamperometría de redisolución anódica, cíclica y de pulso diferencial, casi todas las
espectroscopías, análisis térmico, cromatografía, etc.
Se han publicado gran cantidad de artículos teóricos que discuten las propiedades,
algoritmos mayoritarios, ventajas y limitaciones de las redes neuronales, junto con algunas de sus
aplicaciones. En uno de ellos, se presentan cuatro problemas en el uso de dichos métodos para
INTRODUCCIÓN
-78-
la modelización de datos: sobreajuste, efectos de cambio, sobreentrenamiento e interpretación.97
Otros autores emplearon redes neuronales artificiales para la deconvolución cuantitativa de
espectros de masas de pirólisis de Staphylococcus aureus mezclado con Escherechia coli.
No obstante, hay todavía muy poco escrito sobre redes neuronales y electroquímica. A
continuación, se comentarán algunas de las aplicaciones más importantes en este campo de la
Química.
Bos et al. han aplicado redes neuronales artificiales de alimentación directa para calibración
no lineal de series de electrodos selectivos de iones. Analizaron sistemas de 4 componentes: Ca2+,
K+, Cl- y NO-3. Además, incluyeron un electrodo de pH. El error medio obtenido fue de ± 6 %.
Del mismo modo, hicieron uso de una red recurrente con topología en malla que proporciona un
camino de retroalimentación para la calibración no lineal multivariante de un sistema de dos
componentes: Ca2+ y Cu2+. No obstante, esta aplicación presenta un problema: el entrenamiento
de la red para electrodos selectivos de iones es muy lento.103, 104
Cladera et al. han empleado también redes neuronales, junto con métodos de análisis
multicomponente basados en regresión lineal múltiple, para la resolución de señales muy
solapadas obtenidas por voltamperometría de redisolución anódica de pulso diferencial. Dichos
procedimientos fueron aplicados al muy conocido modelo químico compuesto por Pb(II), Tl (I),
In (III) y Cd (II) en mezclas binarias, ternarias y cuaternarias. Posteriormente, la metodología
propuesta por los autores fue utilizada en la determinación de esos cuatro metales en agua del
grifo.
En este trabajo, se hace uso de diferentes arquitecturas de redes neuronales multicapa, cuyas
unidades de procesamiento aplican funciones de activación sigmoidales, y en la fase de
entrenamiento se utiliza el algoritmo de retropropagación, el cual ajusta los pesos minimizando
el error a través del método del gradiente descendente. Los vectores de entrada estaban
constituidos por 30 valores de intensidad correspondientes a potenciales igualmente espaciados,
procedentes de los voltamperogramas de redisolución anódica. Las salidas de la red fueron las
4 concentraciones de cada uno de los componentes presentes en las distintas muestras. A partir
de 61 mezclas sintéticas, 48 fueron elegidas al azar como conjunto de entrenamiento y las 13
restantes formaron el conjunto de predicción.
Con idea de estudiar la capacidad de la red para resolver el sistema estudiado, se probaron
diferentes estructuras neuronales, todas ellas compuestas por tres capas: una capa de entrada, otra
oculta y una tercera de salida. El mejor resultado lo alcanzó la arquitectura 15 × 7 × 4.
En la comparación de los métodos de análisis multicomponente con las redes, se alcanzó
un 30 % menos de error en el segundo caso. En la regresión, los errores eran inferiores para
plomo y talio, mientras que las redes proporcionaban mejores resultados para indio y cadmio.105
INTRODUCCIÓN
-79-
Otra aplicación de redes neuronales, pero esta vez en la deconvolución de picos solapados
en cromatografía, es la llevada a cabo por Miao et al. La idea básica de este método consistía en
encontrar un conjunto de parámetros que caracterizaran la forma de los picos solapados y emplear
una red de perceptrones multicapa para correlacionar los parámetros con el porcentaje de área
de cada pico individual.
La ventaja de esta técnica es que se desarrolla muy bien, alcanzando una gran exactitud en
las determinaciones y requiriendo menos tiempo de cálculo computacional que otros métodos
convencionales.
La red neuronal empleada fue una red de alimentación directa multicapa entrenada por
medio del algoritmo de retropropagación. La arquitectura era 5 × 10 × 1.Cada patrón de entrada
estaba compuesto por un vector de cinco componentes (5 parámetros adimensionales que
relacionaban la anchura y altura relativa de los picos solapados); por otra parte, el porcentaje de
área de cada pico constituía el vector de salida (el número de componentes era variable en
relación con el número de patrones de la mezcla analizada).
500 patrones fueron seleccionados al azar, a partir de un conjunto de 630, para el
entrenamiento de la red. Los restantes se emplearon para estudiar el desarrollo de la red y su
habilidad de predicción. Además, la robustez de la estructura fue probada mediante la adición
de un 10 % de error relativo a las entradas de la misma, de tal modo, que el error en las salidas
no excedió del 6 %. Incluso cuando se tomaron cinco parámetros característicos, procedentes de
varios picos solapados sintetizados a partir de un modelo Gaussiano modificado
exponencialmente (EMG), el error relativo de la salida en la red rara vez superó el 4 %.
Comparando la exactitud de la red con otros métodos de resolución, tales como el método
de división por línea vertical y el de ajuste de curvas, resultó que la red neuronal era mucho
mejor, sin importar la severidad del solapamiento entre los picos cromatográficos. Como la red
entrenada sólo necesita un tiempo de cálculo pequeño para procesar los patrones de entrada, el
método de deconvolución por redes neuronales artificiales supone un sistema útil para su
aplicación en tiempo real.106
Las redes neuronales no se emplean solo para resolver especies en mezclas, sino también
para casos donde se desea extender el rango de respuesta de un sensor de pH de fibra óptica. Tal
es el caso del artículo escrito por Taib et al.
Gracias a su capacidad para modelizar sistemas complejos no lineales y proporcionar datos
precisos mediante su extracción desde las señal medida con una muy baja relación señal/ruido,
los autores decidieron emplear las redes neuronales para procesar la respuesta de un sensor de
pH de fibra óptica. La arquitectura utilizada fue la de una red de alimentación directa con una
única capa oculta: 8 × 20 × 1. En este caso, a diferencia de los anteriores, el algoritmo para el
INTRODUCCIÓN
-80-
entrenamiento de la red fue el algoritmo del error de predicción recursivo. El principal objetivo
era extender la linealidad de la respuesta del sensor mientras que, al mismo tiempo, el error de
predicción se mantenía en un nivel aceptable. Otra variación con respecto a los trabajos anteriores
es que las neuronas emplean una función de apilamiento sigmoidal lineal, con vistas a alcanzar
un rango dinámico más amplio para la salida de la red.
Los vectores de entrada estaban compuestos por ocho puntos procedentes de espectros de
reflectancia del sensor de pH óptico. Se obtuvieron 30 espectros distintos, formando 4 de ellos
el conjunto de predicción y los restantes el de entrenamiento. La salida obtenida poseía una única
componente: el pH.
El entrenamiento de la red se ejecutó mediante 20000 ciclos, haciendo uso de varias
estructuras de red que variaban en el número de neuronas de la capa oculta: de 1 a 20; se obtuvo
la convergencia más rápida para 17 neuronas en la capa oculta. Para evaluar el efecto de
aumentar los ciclos de entrenamiento se eligieron varias arquitecturas de red, sometiéndolas a
otros 20000 ciclos, sin que por ello se alcanzara mejora alguna en la exactitud de la predicción.
En el estudio de robustez de las redes, se aplicó ruido blanco a las entradas en el intervalo de ±
0,03 %, identificándose el tipo de red que proporcionaba un menor error (0,01 pH) y que, por
tanto, era más robusta. La peor dio un error de 0,07 - 0,08 pH..
Las conclusiones fueron que una red con arquitectura 8 × 13 × 1 resultó la más útil para el
propósito perseguido.98
Una última aplicación, también muy alejada de la resolución de mezclas, es la de Yatsenko.
En su trabajo, investiga la influencia de contaminantes en objetos biológicos, tales como sistemas
fotosintetizadores, en orden a revelar las capacidades y características de sus aplicaciones como
sensores controlantes en microsistemas de monitorización ecológica integral. Este autor propuso
la elaboración de sensores inteligentes en base a tres aspectos: la tecnología de redes neuronales;
la posibilidad de separar las características de las sustancias disueltas en agua por medio de
métodos de reconocimiento de patrones en el espacio funcional de las curvas de fluorescencia
y los resultados del análisis cromatográfico de muestras de agua estándar. Este sensor permite
predecir el estado del agua (desde muy contaminada a muy pura) y toma las decisiones óptimas
para corregir las condiciones del ecosistema. La eficacia de tal sistema para análisis de agua
puede mejorarse utilizando el principio de medida dual, el cual sugiere la identificación de un
modelo de biosensor que esté de acuerdo con los datos experimentales.
Los objetos de estudio fueron: plantas, algas, centros de reacción extraídos, bacterias
fotosintéticas y películas de Langmuir-Blodgett-Shefer tomadas a partir de centros de reacción
de la bacteria púrpura Rh. Sphaeroides. Las muestras de agua examinadas procedían de diferentes
estanques artificiales. Se estudió la influencia ejercida por diversos contaminantes (herbicidas,
INTRODUCCIÓN
-81-
metales pesados, etc.) sobre las características funcionales de los objetos fotosintéticos. Las
curvas de fluorescencia retardada y de inducción de fluorescencia fueron examinadas para este
propósito, ya que reflejan respuestas frente a condiciones desfavorables en el ambiente.
Mediante el uso de un chip neuronal basado en neuronas probabilísticas se reconocieron
las características de los contaminantes del agua: una vez acabado el entrenamiento, el sistema
de reconocimiento de patrones efectúa un diagnóstico con respecto a la calidad del agua en
función del grado de pertenencia del objeto a la noción “agua pura” o “agua contaminada”.
Este artículo junto con otros constituye un primer paso hacia la construcción de una teoría
matemática de sensores.107
SISTEMAS EXPERTOS Y MODELOS BORROSOS.
Los sistemas expertos son productos de software que incorporan el conocimiento de un
experto e intentan hacer consistentes las decisiones sobre la base de este conocimiento. Consiste
fundamentalmente de dos partes: el conocimiento base y la deducción de una máquina que toma
decisiones basándose en el contenido de la base de conocimiento.
En general, esta técnica traslada un método heurístico a un árbol de decisión que puede
implementarse para automatizar el análisis de los datos para un problema particular. No obstante,
posee un inconveniente: la exactitud de la clasificación se basa únicamente en la comprensión
del problema por parte del programador y en su habilidad para prever el flujo de muestras de
difícil clasificación a través del árbol de decisión.
Por contra, presenta una ventaja: no requiere el tradicional conjunto de entrenamiento para
establecer las reglas de clasificación. No obstante, aunque parezca paradójico, a la hora de
establecer esas reglas, lo cual debe hacerse de alguna forma, se necesita una serie de datos de
entrenamiento.52
En los denominados sistemas expertos de construcción de reglas, el conocimiento puede
introducirse a modo de ejemplos, es decir, como una base de datos que contiene un conjunto de
observaciones hechas sobre varios objetos con una clasificación conocida.63
a) Aplicaciones De Los Sistemas Expertos.
Por citar algunas aplicaciones de los sistemas expertos, Rusling desarrolló una nueva
técnica denominada reconocimiento de patrones de desviación, una clasificación llevada a cabo
sobre los residuos producidos por el ajuste mediante regresión lineal a un voltamperograma
experimental. Está basado en un sistema experto que conduce el proceso de desarrollo de una
INTRODUCCIÓN
-82-
regresión no lineal analizando el gráfico de dispersión de las desviaciones y seleccionando el
mecanismo apropiado.
Inicialmente, todo el conjunto de datos se ajustan con una regresión no lineal al mismo
mecanismo. El análisis de los residuos determina luego el camino a tomar a través del árbol de
decisión. La clasificación continúa automáticamente hasta que se identifica el mecanismo
correcto, indicado por una distribución de los residuos de regresión, o hasta que el sistema
experto sea incapaz de igualar el voltamperograma con cualquiera de los mecanismos presentes
en el árbol de decisión.101, 102
Una versión simplificada se utilizó luego en otras investigaciones para distinguir
voltamperogramas catalíticos solapados de los correspondientes a sistemas no catalíticos.
En resumen, los sistemas expertos constructores de reglas están disponibles comercialmente
a nivel de usuario y poseen una importante desventaja: los algoritmos empleados en ellos para
derivar las reglas de decisión no son óptimos para todas las aplicaciones. Además, las técnicas
supervisadas son bastante poderosas, sobre todo las técnicas de modelización probabilística. De
este modo, una combinación de ambas, denominada “incorporación de los algoritmos de
modelización a la trama de un sistema experto”, podría suponer una herramienta muy atractiva
y útil para la mayoría de las aplicaciones supervisadas.
b) Modelos Borrosos.
Aproximaciones estadísticas del tipo del análisis de componentes principales, análisis de
clusters y redes neuronales no supervidadas, al igual que sistemas basados en el conocimiento,
como las máquinas de aprendizaje, presentan una serie de problemas generales a la hora de
interpretar las señales. Estos problemas pueden ser de tres tipos:
w Problema de discretización: aquellos parámetros que un hombre colocaría dentro de
un intervalo determinado, aunque no pertenezca específicamente a él, no son vistos
de la misma manera por cualquiera de los métodos enumerados anteriormente, ya que
estos son mucho más rígidos y taxativos en este sentido, pudiendo dar lugar a errores
de interpretación.
w Problema de decisión: las decisiones han de basarse siempre en un criterio exacto y
han de ser lo más generales posibles.
w Problema de la representación del conocimiento: sobre todo cuando se emplean
sistemas simbólicos, como por ejemplo, haciendo uso de colores. El color verde y el
azul son suministrados al sistema y cuando se presenta el elemento verdoso o
INTRODUCCIÓN
-83-
m xA X
( ) =∈ ⊆∉ ⊆
1
0
si x A X
si x
azulado, el sistema no será capaz de igualarlo a ninguno de los existentes en su
memoria.
w Problema de adquisición del conocimiento: una máquina de aprendizaje puede
desarrollarse tanto por métodos numéricos y estadísticos como por procesamiento del
conocimiento simbólico. Hasta ahora, sin embargo, estas dos aproximaciones no se
han empleado conjuntamente. Por ello, son necesarios métodos que sean capaces de
adquirir conocimiento numérico y simbólico con la misma aproximación general.
La aproximación que permitirá resolver los problemas antes comentados se basa en
sistemas borrosos. La idea básica de la lógica borrosa fue introducida por Zadeh en 1965. Desde
entonces, esta teoría se ha empleado principalmente en control industrial, pero otras áreas tales
como sistemas expertos y análisis de datos borrosos se han hecho muy importantes. En Química,
la primera aplicación estuvo relacionada con la búsqueda en librerías en el intervalo espectral del
IR.
La teoría del conjunto borroso se desarrolló con vistas a representar el conocimiento
incierto. En general, hay varios tipos de incertidumbre. Si se caracteriza la selectividad de un
sistema espectroscópico como “que apenas es selectivo”, entonces esta clase de incertidumbre
se denomina ausencia de especificidad. No somos capaces de caracterizar la selectividad, sino
sólo de catalogarla como una amplia categoría que es miembro de algún conjunto. La
incertidumbre sobre los resultados de un experimento analítico es una clase de variabilidad que
se interpreta normalmente como aleatoriedad. Una tercera y última clase es la borrosidad, que
se adscribe a situaciones donde no se puede establecer ninguna distinción rigurosa entre un
concepto y su negación.
Mediante los modelos borrosos no se pretende estabilizar o eliminar esa incertidumbre, sea
de la naturaleza que sea, sino que se intenta describirla lo más acertadamente posible mediante
una función matemática, la denominada función de pertenencia.
En la teoría clásica, la función de pertenencia se define única y exclusivamente para dos
valores, esto es, 1 y 0. Se asigna el valor de pertenencia de 1 para todos los elementos que están
contenidos en el subconjunto considerado, A, del universo X. El valor de 0 es para aquellos
elementos que no forman parte de A:
Los modelos borrosos comprenden el concepto de pertenencia gradual a un conjunto. De
este modo, la función de pertenencia, m(x), puede representar cualquier función de crecimiento
INTRODUCCIÓN
-84-
o decrecimiento monótono.
La información obtenida a partir de las señales puede utilizarse tanto en forma continua
(todos los puntos de la señal al completo) como en forma discreta (tablas con parámetros
característicos de la señal). Para describir la incertidumbre de la señal al completo, las
intensidades medidas (eje Y) se consideran como números borrosos para cada valor frente al cual
se representa dicha señal (eje X). El grado de incertidumbre puede variar de un valor xi a otro
(realmente, se producen variaciones de la distribución de la función de pertenencia). Además, no
existe ninguna restricción con respecto a la simetría de la función de pertenencia sobre la variable
intensidad. Si la señal se representa mediante una tabla de parámetros (intensidad, posición y
anchura de pico en voltamperometría) la incertidumbre se representa mediante un conjunto
borroso.
Aparte de la información primaria, comentada anteriormente, que puede extraerse de
cualquier señal, un conocimiento experimental incierto ha de tratarse en conexión con un sistema
de interpretación. Por ejemplo, en espectroscopía de emisión atómica acoplada con plasma
inductivamente o ICP-AES, un hecho típico podría ser el siguiente: “han de encontrarse la
mayoría de líneas importantes de un elemento”. Esto implica que se deben encontrar tantas líneas
como puedan ser detectadas. Una función de pertenencia útil para la “mayoría” aumenta
conforme se incrementa el número de líneas detectadas.
Algunas veces la importancia de este hecho borroso se expresa por medio de un valor de
pertenencia en el sentido de un valor de incertidumbre o de Bayes. Por ejemplo, si un pico a -
0,520 V indica la presencia de Pb (II) y la muestra posee un pico a -0,520 V para un valor de
pertenencia de 0,80, entonces la muestra posee indicaciones de la presencia de Pb (II) hasta un
valor verdadero de 0,75.
Esta teoría es descrita por Otto para la interpretación de espectros. Como paso preliminar
a dicha interpretación, se emplea la búsqueda en librerías espectrales para estrechar cuanto sea
posible el rango de moléculas o elementos candidatos. Esta búsqueda se realiza teniendo en
cuenta las dos formas en las que se puede presentar la incertidumbre de una señal: en forma
continua, usando el espectro completo (funciones borrosas), o mediante tablas de parámetros
(conjuntos de datos borrosos). La comparación entre los espectros de las librerías y el de la
muestra se lleva a cabo mediante sustracciones borrosas, generándose un índice de similitud
deducido a partir de la integración sobre la función de diferencia borrosa y normalizando el
número resultante en el intervalo [0, 1].
El modelo borroso que representa la posición, intensidad o anchura de la banda se halla
también de forma similar.
Según Otto, la interpretación de los espectros mediante razonamiento borroso se realiza en
INTRODUCCIÓN
-85-
base a una serie de aproximaciones. La formulación de un conjunto apropiado de reglas
constituye la base para los diferente métodos de inferencia empleados. Para ello se puede emplear
la regla composicional de inferencia introducida por Zadeh, cuya aplicación al razonamiento
espectral es directa. Por otro lado, existe el esquema de razonamiento de Yager. La ventaja de
éste radica en su viabilidad de aplicación para razonamientos por defecto y su flexibilidad para
elegir los conectivos AND y OR, convencionalmente mínimo y máximo, respectivamente, así
como el operador de agregación.
El autor explica que los primeros pasos en la implementación de un razonamiento borroso
se llevaron a cabo para la interpretación de espectros obtenidos mediante la técnica ICP-AES,
en XRF y en sistemas de interpretación de IR. Sin embargo, hasta ahora, sólo se han aplicado
inferencias simples tal que el procesamiento del conocimiento borroso constituye un reto a la
hora de implementarlo en sistemas de interpretación de espectros.
En los comienzos del desarrollo de los sistemas de interpretación de espectros, las reglas
fueron derivadas únicamente a partir del conocimiento del experto. Esto mismo es aplicable para
especificar las funciones de pertenencia en sistemas expertos borrosos que tengan en cuenta la
incertidumbre en el sentido de la borrosidad. Las fuentes para especificar los conjuntos borrosos
fueron, por tanto, la experiencia, aspectos subjetivos y la orientación sobre material estadístico.
Esta estrategia se puede aplicar con éxito si se consideran una o dos variables, con una
función de pertenencia uni- o bidimensional, respectivamente, y si el sistema en estudio se
encuentra bien definido. Sin embargo, con funciones de pertenencia multidimensionales la
especificación de dicha función es muy difícil.
Como consecuencia de esto, las investigaciones llevadas a cabo recientemente han ido
dirigidas hacia la aplicación e implementación de los modelos borrosos en redes neuronales
artificiales.108
BIBLIOGRAFÍA.
1.- Skoog, D.A. y Leary, J.J.; Análisis Instrumental (1996) 4ª Ed. Ed. McGraw-Hill. pág. 624.
2.- Skoog, D.A. y Leary, J.J.; Análisis Instrumental (1996) 4ª Ed. Ed. McGraw-Hill. pág. 625.
3.- Skoog, D.A. y Leary, J.J.; Análisis Instrumental (1996) 4ª Ed. Ed. McGraw-Hill. pág. 626.
4.- Almagro Huertas, V. Polarografía (1971) 1ª Ed. Ed. Alhambra, S.A. pág. 63.
5.- Almagro, V. Teoría y Práctica de Electroanálisis (1969) 1ª Ed. Ed Alhambra, S.A. pág. 173.
6.- Sánchez Batanero, P. Química Electroanalítica: Fundamentos y Aplicaciones (1981) Alhambra
Universidad. pág. 248.
7.- Almagro Huertas, V. Polarografía (1971) 1ª Ed. Ed. Alhambra, S.A. págs. 2 y 64.
INTRODUCCIÓN
-86-
8.- Sánchez Batanero, P. Química Electroanalítica: Fundamentos y Aplicaciones (1981) Alhambra
Universidad. págs. 252 y 253.
9.- Almagro Huertas, V. Polarografía (1971) 1ª Ed. Ed. Alhambra, S.A. págs. 4, 5 y 146.
10.- Skoog, D.A. y Leary, J.J.; Análisis Instrumental (1996) 4ª Ed. Ed. McGraw-Hill. pág. 651.
11.- Strobel, H.A.; Instrumentación Química (1982) 1ª Ed. Ed Limusa. pág. 585.
12.- Almagro Huertas, V. Polarografía (1971) 1ª Ed. Ed. Alhambra, S.A. págs. 12 y 13.
13.- Almagro Huertas, V. Polarografía (1971) 1ª Ed. Ed. Alhambra, S.A. pág. 178.
14.- Almagro Huertas, V. Polarografía (1971) 1ª Ed. Ed. Alhambra, S.A. pág. 181.
15.- Almagro Huertas, V. Polarografía (1971) 1ª Ed. Ed. Alhambra, S.A. pág. 192.
16.- Almagro Huertas, V. Polarografía (1971) 1ª Ed. Ed. Alhambra, S.A. pág. 204.
17.- Almagro Huertas, V. Polarografía (1971) 1ª Ed. Ed. Alhambra, S.A. pág. 212.
18.- Almagro Huertas, V. Polarografía (1971) 1ª Ed. Ed. Alhambra, S.A. pág. 216.
19.- Almagro Huertas, V. Polarografía (1971) 1ª Ed. Ed. Alhambra, S.A. pág. 218.
20.- Almagro Huertas, V. Polarografía (1971) 1ª Ed. Ed. Alhambra, S.A. pág. 219.
21.- Almagro Huertas, V. Polarografía (1971) 1ª Ed. Ed. Alhambra, S.A. pág. 221.
22.- Almagro Huertas, V. Polarografía (1971) 1ª Ed. Ed. Alhambra, S.A. pág. 226.
23.- Almagro Huertas, V. Polarografía (1971) 1ª Ed. Ed. Alhambra, S.A. pág. 231.
24.- Almagro Huertas, V. Polarografía (1971) 1ª Ed. Ed. Alhambra, S.A. pág. 232.
25.- Almagro Huertas, V. Polarografía (1971) 1ª Ed. Ed. Alhambra, S.A. pág. 236.
26.- Almagro Huertas, V. Polarografía (1971) 1ª Ed. Ed. Alhambra, S.A. pág. 234.
27.- Almagro Huertas, V. Polarografía (1971) 1ª Ed. Ed. Alhambra, S.A. pág. 241.
28.- Almagro Huertas, V. Polarografía (1971) 1ª Ed. Ed. Alhambra, S.A. pág. 158.
29.- Skoog, D.A. y Leary, J.J.; Análisis Instrumental (1996) 4ª Ed. Ed. McGraw-Hill. pág. 539.
30.- GrabariÉ, Z.; GrabariÉ. B.S.; Esteban, M. y Cassasas, E.; Anal. Chim. Acta. 312, 27 (1995).
31.- Almagro Huertas, V. Polarografía (1971) 1ª Ed. Ed. Alhambra, S.A. pág. 157.
32.- Gutknecht, W,F. y Perone, S.P.; Anal. Chem. 42, 906 (1970).
33.- Strobel, H.A.; Instrumentación Química (1982) 1ª Ed. Ed Limusa. pág. 547.
34.- Skoog, D.A. y Leary, J.J.; Análisis Instrumental (1996) 4ª Ed. Ed. McGraw-Hill. pág. 650.
35.- Sánchez Batanero, P. Química Electroanalítica: Fundamentos y Aplicaciones (1981) Alhambra
Universidad. pág. 254.
36.- Strobel, H.A.; Instrumentación Química (1982) 1ª Ed. Ed Limusa. pág. 545.
37.- GrabariÉ, B.S.; O´Halloran, R.J. y Smith, D.E.; Anal. Chim. Acta. 133, 349 (1981).
38.- Raspor, B.; Pizçta, I. y Branica, M.; Anal. Chim. Acta. 285, 103 (1994).
39.- Bond, A.M. y GrabariÉ, B.S.; Anal. Chem. 48, 1624 (1976).
40.- Strobel, H.A.; Instrumentación Química (1982) 1ª Ed. Ed Limusa. pág. 575.
INTRODUCCIÓN
-87-
41.- Boudreau, P.A. y Perone, S.P.; Anal. Chem. 51, 811 (1979).
42.- Berzas Nevado, J.J. y Rodríguez Flores, J.; Fresenius J. Anal. Chem. 342, 273 (1992).
43.- Huang, W.; Henderson, T.L.; Bond, A.M. y Oldham, K.B.; Anal. Chim. Acta. 304, 1 (1995).
44.- Strobel, H.A.; Instrumentación Química (1982) 1ª Ed. Ed Limusa. pág. 574.
45.- GrabariÉ, Z.; GrabariÉ. B.S.; Esteban, M. y Cassasas, E.; Analyst. 121, 1845 (1996).
46.- Almagro Huertas, V. Polarografía (1971) 1ª Ed. Ed. Alhambra, S.A. pág. 134.
47.- Almagro Huertas, V. Polarografía (1971) 1ª Ed. Ed. Alhambra, S.A. pág. 135.
48.- Sánchez Batanero, P. Química Electroanalítica: Fundamentos y Aplicaciones (1981) Alhambra
Universidad. pág. 273.
49.- Almagro Huertas, V. Polarografía (1971) 1ª Ed. Ed. Alhambra, S.A. pág. 132 y 133.
50.- Perone, S.P.; Jones, D.O. y Gutknecht, W. F. Anal. Chem. 41, 1154 (1969).
51.- Berzas Nevado, J.J.; Lemus Gallego, J.M. y Castañeda Peñalvo, G.; Anal. Quim. 89, 223
(1993).
52.- Brown, S.D. y Bear, R.S. Jr.; Crit. Rev. Anal. Chem. 24 (2), 99 (1993).
53.- Geladi, P. y Kowalsky, B.R.; Anal. Chim. Acta. 185, 1 (1986).
54.- Haaland, D.M. y Thomas, E.V.; Anal. Chem. 60, 1193 (1988).
55.- Espinosa-Mansilla, A.; Muñoz de la Peña, A. y Salinas, F.; Anal. Chim. Acta. 276, 141 (1993).
56.- McClaurin, P.; Worsfold, P.J.; Crane, M. y Norman, P.; Anal. Proc. 29, 65 (1992).
57.- Haaland, D.M. y Thomas, E.V.; Anal. Chem. 60, 1202 (1988).
58.- Haaland, D.M. y Thomas, E.V.; Anal. Chem. 62, 1098 (1990).
59.- Navarro-Villoslada, F.; Pérez-Arribas, L.V.; León-González, M.E. y Polo-Díez, L.M.; Anal.
Chim. Acta. 313, 93 (1995).
60.- Brown, S.D.; Anal. Chim. Acta. 181, 1 (1986).
61.- Brown, T.F.; Caster, D.M. y Brown, S.D.; Anal. Chem. 56, 1214 (1984).
62.- Binkley, D.P. y Dessy, R.E.; Anal. Chem. 52, 1335 (1980).
63.- Derde, M.P. y Massart, D.L.; Anal. Chim. Acta. 191, 1 (1986).
64.- Sybrandt, L.B. y Perone, S.P. Anal. Chem. 43, 382 (1971).
65.- Jones, R.; Coomber, T.J.; McCormick, J.P.; Fell, A.F. y Clark, B.J.; Anal. Proc. 25, 381 (1988).
66.- Ayuda del programa informático Statistica 5.1.
67.- Morrey, J.R.; Anal. Chem. 40, 905 (1968).
68.- Horlick, G.; Anal. Chem. 44, 943 (1972).
69.- Huang, W.; Henderson, T.L.E.; Bond, A.M. y Oldham, K.B.; Anal. Chim. Acta. 304, 1 (1995).
70.- Vandeginste, B.G.M. y De Galan, L. Anal. Chem. 47, 2124 (1975).
71.- Anderson, A.H.; Gibb, T.C. y Littlewood, A.B.; Anal. Chem. 42, 434 (1970).
72.- Westerberg, A.W.; Anal. Chem. 4, 1770 (1969).
INTRODUCCIÓN
-88-
73.- Fellinger, A.; Anal. Chem. 66, 3066 (1994).
74.- Goodman, K.J. y Thomas Brenna, J.; Anal. Chem. 66, 1294 (1994).
75.- Torres Lapasió, J.R.; Baeza-Baeza, J.J. y García-Álvarez-Coque, M.C.; Anal. Chem. 69, 3822
(1997).
76.- Foley, J.P; J. Chromatogr. 384, 301 (1987).
77.- Torres Lapasió, J.R.; Villanueva Camañas, R.M.; Sanchís Mallols, J.M.; Medina Hernández,
M.J. y García-Álvarez-Coque, M.C.; J. Chromatogr. 677, 239 (1994).
78.- Le-Vent, S.; Anal. Chim. Acta. 312, 263 (1995).
79.- Grushka, E.; Myers, N.M.; Schettler, P.D. y Giddings, J.C.; Anal. Chem. 41, 889 (1969).
80.- Berthod, A.; Anal. Chem. 63, 1879 (1991).
81.- Küllik, E.; Kaljurand, M. y Ess, L.; J. Chromatogr. 118, 313 (1976).
82.- Kirmse, D.W. y Westerberg, A.W.; Anal. Chem. 43, 811 (1979).
83.- Raspor, B.; Pizçta, I. y Branica, M.; Anal. Chim. Acta. 285, 103 (1994).
84.- Hayes, J.W.; Glover, D.E.; Smith, D.E. y Overton, M.W.; Anal. Chem. 45, 277 (1973).
85.- O´Halloran, R.J. y Smith, D.E.; Anal. Chem. 50, 1391 (1978).
86.- Smith, D.E.; Anal. Chem. 48, 517A (1976).
87.- Schwall, R.J.; Bond, A.M. y Smith, D.E.; Anal. Chem. 49, 1805 (1977).
88.- Schwall, R.J.; Bond, A.M., Loyd, R.J.; Larsen, J.G. y Smith, D.E.; Anal. Chem. 49, 1797
(1977).
89.- Smith, D.E.; Anal. Chem. 48, 221A (1976).
90.- Jáñez Escalado, L.; Fundamentos de Psicología Matemática (1989) Ed. Pirámide.
91.- Pizçta, I.; Anal. Chim. Acta. 285, 95 (1994).
92.- Bond, A.M. y GrabariÉ, B.S.; Anal. Chem. 51, 337 (1979).
93.- Marshall, A.G. y Comisarow, M.B.; Anal. Chem. 47, 491A (1975).
94.- Hilera, J.R. y Martínez, V.J.; Redes Neuronales Artificiales. Fundamentos, Modelos y
Aplicaciones (1995) Ed. RA-MA. pág. 9.
95.- Janson, P.A.; Anal. Chem. 63, 357A (1991).
96.- Hilera, J.R. y Martínez, V.J.; Redes Neuronales Artificiales. Fundamentos, Modelos y
Aplicaciones (1995) Ed. RA-MA. pág. 12.
97.- Zupan, J. y Gasteiger, J.A.; Anal. Chim. Acta. 248, 1 (1991).
98.- Taib, M.N.; Andrés, R. y Narayanaswamy, R.; Anal. Chim. Acta. 330, 31 (1996).
99.- Hilera, J.R. y Martínez, V.J.; Redes Neuronales Artificiales. Fundamentos, Modelos y
Aplicaciones (1995) Ed. RA-MA. pág. 75 - 89.
100.- Hilera, J.R. y Martínez, V.J.; Redes Neuronales Artificiales. Fundamentos, Modelos y
Aplicaciones (1995) Ed. RA-MA. pág. 101 - 103.
INTRODUCCIÓN
-89-
101.- Rusling, J.F.; Anal. Chem. 55, 1719 (1983).
102.- Rusling, J.F.; Anal. Chem. 55, 1713 (1983).
103.- Bos, M.; Bos, A. y Van der Linden, W.E.; Anal. Chim. Acta. 233, 31 (1990).
104.- Van der Linden, W.E.; Bos, M. y Bos, A.; Anal. Proc. 26, 329 (1989).
105.- Cladera, A.; Alpízar, J.; Estela, J.M.; Cerdà, V.; Catasús, M.; Lastres, E. y García, L.; Anal.
Chim. Acta. 350, 163 (1997).
106.- Miao, H.; Yu, M. y Hu, S.; J. Chromatogr. A. 749, 5 (1996).
107.- Yatsenko, V.; J. Chromatogr. A. 722, 233 (1996).
108.- Otto, M.; Anal. Chim. Acta. 283, 500 (1993).
Capítulo 2:
Parte experimental:Instrumentación y
reactivos.
PARTE EXPERIMENTAL: INSTRUMENTACIÓN Y REACTIVOS
-91-
1. APARATOS Y MATERIAL UTILIZADO.
A) APARATOS.
Para la realización del trabajo experimental, se emplearon los aparatos que a continuación
se describen:
1) Las medidas voltamperométricas de las dos especies catiónicas, así como también las
de las mezclas, se realizaron en un sistema Autolab®/PGSTAT20 y Stand VA 663 de
Metrohm, compuesto por un electrodo de trabajo MME, un electrodo de referencia
Ag/AgCl/KCl (3M) y un electrodo auxiliar de platino.
El electrodo de trabajo MME (Multi Mode Electrode) es una combinación de tres tipos
de electrodos de mercurio: electrodo de gota colgante de mercurio (HMDE), electrodo
de gotas de mercurio (DME) y electrodo de gota estacionaria de mercurio (SMDE). La
modalidad en la que se ha utilizado en el presente trabajo es la de gota colgante o
suspendida (HMDE), seleccionándose su tamaño manualmente.
Autolab®/PGSTAT20 es un sistema de medida electroquímico controlado por ordenador
que, combinado además con un paquete de software denominado GPES (General
Purpose Electrochemical System), consiste en un sistema de adquisición de datos y un
potenciostato.
En un esquema de bloques puede representarse del siguiente modo:
PARTE EXPERIMENTAL: INSTRUMENTACIÓN Y REACTIVOS
-92-
donde las diferentes partes del sistema Autolab® se manejan mediante el ordenador.
El módulo DIO permite controlar el sistema de electrodos, de tal modo que, conectado
al Stand VA 663 Metrohm, se puede influir en el proceso de purga con nitrógeno, así
como en la agitación, y activar también el tiempo de goteo.
La interfaz para el electrodo de mercurio se denomina IME y proporciona todas las
órdenes y conexiones necesarias para los mismos, así como un sistema de martilleo para
generar las gotas en los DME; controla, además, la salida de mercurio por el capilar
mediante la presión de nitrógeno.
El potenciostato ofrece la posibilidad de aplicar un barrido de potenciales controlado y
medir intensidades (o la opción inversa cuando actúa como galvanostato). Los rangos
de corriente, así como el resto de los parámetros y condiciones de medida, se introducen
por medio del software incluido en el ordenador.1
El Stand VA 663 de Metrohm permite seleccionar la modalidad de electrodo de
mercurio a utilizar y el tamaño de gota, sirviendo también como soporte a la celda
electroquímica y a los tres electrodos.
2) Otros aparatos empleados fueron los siguientes:
ORDENADOR
AUTOLAB
IMPRESORA
POTENCIOSTATODIO
IME STAND CON CELDAELECTROQUÍMICA
Cuadro1: Diagrama de bloques de la instrumentación empleada.
PARTE EXPERIMENTAL: INSTRUMENTACIÓN Y REACTIVOS
-93-
w Las medidas de pH se efectuaron en un pH-metro digital MicropH-2002 Crison.
w La agitación de algunas disoluciones se llevó a cabo en un agitador magnético
Agimatic-P de Selecta.
w Las sustancias fueron pesadas en una balanza analítica Mettler AE 240 de dos
campos: uno de 40 mg con detección hasta 0,01 mg y otro de 200 g con detección
hasta 0,1 mg. Uno u otro campo se empleó según la precisión requerida.
w Como fuente de nitrógeno se dispuso de una botella AIR-LIQUIDE tipo N-55 con
válvula Alphagaz.
B) MATERIAL UTILIZADO.
Para las medidas voltamperométricas se emplearon celdas de 50 ml y las adiciones estándar
se realizaron con una pipeta de vidrio de 1 ml.
El material de vidrio habitual incluyó: pipetas, matraces aforados, vasos de precipitado, etc.
2. PRODUCTOS Y REACTIVOS EMPLEADOS.
Los reactivos se distribuyen en los siguientes grupos:
w Especies Catiónicas:
Tl+ TlNO3 MERCK p.a.
Pb2+ Pb(NO3)2 MERCK p.a.
w Especies del Medio Voltamperométrico:
Mercurio MERCK p.a.
Cloruro de potasio MERCK p.a.
Ácido acético glacial MERCK p.a.
Acetato amónico PANREAC p.a.
PARTE EXPERIMENTAL: INSTRUMENTACIÓN Y REACTIVOS
-94-
3. PREPARACIÓN DE DISOLUCIONES.
El procedimiento experimental llevó consigo la preparación y utilización de cierto número
de disoluciones. Mencionaremos en este apartado las más importantes o que sirvieron de base
para otras posteriores.
w Disoluciones de muestras patrones:
Para el talio (I) y el plomo (II) se prepararon disoluciones madre de 250 mg·l-1,
disolviendo las cantidades que se expresan en 50 ml de agua destilada:
Tl+ 0,0168 g de TlNO3
Pb2+ 0,0199 g de Pb(NO3)2
A partir de ellas se obtuvieron sendas disoluciones de los dos cationes metálicos con
una concentración final de 25 mg·l-1.
w Disolución de cloruro de potasio (3M):
Empleada como electrolito de relleno en el electrodo de referencia de Ag/AgCl/KCl.
w Reguladora:
La reguladora utilizada fue 2 M de AcOH + 2 M AcONH4. Se tomaron 154,164 g de
AcONH4 y 114,61 ml de AcOH y se llevaron a un matraz aforado de 1 litro de
capacidad, enrasando con agua destilada. El pH final fue de 4,8 - 5,00.
La elección del medio indicado se llevó a cabo con vistas a obtener una señal lo más
definida y con la mayor intensidad posible, de acuerdo con la concentración existente
en la disolución para cada una de las especies por separado.
Así, en este medio y según la bibliografía consultada, el Tl+ debe presentar un
potencial de semionda situado a -0,43 V y el Pb2+ a -0,46 V aproximadamente, ambos
bastante bien definidos.2
PARTE EXPERIMENTAL: INSTRUMENTACIÓN Y REACTIVOS
-95-
4. DESCRIPCIÓN DEL MÉTODO EXPERIMENTAL.
A) ASPECTOS GENERALES DE LA TÉCNICA UTILIZADA.
La técnica voltamperométrica empleada para obtener los datos de medida de cada una de
los patrones y las mezclas fue la voltamperometría de redisolución.
En este procedimiento electroquímico, el analito se deposita primero sobre un
microelectrodo, normalmente desde una disolución agitada. Después de un tiempo perfectamente
medido, se detiene la electrólisis y la agitación y el analito depositado se determina mediante otro
procedimiento voltamperométrico. Durante esta segunda etapa del análisis, el analito del
microelectrodo se redisuelve, lo que da nombre al método.
En los métodos de redisolución anódica, el microelectrodo se comporta como un cátodo
durante la etapa de deposición y como un ánodo durante la etapa de redisolución, en la que el
analito es reoxidado a su forma original. En un método de redisolución catódica, el
microelectrodo se comporta como un ánodo durante la etapa de deposición y como un cátodo
durante la redisolución. La etapa de deposición equivale a una preconcentración electroquímica
del analito; esto es, la concentración del analito en la superficie del microelectrodo es mucho
mayor que en el seno de la disolución.
Los métodos de redisolución son de gran importancia en análisis de trazas, ya que el efecto
de concentración de la electrólisis permite la determinación en pocos minutos de un analito con
una exactitud razonable. De modo que es factible el análisis de disoluciones en el intervalo entre
10-6 y 10-9 M, por métodos que son a la vez sencillos y rápidos.
Veamos ahora cada una de las etapas del procedimiento por separado:
w Etapa de electrodeposición:
Normalmente, durante esta etapa sólo se deposita una fracción del analito y, por
tanto, los resultados cuantitativos dependen no sólo del control del potencial del
electrodo, sino también de factores tales como el tamaño del electrodo, la duración
de la deposición y de la velocidad de agitación, tanto de las disoluciones de la
muestra como de los estándares utilizados en el calibrado.
El electrodo más popular es el electrodo de gota colgante de mercurio (HMDE), que
consiste en una única gota de mercurio en contacto con un hilo de platino; no
obstante, existen otros tipos de electrodos: de oro, plata, platino y el carbono en
formas diversas. Sin embargo, el electrodo de mercurio parece dar resultados más
reproducibles, especialmente a concentraciones elevadas del analito. Por tanto, en la
PARTE EXPERIMENTAL: INSTRUMENTACIÓN Y REACTIVOS
-96-
mayoría de las aplicaciones se utiliza el HMDE.
Para llevar a cabo la determinación de un ión metálico por redisolución anódica, se
forma una nueva gota de mercurio, se empieza la agitación y se aplica un potencial
que es unas cuantas décimas de voltio más negativo que el potencial de pico del ión
que interesa. La deposición tiene lugar mediante un tiempo cuidadosamente medido.
Hay que resaltar que estos tiempos rara vez dan lugar a una eliminación completa del
ión. El periodo de electrólisis se determina en función de la sensibilidad del método
utilizado posteriormente para la realización del análisis.
w Etapa del análisis voltamperométrico:
El analito recogido en el electrodo de gota colgante puede determinarse por
cualquiera de los distintos procedimientos voltamperométricos existentes, siendo el
más ampliamente utilizado el método anódico de impulso diferencial. Por medio de
él, se obtienen a menudo picos estrechos que son especialmente adecuados cuando
se han de analizar mezclas.3
B) MÉTODO EXPERIMENTAL.
En el presente trabajo se ha hecho uso de un método de redisolución para la determinación
acuosa de iones Tl (I) y Pb (II) por separado, así como también de mezclas constituidas por
ambos cationes. El rango de concentraciones utilizado para ambos ha sido de 0,1 a 1,0 mg·l-1, con
una variación de 0,1 mg·l-1 entre un patrón y otro. Para completar el análisis se empleó el método
voltamperométrico de impulso diferencial. Es decir, la técnica que comúnmente se conoce por
el nombre de voltamperometría de redisolución anódica de impulso diferencial o DPASV.
Inicialmente, en todos los casos, se aplicó al microelectrodo un potencial catódico constante
de aproximadamente - 1,3 V, el cual provocó que tanto los iones Tl (I) como los iones Pb (II) se
redujeran y se depositasen como metales, formando una amalgama con el mercurio del electrodo.
Los procesos catódicos serían los siguientes:
Pb2+ + 2 e- ÷ Pb - Hg
Tl+ + e- ÷ Tl - Hg
El electrodo se mantiene a este potencial durante varios minutos hasta que una cantidad
significativa de los dos metales se haya depositado sobre la superficie de la gota de mercurio del
electrodo. Se detiene, entonces, la agitación durante unos 20 s, tiempo empleado para equilibrar
PARTE EXPERIMENTAL: INSTRUMENTACIÓN Y REACTIVOS
-97-
0,00E+00
5,00E-08
1,00E-07
1,50E-07
2,00E-07
2,50E-07
3,00E-07
3,50E-07
-0,90 -0,70 -0,50 -0,30 -0,10
E (V)
I (A
)
Pb (II)
Figura 1: Voltamperograma del patrón de Pb (II) a 1,0 mg·l-1.
y estabilizar el electrodo y la disolución. Finalmente, el potencial del electrodo se hace variar
linealmente hacia potenciales cada vez menos negativos, mientras que la intensidad de la celda
se registra en función del potencial; dicho registro también podría haberse hecho en función del
tiempo.
Paralelamente a la disminución lineal del potencial, se superponen una serie de escalones
o de pulsos de potencial, expresado en mV, de determinado valor, que constituyen la base de la
técnica de impulso diferencial.
La Figura 1 muestra el voltamperograma resultante para la determinación del ion Pb (II).
A un potencial algo menos negativo de -0,7 V el plomo comienza a oxidarse, causando un
aumento brusco de la intensidad hasta alcanzar un máximo a aproximadamente -0,52 V,
proporcional a la cantidad de Pb presente en la gota, disminuyendo posteriormente a su nivel
original.
Lo mismo sucede con el Tl (I) y con las mezclas de ambos cationes, excepto por un
desplazamiento del máximo de intensidad del pico, los cuales se obtienen a aproximadamente
a -0,50 y -0,51 V, respectivamente.
Si superponemos los voltamperogramas de ambos metales y el de la mezcla
correspondiente (Figura 2), puede observarse la diferencia tan pequeña que existe entre la
PARTE EXPERIMENTAL: INSTRUMENTACIÓN Y REACTIVOS
-98-
-7,00E-09
9,30E-08
1,93E-07
2,93E-07
3,93E-07
4,93E-07
5,93E-07
6,93E-07
-0,90 -0,70 -0,50 -0,30 -0,10
E (V)
I (A
) Tl (I)
Pb (II)
Mezcla
Figura 2: Superposición de los voltamperogramas del Tl (I) a 1,0 mg·l-1, Pb (II) a 1,0 mg·l-1 y lamezcla de ambos.
posición de los picos de los dos analitos. Como consecuencia de esto, si analizamos mediante
voltamperometría una disolución que contiene las dos especies, ambas se manifiestan como un
único pico cuya intensidad máxima es la suma de las intensidades de los picos que se obtienen
al determinar cada una de ellas individualmente. Por ello, se hace necesaria la separación de los
metales a la hora de analizar la concentración de dichos cationes en la disolución que se está
tratando.
Por último, las reacciones que se producen en la etapa de redisolución son las siguientes:
Pb - Hg ÷ Pb2+ + 2 e-
Tl - Hg ÷ Tl+ + e-
C) PARÁMETROS DEL PROGRAMA.
La voltamperometría de redisolución anódica fue desarrollada por el Autolab®/PGSTAT20,
anteriormente descrito. Los parámetros principales del programa empleado fueron los siguientes:
PARTE EXPERIMENTAL: INSTRUMENTACIÓN Y REACTIVOS
-99-
w Etapa de Purga:
! Tiempo de purga (con N2) = 300 s.
w Etapa de Deposición:
! Potencial de deposición = -1,3 V.
! Tiempo de deposición = 120 s.
! Tiempo de equilibrio = 20 s.
w Etapa de Redisolución y Medida:
! Potencial inicial = -1,3 V.
! Potencial final = 0 V.
! Potencial de “Stand by” = 0 V.
! Incremento de potencial = 0,0051 V.
! Amplitud de impulso = 0,10005 V.
! Tiempo de impulso = 0,07 s.
! Tiempo de repetición del impulso = 0,6 s.
w Otros Parámetros:
! Tamaño de gota = posición 3 (máximo) del Stand VA 663 de Metrohm, que
equivale a un área de 0,52 mm2 ± 10 %.
D) PROCEDIMIENTO DE ACTUACIÓN.
El procedimiento de actuación fue el que aparece descrito a continuación:
1. Una vez elegido y determinado el programa de aplicación de la técnica de DPASV,
se coloca la celda electroquímica en el Stand VA 663 de Metrohm con 25 ml de
reguladora 2 M de AcOH + 2 M AcONH4 y se procede a ejecutar el programa.
2. Primero se hace pasar un flujo de N2 a través de la misma durante 300 segundos, para
eliminar el oxígeno disuelto en la disolución (cuando sea necesario).
3. Seguidamente, se lleva a cabo la etapa de electrodeposición anteriormente descrita.
4. Después y, tras un tiempo de estabilización de unos 20 segundos, se continua el
proceso con la etapa de medida, que culmina con la obtención de una gráfica de
intensidad-potencial para el fondo de la reguladora, la cual es salvada en un archivo
con formato ASCII. Al mismo tiempo, el ordenador suministra la información
PARTE EXPERIMENTAL: INSTRUMENTACIÓN Y REACTIVOS
-100-
relacionada con los parámetros de la señal obtenida: EP, Ip, anchura de pico y su área,
así como también su derivada.
5. A continuación se añade el patrón a medir o las sustancias que componen la mezcla
y se comienza el programa de nuevo en el punto 2.
6. El resultado consiste también en un archivo que contiene pares de valores intensidad-
potencial, correspondientes a un patrón de Tl (I), Pb (II) o bien a una mezcla de
ambas especies.
7. Posteriormente, estos archivos reciben un formato más adecuado para su posterior
tratamiento matemático.
BIBLIOGRAFÍA.
1.- Eco Chemie; Manual de Autolab®. (1995).
2.- Metrohm; Polarografía, Voltamperometría de Redisolución, Fundamentos y Aplicaciones.
(1991).
3.- Skoog, D.A. y Leary, J.J.; Análisis Instrumental (1996) 4ª Ed. Ed. McGraw-Hill. pág. 653.
Capítulo 3:
Resultados obtenidos.
RESULTADOS OBTENIDOS
-102-
Todos los voltamperogramas obtenidos, tanto de las muestras puras como de las mezclas,
poseían inicialmente 259 puntos. Para su posterior tratamiento matemático, fueron recortados
hasta 80 puntos, en el intervalo de potenciales desde -0,70 hasta -0.30 V.
1. PATRONES PUROS DE TALIO.
Los resultados obtenidos en la determinación de los patrones puros de Tl (I) son los que
aparecen en la Tabla 1. En ella se recogen los valores para los distintos parámetros de pico de
todas y cada una de las muestras de talio (patrón 1), por triplicado (réplica), dentro del rango de
concentraciones de 0,1 a 1,0 mg·l-1. Dichos parámetros son los siguientes: volumen añadido
(Vol.) en ml, potencial (Pot.) en V, intensidad (Int.) en nA, área, anchura de pico en V, derivada,
desviación estándar de las réplicas de los patrones (Desv. Est.), intensidad media de las mismas
en nA (Int. Media) y concentración ([mg/l]).
En la Figura 1, aparecen superpuestos todos los gráficos de los patrones de talio en el rango
investigado. Son diez voltamperogramas que difieren unos de otros en una concentración de 0,1
mg·l-1.
Por último, se recogen los datos de la calibración efectuada en base a los 10 patrones de
talio analizados. En la Figura 2, aparece representada la recta de calibrado correspondiente, junto
con los datos relacionados con el ajuste.
RESULTADOS OBTENIDOS
-103-
Talio Patrón Réplica Vol. (ml) Pot. (V) Int. (nA) Área (10-8) Anchura (V) Derivada (10-7) Desv. Est. Int.Media (nA) [mg/l]Tl 0,1 1 1 0,1 -0,494 22,98 0,2768 0,111 5,767 0,04509 22,845 0,1Tl 0,1 1 2 0,1 -0,494 22,94 0,2755 0,111 5,715 0,04509 22,845 0,1Tl 0,1 1 3 0,1 -0,494 22,89 0,2743 0,111 5,744 0,04509 22,845 0,1Tl 0,2 1 1 0,2 -0,494 51,80 0,6315 0,111 13,060 0,59969 51,194 0,2Tl 0,2 1 2 0,2 -0,494 50,93 0,6161 0,111 12,670 0,59969 51,194 0,2Tl 0,2 1 3 0,2 -0,494 52,08 0,6302 0,111 13,020 0,59969 51,194 0,2Tl 0,3 1 1 0,3 -0,499 81,37 0,9888 0,116 20,410 1,78998 78,366 0,3Tl 0,3 1 2 0,3 -0,499 78,38 0,9549 0,116 19,650 1,78998 78,366 0,3Tl 0,3 1 3 0,3 -0,494 78,17 0,9543 0,111 19,600 1,78998 78,366 0,3Tl 0,4 1 1 0,4 -0,484 108,10 1,2790 0,111 26,500 1,18462 105,774 0,4Tl 0,4 1 2 0,4 -0,489 106,10 1,2750 0,111 27,120 1,18462 105,774 0,4Tl 0,4 1 3 0,4 -0,489 108,20 1,2930 0,111 27,150 1,18462 105,774 0,4Tl 0,5 1 1 0,5 -0,494 137,70 1,6670 0,116 34,070 2,60576 136,275 0,5Tl 0,5 1 2 0,5 -0,494 137,30 1,6710 0,116 34,160 2,60576 136,275 0,5Tl 0,5 1 3 0,5 -0,494 142,00 1,7010 0,116 34,790 2,60576 136,275 0,5Tl 0,6 1 1 0,6 -0,499 175,00 2,1320 0,116 43,630 2,91605 167,611 0,6Tl 0,6 1 2 0,6 -0,479 170,00 2,0290 0,111 41,280 2,91605 167,611 0,6Tl 0,6 1 3 0,6 -0,494 169,90 2,0630 0,116 42,280 2,91605 167,611 0,6Tl 0,7 1 1 0,7 -0,494 201,70 2,4650 0,116 50,480 1,15326 195,136 0,7Tl 0,7 1 2 0,7 -0,494 200,70 2,4160 0,111 50,180 1,15326 195,136 0,7Tl 0,7 1 3 0,7 -0,489 199,40 2,3900 0,111 49,230 1,15326 195,136 0,7Tl 0,8 1 1 0,8 -0,489 228,50 2,7720 0,111 56,200 2,86182 224,612 0,8Tl 0,8 1 2 0,8 -0,484 233,30 2,8070 0,111 56,410 2,86182 224,612 0,8Tl 0,8 1 3 0,8 -0,484 233,60 2,7900 0,111 56,480 2,86182 224,612 0,8Tl 0,9 1 1 0,9 -0,494 251,80 3,0330 0,111 61,130 2,89194 246,075 0,9Tl 0,9 1 2 0,9 -0,489 257,50 3,0890 0,111 62,640 2,89194 246,075 0,9Tl 0,9 1 3 0,9 -0,484 255,50 3,0720 0,111 65,060 2,89194 246,075 0,9Tl 1,0 1 1 1,0 -0,489 286,80 3,5070 0,116 72,100 3,98790 280,128 1,0Tl 1,0 1 2 1,0 -0,494 292,90 3,5700 0,116 73,090 3,98790 280,128 1,0Tl 1,0 1 3 1,0 -0,494 294,30 3,5770 0,116 74,120 3,98790 280,128 1,0
Tabla 1: Parámetros de pico de todos los voltamperogramas analizados de Tl (I) de 0,1 a 1,0 mg·l-1.
RESULTADOS OBTENIDOS
-104-
0.00E+00
5.00E-08
1.00E-07
1.50E-07
2.00E-07
2.50E-07
3.00E-07
-0.70 -0.60 -0.50 -0.40 -0.30
E (V)
I (A
)
Tl01
Tl02
Tl03
Tl04
Tl05
Tl06
Tl07
Tl08
Tl09
Tl10
Figura 2: Superposición de los voltamperogramas de los patrones de Tl (I) de 0,1 a 1,0 mg·l-1.
La tabla empleada para la calibración fue la siguiente:
I (nA) 22,845 51,194 78,366 105,774 136,275
[mg·l-1] 0,1 0,2 0,3 0,4 0,5
I (nA) 167,611 195,136 224,612 246,075 280,128
[mg·l-1] 0,6 0,7 0,8 0,9 1,0
El ajuste lineal de los datos dio como resultado la gráfica que se recoge a continuación:
RESULTADOS OBTENIDOS
-105-
y = 0.0035x + 0.0221
R2 = 0.9994
0
0.2
0.4
0.6
0.8
1
1.2
0 50 100 150 200 250 300
I (nA)
[mg/
l] Tl (I)
Lineal (Tl (I))
Figura 3: Recta de calibrado de los patrones de Tl (I) de 0,1 a 1,0 mg·l-1.
Como puede observarse, el ajuste de la recta de calibrado es bastante bueno.
2. PATRONES PUROS DE PLOMO.
Los resultados obtenidos en la determinación de los patrones puros de Pb (II) aparecen en
la Tabla 2. En ella se recogen los valores para los distintos parámetros de pico de todas y cada
una de las muestras de plomo (patrón 2), también por triplicado, y dentro del mismo rango de
concentraciones que el Tl (I): de 0,1 a 1,0 mg·l-1. Los parámetros representados son los mismos.
En la Figura 3, se representa una superposición de todos los gráficos de los patrones de
plomo en el rango analizado. Del mismo modo que con el talio, se trata de diez
voltamperogramas que difieren unos de otros en una concentración de 0,1 mg·l-1.
En última instancia, se recogen los datos de la calibración efectuada en base a los 10
patrones de plomo. En la Figura 4, aparece representada la recta de calibrado correspondiente,
y, a continuación, los datos relacionados con el ajuste.
RESULTADOS OBTENIDOS
-106-
Plomo Patrón Réplica Vol. (ml) Pot. (V) Int. (nA) Área (10-8) Anchura (V) Derivada (10-7) Desv. Est. Int.Media (nA) [mg/l]Pb 0,1 2 1 0,1 -0,530 40,65 0,4072 0,096 15,480 0,28361 40,810 0,1Pb 0,1 2 2 0,1 -0,525 41,09 0,4112 0,096 15,710 0,28361 40,810 0,1Pb 0,1 2 3 0,1 -0,520 41,18 0,4127 0,096 15,730 0,28361 40,810 0,1Pb 0,2 2 1 0,2 -0,525 74,87 0,7542 0,096 28,610 0,44859 73,962 0,2Pb 0,2 2 2 0,2 -0,525 74,75 0,7511 0,096 28,560 0,44859 73,962 0,2Pb 0,2 2 3 0,2 -0,520 74,04 0,7450 0,096 28,320 0,44859 73,962 0,2Pb 0,3 2 1 0,3 -0,520 106,40 1,0680 0,096 40,660 1,25831 104,974 0,3Pb 0,3 2 2 0,3 -0,525 104,90 1,0490 0,096 39,720 1,25831 104,974 0,3Pb 0,3 2 3 0,3 -0,520 107,40 1,0740 0,096 41,010 1,25831 104,974 0,3Pb 0,4 2 1 0,4 -0,525 140,00 1,4030 0,096 53,400 1,32288 137,303 0,4Pb 0,4 2 2 0,4 -0,525 140,50 1,4100 0,096 53,620 1,32288 137,303 0,4Pb 0,4 2 3 0,4 -0,525 138,00 1,3800 0,096 52,590 1,32288 137,303 0,4Pb 0,5 2 1 0,5 -0,520 178,90 1,7920 0,101 68,370 0,98658 174,935 0,5Pb 0,5 2 2 0,5 -0,520 179,10 1,7970 0,096 68,330 0,98658 174,935 0,5Pb 0,5 2 3 0,5 -0,520 177,30 1,7810 0,096 67,970 0,98658 174,935 0,5Pb 0,6 2 1 0,6 -0,520 212,40 2,1320 0,096 81,420 3,15331 204,427 0,6Pb 0,6 2 2 0,6 -0,520 209,50 2,1030 0,096 80,230 3,15331 204,427 0,6Pb 0,6 2 3 0,6 -0,520 206,10 2,0700 0,096 78,850 3,15331 204,427 0,6Pb 0,7 2 1 0,7 -0,520 246,60 2,4760 0,096 94,390 3,10000 236,479 0,7Pb 0,7 2 2 0,7 -0,520 240,70 2,4170 0,096 92,210 3,10000 236,479 0,7Pb 0,7 2 3 0,7 -0,520 242,00 2,4290 0,096 92,670 3,10000 236,479 0,7Pb 0,8 2 1 0,8 -0,525 282,80 2,8380 0,101 107,900 3,06649 272,125 0,8Pb 0,8 2 2 0,8 -0,525 282,40 2,8350 0,096 108,000 3,06649 272,125 0,8Pb 0,8 2 3 0,8 -0,520 277,30 2,7860 0,096 105,900 3,06649 272,125 0,8Pb 0,9 2 1 0,9 -0,520 309,20 3,0920 0,096 118,600 2,81484 300,997 0,9Pb 0,9 2 2 0,9 -0,520 314,80 3,1580 0,096 120,600 2,81484 300,997 0,9Pb 0,9 2 3 0,9 -0,520 311,50 3,1260 0,096 119,300 2,81484 300,997 0,9Pb 1,0 2 1 1,0 -0,520 337,20 3,3810 0,096 129,700 7,15984 328,109 1,0Pb 1,0 2 2 1,0 -0,520 349,50 3,5050 0,096 134,200 7,15984 328,109 1,0Pb 1,0 2 3 1,0 -0,520 337,00 3,3820 0,096 129,300 7,15984 328,109 1,0
Tabla 2: Parámetros de pico de todos los voltamperogramas analizados de Pb (II) de 0,1 a 1,0 mg·l-1.
RESULTADOS OBTENIDOS
-107-
0.00E+00
5.00E-08
1.00E-07
1.50E-07
2.00E-07
2.50E-07
3.00E-07
3.50E-07
-0.70 -0.60 -0.50 -0.40 -0.30
E (V)
I (A
)Pb01
Pb02
Pb03
Pb04
Pb05
Pb06
Pb07
Pb08
Pb09
Pb10
Figura 5: Superposición de los voltamperogramas de los patrones de Pb (II) de 0,1 a 1,0 mg·l-1.
La tabla empleada para la calibración fue la siguiente:
I (nA) 40,810 73,962 104,974 137,303 174,935
[mg·l-1] 0,1 0,2 0,3 0,4 0,5
I (nA) 204,427 236,479 272,125 300,997 328,109
[mg·l-1] 0,6 0,7 0,8 0,9 1,0
El ajuste lineal de los datos dio como resultado la gráfica que se recoge a continuación:
RESULTADOS OBTENIDOS
-108-
y = 0.0031x - 0.0289
R2 = 0.9993
0
0.2
0.4
0.6
0.8
1
1.2
0 100 200 300 400
I (nA)
[mg/
l] Pb (II)
Lineal (Pb (II))
Figura 6: Recta de calibrado de los patrones de Pb (II) de 0,1 a 1,0 mg·l-1.
En este caso, el ajuste también es muy bueno.
3. MEZCLAS DE LOS PATRONES DE TALIO Y PLOMO.
Una vez analizados los patrones de plomo y talio por separado, se llevó a cabo su
determinación conjunta en mezclas con diferentes concentraciones de ambas especies.
Las mezclas estudiadas son las que aparecen reflejadas en la Tabla 3. Como puede
observarse, éstas se distribuyen en tres diagonales: una principal y dos secundarias.
Este tipo de muestreo se realizó con la intención de que todas las líneas de la tabla
contuviesen dos mezclas analizadas y, además, para que la distancia entre una y otra fuesen
idénticas en todos los casos.
RESULTADOS OBTENIDOS
-109-
T1 T2 T3 T4 T5 T6 T7 T8 T9 T10
P1 T1P1 T6P1
P2 T2P2 T7P2
P3 T3P3 T8P3
P4 T4P4 T9P4
P5 T5P5 T10P5
P6 T1P6 T6P6
P7 T2P7 T7P7
P8 T3P8 T8P8
P9 T4P9 T9P9
P10 T5P10 T10P10
Tabla 3: Mezclas de los patrones de Tl (I) y Pb (II) analizadas.
La nomenclatura empleada en la tabla es la siguiente: T = Tl (I), P = Pb (II) y los números
indican la concentración de cada uno de los patrones: 1 / 0,1 mg·l-1, 2 / 0,2 mg·l-1, ..., 10 / 1,0
mg·l-1.
En adelante, a la hora de presentar los datos, nos referiremos a tres grupos de mezclas en
función de su pertenencia a una u otra diagonal. De este modo, las mezclas T6P1 a T10P5 (color
azul), de la diagonal superior, serán el grupo A; desde T1P1 hasta T10P10 (color rojo), de la
diagonal principal, constituyen el grupo B y, por último, las de la diagonal inferior, T1P6 a
T5P10 (color verde), formarán parte del grupo C.
Los resultados obtenidos en la determinación de las mezclas de los patrones de Tl (I) y Pb
(II) aparecen reflejados en la Tabla 4. En ella se recogen los valores para los distintos parámetros
de pico de todas y cada una de las mezclas de talio y plomo analizadas (patrón 3), por triplicado
(réplica), dentro del rango de concentraciones de 0,1 a 1,0 mg·l-1. Dichos parámetros son los
siguientes: volumen añadido (Vol.) en ml, potencial (Pot.) en V, intensidad (Int.) en nA, área,
RESULTADOS OBTENIDOS
-110-
anchura de pico en V, derivada, desviación estándar de las réplicas de las mezclas (Desv.Est),
intensidad media de las mismas en nA (Int. Media), concentración de Tl (I) y Pb (II) en la mezcla
([Tl+] y [Pb2+]) en mg·l-1, intensidad esperada en nA (Int. Esperada) considerando los valores de
altura de pico de los patrones individuales y, finalmente, el error (%) entre la intensidad final y
la esperada.
RESULTADOS OBTENIDOS
-111-
Mezclas Patrón Réplica Vol. (ml) Pot. (V) Int. (nA) Área (10-8) Anchura (V) Derivada (10-7) Desv. Est. Int.Media (nA) [Tl+] [Pb2+] Int. Esperada (nA) Error (%)Tl 0,1 y Pb 0,1 3 1 0,2 -0,509 65,28 0,7323 0,106 20,59 0,20809 65,00 0,1 0,1 63,65 2,121Tl 0,1 y Pb 0,1 3 2 0,2 -0,509 65,63 0,7390 0,106 20,68 0,20809 65,00 0,1 0,1 63,65 2,121Tl 0,1 y Pb 0,1 3 3 0,2 -0,509 65,65 0,7376 0,106 20,73 0,20809 65,00 0,1 0,1 63,65 2,121Tl 0,6 y Pb 0,1 3 1 0,7 -0,494 214,00 2,5290 0,111 54,42 1,99750 209,44 0,6 0,1 208,42 0,487Tl 0,6 y Pb 0,1 3 2 0,7 -0,499 217,60 2,5380 0,111 54,38 1,99750 209,44 0,6 0,1 208,42 0,487Tl 0,6 y Pb 0,1 3 3 0,7 -0,494 214,30 2,5340 0,111 55,91 1,99750 209,44 0,6 0,1 208,42 0,487Tl 0,2 y Pb 0,2 3 1 0,4 -0,509 129,90 1,4500 0,106 41,01 2,28692 125,30 0,2 0,2 125,17 0,100Tl 0,2 y Pb 0,2 3 2 0,4 -0,504 125,60 1,4060 0,106 39,73 2,28692 125,30 0,2 0,2 125,17 0,100Tl 0,2 y Pb 0,2 3 3 0,4 -0,504 126,40 1,4250 0,106 39,59 2,28692 125,30 0,2 0,2 125,17 0,100Tl 0,7 y Pb 0,2 3 1 0,9 -0,504 276,70 3,2490 0,111 75,91 1,85203 265,35 0,7 0,2 269,11 -1,398Tl 0,7 y Pb 0,2 3 2 0,9 -0,504 273,00 3,2000 0,111 75,67 1,85203 265,35 0,7 0,2 269,11 -1,398Tl 0,7 y Pb 0,2 3 3 0,9 -0,499 275,00 3,2260 0,111 76,23 1,85203 265,35 0,7 0,2 269,11 -1,398Tl 0,3 y Pb 0,3 3 1 0,6 -0,509 189,60 2,1360 0,106 59,95 1,36504 184,93 0,3 0,3 183,34 0,866Tl 0,3 y Pb 0,3 3 2 0,6 -0,504 187,90 2,1170 0,106 59,33 1,36504 184,93 0,3 0,3 183,34 0,866Tl 0,3 y Pb 0,3 3 3 0,6 -0,504 190,60 2,1460 0,106 60,34 1,36504 184,93 0,3 0,3 183,34 0,866Tl 0,8 y Pb 0,3 3 1 1,1 -0,499 340,60 3,9670 0,111 96,90 4,42380 328,45 0,8 0,3 329,58 -0,343Tl 0,8 y Pb 0,3 3 2 1,1 -0,499 340,10 3,9580 0,111 96,87 4,42380 328,45 0,8 0,3 329,58 -0,343Tl 0,8 y Pb 0,3 3 3 1,1 -0,499 348,00 4,0510 0,111 99,11 4,42380 328,45 0,8 0,3 329,58 -0,343Tl 0,4 y Pb 0,4 3 1 0,8 -0,509 246,80 2,7650 0,106 78,90 2,12211 240,08 0,4 0,4 243,07 -1,228Tl 0,4 y Pb 0,4 3 2 0,8 -0,509 246,30 2,7570 0,106 78,82 2,12211 240,08 0,4 0,4 243,07 -1,228Tl 0,4 y Pb 0,4 3 3 0,8 -0,509 250,20 2,8030 0,106 80,00 2,12211 240,08 0,4 0,4 243,07 -1,228Tl 0,9 y Pb 0,4 3 1 1,3 -0,504 390,90 4,5300 0,111 112,70 5,10327 377,06 0,9 0,4 383,37 -1,646Tl 0,9 y Pb 0,4 3 2 1,3 -0,504 398,50 4,6100 0,111 115,50 5,10327 377,06 0,9 0,4 383,37 -1,646Tl 0,9 y Pb 0,4 3 3 1,3 -0,504 400,60 4,6380 0,111 116,10 5,10327 377,06 0,9 0,4 383,37 -1,646Tl 0,5 y Pb 0,5 3 1 1,0 -0,504 322,80 3,6350 0,106 101,60 5,42801 316,41 0,5 0,5 311,23 1,664Tl 0,5 y Pb 0,5 3 2 1,0 -0,504 332,10 3,7420 0,106 104,50 5,42801 316,41 0,5 0,5 311,23 1,664Tl 0,5 y Pb 0,5 3 3 1,0 -0,504 332,30 3,7420 0,106 104,60 5,42801 316,41 0,5 0,5 311,23 1,664Tl 1,0 y Pb 0,5 3 1 1,5 -0,504 472,90 5,4520 0,111 139,10 2,24796 447,96 1,0 0,5 455,06 -1,561Tl 1,0 y Pb 0,5 3 2 1,5 -0,504 474,30 5,4660 0,111 139,50 2,24796 447,96 1,0 0,5 455,06 -1,561Tl 1,0 y Pb 0,5 3 3 1,5 -0,504 477,30 5,5020 0,111 140,30 2,24796 447,96 1,0 0,5 455,06 -1,561
Tabla 4: Parámetros de pico de todos los voltamperogramas analizados de las mezclas de patrones de Tl (I) y Pb (II).
RESULTADOS OBTENIDOS
-112-
Mezclas Patrón Réplica Vol. (ml) Pot. (V) Int. (nA) Área (10-8) Anchura (V) Derivada (10-7) Desv. Est. Int.Media (nA) [Tl+] [Pb2+] Int. Esperada (nA) Error (%)Tl 0,1 y Pb 0,6 3 1 1,6 -0,525 230,60 2,4100 0,101 84,30 4,15812 228,70 0,1 0,6 227,27 0,628Tl 0,1 y Pb 0,6 3 2 1,6 -0,520 235,90 2,4670 0,101 86,13 4,15812 228,70 0,1 0,6 227,27 0,628Tl 0,1 y Pb 0,6 3 3 1,6 -0,520 238,80 2,4980 0,101 87,21 4,15812 228,70 0,1 0,6 227,27 0,628Tl 0,6 y Pb 0,6 3 1 1,2 -0,504 387,00 4,3640 0,106 121,10 2,72213 366,32 0,6 0,6 372,04 -1,538Tl 0,6 y Pb 0,6 3 2 1,2 -0,504 381,90 4,3050 0,106 119,50 2,72213 366,32 0,6 0,6 372,04 -1,538Tl 0,6 y Pb 0,6 3 3 1,2 -0,504 382,80 4,3180 0,106 119,80 2,72213 366,32 0,6 0,6 372,04 -1,538Tl 0,2 y Pb 0,7 3 1 0,9 -0,515 295,00 3,1410 0,101 105,00 4,45421 288,61 0,2 0,7 287,67 0,327Tl 0,2 y Pb 0,7 3 2 0,9 -0,515 303,80 3,2350 0,101 102,90 4,45421 288,61 0,2 0,7 287,67 0,327Tl 0,2 y Pb 0,7 3 3 0,9 -0,515 298,20 3,1760 0,101 108,10 4,45421 288,61 0,2 0,7 287,67 0,327Tl 0,7 y Pb 0,7 3 1 1,4 -0,504 451,70 5,0680 0,106 143,80 7,75048 435,13 0,7 0,7 431,61 0,816Tl 0,7 y Pb 0,7 3 2 1,4 -0,504 459,60 5,1520 0,106 146,30 7,75048 435,13 0,7 0,7 431,61 0,816Tl 0,7 y Pb 0,7 3 3 1,4 -0,504 467,20 5,2400 0,106 148,80 7,75048 435,13 0,7 0,7 431,61 0,816Tl 0,3 y Pb 0,8 3 1 1,1 -0,515 369,50 3,9390 0,101 131,00 5,76223 347,57 0,3 0,8 350,49 -0,832Tl 0,3 y Pb 0,8 3 2 1,1 -0,515 359,10 3,8290 0,101 127,10 5,76223 347,57 0,3 0,8 350,49 -0,832Tl 0,3 y Pb 0,8 3 3 1,1 -0,515 360,00 3,8370 0,101 127,50 5,76223 347,57 0,3 0,8 350,49 -0,832Tl 0,8 y Pb 0,8 3 1 1,6 -0,509 518,10 5,6580 0,101 156,20 11,37995 494,42 0,8 0,8 496,73 -0,464Tl 0,8 y Pb 0,8 3 2 1,6 -0,499 539,10 5,8150 0,101 157,20 11,37995 494,42 0,8 0,8 496,73 -0,464Tl 0,8 y Pb 0,8 3 3 1,6 -0,509 521,00 5,6000 0,101 154,60 11,37995 494,42 0,8 0,8 496,73 -0,464Tl 0,4 y Pb 0,9 3 1 1,3 -0,509 421,00 4,5420 0,106 146,30 4,78435 405,42 0,4 0,9 405,87 -0,111Tl 0,4 y Pb 0,9 3 2 1,3 -0,509 429,70 4,6360 0,106 149,40 4,78435 405,42 0,4 0,9 405,87 -0,111Tl 0,4 y Pb 0,9 3 3 1,3 -0,509 428,80 4,6230 0,106 149,00 4,78435 405,42 0,4 0,9 405,87 -0,111Tl 0,9 y Pb 0,9 3 1 1,8 -0,504 578,20 6,4920 0,106 182,80 2,55408 542,04 0,9 0,9 546,17 -0,756Tl 0,9 y Pb 0,9 3 2 1,8 -0,504 583,10 6,5460 0,106 184,40 2,55408 542,04 0,9 0,9 546,17 -0,756Tl 0,9 y Pb 0,9 3 3 1,8 -0,504 581,90 6,5390 0,106 184,00 2,55408 542,04 0,9 0,9 546,17 -0,756Tl 0,5 y Pb 1,0 3 1 1,5 -0,509 485,40 5,2780 0,106 165,90 8,19532 461,76 0,5 1,0 464,41 -0,570Tl 0,5 y Pb 1,0 3 2 1,5 -0,509 498,90 5,4210 0,106 171,00 8,19532 461,76 0,5 1,0 464,41 -0,570Tl 0,5 y Pb 1,0 3 3 1,5 -0,509 484,10 5,2650 0,106 165,70 8,19532 461,76 0,5 1,0 464,41 -0,570Tl 1,0 y Pb 1,0 3 1 2,0 -0,494 664,90 7,0160 0,101 190,00 4,62853 610,71 1,0 1,0 608,24 0,406Tl 1,0 y Pb 1,0 3 2 2,0 -0,499 656,60 6,9560 0,101 192,00 4,62853 610,71 1,0 1,0 608,24 0,406Tl 1,0 y Pb 1,0 3 3 2,0 -0,509 657,20 6,9490 0,101 195,10 4,62853 610,71 1,0 1,0 608,24 0,406
Tabla 4: Parámetros de pico de todos los voltamperogramas analizados de las mezclas de patrones de Tl (I) y Pb (II) (continuación).
RESULTADOS OBTENIDOS
-113-
0.00E+00
5.00E-08
1.00E-07
1.50E-07
2.00E-07
2.50E-07
3.00E-07
3.50E-07
4.00E-07
4.50E-07
5.00E-07
-0.70 -0.60 -0.50 -0.40 -0.30
I (A)
E (
V)
T6P1
T7P2
T8P3
T9P4
T10P5
Figura 9: Superposición de los voltamperogramas de las mezclas del grupo A.
A) GRUPO A DE MEZCLAS (DIAGONAL SUPERIOR).
En la Figura 5, se representa una superposición de todos los gráficos de las mezclas que
constituyen la diagonal superior de la Tabla 3. Son cinco voltamperogramas que se corresponden
con sendas mezclas.
Para comprobar que existe linealidad entre las mezclas, se procedió a realizar un ajuste
lineal de las mismas. Los resultados pueden comprobarse viendo la Figura 6, así como los datos
del ajuste.
La tabla empleada para el ajuste lineal es la siguiente:
T6P1 T7P2 T8P3 T9P4 T10P5
I (nA) 209,436 265,347 328,448 377,060 447,956
[mg·l-1] 0,7 0,9 1,1 1,3 1,5
Como puede observarse, la concentración utilizada es la suma de las concentraciones de
RESULTADOS OBTENIDOS
-114-
y = 0.0034x - 0.0034
R2 = 0.9974
0.6
0.7
0.8
0.9
1
1.1
1.2
1.3
1.4
1.5
1.6
200 300 400 500
I (nA)
[mg/
l] Mezcla Tl / Pb
Lineal (Mezcla Tl / Pb)
Figura 10: Ajuste lineal de las mezclas pertenecientes al grupo A.
los patrones que componen cada mezcla.
El ajuste lineal de los datos dio como resultado la gráfica que se recoge a continuación:
B) GRUPO B DE MEZCLAS (DIAGONAL PRINCIPAL).
En la Figura 7, se representa una superposición de todos los gráficos de las mezclas que
constituyen la diagonal principal de la Tabla 3. Son diez voltamperogramas que se corresponden
con sendas mezclas.
En este caso, al igual que antes, también se realizó un ajuste lineal de las mezclas. En la
Figura 8 se recoge la recta resultante del ajuste.
RESULTADOS OBTENIDOS
-115-
0.00E+00
1.00E-07
2.00E-07
3.00E-07
4.00E-07
5.00E-07
6.00E-07
7.00E-07
-0.70 -0.60 -0.50 -0.40 -0.30
E (V)
I (A
)T1P1
T2P2
T3P3
T4P4
T5P5
T6P6
T7P7
T8P8
T9P9
T10P10
Figura 11: Superposición de los voltamperogramas de las mezclas del grupo B.
La tabla empleada para el ajuste lineal es la siguiente:
T1P1 T2P2 T3P3 T4P4 T5P5
I (nA) 65,000 125,295 184,928 240,084 316,410
[mg·l-1] 0,1 0,2 0,3 0,4 0,5
T6P6 T7P7 T8P8 T9P9 T10P10
I (nA) 366,317 435,133 494,424 542,040 610,710
[mg·l-1] 0,6 0,7 0,8 0,9 1,0
Como las mezclas contenían la misma proporción de talio que de plomo, para el ajuste
lineal se ha utilizado únicamente la concentración de una de las especies.
El ajuste lineal de los datos dio como resultado la gráfica que se recoge a continuación:
RESULTADOS OBTENIDOS
-116-
y = 0.0016x - 0.0067
R2 = 0.9991
0
0.2
0.4
0.6
0.8
1
1.2
0 200 400 600
I (nA)
[mg/
l] Mezcla Tl / Pb
Lineal (Mezcla Tl / Pb)
Figura 12: Ajuste lineal de las mezclas del grupo B.
C) GRUPO C DE MEZCLAS (DIAGONAL INFERIOR).
En la Figura 9, se representa una superposición de todos los gráficos de las mezclas que
constituyen la diagonal inferior de la Tabla 3. Son cinco voltamperogramas que se corresponden
con sendas mezclas.
Al igual que antes, se hizo el ajuste lineal de las mezclas, que aparece en la Figura 10.
RESULTADOS OBTENIDOS
-117-
0.00E+00
5.00E-08
1.00E-07
1.50E-07
2.00E-07
2.50E-07
3.00E-07
3.50E-07
4.00E-07
4.50E-07
5.00E-07
-0.70 -0.60 -0.50 -0.40 -0.30
E (V)
I (A
)
T1P6
T2P7
T3P8
T4P9
T5P10
Figura 13: Superposición de los voltamperogramas de las mezclas del grupo C.
La tabla empleada para el ajuste lineal es la siguiente:
T1P6 T2P7 T3P8 T4P9 T5P10
I (nA) 228,696 288,610 347,573 405,418 461,761
[mg·l-1] 0,7 0,9 1,1 1,3 1,5
Del mismo modo que con la diagonal superior, la concentración utilizada es la suma de las
concentraciones de los patrones que componen cada mezcla.
RESULTADOS OBTENIDOS
-118-
y = 0.0034x - 0.0883
R2 = 0.9999
0.6
0.7
0.8
0.9
1
1.1
1.2
1.3
1.4
1.5
1.6
200 300 400 500
I (nA)
[mg/
l] Mezcla Tl / Pb
Lineal (Mezcla Tl / Pb)
Figura 14: Ajuste lineal de las mezclas del grupo C.
Capítulo 4:
Tratamientoestadístico de datos.
TRATAMIENTO ESTADÍSTICO DE DATOS
-120-
1.DESCRIPCIÓN DE LOS DATOS EMPLEADOS EN EL TRATAMIENTO
ESTADÍSTICO.
El tratamiento estadístico se ha llevado a cabo mediante los paquetes de software MATLAB
4.0, STATISTICA 5.1, QWIKNET 3.2 y QNET 2000, así como diversas herramientas ofimáticas
del entorno OFFICE´97. La información considerada fue dividida en dos conjuntos diferentes
de datos:
w Conjunto de datos discretos: constituido por los parámetros de intensidad, potencial
y anchura de pico de cada una de las señales voltamperométricas de las muestras
analizadas (Tablas 1, 2 y 4 del capítulo anterior). Estos valores coinciden con los
resultados del análisis de pico facilitado por el aparato de medida Autolab®
PGSTAT20.
w Conjunto de datos continuo: formado por las señales de los voltamperogramas
completos de las muestras obtenidas de Autolab®, constituidas por 80 datos de
intensidad (en el intervalo de potenciales de -0,7 a -0,3 V, con un incremento de
potencial de 0,0051 V) correspondientes a cada una de las 40 muestras analizadas.
Este conjunto se recoge en el Anexo I, presentando una estructura matricial de
dimensiones 80 × 40.
A) REDUCCIÓN DE DIMENSIONES.
Uno de los objetivos del tratamiento de la información continua consiste en su reducción
de dimensiones de forma que se conserve la mayor cantidad de información posible y se eliminen
los efectos del ruido aleatorio u otras posibles perturbaciones.
A tal efecto, se utilizó una aplicación informática (ver Anexo II), programada para llevar
a cabo el proceso de filtrado y reducción de dimensiones que a continuación se detalla:
1. En primer lugar, se lee la información suministrada, en formato de texto, referente a
todos los vectores columna de 80 datos correspondientes a las 40 muestras analizadas.
2. Se inserta el número de frecuencias de Fourier del espectro resultante, en el cual se van
a descomponer cada una de las señales que componen los distintos voltamperogramas.
Los espectros de Fourier podrán ser de 128 ó 256 frecuencias, aunque también puede
TRATAMIENTO ESTADÍSTICO DE DATOS
-121-
( )ε =
−
=∑
e e
ei i
ii
* 2
21
80
utilizarse cualquier otro valor múltiplo de 2N, donde N es un entero positivo.
3. A continuación, la aplicación calcula la transformada de Fourier de cada señal
presentada, transformándola en un espectro de Fourier cuyo número de frecuencias que
lo componen irá en función del valor que se haya elegido anteriormente.
4. Después, se realizó el filtrado definiendo para ello la frecuencia de corte; de este modo,
se eliminan todas aquellas frecuencias que se encuentren por encima de la elegida. Esto
equivale a la aplicación de un filtro de paso bajo, el cual desestima las frecuencias más
altas, correspondientes normalmente a ruido y se queda exclusivamente con las
frecuencias bajas o de amplitud máxima, que contienen la mayor parte de la información
útil. En estos momentos, el vector columna con 80 valores para cada muestra, se ha
transformado en un vector columna de tan sólo 10 valores o menos, según la frecuencia
de corte definida.
5. Por último, la señal de cada voltamperograma se recompone mediante la transformada
de Fourier inversa y se calcula el error de recomposición mediante la expresión:
donde ei y e*i son los valores de la señal inicial y de la recompuesta, respectivamente.
Según la frecuencia de corte que se haya elegido, se obtendrán unas dimensiones más
o menos pequeñas para cada vector columna; no obstante, cuanto más pequeña sea la
frecuencia de corte, más se reduce el número de dimensiones, pero a costa de obtener
un error de recomposición más elevado.
6. Gráficamente todo el proceso anterior se resume del siguiente modo (Figura 1):
TRATAMIENTO ESTADÍSTICO DE DATOS
-122-
0 0.5 10
1
2
3
4x 10
-7
t
s(t)
Señal original s(t)
0 20 400
2
4
6
8x 10
-6
Frec Hz.
Mod
ulo
(FF
T) FFT(Original)
0 20 400
2
4
6
8x 10
-6
Frec Hz.
Mod
ulo
(FF
T) FFT Filtrada
0 0.5 10
1
2
3
4x 10
-7
t
s(t)
y S
(t)
S(t) Recompuesta
-7 -6
Figura 1: Etapas llevadas a cabo por el programa de MATLAB para cada señal de losvoltamperogramas de las muestras.
Se parte de la señal original, se calcula su transformada de Fourier, se filtra y, mediante
la transformada de Fourier inversa, se recompone de nuevo la señal de partida,
calculándose el error de recomposición. En este caso, el proceso se corresponde con la
reducción de dimensiones para la señal voltamperométrica de la mezcla T5P5 (Tl (I) a
0,5 y Pb (II) a 0,5 mg·l-1), con un error de recomposición del 1,50 %.
En base a todo lo anterior y para alcanzar un adecuada reducción de dimensiones del
conjunto de datos continuo, se realizó una serie de pruebas para cada muestra, utilizando
espectros de Fourier de 128 y 256 frecuencias y variando la frecuencia de corte entre valores que
oscilaron entre 6 y 2 (ver Anexo III). Con todo esto se pretendía reducir al máximo la
información y obtener una dimensión mínima e idéntica para todas las señales, de tal modo que
el error de recomposición no superase en ningún momento el valor fijado del 3 %.
Este porcentaje de error máximo admisible no fue determinado arbitrariamente, sino con
vistas a la posterior aplicación de redes neuronales a este conjunto de datos. Se consideró que el
TRATAMIENTO ESTADÍSTICO DE DATOS
-123-
número de neuronas de entrada a la red, definido por la dimensión de los vectores columna que
componen el conjunto de datos continuo, no debía ser muy elevado, pues esto implicaba
topologías de redes con un elevado número de parámetros a ser estimados. Por tanto, había que
llegar a un compromiso entre el error y el número de dimensiones obtenidas con el proceso de
reducción.
La frecuencia de corte idónea se eligió a partir de los datos obtenidos en las pruebas
anteriores.
A continuación, se presenta una tabla resumen con los resultados de dichas pruebas:
Frecuencias del espectro 128 256
Frecuencia de corte (ù )
Dimensiones (N)
Error (%)
6
10
<1,5
5
9
<2
4
7
<3
3
5
<6
2
4
>6
6
20
<1,5
5
17
<2,2
4
13
<3
3
10
<5
2
7
>8
Como puede observarse, el valor de frecuencia de corte idóneo resultó ser ù = 4 con el
espectro de 128 frecuencias. El número mínimo de dimensiones correspondiente a esta frecuencia
fue de N = 7, es decir, 7 datos de amplitud por cada señal de voltamperograma.
De este modo, cada uno de los vectores columna de dimensiones 80 × 1 (valores de
intensidad) se transformaron en vectores columna de 7 × 1 dimensiones (valores de amplitud).
La matriz del conjunto de datos continuo resultó por consiguiente de 7 × 40 (ver Anexo IV),
mucho más manejable para el posterior tratamiento estadístico, a diferencia de la inicial, de
tamaño 80 × 40. Otra diferencia interesante entre la matriz de partida y la resultante, tras aplicar
la reducción, radica en que mientras la primera se expresa en el dominio temporal, la segunda lo
hace en el espacio de las frecuencias. En resumidas cuentas, se ha logrado reducir el tamaño de
la matriz inicial en un 91,25 %, conservando, al menos, el 97 % de la información.
2. ETAPAS DEL TRATAMIENTO ESTADÍSTICO DE DATOS.
El tratamiento estadístico de datos se dividió en varias etapas:
w Exploración de las señales de los patrones.
w Aplicación de modelos analíticos.
w Métodos de predicción o de separación de señales.
TRATAMIENTO ESTADÍSTICO DE DATOS
-124-
A continuación, describiremos con detalle cada una de estas etapas.
A) EXPLORACIÓN DE LAS SEÑALES DE LOS PATRONES.
Una apreciación global de la totalidad de las muestras pudo realizarse empleando los
métodos estadísticos multivariantes que se recogen a continuación:
w análisis lineal discriminante
w escalado multidimensional
Dichos métodos se emplean comúnmente para el análisis estadístico de la información
química, sea cual sea su procedencia.
ANÁLISIS LINEAL DISCRIMINANTE (ALD).
Para desarrollar éste método, se hizo uso del conjunto de datos discretos. Los valores que
forman parte de este conjunto no aparecen estandarizados, sino que se encuentran dispuestos
simplemente tal como fueron presentados por el aparato de medida Autolab® PGSTAT20.
El análisis lineal discriminante fue aplicado para visualizar las muestras en un plano y para
determinar si, tanto patrones puros (10 de talio y 10 de plomo) como mezclas (20 en total), eran
susceptibles de ser agrupados por su contenido en Tl (I) y Pb (II).
El conjunto de datos discretos (intensidad, potencial y anchura de pico) fue utilizado como
variable independiente y como variable de clasificación las siguientes: Tl (I) = 0, Pb (II) = 1 y
Mezclas = 2. El método utilizado para efectuar el análisis fue un método catalogado como
estándar, el cual se caracteriza porque todas las variables seleccionadas son introducidas
simultáneamente en el modelo. El valor de tolerancia empleado en el análisis fue el que aparecía
por defecto en el programa y era igual a 0,01. Este valor normalmente se calcula como 1-R2 de
cada una de las variables, estando el resto incluidas en el modelo, e indica la proporción de
varianza que es única para la variable seleccionada. Por último, la distancia utilizada para
calcular la pertenencia de cada muestra a un grupo u otro fue la distancia de Mahalanobis.
A continuación se presenta la matriz de clasificación asociada al modelo de ALD, en donde
las filas son las clasificaciones observadas y las columnas las clasificaciones predichas:
TRATAMIENTO ESTADÍSTICO DE DATOS
-125-
Tl (I)Pb (II)Mezclas
Clasificación discriminante según el contenido de Tl (I) y/o Pb (II)
Plano Factorial
Dimensión 1
Dim
ensi
ón 2
T3
T4
T9
T10
T6
T8
T7
T1
T5
T2
P4
P2P3
P1
P10
P5
P9
P8
P7P6
T10P5
T5P5
T9P4
T4P4
T8P3
T3P3
T7P2
T2P2
T6P1
T1P6
T1P1
T10P10
T9P9
T4P9T8P8
T3P8
T7P7
T5P10
T2P7
T6P6
-3.0
-2.5
-2.0
-1.5
-1.0
-0.5
0.0
0.5
1.0
1.5
2.0
2.5
3.0
-6 -4 -2 0 2 4 6
Figura 2: Análisis lineal discriminante de las muestras analizadas.
Grupo % Clasificación Tl (I) Pb (II) Mezclas
Tl (I)
Pb (II)
Mezclas
100,0000
100,0000
90,0000
10
0
1
0
10
1
0
0
18
Total 95,0000 11 11 18
Estos resultados corroboran el diagrama de puntos presentado anteriormente. Como puede
observarse, las muestras puras de talio y plomo son clasificadas al 100 %. Sin embargo, en el
caso de las mezclas, aparecen dos errores de clasificación, lo que disminuye el porcentaje
correcto hasta el 90 %. Una de las mezclas es catalogada en el grupo de los patrones de Tl (I) y
otra en el de los patrones de Pb (II). La clasificación total de las 40 muestras resultó ser del 95
%.
El gráfico de puntos del análisis lineal discriminante es el siguiente (Figura 2):
TRATAMIENTO ESTADÍSTICO DE DATOS
-126-
Del gráfico se desprende que las dos muestras que no se clasifican bien son la T1P6 y la
T6P1, correspondientes a la mezclas Tl 0,1 y Pb 0,6 mg·l-1 y Tl 0,6 y Pb 0,1 mg·l-1,
respectivamente. Como puede observarse en la Tabla 3 del capítulo anterior, las citadas muestras
se localizan en zonas próximas a los extremos de dicha tabla, lo que implica confusión, puesto
que constituyen puntos críticos a la hora de clasificarlas: elevada concentración de un ión
metálico y baja concentración del otro.
El resumen de las inferencias asociadas al análisis de la función discriminante se recoge a
continuación:
w nº de variables en el modelo: 3
w nº de variables de agrupamiento: 3
w Lambda de Wilks: 0,0755
w p < 10-5
N = 40 ë de Wilks ë Parcial F (2,35) p Tolerancia 1-Tol. (R2)
Intensidad
Anchura
Potencial
0,128115
0,090160
0,132642
0,589416
0,837545
0,569300
12,19042
3,39440
13,23949
0,000096
0,044941
0,000052
0,881873
0,784489
0,725504
0,118127
0,215511
0,274496
Las muestras mal agrupadas fueron identificadas a partir de la matriz de clasificación de
casos, que aparece a continuación:
TRATAMIENTO ESTADÍSTICO DE DATOS
-127-
MuestrasClasificación
ObservadaPredicción Muestras
Clasificación
ObservadaPredicción
T1
T2
T3
T4
T5
T6
T7
T8
T9
T10
P1
P2
P3
P4
P5
P6
P7
P8
P9
P10
Tl (I)
Tl (I)
Tl (I)
Tl (I)
Tl (I)
Tl (I)
Tl (I)
Tl (I)
Tl (I)
Tl (I)
Pb (II)
Pb (II)
Pb (II)
Pb (II)
Pb (II)
Pb (II)
Pb (II)
Pb (II)
Pb (II)
Pb (II)
Tl (I)
Tl (I)
Tl (I)
Tl (I)
Tl (I)
Tl (I)
Tl (I)
Tl (I)
Tl (I)
Tl (I)
Pb (II)
Pb (II)
Pb (II)
Pb (II)
Pb (II)
Pb (II)
Pb (II)
Pb (II)
Pb (II)
Pb (II)
T1P1
T6P1*
T2P2
T7P2
T3P3
T8P3
T4P4
T9P4
T5P5
T10P5
T1P6*
T6P6
T2P7
T7P7
T3P8
T8P8
T4P9
T9P9
T5P10
T10P10
Mezcla
Mezcla
Mezcla
Mezcla
Mezcla
Mezcla
Mezcla
Mezcla
Mezcla
Mezcla
Mezcla
Mezcla
Mezcla
Mezcla
Mezcla
Mezcla
Mezcla
Mezcla
Mezcla
Mezcla
Mezcla
Tl (I)
Mezcla
Mezcla
Mezcla
Mezcla
Mezcla
Mezcla
Mezcla
Mezcla
Pb (II)
Mezcla
Mezcla
Mezcla
Mezcla
Mezcla
Mezcla
Mezcla
Mezcla
Mezcla
* Indica las clasificaciones incorrectas.
Como puede verse, la mezcla T6P1 se clasifica en el grupo del Tl (I) y la T1P6 en el del Pb
(II). El grupo elegido para esta catalogación se corresponde con el del ión metálico de mayor
concentración en la mezcla, lo cual corrobora nuestra conclusión anterior: son muestras que
constituyen puntos críticos a la hora de clasificarlas, debido a la elevada concentración de uno
de los cationes con respecto del otro.
Por último, los coeficientes estandarizados para las variables canónicas fueron los
siguientes:
TRATAMIENTO ESTADÍSTICO DE DATOS
-128-
Variables Dimensión 1 Dimensión 2
Intensidad
Anchura
Potencial
-0,253221
0,381436
0,796084
-1,02686
-0,45266
0,31341
Valores propios
Proporción acumulativa
7,101360
0,917964
0,63463
1,00000
Sobre el conjunto de datos continuo, constituido por las 7 amplitudes dominantes obtenidas
del espectro de Fourier, no pudo realizarse el análisis lineal discriminante, al encontrarse mal
condicionada la matriz resultante de dicha información.
Esto se pudo probar, posteriormente, estableciendo la matriz de correlación de dicha
información continua, que como puede apreciarse en la tabla siguiente, refleja una gran linealidad
entre todas las amplitudes consideradas:
Variable A1 A2 A3 A4 A5 A6 A7
A1
A2
A3
A4
A5
A6
A7
1,00
1,00*
0,99*
0,97*
0,93*
0,88*
0,82*
1,00*
1,00
1,00*
0,98*
0,94*
0,89*
0,84*
0,99*
1,00*
1,00
0,99*
0,97*
0,93*
0,87*
0,97*
0,98*
0,99*
1,00
0,99*
0,97*
0,91*
0,93*
0,94*
0,97*
0,99*
1,00
0,99*
0,93*
0,88*
0,89*
0,93*
0,97*
0,99*
1,00
0,96*
0,82*
0,84*
0,87*
0,91*
0,93*
0,96*
1,00
* Las correlaciones marcadas son significativas a p < 0,05000 (N = 40).
Como puede observarse, la correlación entre las variables (amplitudes) del conjunto de
datos continuo es muy elevada, lo cual confirma la dependencia lineal.
Una posibilidad que evitase esto hubiera sido el elegir una frecuencia de corte más alta
durante la reducción de dimensiones, aún a costa de aumentar el error de reconstrucción de la
señal de cada muestra. Pero esto no era factible, ya que suponía introducir un error mucho mayor
a la hora de aplicar las redes neuronales como método de predicción y clasificación.
TRATAMIENTO ESTADÍSTICO DE DATOS
-129-
Regresión95% confianza
Correlación A1 vs. A2
A2 = 0,0000 + 0,9119 * A1
Correlación: r = 0,9994
A1
A2
-2e-6
0
2e-6
4e-6
6e-6
8e-6
1e-5
1.2e-5
1.4e-5
-2e-6 0 2e-6 4e-6 6e-6 8e-6 1e-5 1.2e-5 1.4e-5
Figura 3: Gráfico de correlación entre dos amplitudes, A1 y A2, del conjunto continuode datos.
Como consecuencia de lo anterior, pudo establecerse un modelo de ajuste con una elevada
capacidad predictiva entre dos amplitudes cualesquiera (Figura 3):
Como puede verse, la relación entre las dos variables es clara, sobre todo si se tiene en
cuenta la expresión matemática que ofrece la correlación: A2 = 0,9119 × A1.
A través de la matriz de correlaciones, se puede observar también la clara dependencia de
una amplitud con respecto de otra (Figura 4):
TRATAMIENTO ESTADÍSTICO DE DATOS
-130-
Matriz de correlaciones
A1
A2
Figura 4: Matriz de correlaciones para las amplitudes A1 y A2 del conjunto continuode datos.
Estas conclusiones demuestran que todas las señales completas de los voltamperogramas
podrían definirse casi en su totalidad conociendo únicamente el valor de una de las amplitudes
que la componen. Por ejemplo, la mezcla T5P5 podría describirse por un único punto P en el
dominio de Fourier, correspondiente a una amplitud y a su frecuencia relacionada, que es la que
nos da la posición del pico: P (ù ; A) = (0,625; 6,496×10-6). Si en el dominio de las frecuencias
cada señal de un voltamperograma se ha reducido a 7 conjuntos de valores frecuencia-amplitud,
el punto arriba indicado se corresponde con la segunda pareja que describe la señal de la mezcla
indicada. No obstante, podría haberse escogido cualquier otra pareja de datos, puesto que, como
hemos demostrado, los valores de amplitud son proporcionales entre sí.
Por consiguiente, a la vista de estos resultados, se empleó otra forma de proyectar el
conjunto de datos continuo.
TRATAMIENTO ESTADÍSTICO DE DATOS
-131-
ESCALADO MULTIDIMENSIONAL.
El escalado multidimensional se basa en el hecho de que conocida una matriz de distancias
entre puntos (muestras) es posible conocer la geometría del conjunto formado por dichos puntos,
salvo un movimiento rígido.
Empleado como proceso de reducción de dimensiones sobre los datos continuos en el
espacio de Fourier, permitió obtener una visión exploratoria en un plano de la información
continua.
Para lograr el escalado multidimensional hubo que tener en cuenta las siguientes
consideraciones:
1. Para realizar el escalado, se obtuvo la matriz de distancias euclídeas asociada al
conjunto de amplitudes considerado.
2. La matriz de distancias se utilizó como entrada al algoritmo de escalado
multidimensional, en donde la configuración inicial por defecto para el conjunto de
datos fue la estándar de Guttman-Lingoes. Este procedimiento equivale a un análisis de
componentes principales y en la mayoría de los casos sirve para proporcionar una
configuración de inicio para los procedimientos de ajuste mediante iteraciones
sucesivas.
3. Partiendo de esta solución inicial, el algoritmo realiza las iteraciones necesarias para
alcanzar un valor óptimo entre las distancias reales y las distancias de la proyección
plana.
4. Los parámetros de interés en este modelo son el número de iteraciones (entre 6 y 50) y
el valor de epsilon, a partir del cual las distancias son significativas.
A la vista de todo lo anterior, la representación del escalado multidimensional resultó así
(Figura5):
TRATAMIENTO ESTADÍSTICO DE DATOS
-132-
Representación del conjunto de voltamperogramas
Escalado multidimensional sobre el espectro de Fourier
Dimension 1
Dim
ensi
on 2
T1
T2T3
T4
T5
T6T7
T8T9
T10
P1P2
P3P4
P5P6
P7P8
P9P10
T1P1
T1P6
T2P2
T2P7
T3P3
T3P8
T4P4
T4P9
T5P5
T5P10
T6P1
T6P6
T7P2
T7P7
T8P3
T8P8
T9P4
T9P9
T10P5
T10P10
-0.25
-0.15
-0.05
0.05
0.15
0.25
-2 -1 0 1 2 3
Figura 5: Escalado multidimensional para el conjunto continuo de datos.
A partir de la representación anterior puede concluirse la disposición casi geométricamente
perfecta, en términos de alineación, de los grupos de muestras (como información continua)
considerados en la Tabla 3 del capítulo anterior. Puede observarse que mediante el trazado de dos
rectas que se cortan en un punto interno de la representación, se consiguen separar los tres grupos
de muestras, siendo posible la clasificación de todas las muestras analizadas, a diferencia del
análisis lineal discriminante, en el cual no se podían establecer dos superficies de corte que
aislasen completamente a los clusters unos de otros.
Se puede concluir pues, sobre nuestra información, que éste método de visualización hace
posible una visión exploratoria que mejora a la aportada por el ADL, utilizado en el conjunto de
datos discretos.
B) APLICACIÓN DE MODELOS ANALÍTICOS.
Una vez explorada la disposición de los dos conjuntos de datos, ya fuese mediante análisis
lineal discriminante o a través de un escalado multidimensional, el siguiente paso fue encontrar
una función matemática que se ajustase a las señales de los voltamperogramas de las muestras
TRATAMIENTO ESTADÍSTICO DE DATOS
-133-
( )[ ]Modelo C P E V E V= × × −exp ( ) ( )max
2
( )L C P obs predi ii
( , ) = −=∑ 2
1
80
( )
Min f V y V
s a
y C eP V V
( ) ( )
. .:
max
−
= ⋅ ⋅ −2
analizadas.
Como consecuencia de la observación directa de los voltamperogramas, se llegó a la
conclusión de que un modelo de tipo gaussiano podría ser capaz de ajustarse con bastante
exactitud a las diferentes señales.
La estructura elegida para esta función matemática fue la siguiente:
la cual se corresponde claramente con una función gaussiana, donde: E(V) son los valores de
potencial; E(V)max es el potencial al que aparece el máximo de intensidad; y, por último, C y P
son dos constantes, definidas como “constante” y “parámetro”, respectivamente.
Estos dos coeficientes se han de determinar mediante un proceso de estimación por el
método de mínimos cuadrados para cada señal. Como estadístico de la bondad del ajuste
empleamos el valor del coeficiente de determinación (R).
Por tanto el problema queda definido como sigue:
A continuación se describen las etapas efectuadas para llevar a cabo el proceso de ajuste:
1. El conjunto de datos continuo, con los datos de intensidad-potencial en su formato
nativo, es decir, sin verse sometido al proceso de reducción de dimensiones, fue el
empleado (ver Anexo I).
2. A este conjunto, con las intensidades expresadas en nA para facilitar los cálculos, se le
aplicó un ajuste mínimo cuadrático para cada señal que lo componía.
3. La estimación se realizó en base al modelo anterior. La función de pérdida utilizada, L,
también fue definida, adquiriendo la forma que a continuación se presenta:
4. Otros parámetros del modelo fueron los siguientes: el máximo número de iteraciones
fue de 50 y el criterio de convergencia igual a 0,001. Por último, el método de
estimación elegido fue el cuasi-Newton, que es el método más rápido para lograr la
convergencia. Consiste en un método iterativo, por medio del cual, las derivadas
TRATAMIENTO ESTADÍSTICO DE DATOS
-134-
(parciales) de segundo orden de la función de pérdida fueron estimadas asintóticamente
y utilizadas para determinar los cambios de los parámetros de una iteración a otra. Este
procedimiento es mucho más eficaz que cualquier otro en el caso en que las derivadas
de segundo orden de la función de pérdida sean significativas (y normalmente lo son).
La desventaja que presenta con respecto a otros métodos de estimación, tales como el
simplex, el de Rosenbrock o el de Hooke-Jeeves, radica en que es menos robusto que
estos, en el sentido en que posee una mayor eficacia en la convergencia hacia mínimos
locales y es más sensible a valores iniciales inadecuados.
Una vez definido el procedimiento a seguir, todas las señales de los voltamperogramas
fueron ajustadas al modelo analítico, obteniéndose resultados satisfactorios, como puede
observarse en la Tabla 1:
TRATAMIENTO ESTADÍSTICO DE DATOS
-135-
TALIO T1 T2 T3 T4 T5 T6 T7 T8 T9 T10R=0.9941 R=0.9979 R=0.9991 R=0.9973 R=0.9995 R=0.9960 R=0.9956 R=0.9979 R=0.9871 R=0.9949C=23.798 C=52.26244 C=79.6575 C=106.175 C=136.844 C=170.0394 C=195.149 C=224.993 C=241.904 C=280.7367
P= -184.939 P= -200.477 P= -203.5324 P= -207.6287 P= -207.832 P= -193.721 P= -208.161 P= -207.0365 P= -204.5816 P= -209.96R=0.9906 R=0.9971 R=0.9963C=43.7876 C=67.47893 C=242.6326P= -325.981 P= -254.843 P= -311.027R=0.9901 R=0.9979 R=0.9972C=78.9196 C=129.7817 C=304.9605
P= -329.7137 P= -258.727 P= -301.046R=0.9895 R=0.9915 R=0.9976
C=119.9772 C=189.5485 C=366.9298P= -330.737 P= -254.073 P= -300.548R=0.9907 R=0.9981 R=0.9933
C=146.0105 C=248.9773 C=424.0794P= -334.350 P= -264.234 P= -288.695R=0.9957 R=0.9933 R=0.9941
C=187.0196 C=324.4907 C=481.5672P= -337.429 P= -256.063 P= -283.958R=0.9960 R=0.9995 R=0.9941
C=218.6532 C=209.5356 C=375.7182P= -338.508 P= -221.756 P= -255.796R=0.9959 R=0.9990 R=0.9927
C=252.8242 C=269.5875 C=446.9373P= -338.480 P= -231.543 P= -259.346R=0.9909 R=0.9936 R=0.9971
C=289.2859 C=332.1701 C=500.7769P= -335.233 P= -233.570 P= -275.668R=0.9960 R=0.9987 R=0.9946
C=321.8346 C=385.0555 C=557.0440P= -339.094 P= -242.054 P= -260.004R=0.9960 R=0.9984 R=0.9938
C=350.9841 C=458.0142 C=606.6414P= -339.743 P= -245.251 P= -279.075
P10
P9
P1
P2
P3
P4
P5
P6
P7
Tabla 1: Parámetros y coeficientes de ajuste para la aproximación gaussiana de las señales de los voltamperogramas.
P8P
LO
MO
TRATAMIENTO ESTADÍSTICO DE DATOS
-136-
Modelo: T5P5=constante*exp(parámetro*(V+0.504)**2)
y=(324.4907)*exp((-256.0627)*(x+0.504)**2)
E (V)
I (
nA)
-50
0
50
100
150
200
250
300
350
-0.7 -0.6 -0.5 -0.4
Figura 7: Superposición de la señal de la mezcla T5P5 (Tl (I) a 0,5 y Pb (II) a 0,5 mg·l-1)junto con el modelo gaussiano que mejor se le ajusta (línea roja).
Para el caso de la mezcla T5P5 (Tl (I) 0,5 y Pb (II) 0,5 mg·l-1), el gráfico de estimación fue
el siguiente (Figura 6):
Los puntos azules se corresponden con los valores de intensidad observados y la línea roja
con la predicción efectuada a través del modelo. Como se desprende de la función de estimación
representada en la parte superior del gráfico, el valor de la constante es 324,4907 y el del
parámetro es -256,0627. El coeficiente de determinación en este caso es 0,9933, que equivale a
un ajuste del 98,67 %, el cual podemos considerar que es bastante bueno.
A continuación, aparece una tabla donde se refleja el porcentaje de ajuste para cada señal:
TRATAMIENTO ESTADÍSTICO DE DATOS
-137-
MuestrasAjuste
(%)Error (%) Muestras
Ajuste
(%)Error (%)
T1
T2
T3
T4
T5
T6
T7
T8
T9
T10
P1
P2
P3
P4
P5
P6
P7
P8
P9
P10
98,820
99,582
99,828
99,467
99,908
99,196
99,115
99,575
97,437
98,979
98,128
98,026
97,915
98,147
99,146
99,204
99,187
98,182
99,202
99,195
1,180
0,418
0,172
0,533
0,092
0,804
0,885
0,425
2,563
1,021
1,872
1,974
2,085
1,853
0,854
0,796
0,813
1,818
0,798
0,805
T1P1
T1P6
T2P2
T2P7
T3P3
T3P8
T4P4
T4P9
T5P5
T5P10
T6P1
T6P6
T7P2
T7P7
T8P3
T8P8
T9P4
T9P9
T10P5
T10P10
99,424
99,905
99,573
99,797
98,310
98,722
99,628
99,772
98,667
99,690
99,252
98,820
99,442
98,547
99,513
99,427
98,662
98,933
98,815
98,762
0,576
0,095
0,427
0,203
1,690
1,278
0,372
0,228
1,333
0,310
0,748
1,180
0,558
1,453
0,487
0,573
1,338
1,067
1,185
1,238
En la mayoría de los casos, el error es inferior al 2 %, lo que indica un grado de ajuste a la
función gaussiana casi perfecto.
De igual modo, puede afirmarse que los errores más elevados se producen en el ajuste de
los patrones de Pb (II), puesto que si se observan los gráficos correspondientes a los mismos
(Figura 3 del capítulo anterior) se comprueba que las señales de los voltamperogramas son más
anchas y menos puntiagudas, difiriendo así un poco de una curva gaussiana.
En el resto de las muestras analizadas, se mantiene en mayor medida el carácter gaussiano,
aunque las mezclas de ambos elementos, también suelen dar un error más elevado.
TRATAMIENTO ESTADÍSTICO DE DATOS
-138-
( ) ( ) ( )f TP f T f Pi j i j= ⋅ + ⋅α β
C) MÉTODOS DE PREDICCIÓN O DE SEPARACIÓN DE SEÑALES.
Dos son los métodos de predicción utilizados para lograr la separación de las señales en
cada una de las mezclas analizadas de Tl (I) y Pb (II), de acuerdo con la Tabla 3 del capítulo
anterior.
Estos métodos son los siguientes:
w Estimación por interpolación.
w Redes neuronales artificiales.
A continuación describiremos el procedimiento seguido con cada uno de ellos.
ESTIMACIÓN POR INTERPOLACIÓN.
A partir de las rectas de calibrado de los dos cationes y de las rectas de ajuste que pueden
establecerse en las diagonales formadas por las mezclas analizadas, recogidas en el capítulo
anterior (ver Figuras 2, 4, 6, 8 y 10), se desprende que existe linealidad entre las señales de las
distintas mezclas y las de los patrones puros de Tl (I) y Pb (II) que las componen.
Por consiguiente, en un principio, cada una de las mezclas obtenidas puede expresarse
como combinación lineal de los patrones puros. El problema queda definido entonces de la
siguiente manera (Modelo 1):
donde f(TiPj) son los datos de intensidad que conforman la señal de la mezcla TiPj; Ti y Pj
representan las señales correspondientes a los patrones puros de Tl (I) y Pb (II), respectivamente;
y á y â son las contribuciones de cada uno de los patrones a la señal total de la mezcla. Los
subíndices i y j toman valores enteros de 1 a 10, cada uno de los cuales equivale a un valor de
concentración en el intervalo estudiado, que va desde 0,1 a 1,0 mg·l-1.
En el siguiente gráfico (Figura 7), se superponen las señales de los voltamperogramas para
la mezcla T7P7: Tl (I) a 0,7 y Pb (II) a 0,7 mg·l-1 y para los patrones puros T7: Tl (I) a 0,7 mg·l-1
y P7: Pb (II) a 0,7 mg·l-1:
TRATAMIENTO ESTADÍSTICO DE DATOS
-139-
0.00E+00
5.00E-08
1.00E-07
1.50E-07
2.00E-07
2.50E-07
3.00E-07
3.50E-07
4.00E-07
4.50E-07
5.00E-07
-0.70 -0.60 -0.50 -0.40 -0.30
E (V)
I (A
) T7
P7
T7P7
Figura 8: Superposición de las señales de los voltamperogramas de Tl (I) a 0,7 mg·l-1, Pb (II) a0,7 mg·l-1 y de la mezcla de ambos.
Como puede observarse, la señal de la mezcla T7P7 es una combinación lineal de dos
señales individuales, cada una de las cuales contribuye de forma diferente a la señal global. Dicha
contribución se explica por el valor de los parámetros á y â.
En general, la forma de la señal resultante es acampanada y, por tanto, susceptible de ser
aproximada muy bien por una distribución normal. Pero esto ocurre solo cuando las posiciones
de los picos están suficientemente próximas, como puede comprobarse en la Figura 7. Una
situación extrema sería la que aparece reflejada en la Figura 8; sin embargo, esta anomalía no
sucede en nuestro caso, aunque en los límites del intervalo considerado contribuye ligeramente
a empeorar la aproximación por una gaussiana:
TRATAMIENTO ESTADÍSTICO DE DATOS
-140-
0,00E+00
1,00E-07
2,00E-07
3,00E-07
4,00E-07
5,00E-07
6,00E-07
7,00E-07
-0,70 -0,60 -0,50 -0,40 -0,30
E (V)
I (
A) No normal
Normal
Figura 9: Superposición de dos mezclas con diferente distribución.
( ) ( ) ( )f T P f T f P f T Pi j i j i j= ⋅ + ⋅ + ⋅ ×α β γ ( )
( ) ( ) ( ) ( )f T P f T f P f T Pi j i ii
n
j jj
n
ij i ji j
n
= ⋅ + ⋅ + ⋅ ×=
=
=
= =
∑ ∑ ∑α β γ1
10
1
10 10
,
No obstante, existen otros muchos modelos matemáticos que podrían definir también el
problema en cuestión. Un nuevo ejemplo podría ser el que considera la interferencia (Modelo 2):
donde f(Ti × Pj) representa aquí la posible interacción existente entre los dos iones presentes en
la mezcla y ã su correspondiente contribución.
Este modelo sería más completo que el precedente; no obstante, en el caso que nos ocupa,
donde se mezclan dos iones metálicos, como son Pb2+ y Tl+, esta interacción puede considerarse
como nula (ã = 0). Por tanto, no se utilizará esta formulación para resolver las mezclas.
Por último, podría haber un tercer modelo, representado del siguiente modo (Modelo 3):
En esta situación, la señal de la mezcla se considera como una combinación lineal de todos
y cada uno de los patrones puros analizados, tanto de Tl (I) como de Pb (II), teniendo cada uno
de ellos una contribución diferente a la señal global.
Este modelo sería aplicable únicamente en aquellos casos donde se desconozca la
TRATAMIENTO ESTADÍSTICO DE DATOS
-141-
[ ] [ ] [ ]T P T Pi j i j= ⋅ + ⋅α β
( )( )
( )
( ) ( )( ) ( )
( ) ( )
f
T P
T P
T P
f
T P
T P
T P
i j
i j
i j
i j
i j
i j
1
2
80
1 1
2 2
80 80
80 1
M M M
=
⋅
× × ×
αβ
80 2 2 1
composición de la mezcla de partida. Por tanto, habría que suponer una contribución de todos
los patrones de cada uno de los iones allí presentes y no solamente la de un único y determinado
patrón (ver Modelo 1), siempre dentro del intervalo de concentraciones establecido.
El Modelo 3 nos sirve, en cierto modo, para predecir las posibles concentraciones de cada
uno de los elementos existentes en la mezcla desconocida. Y escribimos “posibles” porque la
solución obtenida a partir de la aplicación del mismo no es única: existen infinitas soluciones,
es decir, podemos encontrar infinitas combinaciones lineales de todo el conjunto de patrones
cuyo resultado sea la señal global de la mezcla TiPj que se desea resolver.
Una vez vistos todos los posibles modelos a aplicar en la resolución del problema se
escogió el Modelo 1, puesto que los resultados obtenidos con éste fueron muy aceptables. A
partir de aquí, el problema queda establecido en notación matricial como sigue:
donde ahora, [TiPj], [Ti] y [Pj] son vectores-columna.
Finalmente, el problema sería el que se presenta a continuación:
que equivale a un sistema de ecuaciones del tipo Y = A·X, de dimensiones 80×2, es decir, 80
ecuaciones y 2 incógnitas. A la vista de lo anterior, el sistema tendría de ecuaciones resultante
estaría sobredeterminado, pudiendo no tener solución.
La forma general de actuar sería hallar la pseudosolución del sistema; ello supondría
transformar el sistema anterior hasta llegar a una solución del tipo B ·Y = X, donde X es la
matriz-columna formada por los parámetros á y â.
Sin embargo, para que actuando de esta forma la solución fuese única, correspondiente a
los valores para dichos parámetros en cada mezcla, tendría que ocurrir lo siguiente:
w El sistema Y = A·X debería ser 2×2, para cada problema o mezcla, es decir, que fuese
un sistema compatible determinado.
w La matriz A del sistema debería ser cuadrada, regular y su determinante distinto de
TRATAMIENTO ESTADÍSTICO DE DATOS
-142-
AA
Aadj− =1
( ) A A A
m n m m n n n
-1→ = ⋅ →
× × × ×
− −1 1A A
n
t
( ) A A A
80 2 80 2
-1→ = ⋅ →
× × × ×
− −1 1
2 80 2 2
A At
( )A A A Y Xt t⋅ ⋅ ⋅ =−1
cero, es decir, tendría que ser invertible. Su inversa, de este modo, sería A-1 y se
obtendría del siguiente modo:
Pero como se ha comentado antes, el sistema de ecuaciones está sobredeterminado, puesto
que hay más ecuaciones que incógnitas. Además, la matriz A, de dimensiones 80×2, no es
invertible, al incumplir las condiciones exigidas.
Para transformar el sistema de ecuaciones de dimensiones 80×2, en un sistema compatible
determinado, de dimensiones 2×2, cuya matriz A sea invertible, hay que recurrir al concepto de
“matriz inversa generalizada”. La inversa generalizada se halla del siguiente modo:
En nuestro caso, quedaría:
Es decir, la inversa generalizada de una matriz A de orden n×m (no cuadrada) se obtiene hallando
la inversa de la matriz formada por el producto de la matriz traspuesta de A (At) y la matriz A
del sistema.
Por tanto, la solución del sistema, para el problema planteado por el Modelo 1, sería:
De este modo, obtenemos las contribuciones de cada uno de los patrones de Tl (I) y Pb (II)
presentes en la mezcla. El problema se repite para todas y cada una de las 20 mezclas analizadas.
Así, conseguiremos expresar las mezclas como combinaciones lineales de los iones que las
componen.
Esta sería la forma general de resolver el problema planteado por el Modelo 1, es decir, la
solución es independiente del método de resolución que se aplique. La única diferencia entre un
método y otro radica en las operaciones o transformaciones intermedias que empleen.
El método de mínimos cuadrados que a continuación se presenta es equivalente al proceso
descrito anteriormente, en el sentido en que la solución del problema, Y =A·X, es la misma que
TRATAMIENTO ESTADÍSTICO DE DATOS
-143-
( )( ) ( )( ) ( )( )[ ]Pr ( , )ij i j i jk
Min f T P k f T k P kα β α β≡ − ⋅ − ⋅=
∑1
80 2
la del problema Prij:
El procedimiento aquí empleado ha sido un ajuste mínimo cuadrático. Con vistas a hacer
de este método una buena herramienta predictiva, las etapas que lo constituyen son:
1. Se emplearon como datos de partida las señales de los voltamperogramas
correspondientes a cada muestra analizada, compuestas por 80 valores de intensidad.
2. El ajuste se realizó para las 20 mezclas, en base al modelo elegido: Modelo 1.
3. No se consideraron modelos con términos independientes, al suponerse la inexistencia
de señal en el blanco y se eligió como límite de tolerancia el valor de 0,00010.
4. Los coeficientes del ajuste á y â (solución del sistema para cada problema), así como
la bondad del ajuste en cada caso, se recogen en la siguiente tabla (Tabla 2):
TRATAMIENTO ESTADÍSTICO DE DATOS
-144-
T1 T2 T3 T4 T5 T6 T7 T8 T9 T10" = 1.137 " = -0.053ß = 0.958 ß = 5.783R=0.9993 R = 0.9983
" = 1.059 " = 0.263ß = 0.987 ß = 3.269
R = 0.9998 R=0.9999" = 1.154 " = 0.319ß = 0.919 ß = 2.686
R = 0.9997 R = 0.9998" = 0.956 " = 0.449ß = 1.072 ß = 2.238
R = 0.9998 R = 0.9996" = 1.035 " = 0.441ß = 1.052 ß = 1.998R=0.9999 R=0.9999
" = 6.961 " = 0.932ß = 0.193 ß = 1.064
R = 0.9979 R = 0.9996" = 3.319 " = 0.969ß = 0.412 ß = 1.096
R = 0.9998 R = 0.9999" = 3.009 " = 1.129ß = 0.340 ß = 0.877
R = 0.9995 R = 0.9980" = 2.078 " = 0.987ß = 0.561 ß = 1.059
R = 0.9999 R = 0.9997" = 1.951 " = 1.267ß = 0.589 ß = 0.714
R = 0.9998 R = 0.9974
P6
P7
P8
P10
P9
Tabla 2: Tabla de resultados para el método de ajuste de las señales.
P5
P1
P2
P3
P4
TRATAMIENTO ESTADÍSTICO DE DATOS
-145-
0.00E+00
5.00E-08
1.00E-07
1.50E-07
2.00E-07
2.50E-07
-0.70 -0.60 -0.50 -0.40 -0.30
E (V)
I (A
)
T l 0,7 mg/l
T l 0,7 mg/l + ruido
Figura 11: Superposición de las señales del patrón Tl (I) a 0,7 mg·l-1 y su correspondiente señalafectada de ruido al 5 %.
Como puede observarse, todos los valores de R son superiores a 0,9974.
Para establecer si los modelos anteriores son robustos o no a la presencia de ruido se
utilizaron señales construidas artificialmente, contaminando cada señal original con un cierto
porcentaje de ruido. Este nuevo conjunto se obtuvo del siguiente modo:
1. Se procedió a la generación de números aleatorios que variasen entre 0 y el 5 % del
máximo de la señal.
2. Después, estos valores se añadieron al conjunto de datos formado por los valores de
intensidad de las señales de los voltamperogramas de las muestras.
3. El resultado fue un nuevo conjunto de datos afectado por un ruido aleatorio, cuya
amplitud máxima era del 5 %. Esto es, la relación señal / ruido para el conjunto obtenido
era inferior o igual a un 5 %.
Por ejemplo, en la Figura 9, se compara la señal del patrón Tl (I) a 0,7 mg·l-1 original con
su correspondiente señal afectada de ruido al 5 %:
Los 80 datos de intensidad para cada señal, que componen el nuevo conjunto generado,
fueron formateados adecuadamente y trasladados al software Autolab®, donde se procedió a la
medida de los parámetros de pico para todas las muestras con ruido. Los resultados se recogen
en la Tabla 3:
TRATAMIENTO ESTADÍSTICO DE DATOS
-146-
Muestras Potencial (V) Intensidad (nA) Anchura (V)Tl 0,1 -0,504 23,24 0,111Tl 0,2 -0,494 53,19 0,111Tl 0,3 -0,494 80,07 0,116Tl 0,4 -0,494 107,40 0,111Tl 0,5 -0,489 136,80 0,116Tl 0,6 -0,489 173,00 0,116Tl 0,7 -0,499 199,20 0,111Tl 0,8 -0,484 231,90 0,111Tl 0,9 -0,484 248,80 0,111Tl 1,0 -0,489 289,70 0,116Pb 0,1 -0,520 41,67 0,096Pb 0,2 -0,515 75,83 0,101Pb 0,3 -0,520 108,20 0,106Pb 0,4 -0,520 142,50 0,096Pb 0,5 -0,515 181,30 0,101Pb 0,6 -0,530 209,70 0,096Pb 0,7 -0,520 241,80 0,101Pb 0,8 -0,520 280,20 0,101Pb 0,9 -0,520 312,50 0,101Pb 1,0 -0,515 340,70 0,101
Tl 0,1 y Pb 0,1 -0,504 66,22 0,106Tl 0,6 y Pb 0,1 -0,499 213,80 0,111Tl 0,2 y Pb 0,2 -0,499 127,60 0,106Tl 0,7 y Pb 0,2 -0,504 268,50 0,111Tl 0,3 y Pb 0,3 -0,504 191,80 0,106Tl 0,8 y Pb 0,3 -0,499 340,90 0,111Tl 0,4 y Pb 0,4 -0,504 248,70 0,106Tl 0,9 y Pb 0,4 -0,499 386,60 0,111Tl 0,5 y Pb 0,5 -0,499 325,40 0,106Tl 1,0 y Pb 0,5 -0,499 462,50 0,106Tl 0,1 y Pb 0,6 -0,520 233,40 0,106Tl 0,6 y Pb 0,6 -0,509 375,10 0,106Tl 0,2 y Pb 0,7 -0,515 296,00 0,101Tl 0,7 y Pb 0,7 -0,509 450,10 0,101Tl 0,3 y Pb 0,8 -0,520 356,80 0,101Tl 0,8 y Pb 0,8 -0,504 507,90 0,101Tl 0,4 y Pb 0,9 -0,509 418,10 0,106Tl 0,9 y Pb 0,9 -0,504 548,50 0,106Tl 0,5 y Pb 1,0 -0,504 474,60 0,106Tl 1,0 y Pb 1,0 -0,509 615,40 0,096
Tabla 3: Valores de los parámetros de pico para las señales afectadas por ruido.
TRATAMIENTO ESTADÍSTICO DE DATOS
-147-
Tl (I)
Pb (II)
Mezclas
Clasificación discriminante según el contenido de Tl (I) y/o Pb (II)
Muestras afectadas por un 5 % de ruido (Plano Factorial)
Dimension 1
Dim
ensi
on 2
T3T4
T9T10
T6
T8T7
T1
T5
T2
P4
P2
P3
P1
P10
P5
P9P8
P7P6
T5P10
T5P5
T4P9
T4P4
T3P8
T3P3
T2P7
T2P2
T1P6 T6P1
T1P1
T10P10
T9P9
T9P4
T8P8
T8P3
T7P7T10P5
T7P2
T6P6
-4
-3
-2
-1
0
1
2
3
4
-5 -4 -3 -2 -1 0 1 2 3 4 5
Figura 13: Análisis lineal discriminante del conjunto de datos afectado de un 5 % de ruido.
Posteriormente, y antes de llevar a cabo la comprobación de robustez, se visualizaron las
muestras con ruido mediante un análisis lineal discriminante, en idénticas condiciones a las
empleadas con las señales originales. El objetivo perseguido consistía en verificar si el método
del ALD seguía siendo eficaz en la tarea de clasificar y diferenciar el conjunto de datos
contaminado. Los resultados se muestran en la Figura 10:
La matriz de clasificación para este caso es la siguiente:
TRATAMIENTO ESTADÍSTICO DE DATOS
-148-
Grupo % Clasificación Tl (I) Pb (II) Mezclas
Tl (I)
Pb (II)
Mezclas
90,0000
90,0000
80,0000
9
0
2
0
9
2
1
1
16
Total 85,0000 11 11 18
Estos resultados corroboran el diagrama de puntos presentado anteriormente. Como puede
observarse, las muestras puras de talio y plomo son clasificadas al 90 %. Ya aquí, se ha perdido
un 10 % de clasificación con respecto al análisis lineal discriminante aplicado a las muestras
originales. Del mismo modo, en el caso de las mezclas, aparecen dos errores más de
clasificación, lo que disminuye el porcentaje correcto hasta el 80 %. La clasificación total de las
40 muestras resultó ser del 85 %, un 10 % menor que con las señales originales.
En este caso, los errores cometidos en la clasificación se corresponden con las muestras
recogidas en la tabla que a continuación se presenta:
Muestras Clasificación observada Predicción
T1
P10
T1P1
T2P2
T6P1
T8P3
Tl (I)
Pb (II)
Mezcla
Mezcla
Mezcla
Mezcla
Mezcla
Mezcla
Tl (I)
Tl (I)
Pb (II)
Pb (II)
Como conclusión a todo lo anterior, podemos afirmar que el análisis lineal discriminante
empeora un 10 % la clasificación y diferenciación de las muestras cuando éstas se encuentran
afectadas por ruido, que en este caso alcanza un 5 % de amplitud máxima.
Para obtener la mejor aproximación a cualquiera de las señales contaminadas con ruido,
se llevó a cabo el siguiente proceso:
1. Se tomaron dos tablas: la primera, constituida por el conjunto de datos de intensidad de
TRATAMIENTO ESTADÍSTICO DE DATOS
-149-
( )ε = −=∑ x xi ii
* 2
1
80
las señales originales y, la segunda, formada por los valores de sus correspondientes
señales afectadas de ruido.
2. Se escogieron doce señales originales al azar, pero con la condición de que incluyeran
las que fuesen críticas: T6P1 y T1P6, que fueron las que el ALD no clasificó bien (ver
Figura 2).
3. A continuación, se compararon cada una de ellas con las 40 señales afectadas de ruido,
de tal modo, que el resultado que mostrase el error más pequeño nos daría la
correspondencia entre la señal original y la ruidosa. Si dicho resultado hacía coincidir
la muestra original con su respectiva, pero afectada de ruido, se demostraría así la
robustez del método.
4. El error utilizado en este caso fue el error cuadrático:
donde xi y x*i son los valores de intensidad de la señal original y ruidosa,
respectivamente.
5. En la Tabla 4, se recogen los resultados obtenidos para cada una de las pruebas
efectuadas:
TRATAMIENTO ESTADÍSTICO DE DATOS
-150-
T1error T2error T3error T4error T5error T6error T7error T8error T9error T10errorT1 3,85E-17 1,57E-14 5,88E-14 1,26E-13 2,38E-13 4,23E-13 5,51E-13 7,61E-13 9,17E-13 1,24E-12P1 6,59E-15 1,08E-14 4,19E-14 1,03E-13 2,01E-13 3,76E-13 4,92E-13 6,94E-13 8,44E-13 1,14E-12T10 1,13E-12 8,84E-13 6,79E-13 5,07E-13 3,35E-13 1,80E-13 1,07E-13 4,24E-14 1,82E-14 6,01E-15P10 1,44E-12 1,19E-12 9,74E-13 8,34E-13 6,48E-13 5,25E-13 4,31E-13 3,96E-13 3,81E-13 3,26E-13
T1P6 5,65E-13 3,98E-13 2,65E-13 1,67E-13 7,69E-14 2,64E-14 9,53E-15 2,93E-14 5,96E-14 1,39E-13T4P4 7,63E-13 5,73E-13 4,15E-13 3,07E-13 1,88E-13 1,19E-13 7,84E-14 8,39E-14 1,02E-13 1,40E-13T4P9 2,07E-12 1,74E-12 1,44E-12 1,21E-12 9,36E-13 6,83E-13 5,34E-13 3,92E-13 3,13E-13 1,71E-13T5P5 1,40E-12 1,13E-12 9,04E-13 7,31E-13 5,30E-13 3,67E-13 2,67E-13 1,97E-13 1,64E-13 1,03E-13
T5P10 2,97E-12 2,57E-12 2,22E-12 1,92E-12 1,57E-12 1,24E-12 1,03E-12 8,21E-13 6,95E-13 4,62E-13T6P1 6,72E-13 5,13E-13 3,81E-13 3,12E-13 2,23E-13 2,04E-13 1,82E-13 2,30E-13 2,73E-13 3,38E-13T6P6 1,92E-12 1,61E-12 1,33E-12 1,11E-12 8,58E-13 6,33E-13 4,94E-13 3,75E-13 3,10E-13 1,84E-13T7P2 1,12E-12 8,97E-13 7,04E-13 5,75E-13 4,16E-13 3,12E-13 2,40E-13 2,20E-13 2,17E-13 2,00E-13
P1error P2error P3error P4error P5error P6error P7error P8error P9error P10errorT1 7,14E-15 4,62E-14 1,17E-13 2,20E-13 3,93E-13 5,54E-13 7,55E-13 1,03E-12 1,28E-12 1,56E-12P1 1,20E-16 2,00E-14 7,30E-14 1,58E-13 3,10E-13 4,54E-13 6,38E-13 8,93E-13 1,13E-12 1,39E-12T10 1,03E-12 8,11E-13 6,31E-13 4,95E-13 3,44E-13 2,88E-13 2,45E-13 2,66E-13 2,66E-13 3,13E-13P10 1,27E-12 9,79E-13 7,42E-13 5,39E-13 3,32E-13 2,12E-13 1,14E-13 3,83E-14 1,02E-14 7,58E-15
T1P6 4,91E-13 3,37E-13 2,23E-13 1,49E-13 8,54E-14 8,43E-14 1,06E-13 1,90E-13 2,60E-13 3,68E-13T4P4 6,57E-13 4,61E-13 3,08E-13 1,93E-13 8,47E-14 4,59E-14 3,00E-14 6,24E-14 1,02E-13 1,76E-13T4P9 1,90E-12 1,56E-12 1,27E-12 1,03E-12 7,43E-13 5,85E-13 4,35E-13 3,26E-13 2,30E-13 1,78E-13T5P5 1,26E-12 9,78E-13 7,47E-13 5,57E-13 3,50E-13 2,42E-13 1,51E-13 9,93E-14 6,43E-14 6,68E-14
T5P10 2,77E-12 2,36E-12 1,99E-12 1,68E-12 1,30E-12 1,08E-12 8,59E-13 6,71E-13 5,05E-13 3,87E-13T6P1 5,57E-13 3,73E-13 2,33E-13 1,27E-13 4,38E-14 1,21E-14 9,52E-15 4,15E-14 1,06E-13 1,93E-13T6P6 1,75E-12 1,42E-12 1,14E-12 8,98E-13 6,27E-13 4,74E-13 3,33E-13 2,27E-13 1,43E-13 9,89E-14T7P2 9,80E-13 7,29E-13 5,27E-13 3,61E-13 1,95E-13 1,08E-13 4,44E-14 1,38E-14 1,34E-14 4,22E-14
Tabla 4: Resultados de la comprobación de robustez del método analítico de ajuste de las señales.
TRATAMIENTO ESTADÍSTICO DE DATOS
-151-
T1P1error T1P6error T2P2error T2P7error T3P3error T3P8error T4P4error T4P9error T5P5error T5P10errorT1 3,17E-14 6,20E-13 1,87E-13 1,07E-12 4,66E-13 1,66E-12 8,38E-13 2,26E-12 1,51E-12 3,21E-12P1 1,45E-14 5,47E-13 1,39E-13 9,55E-13 3,88E-13 1,52E-12 7,31E-13 2,10E-12 1,37E-12 3,01E-12T10 8,16E-13 8,57E-14 4,44E-13 3,90E-14 2,03E-13 9,17E-14 9,78E-14 2,43E-13 1,09E-13 5,97E-13P10 1,05E-12 3,21E-13 6,11E-13 1,49E-13 3,08E-13 1,67E-13 1,34E-13 2,75E-13 8,79E-14 5,48E-13
T1P6 3,45E-13 2,75E-15 1,19E-13 8,40E-14 2,26E-14 2,92E-13 4,88E-14 5,68E-13 2,46E-13 1,09E-12T4P4 4,91E-13 3,66E-14 1,99E-13 3,78E-14 3,96E-14 1,89E-13 4,06E-15 4,14E-13 1,28E-13 8,58E-13T4P9 1,61E-12 4,40E-13 1,03E-12 1,72E-13 5,85E-13 2,88E-14 2,90E-13 1,21E-14 5,75E-14 1,31E-13T5P5 1,02E-12 1,89E-13 5,71E-13 3,67E-14 2,56E-13 2,85E-14 7,66E-14 1,22E-13 6,21E-15 3,86E-13
T5P10 2,41E-12 9,02E-13 1,69E-12 4,91E-13 1,10E-12 2,00E-13 6,74E-13 6,13E-14 2,62E-13 1,34E-14T6P1 4,19E-13 1,26E-13 1,73E-13 1,49E-13 5,88E-14 3,59E-13 6,07E-14 6,25E-13 2,49E-13 1,12E-12T6P6 1,47E-12 3,94E-13 9,18E-13 1,40E-13 5,01E-13 2,80E-14 2,28E-13 3,49E-14 3,07E-14 1,81E-13T7P2 7,82E-13 1,60E-13 4,03E-13 5,97E-14 1,58E-13 1,31E-13 4,00E-14 2,86E-13 6,25E-14 6,29E-13
T6P1error T6P6error T7P2error T7P7error T8P3error T8P8error T9P4error T9P9error T10P5error T10P10errorT1 7,29E-13 2,06E-12 1,21E-12 2,98E-12 1,79E-12 3,66E-12 2,51E-12 4,68E-12 3,37E-12 5,45E-12P1 6,12E-13 1,89E-12 1,07E-12 2,77E-12 1,62E-12 3,45E-12 2,32E-12 4,43E-12 3,14E-12 5,19E-12T10 2,83E-13 2,25E-13 1,80E-13 5,54E-13 2,58E-13 8,08E-13 4,53E-13 1,34E-12 8,02E-13 1,70E-12P10 1,35E-13 1,66E-13 2,84E-14 3,95E-13 4,93E-14 7,06E-13 2,02E-13 1,09E-12 4,70E-13 1,56E-12
T1P6 1,23E-13 4,84E-13 1,92E-13 9,73E-13 4,08E-13 1,36E-12 7,54E-13 2,02E-12 1,24E-12 2,51E-12T4P4 4,80E-14 3,17E-13 6,52E-14 7,26E-13 2,22E-13 1,09E-12 5,09E-13 1,67E-12 9,29E-13 2,16E-12T4P9 4,89E-13 1,26E-14 1,88E-13 9,87E-14 7,44E-14 2,34E-13 7,39E-14 5,40E-13 2,16E-13 8,14E-13T5P5 1,86E-13 6,82E-14 3,42E-14 2,97E-13 4,25E-14 5,47E-13 1,74E-13 9,65E-13 4,39E-13 1,35E-12
T5P10 9,28E-13 9,90E-14 4,72E-13 1,80E-14 2,21E-13 4,64E-14 7,63E-14 2,08E-13 7,47E-14 3,88E-13T6P1 3,04E-15 4,80E-13 1,01E-13 9,32E-13 3,04E-13 1,38E-12 6,43E-13 1,96E-12 1,10E-12 2,55E-12T6P6 3,79E-13 9,31E-15 1,17E-13 1,20E-13 2,88E-14 2,93E-13 5,78E-14 6,11E-13 2,22E-13 9,28E-13T7P2 6,35E-14 1,85E-13 6,17E-15 4,88E-13 8,24E-14 8,20E-13 2,89E-13 1,28E-12 6,19E-13 1,76E-12
Tabla 4: Resultados de la comprobación de robustez del método analítico de ajuste de las señales.
TRATAMIENTO ESTADÍSTICO DE DATOS
-152-
0,00E+00
2,00E-13
4,00E-13
6,00E-13
8,00E-13
1,00E-12
1,20E-12
1,40E-12
1,60E-12
1 6 11 16 21 26 31 36
nº de muestras
Err
or
Error
Figura 16: Error obtenido en la comparación de la mezcla T5P5 (Tl (I) a 0,5 y Pb (II) a0,5 mg·l-1) con todas las señales afectadas por un 5 % de ruido.
De ella se desprende que el método analítico de ajuste es capaz de tratar señales que se
encuentran afectadas por un 5 % de ruido, al haberse alcanzado durante las pruebas un 100 % de
correspondencias entre las señales originales y las ruidosas, incluyendo los casos críticos.
En la Figura 11, pueden observarse los errores obtenidos tras la comparación de la mezcla
T5P5 con las señales ruidosas, estableciéndose el error mínimo en la señal ruidosa T5P5.
Se podía haber aumentado el porcentaje de ruido que afecta a las señales originales, para
ver, posteriormente, cuán robusto llega a ser el método. Sin embargo, no se han efectuado más
pruebas de este tipo, puesto que nos basta con el grado de robustez alcanzado.
Retomando, de nuevo, la Tabla 2, donde se recogían los valores de los coeficientes de
ajuste, á y â, así como la bondad del mismo para cada mezcla, podemos observar que ésta
representa una matriz “sparse” (o casi vacía) 10×10, la cual será completada por medio de la
aplicación del método de estimación por interpolación. Para ello, en base a las señales de los
patrones puros y los valores de á y â obtenidos, se construye un conjunto de modelos
matemáticos que nos sirve para obtener las señales de cualquier mezcla de dicha tabla. Esto,
finalmente, nos permitirá también predecir la concentración de los iones que componen la mezcla
en cuestión. Además, estos modelos matemáticos no sólo son válidos para los casos
representados en la matriz, sino también para cualquier valor intermedio de concentración, puesto
que sólo habría que variar de forma continua, en cada modelo, el valor del parámetro ë.
TRATAMIENTO ESTADÍSTICO DE DATOS
-153-
( ) ( ) ( )[ ]f T P f T P f T Pi j k l i j+ ⋅ −λ
( ) ( ) ( )[ ]f T P f T P f T P1 1 6 1 1 1+ ⋅ −λ λ donde = 0, 1
5 .. . , 1,
0.00E+00
5.00E-08
1.00E-07
1.50E-07
2.00E-07
2.50E-07
1 12 23 34 45 56 67 78 89 100
T1P1
T6P1
T3P1
Figura 17: Evolución lineal de las señales entre dos mezclas conocidas.
Estos modelos matemáticos predictivos se construirán en base a la suposición de que entre
dos señales conocidas cualesquiera, próximas entre sí, la evolución desde la primera hasta la
segunda es aproximadamente lineal, como se refleja en la Figura 12:
Estos modelos matemáticos adoptan la siguiente expresión:
donde ë toma valores continuos desde 0 hasta 1, aunque en la práctica, para completar la tabla,
se emplearon valores fraccionarios. Para cada fila o columna, las fracciones de ë se definen en
función del número de mezclas entre dos conocidas de la tabla. Así, cuando haya cuatro espacios
vacíos (cuatro mezclas no analizadas), los valores de son submúltiplos de 1/5; si hay tres
espacios, múltiplos de 1/4, y así sucesivamente.
Veamos la construcción de uno de estos modelos con la ayuda de un ejemplo. Para las
mezclas situadas en la primera fila de la tabla (desde T1P1 hasta T6P1), el modelo matemático
predictivo sería el siguiente:
Si sustituimos f(T1P1) y f(T6P1) por sus combinaciones lineales en función de los patrones puros
TRATAMIENTO ESTADÍSTICO DE DATOS
-154-
( ) ( ) ( ) ( ) ( ) ( ) ( )[ ]1137 0 958 0 053 5783 1137 0 9581 1 6 1 1 1. . . . . .
,
⋅ + ⋅ + ⋅ − ⋅ + ⋅ − ⋅ − ⋅f T f P f T f P f T f Pλ
λ donde = 0, 1
5 . . . , 1
y los valores de á y â correspondientes a las contribuciones de cada uno a la señal global de la
mezcla, la ecuación resultante es:
cuya expresión, simplificando y agrupando términos, queda reflejada en la primera fila de la
Tabla 5.
Además, hay casos donde las mezclas pueden predecirse tanto horizontal como
verticalmente, mientras que en otros tan solo puede hacerse de una de las dos formas. En base
a todo lo anterior, hemos establecido dos tablas de modelos matemáticos: una correspondiente
a modelos horizontales (Tabla 5) y otra a modelos verticales (Tabla 6), presentada esta última de
forma traspuesta:
TRATAMIENTO ESTADÍSTICO DE DATOS
-155-
T1 T2 T3 T4 T5 T6 T7 T8 T9 T10" = 1.137 " = -0.053ß = 0.958 ß = 5.783R=0.9993 R = 0.9983
" = 1.059 " = 0.263ß = 0.987 ß = 3.269
R = 0.9998 R=0.9999" = 1.154 " = 0.319ß = 0.919 ß = 2.686
R = 0.9997 R = 0.9999" = 0.956 " = 0.449ß = 1.072 ß = 2.238
R = 0.9998 R = 0.9996" = 1.035 " = 0.441ß = 1.052 ß = 1.998R=0.9999 R=0.9999
" = 6.961 " = 0.932ß = 0.193 ß = 1.064
R = 0.9979 R = 0.9996" = 3.319 " = 0.969ß = 0.412 ß = 1.096
R = 0.9998 R = 0.9999" = 3.009 " = 1.129ß = 0.340 ß = 0.877
R = 0.9995 R = 0.9980" = 2.078 " = 0.987ß = 0.561 ß = 1.059
R = 0.9999 R = 0.9997" = 1.951 " = 1.267ß = 0.589 ß = 0.714
R = 0.9998 R = 0.9974
(1+0.0728)f(P4)+0.9568f(T4); 8 = 0, 1/4, ..., 10.956(1-8)f(T4)+[1.072(1-8)+2.2388]f(P4)+
0.4498f(T9); 8 = 0, 1/5, ..., 1
Tabla 5: Tabla de modelos matemáticos predictivos para las mezclas susceptibles de ser explicadas mediante modelos horizontales.
(1-0.4118)f(P10)+1.9518f(T5); 8 = 0, 1/5, ..., 11.951(1-8)f(T5)+[0.589(1-8)+0.7148]f(P10)+
1.2678f(T10); 8 = 0, 1/5, ..., 1
(1-0.6608)f(P8)+3.0098f(T3); 8 = 0, 1/3, ..., 13.009(1-8)f(T3)+[0.340(1-8)+0.8778]f(P8)+
1.1298f(T8); 8 = 0, 1/5, ..., 1
(1-0.4398)f(P9)+2.0788f(T4); 8 = 0, 1/4, ..., 12.078(1-8)f(T4)+[0.561(1-8)+1.0598]f(P9)+
0.9878f(T9); 8 = 0, 1/5, ..., 1
6.961(1-8)f(T1)+[0.193(1-8)+1.0648]f(P6)+ 0.9328f(T6); 8 = 0, 1/5, ..., 1
1.137(1-8)f(T1)+[0.958(1-8)+5.7838]f(P1)+(-0.053)8f(T6); 8 = 0, 1/5, ..., 1
1.059(1-8)f(T2)+[0.987(1-8)+3.2698]f(P2)+0.2638f(T7); 8 = 0, 1/5, ..., 1
(1-0.0138)f(P2)+1.0598f(T2); 8 = 0, 1/2, 1
(1-0.0818)f(P3)+1.1548f(T3); 8 = 0, 1/3, ..., 11.154(1-8)f(T3)+[0.919(1-8)+2.6868]f(P3)+
0.3198f(T8); 8 = 0, 1/5, ..., 1
(1+0.0528)f(P5)+1.0358f(T5); 8 = 0, 1/5, ..., 11.035(1-8)f(T5)+[1.052(1-8)+1.9988]f(P5)+
0.4418f(T10); 8 = 0, 1/5, ..., 1
P8
P10
P9
P5
P6
P7 (1-0.5888)f(P7)+3.3198f(T2); 8 = 0, 1/2, 13.319(1-8)f(T2)+[0.412(1-8)+1.0968]f(P7)+
0.9698f(T7); 8 = 0, 1/5, ..., 1
P1
P2
P3
P4
TRATAMIENTO ESTADÍSTICO DE DATOS
-156-
P1 P2 P3 P4 P5 P6 P7 P8 P9 P10" = 1.137 " = 6.961ß = 0.958 ß = 0.193R=0.9993 R = 0.9979
" = 1.059 " = 3.319ß = 0.987 ß = 0.412
R = 0.9998 R = 0.9998" = 1.154 " = 3.009ß = 0.919 ß = 0.340
R = 0.9997 R = 0.9995" = 0.956 " = 2.078ß = 1.072 ß = 0.561
R = 0.9998 R = 0.9999" = 1.035 " = 1.951ß = 1.052 ß = 0.589R=0.9999 R = 0.9998
" = -0.053 " = 0.932ß = 5.783 ß = 1.064
R = 0.9983 R = 0.9996" = 0.263 " = 0.969ß = 3.269 ß = 1.096R=0.9999 R = 0.9999
" = 0.319 " = 1.129ß = 2.686 ß = 0.877
R = 0.9999 R = 0.9980" = 0.449 " = 0.987ß = 2.238 ß = 1.059
R = 0.9996 R = 0.9997" = 0.441 " = 1.267ß = 1.998 ß = 0.714R=0.9999 R = 0.9974
T8
(1-0.5598)f(T10)+1.9988f(P5); 8 = 0, 1/5, ..., 1[0.441(1-8)+1.2678]f(T10)+1.998(1-8)f(P5)+
0.7148f(P10); 8 = 0, 1/5, ..., 1
[1.059(1-8)+3.3198]f(T2)+0.987(1-8)f(P2)+ 0.4128f(P7); 8 = 0, 1/5, ..., 1
[1.154(1-8)+3.0098]f(T3)+0.919(1-8)f(P3)+ 0.3408f(P8); 8 = 0, 1/5, ..., 1
[0.956(1-8)+2.0788]f(T4)+1.072(1-8)f(P4)+ 0.5618f(P9); 8 = 0, 1/5, ..., 1
[1.035(1-8)+1.9518]f(T5)+1.052(1-8)f(P5)+ 0.5898f(P10); 8 = 0, 1/5, ..., 1
[(-0.053(1-8)+0.9328]f(T6)+5.783(1-8)f(P1)+ 1.0648f(P6); 8 = 0, 1/5, ..., 1
(1-0.7378)f(T7)+3.2698f(P2); 8 = 0, 1/2, 1[0.263(1-8)+0.9698]f(T7)+3.269(1-8)f(P2)+
1.0968f(P7); 8 = 0, 1/5, ..., 1
T5 (1+0.0358)f(T5)+1.0528f(P5); 8 = 0, 1/5, ..., 1
T6
T7
(1-0.0448)f(T4)+1.0728f(P4); 8 = 0, 1/4, ..., 1
[0.319(1-8)+1.1298]f(T8)+2.686(1-8)f(P3)+ 0.8778f(P8); 8 = 0, 1/5, ..., 1
(1-0.5518)f(T9)+2.2388f(P4); 8 = 0, 1/4, ..., 1[0.449(1-8)+0.9878]f(T9)+2.238(1-8)f(P4)+
1.0598f(P9); 8 = 0, 1/5, ..., 1
(1-0.6818)f(T8)+2.6868f(P3); 8 = 0, 1/3, ..., 1
Tabla 6: Tabla de modelos matemáticos predictivos para las mezclas susceptibles de ser explicadas mediante modelos verticales.
T10
T9
T1
T2
T3
T4
[1.137(1-8)+6.9618]f(T1)+0.958(1-8)f(P1)+ 0.1938f(P6); 8 = 0, 1/5, ..., 1
(1+0.0598)f(T2)+0.9878f(P2); 8 = 0, 1/2, 1
(1+0.1548)f(T3)+0.9198f(P3); 8 = 0, 1/3, ..., 1
TRATAMIENTO ESTADÍSTICO DE DATOS
-157-
A partir de estas tablas, empleando el modelo adecuado junto con el correspondiente valor
para ë, puede obtenerse cualquier mezcla que se desee, ya sean valores de concentración
intermedios o especificados en la Tabla 2.
A continuación, se comprobará la eficacia de este método, haciendo uso de 8 nuevas
mezclas analizadas y, supuestamente, desconocidas.
a) Verificación Del Método De Estimación Por Interpolación.
Se realizaron nuevas experiencias con el aparato Autolab®/PGSTAT20, hasta conseguir un
total de 8 voltamperogramas que fueron utilizados como conjunto de prueba. En la Tabla 7, se
recogen dichas mezclas con las 20 de partida:
T1 T2 T3 T4 T5 T6 T7 T8 T9 T10
P1 T1P1 T6P1 T9P1
P2 T2P2 T7P2 T10P2
P3 T3P3 T5P3 T8P3
P4 T4P4 T9P4
P5 T3P5 T5P5 T10P5
P6 T1P6 T6P6 T8P6
P7 T2P7 T7P7
P8 T3P8 T6P8 T8P8
P9 T1P9 T4P9 T9P9
P10 T2P10 T5P10 T10P10
Tabla 7: Tabla de las mezclas originales (azules) y las mezclas de comprobación (rojas).
Los parámetros de pico para estas muestras se reflejan en la Tabla 8:
TRATAMIENTO ESTADÍSTICO DE DATOS
-158-
Pruebas Patrón Réplica Vol. (ml) Pot. (V) Int. (nA) Área (10-8) Anchura (V) Derivada (10-7) Desv. Est. Int.Media [Tl+] [Pb2+] Int. Esperada Error (%)Tl 0,1 y Pb 0,9 4 1 1,0 -0,540 340,1 3,5400 0,101 123,20 1,95021 328,878 0,1 0,9 322,94 1,839Tl 0,1 y Pb 0,9 4 2 1,0 -0,540 344,0 3,5870 0,101 124,80 1,95021 328,878 0,1 0,9 322,94 1,839Tl 0,1 y Pb 0,9 4 3 1,0 -0,540 342,0 3,5650 0,101 124,10 1,95021 328,878 0,1 0,9 322,94 1,839Tl 0,2 y Pb 1,0 4 1 1,2 -0,540 391,3 4,0850 0,101 139,60 2,66333 374,014 0,2 1,0 379,30 -1,394Tl 0,2 y Pb 1,0 4 2 1,2 -0,540 394,9 4,1250 0,101 141,20 2,66333 374,014 0,2 1,0 379,30 -1,394Tl 0,2 y Pb 1,0 4 3 1,2 -0,540 389,7 4,0720 0,101 139,60 2,66333 374,014 0,2 1,0 379,30 -1,394Tl 0,9 y Pb 0,1 4 1 1,0 -0,525 299,6 3,5520 0,111 80,25 1,80831 287,885 0,9 0,1 286,88 0,350Tl 0,9 y Pb 0,1 4 2 1,0 -0,525 301,1 3,5710 0,111 80,59 1,80831 287,885 0,9 0,1 286,88 0,350Tl 0,9 y Pb 0,1 4 3 1,0 -0,525 297,5 3,5310 0,111 79,54 1,80831 287,885 0,9 0,1 286,88 0,350Tl 1,0 y Pb 0,2 4 1 1,2 -0,525 362,2 4,2740 0,111 99,51 1,98578 343,543 1,0 0,2 354,11 -2,984Tl 1,0 y Pb 0,2 4 2 1,2 -0,525 359,6 4,2490 0,111 98,33 1,98578 343,543 1,0 0,2 354,11 -2,984Tl 1,0 y Pb 0,2 4 3 1,2 -0,525 358,3 4,2390 0,111 97,88 1,98578 343,543 1,0 0,2 354,11 -2,984Tl 0,3 y Pb 0,5 4 1 0,8 -0,535 264,3 2,8630 0,101 88,58 1,83576 255,329 0,3 0,5 253,30 0,801Tl 0,3 y Pb 0,5 4 2 0,8 -0,535 261,4 2,8350 0,101 87,76 1,83576 255,329 0,3 0,5 253,30 0,801Tl 0,3 y Pb 0,5 4 3 0,8 -0,535 264,8 2,8710 0,101 88,89 1,83576 255,329 0,3 0,5 253,30 0,801Tl 0,5 y Pb 0,3 4 1 0,8 -0,530 253,3 2,8940 0,111 75,74 1,35277 244,186 0,5 0,3 241,27 1,209Tl 0,5 y Pb 0,3 4 2 0,8 -0,530 250,6 2,8580 0,111 75,06 1,35277 244,186 0,5 0,3 241,27 1,209Tl 0,5 y Pb 0,3 4 3 0,8 -0,530 252,1 2,8740 0,111 75,56 1,35277 244,186 0,5 0,3 241,27 1,209Tl 0,6 y Pb 0,8 4 1 1,4 -0,535 468,9 5,1580 0,106 152,20 2,11266 443,024 0,6 0,8 439,73 0,749Tl 0,6 y Pb 0,8 4 2 1,4 -0,540 469,2 5,1460 0,106 151,90 2,11266 443,024 0,6 0,8 439,73 0,749Tl 0,6 y Pb 0,8 4 3 1,4 -0,540 465,4 5,1290 0,106 151,50 2,11266 443,024 0,6 0,8 439,73 0,749Tl 0,8 y Pb 0,6 4 1 1,4 -0,530 450,3 4,8890 0,101 128,20 7,92654 422,917 0,8 0,6 429,04 -1,427Tl 0,8 y Pb 0,6 4 2 1,4 -0,530 452,0 4,9140 0,101 131,10 7,92654 422,917 0,8 0,6 429,04 -1,427Tl 0,8 y Pb 0,6 4 3 1,4 -0,535 437,5 4,9450 0,106 135,30 7,92654 422,917 0,8 0,6 429,04 -1,427
Tabla 8: Parámetros de pico de los voltamperogramas de comprobación para mezclas de patrones de Tl (I) y Pb (II).
TRATAMIENTO ESTADÍSTICO DE DATOS
-159-
Tl (I)
Pb (II)
Mezclas
Clasificación discriminante según el contenido de Tl (I) y/o Pb(II)
Plano Factorial conteniendo las 8 muestras de comprobación
Dimensión 1
Dim
ensi
ón 2
T7
T2
T5T6
T3
T1
T9
T10
T4
T8
P4
P2P3
P10P8
P1
P7
P9
P6P5
T10P5
T5P5
T9P4
T4P4
T8P3
T3P3
T8P6
T7P2
T2P2
T1P6
T10P2
T6P1
T1P1
T1P9T10P10
T5P10
T9P9
T4P4T8P8
T3P8
T2P10T9P1
T7P7
T3P5
T5P3
T6P8
T2P7
T6P6
-3
-2
-1
0
1
2
3
4
5
-4 -3 -2 -1 0 1 2 3 4
Figura 21: Análisis lineal discriminante del conjunto de muestras originales y de comprobación.
Antes de verificar la validez del método, los datos de comprobación fueron formateados
en dos conjuntos, con características similares a las del conjunto discreto y continuo de las
muestras de partida, presentados al principio de este capítulo.
De igual modo que con las 40 señales iniciales, en los Anexos V y VI se incluyen los
valores de intensidad-potencial y frecuencia-amplitud, respectivamente, pertenecientes al
conjunto de datos de comprobación.
Hay que señalar que en el proceso de reducción de dimensiones para las mezclas nuevas
se empleó la misma frecuencia de corte que con el resto de muestras, obteniéndose un error de
recomposición del 2 % como máximo, tal como aparece recogido en el Anexo VI.
Como cabía esperar, las visiones exploratorias de las nuevas muestras de prueba, junto con
las originales, suministradas por el análisis lineal discriminante (ver Figura 13) sobres los datos
discretos y el escalado multidimensional (ver Figura 12) sobre los datos continuos, corroboran
los resultados establecidos en su momento, obteniéndose un 95,85 % de clasificación para el
ALD y un 100 % para el escalado.
El gráfico de puntos del análisis lineal discriminante es el siguiente:
Con el escalado multidimensional, se obtuvo lo siguiente:
TRATAMIENTO ESTADÍSTICO DE DATOS
-160-
Representación del conjunto de voltamperogramas más 8 muestras de comprobación
Escalado multidimensional sobre el espectro de Fourier
Dimension 1
Dim
ensi
on 2
T1
T2T3
T4
T5
T6T7
T8T9
T10
P1P2
P3P4
P5P6
P7P8
P9P10
T1P1
T1P6
T2P2
T2P7
T3P3
T3P8
T4P4
T4P9
T5P5
T5P10
T6P1
T6P6
T7P2
T7P7
T8P3
T8P8
T9P4
T9P9
T10P5
T10P10
T1P9 T2P10
T9P1T10P2
T3P5
T5P3
T6P8
T8P6
-0,25
-0,15
-0,05
0,05
0,15
0,25
-2,5 -1,5 -0,5 0,5 1,5 2,5 3,5
Figura 22: Escalado multidimensional de las muestras originales y las de comprobación.
Una vez visualizada la posición de las 8 nuevas muestras respecto de la totalidad del
conjunto inicial, se procedió a la comprobación de la validez del método de estimación por
interpolación. Para ello, se llevó a cabo la prueba que a continuación se detalla.
1) Prueba de validación.
Se obtuvo la expresión numérica de todos los modelos a partir de las funciones analíticas
que figuran en las Tablas 9 y 10, resultando una serie de 100 señales (predicciones) con 80 datos
de intensidad para cada valor del parámetro ë.
TRATAMIENTO ESTADÍSTICO DE DATOS
-161-
T1 T2 T3 T4 T5 T6 T7 T8 T9 T10" = 1.137 " = -0.053ß = 0.958 ß = 5.783R=0.9993 R = 0.9983
" = 1.059 " = 0.263ß = 0.987 ß = 3.269
R = 0.9998 R=0.9999" = 1.154 " = 0.319ß = 0.919 ß = 2.686
R = 0.9997 R = 0.9999" = 0.956 " = 0.449ß = 1.072 ß = 2.238
R = 0.9998 R = 0.9996" = 1.035 " = 0.441ß = 1.052 ß = 1.998R=0.9999 R=0.9999
" = 6.961 " = 0.932ß = 0.193 ß = 1.064
R = 0.9979 R = 0.9996" = 3.319 " = 0.969ß = 0.412 ß = 1.096
R = 0.9998 R = 0.9999" = 3.009 " = 1.129ß = 0.340 ß = 0.877
R = 0.9995 R = 0.9980" = 2.078 " = 0.987ß = 0.561 ß = 1.059
R = 0.9999 R = 0.9997" = 1.951 " = 1.267ß = 0.589 ß = 0.714
R = 0.9998 R = 0.9974
P1 P2 P3 P4 P5 P6 P7 P8 P9 P10" = 1.137 " = 6.961ß = 0.958 ß = 0.193
R = 0.9993 R = 0.9979" = 1.059 " = 3.319ß = 0.987 ß = 0.412
R = 0.9998 R = 0.9998" = 1.154 " = 3.009ß = 0.919 ß = 0.340
R = 0.9997 R = 0.9995" = 0.956 " = 2.078ß = 1.072 ß = 0.561
R = 0.9998 R = 0.9999" = 1.035 " = 1.951ß = 1.052 ß = 0.589R=0.9999 R = 0.9998
" = -0.053 " = 0.932ß = 5.783 ß = 1.064
R = 0.9983 R = 0.9996" = 0.263 " = 0.969ß = 3.269 ß = 1.096
R = 0.9999 R = 0.9999" = 0.319 " = 1.129ß = 2.686 ß = 0.877
R = 0.9998 R = 0.9980" = 0.449 " = 0.987ß = 2.238 ß = 1.059
R = 0.9996 R = 0.9997" = 0.441 " = 1.267
Tabla 9: Tabla de numeración de los modelos matemáticos predictivos horizontales.
P1 1
P2 17 2
P3 15 3
P4 13 4
P5 5 6
P6 7
P7 18 8
P8 16 9
P9 14 10
P10 11 12
Tabla 10: Tabla de numeración de los modelos matemáticos predictivos verticales.
T1 1
T2 17 2
T3 15 3
T4 13 4
T5 5 6
T6 7
T7 18 8
T8 16 9
T9 14 10
TRATAMIENTO ESTADÍSTICO DE DATOS
-162-
Muestra de prueba
F(TIPJ)
g1
g2
Min g
Hiperplano de las muestras reales conocidas
Figura 24: Esquema de aproximaciones entre una muestra de prueba y las muestras reales conocidas.
Cada muestra de prueba se trabajó suponiendo sus contribuciones desconocidas. Para cada
una de estas muestras, se calculó el error cuadrático, gg, existente entre ella y las predicciones
analíticas mencionadas anteriormente. El error mínimo obtenido define la mejor aproximación
entre los modelos de predicción y la muestra de prueba considerada, como puede observarse en
la Figura 15:
Esta mejor aproximación es la estimación de la señal de prueba e informa, por tanto, de las
contribuciones de los iones Tl (I) y Pb (II) existentes. La validez del modelo se pone de
manifiesto cuando predice con suficiente aproximación las concentraciones de ambos cationes
presentes en todas las muestras de prueba. Así, por ejemplo, para la mezcla T9P1, el error
mínimo obtenido debe producirse cuando se aplica el modelo vertical 14, para ë = 1 (ver Tabla
10). Y del mismo modo con las restantes señales de comprobación.
Sin embargo, en la práctica nos encontramos con una situación diferente, como puede
observarse por los resultados que aparecen en la tabla que se presenta a continuación (ver
también Anexo VII):
TRATAMIENTO ESTADÍSTICO DE DATOS
-163-
Modelos
Muestras Teórico Error Mínimo Clasificación
T1P9 H14ë11 H14ë0 P9
T2P10 H11ë2 H11ë0 P10
T3P5 H5ë3 / V3ë22 H1ë5 / V7ë0 T6P1
T5P3 H3ë2 / V5ë3 H1ë5 / V7ë0 T6P1
T6P8 H9ë3 H4ë5 / V10ë0 T9P4
T896 V9ë3 H11ë1 T1P10
T9P1 V14ë1 H2ë5 / V8ë0 / V18ë2 T7P2
T10P2 V11ë2 H11ë1 T1P10
1 H14ë1: modelo predictivo horizontal 14, con ë = 1 (ver Tabla 9).2 V3ë2: modelo predictivo vertical 3, con ë = 2 (ver Tabla 10).
Como puede observarse, hay algunas situaciones, como la T1P9 y la T2P10, donde la
aproximación es bastante buena, puesto que sólo existen diferencias entre los valores de ë de los
modelos. Pero el dato de mayor interés consiste en que existen mezclas, como T3P5 y T5P3, que
poseen contribuciones diferentes y ofrecen idéntica señal. Esto se debe a que cualquier campana
de gauss puede expresarse de forma no única como suma de contribuciones de dos patrones
puros. Como consecuencia de lo anterior, aunque el modelo descrito anteriormente aproxima
bien algunas señales, tiende a confundir otras, lo cual sucede en el caso de las seis muestras
restantes.
La aplicación que podría darse a los resultados aquí obtenidos podría ser la que se describe
en el ejemplo siguiente:
“Imaginemos una industria en la que se hace uso del sistema Tl (I) y Pb (II) en el
proceso de fabricación de sus productos y supongamos que se encuentran con el
problema de decidir entre dos mezclas de ambos iones. Además, se sabe que una de
TRATAMIENTO ESTADÍSTICO DE DATOS
-164-
ellas posee un mayor coste que la otra. Por tanto, mediante el uso del modelo que
hemos propuesto, puede averiguarse si ambas mezclas, que poseen contribuciones
químicas diferentes, dan idéntica señal y sirven por igual a la hora de aplicar un
tratamiento químico. Si tal es el caso, el problema se resuelve inmediatamente,
eligiéndose la configuración más barata, lo que implica una disminución en el coste del
proceso.”
2) Modelo mejorado I.
Con la mejora que aquí se presenta, se pretenden reducir las condiciones en las que se han
llevado a cabo las pruebas anteriores. Hemos podido comprobar que si se desconocen las
concentraciones de los dos iones que componen la mezcla, el método se confunde.
En una segunda comprobación, se estudió si, conociendo la cantidad de uno de los cationes
metálicos, era posible la correcta clasificación del ion desconocido, lo que indicaría que el
método serviría bien para establecer predicciones de mezclas.
De acuerdo con lo anterior, en la Tabla 9 se fijó un Pj y en la 10 un Ti, para cada una de las
mezclas de comprobación, y se aplicaron los modelos correspondientes en cada caso. El objetivo
fue averiguar si reduciendo ahora el número de modelos aplicar, aquel que daba el mínimo error
se correspondía o aproximaba con el modelo teórico que explicaba las nuevas muestras. Por
ejemplo, para el caso de la mezcla T3P5, se probaron los modelos 5 y 6 de la Tabla 9 (para P5
= constante) y los modelos 15 y 3 de la Tabla 10 (para T3 = constante). En la mayoría de los
casos, sólo hubo que aplicar modelos pertenecientes a una única tabla, pero para T3P5 y T5P3
hubo que hacer uso de las dos, ya que podían ser explicados tanto por modelos horizontales como
verticales.
Los resultados obtenidos se recogen en la siguiente tabla:
TRATAMIENTO ESTADÍSTICO DE DATOS
-165-
Muestras Ti y Pj = cte. Mod. Error Mín. Mod. Teórico Clasificación
T1P9 P9 H14ë0 H14ë1 P9
T9P1 T9 V14ë2 V14ë1 T9P2
T2P10 P10 H11ë0 H11ë2 P10
T10P2 T10 V11ë3 V11ë2 T10P3
T5P3P3 H3ë2 H3ë2
T5P3T5 V5ë3 V5ë3
T3P5P5 H5ë2 H5ë3 T2P5
T3 V3ë1 V3ë2 T3P4
T6P8 P8 H16ë1 H9ë3 T1P8
T8P6 T8 V16ë3 / V9ë0 V9ë3 T8P3
Como se muestra en la tabla, las aproximaciones del modelo de estimación por
interpolación son bastante buenas, obteniéndose un error del orden de 0,1 mg·l-1 para la
concentración desconocida, en la mayoría de los casos.
A partir de la tabla puede observarse que las clasificaciones son mucho más próximas a las
reales que con la prueba de validación, incluso existe un caso en el que es completa (T5P3). Los
errores obtenidos son consecuencia de que al no considerarse como parámetro la posición del
pico, el método de ajuste por mínimos cuadrados escogido para llevar a cabo las interpolaciones
toma como modelo de error mínimo el que se encuentra más centrado con respecto a la muestra
que se pretende clasificar.
Veamos esto último gráficamente (Figura 16 y Anexo VIII):
TRATAMIENTO ESTADÍSTICO DE DATOS
-166-
Predicciones para el T2P10 con P10 = cte
0,00E+00
5,00E-08
1,00E-07
1,50E-07
2,00E-07
2,50E-07
3,00E-07
3,50E-07
4,00E-07
4,50E-07
I (A
)
Figura 25: Ejemplo de mal funcionamiento del Modelo mejorado I.
En la figura aparecen representadas las siguientes señales:
w Mezcla real de comprobación T2P10 (roja).
w Modelo de error mínimo, H11ë0, que establece una de las predicciones, colocando
a la muestra real en la posición correspondiente a la P10 (ambos de color azul).
w Modelo predictivo H12ë0, que es el otro modelo aplicado para P10 = cte y que
clasifica la mezcla T2P10 en el lugar de la T5P10 (ambos de color verde).
w Modelo teórico H11ë2 (negro), que sería el que debiera poseer un error mínimo,
según el Modelo mejorado I.
Como puede observarse, el pico que más se asemeja a la muestra real es el perteneciente
al modelo teórico, tanto en altura como en anchura. No obstante, el Modelo mejorado I nos
acerca más la mezcla T2P10 a la P10, que se corresponde con el modelo de mínimo error. Esto
es debido a que la mezcla P10 se encuentra más centrada con respecto a la T2P10, que es la que
se está intentando clasificar. Con respecto al otro modelo, puede descartarse con sólo echar un
vistazo a la figura.
Por tanto, tras estudiar los resultados, podemos concluir que la posición del pico vuelve a
ser un factor muy importante a la hora de clasificar correctamente las muestras, al igual que
determina una buena o mala predicción por parte del método de estimación por interpolación
mediante mínimos cuadrados.
TRATAMIENTO ESTADÍSTICO DE DATOS
-167-
Esto da lugar a la consideración del siguiente modelo mejorado.
3) Modelo mejorado II.
Del estudio de los resultados anteriores se desprendió la posibilidad de una segunda mejora
(y su comprobación). Ésta consiste en llevar a cabo un procedimiento basado en el Modelo
mejorado I, pero con la siguiente modificación: antes de establecer comparaciones con la muestra
real de prueba que se desea clasificar, se realiza un centrado de las predicciones de cada modelo
aplicado con respecto a la mezcla de comprobación. De este modo, la estimación por
interpolación mediante el método de mínimos cuadrados debería clasificar mejor y predecir bien
todas las muestras.
En esta prueba, los errores de comparación se obtuvieron de dos formas diferentes: como
suma de errores cuadráticos y como el máximo de dichos errores.
Los resultados obtenidos se recogen en la tabla que a continuación se presenta:
Muestras Ti y Pj = cte. Mod. Error Mín. Mod. Teórico Clasificación
T1P9 P9 H14ë1 H14ë1 T1P9
T9P1 T9 V14ë1 V14ë1 T9P1
T2P10 P10 H11ë1 H11ë2 T1P10
T10P2 T10 V11ë2 V11ë2 T10P2
T5P3P3 H3ë2 H3ë2
T5P3T5 V5ë3 V5ë3
T3P5P5 H5ë3 H5ë3
T3P5T3 V3ë2 V3ë2
T6P8 P8 H9ë3 H9ë3 T6P8
T8P6 T8 V9ë3 V9ë3 T8P6
TRATAMIENTO ESTADÍSTICO DE DATOS
-168-
Predicción del T10P2 cuando T10 = cte (centrado).
0,00E+00
5,00E-08
1,00E-07
1,50E-07
2,00E-07
2,50E-07
3,00E-07
3,50E-07
4,00E-07
4,50E-07
5,00E-07
I (A
)
Figura 26: Ejemplo del buen funcionamiento del Modelo mejorado II.
Salvo para la mezcla T2P10, que fue clasificada con un error de 0,1 mg·l-1 para el catión
desconocido, los resultados fueron muy satisfactorios.
Veámoslo gráficamente (Figura 17 y Anexo VIII):
En la figura aparecen representadas las siguientes señales:
w Mezcla real de comprobación T10P2 (roja).
w Modelo de error mínimo, V11ë2 (azul).
w Modelo predictivo V12ë0, que es el otro modelo aplicado para T10 = cte (verde).
Como puede observarse, la aproximación para T10P2 es perfecta con el modelo V11ë2.
Esto indica que el modelo de error mínimo coincide con el modelo que teóricamente predeciría
dicha mezcla. A continuación, para demostrar esto, en la tabla siguiente se exponen los errores
de los modelos desde ë = 0 hasta ë = 5:
TRATAMIENTO ESTADÍSTICO DE DATOS
-169-
V11ë2
Sum 6,62×10-14 1,49×10-14 7,99×10-15 3,01×10-14 9,89×10-14 2,23×10-13
Máx 4,65×10-15 9,67×10-16 5,66×10-16 2,11×10-15 6,30×10-15 1,50×10-14
V12ë0
Sum 2,23×10-13 3,05×10-13 4,24×10-13 5,48×10-13 6,98×10-13 8,74×10-13
Máx 1,50×10-14 1,94×10-14 2,70×10-14 3,39×10-14 4,26×10-14 5,32×10-14
A partir de la tabla, puede verse que los valores de error mínimo se alcanzaron para el
modelo V11ë2.
Como en todas las mezclas de comprobación sucedió lo mismo, se puede concluir, por
tanto, que el procedimiento estimativo por interpolación mediante el método de aproximación
de mínimos cuadrados es una buena herramienta predictiva cuando:
T se conoce la concentración de uno de los iones de la mezcla,
T se realiza un centrado de las predicciones con respecto a la muestra real,
obteniéndose errores del orden de 0,1 mg·l-1 para el ion desconocido.
El modelo planteado podría mejorarse, dándole así una gran utilidad. La forma de actuación
podría ser alguna de las que se resumen a continuación:
w Construir una tabla corregida de clasificaciones de las mezclas tras la aplicación del
método de estimación mediante interpolación y colocar cada muestra de acuerdo con
el modelo de error mínimo obtenido en cada caso. Esto es, deshacer parte de la tabla
que da lugar a confusiones y rehacerla de acuerdo con los resultados obtenidos con
el modelo.
w Determinar la proporción Tl+ / Pb2+ que debe existir en una mezcla para que esta sea
bien clasificada; esto es, fijar una diagonal en la tabla.
w Por último, reconstruir las Tablas 5 y 6 de los modelos con expresiones matemáticas
que estén más de acuerdo con una correcta clasificación y predicción de las muestras,
es decir, aproximar mediante suma de dos campanas de gauss.
TRATAMIENTO ESTADÍSTICO DE DATOS
-170-
REDES NEURONALES ARTIFICIALES.
El segundo y último de los métodos predictivos que se van emplear para la separación de
señales de mezclas de Tl (I) y Pb (II) lo constituyen las redes neuronales artificiales.
En el capítulo primero de esta memoria se describe el fundamento teórico de esta poderosa
herramienta estadística, junto con muchas de sus funciones y aplicaciones: memorias asociativas
simuladas por ordenador, reconocimiento de patrones, control de procesos y muchas otras más.
En este trabajo, las redes neuronales se emplearon como método de reconocimiento de
patrones con el fin de resolver mezclas de dos iones y hallar de una manera lo más sencilla y
exacta posible sus correspondientes concentraciones.
Para ello se hizo uso de dos tipos de redes:
w Redes neuronales discretas: aquellas que utilizan la información clásica o habitual,
constituida por parámetros electroquímicos discretos.
w Redes neuronales continuas: aquellas que emplean la totalidad de la información
presente en las señales electroquímicas de cada muestra analizada.
A continuación, describiremos con detalle cada una de ellas junto con los resultados
obtenidos.
a) Redes Neuronales Discretas.
En la aplicación de estas redes, se utilizó el conjunto discreto de datos, es decir, el vector
formado por la intensidad, potencial y anchura de pico de todas las muestras analizadas, como
parámetros de entrada a la red neuronal. Esto equivale a tres neuronas de entrada a la red, una por
cada parámetro. Y como información de salida, las concentraciones de los iones presentes en las
mezclas, lo que hacen dos neuronas de salida. Los datos de entrada fueron estandarizados
previamente a su introducción en la red, tomando valores entre 0 y 1, puesto que esto optimiza
el funcionamiento del sistema (ver Anexo IX).
Estos datos, en un formato adecuado, se introdujeron como conjunto de entrenamiento en
el software de redes neuronales Qwiknet 3.2. Con esta herramienta se persiguió el siguiente
objetivo: entrenar y determinar cuáles eran las redes más sencillas para clasificar las muestras,
manteniendo al mismo tiempo una alta capacidad predictiva.
En la Figura 18, aparece la pantalla de trabajo de dicho programa, donde se pueden
modificar todos los parámetros de entrenamiento para la red neuronal:
TRATAMIENTO ESTADÍSTICO DE DATOS
-171-
Figura 27: Pantalla de configuración de las redes neuronales discretas en el software Qwiknet 3.2.
Los parámetros de mayor interés empleados por el modelo neuronal son los siguientes:
ë Velocidad de aprendizaje (ç): controla la velocidad a la cual aprende la red. Cuanto
mayor sea el valor de ç, más rápido será el aprendizaje del sistema.
ë Momentum (á): controla la influencia del cambio del último peso sobre la
actualización del peso que se esté tratando en ese momento.
ë Tolerancia de convergencia: especifica el criterio de parada para el error de
entrenamiento RMS. El entrenamiento se detendrá cuando el error RMS alcance un
valor inferior al propuesto.
ë Nº máximo de ciclos: controla el número máximo de ciclos utilizados para el
entrenamiento. Un ciclo equivale a un barrido completo del conjunto de
entrenamiento a través de la red.
ë Margen de error: la red lo emplea para clasificar el número y el porcentaje de
patrones de entrenamiento que la red ha aprendido. Cualquier patrón con un error
RMS total inferior a este valor se considera aprendido.
ë Recorte de patrones: indica el grado para el cual los patrones que ha aprendido la red
TRATAMIENTO ESTADÍSTICO DE DATOS
-172-
participan en el aprendizaje futuro.
ë Entrenamiento por validación cruzada: divide el conjunto de entrenamiento en dos
subconjuntos: un 90% para el entrenamiento y un 10 % para la validación. El grupo
de prueba no se utiliza para actualizar los pesos, sino para comprobar la validez de
la red, al mismo tiempo que indica si existen o no problemas de memorización del
conjunto de entrenamiento.
ë Método de entrenamiento: especifica el algoritmo empleado para optimizar la red
neuronal, esto es, para calcular los parámetros (pesos idóneos) capaces de establecer
el mayor porcentaje de clasificaciones correctas. Caben destacar los siguientes
algoritmos:
T Back-propagation: es el algoritmo de entrenamiento más comúnmente
empleado por las redes neuronales. Dentro de este grupo los más importantes
son back-propagation online, que actualiza los pesos después de que cada
patrón haya pasado por la red; back-propagation randomize, que es igual al
anterior, pero estableciendo un orden de entrada al azar de los patrones a la red
antes de cada ciclo, y back-propagation batch, que también es semejante al
primero, pero actualiza los pesos después de cada ciclo. (Permite un proceso
de aprendizaje estocástico).
T Delta-bar-Delta: es un método de velocidad de aprendizaje adaptativa en el
cual cada peso posee su propia velocidad de aprendizaje. La actualización de
los pesos se realiza en función del signo del gradiente.
T RPROP (Resilient Propagation): un método del mismo tipo que el anterior
donde la actualización de los pesos se basa únicamente en el signo del
gradiente local y no en sus magnitudes.
T QUICKPROP: está basado en dos postulados, 1) la función E(w) para cada
peso puede aproximarse por una parábola que se abre hacia arriba y, 2) el
cambio en la pendiente de E(w) para un peso determinado no se ve afectado
por todos los otros pesos que cambian al mismo tiempo.
ë Número de capas ocultas: sirve para especificar el número total de capas ocultas en
la red neuronal.
ë Ruido de entrada: especifica la cantidad de ruido gaussiano que se añade a los
patrones de entrenamiento de entrada. Una pequeña cantidad de ruido ayuda a
prevenir sobreajustes y mejora la generalización.
TRATAMIENTO ESTADÍSTICO DE DATOS
-173-
ë Perturbación de pesos: consiste en el ajuste de los pesos a un porcentaje que no
exceda de un valor máximo fijado, lo que permite mover los pesos durante el
entrenamiento y que la red pueda escapar de un mínimo local.
ë Saturación de neuronas: una neurona se encuentra saturada cuando un gran cambio
en la entrada tiene un pequeño efecto o ninguno sobre la salida. En este caso, su
contribución al aprendizaje de la red es despreciable. El límite de saturación indica
el porcentaje de patrones que deben saturar a la neurona antes de que se la considere
saturada. Si este porcentaje es superado, todos los pesos que introduzcan entradas en
dicha neurona se reducirán un 90% de magnitud.
ë Función de activación: indica el tipo de función de activación que aplican las
neuronas de una capa determinada para generar sus correspondientes respuestas o
salidas. Pueden ser: sigmoidal, tangente hiperbólica, lineal y gaussiana.
Normalmente, se eligen funciones no lineales (cuando se quiere poner de manifiesto
alguna característica no lineal intrínseca del conjunto de datos), aunque los nodos de
la capa de entrada tienen asignados por defecto una función de activación lineal.1
En nuestro caso, las características especificadas para el entrenamiento y validación de las
redes han sido las siguientes:
w Topología de la red: 3-X-2, la cual se corresponde con una red neuronal constituida
por tres capas. En la primera capa (entrada) existen 3 neuronas, correspondientes a
los valores estandarizados de intensidad, anchura y potencial de pico de las señales
de los voltamperogramas de las muestras. En la segunda (oculta), el número de
neuronas oscila entre 2 y 4. Este valor no ha de diferenciarse mucho del de la capa
de entrada, ya que si es muy pequeño supondría reducir mucho la información desde
el comienzo del entrenamiento, lo que podría dar lugar a importantes pérdidas en la
misma; y si es muy elevado, implicaría un exceso de parámetros en el modelo, lo que
produciría pérdidas en su capacidad predictiva. Por último, la capa de salida posee
2 neuronas, cada una de las cuales ofrecerán como salida un valor de concentración
correspondiente a uno de los cationes que componen la mezcla. Véase la Figura 19
a modo de ejemplo:
TRATAMIENTO ESTADÍSTICO DE DATOS
-174-
Figura 28: Ejemplo de una red entrenada y validada con topología 3-4-2.
Los cuadrados representan las neuronas de entrada y los círculos las de la capa oculta
y las de salida. Por último, los triángulos son los sesgos para cada nodo. Las
conexiones o pesos entre neuronas poseen un valor indicado por la escala de colores.
w Algoritmos de entrenamiento: los algoritmos empleados para el entrenamiento de la
red fueron: Back-propagation Online, Back-propagation Randomize, Delta-bar-
Delta y RPROP.
w Número máximo de ciclos: 100000.
w Funciones de activación: se emplearon las funciones lineales y sigmoidales
fundamentalmente, en todas sus combinaciones para las tres capas de la red (excepto
para la primera, que se encuentra definida por defecto como lineal): lineal-sigmoidal-
sigmoidal, lineal-sigmoidal-lineal, lineal-lineal-sigmoidal y lineal-lineal-lineal.
Los parámetros que se mantuvieron fijos durante todos los entrenamientos fueron los
siguientes:
TRATAMIENTO ESTADÍSTICO DE DATOS
-175-
Velocidad de aprendizaje 0,1
Momentum 0,0
Recorte de patrones 1
Tolerancia de convergencia 0,01
Margen de error 0,1
Máxima perturbación de pesos 20 %
Límite de saturación de neuronas 80 %
Además, se previno la saturación, fijando el límite de saturación en un 80 %, y el
entrenamiento se llevó a cabo por validación cruzada, es decir, las redes obtenidas con un 100
% de convergencia estaban entrenadas y validadas. Por último, el comienzo del entrenamiento
fue elegido aleatoriamente.
El proceso de entrenamiento y validación se puede describir del siguiente modo:
1. De los 40 patrones disponibles, el programa elige un conjunto aleatorio de 36 para el
entrenamiento, dejando el resto para la validación de la red.
2. Una vez hecho esto, los 36 patrones de entrenamiento se introducen en la red,
obteniéndose una serie de valores para los pesos o conexiones entre las neuronas.
3. Posteriormente, los 4 patrones de validación pasan a través de la red definida
previamente.
4. Si el error obtenido entre las concentraciones de salida de Tl (I) y Pb (II) y las
especificadas para dicho conjunto es menor que el valor de tolerancia fijado, la red se
encuentra entrenada y validada y no requiere de ningún ciclo más. Si, por el contrario,
el error es superior al valor de convergencia, la red repite todo el proceso desde el
principio, utilizando un nuevo conjunto de patrones de entrenamiento, elegido de
acuerdo al método de validación cruzada.
5. El proceso continúa hasta que se alcance un error RMS del conjunto de validación
inferior al valor establecido para la convergencia (100 % de clasificación de las
muestras) o se llegue al máximo número de ciclos fijado. Un ejemplo del primer caso
TRATAMIENTO ESTADÍSTICO DE DATOS
-176-
sería el siguiente: si para unos determinados valores de intensidad, potencial y anchura
de pico la concentración de Tl (I) equivale a 0,2 mg·l-1, la salida obtenida en la red debe
ser lo más parecida posible a ésta para que la red esté bien entrenada y validada.
Cuando se alcanza un 100 % de clasificación, las conexiones o pesos obtenidos son los
adecuados y el sistema se encuentra disponible para predecir nuevas mezclas con concentraciones
desconocidas de Tl (I) y Pb (II), obtenidas experimentalmente. De este modo, una red entrenada
y validada está perfectamente capacitada para resolverlas.
Como hemos comentado anteriormente, se probaron todas las combinaciones posibles de
funciones de activación lineales y sigmoidales para las topologías 3-2-2, 3-3-2 y 3-4-2, lo que
hicieron un total de 48 redes discretas (ver Anexo X). De entre todas ellas, tan sólo 16 redes
lograron un porcentaje de clasificación superior al 90 %, como se especifica en la siguiente tabla,
ordenada en orden creciente de número de ciclos:
Topología Algoritmo1 % Clasificación Nº de ciclos Func. Activac.2
3-4-2 OB 100 5207 l-s-l
3-4-2 OR 100 5256 l-s-l
3-3-2 OR 100 5685 l-s-l
3-2-2 OR 100 6090 l-s-l
3-3-2 OB 100 10817 l-s-l
3-3-2 OR 100 20595 l-s-s
3-2-2 OR 100 22974 l-s-s
3-4-2 OR 100 26136 l-s-s
3-2-2 OB 100 29611 l-s-s
3-4-2 OB 100 39936 l-s-s
TRATAMIENTO ESTADÍSTICO DE DATOS
-177-
Topología Algoritmo1 % Clasificación Nº de ciclos Func. Activac.2
3-2-2 OB 100 63330 l-s-l
3-3-2 OB 100 68603 l-s-s
3-3-2 RP 94,44 100000 l-s-l
3-4-2 RP 91,67 100000 l-s-l
3-4-2 DD 91,67 100000 l-s-s
3-2-2 RP 91,67 100000 l-s-l
1 OB: Back-propagation online; OR: Back-propagation online randomize;
DD: Delta-bar-Delta; RP: RPROP.2 l-s-s: lineal-sigmoidal-sigmoidal; l-s-l: lineal-sigmoidal-lineal.
Como puede observarse, sólo existen dos combinaciones de funciones de activación
adecuadas, ofreciendo mejores resultados la lineal-sigmoidal-lineal, al converger a menor número
de ciclos. Los algoritmos de entrenamiento que mejor actúan son back-propagation online y
back-propagation online randomize, ambos en la misma proporción, aunque con el segundo se
alcanzan menos ciclos. Por último, los algoritmos RPROP y Delta-bar-Delta resultaron ser los
peores, alcanzándose porcentajes de clasificación del 90 % en el mejor de los casos.
Las redes propuestas poseen una topología muy sencilla y, en la mayoría de los casos, el
número de ciclos que logran clasificaciones del 100 % puede considerarse pequeño. Esto supone
una gran ventaja dado que el número de pesos a estimar es pequeño, lo que contribuye a mejorar
la capacidad predictiva de la red.
Como red óptima proponemos la red que posee el mínimo error RMS total, que se
corresponde con la topología 3-3-2 (intermedia en cuanto a la sencillez), algoritmo back-
propagation online y funciones de activación lineal-sigmoidal-lineal. Además, esta configuración
ofrece un número muy pequeño de ciclos, tan sólo 10817.
En la Figura 20 se recoge la evolución del error RMS total para esta red neuronal:
TRATAMIENTO ESTADÍSTICO DE DATOS
-178-
Figura 29: Evolución del RMS error para la red óptima.
Como se desprende de la figura, el error de entrenamiento para la red óptima es siempre
descendente hasta alcanzar un valor mínimo (punto final) de 0,0384, momento en el cual la
clasificación de los patrones es del 100 %. A partir de este preciso instante, la red se encuentra
perfectamente entrenada y validada.
El gráfico anterior es representativo del proceso de convergencia de todas las redes. En
principio, existe una rápida convergencia de los pesos hasta alcanzar un valor de error
suficientemente pequeño, a partir del cual, comienza un proceso de afinamiento que culminará
con la clasificación que estabilice el error en las muestras.
A continuación, y para terminar con las redes neuronales discretas, presentamos la tabla de
pesos o conexiones entre las distintas neuronas de la red:
Error RMS vs tiempo de entrenamiento
Err
or R
MS
Nº de ciclos
TRATAMIENTO ESTADÍSTICO DE DATOS
-179-
Pesos o conexiones entre: Neuronas de la capa de entrada
Neuronas de la capa oculta 1 2 3 Sesgo
1 2,3845 0,4017 -0,3138 -0,9523
2 -6,5687 3,2123 -3,3093 3,6805
3 -5,3778 -3,3952 7,8116 -1,4749
Pesos o conexiones entre: Neuronas de la capa oculta
Neuronas de la capa de salida 1 2 3 Sesgo
1 0,8143 2,0180 -2,8999 0,5955
2 2,2448 -1,9067 2,5279 -1,2013
Los pesos negativos indican una conexión que inhibe la respuesta del nodo, mientras que
los positivos, por el contrario, la estimulan. Puede comprobarse que la semejanza con el proceso
sináptico que ocurre en las neuronas biológicas es patente.
b) Redes Neuronales Continuas.
Habitualmente, las redes neuronales basadas en información continua (señales) han sido
aplicadas construyendo topologías cuyas capas de entrada llevan asociadas una neurona por cada
potencial recogido en el voltamperograma. La desventaja de este método es evidente, tanto desde
el punto de vista de la carga computacional como del de la complejidad del modelo.
A la hora de aplicar las redes continuas a nuestro caso se empleó el conjunto continuo de
datos, es decir, los valores de amplitudes dominantes correspondientes a cada una de las señales
de los voltamperogramas de las muestras, obtenidos a partir del proceso de reducción de
dimensiones (ver Anexo IV). Esta reducción simplificó notablemente el modelo y constituye un
aspecto novedoso en electroquímica, permitiendo soslayar las desventajas enunciadas
anteriormente.
TRATAMIENTO ESTADÍSTICO DE DATOS
-180-
Figura 30: Ejemplo de red continua con topología 7-7-2.
Como vimos en su momento, dicho método se aplicó utilizando un filtrado previo,
definiendo una frecuencia de corte que proporcionase un número aceptable de dimensiones y un
error de recomposición para la señal lo más bajo posible (inferior al 3 %). La elección de dicha
frecuencia de corte era fundamental, puesto que el número de dimensiones (amplitudes que
representaban las señales) se asocia con las neuronas de entrada a la red. Por tanto, si cada señal
fue reducida a 7 amplitudes, esto significa que el número de neuronas de la capa de entrada debe
ser también 7. Esta es la razón por la cual hemos denominado a este tipo de redes como redes
continuas, ya que las entradas al sistema se corresponden con las señales completas de los
voltamperogramas de las muestras, pero con sus dimensiones reducidas (de 80 valores hasta 7).
El objetivo perseguido era el mismo que con las redes neuronales discretas: obtener redes
lo más sencillas posibles para predecir las aportaciones de Tl (I) y Pb (II) de las muestras.
Para ello, se optó por construir redes con 7 neuronas en la capa de entrada
(correspondientes a las 7 amplitudes de cada señal), un número de nodos próximo a siete en la
oculta y dos en la de salida, para obtener las concentraciones de Tl (I) y Pb (II) de cada mezcla.
Por tanto, las características especificadas para el entrenamiento y validación de las redes
fueron las siguientes:
w Topología de la red: 7-X-2, donde, de acuerdo con las recomendaciones
bibliográficas, X = 8, 7, 6 y 5 (capa oculta con un número de nodos parecido a la de
entrada).Véase la Figura 21 a modo de ejemplo:
TRATAMIENTO ESTADÍSTICO DE DATOS
-181-
w Algoritmos de entrenamiento: fueron los mismos que para las redes discretas: Back-
propagation Online, Back-propagation Randomize, Delta-bar-Delta y RPROP.
w Número máximo de ciclos: 100000.
w Funciones de activación: iguales a las de las redes discretas: lineal-sigmoidal-
sigmoidal, lineal-sigmoidal-lineal, lineal-lineal-sigmoidal y lineal-lineal-lineal.
Los valores para la velocidad de aprendizaje, momentum, tolerancia, margen de error, así
como la perturbación de los pesos y la saturación de la neuronas se mantuvieron fijos e iguales
a los empleados con las redes discretas. También se empleó el entrenamiento con validación
cruzada y los patrones fueron introducidos en la red de forma aleatoria.
Los resultados obtenidos aparecen en la Tabla 11:
TRATAMIENTO ESTADÍSTICO DE DATOS
-182-
Topología Algoritmo % Clasific. Nº de Ciclos Func. Activac. Total RMS Error7-8-2 Online Backprop 66,67 100000 lineal-sigmoidal-sigmoidal 0,10037-8-2 Online Backprop Rand 69,44 100000 lineal-sigmoidal-sigmoidal 0,08907-8-2 Delta-bar-Delta 58,33 100000 lineal-sigmoidal-sigmoidal 0,11177-8-2 RPROP 41,67 100000 lineal-sigmoidal-sigmoidal 0,17417-8-2 Online Backprop 55,56 100000 lineal-sigmoidal-lineal 0,11557-8-2 Online Backprop Rand 61,11 100000 lineal-sigmoidal-lineal 0,09837-8-2 Delta-bar-Delta 0,00 100000 lineal-sigmoidal-lineal 599,17507-8-2 RPROP 38,89 100000 lineal-sigmoidal-lineal 0,17977-8-2 Online Backprop 58,33 100000 lineal-lineal-sigmoidal 0,12037-8-2 Online Backprop Rand 55,56 100000 lineal-lineal-sigmoidal 0,11937-8-2 Delta-bar-Delta 5,56 100000 lineal-lineal-sigmoidal 0,59937-8-2 RPROP 27,78 100000 lineal-lineal-sigmoidal 0,15617-8-2 Online Backprop 19,44 100000 lineal-lineal-lineal 0,19007-8-2 Online Backprop Rand 22,22 100000 lineal-lineal-lineal 0,17427-8-2 Delta-bar-Delta 0,00 100000 lineal-lineal-lineal 177286,00007-8-2 RPROP 27,78 100000 lineal-lineal-lineal 0,17687-7-2 Online Backprop 77,78 100000 lineal-sigmoidal-sigmoidal 0,08217-7-2 Online Backprop Rand 72,22 100000 lineal-sigmoidal-sigmoidal 0,08777-7-2 Delta-bar-Delta 38,89 100000 lineal-sigmoidal-sigmoidal 0,14177-7-2 RPROP 47,22 100000 lineal-sigmoidal-sigmoidal 0,13937-7-2 Online Backprop 61,11 100000 lineal-sigmoidal-lineal 0,10187-7-2 Online Backprop Rand 58,33 100000 lineal-sigmoidal-lineal 0,10497-7-2 Delta-bar-Delta 0,00 100000 lineal-sigmoidal-lineal 500,68407-7-2 RPROP 52,78 100000 lineal-sigmoidal-lineal 0,14017-7-2 Online Backprop 61,11 100000 lineal-lineal-sigmoidal 0,11757-7-2 Online Backprop Rand 58,33 100000 lineal-lineal-sigmoidal 0,11837-7-2 Delta-bar-Delta 0,00 100000 lineal-lineal-sigmoidal 0,71167-7-2 RPROP 27,78 100000 lineal-lineal-sigmoidal 0,14727-7-2 Online Backprop 13,89 100000 lineal-lineal-lineal 0,18357-7-2 Online Backprop Rand 22,22 100000 lineal-lineal-lineal 0,17087-7-2 Delta-bar-Delta 0,00 100000 lineal-lineal-lineal 44246,10007-7-2 RPROP 27,78 100000 lineal-lineal-lineal 0,17397-6-2 Online Backprop 75,00 100000 lineal-sigmoidal-sigmoidal 0,09287-6-2 Online Backprop Rand 80,56 100000 lineal-sigmoidal-sigmoidal 0,08317-6-2 Delta-bar-Delta 58,33 100000 lineal-sigmoidal-sigmoidal 0,11337-6-2 RPROP 38,89 100000 lineal-sigmoidal-sigmoidal 0,14887-6-2 Online Backprop 61,11 100000 lineal-sigmoidal-lineal 0,10687-6-2 Online Backprop Rand 58,33 100000 lineal-sigmoidal-lineal 0,11687-6-2 Delta-bar-Delta 0,00 100000 lineal-sigmoidal-lineal 499,55107-6-2 RPROP 38,89 100000 lineal-sigmoidal-lineal 0,14077-6-2 Online Backprop 55,56 100000 lineal-lineal-sigmoidal 0,12027-6-2 Online Backprop Rand 61,11 100000 lineal-lineal-sigmoidal 0,12037-6-2 Delta-bar-Delta 8,33 100000 lineal-lineal-sigmoidal 0,48967-6-2 RPROP 47,22 100000 lineal-lineal-sigmoidal 0,13317-6-2 Online Backprop 27,78 100000 lineal-lineal-lineal 0,18057-6-2 Online Backprop Rand 19,44 100000 lineal-lineal-lineal 0,18747-6-2 Delta-bar-Delta 0,00 100000 lineal-lineal-lineal 88592,30007-6-2 RPROP 25,00 100000 lineal-lineal-lineal 0,1738
.../...
Tabla 11: Tabla de resultados para las pruebas con redes neuronales continuas de topología 7-X-2.
TRATAMIENTO ESTADÍSTICO DE DATOS
-183-
Topología Algoritmo % Clasific. Nº de Ciclos Func. Activac. Total RMS Error7-5-2 Online Backprop 72,22 100000 lineal-sigmoidal-sigmoidal 0,09497-5-2 Online Backprop Rand 75,00 100000 lineal-sigmoidal-sigmoidal 0,08577-5-2 Delta-bar-Delta 69,44 100000 lineal-sigmoidal-sigmoidal 0,10017-5-2 RPROP 38,89 100000 lineal-sigmoidal-sigmoidal 0,17487-5-2 Online Backprop 55,56 100000 lineal-sigmoidal-lineal 0,11317-5-2 Online Backprop Rand 63,89 100000 lineal-sigmoidal-lineal 0,10317-5-2 Delta-bar-Delta 0,00 100000 lineal-sigmoidal-lineal 99,63397-5-2 RPROP 36,11 100000 lineal-sigmoidal-lineal 0,16837-5-2 Online Backprop 52,78 100000 lineal-lineal-sigmoidal 0,12067-5-2 Online Backprop Rand 58,33 100000 lineal-lineal-sigmoidal 0,11987-5-2 Delta-bar-Delta 5,56 100000 lineal-lineal-sigmoidal 0,59937-5-2 RPROP 55,56 100000 lineal-lineal-sigmoidal 0,12257-5-2 Online Backprop 30,56 100000 lineal-lineal-lineal 0,17777-5-2 Online Backprop Rand 22,22 100000 lineal-lineal-lineal 0,19347-5-2 Delta-bar-Delta 0,00 100000 lineal-lineal-lineal 132939,00007-5-2 RPROP 25,00 100000 lineal-lineal-lineal 0,1680
Tabla 11: Tabla de resultados para las pruebas con redes neuronales continuas de topología 7-X-2.(Continuación).
TRATAMIENTO ESTADÍSTICO DE DATOS
-184-
Como puede observarse en la Tabla 11, los resultados obtenidos distan mucho de ser los
esperados, tanto en el elevado número de ciclos de entrenamiento (100000) como en el
porcentaje de clasificación resultante. Éste fue tan sólo de un 80 % y se consiguió para una red
de topología 7-6-2, con el algoritmo Back-propagation Randomize y una combinación de
funciones de activación del tipo lineal-sigmoidal-sigmoidal.
Por consiguiente, las clasificaciones obtenidas con estas estructuras podemos considerarlas
como malas.
Para resolver todas estas dificultades y obtener redes entrenadas y validadas al 100 %, se
pensó en varias posibilidades:
w Aumentar el número de ciclos para lograr una convergencia del 100 %.
w Probar topologías más sencillas a base de simplificar la capa de entrada o la capa
oculta de las redes.
w Emplear una segunda capa oculta.
1) Aumentar el número de ciclos:
Con respecto a la primera actuación, se hicieron pruebas de convergencia a mayor número
de ciclos con varias redes, aquellas que en primera instancia ofrecían un porcentaje de
clasificación más elevado. Los resultados se muestran en la siguiente tabla:
Topología Algoritmo1 % Clasificación Nº de ciclos Func. Activac.2
7-8-2 OB 100 3612460 l-s-s
7-8-2 OR 100 3411558 l-s-s
7-8-2 OR 100 2071290 l-s-l
1 OB: Back-propagation online; OR: Back-propagation online randomize;2 l-s-s: lineal-sigmoidal-sigmoidal; l-s-l: lineal-sigmoidal-lineal.
De los resultados se desprende el elevado número de ciclos necesario para obtener un 100
% de clasificación. Esto es perjudicial, puesto que aparte del costo temporal, las clasificaciones
no serían fiables, ya que si el número de ciclos de ejecución de una red es muy elevado, ésta
alcanza un estado de sobreentrenamiento. Esto significa que la red no aprende de los patrones
suministrados, sino que los memoriza. Esta situación sería comparable a los procesos de
TRATAMIENTO ESTADÍSTICO DE DATOS
-185-
aprendizaje en la enseñanza de cualquier disciplina: la contraposición entre el aprendizaje
significativo y el puramente memorístico. El primero es más duradero y efectivo y permite
extrapolar los conocimientos obtenidos a situaciones nuevas (en nuestro caso, emplear las redes
entrenadas y validadas para la resolución de mezclas con concentraciones desconocidas de Tl+
y Pb2+); mientras que el segundo, es bastante más breve y no conlleva las aplicaciones que el otro
implica.
En general, es mejor una red neuronal entrenada y validada con pocos ciclos, pero que
clasifique tan sólo hasta el 90 %, que una red que alcance el 100 % de convergencia haciendo uso
de un número muy elevado de ciclos.
2) Probar topologías más sencillas simplificando la capa de entrada o la oculta:
w Con respecto a la capa de entrada:
Con idea de encontrar redes simples, a la vista de las correlaciones (dependencias lineales)
existentes entre los valores de amplitud de las señales, se estableció la siguiente hipótesis: si una
señal podía explicarse a partir de un único par de frecuencia/amplitud (debido a la
proporcionalidad, este valor de amplitud debía de contener información sobre las seis amplitudes
restantes en las que se dividía cada señal), no sería nada descabellado concebir la estructura de
una red neuronal con una única entrada. Esto ofrecería la oportunidad de trabajar con topologías
sencillísimas, tales como 1-2-2 ó 1-3-2, (siempre redes con tres capas de neuronas, ya que ésta
siempre ha sido una limitación del software).
En base a esto, se realizaron pruebas con el software de redes neuronales Qwiknet 3.2. Pero
los resultados obtenidos no fueron los que teóricamente se esperaban. Por consiguiente hubo que
rechazar la hipótesis de una sola entrada.
Sin embargo, el tema de las correlaciones entre amplitudes condujo a la puesta en práctica
de otra idea: si con una única entrada no se conseguía ningún logro, aumentando el número hasta
2, 3 ó 4 y continuando en la misma línea, el resultado podría perfilarse más. Y tampoco se
alcanzó este objetivo.
w Con respecto a la capa oculta:
En este caso, se simplificó el número de neuronas de la capa oculta. Para ello, se entrenaron
redes con secuencias de capas de neuronas tales como: 7-4-2, 7-3-2, 7-2-2 y 7-1-2. Los resultados
se recogen en la Tabla 12:
TRATAMIENTO ESTADÍSTICO DE DATOS
-186-
Topología Algoritmo % Clasific. Nº de Ciclos Func. Activac. Total RMS Error7-4-2 Online Backprop 75,00 100000 lineal-sigmoidal-sigmoidal 0,08577-4-2 Online Backprop Rand 72,22 100000 lineal-sigmoidal-sigmoidal 0,08537-4-2 Delta-bar-Delta 47,22 100000 lineal-sigmoidal-sigmoidal 0,13777-4-2 RPROP 41,67 100000 lineal-sigmoidal-sigmoidal 0,13937-4-2 Online Backprop 58,33 100000 lineal-sigmoidal-lineal 0,11147-4-2 Online Backprop Rand 55,56 100000 lineal-sigmoidal-lineal 0,12167-4-2 Delta-bar-Delta 0,00 100000 lineal-sigmoidal-lineal 488,82707-4-2 RPROP 41,67 100000 lineal-sigmoidal-lineal 0,17897-4-2 Online Backprop 52,78 100000 lineal-lineal-sigmoidal 0,12067-4-2 Online Backprop Rand 58,33 100000 lineal-lineal-sigmoidal 0,11987-4-2 Delta-bar-Delta 5,56 100000 lineal-lineal-sigmoidal 0,59937-4-2 RPROP 50,00 100000 lineal-lineal-sigmoidal 0,12737-4-2 Online Backprop 11,11 100000 lineal-lineal-lineal 0,29367-4-2 Online Backprop Rand 22,22 100000 lineal-lineal-lineal 0,17097-4-2 Delta-bar-Delta 0,00 100000 lineal-lineal-lineal 953,57307-4-2 RPROP 30,56 100000 lineal-lineal-lineal 0,16577-3-2 Online Backprop 72,22 100000 lineal-sigmoidal-sigmoidal 0,09087-3-2 Online Backprop Rand 75,00 100000 lineal-sigmoidal-sigmoidal 0,09417-3-2 Delta-bar-Delta 47,22 100000 lineal-sigmoidal-sigmoidal 0,13947-3-2 RPROP 38,89 100000 lineal-sigmoidal-sigmoidal 0,17527-3-2 Online Backprop 47,22 100000 lineal-sigmoidal-lineal 0,13207-3-2 Online Backprop Rand 55,56 100000 lineal-sigmoidal-lineal 0,11807-3-2 Delta-bar-Delta 0,00 100000 lineal-sigmoidal-lineal 102,02907-3-2 RPROP 27,78 100000 lineal-sigmoidal-lineal 0,17137-3-2 Online Backprop 52,78 100000 lineal-lineal-sigmoidal 0,12067-3-2 Online Backprop Rand 58,33 100000 lineal-lineal-sigmoidal 0,11997-3-2 Delta-bar-Delta 8,33 100000 lineal-lineal-sigmoidal 0,48967-3-2 RPROP 58,33 100000 lineal-lineal-sigmoidal 0,12637-3-2 Online Backprop 27,78 100000 lineal-lineal-lineal 0,17787-3-2 Online Backprop Rand 19,44 100000 lineal-lineal-lineal 0,19337-3-2 Delta-bar-Delta 0,00 100000 lineal-lineal-lineal 44031,70007-3-2 RPROP 27,78 100000 lineal-lineal-lineal 0,17117-2-2 Online Backprop 44,44 100000 lineal-sigmoidal-sigmoidal 0,12487-2-2 Online Backprop Rand 63,89 100000 lineal-sigmoidal-sigmoidal 0,09897-2-2 Delta-bar-Delta 47,22 100000 lineal-sigmoidal-sigmoidal 0,13927-2-2 RPROP 30,56 100000 lineal-sigmoidal-sigmoidal 0,15857-2-2 Online Backprop 41,67 100000 lineal-sigmoidal-lineal 0,14087-2-2 Online Backprop Rand 36,11 100000 lineal-sigmoidal-lineal 0,14617-2-2 Delta-bar-Delta 0 100000 lineal-sigmoidal-lineal 298,16907-2-2 RPROP 30,56 100000 lineal-sigmoidal-lineal 0,17137-2-2 Online Backprop 58,33 100000 lineal-lineal-sigmoidal 0,12047-2-2 Online Backprop Rand 55,56 100000 lineal-lineal-sigmoidal 0,11937-2-2 Delta-bar-Delta 8,333 100000 lineal-lineal-sigmoidal 0,48967-2-2 RPROP 30,56 100000 lineal-lineal-sigmoidal 0,14337-2-2 Online Backprop 19,44 100000 lineal-lineal-lineal 0,19007-2-2 Online Backprop Rand 22,22 100000 lineal-lineal-lineal 0,17427-2-2 Delta-bar-Delta 0 100000 lineal-lineal-lineal 7,72557-2-2 RPROP 27,78 100000 lineal-lineal-lineal 0,1729
.../...
Tabla 12: Tabla de resultados de las pruebas con redes continuas de capa oculta pequeña.
TRATAMIENTO ESTADÍSTICO DE DATOS
-187-
Topología Algoritmo % Clasific. Nº de Ciclos Func. Activac. Total RMS Error7-1-2 Online Backprop 19,44 100000 lineal-sigmoidal-sigmoidal 0,23157-1-2 Online Backprop Rand 19,44 100000 lineal-sigmoidal-sigmoidal 0,23167-1-2 Delta-bar-Delta 19,44 100000 lineal-sigmoidal-sigmoidal 0,22957-1-2 RPROP 22,22 100000 lineal-sigmoidal-sigmoidal 0,23047-1-2 Online Backprop 27,78 100000 lineal-sigmoidal-lineal 0,21797-1-2 Online Backprop Rand 30,56 100000 lineal-sigmoidal-lineal 0,21717-1-2 Delta-bar-Delta 0 100000 lineal-sigmoidal-lineal 157,75807-1-2 RPROP 27,78 100000 lineal-sigmoidal-lineal 0,21887-1-2 Online Backprop 19,44 100000 lineal-lineal-sigmoidal 0,22167-1-2 Online Backprop Rand 19,44 100000 lineal-lineal-sigmoidal 0,22297-1-2 Delta-bar-Delta 5,556 100000 lineal-lineal-sigmoidal 0,59937-1-2 RPROP 22,22 100000 lineal-lineal-sigmoidal 0,22487-1-2 Online Backprop 11,11 100000 lineal-lineal-lineal 0,29507-1-2 Online Backprop Rand 19,44 100000 lineal-lineal-lineal 0,22647-1-2 Delta-bar-Delta 0 100000 lineal-lineal-lineal 44141,00007-1-2 RPROP 30,56 100000 lineal-lineal-lineal 0,2174
Tabla 12: Tabla de resultados de las pruebas con redes continuas de capa oculta pequeña (Continuación).
TRATAMIENTO ESTADÍSTICO DE DATOS
-188-
Figura 35: Pantalla de control del programa de redes neuronales Qnet2000.
Pero, tras una rápida inspección de la tabla, se puede comprobar que tampoco se obtuvo
ningún éxito, siendo el porcentaje máximo de clasificación del 75 % para una red 7-3-2 con las
mismas características que en las pruebas anteriores. Ni siquiera en aquellos casos donde las
transformaciones eran lineales, pudo obtenerse nada en claro, esperanza fundada a partir de la
existencia de correlaciones entre las amplitudes (ver tabla de correlaciones y Figura 3). Se supuso
que si éstas eran linealmente dependientes unas de otras, el uso de funciones de activación
lineales, para transferir los datos de una capa a otra, permitiría eliminar información redundante
contenida en las entradas a la red y podría establecerse una buena clasificación. Pero no fue así.
w Emplear una segunda capa oculta:
En cuanto a esta tercera y última posibilidad, emplear redes con un mayor número de capas
ocultas, resultó ser la opción acertada, como veremos a continuación.
Como el programa Qwiknet 3.2 posee la limitación de trabajar con una sola capa oculta,
hubo que utilizar otro software diferente denominado Qnet2000.
En la Figura 22, se representa la pantalla de trabajo de dicho programa:
TRATAMIENTO ESTADÍSTICO DE DATOS
-189-
Figura 36: Pantalla de definición de los parámetros de entrenamiento para elprograma Qnet2000.
En ella se recogen las características que definen las redes empleadas. Pueden destacarse
el número de capas de la red, las neuronas de entrada y de salida, los nodos presentes en las capas
ocultas, las funciones de transferencia o de activación utilizadas, el número de conexiones entre
neuronas, los patrones de entrenamiento y los de validación, así como también, el modo de
entrenamiento.
Por otro lado, también aparecen reflejados los valores de cada uno de los parámetros de
entrenamiento. Estos se encuentran recogidos con más detalle en la Figura 23:
A continuación se da una breve descripción de los parámetros más importantes:
ë Máximo número de iteraciones o ciclos: consiste en el máximo número de iteraciones
a realizar para llevar a cabo el entrenamiento. No hay ninguna forma de
predeterminar el número de ciclos que serán necesarios para alcanzar la convergencia
con una red (podría llevar unas pocos cientos de iteraciones o muchos miles).
ë Iteración de comienzo del control de velocidad de aprendizaje: indica el ciclo en el
que se activa el control de velocidad de aprendizaje (LRC), el cual emplea un
algoritmo especial que se encarga de buscar un rango de velocidad óptimo durante
el entrenamiento en ejecución.
ë Velocidad de aprendizaje: la velocidad de aprendizaje, ç (eta), controla la rapidez a
TRATAMIENTO ESTADÍSTICO DE DATOS
-190-
la que el algoritmo de entrenamiento del programa intenta aprender. Este factor
determina el tamaño del ajuste de los pesos de los nodos durante el proceso de
aprendizaje de la red. El rango de validez va desde 0,0 hasta 1,0. Un valor elevado
de ç conduce a un aprendizaje más rápido, pero implica inestabilidad y divergencia
en el entrenamiento; mientras que un valor pequeño da lugar a una mejora numérica
en la convergencia a costa de alargar considerablemente el tiempo de entrenamiento.
ë Algoritmo de entrenamiento: el software emplea algoritmos de Back-propagation.
ë Velocidad de aprendizaje máxima y mínima: marca los límites entre los que se
mueve la velocidad de aprendizaje. El sistema LRC puede modificar dichos límites
para evitar inestabilidades durante el entrenamiento.
ë Momentum (á): es el coeficiente de aprendizaje empleado por los algoritmos de
entrenamiento del programa. Amortigua las variaciones que se producen en los pesos
y ayuda con la estabilidad de los algoritmos, proporcionando al mismo tiempo un
aprendizaje rápido.
ë Patrones procesados por ciclo: permite establecer el número de patrones de
entrenamiento que se procesan antes de actualizar los pesos de la red. Este parámetro
puede provocar un gran efecto sobre todo el proceso de entrenamiento, así como
sobre la convergencia. El programa procesa por defecto todos los patrones antes de
actualizar los pesos de la red (valor igual a 0), calcula luego el vector de error global
y lo aplica a los algoritmos de ajuste de los pesos. Esto conduce generalmente a un
error bastante bueno tanto para el conjunto de entrenamiento como el de prueba, con
un costo considerable de tiempo. Se recomienda el uso de este método para conjuntos
de entrenamiento donde existan relaciones imprecisas entre las entradas y las salidas.
Cualquier modificación en este parámetro durante el entrenamiento puede provocar
grandes variaciones en las características del aprendizaje.
ë Valor de tolerancia: durante el entrenamiento se calcula y muestra el porcentaje de
casos que caen dentro del valor de tolerancia especificado. Puede ser una herramienta
muy útil para medir la exactitud de un modelo.
ë Error de entrenamiento RMS: permite elegir el error RMS del conjunto de prueba al
cual finalizará el entrenamiento.2
Las características de entrenamiento especificadas para las redes neuronales fueron las
siguientes:
w Topología de la red: 7-X-Y-2, la cual se corresponde con una red neuronal
TRATAMIENTO ESTADÍSTICO DE DATOS
-191-
Figura 37: Red neuronal entrenada y validada con topología 7-6-4-2.
constituida por cuatros capas. En la capa de entrada se dispusieron 7 neuronas,
correspondientes a los valores de amplitud de cada señal, los cuales constituyen el
conjunto continuo de datos. En la primera capa oculta, el número de neuronas (X)
osciló entre 6 y 5, valor próximo al estrato de entrada que evita pérdidas importantes
de información. Las opciones en la segunda capa oculta fueron más amplias,
empleándose en todos los casos de 2 a 5 nodos (Y). Por último, la capa de salida se
compuso de 2 neuronas, cada una de las cuales ofrecerían como salida un valor de
concentración correspondiente a uno de los cationes que componen la mezcla. Véase
la Figura 24 a modo de ejemplo:
En este caso, el número de nodos ocultos y de conexiones resultaron ser de 10 y 74,
respectivamente, variando ambos en cada caso según la estructura de la red.
w Algoritmos de entrenamiento: el algoritmo empleado para el entrenamiento de la red
fue el back-propagation estándar, puesto que el coeficiente de propagación rápida fue
fijado en cero.
w Número máximo de iteraciones: 50000.
w Funciones de activación: se emplearon los cuatro tipos posibles de funciones
aconsejadas en bibliografía: lineal, sigmoidal, gaussiana y tangente hiperbólica, en
todas sus combinaciones, para las cuatro capas de la red (excepto para la primera, que
TRATAMIENTO ESTADÍSTICO DE DATOS
-192-
Figura 38: Error RMS para el conjunto de entrenamiento de una red neuronalcontinua.
se encuentra definida por defecto como lineal), lo que suponen 3×3×3 = 27
combinaciones.
El resto de los parámetros, cuyos valores aparecen en la Figura 23, se mantuvieron fijos
durante todos los entrenamientos. En todos los casos, el conjunto de entrenamiento estuvo
constituido por 32 patrones, mientras que los 8 restantes, elegidos aleatoriamente en cada red,
formaron parte del de prueba. Esto es equivalente al entrenamiento por validación cruzada
empleado en las redes discretas.
El proceso de entrenamiento y validación llevado a cabo por el programa Qnet2000 es
similar al ejecutado por Qwiknet 3.2, software utilizado para entrenar y validar las redes
neuronales discretas, descrito anteriormente.
Combinando los posibles valores de X e Y para las capas ocultas, así como las funciones
de activación, se entrenaron y validaron un total de 2×5×27 = 270 redes neuronales continuas.
Los entrenamientos finalizaron una vez alcanzado el máximo número de iteraciones dispuesto,
obteniéndose en cada caso el error RMS para el conjunto de prueba y el de entrenamiento, así
como la correlación alcanzada (en tanto por uno) para dichos conjuntos.
En las siguientes figuras, se representa la información gráfica obtenida a partir del
entrenamiento y validación de las redes continuas. En la Figura 25, aparece el error RMS para
el conjunto de entrenamiento; en la 26, el correspondiente a los patrones de prueba y, finalmente,
en la 27, se presenta la disposición de los patrones de entrenamiento y validación a la curva de
ajuste óptima que proporcionaría una red cualquiera, para cada muestra de entrada:
TRATAMIENTO ESTADÍSTICO DE DATOS
-193-
Figura 39: Error RMS para el conjunto de prueba de una red neuronal continua.
Figura 40: Gráfico de ajuste de los patrones de entrenamiento y de prueba auna curva de correlación óptima.
En los dos casos, se observa una variación descendente a lo largo de todo el proceso,
aunque en el error del conjunto de prueba, se alcanza un mínimo a aproximadamente 25000
ciclos, ascendiendo de nuevo posteriormente. Y, por último, la Figura 27:
TRATAMIENTO ESTADÍSTICO DE DATOS
-194-
El software también genera un archivo, después de cada prueba, con las columnas que
aparecen en la tabla siguiente:
Nº muestra Trn (1) o Tst (0) [Tl (I)] [Tl (I)]* [Pb (II)] [Pb (II)]*
donde se identifica cada patrón, sus concentraciones conocidas y las predichas por la red, tanto
si la muestra es de entrenamiento, como de prueba. Mediante una aplicación MATLAB (ver
Anexo XI), especialmente diseñada, se calculó el error total de la predicción como suma de
diferencias entre concentraciones de Tl (I) y Pb (II) reales y predichas, para cada uno de los
patrones pertenecientes a los dos subconjuntos, de entrenamiento y prueba.
El programa actúa de la siguiente manera:
1. Primero, realiza una lectura de los archivos de salidas de red suministrados.
2. Seguidamente, calcula las diferencias que existen entre los valores reales y los predichos
por las redes para las concentraciones de Tl (I) y Pb (II) en cada muestra.
3. Después, lleva a cabo la suma de dichas diferencias, distinguiendo si el patrón pertenece
al conjunto de entrenamiento o al de prueba (hay que recordar que Qnet2000 escogía
aleatoriamente si un patrón iba a pertenecer a un grupo o a otro).
4. Por último, presenta los errores totales de predicción para cada uno de los conjuntos y
realiza una representación gráfica de las diferencias individuales para cada ion. A
continuación, en la Figura 28, se muestra un ejemplo de dicha representación, donde los
errores de predicción de los patrones se han obtenido tras la aplicación de una red de
topología 7-6-4-2, cuyas funciones de activación son: lineal-sigmoidal-sigmoidal-
sigmoidal:
TRATAMIENTO ESTADÍSTICO DE DATOS
-195-
0 10 20 30 400
0.01
0.02
0.03
0.04
0.05
0.06
0.07
0.08
0.09Tl (I)
Pb (II)
0 10 20 30 400
0.01
0.02
0.03
0.04
0.05
0.06
0.07
0.08
0.09Tl (I)
Pb (II)
Figura 41: Errores de predicción para cada patrón de Tl (I) y Pb (II).
En el Anexo XII, se recogen los errores totales de predicción (E.Tot.Trn y E.Tot.Tst), junto
con los errores RMS y las correlaciones entre las predicciones y los valores reales para cada
conjunto en todas las redes.
Los errores totales de predicción para los conjuntos de entrenamiento y de prueba en cada
red constituyen un parámetro idóneo para encontrar la red neuronal continua óptima que permita
separar las mezclas de Tl (I) y Pb (II). Se pretende obtener una o varias redes que posean un error
de entrenamiento pequeño y, al mismo tiempo, conserven una alta capacidad predictiva (error de
prueba también pequeño).
En las Tablas 13 y 14 se reflejan dichos errores para los conjuntos de prueba y
entrenamiento, respectivamente:
Err
ores
de
pred
icci
ón
Nº de muestras
TRATAMIENTO ESTADÍSTICO DE DATOS
-196-
Func.Activ. 7522 7532 7542 7552 7562 7622 7632 7642 7652 7662lsss 1,107675 0,891009 0,966013 0,985124 1,113920 1,422057 1,040311 0,994338 0,679934 0,985389lssg 1,103130 1,073756 1,094950 1,309579 1,124312 1,225095 1,205657 0,960880 0,973437 1,114422lsst 1,236687 1,323953 1,215681 1,092167 1,279944 1,139438 1,144597 1,148853 1,254039 1,298055lsgs 1,466637 1,323278 1,465827 1,161141 1,261831 1,423866 1,328249 1,371895 0,959468 1,038471lsgg 1,238456 1,187585 1,095600 1,111367 1,075662 1,159591 1,165931 1,175392 0,948965 0,957491lsgt 1,345547 1,522637 0,964309 1,164823 1,235911 1,260296 1,415734 1,326643 1,433226 1,163772lsts 1,295759 1,280227 1,313773 0,842564 0,600305 1,453952 1,127116 0,731624 0,505727 0,806963lstg 1,157615 1,043658 1,072192 1,011808 0,972042 1,103530 1,090330 1,111666 1,210778 1,086331lstt 1,234528 1,410022 0,692974 0,738703 1,105449 1,536911 1,219166 0,750222 0,644802 0,590225lgss 0,664187 0,843023 0,913578 1,070765 0,672086 1,201675 0,956927 0,881666 0,573899 0,838683lgsg 1,233113 0,886216 0,924507 1,118903 0,877401 1,084615 1,040397 1,029328 0,858952 1,024802lgst 1,084325 1,185316 1,359252 1,309715 0,998449 1,039721 0,722835 1,063232 1,011469 1,166269lggs 1,364768 1,402001 0,923932 0,692331 1,008617 1,342304 1,155184 0,714783 0,672774 0,591929lggg 0,949850 1,103680 1,165983 0,897591 0,736226 1,215413 1,010708 0,713707 1,070191 0,990963lggt 1,296610 0,658661 0,879829 1,289685 0,877507 1,115462 1,331204 0,960136 1,070191 1,056977lgts 1,274145 0,985549 0,519364 0,621325 0,596792 1,485747 0,469661 0,561470 0,668976 0,649946lgtg 1,216044 1,078193 0,755272 0,723344 1,137754 1,169399 1,017174 1,020878 0,938349 1,066177lgtt 0,969652 1,106598 0,838366 0,643629 0,678537 1,293978 1,303031 0,666465 0,542533 0,596238ltss 1,013286 1,053669 1,159274 0,685969 0,760383 0,993969 0,785962 0,918282 0,958034 0,640654ltsg 1,025858 1,020840 1,033215 1,038961 0,977317 1,062279 1,030106 0,996018 0,890945 1,116552ltst 1,150707 0,971144 0,849688 1,092438 1,184173 0,954735 0,998677 0,155535 0,828915 0,850613ltgs 1,228960 1,257692 1,222739 1,039924 0,568313 1,385732 1,288726 1,061361 0,557368 0,536351ltgg 1,082578 1,087142 1,075201 1,035533 0,976369 1,159479 0,992554 1,146994 0,668878 0,962403ltgt 1,208877 1,017888 1,011401 1,267965 0,771371 1,307002 1,315420 1,109302 0,621317 1,395025ltts 1,023026 0,703059 0,562666 0,768675 0,532917 1,247130 1,082926 0,599717 0,795324 0,474249lttg 1,068332 1,067951 0,958906 0,985182 0,998135 1,269726 1,045771 0,778187 0,995366 0,961693lttt 1,259062 1,099244 1,137773 0,863865 0,627645 1,211851 1,187998 0,880180 1,393730 0,565859
Tabla 13: Errores totales de predicción para el conjunto de entrenamiento o training (trn)
TRATAMIENTO ESTADÍSTICO DE DATOS
-197-
Func.Activ. 7522 7532 7542 7552 7562 7622 7632 7642 7652 7662lsss 0,634440 0,342098 0,268429 0,517881 0,540992 0,219749 0,352828 0,564377 1,112983 0,559776lssg 0,465626 0,383117 0,305181 0,311517 0,404295 0,394114 0,294983 0,556975 0,560066 1,046218lsst 0,433174 0,367839 0,415611 0,408062 0,357621 0,632003 0,411270 0,425015 0,387469 0,291142lsgs 0,486748 0,525461 0,361108 0,541320 0,460271 0,690970 0,596966 0,378809 0,382407 0,496277lsgg 0,372620 0,357595 0,400773 0,349470 0,389139 0,419568 0,365350 0,291869 0,485152 0,329979lsgt 0,556600 0,375991 0,451638 0,775796 0,537691 0,620992 0,434343 0,435965 0,421668 0,519345lsts 0,513401 0,732084 0,398854 0,262355 0,194300 0,435717 0,599043 0,267675 0,317489 0,312822lstg 0,492031 0,385293 0,358016 0,331430 0,348848 0,499296 0,414912 0,279766 0,510668 0,402504lstt 0,629679 0,377587 0,309079 0,157635 0,486119 0,270376 0,522454 0,542392 0,370716 0,389026lgss 0,422149 0,466361 0,487887 0,415415 0,488364 0,449715 0,490033 0,295130 0,281638 0,335273lgsg 0,234641 0,430798 0,483707 0,303329 0,486805 0,492202 0,395214 0,472643 0,642981 0,324864lgst 0,416799 0,553972 0,431656 0,339458 0,366994 0,210152 0,253836 0,262027 0,591965 0,469670lggs 0,465816 0,349048 0,363480 0,583042 0,407777 0,651372 0,468150 0,269104 0,534323 0,488836lggg 0,574798 0,274762 0,339127 0,437524 0,185153 0,951111 0,410505 0,431184 0,354777 0,370800lggt 0,440270 0,402771 0,300346 0,341114 0,332484 0,482952 0,463714 0,540470 0,354777 0,477086lgts 0,529331 0,496098 0,314807 1,080996 0,338998 0,408416 0,432296 0,464883 0,307560 0,268318lgtg 0,291606 0,445201 0,295162 0,292933 0,731018 0,377347 0,497043 0,353292 0,338116 0,308595lgtt 0,421704 0,555256 0,399384 0,274854 0,482006 0,516395 0,335457 0,436323 0,396232 0,314825ltss 0,481144 0,726547 0,236657 0,301206 0,313453 0,380197 0,251718 0,318188 1,483472 0,319667ltsg 0,335545 0,442974 0,327769 0,317688 0,453919 0,385529 0,375097 0,311583 0,404038 0,252207ltst 0,434616 0,518527 0,364763 0,449873 0,282727 0,343924 0,333186 0,546659 0,456573 0,422688ltgs 0,457791 0,532070 0,442697 0,335334 0,418648 0,482350 0,400291 0,370610 0,415120 0,351494ltgg 0,454682 0,392861 0,374843 0,475322 0,595426 0,315946 0,489027 0,384312 0,431105 0,646243ltgt 0,528400 0,407799 0,402030 0,381169 0,463922 0,516373 0,362566 0,593685 0,239543 0,345476ltts 0,521848 0,277255 0,240280 0,397319 0,405767 0,259481 0,520921 0,263039 0,268123 0,284622lttg 0,345660 0,384346 0,555550 0,455454 0,365428 0,516116 0,330062 0,255813 0,343445 0,356620lttt 0,316526 0,483252 0,399221 0,439046 0,323627 0,400319 0,409564 0,429364 0,300453 0,369139
Tabla 14: Errores totales de predicción para el conjunto de prueba o test (tst)
TRATAMIENTO ESTADÍSTICO DE DATOS
-198-
En estas tablas, los valores en negrita indican los errores totales de predicción mínimos
obtenidos en cada una de las diez topologías investigadas.
Con vistas a obtener la red neuronal óptima, a partir de las tablas anteriores, se obtuvo la
Tabla 15, donde se recogen aquellas redes con los errores totales de predicción más pequeños
para los dos conjuntos:
TRATAMIENTO ESTADÍSTICO DE DATOS
-199-
Topología de red Func.Activación. Error Min. Pred. Test Error Min.Trn Asociado7-5-2-2 lgsg 0,2346 1,23317-5-3-2 lggg 0,2748 1,10377-5-4-2 ltss 0,2367 1,15937-5-5-2 lstt 0,1576 0,73877-5-6-2 lggg 0,1852 0,73627-6-2-2 lgst 0,2102 1,03977-6-3-2 lgts 0,2517 0,78607-6-4-2 ltst 0,2558 0,77827-6-5-2 ltgt 0,2395 0,62137-6-6-2 ltsg 0,2522 1,1166
Error mínimo 0,1576
Topología de red Func.Activación. Error Min. Pred. Trn Error Min. Test Asociado7-5-2-2 lgss 0,6642 0,42217-5-3-2 lggt 0,6587 0,40287-5-4-2 lgts 0,5194 0,31487-5-5-2 lgts 0,6213 1,08107-5-6-2 ltts 0,5329 0,40587-6-2-2 ltst 0,9547 0,34297-6-3-2 ltss 0,4697 0,43237-6-4-2 lttg 0,1555 0,54677-6-5-2 lsts 0,5057 0,31757-6-6-2 ltts 0,4742 0,2846
Error mínimo 0,1555
Funciones de Activación:
l = lineals = sigmoidalt = tangente hiperbólicag = gaussiana
Conjunto de entrenamiento
Tabla 15: Redes neuronales continuas con valores de errores totales de predicción mínimos.
Conjunto de prueba
TRATAMIENTO ESTADÍSTICO DE DATOS
-200-
Gracias a ello, hemos reducido el conjunto de 270 redes iniciales hasta 20. Estudiando
detenidamente los resultados, puede llegarse a las siguientes conclusiones:
1. Los errores totales de predicción mínimos para el conjunto de validación (tst) y para
el de entrenamiento (trn) no coinciden en una misma red: 7-5-5-2 lstt para el tst y 7-
6-4-2 lttg para el trn.
2. Se llevó a cabo un breve estudio para ver si se podía identificar algún tipo de analogía
y se observó que existían algunas combinaciones de funciones de activación que se
repetían bastante a la hora de poseer errores mínimos de predicción: en el tst, tan sólo
se repetía la combinación lggg, el resto aparecía una sola vez; no obstante, excepto
en dos de los casos, la función tangente hiperbólica formaba parte de todas ellas, lo
que ya era significativo; además, era la más abundante. Por otro lado, en el trn, se
repetían dos combinaciones: lgts y ltts, sucediendo igual que antes con respecto a la
tangente hiperbólica, aunque la función más abundante pasó a ser la gaussiana. Desde
un punto de vista global, topologías con combinaciones lgts (3), ltts (2), ltss (2), lggg
(2) y ltst (2), son las que más se repitieron (el número entre paréntesis indica el grado
de repetición).
3. A partir de todo lo anterior, parece ser que una combinación que posee una función
de activación del tipo tangente hiperbólica es muy probable que determine un error
total de predicción pequeño para el conjunto de validación, mientras que la presencia
de una gaussiana facilita el proceso para el de entrenamiento.
Obviamente, la bondad de una red no depende exclusivamente de uno sólo de los errores
totales , sino de la conjunción de ambos (prueba y entrenamiento). En base a esto, se descartaron
las redes que tuviesen un valor superior a 0,7 en al menos uno de sus errores totales de
predicción. De este modo, el conjunto quedó reducido a 9 redes.
En la siguiente tabla se representan las topologías seleccionadas, junto con los errores
correspondientes en cada caso:
TRATAMIENTO ESTADÍSTICO DE DATOS
-201-
Tipo de Red Error Pred. Mínimo Tst o Trn asociado Nº de red
7-5-2-2 lgss 0,6642 (tst) 0,4221 1
7-5-3-2 lggt 0,6587 (tst) 0,4028 2
7-5-4-2 lgts 0,5194 (tst) 0,3148 3
7-5-6-2 ltts 0,5329 (tst) 0,4058 4
7-6-3-2 ltss 0,4697 (tst) 0,4323 5
7-6-4-2 lttg 0,1555 (tst) 0,5467 6
7-6-5-2 ltgt 0,2395 (trn) 0,6213 7
7-6-5-2 lsts 0,5057 (tst) 0,3175 8
7-6-6-2 ltts 0,4742 (tst) 0,2846 9
A partir de la tabla, se desprende que ocho de las nueve topologías que presentaban un error
total de predicción mínimo inferior a 0,7 lo hacían para el conjunto de entrenamiento. Como
puede observarse, los valores de error asociado para el conjunto de test también son inferiores
a 0,7, a pesar de ser altos en algunos casos. Además, se encuentran presentes las dos redes con
combinación de funciones de activación ltts, señaladas anteriormente, lo que sigue siendo
bastante significativo.
Como se ha comentado y cabía esperar, a excepción de la red 7-6-4-2 lttg, cuyo error
mínimo de predicción es para el test, en todos los casos los errores del conjunto de entrenamiento
son inferiores a los asociados del conjunto de prueba.
Estos resultados son lógicos, puesto que, en general, si el error de un conjunto aumenta, el
del otro disminuye y a la inversa.
Observando la tabla anterior, se obtiene que existen dos redes para las cuales los errores
totales de predicción en los dos conjuntos son inferiores a 0,5. Estas redes se corresponden con
las topologías 7-6-3-2 ltss y 7-6-6-2 ltts. Sin embargo, esto no quiere decir que una de ellas o las
dos puedan considerarse como óptimas.
Para determinar finalmente cuál es la red neuronal óptima, es decir, la que posee un menor
TRATAMIENTO ESTADÍSTICO DE DATOS
-202-
error total de predicción para el conjunto de entrenamiento y de validación, nos basamos en una
tabla de decisiones. Esta se construyó mediante el siguiente procedimiento:
1. Se numeraron las redes del 1 al 9 (ver tabla anterior) y se ordenaron por orden
creciente de los errores totales de predicción para los dos conjuntos, tanto para el de
entrenamiento como el de prueba.
Orden según error del trn 6 < 5 < 9 < 8 < 3 < 4 < 7 < 2 < 1
Orden según error del tst 7 < 9 < 3 < 8 < 2 < 4 < 1 < 5 < 6
Posición 0 1 2 3 4 5 6 7 8
2. Se elaboró un “ranking” de clasificación para cada conjunto basado en los
estadísticos de rango, tomando como origen el valor del error mínimo en ambos
casos. El orden de preferencia obtenido fue el siguiente:
Red nº 1 2 3 4 5 6 7 8 9
Orden para el trn 8 7 4 5 1 0 6 3 2
Orden para el tst 6 4 2 5 7 8 0 3 1
“Ranking” 14 11 6 10 8 8 6 6 3
Esta tabla constituye un procedimiento de decisión basado en rangos, a partir de la
cual se obtendrá la red óptima.
Como se desprende del “ranking” obtenido, la red continua con menor puntuación fue la
red 9, de topología sencilla 7-6-6-2 y cuyas funciones de activación son lineal-tangencial-
tangencial-sigmoidal (la tangente hiperbólica aparece aquí por dos veces, aspecto que es bastante
significativo). Los errores totales de predicción correspondientes eran: 0,4742 para el trn y 0,2846
para el tst. De este modo, se obtuvo la red continua óptima.
Este resultado fue bastante bueno, puesto que la red elegida poseía el tercer error total de
predicción más pequeño para el trn y el segundo para el caso del conjunto de prueba. Además,
los errores totales de predicción para ambos conjuntos eran menores a 0,5, como se comentó
TRATAMIENTO ESTADÍSTICO DE DATOS
-203-
∆ =−
= ≅0 3 0 01
60 0483 0 05
, ,, ,
η i i= + − ⋅0 01 1, ( ) ∆
anteriormente.
Otras redes pseudoóptimas fueron las siguientes:
w 7-5-4-2 lineal-gaussiana-tangencial-sigmoidal.
w 7-6-5-2 lineal-tangencial-gaussiana-tangencial.
w 7-6-5-2 lineal-sigmoidal-tangencial-sigmodial.
En todos los casos, las topologías resultaron poseer una primera capa oculta con un número
de nodos próximo a los de la capa de entrada. Hay que resaltar también que entre las cuatro
mejores redes, la función de activación más abundante en todas las combinaciones fue la
tangencial.
1) Afinamiento del modelo.
Una vez elegida de este modo la red neuronal continua óptima, se puede afinar aún más a
la hora de clasificar y separar las mezclas. El proceso consistió en tomar la topología 7-6-6-2 con
la combinación de funciones de activación correspondiente: lineal-tangencial-tangencial-
sigmoidal, y entrenar redes con esta misma estructura, pero variando los parámetros de
aprendizaje principales, con vistas a obtener errores totales de predicción mucho más pequeños.
Los parámetros de aprendizaje que se utilizaron como variables en esta mejora de la
optimización fueron los siguientes:
w ç (eta): velocidad de aprendizaje de la red
w á (alfa): momentum
Los valores tomados por ç se obtuvieron del siguiente modo:
1. Se discretizó el intervalo cerrado [0,01; 0,3] en 6 partes iguales, tomando el
incremento:
2. Por consiguiente, los siete valores para la velocidad de aprendizaje vienen dados por
la ecuación:
TRATAMIENTO ESTADÍSTICO DE DATOS
-204-
y fueron lo siguientes:
ç 1 ç 2 ç 3 ç 4 ç 5 ç 6 ç 7
0,01 0,05 0,10 0,15 0,20 0,25 0,30
Los valores que tomó el momentum se escogieron del entorno (0,8 ± 0,4), que equivale al
intervalo abierto (0,4; 1,2). Sin embargo, como está acotado por el límite superior 1, se estimó
oportuno emplear los valores del intervalo [0,4; 1,0]:
á1 á2 á3 á4 á5 á6 á7
0,4 0,5 0,6 0,7 0,8 0,9 1,0
El número de redes entrenadas fueron, por tanto, 7×7 = 49, procedentes de todas las
combinaciones posibles entre ambos parámetros. Los resultados correspondientes a los errores
RMS para los conjuntos de entrenamiento y prueba, así como sus respectivas correlaciones y
errores totales de predicción se recogen en la Tabla 16:
TRATAMIENTO ESTADÍSTICO DE DATOS
-205-
00 "" Error RMS trn Error RMS tst Correlación trn Correlación tst E. Tot. trn E. Tot. tst0,01 0,50 0,014125 0,013478 0,998366 0,998118 0,990601 0,2631220,01 0,60 0,018404 0,016469 0,997192 0,997301 1,349316 0,3237810,01 0,70 0,008228 0,013277 0,999412 0,998668 0,616461 0,2552020,01 0,80 0,007033 0,014436 0,999580 0,998226 0,474249 0,2846220,01 0,90 0,007730 0,015898 0,999475 0,998166 0,539461 0,3175840,01 1,00 0,211263 0,195743 0,543846 0,401429 15,470532 3,5448090,01 0,40 0,009548 0,021861 0,999218 0,996026 0,708534 0,3826510,05 0,50 0,010642 0,020272 0,999019 0,996362 0,725008 0,3483110,05 0,60 0,006861 0,014067 0,999616 0,997827 0,509049 0,2667600,05 0,70 0,010051 0,019004 0,999167 0,996366 0,720988 0,3392200,05 0,80 0,006532 0,014185 0,999655 0,998033 0,459247 0,2642160,05 0,90 0,005759 0,019330 0,999714 0,997091 0,394738 0,3230540,05 1,00 0,276962 0,426584 0,130159 -0,433963 19,933884 8,4520060,05 0,40 0,009407 0,016023 0,999276 0,997841 0,687587 0,3093550,10 0,50 0,007781 0,027198 0,999416 0,995156 0,542043 0,4320490,10 0,60 0,007771 0,010847 0,999345 0,999261 0,547551 0,1755380,10 0,70 0,006904 0,011066 0,999573 0,999119 0,461101 0,2025470,10 0,80 0,004916 0,017961 0,999787 0,998067 0,361856 0,3015820,10 0,90 0,005763 0,009394 0,999725 0,999055 0,362786 0,1679150,10 1,00 0,610077 0,613830 0,000000 0,000000 51,314304 12,8285760,10 0,40 0,006315 0,017228 0,999674 0,996762 0,464257 0,3141110,15 0,50 0,006361 0,018784 0,999600 0,997940 0,466800 0,3486490,15 0,60 0,007001 0,017082 0,999543 0,998372 0,500518 0,3661260,15 0,70 0,006672 0,018685 0,999626 0,997526 0,455366 0,3537060,15 0,80 0,003936 0,024784 0,999858 0,995778 0,269795 0,4102010,15 0,90 0,006950 0,010048 0,999599 0,998991 0,462602 0,1938710,15 1,00 0,551251 0,586345 0,035457 -0,176777 44,914304 12,2285760,15 0,40 0,006401 0,020386 0,999632 0,997538 0,460175 0,3700070,20 0,50 0,006422 0,017766 0,999624 0,998251 0,422212 0,2346000,20 0,60 0,006144 0,016151 0,999675 0,997639 0,401102 0,2598750,20 0,70 0,004287 0,016444 0,999857 0,996122 0,302978 0,2960000,20 0,80 0,005614 0,026610 0,999732 0,993994 0,363111 0,4219490,20 0,90 0,004472 0,023549 0,999822 0,995476 0,305969 0,4213900,20 1,00 0,468002 0,366402 0,008898 -0,043193 35,950784 6,7851520,20 0,40 0,006449 0,016448 0,999659 0,997355 0,428965 0,2849590,25 0,50 0,007194 0,008353 0,999559 0,999323 0,477832 0,1594640,25 0,60 0,004801 0,019040 0,999792 0,997519 0,336969 0,3475480,25 0,70 0,004155 0,016945 0,999858 0,997307 0,285854 0,3277640,25 0,80 0,003346 0,026553 0,999910 0,991806 0,217612 0,4431500,25 0,90 0,004012 0,016775 0,999857 0,997827 0,270972 0,2651720,25 1,00 0,432162 0,337564 0,000000 0,000000 32,859058 6,1142880,25 0,40 0,004248 0,028271 0,999846 0,993092 0,301951 0,4635190,30 0,50 0,005439 0,040025 0,999760 0,982086 0,357541 0,6731790,30 0,60 0,004969 0,045753 0,999794 0,984788 0,343280 0,5296360,30 0,70 0,006281 0,035299 0,999670 0,989710 0,469521 0,5297370,30 0,80 0,004142 0,014141 0,999867 0,997635 0,271212 0,2812000,30 0,90 0,002541 0,052944 0,999949 0,965726 0,149760 0,8132460,30 1,00 0,416399 0,384000 -0,013608 0,055911 32,136580 7,2415200,30 0,40 0,006222 0,018508 0,999639 0,997716 0,380386 0,253793
Tabla 16: Búsqueda de la red óptima 7-6-6-2 ltts variando la velocidad de aprendizaje (eta) y el momentum (alfa).
TRATAMIENTO ESTADÍSTICO DE DATOS
-206-
Los valores en negrita indican los errores mínimos, tanto para el error RMS como para los
de predicción totales (estos se calcularon de la misma forma que antes: utilizando la aplicación
de MATLAB que aparece descrita en el Anexo XI).
En la Tabla 17, se recoge la tabla de decisión que nos permite determinar cuál es la red
continua óptima dentro de la topología 7-6-6-2 ltts:
TRATAMIENTO ESTADÍSTICO DE DATOS
-207-
Nº red E. Tot. trn Posición trn E. Tot. tst Posición tst4 0,474249 24 0,284622 1011 0,459247 18 0,264216 712 0,394738 13 0,323054 1517 0,461101 20 0,202547 318 0,361856 9 0,301582 1319 0,362786 10 0,167915 121 0,464257 22 0,314111 1422 0,466800 23 0,348649 1824 0,455366 17 0,353706 1925 0,269795 1 0,410201 2126 0,462602 21 0,193871 228 0,460175 19 0,370007 2029 0,422212 15 0,234600 430 0,401102 14 0,259875 631 0,302978 7 0,296000 1232 0,363111 11 0,421949 2333 0,305969 6 0,421390 2235 0,428965 16 0,284959 1136 0,477832 25 0,159464 037 0,336969 8 0,347548 1738 0,285854 4 0,327764 1639 0,217612 0 0,443150 2440 0,270972 2 0,265172 842 0,301951 5 0,463519 2546 0,271212 3 0,281200 949 0,380386 12 0,253793 5
Tabla17: Tabla de decisión para la red óptima 7-6-6-2 ltts.
Red 4 11 12 17 18 19 21 22 24 25 26 28 29 30 31 32 33 35 36 37 38 39 40 42 46 49Posición trn 24 18 13 20 9 10 22 23 17 1 21 19 15 14 7 11 6 16 25 8 4 0 2 5 3 12Posición tst 10 7 15 3 13 1 14 18 19 21 2 20 4 6 12 23 22 11 0 17 16 24 8 25 9 5"Ranking" 34 25 28 23 22 11 36 41 36 22 23 39 19 20 19 34 28 27 25 25 20 24 10 30 12 17
TRATAMIENTO ESTADÍSTICO DE DATOS
-208-
Como puede observarse, la red continua que posee una menor puntuación es la
correspondiente a los valores ç = 0,25 para la velocidad de aprendizaje y á = 0,90 para el
momentum. Los errores RMS para esta red neuronal son: 0,004012 para el trn y 0,016775 para
el tst, perteneciendo ambos al grupo de los valores más pequeños, como se aprecia en la Tabla
17.
Las siguientes redes continuas en orden creciente de puntuación, de acuerdo con la tabla
de decisiones, son las que se recogen a continuación:
w 7-6-6-2 ltts, ç = 0,10 y á = 0,90
w 7-6-6-2 ltts, ç = 0,30 y á = 0,80
Hay que resaltar que los valores de momentum son elevados en todos los casos.
A continuación, en la Tabla 18, presentamos los resultados obtenidos para las
concentraciones de Tl (I) y Pb (II) en las mezclas analizadas haciendo uso de la red continua
establecida como óptima (7-6-6-2 ltts, ç = 0,25 y á = 0,90):
TRATAMIENTO ESTADÍSTICO DE DATOS
-209-
Nº muestra Trn (1) Tst (0) [Tl (I)] [Tl (I)]* [Pb (II)] [Pb (II)]* Error Tl (I) Error Pb (II)1 0 0,1000 0,0998 0,0000 0,0244 -0,1510 0,02442 1 0,2000 0,1958 0,0000 0,0083 -2,0805 0,00833 1 0,3000 0,3131 0,0000 -0,0069 4,3820 0,00694 1 0,4000 0,3877 0,0000 0,0028 -3,0865 0,00285 0 0,5000 0,5142 0,0000 -0,0093 2,8372 0,00936 1 0,6000 0,6066 0,0000 0,0050 1,1023 0,00507 1 0,7000 0,6896 0,0000 0,0081 -1,4816 0,00818 0 0,8000 0,8369 0,0000 -0,0118 4,6159 0,01189 1 0,9000 0,9020 0,0000 -0,0020 0,2207 0,002010 1 1,0000 0,9966 0,0000 -0,0033 -0,3400 0,003311 0 0,0000 0,0161 0,1000 0,1105 0,0161 10,500012 1 0,0000 0,0007 0,2000 0,2019 0,0007 0,941513 0 0,0000 0,0010 0,3000 0,2985 0,0010 -0,497014 1 0,0000 0,0029 0,4000 0,4013 0,0029 0,315515 0 0,0000 0,0020 0,5000 0,5144 0,0020 2,884416 1 0,0000 -0,0014 0,6000 0,5995 0,0014 -0,087717 1 0,0000 -0,0019 0,7000 0,6935 0,0019 -0,929318 1 0,0000 0,0011 0,8000 0,8045 0,0011 0,565619 1 0,0000 0,0014 0,9000 0,9013 0,0014 0,142920 1 0,0000 -0,0021 1,0000 0,9980 0,0021 -0,197921 1 0,1000 0,1011 0,1000 0,0938 1,1060 -6,234022 1 0,6000 0,6134 0,1000 0,0881 2,2362 -11,874023 1 0,2000 0,1908 0,2000 0,1999 -4,5790 -0,072524 1 0,7000 0,6881 0,2000 0,2035 -1,7049 1,772025 1 0,3000 0,3109 0,3000 0,2949 3,6480 -1,692026 1 0,8000 0,8139 0,3000 0,3024 1,7330 0,811027 1 0,4000 0,3917 0,4000 0,4061 -2,0768 1,529828 1 0,9000 0,8930 0,4000 0,4003 -0,7800 0,062829 0 0,5000 0,5096 0,5000 0,5368 1,9268 7,351030 1 1,0000 1,0008 0,5000 0,4999 0,0812 -0,027431 1 0,1000 0,1008 0,6000 0,6047 0,8380 0,784032 1 0,6000 0,5974 0,6000 0,5950 -0,4363 -0,828833 1 0,2000 0,2030 0,7000 0,6969 1,5225 -0,436934 1 0,7000 0,7026 0,7000 0,7022 0,3703 0,309635 1 0,3000 0,2953 0,8000 0,8006 -1,5603 0,078636 1 0,8000 0,8000 0,8000 0,7999 -0,0021 -0,016537 1 0,4000 0,4070 0,9000 0,9004 1,7560 0,042138 1 0,9000 0,9001 0,9000 0,8998 0,0072 -0,027139 1 0,5000 0,4968 1,0000 0,9997 -0,6420 -0,028940 0 1,0000 0,9314 1,0000 0,9921 -6,8643 -0,7911
Tabla 18: Errores en las concentraciones de los iones Tl (I) y Pb (II) en las muestras analizadas obtenidos por la aplicación de la red continua óptima de topología 7-6-6-2 ltts (0=0,25 y "=0,90).
TRATAMIENTO ESTADÍSTICO DE DATOS
-210-
Con respecto a la tabla anterior cabe destacar los siguientes aspectos:
1. Los errores que aparecen para las concentraciones de Tl (I) y Pb (II) se encuentran
representados como errores relativos, excepto en los casos donde existe una
concentración real de 0,0 mg·l-1 para cualquiera de las especies, en los que se hace
uso del error absoluto.
2. Como puede observarse, los errores relativos son inferiores al 11,87 y 6,86 % (en
valor absoluto) para talio y plomo, respectivamente, lo que supone una mejora con
respecto a los valores encontrados en la bibliografía.
3. Sin embargo, dichos porcentajes son poco significativos si los comparamos con los
obtenidos para el resto de las predicciones de ambos iones, en las cuales no se supera
el 2 - 3 % de error en la mayoría de los casos.
4. Por último, los errores de predicción obtenidos para las concentraciones de los
cationes en las muestras en las que se hace uso del error absoluto, son inferiores a la
centésima de mg·l-1. Es más, puede observarse, que mayoritariamente estos errores
son 10 veces más pequeños, afectando a la milésima de mg·l-1.
A continuación, y para finalizar con la discusión del método de separación de mezclas
mediante redes neuronales artificiales, presentamos las superficies de error y de correlación para
los conjuntos de entrenamiento y de prueba de la red óptima 7-6-6-2 ltts (ver Figuras 29 a 36).
Estos gráficos se han obtenido mediante la representación de dichos parámetros con respecto a
los valores de ç y á investigados:
TRATAMIENTO ESTADÍSTICO DE DATOS
-211-
Figura 49: Superficie del error RMS correspondiente al conjunto de entrenamiento (trn).
A partir de la figura, y gracias a las curvas de nivel, podemos comprobar que el valor
mínimo para el error RMS del conjunto de entrenamiento se corresponde con los valores de ç =
0,30 y á = 0,90. En la Figura 30, se recoge la misma superficie anterior, pero haciendo uso
únicamente de dos dimensiones:
TRATAMIENTO ESTADÍSTICO DE DATOS
-212-
0.050.100.150.200.250.300.40
0.45
0.50
0.55
0.60
0.65
0.70
0.75
0.80
0.85
0.90
Figura 50: Curvas de nivel en dos dimensiones para el error RMS del conjunto de entrenamiento.
A mayor oscuridad en la superficie, más pequeño es el error RMS.
A continuación, en la Figura 31, se representa la superficie obtenida a partir de las
correlaciones para el conjunto de entrenamiento:
TRATAMIENTO ESTADÍSTICO DE DATOS
-213-
Figura 51: Superficie de correlación para el conjunto de entrenamiento.
Tras un detenido examen de las Figuras 29 y 31, se observa que ambas son
complementarias una con respecto a la otra, correspondiéndose los valores máximos en error con
los mínimos en correlación y viceversa. En este caso, la depresión que aparece en la parte anterior
de la Figura 31, se corresponde con el valor máximo en la Figura 29 (curvas de nivel de color
rojo). La esquina posterior izquierda indica la correlación máxima (correspondiente con el error
RMS mínimo).
TRATAMIENTO ESTADÍSTICO DE DATOS
-214-
0.05 0.10 0.15 0.20 0.25 0.300.40
0.45
0.50
0.55
0.60
0.65
0.70
0.75
0.80
0.85
0.90
Figura 52: Curvas de nivel en dos dimensiones para las correlaciones del conjunto de entrenamiento.
Los colores claros se corresponden con valores de correlación pequeños, y por tanto, no
aceptables. Por contra, el color oscuro de la esquina superior derecha indica el máximo de
correlación para el conjunto de entrenamiento.
La superficie de error para el conjunto de validación es la siguiente:
TRATAMIENTO ESTADÍSTICO DE DATOS
-215-
Figura 53: Superficie del error RMS correspondiente al conjunto de validación (tst).
Aquí se puede observar que el mínimo error RMS se encuentra en el pozo delimitado por
curvas de nivel de color verde (a la derecha de la figura). Éste se corresponde con unos valores
de ç = 0,25 y á = 0,50.
En la Figura 34 se representan las mismas curvas de nivel, pero en dos dimensiones:
TRATAMIENTO ESTADÍSTICO DE DATOS
-216-
0.05 0.10 0.15 0.20 0.25 0.300.40
0.45
0.50
0.55
0.60
0.65
0.70
0.75
0.80
0.85
0.90
Figura 54: Curvas de nivel en dos dimensiones para el error RMS del conjunto de validación.
Los colores claros hacen referencia a los valores más pequeños para el error RMS del
conjunto de prueba.
TRATAMIENTO ESTADÍSTICO DE DATOS
-217-
Figura 55: Superficie de correlación para el conjunto de validación.
Entre esta figura y la número 33, se puede observar también una complementariedad mucho
más clara que para el caso de las Figuras 29 y 31. La depresión presente en la esquina anterior
se corresponde con el máximo de la esquina posterior de la Figura 33. Además, el máximo
existente junto al valle de la izquierda de la representación, se corresponde con el mínimo error
RMS de la Figura 33.
Finalmente, en la Figura 36, se recogen las curvas de nivel en dos dimensiones para la
correlación presentada anteriormente:
TRATAMIENTO ESTADÍSTICO DE DATOS
-218-
0.050.100.150.200.250.300.40
0.45
0.50
0.55
0.60
0.65
0.70
0.75
0.80
0.85
0.90
Figura 56: Curvas de nivel en dos dimensiones para las correlaciones del conjunto de validación.
En este caso, el color blanco representa un mínimo en las correlaciones, esto es, valores no
aceptables.
Con este método de separación y predicción de señales, se ha conseguido obtener una red
neuronal artificial capaz de predecir las señales a nivel de las centésimas de mg·l-1. Esto significa
que, para cualquier mezcla de Tl (I) y Pb (II) de composición desconocida, el modelo presentado
permite conocer las concentraciones de los iones con una precisión de 0,01 mg·l-1.
BIBLIOGRAFÍA.
1.- Ayuda del programa informático de redes neuronales: Qwiknet 3.2.
2.- Ayuda del programa informático de redes neuronales: Qnet 2000.
Conclusiones.
“Aquello que no nos mata, nos hace más fuertes”.
Friedrich Nietzsche
CONCLUSIONES
-220-
A continuación, se exponen las conclusiones que pueden extraerse del análisis e
interpretación de los resultados obtenidos:
PRIMERA: En este trabajo, se demuestra la utilidad de las técnicas estadísticas para la
interpretación de señales electroquímicas solapadas.
SEGUNDA: Mediante un modelo de Análisis Lineal Discriminante basado en la
información discreta es posible clasificar un 95% de las muestras. Aparecen
errores de clasificación en aquellas muestras situadas en los extremos del
intervalo de concentración estudiado para ambos iones.
TERCERA: Es posible emplear un modelo de aproximación gaussiano para representar las
señales de las muestras analizadas con un error inferior al 3 % .
CUARTA: Haciendo uso de un modelo de interpolación por mínimos cuadrados, es
posible la predicción de una señal cualquiera TiPj desconocida a partir de las
dos señales puras que componen la mezcla, obteniéndose en este caso una
fiabilidad de R $ 0.997, mediante el siguiente modelo de aproximación:
. Este modelo se muestra robusto al( ) ( ) ( )f T P f T f Pi j i j= ⋅ + ⋅ +α β εcontaminar la señal con un error gaussiano de hasta el 5 %.
QUINTA: El modelo de interpolación también es capaz de resolver cualquier mezcla TiPj
desconocida si se conoce una de las concentraciones de los iones que la
componen, obteniéndose un error < 0.1 mg·l-1, con un 87,5 % de clasificaciones
correctas. Este método es válido para todo el intervalo de concentraciones
estudiado, pudiendo extenderse a valores intermedios del mismo con sólo
variar las fracciones del parámetro ë de los modelos matemáticos empleados.
SEXTA: Se han hallado modelos neuronales de topologías sencillas, basados en los
parámetros característicos de las señales de los voltamperogramas (altura,
anchura y posición del pico), capaces no solo de clasificar bien el 100% de las
muestras, sino también de alcanzar un nivel de predicción con un error inferior
a 0.1 mg·l-1. Estos modelos fueron validados estadísticamente mediante
técnicas de validación cruzada.
CONCLUSIONES
-221-
SÉPTIMA: La transformación de Fourier y su posterior filtrado, eliminando frecuencias
elevadas y conservando una información mínima del 97%, revelan altas
correlaciones entre los valores de amplitud y frecuencia que componen el
espectro de Fourier de la señal. Dicho modelo, combinado con el escalado
multidimensional, es capaz de clasificar el 100% de la información, pudiendo
utilizarse como modelo predictivo.
OCTAVA: La aplicación de redes neuronales sobre las señales continuas expresadas en el
espacio de Fourier permite la predicción continua de cualquier señal TiPj
desconocida, permitiendo determinar las concentraciones de los iones que
constituyen las mezclas con un error entre las centésimas y milésimas de mg·l-1
en todos los casos.
NOVENA: Aunque la aplicación de redes neuronales sobre datos continuos ya se ha
realizado en algunas ocasiones en el campo de la electroquímica, la innovación
que aquí se presenta radica en el empleo de un proceso previo de reducción de
dimensiones basado en la información de amplitud y frecuencia obtenida
mediante la transformada de Fourier.
DÉCIMA: Los modelos neuronales aportan una gran capacidad predictiva y al mismo
tiempo una gran sencillez, iguálandolos operativamente a modelos ya
establecidos de tipo analítico y/o estadísticos. La bibliografía existente sobre
la aplicación de dichos modelos a problemas electroquímicos viene
representando tradicionalmente topologías más complejas y peores capacidades
predictivas que las aquí obtenidas, debido al grado de compresión de la
información que es necesario, dado que ninguna de ellas trabaja en el espacio
de Fourier.
UNDÉCIMA: La aplicación de los modelos descritos ha puesto de manifiesto su utilidad
como métodos de reconocimiento de patrones en todos los casos, permitiendo
la predicción de mezclas mediante el modelo de interpolación y su resolución
por medio de redes neuronales artificiales.
CONCLUSIONES
-222-
DUODÉCIMA: Con estos métodos se han conseguido resolver mezclas de Tl (I) y Pb (II) en las
que la diferencia entre los potenciales de pico era del orden de 25 mV, lo que
originaba un fuerte solapamiento de las señales.
Anexo I.
ANEXO I
-224-
E (V) T1 T2 T3 T4 T5 T6 T7 T8 T9 T10-0,7008 0,820 0,785 0,966 0,800 1,058 2,525 1,421 1,278 1,525 1,294-0,6958 0,844 0,843 0,996 0,857 1,136 2,510 1,523 1,380 1,650 1,418-0,6908 0,879 0,878 1,080 0,939 1,233 2,550 1,656 1,528 1,805 1,604-0,6857 0,900 0,943 1,141 1,002 1,333 2,579 1,773 1,692 1,983 1,814-0,6807 0,942 0,984 1,227 1,089 1,462 2,916 1,943 1,873 2,218 2,060-0,6757 0,967 1,049 1,323 1,194 1,604 3,202 2,170 2,129 2,477 2,325-0,6706 1,014 1,123 1,420 1,293 1,763 3,349 2,375 2,350 2,850 2,676-0,6656 1,047 1,214 1,578 1,448 1,965 3,616 2,675 2,682 3,283 3,079-0,6606 1,101 1,314 1,748 1,599 2,203 3,872 3,013 3,079 3,612 3,578-0,6555 1,145 1,419 1,932 1,805 2,488 4,133 3,453 3,579 4,214 4,166-0,6505 1,203 1,563 2,182 2,041 2,849 4,640 3,945 4,090 4,967 4,906-0,6454 1,281 1,742 2,452 2,334 3,306 5,300 4,522 4,790 5,816 5,812-0,6404 1,375 1,960 2,800 2,711 3,822 6,018 5,281 5,660 6,930 6,872-0,6354 1,471 2,213 3,240 3,180 4,479 6,816 6,258 6,738 7,988 8,195-0,6303 1,626 2,529 3,755 3,692 5,254 7,679 7,354 8,011 9,637 9,783-0,6253 1,765 2,917 4,362 4,358 6,219 9,024 8,634 9,593 11,397 11,741-0,6203 1,978 3,360 5,135 5,179 7,356 10,828 10,385 11,519 13,576 14,124-0,6152 2,207 3,926 6,041 6,162 8,763 12,225 12,293 13,865 16,303 16,927-0,6102 2,497 4,580 7,143 7,373 10,445 14,522 14,672 16,555 19,330 20,380-0,6052 2,844 5,393 8,501 8,728 12,492 17,270 17,578 19,788 23,147 24,550-0,6001 3,273 6,348 10,105 10,450 14,985 20,318 20,981 23,701 27,539 29,400-0,5951 3,781 7,505 11,998 12,486 17,774 23,708 25,037 28,164 32,683 35,202-0,5901 4,417 8,902 14,254 14,983 21,238 28,193 29,845 33,762 38,681 42,189-0,5850 5,139 10,474 16,860 17,989 25,202 33,168 35,305 40,133 45,442 50,397-0,5800 6,017 12,430 19,919 21,810 29,845 39,076 42,056 47,449 53,393 59,896-0,5750 7,034 14,506 23,354 25,428 35,285 45,361 49,323 55,846 62,712 70,558-0,5699 8,165 16,996 27,255 29,835 41,013 52,633 57,562 65,053 72,466 82,990-0,5649 9,420 19,664 31,478 34,675 48,010 60,631 67,542 75,580 83,377 96,376-0,5598 10,798 22,654 36,006 40,266 55,219 69,038 77,148 87,249 94,658 111,480-0,5548 12,190 25,627 40,779 46,417 62,887 78,357 88,546 99,016 106,850 127,780-0,5498 13,661 28,971 45,780 52,604 71,130 87,805 99,304 111,112 120,059 145,070-0,5447 15,144 32,188 50,964 59,371 79,730 97,389 112,003 123,733 133,457 162,436-0,5397 16,614 35,570 55,875 66,077 88,384 108,469 124,076 137,415 150,379 180,053-0,5347 18,047 38,854 60,639 72,772 96,496 117,923 136,372 150,362 163,877 198,042-0,5296 19,400 41,879 65,061 78,691 104,810 128,280 148,238 163,129 176,232 214,647-0,5246 20,600 44,426 69,123 85,967 112,489 137,397 158,493 176,093 191,361 230,576-0,5196 21,683 47,071 72,632 91,010 119,240 145,420 169,048 188,348 203,001 246,121-0,5145 22,597 49,042 75,563 95,998 125,272 154,148 177,250 197,897 213,273 257,595-0,5095 23,333 50,796 77,717 100,845 130,150 160,339 184,172 206,486 224,305 267,853-0,5045 23,800 51,692 79,096 103,450 133,991 165,098 191,178 217,056 230,149 275,348
.../...
Datos de I/E de los voltamperogramas de las muestras de Tl (I).
Datos de I/E de los voltamperogramas de las muestras desde -0,7 a -0,3 V:
ANEXO I
-225-
E (V) T1 T2 T3 T4 T5 T6 T7 T8 T9 T10-0,4994 24,098 52,480 79,799 104,912 136,447 168,707 195,030 222,351 241,951 280,498-0,4944 24,181 52,533 79,668 105,804 137,925 170,485 195,715 225,545 245,911 281,334-0,4893 23,949 52,003 78,543 106,826 137,010 171,658 196,657 227,079 244,240 281,360-0,4843 23,501 51,044 76,894 106,370 135,284 170,726 194,796 226,747 248,037 276,552-0,4793 22,865 49,822 74,582 102,763 131,097 168,446 189,302 222,303 241,764 271,080-0,4742 21,967 47,834 71,373 99,824 126,879 162,962 183,157 215,762 235,593 261,734-0,4692 20,900 45,407 67,627 95,671 120,738 156,162 174,913 207,325 227,256 249,338-0,4642 19,766 42,698 63,442 91,133 114,243 148,559 164,131 196,973 216,261 235,399-0,4591 18,305 39,708 58,775 84,553 106,476 139,598 154,583 183,921 199,384 219,702-0,4541 16,928 36,564 53,801 79,588 98,419 129,573 143,244 168,786 185,572 203,215-0,4491 15,441 33,264 48,709 71,874 89,145 118,716 129,337 154,791 168,502 184,791-0,4440 13,973 30,010 43,690 65,192 80,676 107,340 117,058 140,339 150,595 165,855-0,4390 12,501 26,669 38,529 58,433 71,938 96,190 103,227 125,058 134,512 147,503-0,4340 11,118 23,511 33,785 50,895 63,203 85,316 91,254 110,493 118,198 129,580-0,4289 9,778 20,508 29,237 45,104 55,213 74,751 79,372 96,648 102,543 112,722-0,4239 8,558 17,729 25,060 39,165 47,555 65,398 68,654 83,030 88,093 96,774-0,4189 7,458 15,190 21,333 33,595 40,463 55,939 58,460 71,023 74,600 82,451-0,4138 6,463 12,932 18,041 28,431 34,423 48,288 49,089 60,412 63,283 69,388-0,4088 5,583 10,962 15,174 24,149 29,006 40,768 41,398 50,753 53,073 57,904-0,4037 4,844 9,261 12,709 20,017 24,226 34,319 34,406 42,055 43,921 48,078-0,3987 4,221 7,803 10,626 16,997 20,123 29,651 28,675 35,434 36,706 39,491-0,3937 3,672 6,597 8,907 13,970 16,796 24,779 23,746 29,460 30,184 32,596-0,3886 3,248 5,595 7,428 11,746 13,810 21,248 19,727 24,287 25,399 26,440-0,3836 2,909 4,762 6,301 9,797 11,490 18,280 16,140 20,284 20,974 21,600-0,3786 2,609 4,094 5,311 8,111 9,574 16,538 13,380 16,881 17,221 17,557-0,3735 2,397 3,568 4,524 6,874 7,955 13,927 11,249 14,016 14,345 14,396-0,3685 2,202 3,119 3,938 5,910 6,708 12,681 9,201 11,983 12,139 11,724-0,3635 2,065 2,795 3,411 5,099 5,677 12,200 7,712 10,072 10,357 9,645-0,3584 1,968 2,533 3,030 4,409 4,796 10,458 6,662 8,560 8,775 7,894-0,3534 1,895 2,318 2,745 3,946 4,211 10,805 5,644 7,578 7,424 6,513-0,3484 1,843 2,164 2,498 3,441 3,555 9,598 4,962 6,770 6,993 5,493-0,3433 1,798 2,037 2,304 3,225 3,300 8,664 4,441 6,152 6,330 4,681-0,3383 1,771 1,973 2,175 3,052 2,999 9,246 4,028 5,904 5,591 4,030-0,3333 1,762 1,897 2,081 2,875 2,960 8,872 3,662 5,300 5,450 3,548-0,3282 1,758 1,871 2,025 2,822 2,622 8,490 3,331 5,158 5,158 3,125-0,3232 1,800 1,863 1,983 2,889 2,481 9,114 3,246 5,206 4,887 2,844-0,3181 1,794 1,875 1,978 2,758 2,389 8,637 3,078 5,049 4,353 2,611-0,3131 1,812 1,905 1,962 2,905 2,355 8,669 3,187 5,049 4,564 2,450-0,3081 1,849 1,918 1,959 2,941 2,349 8,646 2,894 4,956 4,387 2,357-0,3030 1,896 1,961 1,992 2,878 2,333 9,911 2,938 4,962 4,531 2,277
Datos de I/E de los voltamperogramas de las muestras de Tl (I) (continuación).
ANEXO I
-226-
E (V) P1 P2 P3 P4 P5 P6 P7 P8 P9 P10-0,7008 0,340 0,330 0,416 0,274 0,343 0,316 0,318 0,372 0,340 0,351-0,6958 0,364 0,334 0,445 0,319 0,370 0,336 0,364 0,389 0,353 0,377-0,6908 0,374 0,344 0,454 0,345 0,387 0,367 0,343 0,390 0,370 0,380-0,6857 0,406 0,397 0,449 0,347 0,407 0,374 0,367 0,446 0,395 0,413-0,6807 0,024 0,392 0,521 0,362 0,419 0,392 0,397 0,463 0,422 0,406-0,6757 0,445 0,415 0,531 0,398 0,442 0,401 0,435 0,501 0,463 0,450-0,6706 0,439 0,436 0,517 0,417 0,479 0,442 0,471 0,520 0,504 0,506-0,6656 0,465 0,433 0,562 0,461 0,525 0,490 0,487 0,558 0,538 0,548-0,6606 0,477 0,475 0,561 0,466 0,544 0,512 0,545 0,639 0,584 0,595-0,6555 0,489 0,473 0,600 0,510 0,579 0,568 0,612 0,725 0,659 0,682-0,6505 0,510 0,531 0,722 0,567 0,654 0,652 0,729 0,849 0,822 0,840-0,6454 0,526 0,577 0,719 0,677 0,772 0,793 0,872 1,056 0,995 1,047-0,6404 0,574 0,659 0,842 0,834 0,932 1,022 1,086 1,336 1,306 1,360-0,6354 0,636 0,745 0,964 1,000 1,173 1,317 1,411 1,768 1,725 1,839-0,6303 0,728 0,953 1,223 1,364 1,525 1,725 1,924 2,431 2,390 2,522-0,6253 0,828 1,208 1,584 1,865 2,064 2,419 2,674 3,371 3,355 3,589-0,6203 1,081 1,593 2,083 2,565 2,873 3,344 3,783 4,812 4,784 5,159-0,6152 1,387 2,150 2,887 3,603 4,020 4,793 5,460 6,937 6,927 7,460-0,6102 1,841 2,988 4,034 5,183 5,769 6,883 7,854 10,036 10,041 10,856-0,6052 2,540 4,182 5,736 7,416 8,321 10,017 11,406 14,528 14,616 15,866-0,6001 3,498 5,927 8,166 10,657 11,986 14,465 16,517 21,013 21,201 23,101-0,5951 4,869 8,390 11,571 15,203 17,166 20,796 23,771 30,106 30,487 33,253-0,5901 6,749 11,733 16,309 21,476 24,408 29,522 33,731 42,631 43,358 47,418-0,5850 9,350 16,212 22,632 29,821 34,097 41,241 47,189 59,246 60,632 66,381-0,5800 12,415 21,879 30,606 40,387 46,629 56,301 64,470 80,213 82,738 90,665-0,5750 16,248 28,656 40,235 53,072 61,868 74,344 85,297 105,312 109,499 120,147-0,5699 20,578 36,334 50,999 67,223 79,168 95,066 109,120 133,428 139,969 153,575-0,5649 24,916 44,211 62,244 81,745 97,710 117,009 134,382 162,424 172,198 188,675-0,5598 29,146 51,801 72,797 95,678 115,948 138,080 158,970 190,060 203,467 222,785-0,5548 32,820 58,399 82,324 107,971 132,508 157,026 180,868 214,291 231,340 252,986-0,5498 35,734 63,858 90,151 118,030 146,250 172,770 199,153 234,084 254,466 277,933-0,5447 38,062 68,026 96,045 125,686 157,014 184,823 213,236 249,094 272,249 297,149-0,5397 39,632 70,904 100,316 131,167 164,849 193,567 223,530 259,814 285,130 310,975-0,5347 40,571 72,852 103,154 134,767 170,184 199,439 230,403 266,841 293,678 320,228-0,5296 41,311 73,997 104,898 136,859 173,491 203,021 234,641 270,969 298,898 325,789-0,5246 41,412 74,519 106,031 137,811 175,097 204,757 236,691 272,728 301,346 328,421-0,5196 41,332 74,502 105,781 137,633 175,516 204,934 236,978 272,545 301,547 328,664-0,5145 41,026 74,030 105,127 136,630 174,701 203,772 235,711 270,563 299,815 326,702-0,5095 40,321 72,980 103,773 134,756 172,657 201,265 232,879 266,747 296,033 322,648-0,5045 39,497 71,410 101,621 131,912 169,395 197,271 228,314 260,871 290,038 316,118
.../...
Datos de I/E de los voltamperogramas de las muestras de Pb (II).
ANEXO I
-227-
E (V) P1 P2 P3 P4 P5 P6 P7 P8 P9 P10-0,4994 38,149 69,232 98,489 127,525 164,607 191,406 221,634 252,404 281,395 306,700-0,4944 36,515 66,214 94,215 121,761 157,883 183,300 212,355 240,862 269,463 293,656-0,4893 34,154 62,103 88,478 113,997 148,943 172,492 200,008 225,608 253,583 276,194-0,4843 31,274 56,907 81,069 104,218 137,440 158,618 184,091 206,193 233,212 253,806-0,4793 27,760 50,569 72,064 92,451 123,233 141,620 164,566 182,716 208,192 226,367-0,4742 23,853 43,363 62,045 79,092 106,741 122,213 142,082 156,081 179,363 194,716-0,4692 19,678 35,721 51,093 64,893 88,847 101,061 117,754 127,867 148,413 160,611-0,4642 15,603 28,242 40,345 51,000 70,939 80,038 93,393 100,384 117,501 126,879-0,4591 11,938 21,458 30,622 38,476 54,254 60,810 71,070 75,547 89,208 96,059-0,4541 8,881 15,797 22,436 28,025 39,996 44,549 52,083 54,876 65,253 69,980-0,4491 6,522 11,296 15,989 19,857 28,609 31,641 37,015 38,792 46,295 49,469-0,4440 4,699 8,005 11,234 13,778 19,967 22,020 25,717 26,798 32,034 34,118-0,4390 3,415 5,612 7,831 9,483 13,713 15,023 17,569 18,267 21,825 23,171-0,4340 2,525 3,984 5,577 6,472 9,394 10,206 11,902 12,284 14,701 15,534-0,4289 1,921 2,853 3,848 4,468 6,398 6,901 8,023 8,320 9,900 10,366-0,4239 1,535 2,085 2,807 3,127 4,394 4,717 5,433 5,659 6,663 6,985-0,4189 1,268 1,624 2,082 2,241 3,079 3,302 3,775 3,905 4,535 4,735-0,4138 1,106 1,263 1,624 1,665 2,233 2,325 2,644 2,763 3,152 3,256-0,4088 0,972 1,069 1,354 1,308 1,695 1,736 1,938 2,006 2,250 2,285-0,4037 0,911 0,937 1,149 1,053 1,341 1,314 1,479 1,546 1,669 1,697-0,3987 0,888 0,864 1,034 0,915 1,120 1,085 1,167 1,256 1,298 1,329-0,3937 0,836 0,808 0,955 0,814 0,973 0,941 0,982 1,069 1,077 1,087-0,3886 0,859 0,783 0,966 0,784 0,881 0,839 0,890 0,970 0,963 0,943-0,3836 0,846 0,807 0,939 0,754 0,868 0,788 0,826 0,900 0,862 0,848-0,3786 0,863 0,776 0,925 0,758 0,825 0,755 0,793 0,859 0,825 0,800-0,3735 0,885 0,773 0,950 0,734 0,836 0,771 0,772 0,850 0,802 0,801-0,3685 0,899 0,811 0,943 0,754 0,821 0,734 0,748 0,811 0,780 0,812-0,3635 0,932 0,797 0,979 0,774 0,835 0,738 0,752 0,826 0,791 0,785-0,3584 0,965 0,835 0,999 0,799 0,868 0,747 0,764 0,859 0,802 0,827-0,3534 0,973 0,846 1,016 0,774 0,856 0,754 0,795 0,870 0,815 0,821-0,3484 0,993 0,869 1,029 0,832 0,873 0,777 0,800 0,872 0,828 0,839-0,3433 1,020 0,869 1,059 0,851 0,890 0,809 0,828 0,920 0,861 0,892-0,3383 1,049 0,908 1,085 0,841 0,914 0,839 0,870 0,896 0,845 0,900-0,3333 1,090 0,935 1,109 0,924 0,931 0,842 0,833 0,939 0,911 0,911-0,3282 1,126 0,975 1,128 0,940 0,950 0,901 0,910 0,992 0,918 0,963-0,3232 1,143 1,002 1,409 0,945 1,003 0,904 0,938 0,960 0,933 0,979-0,3181 1,173 1,041 1,225 0,999 1,035 0,920 0,935 1,013 0,960 1,000-0,3131 1,250 1,086 1,245 1,031 1,065 0,949 0,952 1,073 1,005 0,996-0,3081 1,300 1,066 1,299 1,074 1,093 1,002 1,039 1,072 1,031 1,082-0,3030 1,726 1,136 1,375 1,111 1,159 1,041 1,070 1,151 1,109 1,147
Datos de I/E de los voltamperogramas de las muestras de Pb (II) (continuación).
ANEXO I
-228-
E (V) T1P1 T1P6 T2P2 T2P7 T3P3 T3P8 T4P4 T4P9 T5P5 T5P10-0,7008 0,384 0,724 0,468 0,693 0,411 0,741 0,517 0,785 0,594 0,819-0,6958 0,404 0,810 0,503 0,792 0,488 0,808 0,541 0,904 0,692 0,917-0,6908 0,451 0,919 0,560 0,916 0,528 0,931 0,618 1,032 0,776 1,047-0,6857 0,451 1,028 0,642 1,048 0,591 1,077 0,702 1,171 0,868 1,196-0,6807 0,509 1,166 0,674 1,177 0,675 1,246 0,807 1,354 0,993 1,396-0,6757 0,538 1,343 0,743 1,348 0,767 1,430 0,934 1,558 1,119 1,635-0,6706 0,587 1,521 0,834 1,579 0,843 1,657 1,020 1,798 1,296 1,947-0,6656 0,618 1,760 0,943 1,810 0,975 1,925 1,192 2,103 1,500 2,296-0,6606 0,682 2,061 1,043 2,125 1,125 2,256 1,353 2,510 1,757 2,737-0,6555 0,733 2,392 1,183 2,538 1,323 2,679 1,586 2,965 2,086 3,255-0,6505 0,823 2,834 1,352 3,008 1,536 3,247 1,889 3,583 2,494 3,946-0,6454 0,920 3,350 1,535 3,645 1,853 3,884 2,278 4,301 2,991 4,807-0,6404 1,061 4,039 1,876 4,386 2,231 4,720 2,746 5,223 3,647 5,851-0,6354 1,242 4,849 2,237 5,346 2,710 5,776 3,341 6,408 4,484 7,196-0,6303 1,477 5,834 2,717 6,530 3,395 7,089 4,167 7,887 5,615 8,909-0,6253 1,801 7,111 3,364 8,069 4,241 8,754 5,252 9,746 7,041 11,140-0,6203 2,228 8,701 4,195 10,056 5,370 10,934 6,661 12,204 8,922 13,978-0,6152 2,758 10,684 5,288 12,553 6,884 13,709 8,606 15,340 11,466 17,617-0,6102 3,531 13,127 6,773 15,817 8,906 17,292 11,195 19,461 14,854 22,419-0,6052 4,567 16,246 8,790 20,027 11,682 21,986 14,719 24,775 19,427 28,681-0,6001 6,004 19,982 11,465 25,505 15,418 28,079 19,465 31,748 25,573 36,964-0,5951 7,908 24,777 15,071 32,539 20,415 35,981 25,857 40,796 33,774 47,774-0,5901 10,478 31,082 19,768 41,551 27,101 46,307 34,386 52,623 44,697 61,867-0,5850 13,753 38,499 25,862 52,895 35,748 59,346 45,513 67,727 58,852 79,976-0,5800 17,867 47,466 33,408 66,732 46,627 75,630 59,568 86,534 76,750 102,676-0,5750 22,677 57,212 42,442 83,004 59,682 95,136 76,474 109,272 98,353 130,078-0,5699 28,139 69,235 52,591 101,311 74,600 117,720 95,920 135,456 123,323 161,874-0,5649 33,831 82,188 63,322 120,828 90,559 142,251 116,917 164,200 150,220 196,799-0,5598 39,448 96,021 74,009 140,564 106,589 167,644 137,911 193,959 177,478 232,810-0,5548 44,587 109,576 83,988 159,778 121,642 192,526 157,819 223,030 203,401 267,959-0,5498 49,117 122,834 93,041 177,764 135,142 215,967 175,643 250,284 227,049 300,904-0,5447 53,052 137,132 100,784 194,324 146,820 237,386 191,064 275,067 247,504 330,577-0,5397 56,319 149,442 107,358 209,293 156,713 256,602 204,000 297,186 264,927 356,824-0,5347 59,034 160,861 112,820 222,704 164,965 273,584 214,666 316,564 279,480 379,638-0,5296 61,309 171,621 117,320 234,598 171,724 288,489 223,376 333,385 291,558 399,233-0,5246 63,047 181,700 120,922 244,793 177,180 301,362 230,341 347,732 301,279 415,029-0,5196 64,419 191,196 123,566 253,264 181,353 312,002 235,570 359,518 308,797 428,455-0,5145 65,318 197,791 125,404 259,874 184,232 320,399 239,214 368,686 314,111 438,820-0,5095 65,739 203,249 126,268 264,381 185,757 326,308 241,085 375,015 317,099 445,758-0,5045 65,618 208,085 126,011 266,574 185,781 329,486 240,952 378,225 317,499 449,098
.../...
Datos de I/E de los voltamperogramas de las mezclas de Tl (I) y Pb (II).
ANEXO I
-229-
E (V) T1P1 T1P6 T2P2 T2P7 T3P3 T3P8 T4P4 T4P9 T5P5 T5P10-0,4994 64,822 210,721 124,585 266,144 184,055 329,604 238,669 377,916 314,982 448,311-0,4944 63,321 209,123 121,781 262,886 180,366 326,329 233,767 373,780 309,160 442,870-0,4893 60,960 205,456 117,336 256,453 174,338 319,244 225,953 365,221 299,431 432,275-0,4843 57,699 200,556 111,268 246,715 165,844 308,063 214,902 351,977 285,528 416,095-0,4793 53,558 192,592 103,527 233,743 154,776 292,679 200,417 333,892 267,224 394,013-0,4742 48,709 182,618 94,319 217,926 141,433 273,511 183,082 311,421 245,115 366,739-0,4692 43,347 170,617 84,167 200,092 126,534 251,258 163,524 285,246 220,058 334,974-0,4642 37,943 157,228 73,727 181,144 111,141 227,228 143,170 257,031 193,689 300,809-0,4591 32,806 143,468 63,673 162,189 96,046 202,829 123,322 228,421 167,773 266,251-0,4541 28,118 128,916 54,518 144,066 82,266 179,274 105,171 201,008 143,837 233,229-0,4491 24,087 115,385 46,409 127,012 70,079 157,285 89,201 175,509 122,599 202,712-0,4440 20,550 102,659 39,379 111,335 59,573 137,171 75,407 152,408 104,183 175,246-0,4390 17,593 91,142 33,392 96,916 50,649 119,005 63,759 131,672 88,357 150,918-0,4340 15,030 79,202 28,251 83,718 42,903 102,655 53,824 113,119 74,783 129,229-0,4289 12,781 68,701 23,824 71,825 36,266 87,846 45,380 96,601 63,088 110,074-0,4239 10,885 59,020 20,032 61,087 30,566 74,674 38,134 81,910 53,031 93,203-0,4189 9,203 49,925 16,751 51,646 25,673 63,074 31,885 69,047 44,402 78,367-0,4138 7,790 41,837 13,979 43,279 21,440 52,910 26,554 57,756 36,984 65,469-0,4088 6,540 34,987 11,677 36,010 17,821 44,023 22,043 48,008 30,634 54,394-0,4037 5,484 29,083 9,692 29,802 14,773 36,439 18,190 39,653 25,245 44,903-0,3987 4,632 24,179 8,026 24,521 12,192 29,998 14,999 32,613 20,725 36,909-0,3937 3,884 19,829 6,669 20,142 10,080 24,558 12,354 26,666 16,970 30,191-0,3886 3,293 16,374 5,578 16,463 8,285 20,059 10,129 21,733 13,855 24,520-0,3836 2,802 13,320 4,629 13,469 6,829 16,330 8,326 17,661 11,315 19,971-0,3786 2,405 11,002 3,881 11,019 5,633 13,288 6,872 14,367 9,241 16,180-0,3735 2,080 8,969 3,319 9,022 4,694 10,809 5,672 11,668 7,577 13,109-0,3685 1,819 7,392 2,848 7,423 3,914 8,837 4,672 9,474 6,225 10,681-0,3635 1,622 6,201 2,501 6,150 3,296 7,216 3,939 7,765 5,134 8,731-0,3584 1,500 5,167 2,223 5,128 2,807 5,984 3,350 6,389 4,312 7,120-0,3534 1,353 4,446 1,985 4,318 2,405 4,948 2,870 5,285 3,639 5,861-0,3484 1,275 3,766 1,817 3,716 2,143 4,148 2,488 4,400 3,106 4,900-0,3433 1,194 3,317 1,706 3,200 1,898 3,581 2,221 3,764 2,720 4,118-0,3383 1,121 2,970 1,614 2,783 1,764 3,036 2,016 3,256 2,415 3,497-0,3333 1,149 2,679 1,572 2,514 1,592 2,664 1,863 2,818 2,144 3,017-0,3282 1,112 2,469 1,522 2,299 1,501 2,373 1,736 2,518 1,984 2,677-0,3232 1,103 2,348 1,536 2,141 1,431 2,173 1,677 2,295 1,863 2,408-0,3181 1,097 2,255 1,521 2,045 1,397 2,012 1,601 2,130 1,755 2,210-0,3131 1,102 2,180 1,566 1,956 1,365 1,900 1,613 1,990 1,727 2,074-0,3081 1,114 2,144 1,576 1,899 1,379 1,850 1,613 1,899 1,691 1,961-0,3030 1,124 2,170 1,651 1,901 1,368 1,768 1,638 1,842 1,696 1,924
Datos de I/E de los voltamperogramas de las mezclas de Tl (I) y Pb (II) (continuación).
ANEXO I
-230-
E (V) T6P1 T6P6 T7P2 T7P7 T8P3 T8P8 T9P4 T9P9 T10P5 T10P10-0,7008 0,541 0,790 1,553 0,852 0,685 0,739 0,673 0,886 0,712 0,879-0,6958 0,583 0,866 1,607 0,939 0,742 0,826 0,776 0,987 0,845 1,005-0,6908 0,643 0,967 1,710 1,054 0,769 0,962 0,823 1,113 0,893 1,137-0,6857 0,694 0,790 1,772 1,193 0,851 1,081 0,919 1,261 1,006 1,295-0,6807 0,738 1,192 1,846 1,342 0,926 1,243 1,005 1,459 1,122 1,520-0,6757 0,824 1,394 1,927 1,481 1,037 1,452 1,121 1,665 1,249 1,761-0,6706 0,868 1,560 1,981 1,720 1,119 1,685 1,262 1,949 1,438 2,068-0,6656 0,931 1,816 2,109 1,991 1,285 1,975 1,413 2,310 1,645 2,416-0,6606 1,122 2,118 2,203 2,356 1,402 2,329 1,636 2,725 1,911 2,909-0,6555 1,256 2,512 2,342 2,772 1,645 2,796 1,910 3,251 2,217 3,494-0,6505 1,516 2,994 2,534 3,315 1,921 3,318 2,244 3,914 2,683 4,193-0,6454 1,843 3,605 2,793 3,984 2,282 4,050 2,746 4,766 3,275 5,163-0,6404 2,287 4,358 3,136 4,871 2,771 4,959 3,347 5,841 4,052 6,377-0,6354 2,940 5,340 3,669 6,021 3,472 6,167 4,186 7,221 5,077 7,912-0,6303 3,865 6,635 4,373 7,492 4,391 7,743 5,313 9,054 6,436 9,970-0,6253 5,176 8,307 5,423 9,445 5,703 9,791 6,861 11,411 8,310 12,572-0,6203 7,070 10,537 6,940 12,011 7,534 12,573 9,003 14,518 10,858 16,141-0,6152 9,750 13,449 9,143 15,436 10,118 15,977 11,963 18,629 14,380 20,589-0,6102 13,592 17,380 12,301 20,031 13,740 21,024 16,150 24,151 19,258 26,618-0,6052 19,026 22,627 16,824 26,254 18,854 27,255 21,942 31,504 26,022 34,855-0,6001 26,576 29,719 23,200 34,553 25,961 35,977 30,008 41,462 35,372 45,242-0,5951 36,793 39,055 32,075 45,727 35,880 47,135 41,101 54,685 48,073 58,458-0,5901 50,259 51,519 44,104 60,560 49,361 61,471 56,224 72,252 65,492 75,729-0,5850 67,134 67,642 60,020 79,841 67,212 80,028 76,156 95,261 88,260 96,680-0,5800 87,132 87,982 80,072 104,388 89,932 102,700 101,779 124,621 117,323 122,473-0,5750 109,390 112,607 104,199 134,046 117,704 129,449 132,964 160,335 152,682 151,594-0,5699 132,371 141,020 131,432 168,517 149,456 158,545 168,981 202,112 193,264 186,466-0,5649 154,461 171,906 159,951 205,875 183,417 190,780 207,779 247,919 236,829 219,677-0,5598 174,136 203,338 187,617 243,927 217,164 227,243 246,589 295,202 280,358 256,415-0,5548 190,475 233,399 212,634 280,204 248,080 263,206 282,608 340,770 320,786 298,460-0,5498 203,449 260,782 233,877 313,203 274,865 308,248 314,235 382,554 356,216 342,776-0,5447 213,268 284,758 251,001 341,801 296,753 335,847 340,416 419,070 385,692 382,218-0,5397 220,358 305,168 264,247 366,065 313,915 371,136 361,308 449,356 409,172 419,944-0,5347 225,172 322,299 274,176 386,183 326,881 401,239 377,456 475,290 427,121 463,773-0,5296 228,195 336,535 281,347 402,694 336,382 432,648 389,643 496,622 441,200 507,703-0,5246 229,514 347,995 286,200 415,147 342,961 455,307 398,420 513,826 451,555 519,289-0,5196 229,329 356,842 288,943 425,223 346,957 467,955 403,725 527,045 458,570 560,987-0,5145 227,565 363,239 289,792 432,265 348,565 484,122 406,418 536,534 462,303 576,923-0,5095 223,891 366,844 288,530 436,128 347,742 495,213 406,495 542,086 462,773 601,893-0,5045 217,978 367,545 284,982 436,436 344,239 493,865 403,449 543,272 459,683 608,091
.../...
Datos de I/E de los voltamperogramas de las mezclas de Tl (I) y Pb (II) (continuación).
ANEXO I
-231-
E (V) T6P1 T6P6 T7P2 T7P7 T8P3 T8P8 T9P4 T9P9 T10P5 T10P10-0,4994 209,456 364,811 278,664 432,824 337,580 492,928 396,796 539,637 452,322 610,370-0,4944 197,825 358,279 269,143 424,636 327,232 483,472 385,821 530,452 440,019 605,586-0,4893 182,743 347,350 255,800 411,149 312,409 473,682 369,673 514,804 421,910 586,606-0,4843 164,342 331,553 238,126 391,960 292,626 448,729 347,984 492,219 397,362 565,875-0,4793 143,296 310,782 216,215 366,693 267,654 420,162 320,251 462,129 366,125 528,340-0,4742 121,050 285,558 190,812 336,059 238,304 388,917 287,306 425,196 329,033 491,088-0,4692 99,094 256,822 163,407 301,149 205,952 348,208 250,552 382,732 287,911 442,599-0,4642 79,077 226,558 136,065 264,399 172,901 307,967 212,820 337,591 245,667 388,769-0,4591 62,001 196,592 110,735 228,381 141,741 268,692 176,598 292,650 205,245 337,276-0,4541 48,147 168,799 88,745 194,973 114,222 230,870 144,407 250,565 169,142 287,044-0,4491 37,387 143,968 70,700 165,255 91,323 197,054 117,032 212,987 138,394 243,378-0,4440 29,187 122,437 56,262 139,699 72,834 166,298 94,811 180,221 112,973 204,835-0,4390 22,952 103,888 45,015 117,909 58,240 140,312 76,855 152,227 92,503 172,142-0,4340 18,210 87,895 36,263 99,404 46,865 118,074 62,544 128,314 75,862 142,481-0,4289 14,568 74,132 29,351 83,451 37,872 99,268 51,114 107,779 62,369 120,290-0,4239 11,779 62,305 23,858 69,821 30,702 83,302 41,850 90,338 51,247 100,717-0,4189 9,583 52,086 19,439 58,184 25,043 69,745 34,269 75,317 42,178 83,142-0,4138 7,806 43,409 15,939 48,300 20,437 57,794 28,061 62,478 34,683 68,561-0,4088 6,428 35,939 13,065 39,891 16,703 47,832 23,004 51,565 28,358 56,580-0,4037 5,338 29,635 10,714 32,695 13,633 39,390 18,798 42,379 23,214 46,417-0,3987 4,446 24,336 8,837 26,809 11,146 32,449 15,326 34,693 18,954 37,949-0,3937 3,734 19,905 7,229 21,877 9,106 26,196 12,474 28,278 15,393 31,007-0,3886 3,163 16,260 6,036 17,734 7,496 21,483 10,254 22,907 12,600 25,073-0,3836 2,758 13,256 5,035 14,411 6,166 17,448 8,426 18,627 10,245 20,411-0,3786 2,411 10,807 4,210 11,748 5,084 14,150 6,903 15,097 8,356 16,530-0,3735 2,130 8,824 3,598 9,618 4,231 11,433 5,706 12,222 6,860 13,620-0,3685 1,899 7,238 3,071 7,846 3,566 9,327 4,726 9,954 5,650 11,010-0,3635 1,739 6,000 2,697 6,453 2,997 7,687 3,942 8,122 4,651 9,043-0,3584 1,645 4,992 2,378 5,341 2,643 6,399 3,375 6,648 3,876 7,395-0,3534 1,551 4,213 2,170 4,466 2,311 5,333 2,875 5,506 3,309 6,167-0,3484 1,520 3,558 1,999 3,787 2,083 4,502 2,538 4,597 2,826 5,211-0,3433 1,519 3,052 1,876 3,238 1,903 3,877 2,265 3,859 2,447 4,456-0,3383 1,517 2,689 1,816 2,826 1,703 3,333 2,017 3,347 2,208 3,876-0,3333 1,519 2,418 1,737 2,532 1,658 3,006 1,880 2,890 2,008 3,445-0,3282 1,552 2,202 1,767 2,320 1,576 2,659 1,798 2,594 1,828 3,138-0,3232 1,592 2,053 1,734 2,130 1,493 2,478 1,706 2,341 1,749 2,840-0,3181 1,659 1,978 1,763 2,031 1,502 2,328 1,676 2,148 1,684 2,679-0,3131 1,715 1,861 1,813 1,950 1,527 2,241 1,669 2,034 1,614 2,574-0,3081 1,788 1,836 1,828 1,923 1,494 2,174 1,627 1,954 1,584 2,484-0,3030 1,842 1,844 1,912 1,911 1,542 2,138 1,725 1,917 1,602 2,434
Datos de I/E de los voltamperogramas de las mezclas de Tl (I) y Pb (II) (continuación).
Anexo II.
ANEXO II
-233-
Aplicación programada para llevar a cabo el proceso de filtrado y reducción dedimensiones:
% -- -----------------------------------------------------------------------------------------------% -- -----------------------------------------------------------------------------------------------% -- Dada la señal espectral S(t) muestreada NPUNTOS veces durante un segundo.% -- * Se calcula su FFT en N=128, 256 ó 512 de sus frecuencias.% -- * Se filtran las frecuencias altas (eliminándolas).% -- * Se recompone la señal mediante la transformada inversa. % -- * Calcula el error de recomposición.% -- -----------------------------------------------------------------------------------------------% -- ----------------------------------- Andrés Jiménez ---------------------------------------
freqmax = input('Frecuencia máxima admisible: ');ampmin = 0;N = input('Número de componentes máximo de frecuencia a considerar (128, 256, 512): ');fichero = 'c:\matlab\bin\archivo.txt';
N2 = N/2; % -- --------------------------------------------------NPUNTOS = 80; % -- Número de muestras tomadas de la señal.
% -- --------------------------------------------------
% -- -------------------------------------------------------------% -- La señal original s(t) se lee de un fichero de texto.% -- -------------------------------------------------------------
Fs = NPUNTOS;t = (1:Fs)/Fs;
% -- ------------------------------------------------------------% -- La señal se muestrea 100 veces el intervalo [0,1].% -- ------------------------------------------------------------
fid = fopen(fichero,'r');
for i = 1:NPUNTOS, v = fscanf(fid,'%e', 1); s(i) = v;end; fclose(fid);
% -- -----------------------------------------------% -- Transformadas de la señal original s(t). % -- -----------------------------------------------
ANEXO II
-234-
subplot(2,2,1), hndl1 = plot( t, s);title('Se±al original s(t) ')set(hndl1, 'LineWidth', 1.25 ); xlabel('t')ylabel('s(t)')
% -- ---------------------------------------------------------Y = fft(s, N); % -- fft discreta con N componentes de frecuencias.
% -- ---------------------------------------------------------w = (0:N2-1)/N2*(Fs/2);subplot(2,2,2), hndl2 = plot(w, abs(Y(1:N2)') );title('FFT(Original)')set(hndl2, 'LineWidth', 1.25 ); xlabel('Frec Hz.')ylabel('Modulo (FFT)')
for i=1:N2 if( w(i) > freqmax ) Y(i) = 0;end;
if( abs(Y(i)) < ampmin ) Y(i) = 0;end;
fprintf(1, '\n %d \t %f \t %e ', i, w(i), abs(Y(i)) );
end;
subplot(2,2,3), hndl3 = plot(w, abs(Y(1:N2)') );title('FFT Filtrada ')set(hndl2, 'LineWidth', 1.25 ); xlabel('Frec Hz.')ylabel('Módulo (FFT)')
% -- --------------------------------------------------------snew = ifft(Y); % -- snew(t) es la Transformada Inversa de Fourier.
% -- --------------------------------------------------------
subplot(2,2,4), hndl4 = plot(t, s, t, real(snew(1:NPUNTOS)') );title('S(t) Recompuesta de la filtrada')set(hndl2, 'LineWidth', 1.0 ); xlabel('t')ylabel('s(t) y Snew(t) ')
ANEXO II
-235-
% -- --------------------------------------------% -- Cálculo del error de recomposición.% -- --------------------------------------------
e1 = 0; e2 = 0;
for i=1:NPUNTOS e1 = e1 + ( real(snew(i)) - s(i) )^2; e2 = e2 + ( s(i)^2 );end;
100 * sqrt(e1/e2)
Anexo III.
ANEXO III
-237-
N = 10; w =6 N = 9; w = 5 N = 7 w = 4 N = 5; w = 3 N = 4; w = 2T1 0,64 0,82 1,67 6,25T2 0,33 0,43 1,94 6,15T3 0,24 0,32 1,98 6,08T4 0,34 0,41 2,16 6,31T5 0,19 0,27 2,18T6 0,48 0,61 1,96T7 0,23 0,32 2,28T8 0,25 0,52 2,35T9 0,40 0,65 2,55T10 0,16 0,20 2,24P1 1,38 1,93 2,59 5,57P2 1,32 1,95 2,58 5,60P3 1,30 1,93 2,56 5,66P4 1,29 1,93 2,53 5,72P5 1,29 1,94 2,54 5,72P6 1,32 1,98 2,59 5,75P7 1,31 1,97 2,57 5,75P8 1,31 1,96 2,56 5,75P9 1,30 1,96 2,57 5,77P10 1,32 2,00 2,62 5,79
T1P1 0,82 1,19 1,58 3,64T1P6 0,37 0,47 0,62 2,47T2P2 0,77 1,12 1,49 3,65T2P7 0,49 0,71 0,94 2,74T3P3 0,80 1,18 1,56 3,71T3P8 0,55 0,81 1,08 2,97T4P4 0,82 1,22 1,61 3,83T4P9 0,56 0,84 1,11 3,10T5P5 0,76 1,14 1,50 3,70T5P10 0,61 0,91 1,21 3,22T6P1 1,13 1,68 2,21 5,04T6P6 0,74 1,11 1,47 3,67T7P2 1,10 1,64 2,14 4,85T7P7 0,80 1,20 1,57 3,81T8P3 1,07 1,61 2,10 4,81T8P8 0,54 0,71 0,92 4,23T9P4 1,02 1,54 2,01 4,62T9P9 0,77 1,16 1,52 3,78T10P5 0,99 1,48 1,93 4,48
T10P10 0,58 0,76 1,29 4,65
Espectro de Fourier de 128 frecuencias
Resultados de las pruebas de reducción de dimensiones de las muestras analizadas (en elcuadro, los errores de recomposición aparecen en %):
ANEXO III
-238-
N = 20; w =6 N = 17; w = 5 N = 13; w = 4 N = 10; w = 3 N = 7; w = 2T1 0,69 0,83 1,22 7,89T2 0,36 0,46 1,40 7,76T3 0,26 0,35 1,43 7,68T4 0,36 0,45 1,59 7,89T5 0,20 0,32 1,62 7,76T6 0,50 0,62 1,45 7,68T7 0,24 0,37 1,71 7,84T8 0,28 0,57 1,81 7,82T9 0,42 0,71 2,02 7,91T10 0,17 0,25 1,67 7,78P1 1,23 2,06 2,59 4,62P2 1,16 2,08 2,58 4,63P3 1,13 2,06 2,55 4,64P4 1,12 2,06 2,53 4,68P5 1,13 2,06 2,54 4,68P6 1,15 2,11 2,58 4,72P7 1,14 2,09 2,57 4,71P8 1,14 2,08 2,55 4,71P9 1,13 2,09 2,56 4,72P10 1,15 2,13 2,61 4,74
T1P1 0,73 1,27 1,57 2,93T1P6 0,34 0,50 0,64 1,88 8,28T2P2 0,68 1,19 1,49 2,91T2P7 0,43 0,76 0,94 2,12T3P3 0,70 1,26 1,56 2,97T3P8 0,49 0,87 1,08 2,31T4P4 0,72 1,30 1,60 3,07T4P9 0,49 0,89 1,10 2,42T5P5 0,67 1,21 1,50 2,95T5P10 0,53 0,97 1,21 2,53T6P1 0,98 1,79 2,20 4,11T6P6 0,65 1,18 1,47 2,92T7P2 0,96 1,71 2,13 3,94T7P7 0,70 1,27 1,66 3,05T8P3 0,93 1,71 2,10 3,90T8P8 0,50 0,75 1,01 3,37T9P4 0,89 1,63 2,01 3,74T9P9 0,67 1,23 1,52 3,01T10P5 0,86 1,57 1,92 3,63
T10P10 0,55 0,80 1,42 3,81
Espectro de Fourier de 256 frecuencias
Anexo IV.
ANEXO IV
-240-
1 2 3 4 5 6 7W (Hz) 0,0000 0,6250 1,2500 1,8750 2,5000 3,1250 3,7500A(T1) 6,50E-07 5,39E-07 3,34E-07 1,99E-07 1,11E-07 3,36E-08 2,32E-09A(T2) 1,34E-06 1,15E-06 7,70E-07 4,49E-07 2,30E-07 7,91E-08 1,44E-08A(T3) 2,01E-06 1,75E-06 1,19E-06 6,88E-07 3,43E-07 1,20E-07 2,42E-08A(T4) 2,65E-06 2,31E-06 1,59E-06 9,28E-07 4,66E-07 1,72E-07 3,96E-08A(T5) 3,40E-06 2,98E-06 2,05E-06 1,19E-06 5,86E-07 2,20E-07 5,69E-08A(T6) 4,45E-06 3,80E-06 2,49E-06 1,44E-06 7,45E-07 2,65E-07 5,53E-08A(T7) 4,85E-06 4,25E-06 2,94E-06 1,71E-06 8,45E-07 3,24E-07 9,01E-08A(T8) 5,61E-06 4,91E-06 3,37E-06 1,95E-06 9,67E-07 3,78E-07 1,19E-07A(T9) 6,09E-06 5,33E-06 3,66E-06 2,11E-06 1,05E-06 4,30E-07 1,54E-07
A(T10) 6,91E-06 6,10E-06 4,27E-06 2,47E-06 1,20E-06 4,59E-07 1,20E-07A(P1) 8,67E-07 7,86E-07 6,24E-07 4,65E-07 2,93E-07 1,38E-07 4,42E-08A(P2) 1,53E-06 1,41E-06 1,15E-06 8,42E-07 5,27E-07 2,54E-07 7,58E-08A(P3) 2,16E-06 2,00E-06 1,63E-06 1,20E-06 7,50E-07 3,63E-07 1,08E-07A(P4) 2,78E-06 2,59E-06 2,13E-06 1,56E-06 9,77E-07 4,80E-07 1,45E-07A(P5) 3,54E-06 3,30E-06 2,72E-06 1,99E-06 1,24E-06 6,09E-07 1,81E-07A(P6) 4,12E-06 3,85E-06 3,18E-06 2,32E-06 1,45E-06 7,14E-07 2,12E-07A(P7) 4,76E-06 4,46E-06 3,68E-06 2,69E-06 1,68E-06 8,26E-07 2,45E-07A(P8) 5,48E-06 5,13E-06 4,24E-06 3,09E-06 1,93E-06 9,52E-07 2,84E-07A(P9) 6,04E-06 5,66E-06 4,69E-06 3,42E-06 2,14E-06 1,05E-06 3,14E-07
A(P10) 6,59E-06 6,18E-06 5,11E-06 3,74E-06 2,33E-06 1,15E-06 3,39E-07A(T1P1) 1,51E-06 1,35E-06 1,00E-06 6,50E-07 3,62E-07 1,53E-07 4,12E-08A(T1P6) 5,01E-06 4,45E-06 3,17E-06 1,89E-06 9,40E-07 3,60E-07 9,28E-08A(T2P2) 2,87E-06 2,59E-06 1,94E-06 1,26E-06 6,95E-07 2,97E-07 7,94E-08A(T2P7) 6,28E-06 5,62E-06 4,09E-06 2,49E-06 1,27E-06 4,98E-07 1,17E-07A(T3P3) 4,21E-06 3,81E-06 2,87E-06 1,85E-06 1,02E-06 4,43E-07 1,17E-07A(T3P8) 7,69E-06 6,91E-06 5,07E-06 3,12E-06 1,62E-06 6,53E-07 1,58E-07A(T4P4) 5,42E-06 4,92E-06 3,73E-06 2,42E-06 1,34E-06 5,90E-07 1,58E-07A(T4P9) 8,76E-06 7,89E-06 5,83E-06 3,62E-06 1,89E-06 7,81E-07 1,96E-07A(T5P5) 7,16E-06 6,50E-06 4,91E-06 3,16E-06 1,74E-06 7,57E-07 2,01E-07
A(T5P10) 1,03E-05 9,34E-06 6,93E-06 4,33E-06 2,28E-06 9,52E-07 2,38E-07A(T6P1) 4,83E-06 4,46E-06 3,56E-06 2,50E-06 1,51E-06 7,18E-07 2,12E-07A(T6P6) 8,30E-06 7,53E-06 5,68E-06 3,65E-06 2,00E-06 8,71E-07 2,30E-07A(T7P2) 6,20E-06 5,69E-06 4,48E-06 3,11E-06 1,86E-06 8,75E-07 2,48E-07A(T7P7) 9,79E-06 8,90E-06 6,76E-06 4,38E-06 2,42E-06 1,07E-06 2,84E-07A(T8P3) 7,44E-06 6,85E-06 5,41E-06 3,73E-06 2,21E-06 1,04E-06 2,98E-07A(T8P8) 1,07E-05 9,76E-06 7,43E-06 4,86E-06 2,76E-06 1,32E-06 4,94E-07A(T9P4) 8,77E-06 8,06E-06 6,32E-06 4,30E-06 2,51E-06 1,17E-06 3,29E-07A(T9P9) 1,22E-05 1,11E-05 8,41E-06 5,44E-06 3,00E-06 1,32E-06 3,50E-07
A(T10P5) 1,01E-05 9,22E-06 7,19E-06 4,85E-06 2,81E-06 1,30E-06 3,64E-07A(T10P10) 1,29E-05 1,18E-05 8,99E-06 5,91E-06 3,39E-06 1,67E-06 7,19E-07
Dimensiones
Señales de los voltamperogramas de las muestras en el dominio de Fourier(frecuencia/amplitud):
Anexo V.
ANEXO V
-242-
E (V) T1P9 T2P10 T3P5 T5P3 T6P8 T8P6 T9P1 T10P2-0,7008 4,728 1,558 1,567 1,335 1,983 2,160 2,625 5,032-0,6958 4,785 1,688 1,684 1,537 2,297 2,516 2,911 5,362-0,6908 4,871 1,807 1,830 1,785 2,648 2,896 3,239 5,716-0,6857 4,918 1,987 2,044 2,076 3,085 3,414 3,608 6,148-0,6807 5,007 2,192 2,283 2,378 3,633 4,032 4,051 6,623-0,6757 5,108 2,458 2,590 2,800 4,341 4,846 4,617 7,233-0,6706 5,244 2,817 2,973 3,298 5,218 5,839 5,284 7,938-0,6656 5,440 3,311 3,446 3,937 6,368 7,096 6,062 8,828-0,6606 5,745 3,914 4,065 4,721 7,852 8,657 7,088 9,876-0,6555 6,164 4,791 4,904 5,696 9,801 10,754 8,291 11,189-0,6505 6,830 5,975 6,000 6,936 12,354 13,533 9,837 12,851-0,6454 7,868 7,629 7,438 8,519 15,717 16,920 11,737 14,958-0,6404 9,515 9,932 9,398 10,568 20,246 21,397 14,128 17,650-0,6354 11,995 13,125 12,035 13,130 26,272 27,565 17,095 21,105-0,6303 15,685 17,641 15,568 16,518 34,395 34,924 20,870 25,523-0,6253 21,027 23,940 20,345 20,859 45,229 44,683 25,586 31,215-0,6203 28,621 32,604 26,831 26,526 59,632 57,746 31,514 38,418-0,6152 39,179 44,514 35,459 33,808 78,222 73,919 38,927 47,530-0,6102 53,502 60,535 46,781 43,140 101,981 93,168 48,141 58,924-0,6052 72,327 81,407 61,267 54,915 131,054 116,930 59,457 72,934-0,6001 95,983 107,651 78,961 69,192 164,994 141,856 73,033 89,951-0,5951 124,244 138,951 99,727 85,924 202,866 171,494 88,910 109,762-0,5901 156,044 174,389 122,680 104,659 242,258 201,282 106,911 132,198-0,5850 189,251 211,555 146,326 124,450 281,001 233,369 126,403 156,332-0,5800 221,546 247,773 169,336 144,150 317,245 264,271 146,624 181,309-0,5750 250,460 280,626 190,070 162,862 349,053 294,088 166,799 205,960-0,5699 274,837 308,634 207,941 179,904 376,200 321,750 186,368 229,586-0,5649 294,219 330,970 222,587 194,972 397,808 342,397 204,851 251,560-0,5598 308,659 347,981 234,155 207,936 414,222 363,833 222,038 271,615-0,5548 318,859 360,192 242,970 218,900 427,082 385,427 237,573 289,652-0,5498 325,566 368,447 249,451 227,869 436,465 400,579 251,490 305,396-0,5447 329,294 373,332 253,750 235,036 442,698 408,124 263,507 318,848-0,5397 330,463 375,264 256,197 240,405 444,239 420,224 273,458 329,699-0,5347 329,316 374,452 256,640 243,850 443,468 422,458 281,253 337,830-0,5296 325,718 370,905 255,052 245,246 437,717 423,441 286,500 343,067-0,5246 319,446 364,272 251,248 244,448 428,084 418,788 289,133 345,136-0,5196 310,046 354,127 244,841 241,201 413,066 405,581 288,869 343,750-0,5145 297,035 339,899 235,550 235,277 392,432 386,758 285,647 338,773-0,5095 279,726 320,820 222,953 226,422 366,192 364,121 279,138 329,899-0,5045 257,724 296,541 206,947 214,534 334,576 335,992 269,358 317,058
Datos de I/E de los voltamperogramas de las muestras de comprobación desde -0,7 a -0,3V:
ANEXO V
-243-
E (V) T1P9 T2P10 T3P5 T5P3 T6P8 T8P6 T9P1 T10P2-0,4994 231,249 267,220 187,744 199,727 298,645 307,093 256,412 300,371-0,4944 201,176 233,939 166,197 182,547 260,970 268,002 240,668 280,334-0,4893 169,291 198,402 143,468 163,721 223,738 235,885 222,578 257,581-0,4843 137,860 163,125 121,113 144,504 188,827 204,770 203,103 233,428-0,4793 109,158 130,659 100,412 125,876 158,021 173,309 183,091 208,892-0,4742 84,558 102,652 82,376 108,686 131,520 150,372 163,310 185,008-0,4692 64,636 79,652 67,179 93,149 109,268 125,538 144,318 162,294-0,4642 49,191 61,559 54,786 79,412 90,657 106,118 126,396 141,218-0,4591 37,444 47,648 44,634 67,408 75,119 89,472 109,793 121,861-0,4541 28,705 37,060 36,479 56,933 62,153 75,388 94,433 104,401-0,4491 22,184 29,020 29,848 47,876 51,209 62,827 80,522 88,609-0,4440 17,293 22,845 24,403 40,022 42,058 52,606 68,095 74,648-0,4390 13,652 18,156 19,996 33,301 34,448 43,590 57,104 62,398-0,4340 9,741 14,491 16,359 27,533 28,100 34,910 47,558 51,843-0,4289 8,750 11,632 13,405 22,662 22,859 28,678 39,292 42,733-0,4239 7,107 9,397 10,975 18,573 18,553 23,312 32,287 35,022-0,4189 5,833 7,629 9,014 15,216 15,066 19,189 26,421 28,612-0,4138 4,840 6,218 7,412 12,415 12,229 15,557 21,526 23,283-0,4088 4,087 5,144 6,112 10,104 9,954 12,671 17,485 18,915-0,4037 3,496 4,269 5,102 8,275 8,087 10,374 14,172 15,343-0,3987 3,021 3,592 4,287 6,754 6,648 8,494 11,535 12,474-0,3937 2,666 3,060 3,642 5,569 5,487 7,096 9,375 10,161-0,3886 2,454 2,638 3,114 4,633 4,580 5,897 7,661 8,330-0,3836 2,267 2,349 2,739 3,853 3,836 5,006 6,277 6,892-0,3786 2,145 2,101 2,412 3,290 3,330 4,245 5,214 5,752-0,3735 2,042 1,920 2,191 2,813 2,894 3,683 4,363 4,862-0,3685 1,989 1,789 2,000 2,465 2,577 3,222 3,712 4,183-0,3635 1,988 1,706 1,880 2,196 2,323 2,941 3,187 3,644-0,3584 1,963 1,637 1,789 1,988 2,140 2,682 2,811 3,254-0,3534 2,025 1,602 1,751 1,822 2,024 2,524 2,538 2,945-0,3484 2,038 1,611 1,711 1,726 1,944 2,345 2,298 2,715-0,3433 2,059 1,617 1,737 1,641 1,891 2,275 2,149 2,554-0,3383 2,115 1,645 1,742 1,608 1,873 2,232 2,012 2,446-0,3333 2,180 1,692 1,789 1,605 1,892 2,196 1,956 2,377-0,3282 2,231 1,724 1,822 1,596 1,916 2,252 1,932 2,330-0,3232 2,281 1,791 1,875 1,607 1,973 2,302 1,909 2,304-0,3181 2,345 1,862 1,947 1,675 2,035 2,339 1,909 2,298-0,3131 2,406 1,941 2,067 1,690 2,115 2,402 1,959 2,275-0,3081 2,502 2,039 2,134 1,764 2,203 2,488 1,988 2,304-0,3030 2,583 2,167 2,234 1,828 2,290 2,561 2,048 2,334
Anexo VI.
ANEXO VI
-245-
1 2 3 4 5 6 7W (HZ) 0,0000 0,6250 1,2500 1,8750 2,5000 3,1250 3,7500 Error de recomposición (%)A(T1P9) 6,91E-06 6,35E-06 5,07E-06 3,60E-06 2,20E-06 1,09E-06 3,31E-07 2,16
A(T2P10) 7,86E-06 7,26E-06 5,80E-06 4,07E-06 2,44E-06 1,18E-06 3,61E-07 2,08A(T9P1) 6,88E-06 6,13E-06 4,41E-06 2,66E-06 1,34E-06 5,30E-07 1,34E-07 0,63
A(T10P2) 8,17E-06 7,27E-06 5,25E-06 3,21E-06 1,66E-06 6,72E-07 1,67E-07 0,73A(T3P5) 5,61E-06 5,11E-06 3,95E-06 2,67E-06 1,54E-06 7,19E-07 2,18E-07 1,17A(T5P3) 5,62E-06 5,06E-06 3,77E-06 2,39E-06 1,28E-06 5,48E-07 1,53E-07 1,71A(T6P8) 9,78E-06 8,91E-06 6,85E-06 4,54E-06 2,56E-06 1,19E-06 3,66E-07 1,47A(T8P6) 9,37E-06 8,47E-06 6,37E-06 4,11E-06 2,26E-06 1,05E-06 3,76E-07 1,03
Dimensiones
Señales de los voltamperogramas de las muestras de comprobación en el dominio deFourier (frecuencia/amplitud):
Anexo VII.
ANEXO VII
-247-
Error 80 Error 81 Error 82 Error 83 Error 84 Error 851 1,15E-12 9,11E-13 7,03E-13 5,28E-13 3,88E-13 2,82E-132 7,78E-13 6,05E-13 4,67E-13 3,63E-13 2,92E-13 2,56E-133 5,28E-13 4,17E-13 3,40E-13 2,97E-13 2,87E-13 3,11E-134 3,99E-13 3,46E-13 3,28E-13 3,45E-13 3,97E-13 4,84E-135 5,04E-13 4,23E-13 3,73E-13 3,54E-13 3,66E-13 4,08E-136 4,08E-13 4,27E-13 4,73E-13 5,47E-13 6,48E-13 7,76E-137 5,95E-13 5,07E-13 4,54E-13 4,34E-13 4,49E-13 4,98E-138 4,64E-13 4,48E-13 4,70E-13 5,29E-13 6,25E-13 7,58E-139 5,18E-13 5,74E-13 6,58E-13 7,71E-13 9,12E-13 1,08E-12
10 6,54E-13 7,52E-13 8,85E-13 1,05E-12 1,26E-12 1,50E-1211 2,17E-13 2,92E-13 4,03E-13 5,50E-13 7,33E-13 9,53E-1312 9,53E-13 1,12E-12 1,30E-12 1,51E-12 1,74E-12 1,99E-1213 6,67E-13 5,61E-13 4,80E-13 4,27E-13 3,99E-1314 2,15E-13 2,76E-13 3,69E-13 4,95E-13 6,54E-1315 8,57E-13 7,20E-13 6,10E-13 5,28E-1316 2,16E-13 2,72E-13 3,73E-13 5,18E-1317 1,07E-12 9,11E-13 7,78E-1318 3,01E-13 3,57E-13 4,64E-13
Error Mínimo 2,15E-13 2,72E-13 3,28E-13 2,97E-13 2,87E-13 2,56E-13 2,15E-13
1 1,15E-12 9,85E-13 8,45E-13 7,34E-13 6,50E-13 5,95E-132 7,78E-13 6,60E-13 5,70E-13 5,08E-13 4,72E-13 4,64E-133 5,28E-13 4,69E-13 4,38E-13 4,36E-13 4,63E-13 5,18E-134 3,99E-13 3,97E-13 4,21E-13 4,72E-13 5,50E-13 6,54E-135 8,89E-13 7,05E-13 5,64E-13 4,68E-13 4,16E-13 4,08E-136 4,08E-13 4,69E-13 5,54E-13 6,62E-13 7,95E-13 9,53E-137 2,82E-13 2,61E-13 2,72E-13 3,15E-13 3,90E-13 4,98E-138 2,56E-13 2,92E-13 3,61E-13 4,61E-13 5,94E-13 7,58E-139 3,11E-13 4,07E-13 5,33E-13 6,87E-13 8,70E-13 1,08E-12
10 4,84E-13 6,30E-13 8,05E-13 1,01E-12 1,24E-12 1,50E-1211 7,34E-13 6,31E-13 5,84E-13 5,92E-13 6,56E-13 7,76E-1312 7,76E-13 9,66E-13 1,18E-12 1,42E-12 1,69E-12 1,99E-1213 1,04E-12 8,17E-13 6,38E-13 4,98E-13 3,99E-1314 7,34E-13 6,14E-13 5,81E-13 6,35E-13 7,76E-1315 1,12E-12 8,82E-13 6,84E-13 5,28E-1316 7,59E-13 5,21E-13 3,71E-13 3,11E-1317 1,31E-12 1,02E-12 7,78E-1318 7,50E-13 4,40E-13 2,56E-13
Error Mínimo 2,56E-13 2,61E-13 2,56E-13 3,11E-13 3,90E-13 4,08E-13 2,56E-13
.../...
Error 84 Error 85
Mal clasificado; parece que un modelo vertical puede explicarlo cuando eso es imposible. Sólo puede ser predicho mediante un modelo horizontal. En nuestro caso, éste coloca la señal en la correspondiente al P9. El vertical clasifica en T7P2.
Modelo Horizontal Muestra real T1P9
Modelo Vertical Error 80 Error 81 Error 82 Error 83
Tablas de resultados de la prueba de validación para el método de estimación porinterpolación:
ANEXO VII
-248-
(continuación)
Error 80 Error 81 Error 82 Error 83 Error 84 Error 851 1,57E-12 1,28E-12 1,02E-12 8,01E-13 6,15E-13 4,63E-132 1,11E-12 8,88E-13 7,04E-13 5,54E-13 4,37E-13 3,55E-133 7,75E-13 6,19E-13 4,97E-13 4,07E-13 3,52E-13 3,30E-134 5,70E-13 4,71E-13 4,07E-13 3,78E-13 3,83E-13 4,23E-135 7,65E-13 6,46E-13 5,58E-13 5,00E-13 4,74E-13 4,78E-136 4,78E-13 4,55E-13 4,60E-13 4,92E-13 5,52E-13 6,39E-137 8,24E-13 6,90E-13 5,91E-13 5,26E-13 4,95E-13 4,99E-138 6,07E-13 5,44E-13 5,18E-13 5,30E-13 5,78E-13 6,65E-139 5,78E-13 5,93E-13 6,37E-13 7,09E-13 8,09E-13 9,38E-1310 6,49E-13 7,01E-13 7,87E-13 9,09E-13 1,07E-12 1,26E-1211 2,65E-13 3,10E-13 3,91E-13 5,08E-13 6,61E-13 8,50E-1312 8,50E-13 9,81E-13 1,13E-12 1,31E-12 1,50E-12 1,72E-1213 9,79E-13 8,37E-13 7,22E-13 6,33E-13 5,70E-1314 3,01E-13 3,39E-13 4,10E-13 5,13E-13 6,49E-1315 1,21E-12 1,04E-12 8,93E-13 7,75E-1316 3,40E-13 3,75E-13 4,54E-13 5,78E-1317 1,47E-12 1,28E-12 1,11E-1218 4,77E-13 5,16E-13 6,07E-13
Error Mínimo 2,65E-13 3,10E-13 3,91E-13 3,78E-13 3,52E-13 3,30E-13 2,65E-13
1 1,57E-12 1,36E-12 1,18E-12 1,04E-12 9,16E-13 8,24E-132 1,11E-12 9,52E-13 8,25E-13 7,25E-13 6,52E-13 6,07E-133 7,75E-13 6,78E-13 6,10E-13 5,71E-13 5,60E-13 5,78E-134 5,70E-13 5,33E-13 5,22E-13 5,38E-13 5,80E-13 6,49E-135 1,22E-12 9,83E-13 7,90E-13 6,42E-13 5,38E-13 4,78E-136 4,78E-13 5,04E-13 5,55E-13 6,29E-13 7,28E-13 8,50E-137 4,63E-13 4,05E-13 3,80E-13 3,87E-13 4,27E-13 4,99E-138 3,55E-13 3,53E-13 3,83E-13 4,45E-13 5,39E-13 6,65E-139 3,30E-13 3,94E-13 4,87E-13 6,08E-13 7,59E-13 9,38E-1310 4,23E-13 5,34E-13 6,73E-13 8,41E-13 1,04E-12 1,26E-1211 8,83E-13 7,23E-13 6,19E-13 5,70E-13 5,77E-13 6,39E-1312 6,39E-13 8,03E-13 9,92E-13 1,21E-12 1,45E-12 1,72E-1213 1,41E-12 1,14E-12 9,09E-13 7,20E-13 5,70E-1314 8,83E-13 6,92E-13 5,87E-13 5,70E-13 6,39E-1315 1,52E-12 1,23E-12 9,82E-13 7,75E-1316 9,84E-13 6,77E-13 4,59E-13 3,30E-1317 1,74E-12 1,40E-12 1,11E-1218 1,01E-12 6,18E-13 3,55E-13
Error Mínimo 3,30E-13 3,53E-13 3,55E-13 3,30E-13 4,27E-13 4,78E-13 3,30E-13
.../...
Modelo Horizontal Muestra real T2P10
Error 80 Error 81 Error 82 Error 83 Error 84 Error 85Modelo Vertical
Mal clasificado; parece que un modelo vertical puede explicarlo cuando eso es imposible. Sólo puede ser predicho mediante un modelo horizontal. En nuestro caso, éste coloca la señal en la correspondiente al P10. El vertical clasifica en T8P3.
ANEXO VII
-249-
(continuación)
Error 80 Error 81 Error 82 Error 83 Error 84 Error 851 6,25E-13 4,50E-13 3,10E-13 2,04E-13 1,32E-13 9,44E-142 3,60E-13 2,53E-13 1,80E-13 1,41E-13 1,36E-13 1,65E-133 2,18E-13 1,72E-13 1,60E-13 1,82E-13 2,37E-13 3,26E-134 1,89E-13 2,03E-13 2,51E-13 3,34E-13 4,52E-13 6,04E-135 1,94E-13 1,60E-13 1,56E-13 1,84E-13 2,42E-13 3,31E-136 3,31E-13 4,09E-13 5,14E-13 6,47E-13 8,07E-13 9,94E-137 2,90E-13 2,66E-13 2,77E-13 3,22E-13 4,00E-13 5,13E-138 2,78E-13 3,28E-13 4,15E-13 5,39E-13 7,01E-13 8,99E-139 4,40E-13 5,50E-13 6,89E-13 8,56E-13 1,05E-12 1,28E-1210 6,59E-13 8,21E-13 1,02E-12 1,25E-12 1,52E-12 1,82E-1211 2,11E-13 3,14E-13 4,53E-13 6,28E-13 8,39E-13 1,09E-1212 1,09E-12 1,29E-12 1,52E-12 1,77E-12 2,04E-12 2,34E-1213 2,89E-13 2,25E-13 1,87E-13 1,75E-13 1,89E-1314 1,55E-13 2,32E-13 3,41E-13 4,84E-13 6,59E-1315 4,15E-13 3,21E-13 2,56E-13 2,18E-1316 1,06E-13 1,72E-13 2,84E-13 4,40E-1317 5,67E-13 4,50E-13 3,60E-1318 1,13E-13 1,71E-13 2,78E-13
Error Mínimo 1,06E-13 1,60E-13 1,56E-13 1,41E-13 1,32E-13 9,44E-14 9,44E-14
1 6,25E-13 5,01E-13 4,06E-13 3,39E-13 3,01E-13 2,90E-132 3,60E-13 2,89E-13 2,45E-13 2,29E-13 2,40E-13 2,78E-133 2,18E-13 2,05E-13 2,21E-13 2,65E-13 3,38E-13 4,40E-134 1,89E-13 2,30E-13 2,98E-13 3,92E-13 5,12E-13 6,59E-135 4,45E-13 3,34E-13 2,67E-13 2,44E-13 2,66E-13 3,31E-136 3,31E-13 4,34E-13 5,61E-13 7,12E-13 8,87E-13 1,09E-127 9,44E-14 1,14E-13 1,65E-13 2,49E-13 3,65E-13 5,13E-138 1,65E-13 2,48E-13 3,63E-13 5,09E-13 6,88E-13 8,99E-139 3,26E-13 4,58E-13 6,19E-13 8,09E-13 1,03E-12 1,28E-1210 6,04E-13 7,92E-13 1,01E-12 1,25E-12 1,52E-12 1,82E-1211 5,07E-13 4,93E-13 5,35E-13 6,32E-13 7,85E-13 9,94E-1312 9,94E-13 1,21E-12 1,45E-12 1,72E-12 2,01E-12 2,34E-1213 5,40E-13 3,93E-13 2,85E-13 2,17E-13 1,89E-1314 5,07E-13 4,98E-13 5,77E-13 7,42E-13 9,94E-1315 5,99E-13 4,30E-13 3,03E-13 2,18E-1316 4,35E-13 3,10E-13 2,74E-13 3,26E-1317 7,36E-13 5,25E-13 3,60E-1318 3,92E-13 2,15E-13 1,65E-13
Error Mínimo 9,44E-14 1,14E-13 1,65E-13 2,17E-13 1,89E-13 2,78E-13 9,44E-14
.../...
Modelo HorizontalMuestra real T3P5
Error 80 Error 81 Error 82 Error 83 Error 84 Error 85Modelo Vertical
Mal clasificado; aunque puede explicarse por dos modelos: horizontal y vertical.Modelo Horizontal: lo clasifica en el T6P1. Modelo Vertical: lo clasifica como T6P1.De ahí el mismo error.
ANEXO VII
-250-
(continuación)
Error 80 Error 81 Error 82 Error 83 Error 84 Error 851 5,55E-13 3,85E-13 2,50E-13 1,49E-13 8,15E-14 4,85E-142 2,85E-13 1,80E-13 1,10E-13 7,31E-14 7,03E-14 1,01E-133 1,38E-13 9,46E-14 8,51E-14 1,09E-13 1,67E-13 2,57E-134 1,05E-13 1,20E-13 1,70E-13 2,55E-13 3,75E-13 5,29E-135 1,36E-13 9,40E-14 8,31E-14 1,03E-13 1,54E-13 2,36E-136 2,36E-13 3,16E-13 4,23E-13 5,58E-13 7,21E-13 9,11E-137 1,86E-13 1,64E-13 1,75E-13 2,21E-13 3,01E-13 4,15E-138 1,75E-13 2,25E-13 3,11E-13 4,35E-13 5,97E-13 7,95E-139 3,28E-13 4,36E-13 5,73E-13 7,38E-13 9,31E-13 1,15E-1210 5,39E-13 7,02E-13 9,00E-13 1,13E-12 1,40E-12 1,71E-1211 1,64E-13 2,51E-13 3,75E-13 5,34E-13 7,30E-13 9,61E-1312 9,61E-13 1,16E-12 1,39E-12 1,63E-12 1,90E-12 2,19E-1213 2,32E-13 1,61E-13 1,16E-13 9,75E-14 1,05E-1314 1,06E-13 1,65E-13 2,57E-13 3,82E-13 5,39E-1315 3,55E-13 2,55E-13 1,82E-13 1,38E-1316 6,04E-14 1,05E-13 1,94E-13 3,28E-1317 5,06E-13 3,82E-13 2,85E-1318 5,95E-14 9,21E-14 1,75E-13
Error Mínimo 5,95E-14 9,21E-14 8,31E-14 7,31E-14 7,03E-14 4,85E-14 4,85E-14
1 5,55E-13 4,25E-13 3,23E-13 2,49E-13 2,04E-13 1,86E-132 2,85E-13 2,08E-13 1,59E-13 1,37E-13 1,42E-13 1,75E-133 1,38E-13 1,18E-13 1,28E-13 1,66E-13 2,33E-13 3,28E-134 1,05E-13 1,39E-13 1,99E-13 2,86E-13 3,99E-13 5,39E-135 3,43E-13 2,33E-13 1,67E-13 1,46E-13 1,69E-13 2,36E-136 2,36E-13 3,33E-13 4,54E-13 5,99E-13 7,68E-13 9,61E-137 4,85E-14 5,71E-14 9,80E-14 1,71E-13 2,77E-13 4,15E-138 1,01E-13 1,76E-13 2,83E-13 4,22E-13 5,93E-13 7,95E-139 2,57E-13 3,79E-13 5,29E-13 7,09E-13 9,16E-13 1,15E-1210 5,29E-13 7,08E-13 9,15E-13 1,15E-12 1,41E-12 1,71E-1211 3,65E-13 3,63E-13 4,16E-13 5,26E-13 6,90E-13 9,11E-1312 9,11E-13 1,11E-12 1,34E-12 1,60E-12 1,88E-12 2,19E-1213 4,43E-13 2,99E-13 1,95E-13 1,30E-13 1,05E-1314 3,65E-13 3,71E-13 4,64E-13 6,44E-13 9,11E-1315 5,15E-13 3,48E-13 2,22E-13 1,38E-1316 3,03E-13 1,99E-13 1,84E-13 2,57E-1317 6,57E-13 4,48E-13 2,85E-1318 2,72E-13 1,24E-13 1,01E-13
Error Mínimo 4,85E-14 5,71E-14 9,80E-14 1,30E-13 1,05E-13 1,75E-13 4,85E-14
.../...
Modelo HorizontalMuestra real T5P3
Error 80 Error 81 Error 82 Error 83 Error 84 Error 85Modelo Vertical
De ahí el mismo error.Modelo Horizontal: lo clasifica en el T6P1. Modelo Vertical: lo clasifica como T6P1.Mal clasificado; aunque puede explicarse por dos modelos: horizontal y vertical.
ANEXO VII
-251-
(continuación)
Error 80 Error 81 Error 82 Error 83 Error 84 Error 851 2,39E-12 2,04E-12 1,71E-12 1,43E-12 1,17E-12 9,53E-132 1,81E-12 1,53E-12 1,28E-12 1,06E-12 8,76E-13 7,26E-133 1,36E-12 1,14E-12 9,49E-13 7,94E-13 6,72E-13 5,84E-134 1,05E-12 8,79E-13 7,46E-13 6,49E-13 5,86E-13 5,58E-135 1,38E-12 1,20E-12 1,06E-12 9,41E-13 8,57E-13 8,04E-136 8,04E-13 7,22E-13 6,68E-13 6,41E-13 6,41E-13 6,69E-137 1,37E-12 1,17E-12 1,01E-12 8,79E-13 7,83E-13 7,21E-138 1,04E-12 9,04E-13 8,10E-13 7,53E-13 7,34E-13 7,51E-139 8,80E-13 8,36E-13 8,21E-13 8,34E-13 8,75E-13 9,46E-13
10 8,63E-13 8,47E-13 8,65E-13 9,19E-13 1,01E-12 1,13E-1211 5,68E-13 5,67E-13 6,01E-13 6,71E-13 7,78E-13 9,20E-1312 9,20E-13 1,00E-12 1,10E-12 1,23E-12 1,37E-12 1,54E-1213 1,66E-12 1,47E-12 1,30E-12 1,16E-12 1,05E-1214 6,60E-13 6,61E-13 6,96E-13 7,63E-13 8,63E-1315 1,96E-12 1,73E-12 1,53E-12 1,36E-1216 7,51E-13 7,49E-13 7,92E-13 8,80E-1317 2,28E-12 2,03E-12 1,81E-1218 9,65E-13 9,75E-13 1,04E-12
Error Mínimo 5,68E-13 5,67E-13 6,01E-13 6,41E-13 5,86E-13 5,58E-13 5,58E-13
1 2,39E-12 2,13E-12 1,90E-12 1,70E-12 1,52E-12 1,37E-122 1,81E-12 1,60E-12 1,42E-12 1,26E-12 1,14E-12 1,04E-123 1,36E-12 1,21E-12 1,08E-12 9,85E-13 9,18E-13 8,80E-134 1,05E-12 9,56E-13 8,93E-13 8,57E-13 8,47E-13 8,63E-135 1,92E-12 1,61E-12 1,34E-12 1,12E-12 9,40E-13 8,04E-136 8,04E-13 7,79E-13 7,78E-13 8,01E-13 8,48E-13 9,20E-137 9,53E-13 8,42E-13 7,63E-13 7,17E-13 7,02E-13 7,21E-138 7,26E-13 6,67E-13 6,40E-13 6,45E-13 6,82E-13 7,51E-139 5,84E-13 5,99E-13 6,43E-13 7,15E-13 8,16E-13 9,46E-13
10 5,58E-13 6,17E-13 7,04E-13 8,18E-13 9,61E-13 1,13E-1211 1,32E-12 1,08E-12 8,91E-13 7,61E-13 6,87E-13 6,69E-1312 6,69E-13 7,91E-13 9,39E-13 1,11E-12 1,31E-12 1,54E-1213 2,17E-12 1,83E-12 1,53E-12 1,27E-12 1,05E-1214 1,32E-12 1,02E-12 8,19E-13 7,01E-13 6,69E-1315 2,33E-12 1,96E-12 1,64E-12 1,36E-1216 1,53E-12 1,13E-12 8,11E-13 5,84E-1317 2,60E-12 2,18E-12 1,81E-1218 1,60E-12 1,10E-12 7,26E-13
Error Mínimo 5,58E-13 5,99E-13 6,40E-13 5,84E-13 6,69E-13 6,69E-13 5,58E-13
.../...
Modelo Horizontal Muestra real T6P8
Error 80 Error 81 Error 82 Error 83 Error 84 Error 85Modelo Vertical
T9P4. El vertical clasifica en T9P4.
Mal clasificado; parece que un modelo vertical puede explicarlo cuando eso es imposible. Sólo puede ser predicho mediante un modelo horizontal. En nuestro caso, éste coloca la señal en la correspondiente al
ANEXO VII
-252-
(continuación)
Error 80 Error 81 Error 82 Error 83 Error 84 Error 851 2,05E-12 1,71E-12 1,41E-12 1,14E-12 9,04E-13 7,04E-132 1,49E-12 1,22E-12 9,86E-13 7,85E-13 6,18E-13 4,85E-133 1,06E-12 8,51E-13 6,79E-13 5,40E-13 4,35E-13 3,63E-134 7,62E-13 6,11E-13 4,95E-13 4,13E-13 3,67E-13 3,55E-135 1,09E-12 9,18E-13 7,77E-13 6,67E-13 5,89E-13 5,41E-136 5,41E-13 4,73E-13 4,33E-13 4,21E-13 4,36E-13 4,78E-137 1,06E-12 8,72E-13 7,21E-13 6,06E-13 5,24E-13 4,76E-138 7,43E-13 6,26E-13 5,46E-13 5,03E-13 4,98E-13 5,30E-139 6,06E-13 5,73E-13 5,68E-13 5,92E-13 6,44E-13 7,25E-13
10 5,99E-13 5,98E-13 6,31E-13 7,00E-13 8,04E-13 9,43E-1311 3,56E-13 3,49E-13 3,78E-13 4,43E-13 5,44E-13 6,81E-1312 6,81E-13 7,69E-13 8,77E-13 1,01E-12 1,16E-12 1,33E-1213 1,36E-12 1,17E-12 1,01E-12 8,73E-13 7,62E-1314 4,34E-13 4,26E-13 4,51E-13 5,09E-13 5,99E-1315 1,64E-12 1,42E-12 1,23E-12 1,06E-1216 5,19E-13 5,03E-13 5,32E-13 6,06E-1317 2,28E-12 2,03E-12 1,81E-1218 7,07E-13 7,00E-13 7,43E-13
Error Mínimo 3,56E-13 3,49E-13 3,78E-13 4,13E-13 3,67E-13 3,55E-13 3,49E-13
1 2,05E-12 1,79E-12 1,57E-12 1,37E-12 1,20E-12 1,06E-122 1,49E-12 1,29E-12 1,11E-12 9,60E-13 8,38E-13 7,43E-133 1,06E-12 9,10E-13 7,91E-13 7,00E-13 6,39E-13 6,06E-134 7,62E-13 6,77E-13 6,18E-13 5,85E-13 5,79E-13 5,99E-135 1,57E-12 1,28E-12 1,03E-12 8,21E-13 6,59E-13 5,41E-136 5,41E-13 5,21E-13 5,25E-13 5,53E-13 6,05E-13 6,81E-137 7,04E-13 5,93E-13 5,16E-13 4,70E-13 4,57E-13 4,76E-138 4,85E-13 4,30E-13 4,07E-13 4,16E-13 4,57E-13 5,30E-139 3,63E-13 3,77E-13 4,21E-13 4,94E-13 5,95E-13 7,25E-13
10 3,55E-13 4,17E-13 5,06E-13 6,24E-13 7,70E-13 9,43E-1311 9,87E-13 7,74E-13 6,16E-13 5,15E-13 4,69E-13 4,78E-1312 4,78E-13 5,96E-13 7,41E-13 9,12E-13 1,11E-12 1,33E-1213 1,82E-12 1,49E-12 1,21E-12 9,66E-13 7,62E-1314 9,87E-13 7,29E-13 5,59E-13 4,75E-13 4,78E-1315 1,97E-12 1,63E-12 1,32E-12 1,06E-1216 1,19E-12 8,23E-13 5,48E-13 3,63E-1317 2,24E-12 1,84E-12 1,49E-1218 1,26E-12 8,10E-13 4,85E-13
Error Mínimo 3,55E-13 3,77E-13 4,07E-13 3,63E-13 4,57E-13 4,76E-13 3,55E-13
.../...
Modelo Horizontal Muestra real T8P6
Error 80 Error 81 Error 82 Error 83 Error 84 Error 85Modelo Vertical
señal en la correspondiente al T9P4. El horizontal clasifica en T1P10.
Mal clasificado; parece que un modelo horizontal (error mínimo) puede explicarlo cuando eso es imposible. Sólo puede ser predicho mediante un modelo vertical. En nuestro caso, éste coloca la
ANEXO VII
-253-
(continuación)
Error 80 Error 81 Error 82 Error 83 Error 84 Error 851 8,56E-13 6,38E-13 4,54E-13 3,03E-13 1,87E-13 1,05E-132 4,82E-13 3,25E-13 2,03E-13 1,15E-13 6,02E-14 3,96E-143 2,30E-13 1,36E-13 7,51E-14 4,79E-14 5,42E-14 9,40E-144 1,02E-13 6,41E-14 6,11E-14 9,30E-14 1,60E-13 2,61E-135 2,73E-13 1,76E-13 1,10E-13 7,51E-14 7,07E-14 9,73E-146 9,73E-14 1,31E-13 1,93E-13 2,82E-13 3,98E-13 5,43E-137 2,25E-13 1,50E-13 1,08E-13 1,01E-13 1,28E-13 1,89E-138 1,13E-13 1,06E-13 1,37E-13 2,04E-13 3,09E-13 4,51E-139 1,55E-13 2,12E-13 2,98E-13 4,12E-13 5,55E-13 7,26E-13
10 2,80E-13 3,88E-13 5,31E-13 7,10E-13 9,24E-13 1,17E-1211 6,34E-14 9,45E-14 1,62E-13 2,65E-13 4,04E-13 5,79E-1312 5,79E-13 7,35E-13 9,13E-13 1,11E-12 1,33E-12 1,58E-1213 4,33E-13 3,11E-13 2,15E-13 1,45E-13 1,02E-1314 4,74E-14 5,64E-14 9,81E-14 1,73E-13 2,80E-1315 6,05E-13 4,52E-13 3,27E-13 2,30E-1316 5,14E-14 4,09E-14 7,54E-14 1,55E-1317 8,04E-13 6,30E-13 4,82E-1318 1,01E-13 8,22E-14 1,13E-13
Error Mínimo 6,34E-14 6,34E-14 6,11E-14 4,79E-14 5,42E-14 3,96E-14 3,96E-14
1 8,56E-13 6,74E-13 5,19E-13 3,93E-13 2,95E-13 2,25E-132 4,82E-13 3,53E-13 2,52E-13 1,79E-13 1,32E-13 1,13E-133 2,30E-13 1,58E-13 1,14E-13 9,89E-14 1,13E-13 1,55E-134 1,02E-13 8,46E-14 9,37E-14 1,29E-13 1,91E-13 2,80E-135 5,05E-13 3,35E-13 2,09E-13 1,27E-13 9,02E-14 9,73E-146 9,73E-14 1,45E-13 2,18E-13 3,14E-13 4,34E-13 5,79E-137 1,05E-13 5,75E-14 4,19E-14 5,87E-14 1,08E-13 1,89E-138 3,96E-14 5,78E-14 1,08E-13 1,90E-13 3,05E-13 4,51E-139 9,40E-14 1,63E-13 2,60E-13 3,87E-13 5,42E-13 7,26E-13
10 2,61E-13 3,87E-13 5,42E-13 7,24E-13 9,34E-13 1,17E-1211 2,61E-13 2,06E-13 2,06E-13 2,63E-13 3,75E-13 5,43E-1312 5,43E-13 6,97E-13 8,77E-13 1,08E-12 1,32E-12 1,58E-1213 6,62E-13 4,62E-13 3,02E-13 1,82E-13 1,02E-1314 2,61E-13 2,01E-13 2,28E-13 3,42E-13 5,43E-1315 7,82E-13 5,57E-13 3,73E-13 2,30E-1316 3,02E-13 1,44E-13 7,47E-14 9,40E-1417 9,75E-13 7,05E-13 4,82E-1318 3,25E-13 1,20E-13 3,96E-14
Error Mínimo 3,96E-14 5,75E-14 3,96E-14 5,87E-14 9,02E-14 9,73E-14 3,96E-14
.../...
Modelo Horizontal Muestra real T9P1
Error 80 Error 81 Error 82 Error 83 Error 84 Error 85Modelo Vertical
señal en la correspondiente al T7P2. El horizontal clasifica en T7P2.
Mal clasificado; parece que un modelo horizontal (error mínimo) puede explicarlo cuando eso es imposible. Sólo puede ser predicho mediante un modelo vertical (2). En nuestro caso, estos colocan la
ANEXO VII
-254-
(continuación)
Error 80 Error 81 Error 82 Error 83 Error 84 Error 851 1,33E-12 1,05E-12 8,09E-13 6,01E-13 4,27E-13 2,87E-132 8,49E-13 6,36E-13 4,56E-13 3,11E-13 1,99E-13 1,21E-133 4,96E-13 3,45E-13 2,28E-13 1,44E-13 9,34E-14 7,65E-144 2,75E-13 1,79E-13 1,18E-13 9,17E-14 1,01E-13 1,44E-135 5,57E-13 4,12E-13 2,99E-13 2,16E-13 1,64E-13 1,43E-136 1,43E-13 1,26E-13 1,36E-13 1,74E-13 2,39E-13 3,32E-137 4,68E-13 3,36E-13 2,38E-13 1,74E-13 1,44E-13 1,49E-138 2,50E-13 1,84E-13 1,56E-13 1,65E-13 2,11E-13 2,94E-139 1,88E-13 1,95E-13 2,30E-13 2,94E-13 3,87E-13 5,07E-13
10 2,34E-13 2,84E-13 3,69E-13 4,90E-13 6,46E-13 8,38E-1311 8,17E-14 7,57E-14 1,06E-13 1,72E-13 2,74E-13 4,12E-1312 4,12E-13 5,27E-13 6,63E-13 8,21E-13 1,00E-12 1,20E-1213 7,79E-13 6,14E-13 4,75E-13 3,62E-13 2,75E-1314 1,13E-13 9,38E-14 1,08E-13 1,54E-13 2,34E-1315 1,01E-12 8,08E-13 6,38E-13 4,96E-1316 1,64E-13 1,27E-13 1,35E-13 1,88E-1317 1,26E-12 1,04E-12 8,49E-1318 2,78E-13 2,39E-13 2,50E-13
Error Mínimo 8,17E-14 7,57E-14 1,06E-13 9,17E-14 9,34E-14 7,65E-14 7,57E-14
1 1,33E-12 1,10E-12 8,99E-13 7,27E-13 5,83E-13 4,68E-132 8,49E-13 6,75E-13 5,28E-13 4,08E-13 3,15E-13 2,50E-133 4,96E-13 3,77E-13 2,87E-13 2,25E-13 1,92E-13 1,88E-134 2,75E-13 2,13E-13 1,79E-13 1,71E-13 1,89E-13 2,34E-135 8,75E-13 6,40E-13 4,49E-13 3,03E-13 2,01E-13 1,43E-136 1,43E-13 1,49E-13 1,78E-13 2,32E-13 3,10E-13 4,12E-137 2,87E-13 1,95E-13 1,35E-13 1,07E-13 1,12E-13 1,49E-138 1,21E-13 9,18E-14 9,44E-14 1,29E-13 1,95E-13 2,94E-139 7,65E-14 1,05E-13 1,62E-13 2,49E-13 3,64E-13 5,07E-13
10 1,44E-13 2,27E-13 3,37E-13 4,76E-13 6,43E-13 8,38E-1311 4,07E-13 2,80E-13 2,10E-13 1,95E-13 2,35E-13 3,32E-1312 3,32E-13 4,53E-13 6,01E-13 7,75E-13 9,75E-13 1,20E-1213 1,08E-12 8,21E-13 5,99E-13 4,17E-13 2,75E-1314 4,07E-13 2,57E-13 1,95E-13 2,20E-13 3,32E-1315 1,24E-12 9,49E-13 7,02E-13 4,96E-1316 5,42E-13 2,98E-13 1,43E-13 7,65E-1417 1,48E-12 1,14E-12 8,49E-1318 6,06E-13 3,01E-13 1,21E-13
Error Mínimo 7,65E-14 9,18E-14 9,44E-14 7,65E-14 1,12E-13 1,43E-13 7,65E-14
Modelo Horizontal
Error 82 Error 83 Error 85
Muestra real T10P2
Error 84Error 81Modelo Vertical Error 80
en la correspondiente al T8P3. El horizontal clasifica en T1P10.
Mal clasificado; parece que un modelo horizontal (error mínimo) puede explicarlo cuando eso es imposible. Sólo puede ser predicho mediante un modelo vertical. En nuestro caso, éste coloca la señal
Anexo VIII.
ANEXO VIII
-256-
Muestra Ti o Pj = cte Clasificación H1480 2,15E-13H1481 6,54E-13V1482 1,26E-13V1080 2,61E-13H1180 2,65E-13H1280 8,50E-13V1183 1,95E-13V1280 3,32E-13H1583 1,38E-13H382 8,51E-14V583 1,46E-13V680 2,36E-13H582 1,56E-13H680 3,31E-13V1583 2,18E-13V381 2,05E-13
H1681 7,49E-13H982 8,21E-13V1683 3,63E-13V980 3,63E-13
Suma Error MáximoH1481 5,45E-15 3,89E-16H1080 8,65E-14 5,41E-15V1481 1,42E-14 8,49E-16V1080 2,22E-13 1,53E-14H1181 1,88E-14 1,55E-15H1280 1,59E-13 1,00E-14V1182 7,99E-15 5,66E-16V1280 2,23E-13 1,50E-14H1583 5,88E-14 3,62E-15H382 2,57E-15 1,87E-16V583 4,39E-16 3,64E-17V680 8,83E-14 5,33E-15H583 6,11E-16 6,23E-17H680 7,15E-14 3,63E-15V1583 7,81E-14 5,29E-15V382 8,06E-15 3,81E-16
H1683 2,08E-13 1,40E-14H983 1,17E-15V1683 1,08E-13 6,28E-15V983 5,16E-15 2,44E-16
8,51E-14
1,46E-13
1,84E-13
T9P1
3,91E-13
2,10E-13
T9P1
T10P2
P9
T9
P10
T10
T2P10
T10P2
T5P3
H983
T3P5T3
P5
P3
P5
8,34E-13
Modelo Teórico
H1481
V1481
H1182
V1182
H382
2,21E-13
2,76E-13
1,70E-13
T8P6 T8 V983 4,94E-13 T8P6
T6P8 P8
Ti o Pj = cte Modelo Error Mínimo
V583
H583
V382
Muestra
T1P9
T8P3T8P6 T8 V983 4,94E-13
T2P5
T3P4
T6P8 P8 H983 8,34E-13 T1P8
H583
V382
1,84E-13
T5P3
T10
T3
P5
8,51E-14
P10
T10P2 V1182 2,10E-13 T10P3
H1182 3,91E-13
T3P5T3
H382
V583 1,46E-13
P5
T1P9 P9
T2P10 P10
T9 V1481 1,70E-13
T5P3
T9P2
Modelo mejorado I
Modelo mejorado II
Modelo Error Mínimo
H1481
Modelo Teórico
2,76E-13 P9
T9P1
2,21E-13
T6P8
T3P5
Clasificación
T1P9
T1P10
T5P3
Resultados obtenidos al aplicar los modelos mejorados I y II para el método de estimaciónpor interpolación:
Anexo IX.
ANEXO IX
-258-
I (n A) Anchura E (V) [Tl (I)] [Pb (II)] I (nA) Anchura E (V) [Tl (I)] [Pb (II)]22,845 0,111 -0,494 0,1 0,0 0,037 0,957 0,941 0,1 0,051,194 0,111 -0,494 0,2 0,0 0,084 0,957 0,941 0,2 0,078,366 0,116 -0,497 0,3 0,0 0,128 1,000 0,947 0,3 0,0105,774 0,111 -0,487 0,4 0,0 0,173 0,957 0,928 0,4 0,0136,275 0,116 -0,494 0,5 0,0 0,223 1,000 0,941 0,5 0,0167,611 0,116 -0,491 0,6 0,0 0,274 1,000 0,934 0,6 0,0195,136 0,116 -0,492 0,7 0,0 0,320 1,000 0,938 0,7 0,0224,612 0,111 -0,486 0,8 0,0 0,368 0,957 0,925 0,8 0,0246,075 0,111 -0,489 0,9 0,0 0,403 0,957 0,931 0,9 0,0280,128 0,116 -0,492 1,0 0,0 0,459 1,000 0,938 1,0 0,040,810 0,096 -0,525 0,0 0,1 0,067 0,828 1,000 0,0 0,173,962 0,096 -0,523 0,0 0,2 0,121 0,828 0,996 0,0 0,2104,974 0,096 -0,522 0,0 0,3 0,172 0,828 0,994 0,0 0,3137,303 0,096 -0,525 0,0 0,4 0,225 0,828 1,000 0,0 0,4174,935 0,101 -0,520 0,0 0,5 0,286 0,871 0,990 0,0 0,5204,427 0,096 -0,520 0,0 0,6 0,335 0,828 0,990 0,0 0,6236,479 0,096 -0,520 0,0 0,7 0,387 0,828 0,990 0,0 0,7272,125 0,101 -0,523 0,0 0,8 0,446 0,871 0,996 0,0 0,8300,997 0,096 -0,520 0,0 0,9 0,493 0,828 0,990 0,0 0,9328,109 0,096 -0,520 0,0 1,0 0,537 0,828 0,990 0,0 1,065,000 0,106 -0,509 0,1 0,1 0,106 0,914 0,970 0,1 0,1209,436 0,111 -0,496 0,6 0,1 0,343 0,957 0,944 0,6 0,1125,295 0,106 -0,507 0,2 0,2 0,205 0,914 0,966 0,2 0,2265,347 0,111 -0,502 0,7 0,2 0,434 0,957 0,957 0,7 0,2184,928 0,106 -0,506 0,3 0,3 0,303 0,914 0,963 0,3 0,3328,448 0,111 -0,499 0,8 0,3 0,538 0,957 0,950 0,8 0,3240,084 0,106 -0,509 0,4 0,4 0,393 0,914 0,970 0,4 0,4377,060 0,111 -0,504 0,9 0,4 0,617 0,957 0,960 0,9 0,4316,410 0,106 -0,504 0,5 0,5 0,518 0,914 0,960 0,5 0,5447,956 0,111 -0,504 1,0 0,5 0,734 0,957 0,960 1,0 0,5228,696 0,101 -0,522 0,1 0,6 0,374 0,871 0,994 0,1 0,6366,317 0,106 -0,504 0,6 0,6 0,600 0,914 0,960 0,6 0,6288,610 0,101 -0,515 0,2 0,7 0,473 0,871 0,981 0,2 0,7435,133 0,106 -0,504 0,7 0,7 0,713 0,914 0,960 0,7 0,7347,573 0,101 -0,515 0,3 0,8 0,569 0,871 0,981 0,3 0,8494,424 0,101 -0,506 0,8 0,8 0,810 0,871 0,963 0,8 0,8405,418 0,106 -0,509 0,4 0,9 0,664 0,914 0,970 0,4 0,9542,040 0,106 -0,504 0,9 0,9 0,888 0,914 0,960 0,9 0,9461,761 0,106 -0,509 0,5 1,0 0,756 0,914 0,970 0,5 1,0610,710 0,101 -0,501 1,0 1,0 1,000 0,871 0,954 1,0 1,0
Valores reales. Valores estandarizados.
Valores de los parámetros empleados en las redes neuronales artificiales basadas en lainformación discreta (altura, anchura y posición del pico):
Anexo X.
ANEXO X
-260-
Topología Algoritmo % Clasific. Nº de Ciclos Func. Activac. Total RMS Error3-2-2 Online Backprop 100,00 29611 lineal-sigmoidal-sigmoidal 0,06083-2-2 Online Backprop Rand 100,00 22974 lineal-sigmoidal-sigmoidal 0,06083-2-2 Delta-bar-Delta 86,11 100000 lineal-sigmoidal-sigmoidal 0,06853-2-2 RPROP 86,11 100000 lineal-sigmoidal-sigmoidal 0,06793-2-2 Online Backprop 100,00 63330 lineal-sigmoidal-lineal 0,05143-2-2 Online Backprop Rand 100,00 6090 lineal-sigmoidal-lineal 0,05413-2-2 Delta-bar-Delta 25,00 100000 lineal-sigmoidal-lineal 0,23313-2-2 RPROP 91,67 100000 lineal-sigmoidal-lineal 0,06723-2-2 Online Backprop 77,78 100000 lineal-lineal-sigmoidal 0,07303-2-2 Online Backprop Rand 77,78 100000 lineal-lineal-sigmoidal 0,07313-2-2 Delta-bar-Delta 8,33 100000 lineal-lineal-sigmoidal 0,48963-2-2 RPROP 75,00 100000 lineal-lineal-sigmoidal 0,08413-2-2 Online Backprop 52,78 100000 lineal-lineal-lineal 0,11893-2-2 Online Backprop Rand 41,67 100000 lineal-lineal-lineal 0,14003-2-2 Delta-bar-Delta 2,78 100000 lineal-lineal-lineal 0,51113-2-2 RPROP 58,33 100000 lineal-lineal-lineal 0,12003-3-2 Online Backprop 100,00 68603 lineal-sigmoidal-sigmoidal 0,05363-3-2 Online Backprop Rand 100,00 20595 lineal-sigmoidal-sigmoidal 0,05763-3-2 Delta-bar-Delta 88,89 100000 lineal-sigmoidal-sigmoidal 0,06443-3-2 RPROP 88,89 100000 lineal-sigmoidal-sigmoidal 0,06743-3-2 Online Backprop 100,00 10817 lineal-sigmoidal-lineal 0,03843-3-2 Online Backprop Rand 100,00 5685 lineal-sigmoidal-lineal 0,05393-3-2 Delta-bar-Delta 0,00 100000 lineal-sigmoidal-lineal 102,35003-3-2 RPROP 94,44 100000 lineal-sigmoidal-lineal 0,05093-3-2 Online Backprop 80,56 100000 lineal-lineal-sigmoidal 0,07313-3-2 Online Backprop Rand 80,56 100000 lineal-lineal-sigmoidal 0,07303-3-2 Delta-bar-Delta 8,33 100000 lineal-lineal-sigmoidal 0,48963-3-2 RPROP 75,00 100000 lineal-lineal-sigmoidal 0,08423-3-2 Online Backprop 52,78 100000 lineal-lineal-lineal 0,11953-3-2 Online Backprop Rand 55,56 100000 lineal-lineal-lineal 0,12143-3-2 Delta-bar-Delta 0,00 100000 lineal-lineal-lineal 32409,70003-3-2 RPROP 52,78 100000 lineal-lineal-lineal 0,12623-4-2 Online Backprop 100,00 39936 lineal-sigmoidal-sigmoidal 0,05293-4-2 Online Backprop Rand 100,00 26136 lineal-sigmoidal-sigmoidal 0,05393-4-2 Delta-bar-Delta 91,67 100000 lineal-sigmoidal-sigmoidal 0,06363-4-2 RPROP 88,89 100000 lineal-sigmoidal-sigmoidal 0,06823-4-2 Online Backprop 100,00 5207 lineal-sigmoidal-lineal 0,04193-4-2 Online Backprop Rand 100,00 5256 lineal-sigmoidal-lineal 0,04033-4-2 Delta-bar-Delta 0,00 100000 lineal-sigmoidal-lineal 181,62403-4-2 RPROP 91,67 100000 lineal-sigmoidal-lineal 0,06053-4-2 Online Backprop 80,55 100000 lineal-lineal-sigmoidal 0,07323-4-2 Online Backprop Rand 77,78 100000 lineal-lineal-sigmoidal 0,07283-4-2 Delta-bar-Delta 8,33 100000 lineal-lineal-sigmoidal 0,48963-4-2 RPROP 75,00 100000 lineal-lineal-sigmoidal 0,08013-4-2 Online Backprop 61,11 100000 lineal-lineal-lineal 0,12203-4-2 Online Backprop Rand 55,56 100000 lineal-lineal-lineal 0,12093-4-2 Delta-bar-Delta 0,00 100000 lineal-lineal-lineal 129938,00003-4-2 RPROP 52,78 100000 lineal-lineal-lineal 0,1204
Modelos neuronales de clasificación de las señales de los voltamperogramas obtenidos apartir de la información discreta (altura, anchura y posición del pico):
Anexo XI.
ANEXO XI
-262-
Aplicación programada para llevar a cabo el cálculo de los errores totales de predicción:
% -- ---------------------------------------------------------------------------------------% -- ---------------------------------------------------------------------------------------% -- Dadas las concentraciones reales y las predichas por la red neuronal:% -- * Se calcula el error en las concentraciones para el Tl (I) y el Pb (II).% -- * Se halla el error total de predicción para cada uno de los iones.% -- ---------------------------------------------------------------------------------------% -- ----------------------------------- Andrés Jiménez -------------------------------
fichero = 'output.out';fid = fopen(fichero,'r');errortest= 0.0;errortrn= 0.0;
for i = 1:40, v1 = fscanf(fid,'%e', 1); v2 = fscanf(fid,'%e', 1); v3 = fscanf(fid,'%e', 1); v4 = fscanf(fid,'%e', 1); v5 = fscanf(fid,'%e', 1); v6 = fscanf(fid,'%e', 1); error1(i) = abs( v3-v4); error2(i) = abs(v5-v6); fprintf(1, '\n %f \t %f ' , error1(i), error2(i) ); if (v2 == 0) errortest= errortest + error1(i)+ error2(i); else errortrn= errortrn + error1(i)+ error2(i); end end fclose(fid); fprintf(1, '\n\n\n Error Total trn = %f \n ' , errortrn ); fprintf(1, '\n\n\n Error Total test = %f \n ' , errortest );
% -- -----------------------------------------------% -- Transformadas de la señal original s(t).% -- -----------------------------------------------
i=1:40;hndl1 = plot( i, error1(i), 'g', i, error2(i), 'r' );title('Error talio y plomo ');
Anexo XII.
ANEXO XII
-264-
Func.Activ. E. Tot. Trn E.Tot.Test Corr. Trn. RMS E.Trn. Corr. Test RMS E.Testlsss 1,107675 0,634440 0,997750 0,015735 0,991841 0,035743lssg 1,103130 0,465626 0,998045 0,014737 0,995037 0,027365lsst 1,236687 0,433174 0,997681 0,016486 0,994874 0,025326lsgs 1,466637 0,486748 0,996936 0,019087 0,994556 0,024103lsgg 1,238456 0,372620 0,997624 0,016518 0,996255 0,021532lsgt 1,345547 0,556600 0,997276 0,017995 0,994855 0,029511lsts 1,295759 0,513401 0,997309 0,017759 0,994821 0,026684lstg 1,157615 0,492031 0,998013 0,015890 0,991982 0,025049lstt 1,234528 0,629679 0,997387 0,017274 0,989836 0,033974lgss 0,664187 0,422149 0,999280 0,008905 0,995516 0,025123lgsg 1,233113 0,234641 0,997777 0,016382 0,998367 0,012946lgst 1,084325 0,416799 0,998188 0,014998 0,994021 0,023870lggs 1,364768 0,465816 0,997018 0,018792 0,992988 0,027280lggg 0,949850 0,574798 0,998552 0,012816 0,993901 0,032041lggt 1,296610 0,440270 0,997556 0,017279 0,994028 0,027801lgts 1,274145 0,529331 0,997539 0,017088 0,987384 0,035656lgtg 1,216044 0,291606 0,997893 0,016258 0,997483 0,014971lgtt 0,969652 0,421704 0,998336 0,014162 0,996420 0,022191ltss 1,013286 0,481144 0,998345 0,014158 0,995925 0,025355ltsg 1,025858 0,335545 0,998143 0,014719 0,997453 0,017424ltst 1,150707 0,434616 0,997915 0,015574 0,993061 0,029777ltgs 1,228960 0,457791 0,997347 0,017051 0,996743 0,024759ltgg 1,082578 0,454682 0,997979 0,014885 0,995785 0,025581ltgt 1,208877 0,528400 0,997607 0,016703 0,993523 0,028602ltts 1,023026 0,521848 0,998220 0,015021 0,992673 0,028393lttg 1,068332 0,345660 0,998266 0,014466 0,994054 0,018836lttt 1,259062 0,316526 0,997529 0,017165 0,996536 0,018835
Func.Activ. E. Tot. Trn E.Tot.Test Corr. Trn. RMS E.Trn. Corr. Test RMS E.Testlsss 0,891009 0,342098 0,998520 0,013356 0,995192 0,022622lssg 1,073756 0,383117 0,998066 0,014883 0,997514 0,020092lsst 1,323953 0,367839 0,997211 0,018080 0,996807 0,021428lsgs 1,323278 0,525461 0,997556 0,017298 0,991737 0,027363lsgg 1,187585 0,357595 0,998085 0,015525 0,994936 0,020075lsgt 1,522637 0,375991 0,996632 0,020171 0,996446 0,022122lsts 1,280227 0,732084 0,997135 0,017218 0,990603 0,095557lstg 1,043658 0,385293 0,998193 0,014488 0,997225 0,020551lstt 1,410022 0,377587 0,997029 0,018615 0,997316 0,019324lgss 0,843023 0,466361 0,998666 0,012317 0,995595 0,024302lgsg 0,886216 0,430798 0,998569 0,012631 0,996752 0,022626lgst 1,185316 0,553972 0,997693 0,016010 0,997693 0,030665lggs 1,402001 0,349048 0,996899 0,019002 0,997475 0,020421lggg 1,103680 0,274762 0,997979 0,015296 0,998413 0,013876lggt 0,658661 0,402771 0,999336 0,008912 0,996006 0,021284lgts 0,985549 0,496098 0,998194 0,014665 0,995173 0,030687lgtg 1,078193 0,445201 0,998022 0,015255 0,995656 0,022012lgtt 1,106598 0,555256 0,997817 0,015480 0,992729 0,034117ltss 1,053669 0,726547 0,998058 0,014689 0,976585 0,058216ltsg 1,020840 0,442974 0,998331 0,014063 0,995940 0,022124ltst 0,971144 0,518527 0,998212 0,013996 0,995024 0,026832ltgs 1,257692 0,532070 0,997098 0,017735 0,994628 0,030001ltgg 1,087142 0,392861 0,998123 0,014690 0,997522 0,020883ltgt 1,017888 0,407799 0,998000 0,014790 0,997093 0,022818ltts 0,703059 0,277255 0,999172 0,009812 0,996273 0,019386lttg 1,067951 0,384346 0,998263 0,014508 0,995216 0,023084lttt 1,099244 0,483252 0,997943 0,016070 0,992370 0,026884
(.../...)
Topología 7-5-2-2
Topología 7-5-3-2
Tablas de resultados de las pruebas con redes neuronales artificiales basadas en lainformación continua (señales completas de los voltamperogramas):
ANEXO XII
-265-
Func.Activ. E. Tot. Trn E.Tot.Test Corr. Trn. RMS E.Trn. Corr. Test RMS E.Testlsss 0,966013 0,268429 0,998400 0,014011 0,997893 0,013426lssg 1,094950 0,305181 0,998227 0,014724 0,997294 0,016743lsst 1,215681 0,415611 0,997626 0,016644 0,996337 0,021382lsgs 1,465827 0,361108 0,996836 0,019474 0,996348 0,019848lsgg 1,095600 0,400773 0,997971 0,015047 0,997669 0,020448lsgt 0,964309 0,451638 0,998318 0,013787 0,995081 0,028223lsts 1,313773 0,398854 0,997215 0,017767 0,995759 0,023922lstg 1,072192 0,358016 0,998297 0,014195 0,995980 0,020810lstt 0,692974 0,309079 0,999235 0,009424 0,997540 0,017177lgss 0,913578 0,487887 0,998553 0,013088 0,992581 0,029062lgsg 0,924507 0,483707 0,998410 0,012949 0,995600 0,029220lgst 1,359252 0,431656 0,997102 0,018327 0,996163 0,025948lggs 0,923932 0,363480 0,998486 0,013013 0,997302 0,019413lggg 1,165983 0,339127 0,997684 0,015725 0,998331 0,020149lggt 0,879829 0,300346 0,998775 0,011995 0,997070 0,017689lgts 0,519364 0,314807 0,999545 0,007402 0,996833 0,018161lgtg 0,755272 0,295162 0,998967 0,010812 0,997158 0,019623lgtt 0,838366 0,399384 0,998864 0,011268 0,996461 0,023516ltss 1,159274 0,236657 0,997973 0,015521 0,998596 0,013289ltsg 1,033215 0,327769 0,998326 0,014029 0,997524 0,018110ltst 0,849688 0,364763 0,998847 0,011666 0,996059 0,021539ltgs 1,222739 0,442697 0,997437 0,016804 0,996686 0,022806ltgg 1,075201 0,374843 0,998223 0,014614 0,996357 0,019618ltgt 1,011401 0,402030 0,998220 0,014315 0,996652 0,021514ltts 0,562666 0,240280 0,999398 0,008356 0,998916 0,012095lttg 0,958906 0,555550 0,998540 0,013180 0,991651 0,031190lttt 1,137773 0,399221 0,998106 0,015088 0,995410 0,022724
Func.Activ. E. Tot. Trn E.Tot.Test Corr. Trn. RMS E.Trn. Corr. Test RMS E.Testlsss 0,985124 0,517881 0,998284 0,014284 0,990296 0,029930lssg 1,309579 0,311517 0,997687 0,016766 0,998362 0,015994lsst 1,092167 0,408062 0,997878 0,015235 0,998253 0,024478lsgs 1,161141 0,541320 0,997744 0,016142 0,993748 0,028300lsgg 1,111367 0,349470 0,997830 0,015625 0,998178 0,017939lsgt 1,164823 0,775796 0,997610 0,016173 0,992739 0,039712lsts 0,842564 0,262355 0,998787 0,011786 0,998559 0,016102lstg 1,011808 0,331430 0,998257 0,013723 0,997885 0,019480lstt 0,738703 0,157635 0,999242 0,009595 0,999027 0,009787lgss 1,070765 0,415415 0,998170 0,014910 0,990518 0,027561lgsg 1,118903 0,303329 0,998115 0,015044 0,998660 0,016387lgst 1,309715 0,339458 0,997404 0,017689 0,997222 0,017008lggs 0,692331 0,583042 0,998893 0,011499 0,992026 0,029494lggg 0,897591 0,437524 0,998691 0,012522 0,993656 0,026157lggt 1,289685 0,341114 0,997115 0,017905 0,998306 0,018216lgts 0,621325 1,080996 0,999314 0,008849 0,950090 0,081865lgtg 0,723344 0,292933 0,999102 0,009874 0,997776 0,017630lgtt 0,643629 0,274854 0,999296 0,009344 0,997415 0,015746ltss 0,685969 0,301206 0,999270 0,009288 0,997114 0,017760ltsg 1,038961 0,317688 0,998364 0,013685 0,996954 0,018496ltst 1,092438 0,449873 0,997854 0,015569 0,996946 0,024324ltgs 1,039924 0,335334 0,998257 0,014427 0,994898 0,023042ltgg 1,035533 0,475322 0,998409 0,013725 0,994349 0,025281ltgt 1,267965 0,381169 0,997527 0,017216 0,996291 0,020391ltts 0,768675 0,397319 0,998933 0,010952 0,998108 0,020104lttg 0,985182 0,455454 0,998230 0,013987 0,997594 0,024187lttt 0,863865 0,439046 0,998631 0,012252 0,996553 0,024035
(.../...)
Topología 7-5-4-2
Topología 7-5-5-2
ANEXO XII
-266-
Func.Activ. E. Tot. Trn E.Tot.Test Corr. Trn. RMS E.Trn. Corr. Test RMS E.Testlsss 1,113920 0,540992 0,998051 0,015357 0,994687 0,028863lssg 1,124312 0,404295 0,997920 0,015459 0,996539 0,021294lsst 1,279944 0,357621 0,997373 0,017567 0,996938 0,018822lsgs 1,261831 0,460271 0,997854 0,016362 0,994085 0,028108lsgg 1,075662 0,389139 0,998341 0,014242 0,996240 0,022068lsgt 1,235911 0,537691 0,997710 0,016725 0,992593 0,026169lsts 0,600305 0,194300 0,999402 0,008441 0,997467 0,010480lstg 0,972042 0,348848 0,998223 0,014030 0,997876 0,017372lstt 1,105449 0,486119 0,997951 0,015324 0,993688 0,026285lgss 0,672086 0,488364 0,999189 0,009400 0,992279 0,027897lgsg 0,877401 0,486805 0,998684 0,012445 0,995615 0,023701lgst 0,998449 0,366994 0,998842 0,014232 0,997522 0,023000lggs 1,008617 0,407777 0,998037 0,015058 0,994897 0,026423lggg 0,736226 0,185153 0,999139 0,009984 0,998960 0,010813lggt 0,877507 0,332484 0,998793 0,012125 0,994961 0,022716lgts 0,596792 0,338998 0,999418 0,008399 0,994972 0,020718lgtg 1,137754 0,731018 0,997838 0,015288 0,986918 0,055513lgtt 0,678537 0,482006 0,999161 0,009665 0,993336 0,025969ltss 0,760383 0,313453 0,999027 0,010994 0,996476 0,018539ltsg 0,977317 0,453919 0,998389 0,013363 0,995578 0,025521ltst 1,184173 0,282727 0,997772 0,016387 0,998141 0,014136ltgs 0,568313 0,418648 0,999335 0,008646 0,997470 0,025370ltgg 0,976369 0,595426 0,998381 0,013337 0,993183 0,033302ltgt 0,771371 0,463922 0,999016 0,010944 0,993694 0,024482ltts 0,532917 0,405767 0,999508 0,007186 0,995888 0,025749lttg 0,998135 0,365428 0,998475 0,013530 0,996407 0,019370lttt 0,627645 0,323627 0,999394 0,008237 0,997959 0,016363
Func.Activ. E. Tot. Trn E.Tot.Test Corr. Trn. RMS E.Trn. Corr. Test RMS E.Testlsss 1,422057 0,219749 0,996970 0,018851 0,998405 0,012073lssg 1,225095 0,394114 0,997684 0,016469 0,996714 0,019878lsst 1,139438 0,632003 0,997600 0,015942 0,994368 0,031378lsgs 1,423866 0,690970 0,996899 0,018603 0,989984 0,036174lsgg 1,159591 0,419568 0,998075 0,015056 0,995910 0,021549lsgt 1,260296 0,620992 0,997492 0,017643 0,994107 0,029977lsts 1,453952 0,435717 0,997218 0,018740 0,992972 0,025091lstg 1,103530 0,499296 0,997954 0,014890 0,996768 0,028602lstt 1,536911 0,270376 0,996447 0,020022 0,998613 0,014202lgss 1,201675 0,449715 0,997611 0,017089 0,994643 0,022905lgsg 1,084615 0,492202 0,997996 0,014772 0,994954 0,027010lgst 1,039721 0,210152 0,998097 0,014824 0,998553 0,013249lggs 1,342304 0,651372 0,996916 0,018829 0,992396 0,034401lggg 1,215413 0,951111 0,997643 0,016227 0,966266 0,078422lggt 1,115462 0,482952 0,997931 0,015889 0,991276 0,027978lgts 1,485747 0,408416 0,996689 0,019586 0,998047 0,022077lgtg 1,169399 0,377347 0,998138 0,015305 0,997265 0,019718lgtt 1,293978 0,516395 0,997314 0,017427 0,996578 0,027251ltss 0,993969 0,380197 0,998387 0,013666 0,996269 0,021417ltsg 1,062279 0,385529 0,998300 0,014317 0,996205 0,020140ltst 0,954735 0,343924 0,998378 0,013795 0,995534 0,022765ltgs 1,385732 0,482350 0,996833 0,019177 0,994550 0,025593ltgg 1,159479 0,315946 0,997984 0,015520 0,997500 0,016504ltgt 1,307002 0,516373 0,997006 0,017715 0,993170 0,034084ltts 1,247130 0,259481 0,997542 0,017487 0,997812 0,013999lttg 1,269726 0,516116 0,997442 0,016742 0,990550 0,042516lttt 1,211851 0,400319 0,997527 0,016671 0,996359 0,023156
(.../...)
Topología 7-5-6-2
Topología 7-6-2-2
ANEXO XII
-267-
Func.Activ. E. Tot. Trn E.Tot.Test Corr. Trn. RMS E.Trn. Corr. Test RMS E.Testlsss 1,040311 0,352828 0,998167 0,014733 0,994064 0,019149lssg 1,205657 0,294983 0,997797 0,016076 0,998148 0,015662lsst 1,144597 0,411270 0,998080 0,015369 0,994746 0,021774lsgs 1,328249 0,596966 0,996781 0,018241 0,995721 0,033639lsgg 1,165931 0,365350 0,998097 0,015559 0,995584 0,019984lsgt 1,415734 0,434343 0,996821 0,019194 0,996368 0,025145lsts 1,127116 0,599043 0,998065 0,015272 0,991049 0,030909lstg 1,090330 0,414912 0,998214 0,014697 0,993923 0,022677lstt 1,219166 0,522454 0,997608 0,016273 0,996064 0,029965lgss 0,956927 0,490033 0,998439 0,013810 0,994065 0,027676lgsg 1,040397 0,395214 0,998326 0,013947 0,996624 0,020429lgst 0,722835 0,253836 0,999192 0,009962 0,997819 0,013396lggs 1,155184 0,468150 0,997781 0,015976 0,995521 0,029590lggg 1,010708 0,410505 0,998346 0,013660 0,996098 0,024182lggt 1,331204 0,463714 0,997333 0,017835 0,995157 0,023121lgts 0,469661 0,432296 0,999561 0,007252 0,994805 0,023096lgtg 1,017174 0,497043 0,998286 0,013875 0,994539 0,026240lgtt 1,303031 0,335457 0,997303 0,017731 0,997819 0,017713ltss 0,785962 0,251718 0,998909 0,010788 0,997538 0,020930ltsg 1,030106 0,375097 0,998106 0,014475 0,996963 0,021145ltst 0,998677 0,333186 0,998235 0,014807 0,996256 0,019359ltgs 1,288726 0,400291 0,997299 0,017590 0,995747 0,025045ltgg 0,992554 0,489027 0,998135 0,014153 0,996314 0,024805ltgt 1,315420 0,362566 0,997495 0,017748 0,996058 0,018302ltts 1,082926 0,520921 0,998039 0,015188 0,992154 0,030521lttg 1,045771 0,330062 0,998131 0,014667 0,996154 0,022388lttt 1,187998 0,409564 0,997741 0,016319 0,996216 0,020804
Func.Activ. E. Tot. Trn E.Tot.Test Corr. Trn. RMS E.Trn. Corr. Test RMS E.Testlsss 0,994338 0,564377 0,998258 0,014007 0,996915 0,029590lssg 0,960880 0,556975 0,998768 0,012630 0,992154 0,028189lsst 1,148853 0,425015 0,997824 0,016425 0,995510 0,022147lsgs 1,371895 0,378809 0,997208 0,018330 0,996651 0,018852lsgg 1,175392 0,291869 0,997854 0,015634 0,997977 0,018742lsgt 1,326643 0,435965 0,997005 0,017743 0,996220 0,026290lsts 0,731624 0,267675 0,999208 0,009706 0,997945 0,015302lstg 1,111666 0,279766 0,998224 0,014796 0,997172 0,016768lstt 0,750222 0,542392 0,998962 0,010960 0,991961 0,031970lgss 0,881666 0,295130 0,998806 0,012151 0,997213 0,015593lgsg 1,029328 0,472643 0,998397 0,014075 0,994633 0,023877lgst 1,063232 0,262027 0,998196 0,014705 0,996982 0,016571lggs 0,714783 0,269104 0,999053 0,010285 0,998405 0,016834lggg 0,713707 0,431184 0,999053 0,010433 0,994286 0,026583lggt 0,960136 0,540470 0,998343 0,013913 0,992993 0,031637lgts 0,561470 0,464883 0,999472 0,007799 0,992418 0,030005lgtg 1,020878 0,353292 0,998337 0,013682 0,996598 0,021475lgtt 0,666465 0,436323 0,999176 0,009512 0,996920 0,023797ltss 0,918282 0,318188 0,998561 0,013038 0,998242 0,019481ltsg 0,996018 0,311583 0,998391 0,013964 0,996597 0,017854ltst 0,155535 0,546659 0,997814 0,015880 0,995131 0,029031ltgs 1,061361 0,370610 0,998224 0,014543 0,995767 0,021998ltgg 1,146994 0,384312 0,997867 0,015527 0,996779 0,023652ltgt 1,109302 0,593685 0,998180 0,014809 0,991756 0,029882ltts 0,599717 0,263039 0,999338 0,008859 0,997662 0,015019lttg 0,778187 0,255813 0,998944 0,011344 0,997679 0,016667lttt 0,880180 0,429364 0,998677 0,012367 0,996415 0,021417
(.../...)
Topología 7-6-3-2
Topología 7-6-4-2
ANEXO XII
-268-
Func.Activ. E. Tot. Trn E.Tot.Test Corr. Trn. RMS E.Trn. Corr. Test RMS E.Testlsss 0,679934 1,112983 0,998284 0,014284 0,990296 0,029930lssg 0,973437 0,560066 0,997687 0,016766 0,998362 0,015994lsst 1,254039 0,387469 0,997878 0,015235 0,998253 0,024478lsgs 0,959468 0,382407 0,997744 0,016142 0,993748 0,028300lsgg 0,948965 0,485152 0,997830 0,015625 0,998178 0,017939lsgt 1,433226 0,421668 0,997610 0,016173 0,992739 0,039712lsts 0,505727 0,317489 0,998787 0,011786 0,998559 0,016102lstg 1,210778 0,510668 0,998257 0,013723 0,997885 0,019480lstt 0,644802 0,370716 0,999242 0,009595 0,999027 0,009787lgss 0,573899 0,281638 0,998170 0,014910 0,990518 0,027561lgsg 0,858952 0,642981 0,998115 0,015044 0,998660 0,016387lgst 1,011469 0,591965 0,997404 0,017689 0,997222 0,017008lggs 0,672774 0,534323 0,998893 0,011499 0,992026 0,029494lggg 1,070191 0,354777 0,998691 0,012522 0,993656 0,026157lggt 1,070191 0,354777 0,997115 0,017905 0,998306 0,018216lgts 0,668976 0,307560 0,999314 0,008849 0,950090 0,081865lgtg 0,938349 0,338116 0,999102 0,009874 0,997776 0,017630lgtt 0,542533 0,396232 0,999296 0,009344 0,997415 0,015746ltss 0,958034 1,483472 0,999270 0,009288 0,997114 0,017760ltsg 0,890945 0,404038 0,998364 0,013685 0,996954 0,018496ltst 0,828915 0,456573 0,997854 0,015569 0,996946 0,024324ltgs 0,557368 0,415120 0,998257 0,014427 0,994898 0,023042ltgg 0,668878 0,431105 0,998409 0,013725 0,994349 0,025281ltgt 0,621317 0,239543 0,997527 0,017216 0,996291 0,020391ltts 0,795324 0,268123 0,998933 0,010952 0,998108 0,020104lttg 0,995366 0,343445 0,998230 0,013987 0,997594 0,024187lttt 1,393730 0,300453 0,998631 0,012252 0,996553 0,024035
Func.Activ. E. Tot. Trn E.Tot.Test Corr. Trn. RMS E.Trn. Corr. Test RMS E.Testlsss 0,985389 0,559776 0,998366 0,013607 0,994109 0,029991lssg 1,114422 1,046218 0,997827 0,015161 0,951019 0,086089lsst 1,298055 0,291142 0,997432 0,017251 0,997462 0,016516lsgs 1,038471 0,496277 0,998153 0,014697 0,993725 0,027370lsgg 0,957491 0,329979 0,998495 0,013538 0,996829 0,017664lsgt 1,163772 0,519345 0,997780 0,015851 0,994342 0,028767lsts 0,806963 0,312822 0,999067 0,010760 0,997920 0,017091lstg 1,086331 0,402504 0,998066 0,014914 0,997358 0,021598lstt 0,590225 0,389026 0,999337 0,008718 0,998097 0,023807lgss 0,838683 0,335273 0,998826 0,012189 0,995859 0,017887lgsg 1,024802 0,324864 0,998136 0,014252 0,998222 0,018805lgst 1,166269 0,469670 0,997695 0,016021 0,994408 0,027026lggs 0,591929 0,488836 0,999380 0,008429 0,995805 0,029918lggg 0,990963 0,370800 0,998501 0,013472 0,996339 0,019750lggt 1,056977 0,477086 0,998030 0,014747 0,996351 0,026394lgts 0,649946 0,268318 0,999356 0,008554 0,998216 0,015241lgtg 1,066177 0,308595 0,998010 0,015053 0,997970 0,016347lgtt 0,596238 0,314825 0,999395 0,008330 0,997749 0,016403ltss 0,640654 0,319667 0,999321 0,008768 0,997729 0,016907ltsg 1,116552 0,252207 0,998069 0,014948 0,998645 0,013912ltst 0,850613 0,422688 0,998615 0,012699 0,995441 0,023962ltgs 0,536351 0,351494 0,999460 0,008008 0,996838 0,021389ltgg 0,962403 0,646243 0,998448 0,013355 0,994995 0,031541ltgt 1,395025 0,345476 0,997141 0,018401 0,996040 0,016757ltts 0,474249 0,284622 0,999580 0,007033 0,998226 0,014436lttg 0,961693 0,356620 0,998473 0,013190 0,997088 0,019134lttt 0,565859 0,369139 0,999439 0,008013 0,996325 0,020480
Topología 7-6-5-2
Topología 7-6-6-2