88
GVA-FAIS-UPM®PFC0055-00 37 LUZ ESTRUCTURADA Los métodos tradicionales de luz estructurada para el sensado de profundidad, por lo general, están basados en la introducción de información geométrica en la técnica de iluminación a fin de facilitar la extracción de la profundidad de la escena de análisis. Una de estas técnicas consiste en la proyección de una línea sencilla de luz sobre la escena y la imagen bidimensional es adquirida por medio de una cámara digitalizadora que se encuentra a un ángulo de toma adecuado. La información de profundidad se adquiere del desplazamiento relativo de los diferentes puntos de la línea de luz. Una particularidad del método de línea sencilla es la necesidad de procesar múltiples imágenes para reconstruir la escena completa. La totalidad de la escena puede cubrirse ya sea moviendo la fuente de luz o bien, dejando el sistema de iluminación fijo y recorrer la escena. Una variación de este método de luz estructurada consiste en la proyección de múltiples líneas sobre la escena con una regularidad o un patrón definido. Lo anterior es logrado mediante el uso de una rejilla de difracción diseñada para el caso. La técnica de múltiples líneas tiene la ventaja obvia de requerir en La ciencia no es mas que percepción Platón (427 – 347 a.C.)

3 Luze Structur Ada

Embed Size (px)

Citation preview

Page 1: 3 Luze Structur Ada

GVA-FAIS-UPM®PFC0055-00 37

� LUZ ESTRUCTURADA

Los métodos tradicionales de luz estructurada para el sensado de profundidad, porlo general, están basados en la introducción de información geométrica en la técnica deiluminación a fin de facilitar la extracción de la profundidad de la escena de análisis. Unade estas técnicas consiste en la proyección de una línea sencilla de luz sobre la escena y laimagen bidimensional es adquirida por medio de una cámara digitalizadora que seencuentra a un ángulo de toma adecuado.

La información de profundidad se adquiere del desplazamiento relativo de losdiferentes puntos de la línea de luz. Una particularidad del método de línea sencilla es lanecesidad de procesar múltiples imágenes para reconstruir la escena completa. La totalidadde la escena puede cubrirse ya sea moviendo la fuente de luz o bien, dejando el sistema deiluminación fijo y recorrer la escena. Una variación de este método de luz estructuradaconsiste en la proyección de múltiples líneas sobre la escena con una regularidad o unpatrón definido. Lo anterior es logrado mediante el uso de una rejilla de difraccióndiseñada para el caso. La técnica de múltiples líneas tiene la ventaja obvia de requerir en

La ciencia no es mas que percepciónPlatón (427 – 347 a.C.)

Page 2: 3 Luze Structur Ada

Luz Estructurada Rubén Collado Hernández

38 GVA-FAIS-UPM®PFC0055-00

principio una sola imagen para lograr la reconstrucción de la escena completa. Estaventaja, en términos computacionales, representa una simplificación en el manejo de los“buffers” o memoria RAM. Sin embargo, la complejidad de los algoritmos dereconstrucción aumenta considerablemente pues es necesario resolver ciertas dificultadesinherentes al método, entre las cuales destaca la posible confusión entre las diferenteslíneas. El principio de extracción de profundidad mediante el desplazamiento relativo depuntos de luz conduce al diseño de algoritmos demasiado complejos para poder aspirar asu implantación en tiempo real.

Figura 3. 1: Sistema de Luz Estructurada

Page 3: 3 Luze Structur Ada

Rubén Collado Hernández Luz Estructurada

GVA-FAIS-UPM®PFC0055-00 39

3.1 Teoría general de la luz estructurada

Consiste en proyectar sobre la pieza unos patrones de luz conocidos modulados yobservando la luz reflejada, que también viene modulada, obtener información sobre laestructura de la superficie del objeto, la cual puede ser reconstruida mediante triangulación.Las fuentes de luz empleadas deben de ser especiales pues deben ser capaces de emitir luzestructurada y suelen ser láseres. Se usa para reconstrucciones 3D de objetos y conocer suforma.

El sistema de reconstrucción visual automática se compone de las siguientes partesintegrantes:

• Un sistema de alimentación de los objetos, que los posiciona ante el captador dela imagen.

• Un sistema de visión automática compuesto por:

- Subsistema de adquisición, encargado de la recolección de laimagen que describe los objetos.

Figura 3. 2: Principio de la Luz Estructurada

Page 4: 3 Luze Structur Ada

Luz Estructurada Rubén Collado Hernández

40 GVA-FAIS-UPM®PFC0055-00

- Subsistema de procesamiento, encargado de analizar los datosvisuales proporcionados por el subsistema de adquisición.

- Subsistema de almacenamiento, para almacenar los datosinferidos o adquiridos.

• Un sistema de separación, para la clasificación de piezas inspeccionadas deacuerdo con el procesamiento.

3.1.1 El Sistema posicionador

El sistema posicionador incluye tanto el sistema de alimentación como el carrolineal. Cabe mencionar que un buen posicionamiento del objeto podría facilitar la tarea delos algoritmos de reconocimiento.

3.1.2 El Sistema de Visión Automática

Es la parte fundamental del sistema de reconstrucción automática y es la encargadade la adquisición y procesamiento de la imagen, así como de la presentación al usuario, esdecir, la interfaz del usuario.

3.1.2.1 Subsistema de adquisición.

La adquisición correcta de la imagen es fundamental para el éxito o fracaso delprocesamiento, ya que una imagen con buenas propiedades de iluminación, puede llegar ahacer viable o inviable un proyecto de automatización de una inspección.

El subsistema de adquisición está compuesto por:

• Cámara: Sensor y óptica

• Digitalizador

• Sistema de iluminación

Cámara: Es el dispositivo encargado de transformar las señales luminosas queaparecen en la escena, en señales analógicas capaces de ser transmitidas por un cablecoaxial. Se divide en dos partes claramente diferenciadas que son, el sensor que es elencargado realmente de capturar las propiedades del objeto en forma de señales luminosasy transformarlas en señales analógicas, y la óptica que se encarga de proyectar loselementos adecuados de la escena ajustando una distancia focal adecuada.

Existen en el mercado una gran variedad de sensores y ópticas y aunque no se verántodas, decir que inciden directamente sobre el procesamiento de la imagen, ya que las

Page 5: 3 Luze Structur Ada

Rubén Collado Hernández Luz Estructurada

GVA-FAIS-UPM®PFC0055-00 41

cámaras realizan un barrido de la señal y por tanto no obtenemos una imagen en el mismoinstante de tiempo que tiene su importancia para escenas en movimiento.

Digitalizador: El digitalizador, o convertidor analógico-digital, es el encargado detransformar la señal de vídeo (imagen + sincronismo), cualquiera que sea el formatoutilizado, en una señal digital capaz de ser capturada y procesada por una computadora.Las principales características de las tarjetas digitalizadoras son precio, controlabilidad,resolución, velocidad y almacenaje, en el sentido de sí los algoritmos de visión puedentener acceso rápido y fácilmente a los datos.

Estas tarjetas digitalizadoras acabarán desapareciendo, debido a que las cámaras devídeo proporcionan cada vez más prestaciones digitales y será directamente la cámara laque obtenga la señal digital, con la ventaja de que la degradación de la señal tambiéndesaparecerá.

Sistema de iluminación: La iluminación de la escena juega un papel crucial en eldesarrollo de un sistema de reconocimiento visual automático, puesto que puededeterminar el éxito o fracaso de una aplicación de este tipo.

3.1.2.2 Subsistema de procesamiento de la imagen.

El sistema encargado de realizar el procesamiento de la imagen varía ampliamente,desde procesadores muy especializados, pequeñas computadoras de propósito general,hasta procesadores vectoriales de gran versatilidad. El tipo de arquitectura a emplear varíamucho y depende de varios parámetros, como el uso de uno o varios procesadores y el usode sistemas específicos o de propósito general, y por supuesto del coste. Dependiendo de laelección de los parámetros anteriores, el procesamiento de la imagen será más rápido o no.En sistemas en los que necesitan tiempo real, se debe estudiar la implantación del sistemamás barato con las mejores prestaciones.

3.1.2.3 Subsistema de almacenamiento.

Los requerimientos de almacenamiento de datos y velocidad de acceso son vitalesen los sistemas de visión, siendo muy usual tener grandes volúmenes de datos querequieran un almacenamiento. Existen muchos tipos de almacenamiento, como el discoduro, cintas, cintas de vídeo, videodiscos, etc. Cada uno de ellos tiene sus ventajas einconvenientes y es necesario fijarse en dos parámetros fundamentales para su elección,que son velocidad de acceso a los datos y coste.

3.1.3 Sistema de reconstrucción tridimensional

Una vez obtenidas la imágenes y analizadas es necesario interpretarlas para generarlos modelos tridimensionales. De esto se encarga el sistema de reconstrucción, de generarlas isolíneas para insertarlas en el fichero CAD.

Page 6: 3 Luze Structur Ada

Luz Estructurada Rubén Collado Hernández

42 GVA-FAIS-UPM®PFC0055-00

3.2 Sistemas de luz láser

Una vez entendidos los principios de un sistema de luz estructurada, a partir de esteapartado se comienza la descripción de los distintos elementos que lo componen. El primerelemento a considerar en el diseño es la captación de la imagen, de forma que se consigaresaltar lo más posible el patrón de luz respecto del fondo.

Parece obvio que la principal aplicación del sistema láser a la luz estructurada esque la distorsión del patrón nos informa acerca de las características del objeto, pero puedeir mucho más allá, simplificando, por ejemplo, el problema de la detección del objetodentro de una cadena industrial, evitando así la necesidad de montar sensores demovimiento, infrarrojos, ...

Para su estudio se va a comenzar con unas breves nociones acerca de la historia delos láseres, inicio, desarrollos, etc. para ya en la época actual comentar sus características yaplicaciones principales.

3.2.1 Historia del láser

La historia comenzó en 1916, cuando Albert Einstein estudiaba el comportamientode los electrones en el interior del átomo. Por regla general, los electrones son capaces deabsorber o emitir luz. En realidad, los electrones emiten luz espontáneamente sin ningunaintervención externa. Sin embargo, Einstein previó la posibilidad de estimular loselectrones para que emitiesen luz de una longitud de onda determinada. El estímulo se loproporcionaría una luz adicional de la misma longitud de onda. A pesar de que R.Ladenberg verificó el pronóstico de Einstein en 1928, nadie pensó seriamente en construirun dispositivo basado en el fenómeno en cuestión hasta principios de los años cincuenta.

Recordemos que láser significa amplificación de la luz por emisión estimulada deradiación. Einstein descubrió la emisión estimulada, pero para fabricar un láser se precisatambién amplificación de dicha emisión estimulada.

La primera propuesta conocida para la amplificación de la emisión estimuladaapareció en una solicitud de patente soviética en el año 1951, presentada por V.A.Fabrikant y dos de sus alumnos. Sin embargo, dicha patente no se publicó hasta 1959, ypor consiguiente no afectó a los demás investigadores. Fabrikant sigue siendo un misterioen la actualidad, uno de los olvidados en la ruta de investigación del láser. En 1953, JosephWeber, de la universidad de Maryland, propuso también la amplificación de la emisiónestimulada y, al año siguiente, los rusos mencionados anteriormente, Basov y Prokhorov,escribieron un artículo explorando mucho mas a fondo el concepto. Desde entonces, aWeber se le ha pasado a conocer mejor por sus investigaciones en otro campo, el de ladetección de ondas de gravedad basándose también en otra antigua idea de Albert Einstein.

Page 7: 3 Luze Structur Ada

Rubén Collado Hernández Luz Estructurada

GVA-FAIS-UPM®PFC0055-00 43

Éstas son las fechas oficiales correspondientes a la primera parte de la carrera delláser. Pero acaso el hecho más significativo tuviese lugar en el banco de un parque deWashington DC durante la mañana del 26 de abril de 1951. Charles H. Townes seencontraba en Washington para asistir a una reunión de físicos y compartía la habitación desu hotel con Arthur Schawlow. En realidad, Townes asistía a una conferencia en la que sehablaba de ondas milimétricas y Schawlow tomaba parte en otra reunión. Uno de losgrandes intereses de Townes consistía en generar ondas cortas para sus investigaciones,que era algo que no había logrado todavía. Townes, casado y con hijos menores, estabaacostumbrado a levantarse temprano, mientras que Schawlow, soltero, solía levantarsetarde. Cuando Townes se despertó per la mañana temprano, con el fin de no molestar aSchawlow, decidió ir a dar un paseo. Y fue precisamente en un banco del parque deFranklin, de Washington, donde se le ocurrió la gran idea. Se dio repentinamente cuenta delas condiciones necesarias para amplificar la emisión estimulada de microondas. Lasmicroondas son ondas electromagnéticas muy cortas, como por ejemplo, las que se utilizanen ciertos tipos de hornos. No se trata de ondas luminosas, y sin embargo la revelación deTownes tuvo una importancia sumamente trascendental para el láser.

La idea de Townes, según sus propias palabras en aquella época, "solo parecíafactible en parte". Siguiendo el método tradicional de los catedráticos de física, formuló elproblema en forma de tema para una tesis y se lo ofreció a James P. Gordon, alumnolicenciado de la universidad de Columbia. Tres años mas tarde, Gordon, Townes y HerbertZeiger habían logrado construir en Columbia el primer máser (amplificación demicroondas por emisión estimulada de radiación).

Durante los años siguientes proliferaron los máseres. Debido a que la física de éstosera fascinante, el nuevo campo atrajo a numerosos investigadores, pero por desgracia seencontraron pocas aplicaciones para los aparatos en cuestión. Una de sus utilidadesconsiste en amplificar las señales que los radioastrónomos reciben del espacio lejano, y enlas comunicaciones por medio de satélite, y se usan además come medida de frecuenciasen los relojes atómicos de ultraprecisión. Sin embargo, la gama de frecuencias queamplifica es excesivamente limitada para la mayoría de las aplicaciones electrónicas. Losfísicos deseaban ir más allá, y no tardaron en comenzar a investigar otras zonas delespectro electromagnético, en especial las longitudes de onda de la luz infrarroja y visible.

Entonces fue cuando comenzó a ganar interés... y empezaron las querellas. Enseptiembre de 1957, Townes esbozó un proyecto para la construcción de un "máser óptico"que emitiría luz visible. Y se puso en contacto con su viejo amigo Arthur Schawlow, queentretanto había abandonado la universidad de Columbia para trabajar en los laboratoriosBell y había dejado de ser soltero al contraer matrimonio con la hermana de Townes. Entreambos desarrollaron un plan detallado para la construcción de un láser.

Gordon Gould entra en escena, Gould era estudiante licenciado de la facultad defísica en la universidad de Columbia, donde Townes ejercía de catedrático. En realidad, ellaboratorio que utilizaba se encontraba a pocos metros del despacho de Townes, ygeneralmente se le ha descrito como alumno suyo. Townes ha aclarado que en ciertaocasión le dio algunas clases, pero que no era su alumno, dado que no dirigía suinvestigación. Puesto que Gould y Townes llegarían eventualmente a disputarse los

Page 8: 3 Luze Structur Ada

Luz Estructurada Rubén Collado Hernández

44 GVA-FAIS-UPM®PFC0055-00

derechos de cierta patente, la naturaleza de la relación que existía entre ambos estrascendental. En realidad, Gould era alumno de Polykarp Kusch, ganador del premioNobel.

Gould admite que se inspiró en el máser y en las ideas de Townes. Estabaobsesionado por la idea de construir un artefacto que emitiese luz en lugar de microondas,pero, puesto que no logró que Kusch aceptase el proyecto para su doctorado, decidióemprenderlo por cuenta propia. En noviembre de 1957, transcurridos apenas dos mesesdesde que Townes hubiera esbozado su máser óptico, Gould comenzó a describir su propiaidea para la construcción de un aparato semejante utilizando -al parecer por primera vez- eltérmino láser. Prosiguió con la exposición de sus planes para la construcción de un láser yaprovechó la oportunidad para hacer proféticas declaraciones. Gould asegura que admitió,antes de que lo hicieran otros pioneros del láser, que seria posible conseguir densidades deenergía hasta entonces inalcanzables. Puntualizó que la segunda ley de termodinámica nolimita el brillo del láser. Dicha ley afirma que la temperatura de una superficie calentadaper un haz procedente de una fuente radicación térmica no puede exceder la temperatura dela fuente. Gould comprendió que el láser sería una fuente de luz no térmica y, porconsiguiente, capaz de generar temperaturas muy superiores a la suya. En la práctica, estosignifica que un láser que opere a temperatura ambiente es capaz de producir un haz quellegue a fundir el acero. Un haz de luz láser debidamente focalizado podría ser utilizadopara generar una fusión termonuclear, según pronosticó Gould en sus notas, además deafirmar que el láser podría emplearse para establecer comunicaciones con la luna.

Gould se apresuró a visitar a un abogado especializado patentes, que no supocomprender la importancia del láser y le dio la errónea impresión de que tenia que resumirsus ideas a un nivel más práctico para poder patentarlas. Dadas las circunstancias, optó porno solicitar ninguna patente en aquellos momentos y esperó hasta abril de 1959. Sinembargo, Townes y Schawlow si lo hicieron. Transcurridos unos 7 meses, durante elverano de 1958 solicitaron las patentes y mandaron detallado informe a la prestigiosarevista Physical Review, la cual lo publicó en diciembre de 1958. Gould, además de nosolicitar inmediatamente la patente correspondiente, cometió el error de no publicar susplanes para la construcción de un láser en alguna revista científica, que es lo que suelenhacer los científicos con el fin de que sus colegas reconozcan sus ideas originales.

Gould abandonó la universidad de Columbia sin doctorarse y se fue con sus ideas auna pequeña empresa de Syosset, Nueva York, llamada TRG Inc. La TRG utilizó las ideasde Gould en una propuesta a la Agencia de proyectos de investigación avanzados deldepartamento de Defensa (ARPA), que más adelante se denominaría Agencia de Proyectosde Investigación Avanzados de Defensa (DARPA). Lo que más le interesaba al ejército fueel potencial calorífico del láser, y los planes de Gould para adaptar el láser a funcionesbélicas.

Mientras, Townes y Schawlow pudieron dedicarse a trabajar tranquilamente en eldesarrollo del láser en la universidad de Columbia y en los laboratorios Bell,respectivamente. Había también otros equipos que se esforzaban en construir un láser loantes posible. A pesar de que Townes, Schawlow y Gould habían solicitado patentes y

Page 9: 3 Luze Structur Ada

Rubén Collado Hernández Luz Estructurada

GVA-FAIS-UPM®PFC0055-00 45

elaborado varias detalladas propuestas, y de que algunos rusos habían hecho otro tanto,hacia fines de los años cincuenta nadie había construido en realidad ningún láser.

Entre quienes observaban el ajetreo reinante, se encontraba un físico de loslaboratorios de investigación de la compañía aérea Hughes, en Malibu, California, llamadoTheodore H. Maiman. Éste había estado utilizando un rubí sintético como cristal para unmáser y lo había estudiado con suma atención. Otros investigadores habían llegado, engeneral, a la conclusión de que el rubí no constituía el material adecuado para el láserdebido a las características de los átomos en el interior del cristal, pero los cálculos deMaiman le convencieron de que seria apropiado.

Trabajando solo y sin ayuda alguna por parte del Gobierno, Maiman construyó unpequeño artefacto que consistía en un cristal cilíndrico de rubí de un centímetroaproximado de diámetro, rodeado de una lámpara espiral intermitente. Los extremes de labarra de rubí habían sido cubiertos con el fin de que actuasen como espejos, condiciónnecesaria para la oscilación del láser. Cuando el cristal recibía ráfagas de luz de unasmillonésimas de segundo de duración, producía breves pulsaciones de luz Láser. El 7 dejulio de 1960, Maiman comunicó a la prensa que había hecho funcionar el primer láser.Tan pequeño era el aparato, de unos escasos centímetros de longitud, que el encargado derelaciones públicas de la empresa Hughes no permitió que los periodistas lo fotografiasen yles ofreció en su lugar la fotografía de otro artefacto que todavía no había funcionado, peroque le parecía más impresionante debido a su mayor tamaño.

El láser de Maiman producía unos 10.000 vatios de luz, pero duraba escasamenteunas millonésimas de segundo en un momento dado y correspondía a un extremo tan rojodel espectro luminoso que era casi invisible. Se precisaban delicados instrumentos paracomprobar que las pulsaciones no eran simplemente fluorescentes, sino que correspondíana un tipo de luz que nadie había visto hasta entonces: la luz láser. La era del láser acababade comenzar.

Pronto comenzaron los pioneros del láser a cubrirse de honores. En 1964, Townes,Basov y Prokhorov compartieron el premio Nobel de física. A Townes se le otorgó lapatente del máser, que, puesto que cubría toda amplificación por emisión estimulada fuerecual fuese la longitud de onda, afectaba también al láser. Townes y Schawlowcompartieron una patente básica sobre el láser (es decir, un artefacto que opereespecialmente en longitudes de onda ópticas e infrarrojas). A Maiman se le otorgó unapatente por su láser de rubí y al fin consiguió hacerse con una suma considerable de dineroal vender su participación en Korad Inc. a la Union Carbide Corporation.

3.2.2 Funcionamiento de los láseres

El modo de funcionamiento de un láser, según [Feld98], se puede explicar a travésde tres conceptos básicos:

Page 10: 3 Luze Structur Ada

Luz Estructurada Rubén Collado Hernández

46 GVA-FAIS-UPM®PFC0055-00

- Inversión de población

- Fase de bombeo del medio activo

- Circuito resonador

3.2.2.1 Inversión de población

De acuerdo con la mecánica estadística, durante el equilibrio térmico a unadeterminada temperatura T, se puede expresar la relación de Boltzmann como:

( )

−−=

kT

EE

N

N 12exp

1

2

donde:

• N2 y N1 : numero de átomos en los niveles E2 y E1.• E1 y E2 : energía de los átomos en los niveles 1 y 2.

• T : temperatura absoluta en grados Kelvin.

• k : constante de Boltzmann

Teniendo en cuenta esta expresión se puede a continuación hablar de los diferentesprocesos elementales que se pueden llevar a cabo en las transiciones de partículas.

Otro principio importante en la Mecánica de Partículas es que se puede elevar laenergía de un átomo y subiéndole a un nivel superior, pero como ya predijo Bohr en sumodelo físico de los átomos, éstos sólo pueden encontrarse en zonas de energíaspredefinidas según su energía. Matemáticamente se expone como:

1212 hvEEE =−=∆

donde:

• E2, E1 : energías superior e inferior de la transición.• h : constante de Planck

• v12 : frecuencia de onda asociada al fotón emitido (Hz)

Teniendo en cuenta estas dos expresiones y a lo que se refieren obtenemos tresprocesos elementales de transiciones de átomos:

1.-Absorción estimulada, proceso que tiene lugar cuando un átomo, inicialmente enestado de baja energía, se produce una transición electrónica E1→E2 por efecto de laabsorción de un fotón de energía.

(3.1)

(3.2)

Page 11: 3 Luze Structur Ada

Rubén Collado Hernández Luz Estructurada

GVA-FAIS-UPM®PFC0055-00 47

2.-Emisión espontánea, proceso en el cual el átomo, inicialmente en el estadoexcitado, experimenta una transición electrónica E2→E1 emitiendo un fotón de energía.

3.-Emisión estimulada, proceso en el que el átomo, inicialmente en el estadoexcitado, por efecto de un fotón incidente de energía ‘hv12’ es forzado a realizar latransición electrónica, emitiendo un segundo fotón idéntico en fase, dirección y estado depolarización al primero. El resultado son dos fotones viajando en la misma dirección y quese superponen sus efectos.

La diferencia reside en que mientras que en la emisión espontánea se emitenfotones que se superponen de manera incoherente dando lugar a un efecto destructivo, enla estimulada los fotones se suman formando un efecto totalmente constructivo y queavanza. Este es el principio de amplificación óptica en el que está basado el efecto láser.

Aunque puede parecer simple, la radiación láser no se producirá si se cogecualquier material y se aumenta el nivel de energía de las moléculas por alguno de losmétodos conocidos, luz, calor, etc.. Esto es debido ya que se necesita algo más que sidifícil de conseguir. Ese elemento necesario es la inversión de población.

Por tanto ya se ha visto la importancia de la inversión de población ya que al pasaruna onda a través de él, el propio material en lugar de absorber la intensidad de la señal laaumenta. Para conseguir esa inversión habrá que suministrar energía y esa es la fase que seconoce como el bombeo del medio activo que rompe el equilibrio termodinámico delmaterial y manda los átomos a niveles de energía superiores.

3.2.2.2 Fase de Bombeo del medio activo

Como se ha dicho anteriormente la forma de conseguir una inversión de poblaciónes aumentar la excitación de los átomos inyectándoles energía. Los esquemas de bombeomás empleados son los de tres y cuatro niveles.

El esquema de tres niveles corresponde a la Figura 3.4 y fue desarrollado porBlömbergen en 1956.

Figura 3. 3: Proceso de transmisión de los átomos

Page 12: 3 Luze Structur Ada

Luz Estructurada Rubén Collado Hernández

48 GVA-FAIS-UPM®PFC0055-00

En el nivel E0 se tiene el medio activo en principio en equilibrio, pero si se inyectaa los átomos una cantidad importante de energía por cualquiera de los métodos conocidostales como –luz, electricidad- éstos suben hasta un nivel energético superior que es E2 paraa continuación volver a caer a un nivel energético E1 cercano a E2 para finalmente caer alestado inicial de equilibrio. La radiación láser será mucho más potente cuanto mayor sea ladiferencia entre los niveles E1 y E0. Aunque en principio el esquema es fácil de asimilarhay que tener en cuenta la velocidad con la que los electrones vuelven a caer al estado E0.Lo ideal es que el paso de E2 a E1 sea muy rápido y que el paso de E1 a E0 sea lo más lentoposible con lo que se conseguirá un estado metaestable con la misma cantidad de átomosen todo momento, lo que implica una radiación lo más regular posible.

Como ejemplo de este tipo de esquema es el láser de rubí y el problema que planteaes el de grandes fuentes de bombeo que logren elevar al menos la mitad de los átomos alnivel superior para conseguir la inversión de población.

El esquema de cuatro niveles se representa en la Figura 3.5 y soluciona losproblemas de las grandes fuentes de bombeo que adolecían los de tres niveles.

Figura 3. 4: Fase de bombeo en tres niveles

Figura 3. 5: Fase de bombeo en cuatro niveles

Page 13: 3 Luze Structur Ada

Rubén Collado Hernández Luz Estructurada

GVA-FAIS-UPM®PFC0055-00 49

Como se puede ver del estado inicial E0 se pasa al nivel superior E3 de ahí se pasa aun nivel E2 desde el cual se va a iniciar la radiación láser hasta que caiga a un nivel E1 paraa continuación volver a E0. En este caso lo que hay que tener en cuenta es que la transiciónde E3 a E2 sea lo más rápida posible para a continuación dar paso a una transición lo máslenta posible para permitir que se produzca la radiación láser hasta que los átomos lleguenal nivel energético E1 para que luego vuelvan al estado inicial para volver a ser bombeadosy volver a comenzar la reacción. En este caso como ya se ha comentado se soluciona elproblema de grandes bombeos ya que debido a la rápida transición de E3 a E2 y la lenta deE2 a E1 se permite que se acumulen en el segundo nivel energético la suficiente cantidad deátomos para que se produzca la transición láser.

Una vez se han comentado los diferentes niveles se pasa al estudio de los tiposposibles de bombeo tales como el óptico y el eléctrico.

El bombeo óptico se produce cuando el medio activo es iluminado con una fuenteluminosa de gran potencia que es capaz de elevar la energía de los electrones. Se usa conmedios activos sólidos y líquidos.

El bombeo eléctrico es el empleado con medios activos gaseosos mediantedescargas sucesivas dentro de la cámara donde se encuentra el gas. También es empleadocon láseres de semiconductores alimentando la diferencia de potencial de la unión P-N.

3.2.2.3 Resonador óptico

Una vez que el medio activo es bombeado y los átomos están en sus respectivosniveles energéticos como se puede imaginar es mínima por lo que las soluciones que seplantean pueden ser:

• Medios activos de gran longitud• Realimentación óptica

La primera como se pude pensar es impensable por motivos económicos y físicospor lo que la segunda es la más extendida.

La realimentación óptica se produce por una cavidad resonante formada por espejosen los extremos que permiten que gracias al efecto constructivo de la emisión estimuladapermite que la luz se vaya haciendo cada vez más potente. Esto es debido a que uno de losespejos refleja idealmente el 100 por 100 de toda la luz que le llega mientras que el otrodispone de un pequeño orificio que permite salir la luz que se desplaza a lo largo del ejeóptico. Además las continuas reflexiones de la luz actúan como un sistema extra debombeo que va excitando los átomos que se encuentran en el medio activo.

Page 14: 3 Luze Structur Ada

Luz Estructurada Rubén Collado Hernández

50 GVA-FAIS-UPM®PFC0055-00

Sin embargo, como se verá en posteriores capítulos los rendimientos obtenidos sonrealmente bajos, aunque parezca que todo el proceso está autoalimentándose. Las pérdidasnormalmente se deben a:

• Transmisión de los espejos• Absorción del medio activo• Absorción y dispersión de los espejos

• Dispersión por inhomogeneidades del medio activo• Pérdidas por difracción en los espejos

3.2.3 Propiedades de la luz láser

El haz de ondas lumínicas procedente de un láser es una onda electromagnética quecumple con la ecuación de elongación de las ondas:

)cos(),( ϕ+−= kxwttxE

donde:

• ωt – kx +ϕ : fase de la onda (rad).

• E0 : amplitud del campo (V/m).

• w : frecuencia angular (1/s)

• x : distancia a lo largo del eje x (m)

• t : tiempo (s)

• k : número de onda(1/m)

• ϕ : constante de fase (rad)

Figura 3. 6: Esquema del funcionamiento láser

(3.3)

Page 15: 3 Luze Structur Ada

Rubén Collado Hernández Luz Estructurada

GVA-FAIS-UPM®PFC0055-00 51

Sin embargo las ondas producidas por un haz láser cumplen unas características quelas hacen únicas para determinados propósitos. A continuación se exponen estos cincorasgos de los haces láser.

3.2.3.1 Monocromaticidad

Los láseres producen luz de un solo color, es decir, su luz es monocromática. La luzcomún contiene todos los colores de la luz visible (el espectro), que combinados seconvierten en blanco. Los haces de luz láser han sido producidos en todos los colores delarco iris (si bien el más común es el rojo), y también en muchos tipos de luz invisible; peroun láser determinado sólo puede emitir única y exclusivamente un solo color. Existenláseres sintonizables que pueden ser ajustados para producir diversos colores, pero inclusoéstos no pueden emitir más que un color único en un momento dado. Determinados láseres,pueden emitir varias frecuencias monocromáticas al mismo tiempo, pero no un espectrocontinuo que contenga todos los colores de la luz visible como pueda hacerlo unabombilla. Además, existen numerosos láseres que proyectan luz invisible, como lainfrarroja y la ultravioleta

3.2.3.2 Coherencia espacial

Si se produce una sección perpendicular al eje de traslación en un haz láser ycomprobamos la diferencia de fase entre dos puntos, uno en la periferia y otro en el centro,se puede comprobar que ambos tienen la diferencia de fase constante.

Esto significa que todas las ondas luminosas procedentes de un láser se acoplanordenadamente entre sí. Una luz corriente, como la procedente de una bombilla, generaondas luminosas que comienzan en diferentes momentos y se desplazan en direccionesdiversas. Algo parecido a lo que ocurre cuando se arroja un puñado de piedrecitas en unlago. Lo único que se crean son pequeñas salpicaduras y algunas ondulaciones. Ahora bien,si se arrojan las mismas piedrecitas una a una con una frecuencia exactamente regular yjusto en el mismo sitio, puede generarse una ola en el agua de mayor magnitud. Así actúaun láser, y esta propiedad especial puede tener diversas utilidades.

3.2.3.3 Direccionabilidad

Esta cualidad proviene del efecto de la cavidad resonante donde se encuentra elmedio activo. Las múltiples idas y venidas cruzando el material producen que las ondascon una frecuencia distinta de la que se permite en la cavidad resonante sean destruidasmientras que aquellas cuya frecuencia está en resonancia con la cavidad se vansucesivamente sumando hasta obtener un haz saliente de ondas con la misma frecuencia.Esto produce que el ángulo de divergencia sea mínimo y por tanto permite dirigir el rayo aun sitio en concreto.

Los haces láser son estrechos y no se dispersan como los demás haces de luz. Sesabe que ni la luz de un potente foco logra desplazarse muy lejos: si se enfoca hacia elfirmamento, su rayo parece desvanecerse de inmediato. El haz de luz comienza a

Page 16: 3 Luze Structur Ada

Luz Estructurada Rubén Collado Hernández

52 GVA-FAIS-UPM®PFC0055-00

esparcirse en el memento en que sale del foco, hasta alcanzar tal grado de dispersión quellega a perder su utilidad. Sin embargo, se han logrado reflejar haces láser de pocos vatiosde potencia sobre la luna y su luz era todavía lo suficientemente brillante para verla desdela tierra. Uno de los primeros haces láser que se disparó contra la luna en 1962 sólo llegó adispersarse cuatro kilómetros sobre la superficie lunar: no está mal si se considera que sehabía desplazado cuatrocientos mil kilómetros.

3.2.3.4 Polarización

La onda láser como onda electromagnética lleva asociada un campo eléctrico E yun campo magnético H perpendiculares entre sí y a la dirección del movimiento.Centrándose en el campo eléctrico se puede comprobar que éste vibra en una direcciónconcreta y definida a diferencia de la luz normal.

Las diferentes formas de polarización son la polarización lineal y la elíptica. Laprimera se produce cuando el campo eléctrico sólo tiene componentes x e y. La segunda seproduce cuando existe un cierto desfase entre las dos componentes del campo Ex y Ey

produciéndose una elipse a lo largo del tiempo.

3.2.3.5 Modos de haz láser

Debido a que el medio activo se encuentra dentro de una cavidad óptica resonante,se conoce como modos de un haz a las distribuciones del campo electromagnético quecumplen las ecuaciones de Maxwell y las ecuaciones del contorno de una cavidad. Estosvienen representados por las siglas TEM que significa que el campo eléctrico y elmagnético son perpendiculares a la dirección de propagación. Los modos deben cumplirdos condiciones:

• El cambio de fase total de la onda al realizar un camino de ida y vuelta debe ser2πq donde:

Lq =2

λ

siendo L la longitud de la cavidad en metros. El número q se conoce comomodo longitudinal.

• La distribución de campo en una sección transversal de la cavidad debereproducirse a sí misma después de un camino de ida y vuelta. A estasdistribuciones se las conoce como modo transversal.

Por tanto tenemos que el modo longitudinal hace referencia al comportamientoaxial del modo e influye en la monocromaticidad y longitud de coherencia, mientras que elmodo transversal hace referencia al comportamiento de la sección del haz e influye en eldiámetro del haz, divergencia e intensidad.

Los modos posibles se muestran en la Figura 3.7.

(3.4)

Page 17: 3 Luze Structur Ada

Rubén Collado Hernández Luz Estructurada

GVA-FAIS-UPM®PFC0055-00 53

Los índices m y n hacen referencia a los nulos horizontales y verticales del haz.

3.2.4 Implementación del sistema láser

Una forma de conseguir una buena distinción de la línea láser sobre el objeto esaprovechar las características de coherencia de la luz láser. Una fuente de este tipo emiteen un rango de frecuencias muy estrecho y para una serie de frecuencias discretas,llamadas modos axiales de operación.

Como ya se ha visto, la oscilación láser se genera cuando las ondas luminosas sereplican dentro del circuito resonador, sumándose sus campos eléctricos en fase. Conocidoel rango de frecuencias de emisión de la fuente láser, se puede diseñar el sistema paratrabajar únicamente en esas frecuencias. Para ello hay que considerar las característicastanto de la óptica como del sensor CCD.

Aquí aparece uno de los problemas principales en el diseño del sistema, pues a lahora de elegir un láser hay que tener en cuenta el ambiente en que se va a utilizar. Cuandose trabaja con condiciones ambientales variables, esto es, la luz solar a distintas horas deldía, se puede recurrir a un filtro con una determinado ancho de banda, lo que consigueminimizar la influencia del ambiente y que no sea necesario una fuente de luz láserdemasiado potente. Pero se debe tener en cuenta que si el filtro posee una transmitanciabaja, puede restar visibilidad a la línea láser.

Figura 3. 7: Modos de haz láser

Page 18: 3 Luze Structur Ada

Luz Estructurada Rubén Collado Hernández

54 GVA-FAIS-UPM®PFC0055-00

En el proyecto que nos ocupa, se optó directamente por aislar la estructura deadquisición y no implementar filtro alguno, puesto que se pueden considerar condicionesambientales estables.

3.2.5 Clasificación de los láseres

Aunque se pueden clasificar de gran cantidad de maneras, la más extendida es laclasificación en función de su medio activo. Además se va a hablar de cómo se calculan losrendimientos en este tipo de dispositivos.

Los diferentes coeficientes para hallar el rendimiento son:

• El coeficiente de eficiencia cuántica (ηc) representa el cociente entre la energía láserproducida por el sistema y la energía suministrada al sistema en forma de bombeo.

• El coeficiente de eficiencia cuántica de bombeo (ηb) representa la fracción de átomosque realiza la transición láser del total de átomos que se encuentran en el nivel superior.

El producto de los dos anteriores constituye la eficiencia máxima teórica.

• El coeficiente de rendimiento electroóptico (ηeo) representa la relación entre la potenciade salida del láser y la potencia en la descarga eléctrica. Este coeficiente sólo se puedeemplear en aquellos que usen como sistema de bombeo la descarga eléctrica.

• El coeficiente de rendimiento global (ηglobal) representa la relación entre la potencia delláser de salida y la potencia consumida total por el generador.

Tipo HeNe Argon Ruby Ruby NdYAG GaAlAs LED

MedioActivo

Gas Gas Cristal enestadosólido

Estadosólido

conmutado

Estadosólido

conmutado

Semi-conductor

Semi-conductor

Energía 5 mW 1.5 W 1 J 50 mJ 250 mJ 10 mW 20 mW

Figura 3.8: Radiación solar y tramitancia de dos filtros

Page 19: 3 Luze Structur Ada

Rubén Collado Hernández Luz Estructurada

GVA-FAIS-UPM®PFC0055-00 55

Longitud deonda

632.8nm

514.5nm

694.3 nm 694.3 nm 1064 nm 820 nm 880 nm

Duración delpulso

cw cw 350 µs(FR)

30 ns (QS) 10 ns (QS) cw cw

Divergencia 1 mrad 1 mrad 5 mrad 5 mrad 5 mrad 20° 40°

Ancho debanda

1.5 GHz 1 GHz 330 GHz 330 GHz 180 GHz 4 nm 50 nm

Tiempo devida media

100 ns 3 ms 3 ms 550 µs 1 ns

Indice derefracción

1 1 1.5 1.5 1.82 3.6

Costeaproximado

£800 £25000 £35000 £15000 £35000 £200 £0.40

3.2.6 Condiciones de seguridad láser

Los láseres como cualquier herramienta que se emplea para producir o fabricarobjetos necesita un cuidado y una especial atención a su manejo. A continuación seexponen algunos de los efectos que pueden producir, según [INSHT98].

3.2.6.1 Efectos del láser en los seres vivos

3.2.6.1.1 Efectos biológicos

Este tipo de efectos son los que se producen cuando se enfoca un láser sobre lostejidos de seres vivos. Por la forma de utilización de esta herramienta el peligro primordialse encuentra en los ojos y la piel. Especial cuidado hay que tener cuando se emplea láseresque emiten luz en el espectro no visible tanto infrarrojo como ultravioleta ya que lapersona afectada no puede darse cuenta que sus ojos están recibiendo una gran cantidad deenergía que se deposita en sus ojos pudiéndole producir una ceguera irreversible.

Esto se produce debido a que el cristalino es capaz de enfocar ciertas longitudes deonda, sobre todo del espectro visible, que recibe del haz sobre la retina produciendo

Figura 3.9: Clasificación y características de diversos láseres

Page 20: 3 Luze Structur Ada

Luz Estructurada Rubén Collado Hernández

56 GVA-FAIS-UPM®PFC0055-00

quemaduras en esta y por consiguiente pérdidas de visión momentáneas o irreversiblesdependiendo del tiempo de la exposición al haz. Si la región dañada es la fóvea, la zonaencargada de la visión, se observaran puntos negros que dificultaran la visión, pero si laregión dañada es la zona periférica de la visión entonces sólo un especialista podrácomprobar el daño producido. Como se ha dicho anteriormente es responsable del daño esla longitud de onda, por lo que a continuación se exponen los daños en función de ésta:

• La radiación visible (400 a 700 nm) y la infrarroja A (700 a 1400 nm) llegan a la retinaproduciendo lesiones térmicas y fotoquímicas en la fóvea o en la región periférica.

• La radiación ultravioleta A (315 a 400 nm) se absorbe en el cristalino y producecatarátas.

• Las radiaciones ultravioleta B y C (180 a 315 nm) y la infrarroja B y C (1,4µm a 1mm) son detenidas en la córnea y produce fotoqueratitis y quemadura corneal.

En la piel los efectos no son tan dañinos debido a la alta capacidad de absorción quetiene la melanina de sus células pero no suele pasar de quemaduras que tarde o temprano sevuelven a regenerar.

3.2.6.1.2 Efectos térmicos

La gran cantidad de energía que contiene un haz láser produce un aumento de latemperatura de las células que será mayor cuanto mayor sea el tiempo de exposición. Esteefecto se emplea en medicina para las operaciones en las cuales se suelda la retina que sedesprende.

3.2.6.1.3 Efectos termoacústicos

El aumento de temperatura en las células provoca que el componente líquido deestas se transforme en gas produciendo la destrucción de éstas. La energía del haz setransforma en una onda de compresión mecánica.

3.2.6.2 Riesgos asociados al uso del láser

Además del láser en sí mismo, al estar dentro de un proceso de fabricación hayotros factores de riesgos como por ejemplo el riesgo eléctrico debido a la energía necesariapara efectuar el bombeo. En este caso el peligro es la propia corriente eléctrica y lasmedidas de protección serán las correspondientes a la electricidad.

Otro tipo de riesgo es el factor químico debido a las sustancias que se emplean paragenerar energía sobre todo en láseres de gas y por incidir el láser sobre alguna determinadasustancia que sea o produzca un gas. Los peligros más comunes son las intoxicaciones porhumo, gas, etc y las posibles explosiones debidas a gases inflamables.

Page 21: 3 Luze Structur Ada

Rubén Collado Hernández Luz Estructurada

GVA-FAIS-UPM®PFC0055-00 57

3.2.6.3 Clasificación de seguridad en los sistemas láser

Debido a todos los riesgos anteriormente citados a la peligrosidad que conlleva suuso, se han creado leyes y normas con respecto a la seguridad en el trabajo que clasificanlos láseres en función de lo que se conoce como LEA (límites de emisión admisibles) yEMP (exposición máxima permisible)

3.2.6.3.1 Clase I

Los láseres más seguros ya sea porque no sobrepasa el EMP o porque está aisladodel contacto humano.

3.2.6.3.2 Clase II

Láseres de poca potencia que emiten radiación visible. Estos láseres no sonestrictamente seguros pero el parpadeo del ojo supone una protección suficiente.

3.2.6.3.3 Clase IIIA

Láseres de 1 a 5mW de potencia en el espectro visible. La irradiancia en cualquierpunto del haz no debe sobrepasar los 25W/m2.

La visión directa de un haz de esta clase con ayudas óptica puede ser peligrosa,aunque para láseres que emiten en el espectro visible, la protección del ojo se producemediante el parpadeo.

3.2.6.3.4 Clase IIIB

Los láseres continuos de este tipo no pueden sobrepasar los 0,5W y la exposiciónde los pulsados debe ser menor de 105J/m2.

La visión directa del haz es peligrosa mientras que la radiación difusa no lo es . Ladistancia mínima es de 13cm y tiempo 10 segundos.

3.2.6.3.5 Clase IV

Láseres cuya potencia sobrepasa los LEAs especificados para la clase IIIB.

Estos láseres pueden producir reflexiones difusas peligrosas, lesiones en la piel, yconstituir peligro de incendio.

Page 22: 3 Luze Structur Ada

Luz Estructurada Rubén Collado Hernández

58 GVA-FAIS-UPM®PFC0055-00

3.2.7 Aplicaciones del láser

Desde que fue inventado en 1960, el láser ha encontrado multitud de aplicaciones,hasta el punto de que alcanza una extensión mucho más amplia que la concebidaoriginariamente por los científicos que diseñaron los primeros modelos. También resultasorprendente la gran variedad de láseres existentes.

En un extremo de la gama se encuentran los láseres fabricados con minúsculaspastillas semiconductoras, similares a las utilizadas en circuitos electrónicos, con untamaño no superior al de un grano de sal. Gordon Gould uno de los pioneros en estecampo, confesó que le impresionaron cuando fueron presentados. En el extremo opuesto seencuentran los láseres bélicos del tamaño de un edificio, con los que experimentaactualmente el ejército.

Las tareas desempeñadas por los láseres van de lo mundano a lo esotérico si biencomparten un elemento común: son difíciles o totalmente imposibles con cualquier otroinstrumento. Los láseres son unos aparatos relativamente caros y, por lo general, sólo seutilizan por su propiedad de suministrar la forma y la cantidad de energía requeridas en ellugar deseado.

Charles H. Townes, uno de los inventores del láser y ganador del Premio Nobel, hadicho que, en su opinión, el láser abarcará una gama muy amplia de campos y lograráhacerlo prácticamente todo.

Los posibles usos del láser son casi ilimitados. El láser se ha convertido en unaherramienta valiosa en la industria, la investigación científica, la tecnología militar o elarte.

3.2.7.1 Industriales

Es posible enfocar sobre un punto pequeño un haz de láser potente, con lo que selogra una enorme densidad de energía. Los haces enfocados pueden calentar, fundir ovaporizar materiales de forma precisa. Por ejemplo, los láseres se usan para taladrardiamantes, modelar máquinas herramientas, recortar componentes microelectrónicos,calentar chips semiconductores, cortar patrones de moda, sintetizar nuevos materiales ointentar inducir la fusión nuclear controlada. El potente y breve pulso producido por unláser también hace posibles fotografías de alta velocidad con un tiempo de exposición dealgunas billonésimas de segundo. En la construcción de carreteras y edificios se utilizanláseres para alinear las estructuras.

3.2.7.2 Comunicaciones

La luz de un láser puede viajar largas distancias por el espacio exterior con unapequeña reducción de la intensidad de la señal. Debido a su alta frecuencia, la luz láserpuede transportar, por ejemplo, 1.000 veces más canales de televisión de lo que transportanlas microondas. Por ello, los láseres resultan ideales para las comunicaciones espaciales. Se

Page 23: 3 Luze Structur Ada

Rubén Collado Hernández Luz Estructurada

GVA-FAIS-UPM®PFC0055-00 59

han desarrollado fibras ópticas de baja pérdida que transmiten luz láser para lacomunicación terrestre, en sistemas telefónicos y redes de computadoras. También se hanempleado técnicas láser para registrar información con una densidad muy alta. Porejemplo, la luz láser simplifica el registro de un holograma, a partir del cual puedereconstruirse una imagen tridimensional mediante un rayo láser.

3.2.7.3 Medicina

Con haces intensos y estrechos de luz láser es posible cortar y cauterizar ciertostejidos en una fracción de segundo sin dañar al tejido sano circundante. El láser se haempleado para ‘soldar’ la retina, perforar el cráneo, reparar lesiones y cauterizar vasossanguíneos. También se han desarrollado técnicas láser para realizar pruebas de laboratorioen muestras biológicas pequeñas.

3.2.7.4 Tecnología militar

Los sistemas de guiado por láser paramisiles, aviones y satélites son muycomunes. La capacidad de los láseres decolorante sintonizables para excitar deforma selectiva un átomo o molécula puedellevar a métodos más eficientes para laseparación de isótopos en la fabricación dearmas nucleares.

Los aviones C.15 (F-18 Hornet) denuestro Ejército del Aire, están dotados deun sistema designador láser (Laser targetDesignator and Ranger LTD/R) que les capacita para el lanzamiento autónomo de bombasguiadas por Laser.

3.2.7.5 Ejemplos concretos

a) El láser de dióxido de carbono (CO2), debido a su gran potencia se emplea enaplicaciones de corte, soldadura, tratamiento térmicos, ... Puede emplearexactamente dos minutos en cortar una hoja de sierra de acero.

Figura 3. 11: Estudio de las propiedadesde la luz láser

Figura 3. 12: Láser de CO2cortando una hoja de acero

Figura 3. 10: Sistema de autoguiado porláser montado en un F-18

Page 24: 3 Luze Structur Ada

Luz Estructurada Rubén Collado Hernández

60 GVA-FAIS-UPM®PFC0055-00

b) El láser de He-Ne se emplea para lectura de códigos de barras, operaciones dealineamiento, control de calidad, detección de grietas en la superficie yobtención de hologramas.

c) El láser Nd-YAG se usa como elemento de corte, taladrado, marcado, comoaplicaciones científicas en fusiones nucleares, medidas de contaminantes y en lamedicina.

d) El láser de semiconductor destaca en el campo de las telecomunicaciones comoemisor de información a través de fibra óptica, reconocimiento dimensional,lectura de códigos de barras, CDs, impresoras.

e) El láser de colorantes se usa en la espectroscopia, disociación molecular,separación de isótopos, rotura de cálculos de riñón, etc.

Figura 3. 13: Lectores deetiquetas y códigos de barras

Figura 3. 14: Láser de helio-neon para medir el espacio

libre de un túnel

Figura 3. 15: En la cirugía ocular seemplea un haz láser de colorante líquido

transmitido por una fibra óptica

Page 25: 3 Luze Structur Ada

Rubén Collado Hernández Luz Estructurada

GVA-FAIS-UPM®PFC0055-00 61

3.2.8 Aplicación al sistema de Luz Estructurada: Obtención de lascaracterísticas de la pieza en la adquisición

Para el proyecto que nos ocupa se instaló un láser de semiconductor de clase II paragenerar el patrón luminoso.

Los láseres generan la proyección de un punto sobre una superficie y para unsistema de luz estructurada se necesita un plano que corte completamente la pieza. Paraello se montó el láser en un cilindro plástico de modo que a la salida del haz se pudierainterponer una óptica cilíndrica, suficiente para descomponer el rayo luminoso en un plano.

El montaje del láser no requiere ningún elemento más, exceptuando su fuente dealimentación. Para conseguir mejores resultados es preciso fijar firmemente el láser a laestructura, centrarlo y situarlo bien paralelo al plano de cámara. Otro aspecto a tener encuenta son las posibles imperfecciones que tenga la óptica, de modo que se generenirregularidades y discontinuidades en la línea de proyección.

3.2.9 Conclusiones

Haciendo un resumen de este apartado, hay que tener en cuenta diferentes puntosque se han tratado.

En primer lugar, se ha hecho una historia de la invención del láser incluyendo laforma en la que fue concebida la idea de su funcionamiento y cómo se llevó a cabo. Comose puede entender, el láser no fue destinado para las aplicaciones en que actualmente setiene en cuenta.

Posteriormente, se han comentado los principios básicos de funcionamiento de unláser, teniendo en cuenta lo que significa el proceso de inversión de población, y elbombeo del medio activo. Una vez comprendidos éstos, se comprende fácilmente elproceso de funcionamiento de este tipo de herramientas.

También, se han tenido en cuenta las características de este tipo de luz,monocromaticidad, coherencia, direccionabilidad y polarización, lo que la convierte en untipo de luz que puede ser empleada en determinadas aplicaciones con gran éxito. Además,se han comentado dos diferentes clasificaciones: una en función del tipo de medio activoque tenga, y otra en función de la peligrosidad que supone su uso, según los determinadosorganismos e institutos de seguridad e higiene.

Page 26: 3 Luze Structur Ada

Luz Estructurada Rubén Collado Hernández

62 GVA-FAIS-UPM®PFC0055-00

Por último, se han comentado algunos de los usos y aplicaciones de los láseres enfunción del medio activo que llevan, ya que tienen diferentes características y potencias, yse ha visto la posible aplicación al sistema de luz estructurada.

3.3 Sistema de cámara

La longitud de onda de la luz suele ser muy pequeña en comparación con el tamañode los obstáculos o aberturas que se encuentra a su, debido a lo cual, los efectos dedifracción de la luz pueden despreciarse. El estudio de estos casos, en los cuales es válidala aproximación de los rayos y en los que se propaga la luz en línea recta se conoce comoóptica geométrica, y es el principio de los sistemas de cámara. De este modo se comienzacon una introducción a la óptica, a través distintas lentes y sus características para estudiarla formación de las imágenes.

Mas tarde, se estudia el funcionamiento de distintos tipos de cámaras y laposibilidad de distorsiones o aberraciones ópticas.

3.3.1 Introducción a la óptica

La óptica es el elemento del sistema de visión que permite realizar de formaeficiente la proyección de los objetos de tres dimensiones a un plano. Es un elementofundamental en un sistema de visión artificial. Su correcta elección facilitará el éxito en elproyecto que se aborde.

Como se comentará mas adelante, una cámara no es mas que una caja oscura, a lacual se le ha realizado un pequeño orificio por el que la luz penetra. Con objeto deaumentar la luminosidad de la escena recogida por la cámara sin deteriorar la calidad de laimagen se procede a colocar en el mismo una lente convergente, cuya propiedadfundamental es la de hacer converger los distintos rayos divergentes que proceden de lospuntos de un objeto.

Las lentes se caracterizan porque son objetos refractores de la luz que tienen almenos una de sus caras curva. Entre los elementos más importantes a estudiar en las lentesse tiene:

• Centros de curvatura: Son los puntos de curvatura de los casquetes esféricos queconstituyen las superficies refractoras de la lente.

• Centro óptico: Es un punto en el interior de la lente que tiene la propiedad de quetodos los rayos que pasan por él no se desvían. Suele coincidir con el centro desimetría de la lente si ésta es simétrica.

• Eje principal: Es la recta que pasa por los centros de curvatura de cada superficiey por el centro óptico.

Page 27: 3 Luze Structur Ada

Rubén Collado Hernández Luz Estructurada

GVA-FAIS-UPM®PFC0055-00 63

• Focos: Son puntos sobre el eje principal que tienen las propiedades siguientes:

a) Todo rayo que incide sobre la lente paralelamente al eje principal sale dirigidohacia el foco

b) Todo rayo que incide sobre la lente pasando por el foco emerge paralelo al ejeprincipal.

• Distancia focal: Se llama distancia focal a la distancia que separa cada foco delcentro óptico.

Para determinar la posición de la imagen formada por una lente hay que considerarla refracción de cada superficie por separado con objeto de deducir una ecuación querelacione la distancia imagen con la distancia objeto, el radio de curvatura de cadasuperficie de la lente y el índice de refracción de la misma.

Consideraremos una lente muy delgada, de índice de refracción n rodeada de aire.Sean r1 y r2 los radios de curvatura de cada una de las superficies de la lente. Si un objetoestá a una distancia s de la primera superficie (y, por tanto, de la lente), puede encontrarsela distancia s1’ de la imagen debida a la refracción en la primera superficie, según:

11

1

'

1

r

n

s

n

s

−=+

Esta imagen no llega a formarse porque la luz se refracta de nuevo en la segundasuperficie. En la figura siguiente se muestra el caso en que la distancia imagen s1’ para laprimera superficie es negativa, indicando que sería una imagen virtual a la izquierda de lasuperficie. Los rayos dentro del vidrio, refractados por la primera superficie, divergencomo si procediesen del punto imagen P1’ . Estos inciden sobre la segunda superficieformando los mismos ángulos que si se encontrase un objeto en este punto imagen. Porconsiguiente, la imagen dada por la primera superficie se convierte en objeto para lasegunda superficie. Como la lente es de grosor despreciable, la distancia objeto es de valorigual a s1’, pero como las distancias objeto delante de la superficie son positivas, mientrasque las distancias imagen son negativas allí, la distancia objeto para la segunda superficiees s2=-s1’. La distancia imagen para la segunda superficie es la distancia imagen final s’para la lente.

21

1

'

1

' r

n

ss

n −=+−

(3.5)

(3.6)

Page 28: 3 Luze Structur Ada

Luz Estructurada Rubén Collado Hernández

64 GVA-FAIS-UPM®PFC0055-00

Podemos eliminar la distancia imagen correspondiente a la primera superficie s1’sumando las ecuaciones anteriores. Se obtiene así:

−−=+

21

11)1(

'

11

rrn

ss

La ecuación anterior da la distancia imagen s’ en función de la distancia objeto s yde las propiedades de la lente delgada (r1, r2 y su índice de refracción n). Como en el casode los espejos, la distancia focal de una lente delgada se define como la distancia imagenque corresponde a una distancia objeto infinita. Haciendo s igual a infinito y escribiendo fen lugar de la distancia imagen s’, se tiene:

−−=

21

11)1(

1

rrn

f

Esta ecuación se denomina ecuación del constructor de lentes; nos da la distanciafocal de una lente delgada en función de sus propiedades, y según esto se tiene:

fss

1

'

11 =+

que se denomina ecuación de la lente delgada.

Figura 3. 16: Modelado de una lente delgada

Figura 3. 17: Rayos correspondientes a ondas planas que incidensobre una lente convergente

(3.7)

(3.8)

(3.9)

Page 29: 3 Luze Structur Ada

Rubén Collado Hernández Luz Estructurada

GVA-FAIS-UPM®PFC0055-00 65

3.3.2 Historia de las cámaras

La primera cámara que se conoce fue inventada el siglo pasado. Esta no era masque una caja estanca a la luz que tenía un pequeño orificio. Este se abría mediante undispositivo mecánico durante un pequeño lapsus de tiempo. La escena se proyectaba sobreel plano de imagen en el que se colocaba un cristal que había sido previamente tratado conaluros de plata, muy sensibles a la luz. La tecnología de la fotografía a variadoespectacularmente hasta hoy día, pero el principio sigue siendo el mismo.

En 1897 se invento el tubo de rayos catódicos, ofreciendo la oportunidad deimágenes no fotográficas, pero no fue hasta 1923 hasta que la cámara fue perfeccionadopara poder adquirir imágenes. El sistema usaba un tubo de vacío, una pantalla sensible a laluz y un haz de electrones para el escaneado de la señal. La llegada en 1930 de la televisióncomercial hizo que las cámaras de vídeo alcanzaran una importancia transcendental.

En 1970 se inventó el primer sensor de estado sólido. La imagen era formada por laconversión de los fotones a cargas eléctricas. Esta transformación se realiza por unelemento semiconductor llamado pixel que se disponía en forma matricial. Las cargaseléctricas eran leídas posteriormente por filas y por columnas, transformando la señal devídeo en información eléctrica. Se inicio entonces una batalla por la dominación delmercado entre los CCD y las cámaras de tubo de vacío. Esta fue ganada por el CCD antessus innumerables ventajas, como espacio, inmunidad a vibraciones, coste de fabricación,etc. Una batalla similar se libra en nuestros días entre las clásicas cámaras fotográficas ylas digitales con CCD.

3.3.3 Funcionamiento y tipos de cámaras

Si se coge una de las primeras cámaras y una cámara actual se puede observar unagran cantidad de diferencias en cuanto a su estética pero se puede asegurar que elfuncionamiento sigue siendo el mismo que el de entonces. Una caja oscura con un agujeropor donde pasaba la luz y un plano donde queda reflejada la imagen. En las cámarasfotográficas la imagen queda reflejada en una película y en una cámara de vídeo en unelemento sensor de un tamaño mucho más pequeño.

El desarrollo en los sistemas de cámara ha permitido que se pase desde cámarasgigantes que había que transportarlas en los hombros, a cámaras cada vez más pequeñascasi minúsculas. Esto es posible gracias a la tecnología que fue desarrollando elementossensores cada vez mejores y más pequeños. Hoy en día la batalla la tiene ganada lascámaras digitales o CCD sobre las cámaras de tubo.

La cámara de tubo más empleada es el vidicón que está compuesta por unosfotodiodos que generan una señal proporcional a la luz que recibe. A continuación serastrea la superficie del vidicón con haces de electrones que si tropiezan con una zonaoscura los electrones rebotan y si lo hacen con una zona clara los electrones son absorbidospor la pantalla. Según el rastreo se transforma el flujo de electrones en una imagen devídeo.

Page 30: 3 Luze Structur Ada

Luz Estructurada Rubén Collado Hernández

66 GVA-FAIS-UPM®PFC0055-00

Las cámaras de estado sólido se caracterizan porque tiene como elementos sensoresa fotodiodos o dispositivos de transferencia. Los tipos de dispositivos son tres CCD(Charge Coupled Deviced), CID (Charge InjectionDeviced) y TDI (Time DelayIntegration), según [Sanch98].

3.3.3.1 Sensores CCD

A continuación se va a hablar de cómo es el funcionamiento de lo que se conocecomo elementos sensores de un CCD. La Figura 3.18 muestra la estructura de treselementos sensores:

De esta manera se tiene que los elementos sensores constan de un substrato desilicio de tipo P, una capa aislante de óxido de silicio transparente y un conjunto deelectrodos. Los fotones que inciden son absorbidos en el semiconductor proporcionandoque los huecos se combinen con los electrones produciendo una carga eléctricaproporcional a la intensidad de luz que incide y al período de integración. La informaciónse traspasa según registros de desplazamientos.

Sin embargo una vez que se tiene la información recogida en estas células loimportante es transferirla a donde se pueda utilizar. Se tienen tres formas de manera que sepase la información y deje los elementos sensores libres para que puedan volver a cogerotra imagen: Transferencia de cuadro, Transferencia interlínea, Transferencia de cuadrointerlínea.

3.3.3.1.1 Transferencia de cuadro

Este es el procedimiento más sencillo y consiste en dividir en dos áreas iguales elchip de silicio. De esta manera se recoge la imagen en la primera parte y se vuelca lainformación tal cual de una zona a la otra que está lo convenientemente protegida de la luzcomo para que no se pueda producir ningún cambio en la información. Esto permite quemientras que se obtiene una segunda imagen en la zona adaptada para ello, la primeraimagen que ahora está almacenada en la segunda zona se envía fila a fila hacia el registrohorizontal de salida a frecuencia de línea.

Figura 3. 18: Esquema de un sensor CCD

Page 31: 3 Luze Structur Ada

Rubén Collado Hernández Luz Estructurada

GVA-FAIS-UPM®PFC0055-00 67

Como inconvenientes más importantes se tienen que al realizar una doble funciónlos mismos elementos sensores no se consigue una buena eficiencia en ambas funciones.Además para mantener la información limpia y que no se vea perjudicada por fotones en elmomento de la transmisión se hace necesaria la presencia de un obturador mecánico.

3.3.3.1.2 Transferencia Interlínea

Con este tipo de transferencia se consigue eliminar el obturador mecánico ya que lainformación no corre el peligro de “ensuciarse” por posibles rayos de luz indeseables en elproceso de transferencia. En este caso se tienen los elementos sensores y los elementos dealmacenamiento entrelazados columna a columna lo que permite que una vez que se harecogido la información en los elementos sensores se pasa la información al elementocontiguo para que sean leídas posteriormente.

Si se compara este procedimiento con el anterior se obtiene que existe una funcióndefinida de captación de la imagen por un tipo de elementos y otra función de transferenciaque es realizada por otros elementos pudiendo mejorar las funciones por separadoobteniendo la máxima eficiencia en la transferencia de carga.

Figura 3. 19: Transferencia por cuadro

Page 32: 3 Luze Structur Ada

Luz Estructurada Rubén Collado Hernández

68 GVA-FAIS-UPM®PFC0055-00

3.3.3.1.3 Transferencia de cuadro interlínea

Este tipo de transferencia incorpora los rasgos de la transferencia de cuadro y de latransferencia interlínea, ya que dispone de unos elementos sensores que captan laintensidad luminosa y que mandan la información horizontalmente a unos elementosreceptores para permitir a los anteriores el poder captar nueva información. Mientras lascélulas receptoras vuelcan la información verticalmente a una zona con igual número deelementos sensibles que la primera zona. Es aquí desde donde se mandan a la salida lasdiferentes líneas. En este caso como la información permanece muy poco tiempo ya que estransferida de uno a otro registro no se corre el peligro de que se pueda contaminar, apartede que como en el caso anterior no es necesaria la presencia de un obturador mecánico quelimite la cantidad de luz en el proceso de desplazamiento.

Sin embargo como inconveniente presenta el mismo que el primer tipo detransferencia, es decir, sólo una parte es sensible a la luz en lugar de todo el CCD lo quepuede ocasionar que se pierda información con respecto a la imagen anterior.

Figura 3.20: Transferencia interlínea

Page 33: 3 Luze Structur Ada

Rubén Collado Hernández Luz Estructurada

GVA-FAIS-UPM®PFC0055-00 69

3.3.3.2 Sensores CID

Este tipo de sensores se está empezando a utilizar a gran escala debido a losgrandes avances que se han producido en la tecnología actualmente. Su filosofía de trabajoes el crear matrices de dos dimensiones X, Y donde se guardan las imágenes por medio depunteros a direcciones. Este rasgo permite que se pueda leer directamente el valor de unpixel cualquiera en lugar de tener que leer toda la imagen dando lugar a las ventajas queesto conlleva sobre todo en cuestión de tiempo de proceso computacional. Además está laventaja que la señal no corre el peligro de poder ser alterada en el camino hasta que sealeída ya que no hay pasos intermedios entre el propio elemento sensor y la llamada paraver su valor.

Otra de las ventajas que presenta al estar los pixeles aislados unos de otros es quelos fenómenos conocidos tales como la “imagen movida” o efectos de sobrecargaslumínicas como sucede en el caso de la transferencia interlínea en este tipo de sensores no

Figura 3. 21: Transferencia por cuadro interlínea

Page 34: 3 Luze Structur Ada

Luz Estructurada Rubén Collado Hernández

70 GVA-FAIS-UPM®PFC0055-00

ocurre ya que cada pixel está separado como ya se ha explicado anteriormente. Por todoesto hace que este tipo de sensores sea el mejor indicado para técnicas donde se requieregran precisión ya que no desaparecen las zonas próximas a los bordes de los elementossensores.

3.3.3.3 Sensores TDI

De aspecto y de manera muy parecida a los sensores CCD, los TDI se caracterizanporque toman varias imágenes de un mismo objeto. Si éste esta parado en un mismo punto,el objeto aparecerá en la misma posición durante todas las imágenes pero si está enmovimiento la cámara al tomar diferentes imágenes tendrá el objeto en diferentes puntos,es decir se necesita que la cámara se mueva con el objeto. Esto implica que el tiempo deintegración es mayor y por tanto se necesitará menos luz.

La diferencia esencial es que mientras en el CCD se hace un muestreo de lainformación completa en el TDI sólo se muestrea una línea con la consiguiente ventaja entiempos de trabajo.

3.3.4 Distorsiones o aberraciones ópticas

Cuando los rayos procedentes de un punto objeto no se enfocan todos en un sólopunto imagen, la imagen borrosa resultante de la imagen se denomina aberración. Laslentes, incluso delgadas, presentan aberraciones, denominadas también defectos.Aberración, según la Real Academia Española de la Lengua es: “cualquier defecto de unalente que produce una visión defectuosa”. Estas aberraciones pueden manifestarse dediferentes formas, según las propiedades que traten de obtenerse.

Generalmente se distinguen dos tipos de aberraciones: cromáticas y geométricas.

3.3.4.1 Aberraciones cromáticas

Se debe al diferente índice de refracción de un rayo luminoso y provoca manchascoloreadas en el contorno de la lente, debido a que ésta actúa como un prismadescomponiendo la luz blanca.

Figura 3. 22: Aberración cromática

Page 35: 3 Luze Structur Ada

Rubén Collado Hernández Luz Estructurada

GVA-FAIS-UPM®PFC0055-00 71

Se distinguen dos tipos:

• Longitudinal : provoca que los rayos de distintas longitudes de onda procedentes de unpunto sobre el eje óptico de la lente se enfoquen sobre diferentes planos de imagen.

• Lateral : ocurre debido a que la magnificación de la lente cambia según la longitud deonda del rayo, lo que provoca un desplazamiento lateral de los puntos de convergencia.

La aberración cromática puede corregirse parcialmente utilizando combinacionesde lentes en lugar de una sola. La lente de una buena cámara fotográfica contienenormalmente seis elementos para corregir las diversas aberraciones que se encuentranpresentes.

3.3.4.2 Aberraciones geométricas

Existen cinco tipos de aberraciones geométricas o de Seidel:

• Aberración esférica: se produce cuando los rayos que inciden sobre la lente lejosdel eje óptico se desvían mucho más que los próximos al mismo, con elresultado de que no todos los rayos se enfocan en un único punto. En lugar deello, la imagen tiene un aspecto de disco circular. Esta zona, representada con laletra C en la figura, se denomina círculo de mínima confusión. Esta aberraciónpuede reducirse bloqueando las partes exteriores de la lente y reduciendo, comoconsecuencia, el diámetro del círculo de mínima confusión, aunque así sereduce también la cantidad de luz que llega a la imagen.

• Aberración de coma: Esta aberración es similar a la anterior salvo que afecta alos rayos provenientes de puntos que no están en el eje de la lente. En este casoel punto tiene forma de coma. Se corrige de forma igual a la aberración esférica.

• Astigmatismo: Este fenómeno se produce cuando los rayos provenientes de unpunto del objeto se cortan primero en una recta horizontal y luego en una rectavertical dando origen a dos imágenes llamadas primaria y secundaria

Figura 3. 23: Aberración esférica

Page 36: 3 Luze Structur Ada

Luz Estructurada Rubén Collado Hernández

72 GVA-FAIS-UPM®PFC0055-00

respectivamente. Esto tiene como consecuencia que no se pueda enfocar unpunto del objeto sobre un punto de la imagen.

• Curvatura de campo: Este problema afecta al noventa y cinco por ciento detodas las lentes ya que es un problema de fabricación. Su fundamento está enque no es posible enfocar una imagen plana con una lente esférica porque si seenfoca el centro los bordes aparecerán desenfocados y viceversa.

• Distorsión: Mientras que las aberraciones anteriores se referían a la imposibilidadde enfocar un punto en una imagen, la distorsión se produce por una variacióndel aumento con la distancia al eje. Si el aumento crece con la distancia laspartes exteriores del objeto son aumentadas desproporcionalmente tomando laimagen un aspecto de cojín (distorsión positiva). Si por el contrario hay unadisminución del aumento con la distancia la imagen toma una forma de barril(distorsión negativa).

3.3.5 Aplicación al sistema de Luz Estructurada: Elección e instalaciónde la cámara

A lo largo del estudio se han utilizado tres cámaras CCD: la Jai-CV235, la Watec902 y la Evi-D31 de Sony, esta última con movimiento pan-tilt.

La situación espacial del sistema se describe en el apartado 3.4.3.

3.3.6 Conclusiones

En primer lugar, se ha estudiado el funcionamiento de las cámaras. Se ha pasadopor alto las antiguas cámaras de tubo ya que en la actualidad su uso es cada vez menosfrecuente debido a que las cámaras CCD han ido cada vez más acaparando el mercadodebido a sus bajos precios y buenas prestaciones. Además se ha explicado elfuncionamiento de los sensores CCD en sus tres variantes actuales así como los menosconocidos tipos de cámara como son las CID y TDI.

Figura 3. 24: Efectos cojín o corsé y barril

Page 37: 3 Luze Structur Ada

Rubén Collado Hernández Luz Estructurada

GVA-FAIS-UPM®PFC0055-00 73

En segundo lugar se ha entrado en el campo de la óptica para explicar algunaspropiedades y conceptos relacionados con el uso de lentes, elementos imprescindibles sihablamos de las cámaras. Se han definido relaciones básicas que serán útiles en lacalibración además de los principales problemas a los que nos enfrentamos con su uso, lasllamadas aberraciones.

3.4 Estructuración del ambiente

Cuando se habla de una ambiente estructurado, se suponen escenas donde todos losobjetos son fácilmente modelizables matemáticamente. Así, una buena estructuración delambiente es básico para obtener resultados de calidad.

El principal problema es la iluminación. Para la realización de medidas o laadquisición de una pieza, la fuente de iluminación es el láser. El láser emite unadeterminada longitud de onda, mientras que la cámara recoge todo espectro visible y de unmodo monocromático, ante lo cual existe la posibilidad de que aparezcan brillos en unaescena que se puedan confundir con el propio láser.

Una posible solución es utilizar filtros adecuados a la longitud de onda que presentael láser, pero eso merma en mucho la capacidad de la cámara. Así, la solución propuestafue cerrar la estructura de adquisición con planchas de madera y una sencilla puerta, comose muestra en el apartado 3.4.1.

Un segundo problema surge ante la necesidad de iluminar artificialmente lasuperficie cuando se trata de calibrar la cámara, de modo que la rejilla sea perfectamentevisible. Para ello se realizó un estudio de luces a través de diversos ensayos y pruebas condistintas fuentes de iluminación, según el apartado 3.4.2.

Por ultimo se hará mención a la optimización de los recursos existentes, en cuanto ala colocación espacial del sistema cámara-láser y de la fuente de iluminación.

3.4.1 Aislamiento del sistema

Inicialmente, la estructura metálica de adquisición se encontraba sometida a la luzambiental y a la luz artificial propia del laboratorio. Esto suponía que no era lo mismocalibrar, por ejemplo, por la mañana o por la tarde y se complicaban innecesariamenteaspectos tan importantes como la segmentación o la eliminación de brillos.

Ante esto, el sistema se cerró con un entramado de madera de modo que sólo sepudiera acceder a él a través de una sencilla puerta frontal, como se muestra en la Figura3.25.

Page 38: 3 Luze Structur Ada

Luz Estructurada Rubén Collado Hernández

74 GVA-FAIS-UPM®PFC0055-00

El proceso se realizó enteramente en el GVA y se dispuso que la parte superiorfuera desmontable, para colocar un sistema de iluminación auxiliar o simplemente realizartrabajos sobre la estructura.

3.4.2 Iluminación. Estudio de luces

Dentro de la estructura de un sistema de visión artificial, la iluminación es de vitalimportancia, ya no sólo por el realce que se consigue de la escena sino porqueposteriormente simplifica el análisis digital de la imagen. En este apartado nos ocuparemosde la iluminación de la rejilla de calibración la cual, si no es satisfactoria, provocará erroresen el posterior estudio de blobs.

Figura 3.26: Importancia de la luz en la iluminación de una escena

Figura 3.25: Estructura antes y después de su aislamiento

Page 39: 3 Luze Structur Ada

Rubén Collado Hernández Luz Estructurada

GVA-FAIS-UPM®PFC0055-00 75

3.4.2.1 Naturaleza de la luz

La luz ha estado intrigando a la humanidad durante siglos. Las teorías más antiguasconsideraban a la luz como algo que era emitido por el ojo. Posteriormente se comprendióque la luz debía proceder de los objetos que se veían y que entraba en el ojo produciendo lasensación de la visión. La cuestión de si la luz está compuesta por un haz de partículas o sies un cierto tipo de movimiento ondulatorio ha sido una de las más interesantes en lahistoria de la ciencia.

Entre los proponentes y defensores de la teoría corpuscular de la luz el másinfluyente fue Newton, explicando las leyes de la reflexión y la refracción, y en cuanto a lateoría ondulatoria de la luz, sus valedores principales fueron Huygens y Hooke, con supropia teoría de la propagación de las ondas.

Newton se dio cuenta de las ventajas de la teoría ondulatoria, no obstante, larechazó debido a la aparente propagación rectilínea de la luz. Su gran reputación yautoridad hizo que sus seguidores se unieran estrictamente a este rechazo. Así, la teoríacorpuscular de la luz de Newton fue aceptada durante más de un siglo.

Estudios paralelos demostraron que la teoría ondulatoria es generalmente correctacuando describe la propagación de la luz, aunque si es cierto que falla al explicar algunasde sus propiedades.

En el siglo XX se admite que en la emisión de la luz intervienen electrones concantidades de energía determinadas o discretas. Las partículas de luz se denominan fotonesy su energía se encuentra cuantizada a través de la famosa relación de Einstein E=h·f. Nose logró una comprensión completa de la naturaleza dual de la luz hasta la década de los20, con diversos experimentos y el desarrollo de la teoría cuántica.

3.4.2.2 Propiedades de la luz

Planteada la coexistencia de ambas teorías en la actualidad, es posible comprenderlas principales propiedades de la luz, a saber: velocidad, reflexión, refracción, polarización,interferencia y difracción.

3.4.2.2.1 Velocidad de la luz

El primer esfuerzo para medir la velocidad de propagación de la luz fue hecho porGalileo, que propuso medir el tiempo que tarda la luz en recorrer dos veces la distanciaentre dos observadores, pero su velocidad es tan grande y la respuesta humana es tanfluctuante que fue incapaz de dar un valor razonable.

La primera indicación de su verdadero valor procedió de observacionesastronómicas basadas en la medida del periodo de una de las lunas de Júpiter, a través deltiempo entre dos eclipses, por el astrónomo Ole Römer en 1675.

Page 40: 3 Luze Structur Ada

Luz Estructurada Rubén Collado Hernández

76 GVA-FAIS-UPM®PFC0055-00

Estos estudios fueron mejorados por Fizen, Foucault y sobre todo por A. A.Michelson que realizó mediciones precisas de la velocidad de la luz entre 1880 y 1930.Diseñó un espejo octogonal rotatorio sobre el que incidía un foco luminoso para mandar undestello a otro espejo situado a 35 Km, que incidía de nuevo para ser observado por untelescopio. Conocida la distancia y el número de revoluciones por segundo, Michelsonestimó la velocidad de la luz en 299.766 km/seg. En la actualidad, el último valor admitidoes de 299.790 km/seg.

3.4.2.2.2 Reflexión

Cuando unas ondas de cualquier tipo inciden sobre una barrera plana como unespejo, se generan nuevas ondas que se mueven alejándose de la barrera. Este fenómeno sedenomina reflexión.

El proceso físico se simplifica con la llamada ley de reflexión, válida para cualquiertipo de onda, según la cual el ángulo de reflexión θr es igual al ángulo de incidencia θi.

Figura 3.27: Estudio realizado por Michelson

Figura 3.28: Principios y estudios sobre la reflexión de la luz

Page 41: 3 Luze Structur Ada

Rubén Collado Hernández Luz Estructurada

GVA-FAIS-UPM®PFC0055-00 77

La reflexión en una superficie suave y lisa se denomina reflexión especular. Difierede la reflexión difusa que se produce en superficies rugosas, donde los rayos entran al ojoprocedentes de muchos puntos de reflexión. La reflexión de la luz tiene múltiplesaplicaciones, por ejemplo, la lectura de los discos compactos.

3.4.2.2.3 Refracción

Cuando un haz de luz incide sobre una superficie límite de separación entre dosmedios parte de la energía luminosa se refleja y parte entra en el segundo medio. Elcambio de dirección del rayo transmitido se denomina refracción y varía con la naturalezafísica de éste y con distintas longitudes de onda.

La refracción explica muchos fenómenos, como la apariencia de menorprofundidad de objetos en el agua, el arcoiris, los espejismos, los halos de la Luna, ...

3.4.2.2.4 Polarización

En toda onda transversal, la vibración es perpendicular la velocidad de propagaciónde la onda. Así, partiendo del principio de que la luz blanca está formada por vibracionesde todas las frecuencias posibles, se puede interponer entre la fuente luminosa y el ojo unmaterial polarizante, de modo que sólo pasarán a través de él componentes de la luz quevibren paralelas a su plano de transmisión.

Figura 3.29: Principios y estudios sobre la reflexión difusa

Figura 3.30: Principios y estudios sobre la refracción de la luz

Page 42: 3 Luze Structur Ada

Luz Estructurada Rubén Collado Hernández

78 GVA-FAIS-UPM®PFC0055-00

La polarización puede ser lineal, si la vibración se mantiene paralela a una línea fijaen el espacio, o circular, en caso de que los elementos se muevan describiendocircunferencias. Existen cuatro fenómenos que producen luz polarizada a partir de luz nopolarizada: absorción, dispersión, reflexión y birrefringencia.

3.4.2.2.5 Interferencia y difracción

Los fenómenos de singular importancia que distinguen las ondas de las partículasson la interferencia y la difracción. La interferencia es la combinación por superposición dedos o más ondas que se encuentran en un punto en el espacio. La difracción es ladesviación que sufren las ondas alrededor de los bordes y esquinas que se produce cuandouna porción de un frente de ondas se ve cortado o interrumpido por una barrera uobstáculo. El esquema de la onda resultante puede calcularse considerando cada punto delfrente de onda original como una fuente puntual de acuerdo con el principio de Huygens ycalculando el diagrama de interferencia que resulta de todas estas fuentes.

3.4.2.3 Tipos de iluminación

Básicamente se pueden citar los siguientes tipos de iluminación: direccional, difusa,a contraluz y estructurada.

3.4.2.3.1 Iluminación direccional

Consiste en una iluminación direccionada en algún sentido en el espacio paradestacar una característica concreta del objeto. La principal virtud es la creación desombras sobre el objeto, lo que puede ayudar a aumentar el contraste de partestridimensionales y obtener la consiguiente información 3D.

Figura 3.31: Interferencia Figura 3.32: Difracción

Page 43: 3 Luze Structur Ada

Rubén Collado Hernández Luz Estructurada

GVA-FAIS-UPM®PFC0055-00 79

La forma del haz luminoso depende de la aplicación y del objeto sometido aestudio, generalmente:

• Foco tipo punto

• Foco tipo área

• Foco tipo línea

• Foco tipo corona

3.4.2.3.2 Iluminación a contraluz

Es la más adecuada, si para el reconocimiento o medida de una pieza solo senecesita el contorno y es posible apoyar dicha pieza sobre una superficie transparente.Consiste en iluminar contra la cámara, dejando el objeto entre la cámara y la lámpara. Estatécnica proporciona imágenes con un alto contraste entre la pieza y el fondo, resultandofácilmente segmentable mediante una simple binarización aunque se pierden los detalles dela escena.

Las principales aplicaciones donde se comporta bien esta técnica de iluminaciónson para medir el grado de porosidad de ciertas sustancias y en inspección dimensionalpara calcular el tamaño de una pieza.

Figura 3.34: Foco tipo corona

Figura 3.35: Iluminación a contraluz

Page 44: 3 Luze Structur Ada

Luz Estructurada Rubén Collado Hernández

80 GVA-FAIS-UPM®PFC0055-00

3.4.2.3.3 Iluminación difusa

Se intenta que la luz incida en el objeto desde todas las direcciones y no solo desdela fuente luminosa. Con ello se eliminan sombras y reflejos.

3.4.2.3.4 Iluminación estructurada

Consiste en proyectar sobre la pieza unos patrones de luz conocidos modulados yobservando la luz reflejada, que también viene modulada, obtener información sobre laestructura de la superficie del objeto, la cual puede ser reconstruida mediante triangulación.Las fuentes de luz empleadas deben de ser especiales pues deben ser capaces de emitir luzestructurada y suelen ser láseres. Se usa para reconstrucciones 3D de objetos y conocer suforma.

3.4.2.4 Fuentes luminosas

Una vez estudiado la naturaleza y las propiedades de la luz y los diversos tipos deiluminación, es necesario buscar una fuente luminosa comercial que sea adecuada, en estecaso, para la iluminación de la rejilla de calibración.

3.4.2.4.1 Lámparas Incandescentes.

Es la fuente de iluminación más común y consiste en un filamento de tungstenohalágeno-tugsteno. Como ventaja tiene que existe gran cantidad de potencias comodesventaja, que reduce su luminosidad con el tiempo lo que puede provoca problemas enalgunos sistemas de visión

3.4.2.4.2 Tubos fluorescentes.

Más eficaces que las lámparas y suministran una luz más difusa, que es bueno parapiezas muy reflectoras. Existe una gran variedad, tanto en forma (circulares lineales...),como en tamaño con lo que son ampliamente utilizados. Presentan el pequeñoinconveniente de que, como las cámaras muestrean a 1000 imágenes por segundo, lafrecuencia de operación del tubo fluorescente debe ser mucho mayo para iluminar bien la

Page 45: 3 Luze Structur Ada

Rubén Collado Hernández Luz Estructurada

GVA-FAIS-UPM®PFC0055-00 81

escena. La respuesta espectral de los tubos es muy amplia pudiéndose obtener resultadosespectaculares si adatamos las características de la cámara con un tubo especial.

3.4.2.4.3 Fibra óptica.

Para iluminar zonas de difícil acceso o extremadamente pequeñas. Proporcionaniluminación constante.

3.4.2.4.4 Láseres.

Empleados para una iluminación con luz estructurada ya que el láser es capaz deemitir luz estructurada con un control adecuado.

3.4.2.4.5 Luz ultravioleta.

Consiste en iluminar la escena con luz ultravioleta, que por sus característicaspermite, por ejemplo, proporcionar un alto contraste entre la grasa y el fondo. Esto esdebido a que la grasa al ser expuesta a luz ultravioleta emite luz fluorescente. Estacaracterística es útil en aplicaciones de detección de grasas.

3.4.3 Optimización de los recursos

3.4.3.1 Aplicación al sistema de Luz Estructurada: Distribuciónespacial de los elementos

Los métodos de luz estructurada presentan problemas inherentes a la propiadefinición del sistema, como los errores en el proceso de triangulación.

En el caso de los sistemas de luz estructurada estos errores se deben a zonasiluminadas por el láser y no captadas por la cámara, y en menor medida, zonas noiluminadas y si captadas por la cámara. Cuando se pierde totalmente la línea láser elproblema es la falta de medida, pero cuando la ocultación es parcial el problema es lafalsedad de la medida.

Los errores típicos son las zonas oscuras y la variación de reflectancia o forma de lasuperficie (Figura 3.36.).

Figura 3.36: Errores por zonas oscuras y variaciones de superficie

Page 46: 3 Luze Structur Ada

Luz Estructurada Rubén Collado Hernández

82 GVA-FAIS-UPM®PFC0055-00

Ante esto, es necesario optimizar lo más posible la colocación espacial de loselementos, aunque evitarlos en su totalidad no es posible. Para evitar estos problemasresulta evidente que la cámara y el haz láser deberían estar lo más próximos posibles, demodo que los errores de triangulación se minimizaran. Nada más lejos de la realidad. Unade las principales restricciones al método de Tsai es que la superficie sometida a estudio (larejilla de calibración) no puede estar perpendicular al eje óptico de la cámara, ni en susproximidades.

Experimentalmente se demuestra que los mejores resultados aparecen cuando lacámara forma aproximadamente 45º con el haz láser y con la superficie, de modo que esafue la situación espacial escogida, como se muestra en la Figura 3.37.

3.4.3.2 Aplicación al sistema de Luz Estructurada: Elección delsistema de iluminación

En cuanto a la luz, antes de intentar corregir un problema de iluminación por mediode algoritmos muy complicados, es mejor prestar atención e implantar un sistema deiluminación adecuado, para que la captura de la imagen sea correcta. Es mejor un buensistema de iluminación que intentar corregir ese problema por software, pues la velocidadde procesamiento será mayor con algoritmos más sencillos.

Se realizaron ensayos con tres tipos de luces: fluorescentes, halógenos y lucesincandescentes focalizadas. Los resultados obtenidos se muestran en las siguientes figuras.

Figura 3.37: Colocación espacial de los elementos

Page 47: 3 Luze Structur Ada

Rubén Collado Hernández Luz Estructurada

GVA-FAIS-UPM®PFC0055-00 83

Como se puede observar, los mejores resultados se obtienen con un halógeno, perosiguen apareciendo brillos por la alta concentración de luz debido a pequeña distancia entreel foco y la superficie. Esto se solucionó no enfocando directamente sobre la superficie,sino aprovechando el halo difuso que se genera en los puntos frontera, donde la intensidadluminosa es mucho menor.

Figura 3.38: Iluminación con un fluorescentesituado en la perpendicular. Como se puede

ver aparecen brillos

Figura 3.39: Iluminación con un foco tipopunto focalizado. Excesiva concentración de

luz en la superficie

Figura 3.40: Iluminación con halógeno desdela parte frontal de la cámara.

Page 48: 3 Luze Structur Ada

Luz Estructurada Rubén Collado Hernández

84 GVA-FAIS-UPM®PFC0055-00

3.5 Calibración de cámaras

3.5.1 Introducción

Para poder calcular las coordenadas tridimensionales de un punto en una imagen esnecesario añadir alguna condición adicional o algún conocimiento a priori, siempreconsiderando un sistema de luz estructurada y una única cámara. Esta condición la resuelveel plano láser y su corte sobre la pieza, de modo que todos los puntos encontrados siguenperteneciendo al mismo plano.

Para que esta condición sea eficiente hay que calibrar el sistema, entendiendo porcalibración, según la Real Academia de la Lengua: “establecer con la mayor exactitudposible la correspondencia entre las indicaciones de un instrumento de medida y losvalores de la magnitud que se miden con él”, lo cual, extrapolado a un sistema de luzestructurada es conseguir una relación biunívoca entre los puntos o pixeles de una imageny sus correspondientes coordenadas tridimensionales en el sistema del mundo. Lacalibración de la cámara en el contexto de la visión tridimensional es el proceso dedeterminar las características geométricas y ópticas internas de la cámara (parámetrosintrínsecos y/o la posición y orientación del bastidor de la cámara respecto al sistema decoordenadas del mundo (parámetros extrínsecos).

Así, desde una cámara con modelo pin-hole puro hasta modelos de lente máscompleja, incluyendo o no distorsiones ópticas deben ser calibradas, al igual que el planoláser que incidirá sobre el objeto.

La Visión Artificial ha sufrido un importante crecimiento en los últimos años, loque ha llevado al desarrollo de multitud de métodos de calibración. De entre todos ellos, elmás extendido y sencillo es la triangulación, el cual, partiendo del modelo de cámara y dela ecuación del plano láser calcula la intersección de los rayos proyectivos sobre la pieza.La idea es realizar la calibración interna de la cámara usando la información angular paraun conjunto de puntos de referencia mientras se ven el plano de la imagen. Esteacercamiento se llama calibración angular Se utiliza el recurso especial del láser quegenera el modelo de referencia con características angulares sabidas. Para laimplementación de este método de calibración se ha empleado el algoritmo de Tsaidistribuido gratuitamente por Reg Wilson, adaptado a nuestras necesidades.

A lo largo del estudio se ha realizado calibración sobre tres cámaras comerciales: laJai-CV235, la Watec 902 y la Evi-D31 de Sony, cada una de ellas con sus matizacionespropias.

Para ello en este capítulo se expondrá el método de Tsai y sistema de calibracióndel plano del plano láser.

Page 49: 3 Luze Structur Ada

Rubén Collado Hernández Luz Estructurada

GVA-FAIS-UPM®PFC0055-00 85

3.5.2 Introducción al modelado de cámaras y a las teorías de calibración

Calibrar cada uno de los parámetros dependientes de una cámara actual resultarealmente complicado y tedioso, de modo que se recurre a aproximar el comportamiento dela cámara a un modelo ideal, y como ya se ha mencionado, existen diversos modelos decámara, de entre los cuales los más importantes son el modelo pin-hole, de lente fina y delente gruesa.

Sobre estos modelos se levantan más tarde teorías de calibración a través de suspropios algoritmos y normalmente mediante triangulación.

3.5.2.1 Modelo pin-hole

Es el modelo utilizado en el proyecto, el más habitual y sencillo. Está basado en laproyección perspectiva y reduce el sistema óptico a un punto llamado centro óptico (Cx,Cy). Cada punto se proyecta por un único rayo luminoso que pasa por este centro ópticosituado a una distancia f (distancia focal), hasta el plano de la imagen.

El eje óptico es la línea perpendicular al plano de la imagen que pasa por el centroóptico y el plano focal es el plano paralelo al de la imagen y que pasa por el centroóptico.

La proyección perspectiva se representa matemáticamente mediante una matriz queda la transformación entre la representación de los puntos 3D en un sistema decoordenadas del mundo (Xw, Yw, Zw) y la representación de los puntos 2D en unsistema de coordenadas de la imagen (Xf, Yf). Para resolver esta relación se define otrosistema, llamado de cámara (Xc, Yc, Zc) de modo que su eje z se encuentre en el centroóptico y los ejes x e y paralelos al plano de la imagen. De este modo, la correspondencia serealiza a través de una matriz de rotación (R) y un vector de traslación (T), según:

Figura 3.41: Modelo pin-hole

Page 50: 3 Luze Structur Ada

Luz Estructurada Rubén Collado Hernández

86 GVA-FAIS-UPM®PFC0055-00

T

Zw

Yw

Xw

R

Zc

Yc

Xc

+

=

·

siendo

=

9 8 7

6 5 4

3 2 1

rrr

rrr

rrr

R

=

Tz

Ty

Tx

T

Estas dos matrices nos dan la posición espacial de la cámara, con tres rotaciones(alrededor de cada uno de los ejes de coordenadas) y una traslación (respecto al origen decoordenadas del mundo).

Trabajos realizados por Lavest y Bobet acerca del zoom de cámaras han puesto demanifiesto las limitaciones de este modelo. Sin embargo se puede evitar esta dificultadusando el modo pin-hole de una manera local, como predijo Lavest, y recalculando losparámetros intrínsecos según los valores obtenidos por la medida directa en la óptica (através de los sensores electrónicos y de tarjetas analógicas de entrada/salida deinformación). Se actúa, por tanto, en el proceso de calibración del zoom.

3.5.2.2 Modelo de lente fina

El modelo pin-hole descrito en el apartado anterior se encuentra demasiadoidealizado para muchas aplicaciones, donde un sólo rayo es muy poca cantidad de luz, porlo que haría falta un elemento tremendamente sensible para obtener una imagen nítida.

Las cámaras que se utilizan en la práctica reúnen, a través de una lente, un mayornúmero de rayos luminosos de cada punto, trasmitiendo una cantidad suficiente de energíaal elemento sensible. En el modelo ideal de lente los rayos ópticos que pasan por el centro

(3.10)

(3.11)

Figura 3.42: Modelo de lente fina

Page 51: 3 Luze Structur Ada

Rubén Collado Hernández Luz Estructurada

GVA-FAIS-UPM®PFC0055-00 87

de la lente no sufren ninguna deflexión. Los rayos que provienen del mismo punto delespacio son desviados hasta alcanzar el mismo punto del plano de imagen que el rayoóptico central. Los rayos que llegan paralelos al eje óptico convergen a un punto de éstesituado a la distancia focal del centro de la lente.

El modelo ideal cumple la ley de Gauss definida por:

fdd outin

111 =+

Características importantes de este modelo ideal de lente son la magnificación (m)y la profundidad de campo (Pc), distancia a la que el objeto está enfocado.

out

in

d

dm = resolución

apertura

dPc out ··2=

3.5.2.3 Modelo de lente gruesa

Los objetivos utilizados en la práctica constan de varios juegos de lentes coaxialesque reducen las aberraciones producidas en cada una de las lentes. El modelo de lentegruesa se aproxima a este fenómeno añadiendo un parámetro adicional, que es el grosor dela lente a lo largo del eje óptico.

En este modelo se definen varios puntos de referencia y parámetros característicos.Entre ellos hay tres puntos conjugados denominados puntos cardinales de la lente. Estospuntos son:

• Puntos nodales

• Puntos principales

• Puntos focales

Figura 3.43: Modelo de lente gruesa

(3.12)

(3.13)

Page 52: 3 Luze Structur Ada

Luz Estructurada Rubén Collado Hernández

88 GVA-FAIS-UPM®PFC0055-00

En el modelo de lente gruesa el centro óptico es reemplazado por dos puntos, lospuntos nodales delantero y trasero. Estos puntos estén situados sobre el eje óptico ycumplen la condición que cualquier rayo luminoso que alcanza el punto nodal delanteroemerge por el punto nodal trasero sin cambiar su dirección. En el modelo de lente fina losdos puntos nodales coinciden en el centro óptico de la lente.

La prolongación de los rayos de entrada y salida de la lente se cruzan en una seriede puntos que definen una superficie curva. En la región paraxial esta superficie esaproximadamente un plano, llamado plano principal. Los puntos donde los planosprincipales primario y secundario cruzan el eje óptico son conocidos como el primero ysegundo punto principal.

Los puntos focales son dos puntos situados sobre el eje óptico y conjugados apuntos del infinito. Se localizan a una distancia de cada punto principal igual a la distanciafocal. Cuando el medio entre el objeto y la lente tiene el mismo índice de refracción que elmedio entre la lente y la imagen las distancias focales delantera y trasera son iguales y lospuntos principales corresponden con los puntos nodales.

Otra característica importante del sistema óptico es la apertura del diafragma, quereduce el ángulo de convergencia y/o divergencia del haz luminoso que pasa a través delsistema óptico. Su función es reducir las aberraciones ópticas, reduciendo la zona útil delas lentes.

3.5.2.4 Teorías de calibración

Existen varios métodos para calibrar cámaras que se pueden encontrar en laliteratura. La mayoría de estos métodos se pueden subdividir en: técnicas lineales, nolineales y multi-step.

Las técnicas lineales son rápidas, porque no se requiere ninguna iteración. Sinembargo, su exactitud es relativamente pobre, por las simplificaciones al modelo de lacámara que se introducen. Las técnicas más comunes de esta categoría son el método deTsai y la transformación lineal directa (DLT).

Por otra parte, los métodos no lineales, usados a menudo en la fotogrametría, noestán restringidos por la selección del modelo de cámara, y por lo tanto pueden ser másexactos. La desventaja en el acercamiento no lineal es el coste de cómputo. La reducciónal mínimo de una función de coste no lineal requiere una técnica iterativa de laoptimización y una buena conjetura inicial.

Por último, en métodos multi-step los parámetros de la cámara primero secomputan con técnica lineal y entonces el resultado es mejorado usando las estimacionesexistentes del parámetro como conjetura inicial para el paso de progresión de laoptimización.

Page 53: 3 Luze Structur Ada

Rubén Collado Hernández Luz Estructurada

GVA-FAIS-UPM®PFC0055-00 89

3.5.3 Método de calibración de Tsai

Anteriormente se ha hecho un análisis al tipo de cámara pin-hole. Esto es así ya queel método de calibración que a continuación se va a exponer está basado en el anterior tipode cámara.

De todos los posibles sistemas de calibración que se pueden emplear se tiene quetener en cuenta las siguientes consideraciones [Angui99]:

• En primer lugar debe ser versátil para poderse adaptar a las modificaciones a lasque se puede ver envuelto en el medio de trabajo.

• Debe ser autónomo, es decir, los operarios tienen que quedar al margen lo másposible del proceso de calibración. El algoritmo tiene que buscar él sólo unasolución.

• Debe dar resultados exactos, consideración obvia en programas de medida.

• Las operaciones de calibración se deben hacer en un tiempo lo suficientementerápido.

Teniendo en cuanta estas operaciones el método de Tsai se ha extendido por todo elmundo como uno de los métodos de calibración de cámaras más preciso.

En primer lugar hay que tener en cuenta que este método necesita once parámetrosadicionales que él los divide en intrínsecos y extrínsecos.

Los parámetros intrínsecos que se calculan son:

• f: Distancia focal efectiva de la cámara pin-hole

• λ: Coeficiente de distorsión de la lente de primer orden

• Cx, Cy: Coordenadas del centro óptico, que es la intersección del eje óptico de lacámara con el plano de la imagen.

• sx: Factor de escala por la incertidumbre entre la diferencia de tamaños entre ladigitalizadora y el muestreo horizontal.

Estos parámetros tiene que ver con las propiedades de la cámara y la digitalizadora.

Los parámetros extrínsecos son los definidos por la orientación y posición de lacámara con referencia a unos ejes de referencia:

Page 54: 3 Luze Structur Ada

Luz Estructurada Rubén Collado Hernández

90 GVA-FAIS-UPM®PFC0055-00

• Rx, Ry, Rz: Ángulos de rotación para la transformada entre los ejes del mundo yde la cámara.

• Tx, Ty, Tz: Componentes del vector de traslación para la transformada entre losejes de cámara y el mundo.

Además se necesitan cinco parámetros intrínsecos relacionados con constantes de lacámara que son conocidos, pues sólo basta con buscar en la información que el propiofabricante da con la cámara. Estos otros parámetros constantes son:

• Ncx: número de elementos sensores en dirección horizontal.

• Nfx: número de pixeles en la dirección horizontal de la digitalizadora

• dx: ancho de cada elemento sensor de la cámara (mm/el)

• dy: alto de cada elemento sensor de la cámara (mm/el)

• dpx: ancho efectivo de un pixel en la digitalizadora (mm/pix)

• dpy: alto efectivo de un pixel en la digitalizadora (mm/pix)

Una vez que se conocen los diferentes parámetros que se necesitan para ejecutar elalgoritmo se explica la filosofía del funcionamiento de este método. Para ello se muestra laFigura 3.44.

Figura 3.44: Descripción del modelo de Tsai

Page 55: 3 Luze Structur Ada

Rubén Collado Hernández Luz Estructurada

GVA-FAIS-UPM®PFC0055-00 91

Si se tiene un punto en el sistema de referencia del mundo con origen en Ow, elobjetivo es buscar su posición en un plano de imagen. Para ello se suponen una serie depasos:

Sistema del mundo - Sistema de la cámara:

En este caso se trata de buscar la posición de un punto P(xw, yw, zw) con respectounos ejes de coordenadas Ow en el plano que se forma la cámara con la imagen P(x,y,z).Básicamente es un cambio de ejes y para ello se emplea una matriz de rotación junto conuna matriz de traslación.

T

Zw

Yw

Xw

R

Zc

Yc

Xc

+

=

−−−−−+

=αβαββ

αβγαγαβγαγβγαβγαγαβγαγβγ

coscossencossen

cossensensencossensensencoscoscossen

cossencossensensensencoscossencoscos

R

=

Tz

Ty

Tx

T

donde α, β, γ son los ángulos que forma la cámara con sus ejes.

(3.14)

(3.15)

(3.16)

Gamma

Figura 3.45: Posiciones de los ángulos de la cámara

Beta

Alpha

Page 56: 3 Luze Structur Ada

Luz Estructurada Rubén Collado Hernández

92 GVA-FAIS-UPM®PFC0055-00

Una vez que se tienen estos datos se pasa al segundo paso.

Sistema de la cámara – Coordenadas sin distorsión:

Cuando ya se ha conseguido la conversión de ejes de coordenadas se pasa a llevarel punto del espacio al plano que forma la cámara. En este paso se pierde la componente Zya que una imagen es bidimensional. Es el paso de P(x, y, z) a (Xu, Yu) y se realizamediante las relaciones:

Zc

XcfXu =

Zc

YcfYu=

donde f es la distancia focal que es un parámetro que hay que calcular.

El tercer paso es:

Coordenadas sin distorsión – Coordenadas con distorsión:

Dentro del plano hay que contar con las distorsiones que incluye la óptica como seha comentado en el capítulo anterior. Por ser coeficientes muy pequeños solo se tiene encuenta el primer factor.

)1( 21rkXdXu +=

)1( 21rkYdYu +=

donde:

22 YdXdr +=

Una vez que se han corregido las coordenadas por el factor de las ópticas, entoncesse pasa a:

Coordenadas con distorsión – Coordenadas de la imagen en pixeles:

Este es el último paso ya que una vez concluido este paso ya se obtienen los pixelesdonde se encuentra el punto P en la imagen. Para ello se necesita:

(3.17)

(3.18)

(3.19)

(3.20)

(3.21)

Page 57: 3 Luze Structur Ada

Rubén Collado Hernández Luz Estructurada

GVA-FAIS-UPM®PFC0055-00 93

CxXddx

sXf x +=

Cydy

YdYf +=

donde los parámetros ya han sido comentados anteriormente.

Sustituyendo progresivamente se puede obtener una relación entre pixeles ycoordenadas reales:

TxZwrYwrXwrXc +++= 321

TyZwrYwrXwrYc +++= 654

TzZwrYwrXwrZc +++= 987

Zc

XcfrkCxXf

s

dxCxXf

s

dx

xx

=−+− 21)()(

Zc

YcfrkCyYfdyCyYfdy =−+− 2

1)()(

TzZwrYwrXwr

TxZwrYwrXwrfrkCxXf

s

dx

x ++++++=+−

987

32121 )1)((

TzZwrYwrXwr

TyZwrYwrXwrfrkCyYfdy

++++++=+−

987

65421 )1)((

22 ))(())(( CyYfdyCxXfs

dxr

x

−+−=

La restricción más importante se encuentra en que el algoritmo de Tsai falla si elorigen del sistema de coordenadas del mundo está cerca del centro de visión de la cámara ocerca del sistema de coordenadas de la cámara, esto asegura que el elemento Ty de lamatriz de traslación es distinto de cero, un dato básico en el algoritmo.

Por otra parte se pueden realizar una calibración coplanar donde todos los puntosdatos deben estar en el mismo plano o bien una calibración no coplanar

(3.22)

(3.23)

(3.24)

(3.25)

(3.26)

(3.27)

(3.28)

(3.29)

(3.30)

(3.31)

Page 58: 3 Luze Structur Ada

Luz Estructurada Rubén Collado Hernández

94 GVA-FAIS-UPM®PFC0055-00

3.5.3.1 Calibración coplanar

La calibración coplanar como su propio nombre indica necesita una serie de puntoscuya característica sea que su coordenada Z sea cero. Además se necesita como mínimocinco puntos y el parámetro sx de corrección no es modificado.

Por tanto una vez que se inicializan los parámetros intrínsecos de la cámara y seconocen las coordenadas reales (Xw, Yw, Zw) de una serie de puntos y las coordenadas enla imagen de esos mismos puntos(Xf, Yf) se calcula la matriz de rotación R y el vector detraslación T.

Para ello se calcula en primer lugar las coordenadas con distorsión de los puntos dela imagen de la forma:

xs

dpxCxXfXd )( −=

dpyCyYfYd )( −=

Donde se manejan en primer lugar datos aproximados como el centro de la imageny datos suministrados por el fabricante.

Además como muestra la Figura 3.44 el vector POZP y el vector OPD son paralelosluego:

XcYdXdYcYcXcYdXd −==× 0),(),(

)()( 321654 TxZwrYwrXwrYdTyZwrYwrXwrXd +++=+++

Despejando Xd:

[ ] Xd

Tyr

Tyr

TyTx

Tyr

Tyr

XdYwXdXwYdYdYwYdXw =

5

4

2

1

Como se tienen cinco incógnitas se necesitaran al menos cinco puntos para resolverel sistema y el resto de términos para obtener la matriz de rotación vendrá como:

(3.32)

(3.33)

(3.34)

(3.35)

(3.36)

Page 59: 3 Luze Structur Ada

Rubén Collado Hernández Luz Estructurada

GVA-FAIS-UPM®PFC0055-00 95

=

=

TyrTyrTyr

TyrTyrTyr

TyrTyrTyr

ccc

ccc

ccc

C

987

654

321

987

654

321

(3.37)

Para obtener entonces Ty basta con solucionar el determinante obteniendo:

( )24512

)2451(4 222

cccc

ccccSrSrTy

−−−−

=

2222 4321 ccccSr +++=

Salvo si se cumplen alguna de las condiciones siguientes:

• c1 = c2 = 0

222

54

1

ccTy

+=

• c1 = c4 = 0

222

52

1

ccTy

+=

• c4 = c5 = 0

222

21

1

ccTy

+=

• c2 = c5 = 0

222

41

1

ccTy

+=

A continuación para ver el signo de Ty se toma un punto cualquiera y se supone Tycomo un valor positivo. Se sustituye en:

TxYwrXwrX ++= 21

TyYwrXwrY ++= 54

donde:

(3.38)

(3.39)

(3.40)

(3.42)

(3.43)

(3.44)

(3.45)

(3.46)

Page 60: 3 Luze Structur Ada

Luz Estructurada Rubén Collado Hernández

96 GVA-FAIS-UPM®PFC0055-00

TyTy

rr

11=

TyTy

rr

22 = (3.48)

TyTy

rr

44 =

TyTy

rr

55=

TyTy

TxTx =

Si los resultados coinciden entonces Ty es positivo en caso contrario Ty esnegativo.

El siguiente paso es encontrar los elementos que faltan de la matriz de rotación talescomo r3, r6,r7, r8, r9. Estos salen de las siguientes expresiones:

22 2113 rrr −−=

22 5416 rrr −−=

53627 rrrrr −=

61438 rrrrr −=

42519 rrrrr −=

El último paso que queda es obtener la distancia focal f y la componente Tz delvector de traslación. Para ello se disponen de tres matrices. La primera matriz tiene unaestructura parecida a:

[ ]YdTyYwrXwrM −++= 54

La segunda matriz tiene la forma:

(3.47)

(3.49)

(3.50)

(3.51)

(3.52)

(3.53)

(3.54)

(3.55)

(3.56)

(3.57)

Page 61: 3 Luze Structur Ada

Rubén Collado Hernández Luz Estructurada

GVA-FAIS-UPM®PFC0055-00 97

[ ]iii YdYwrXwrB ++= 87

La tercera se compone de dos filas y una columna:

=

2

1

a

aA

Resolviendo MA = B o lo que es lo mismo A = M-1B obtenemos en la componentea1 la distancia focal y en la componente a2 el valor de Tz. Una vez que se han obtenido losdiferentes valores o parámetros necesarios sustituyendo en las expresiones 3.29, 3.30 y3.31 se obtienen los valores deseados.

3.5.3.2 Calibración no coplanar

En este caso los puntos que se usan como sistema patrón no tienen por que tener lacomponente Z = 0, por lo que la formulación aunque parecida se diferencia en algunasexpresiones. Como número de puntos necesarios para solucionar los problemas deindefinición de ecuaciones es once. Para empezar se parte de las coordenadas centrales dela imagen Cx y Cy y sx igual a la unidad.

El proceso es análogo al anterior teniendo en cuenta ahora que la componente Z esdiferente de cero. En primer lugar se calcula un valor aproximado de Xd, Yd y r teniendoen cuenta que se parte de valores aproximados como antes se ha comentado.

)( CxXfs

dpxXd

x

−=

)( CyYfdpyYd −=

222 YdXdr +=

A continuación se busca como en el apartado anterior los componentes de la matrizde rotación y del vector de traslación de forma parecida a la expresión 3.35 con la ayuda detres matrices

[ ]XdZwXdYwXdXwYdYdZwYdYwYdXwM iiii −−−=

[ ]iXdB =

(3.58)

(3.59)

(3.60)

(3.61)

(3.62)

(3.63)

(3.64)

Page 62: 3 Luze Structur Ada

Luz Estructurada Rubén Collado Hernández

98 GVA-FAIS-UPM®PFC0055-00

=

7

6

5

4

3

2

1

a

a

a

a

a

a

a

A

Resolviendo el sistema A = M-1B se obtiene que

Ty

ra

Ty

ra

Ty

ra

Ty

sra

Ty

sra

Ty

sra xsx 6

6;5

5;4

4;3

3;2

2;1

1 ======

El valor de Ty se obtiene de:

2222

765

1

aaaTy

++=

Y el símbolo se obtiene como se ha hecho en el apartado anterior con el valor de unpunto conocido.

Los componentes r1-r6 de la matriz de rotación se obtienen multiplicando lasdiferentes expresiones de la expresión 3.66 por el valor de Ty obtenido así como el valorde Tx.

El valor de sx se obtiene con la expresión:

Tyaaasx +++= 222 321

Una vez obtenidos los valores más reales de algunos parámetros que se habíansupuesto se vuelve a repetir el proceso anterior para conseguir el valor de las componentesde la matriz de rotación obteniendo una matriz de la forma:

=

−−− 987

654

321

425161435362

654

321

rrr

rrr

rrr

rrrrrrrrrrrr

TyaTyaTyas

Tya

s

Tya

s

Tya

xxx

(3.65)

(3.66)

(3.67)

(3.68)

(3.69)

Page 63: 3 Luze Structur Ada

Rubén Collado Hernández Luz Estructurada

GVA-FAIS-UPM®PFC0055-00 99

Por último solo quedaría obtener el valor de la distancia focal y la componente Tzdel vector de traslación como se ha hecho en el apartado anterior resolviendo un sistema deecuaciones.

3.5.3.3 Cálculo de los errores en la calibración

La distribución pública de Wilson que incluye los diferentes algoritmos de Tsaidispone además de herramientas que informan de cómo han ido los resultados comparandolos valores obtenidos experimentalmente con los valores medidos empíricamente. Dentrode estas herramientas se calculan la media, el sumatorio de errores al cuadrado, ladesviación estándar y el error máximo.

Estos se definen de la siguiente manera:

• Media (A):

[ ] 2/122 )'()'(1 ∑ −+− yyxxN

• Sumatorio de los errores al cuadrado (B):

[ ]∑ −+− 22 )'()'( yyxx

• Desviación estándar:

1

)( 2

NN

ANB

Se realizan cuatro medidas:

• El error medido entre un punto característico de la imagen teniendo en cuenta lasdistorsiones y la imagen del punto característico proyectado a través delmodelo calibrado tridimensional. Esto lo llama error de la imagen condistorsión.

• El error medio entre un punto característico de la imagen sin tener en cuenta lasdistorsiones y la imagen del punto característico proyectado a través delmodelo calibrado tridimensional. Esto lo llama error de la imagen sindistorsión.

• El error de la distancia más cercana en tres dimensiones y la línea de visiónformada por la proyección de las coordenadas bidimensionales a través delmodelo de la cámara. A esto lo llama error del objeto en el espacio.

• El error de calibración normalizado que utiliza los puntos de la rejilla decalibración que se conocen.

(3.70)

(3.71)

(3.72)

Page 64: 3 Luze Structur Ada

Luz Estructurada Rubén Collado Hernández

100 GVA-FAIS-UPM®PFC0055-00

3.5.4 Calibración sobre MatLab: rutina CaCal

Matlab es una herramienta de muy gran alcance y comúnmente usada para lavisualización numérica de datos. Por lo tanto es también una plataforma absolutamenteconveniente para realizar experimentos de calibración de cámaras. La toolbox decalibración usada para la Evi-D31 procede de la Universidad de Oulu y consiste en variasfunciones de Matlab, también llamadas ficheros-m. Estos ficheros de ASCII se puedenmodificar fácilmente para corresponder a las exigencias del consumidor.

Esta toolbox presenta los marcos múltiples radiales y tangenciales de la distorsión(dos parámetros para cada uno) capturados de diversos puntos de vista coplanarios y lacorrección no-coplanar de los blobs para la proyección asimétrica de los puntos de control,en coordenadas del mundo.

Hay totalmente ocho parámetros intrínsecos que se estiman: factor deposicionamiento, distancia focal eficaz, coordenadas principales, dos coeficientes radialesy dos tangenciales de la distorsión. Estos parámetros se solucionan en dos o tres etapasdependiendo de la geometría del punto de control. La corrección de la imagen entonces esrealizada usando un modelo inverso especial de la distorsión.

Para usar la toolbox se necesita tener un objeto de calibración con un conjunto depuntos de control visibles (relación 2D-3D). Como datos de entrada, el procedimientonecesita esta relación. Para alcanzar una exactitud mayor en la calibración se puedenintroducir varios ficheros con distintas localizaciones de la cámara para que se procesensimultáneamente. Por otra parte, todas las puntos de control no se requiere que seanvisibles en cada imagen. Esto permite capturar las imágenes de diversas localizaciones sinobligar la distancia entre el objeto y la cámara.

Para obtener un resultado satisfactorio de calibración, el objeto debe cubrir laimagen entera tan bien como posible. También, se utilizan las imágenes múltiples.Entonces, las imágenes se deben capturar de diversos puntos de vista que cambian laorientación y la distancia de la cámara. Los coordenadas de los puntos de controlcoplanarios deben ser seleccionados de modo que las coordinadas Z se conviertan en cero.La unidad coordinada del sistema del mundo es el milímetro y la unidad coordinada de laimagen es el pixel.

Los datos de entrada de información a la rutina CaCal son:

• El primer parámetro es una cadena que define el tipo de la cámara fotográfica. Lostipos válidos de la cámara se enumeran en Configc.m, que es una función donde elusuario puede agregar sus propios datos de configuración. Los datos consisten en lainformación siguiente:

- Ncx

- Nfx

Page 65: 3 Luze Structur Ada

Rubén Collado Hernández Luz Estructurada

GVA-FAIS-UPM®PFC0055-00 101

- dx

- dy

- f

- radio del círculo de los puntos de control

• Los datos de la calibración se dan en matrices separadas para cada imagen. El númeromáximo de imágenes es seis. La estructura de la matriz de los datos es siguiente:

- Columnas 1 a 3: coordenadas (x, y, z) de los puntos de control. En caso de unacalibración coplanar, la coordenada z debe ser cero.

- Columnas 4 a 5: coordenadas correspondientes (x, y) de la imagen.

- Columnas 6 a 8: vector normal [ nz, ny, nx ] de la superficie alrededor delpunto de control dado en el marco de coordenadas del mundo.

Los datos de la salida son los siguientes:

• Los ocho parámetros intrínsecos de la cámara:

- coeficientes de la distorsión tangencial (parámetros 7:8)

- distorsión radial (parámetros 5:6)

- centro óptico (parámetros 3:4)

- distancia focal (parámetro 2)

- factor de escala (parámetro 1)

• La posición y la orientación de la cámara para cada imagen:

- Vector de traslación (parámetros 1:3)

- Matriz de rotación (parámetros 4:6)

- Numero de iteraciones requeridas

- Suma de términos ajustados del error

Page 66: 3 Luze Structur Ada

Luz Estructurada Rubén Collado Hernández

102 GVA-FAIS-UPM®PFC0055-00

- Error restante en pixeles

Este error da una guía de consulta para detectar la exactitud de la calibración. Elerror debe ser no-sistemático con la desviación estándar menor de 0,2 pixeles. Si el errores más grande, algo va mal.

3.5.5 Calibración del plano láser

No sólo es necesario calibrar la cámara sino también el otro elemento importanteque interviene en las técnicas de luz estructurada como es el sistema de luz, en este caso elláser.

Como ya se ha visto en el apartado 3.2, un láser despide energía luminosa en formade un punto debido a sus peculiares características de divergencia, cromaticidad,polarización y coherencia. Estas características la hacen una luz con la que se puedetrabajar fácilmente ya que así como la luz de una lámpara se reparte por todo el espacio, laluz láser se conoce la trayectoria que puede tener cuando salga del generador.

En luz estructurada y sobre todo en el cálculo de medidas no se puede emplear elrayo láser sin más ya que se obtendrían alturas de puntos en lugar de superficies, lo queharía el cálculo y la actividad muy laboriosa y tediosa. Por ello para arreglarlo se le colocaal láser una óptica cilíndrica que al ser atravesada por el rayo provoca que la energía delhaz se expanda formando un plano triangular con vértice en el origen del plano comoindica la Figura 3.46.

Como se ha visto en la anterior figura el láser forma un plano en el espacio con lacaracterística de que todo los puntos de ese haz tienen la misma ecuación.Matemáticamente un plano es una variedad afín de dimensión dos y queda determinadopor:

• Un punto y dos vectores base del espacio vectorial dirección asociado a él.

Figura 3.46: Conversión del haz láser en un plano

Page 67: 3 Luze Structur Ada

Rubén Collado Hernández Luz Estructurada

GVA-FAIS-UPM®PFC0055-00 103

• Tres puntos afínmente independientes.• Cualquier expresión equivalente.

Entre las muchas ecuaciones que lo pueden definir interesa en este caso la ecuaciónde un plano como un hiperplano cuya ecuación es:

0=+++ DCzByAx

O bien:

CByAxZ ++=

Para calibrarlo simplemente es necesario conocer las constantes A, B y C, por loque serán necesarias tres ecuaciones. El proceso consiste en tener tres objetos con alturasconocidas y colocarlas debajo del láser, para hallar la coordenada X e Y del centro degravedad de la línea formada por el corte del plano láser con el objeto. El valor de lasconstantes se obtiene por la resolución con cualquier método de un sistema de tresecuaciones con tres incógnitas.

3.5.6 Triangulación

Una vez que se han calibrado la cámara y el plano del láser es posible usar latriangulación para conocer las posiciones en el espacio de un objeto o un punto. Para ellose basa como anteriormente se ha dicho en el método de cámara de pin-hole.

En la figura 3.47 se muestra como un punto en el espacio se proyecta en la imageny cruza por el eje óptico de la cámara a una distancia focal f donde se proyecta un planocon una imagen.

Con esto se obtiene que la coordenada Z se pierde en la relación:

(3.73)

(3.74)

Figura 3.47: Triangulación con el método pin-hole

Page 68: 3 Luze Structur Ada

Luz Estructurada Rubén Collado Hernández

104 GVA-FAIS-UPM®PFC0055-00

Zc

XcfXf =

Zc

YcfYf =

Si se sustituye Zc por la ecuación del plano láser vista en el apartado anterior:

CBYcAXc

fXcXf

++=

CBYcAXc

fYcYf

++=

Como lo que se quiere es despejar en función de las coordenadas en la imagen lascoordenadas en la realidad, se despeja el sistema anterior obteniendo:

BYfAXff

CXfXc

−−=

BYfAXff

CYfYc

−−=

que despejando en la ecuación del plano del láser

BYfAXff

CfC

BYfAXff

BCYf

BYfAXff

ACXfZc

−−=+

−−+

−−=

Haciendo un resumen se tienen las coordenadas de un punto de la imagen en unpunto en el sistema de coordenadas de la cámara. Luego el último paso es pasar ese puntopor la matriz de rotación y el vector de traslación para obtener el punto buscado

BYfAXff

CXfXc

−−=

BYfAXff

CYfYc

−−=

BYfAXff

CfZc

−−=

(3.75)

(3.76)

(3.77)

(3.78)

(3.79)

(3.80)

(3.81)

(3.82)

(3.83)

(3.84)

Page 69: 3 Luze Structur Ada

Rubén Collado Hernández Luz Estructurada

GVA-FAIS-UPM®PFC0055-00 105

3.5.7 Introducción a la autocalibración

El problema de la autocalibración de una cámara consiste en calcular susparámetros intrínsecos a partir de una secuencia de imágenes, suponiendo que éstosparámetros son los mismos en todas las imágenes o al menos en tres consecutivas.

Para solucionarlo, el método más extendido es el desarrollado por Faugeras,Maybank y Luong basado en las ecuaciones de Kruppa. Estas ecuaciones son latraducción directa de la rigidez de la dislocación de la cámara desde un punto de vista aotro.

En teoría, tres vistas de la configuración general de la escena bastan para calcularlos parámetros intrínsecos. Si se realiza un estudio a partir de las configuracionesdegeneradas de tres vistas, el cálculo es posible.

En la práctica, se puede mejorar las robustez del cálculo multiplicando el númerode imágenes y reduciendo al mínimo el criterio de los cuadrados que se considera en lasmatrices fundamentales de covariación utilizadas en la ecuaciones de Kruppa.

Los resultados obtenidos con estos métodos pueden ser de calidad comparable a losmétodos tradicionales de calibración estática.

Como ya se ha comentado, el modelo pin-hole es ideal, y la mayoría de la ópticapara las cámaras disponibles en el mercado no siguen este modelo estrictamente (si comoaproximación).Esto genera una serie de distorsiones en los modelos.

La manera tradicional de corregir estas distorsiones pasa por el uso obligado de unatarjeta de prueba de calibración. Para la autocalibración, se necesita un sistema automáticoque además funcione en distintas escenas. Esto se puede conseguir aceptando la siguienteproposición: el modelo de la cámara se puede considerar pin-hole si y solo si cualquierlínea del espacio se proyecta en una única línea de la cámara.

El método consiste así en, inicialmente, la separación de segmentos por detecciónde contornos o cualquier otro método para hacer una aproximación poligonal tradicional ybuscar los parámetros del modelo con distorsión por transformación inversa. Se puede, portanto, utilizar una única cámara con modelo pin-hole para obtener los datos de la escena yaplicar los algoritmos generales.

Page 70: 3 Luze Structur Ada

Luz Estructurada Rubén Collado Hernández

106 GVA-FAIS-UPM®PFC0055-00

3.6 Manipulación digital de imágenes

En los apartados anteriores, y concretamente en el relativo a los sistemas decámara, se ha descrito el modo de obtención de las imágenes y su transformación desdeuna señal analógica hasta una señal digital mediante la digitalización. En este apartado sevan a considerar los aspectos relativos al tratamiento de esa imagen digital, poniendoespecial énfasis en la localización de pixeles superficiales que posteriormente pasarán aforma parte de una isolínea.

Se deben considerar dos tipos de tratamientos [Angui99], aquellos que se orientanhacia el estudio de la rejilla de calibración y aquellos usados para esqueletizar e interpretarla línea láser, cada uno con sus propias condiciones de iluminación. Lógicamente, entreambos métodos existen numerosos pasos comunes en el procesamiento.

La exposición del procesado se va efectuar según los pasos lógicos en cada caso,desde la umbralización y binarización de la imagen hasta el estudio de blobs, pasando portodo tipo de operaciones morfológicas.

El objetivo de toda esta manipulación es evidente: la información es excesivamentedensa y redundante, teniendo en cuenta que la línea láser, suponiendo que ocupara todo elancho de la imagen, representa aproximadamente el 0.5% de ésta. La supresión deelementos no significativos es otro de los objetivos. En este aspecto, cobra especialimportancia la iluminación, la cual distribuida adecuadamente, reduce considerablementetodo el procesado de la imagen, como ya se vio en el apartado 3.4.

Por último, cabe destacar que numerosos sistema de luz estructurada actualesrealizan una aproximación de la línea láser por tramos rectos para aumentar la precisión, locual en nuestro sistema no resulta eficiente debido a que el objetivo último es modelizartodo tipo de objetos, no sólo rectangulares, y una aproximación por tramos rectos llevaría aun falseamiento en la adquisición de piezas cilíndricas, por ejemplo. Esto se verá en elcapítulo 4.

Figura 3.48: Distintas iluminaciones de una misma imagen

Page 71: 3 Luze Structur Ada

Rubén Collado Hernández Luz Estructurada

GVA-FAIS-UPM®PFC0055-00 107

De ahora en adelante, todo el proceso de manipulación de la imagen se centra en lalínea láser y no en el tratamiento de la imagen de la rejilla. Esto es debido al paralelismo deambas hasta la obtención de los blobs, a partir de lo cual los siguientes pasos de la línealáser se estudian en el modelado tridimensional y en la imagen de la rejilla en el apartadode calibración.

3.6.1 Umbralización y binarización. Segmentación de la imagen

Las técnicas de segmentación son empleadas como operaciones morfológicas deuna imagen digitalizada para seleccionar rasgos dentro de éstas. Como norma general,consiste en definir un rango de valor de brillo de la imagen original seleccionando todoslos pixeles que se encuentran dentro de este rango como pertenecientes al foreground y elresto se toma como background. Con esto se obtiene un valor óptimo con el que luego sepuede hacer una binarización en la que destaquen los bordes de las figuras para obtenerotra imagen en blanco y negro en la que quedan separadas las diferentes formas.

Para comenzar se pueden separar las técnicas de umbralización en globales ylocales. Las técnicas globales se clasifican además en:

• Técnicas dependientes de puntos• Técnicas dependientes de región

A continuación se van a exponer algunos métodos de umbralización probados en elsistema, para ver el resultado más favorable.

A modo de introducción se puede define N como el conjunto de números naturales(x,y) como coordenadas espaciales de una imagen digitalizada y G={0, 1,..., l-1} como unconjunto de números enteros que representan un nivel de gris. Según esto, una imagenpuede ser definida como el mapeado f:NxN->G. El nivel de gris de un pixel concoordenada (x,y) se anota como f(x,y).

Sea t un umbral y B={b0, b1} un par binario de niveles de grises donde ambospertenecen a G. El resultado de la umbralización de la imagen a un nivel de gris t es unafunción f1:NxN->B tales que:

0),( byxft = si tyxf t <),(

1),( byxft = si tyxf t ≥),(

En general, un método de umbralización es aquel que determina el valor t* de tbasado en un determinado criterio. Si t* es determinado únicamente por el nivel de gris decada pixel, entonces el método de umbralización depende del punto, pero si se determinade propiedades locales en la vecindad de cada pixel entonces depende de la región. Unatécnica global es aquella que umbraliza la imagen con un único valor t para toda la imagen,mientras que una técnica de umbralización local es aquella que divide la imagen ensubimágenes, y determina el valor óptimo para esa subimagen.

(3.85)

(3.86)

Page 72: 3 Luze Structur Ada

Luz Estructurada Rubén Collado Hernández

108 GVA-FAIS-UPM®PFC0055-00

Sea el número de pixeles con un nivel de gris i determinado ni. Entonces el númerototal de pixeles de la imagen dada será:

∑ −

== 1

0

l

i inn

La probabilidad de ocurrencia de un nivel de gris i se define como:

n

nP i

i =

Por convenio, se toma el nivel de gris 0 como negro y el nivel 255 como blanco.

3.6.1.1 Técnicas dependientes de punto

3.6.1.1.1 Método p-tile

Es el más simple de todos. Se basa en el conocimiento a priori del porcentaje queocupan el objeto y el fondo en la imagen. Es por tanto un método que requiere unconocimiento previo.

Asumiendo que el porcentaje del área del objeto es conocido, el umbral se definecomo el nivel de gris más claro contabilizados al menos el (100-p)% de los pixeles en losobjetos de la imagen. Por ejemplo, suponiendo que un objeto ocupa el 35% de la imagen,ésta debería ser umbralizada a un nivel de gris que tuviera en cuenta al menos el 35% de laimagen. Este método no es aplicable a objetos dentro de la imagen cuya área no se conozcacon exactitud ya que podría dar lugar a errores considerables.

3.6.1.1.2 Método otsu

Es un método basado en la maximización de la varianza y en el análisisdiscriminante. Reduciendo la umbralización a la división de los pixeles de una imagen en

(3.87)

(3.88)

Figura 3.49: Imagen original y binarizada con p-tile al 99%

Page 73: 3 Luze Structur Ada

Rubén Collado Hernández Luz Estructurada

GVA-FAIS-UPM®PFC0055-00 109

dos clases, objeto (C0) y fondo (C1) a un nivel de gris t, se minimiza la expresión de lavarianza, según la expresión:

2

2

*t

bArgMaxtσσ

= siendo σb2 y σt

2 las varianzas intra-clase y total.

Este método es muy simple y no se basa en la diferenciación del histograma sino ensu integración. El resultado obtenido se muestra en la siguiente figura.

3.6.1.1.3 Método de la varianza continua

Este método presenta un planteamiento similar al anterior, tratando de maximizar lavarianza entre clases. Siendo t el nivel de gris se resuelve la ecuación:

WB mmt +=2

siendo mB y mW las integrales de distribución de pixeles entre 0 - t y entre t - ∞.

Figura 3.50: Imagen original y binarizada con otsu a t=42

Figura 3.51: Imagen original y binarizada varianza continua a 118

(3.89)

(3.90)

Page 74: 3 Luze Structur Ada

Luz Estructurada Rubén Collado Hernández

110 GVA-FAIS-UPM®PFC0055-00

3.6.1.1.4 Método del análisis de la concavidad del histograma

Para imágenes con distinto fondo e imagen se puede seleccionar un umbralmediante el uso del histograma de niveles de grises. Para algunas imágenes donde no seafácil encontrar los valles del histograma, es posible usar un umbral de los picos de éste. Portanto, como resumen, se puede determinar un umbral analizando la concavidad delhistograma.

Para esto se contará con un histograma H con niveles de grises g0, g1,...,gl-1 y laaltura de esos niveles de gris como h(g0), h(g1),...h(gl-1) donde h(gi) ≠ 0. Así H se puedeconsiderar como una región bidimensional.

En las imágenes de abajo se muestra un ejemplo con la imagen original, labinarizada con este método y sus correspondientes histogramas.

3.6.1.1.5 Método iterativo

Este proceso se basa en una realimentación ya que va redefiniendo nuevos umbralesmediante un comparador y un conmutador hasta que obtiene uno donde la realimentaciónes nula.

Figura 3.52: Imagen original y binarizada con la concavidad delhistograma con un umbral de 13

Figura 3.53: Histogramas correspondientes

Page 75: 3 Luze Structur Ada

Rubén Collado Hernández Luz Estructurada

GVA-FAIS-UPM®PFC0055-00 111

Para lograr un valor de inicio, el algoritmo toma una variable inicial que consiste entomar las cuatro esquinas de la imagen como fondo y el resto como objeto. Esto se usacomo función de conmutación f(s). Al pasar la imagen se obtiene en el comparador unagran diferencia y mediante el switch se elige el ‘parche’ para fondo o forma. Después desucesivos pasos se consigue que el umbral obtenido en la última pasada y en la anteriorsean coincidentes, en este caso ya se habrá obtenido el valor deseado de umbral.

3.6.1.1.6 Método basados en la entropía

Este tipo de métodos han sido recientemente desarrollados y el nivel deumbralización se obtiene por medio de aplicar estadísticas de la teoría de la información.Para ésta, la entropía de una distribución de probabilidad se puede definir como:

∑−=t

iin ffH ln

Existen numerosos métodos, de los cuales los más importantes son:

• Método Pun

• Método Kapur, Sahoo y Wong

• Método de Johannsen y Bille

• Método de la preservación de los momentos

Figura 3.55: Imagen original y binarizada con el método iterativo a 115

Figura 3.54: Método Iterativo

(3.91)

Page 76: 3 Luze Structur Ada

Luz Estructurada Rubén Collado Hernández

112 GVA-FAIS-UPM®PFC0055-00

• Método del error mínimo

Los resultados obtenidos con este tipo de métodos fueron los que se muestran en lassiguientes figuras.

3.6.1.2 Técnicas dependientes de región

3.6.1.2.1 Métodos de transformación del histograma

Figura 3.56: Imagen original y binarizada con el método pun a 45

Figura 3.57: Método de Kapur, Sahoo y Wong a 92 y método de Johannseny Bille a 147

Figura 3.58: Método de la preservación de los momentos a 58 y método delerror mínimo a 106

Page 77: 3 Luze Structur Ada

Rubén Collado Hernández Luz Estructurada

GVA-FAIS-UPM®PFC0055-00 113

La característica propia de estas técnicas es que no buscan un valor t para toda laimagen, sino que producen un histograma con valles más profundos y picos máspuntiagudos para poder determinar el valor umbral. Así, se obtiene un nuevo histogramapor el peso de los valores de los pixeles de acuerdo con la frecuencia de éstos. Estastécnicas asumen que la imagen está compuesta por objetos y fondo repartidos en unadistribución unimodal de grises.

Entre estos métodos se encuentran el método Quadtree que consiste en que ladesviación típica dentro de una zona homogénea es pequeña, mientras que en una zonaheterogénea es mucho mayor.

Otro método es el operador de bordes que utiliza el mismo razonamiento que elanterior, pero que además, le proporciona un peso específico a los pixeles.

3.6.1.2.2 Métodos basados en estadísticas de segundo orden

Todos los métodos estudiados anteriormente estaban basados en estadísticas deprimer orden (histograma). Sin embargo, existen otros que se basan en estadísticas desegundo orden.

3.6.1.2.2.1 Método de la matriz de coocurrencias.

Una matriz de coocurrencias normalmente se emplea para el estudio de la texturade una superficie. Ésta se denomina M(d,φ), donde d es la distancia que se toma desde elpixel central de la vecindad y φ equivale a la orientación:

M(1,90)

M(1,180) M(1,0)

M(1,270)

Por supuesto que los valores tanto de distancia como de orientación pueden ser dela forma que se necesiten, lo que por otra parte conlleva un mayor trabajo y un mayortiempo de operaciones. Lo más usado es emplear cuatro puntos de referencia:

Figura 3.59: Matriz de coocurrencia para una vecindad de cuatro

Page 78: 3 Luze Structur Ada

Luz Estructurada Rubén Collado Hernández

114 GVA-FAIS-UPM®PFC0055-00

)270,1()180,1()90,1()0,1( MMMMM +++=

Con esto, se obtiene que un elemento (i,j) de la matriz M corresponde al nivel degris i que se repite en una vecindad de cuatro. Esto produce que en zonas homogéneas seva a conseguir que se aumenten los valores de la diagonal principal, mientras que en zonasheterogéneas se aumentan los valores lejanos de ésta. Así, una vez obtenida la matriz decoocurrencias se procede a crear dos histogramas:

• Un histograma basado en los valores de la diagonal principal de M con un valleprofundo en la frontera entre fondo y objeto.

• Un histograma basado en los valores lejanos de la diagonal principal de M conun pico pronunciado entre el objeto y el fondo.

Una vez que se tiene estos dos histogramas se procede mediante cualquiera de losmétodos estadísticos de primer orden al estudio de los histogramas y donde se solapan elvalle del primero con el pico del segundo, entonces se tiene el valor umbral.

3.6.1.2.2.2 Método Scatter Plot

Este método está basado en el anterior con la diferencia de que esta vez se toma unavecindad de ocho y que el origen se encuentra en la esquina superior izquierda. Por otraparte, también hay que tener en cuenta que se emplea una matriz de coocurrencias M dondeel elemento (i,j) donde i representa el nivel medio de gris de la vecindad y j el nivel de gris.

Los elementos cercanos a la diagonal representan pixeles cuyo nivel de gris medioes cercano al nivel de gris real, esto representaría las zonas homogéneas, mientras que laszonas heterogéneas se encontrarían en valores lejanos de la diagonal principal.

El valor umbral se determinaría de la misma manera que el método de la matriz decoocurrencias, es decir, buscando el lugar donde solapan el valle de uno con el pico delotro histograma.

Figura 3.60: Imagen original y binarizada con el método de la matriz decoocurrencia con una vecindad de cuatro a 112

(3.92)

Page 79: 3 Luze Structur Ada

Rubén Collado Hernández Luz Estructurada

GVA-FAIS-UPM®PFC0055-00 115

Como se puede apreciar el resultado es bastante parecido al método anterior, sinembargo lleva una mayor carga computacional lo que le convierte en un algoritmo máslento.

3.6.1.2.2.3 Métodos Deravi y Pal

En este método también se emplean matrices de coocurrencias para definir dosmedidas de transición con el objetivo de determinar el valor umbral. Estas matrices detransición se determinan matemáticamente y se obtiene el umbral óptimo minimizando omaximizando las probabilidades conjuntas y condicionales de transición.

3.6.2 Operaciones morfológicas

El objetivo principal del procesamiento de imágenes es ayudar al usuario ainterpretar una imagen. El sistema visual del hombre percibe la información representadapor atributos tales como el brillo, formas y bordes. El ser humano puede diferenciar hasta36 grises diferentes o variaciones de intensidad, si además se le añade color el hombrepuede diferenciar miles de formas coloreadas e intensidades, por eso la mayoría de lainformación se encuentra en los bordes o cambios abruptos.

Figura 3.62: Imagen original y binarizada con el método Deravi y Pal a 78

Figura 3.61: Imagen original y binarizada con el método Scatter Plot a 111

Page 80: 3 Luze Structur Ada

Luz Estructurada Rubén Collado Hernández

116 GVA-FAIS-UPM®PFC0055-00

Una imagen digital se define como una matriz bidimensional donde sus elementosse llaman pixeles que es una abreviatura de la palabras inglesas picture elements. Elproceso de representar una imagen crea una representación gráfica de esta matriz donde losvalores de los pixeles se les asigna un determinado nivel de gris o un color particular. Lasdimensiones ancho y alto de la imagen da el número de pixeles de ésta lo que permite quese pueda acceder a ellos dando sus coordenadas, teniendo en cuenta que el origen se sitúaen la esquina superior izquierda. Los valores de los pixeles pueden ser negativos opositivos. Un ejemplo de valores negativos se encuentra en las imágenes termales querepresentan las temperaturas bajo cero, además también pueden ser números reales en elcaso de una onda sinusoidal.

Teniendo en cuenta esto se pueden realizar gran cantidad de operaciones sobre lasimágenes. Dependiendo de cómo actúen se pueden clasificar en estadísticas como porejemplo el cálculo del histograma para realizar estudios comparativos, ecualizaciones deéste etc. Son el tipo de operaciones más sencillas y se realizan mediante cálculosaritméticos. Otro tipo de operaciones que se pueden realizar son las llamadas operacionesgeométricas entre las que se encuentran los cambios de tamaño de imágenes, rotacionescon respecto a un eje o punto, traslaciones respecto a un punto o eje (flip), etc. Todas ellaspueden actuar sobre una parte o sobre toda la imagen.

También hay que tener en cuenta operaciones más complejas que llevan consigouna mayor carga de trabajo o tiempo de proceso, pero que producen mejores resultados,ellas son las operaciones de punto a punto y se caracterizan porque el algoritmo tiene que ircomo su propio nombre indica pixel a pixel comprobando en la mayoría de los casos sicumple o no con la condición expresada para producir uno u otro resultado. Entre ellas seencuentran todo tipo de operaciones aritméticas tales como la suma, resta, negación deimágenes, siendo esta última su empleo en imágenes en blanco y negro. También se puedeincluir en este grupo las binarizaciones, que serán estudiadas más adelante conprofundidad, las funciones recortadoras que permiten quedarse con una serie de pixelesque cumplen con unas condiciones estableciadas pudiendo poner a otro color los que no lascumplen, así como las asignaciones de tipo Look-up-table por las cuales se hace pasar lospuntos de la imagen por una función unívoca que puede ser de cualquier tipo, exponencial,lineal, de tipo raíz cuadrada, etc., con el fin de favorecer unos determinados niveles degrises.

Otro tipo de operaciones son las conocidas operaciones de vecindad, que van unpoco más allá de las operaciones punto a punto. En este caso, se estudian todos y cada unode los pixeles más además pixeles adyacentes a él, normalmente cuatro u ocho, paraintentar sacar zonas con características comunes para detectar zonas iguales o bordes. En[Gonza98] se describen gran cantidad de métodos y ejemplos donde se explican conclaridad los diferentes algoritmos de estas operaciones punto a punto.

El último caso de transformaciones son las morfológicas, que se caracterizanporque como su propio nombre indica se basan en las formas existentes en la imagen paraproducir sus algoritmos. Las más conocidas son las de erosión, dilatación, esqueletización,etiquetado, etc. A continuación se va a tratar este tema ya que se van a explicar lasdiferentes transformaciones indicadas anteriormente.

Page 81: 3 Luze Structur Ada

Rubén Collado Hernández Luz Estructurada

GVA-FAIS-UPM®PFC0055-00 117

3.6.2.1 Erosion ( Erode )

Con este tipo de operaciones lo que se pretende es colocar un elementoestructurante de cuatro sobre el pixel y sustituir su valor por el mínimo valor que tomaalguno de los pixeles vecinos. Normalmente se trabaja con imágenes binarias debido a larapidez de su procesamiento aunque también es posible hacerlo con imágenes en niveles degrises. En cualquier caso lo que se pretende en quitar los bordes o picos más definidos.Como ejemplo se pone la figura 3.63 que se encuentra en niveles de grises.

En la figura 3.63 se puede apreciar como las zonas más oscuras han aumentado enrelación con las más claras. Expresado matemáticamente se puede expresar como:

( )�� �

r

rl

r

rkknlmmnmn hgg

−= −=−−= ,'

En imágenes binarias se observa con mayor claridad la figurada erosión de la figuraresultante.

(3.92)

Figura 3.63: Imagen original y erosionada. Las zonas oscuras aumentan

Figura 3.64: Imagen original y erosionada. Las zonas oscuras aumentan

Page 82: 3 Luze Structur Ada

Luz Estructurada Rubén Collado Hernández

118 GVA-FAIS-UPM®PFC0055-00

3.6.2.2 Dilatación ( Dilate )

La dilatación se puede definir como el proceso contrario a la erosión ya que lo quehace es colocar el elemento estructurante encima del pixel correspondiente y coger el valormáximo de los pixeles que forman el elemento estructurante con esto lo que se consigue esaumentar las zonas blancas en lugar de las zonas blancas. Así como a la anterior se le llamatambién minimizado, a la dilatación se la llama maximizado porque aumenta el tamaño dela figura.

Se puede expresar matemáticamente como:

�� �

r

rl

r

rkknlmmnmn hgg

−= −=−−= )(' ,

3.6.2.3 Closing

A continuación de los dos procesos anteriores se tiene un closing que puededefinirse como una dilatación seguida de una erosión. Se puede definir como:

HHGHG Θ⊕=• )(

El objetivo es reducir los pixeles que se encuentran en picos o extremos,suavizando la forma de la figura. Esto se observa en la Figura 3.66.

(3.93)

(3.94)

Figura 3.65: Imagen original binarizada y dilatada. El tamaño disminuye.

Page 83: 3 Luze Structur Ada

Rubén Collado Hernández Luz Estructurada

GVA-FAIS-UPM®PFC0055-00 119

3.6.2.4 Opening

Como ya pasaba en la dilatación y la erosión, el opening es la operación inversa alclosing. El proceso por tanto es el contrario, al principio existirá lo que se conoce comoerosión para continuar con una dilatación. Matemáticamente se expresa como:

HHGHG ⊕Θ= )($

Los resultados por tanto son contrarios al proceso anterior, es decir, eliminará lospixeles que se encuentren aislados, lo cual es una buena herramienta para quitar elementosde ruido después de algunas binarizaciones. El resultado se observa en la Figura 3.67.

(3.95)

Figura 3.66: Imagen original binarizada y con closing. El tamaño de laszonas blancas se amplían

Figura 3.67: Imagen original binarizada y con opening. Se eliminan lospuntos aislados

Page 84: 3 Luze Structur Ada

Luz Estructurada Rubén Collado Hernández

120 GVA-FAIS-UPM®PFC0055-00

3.6.3 Esqueletización

La línea láser tiene un grosor entorno a un milímetro y la imagen de la superficiedel objeto iluminado es una línea de varios pixeles de ancho. Una vez segmentados lospixeles pertenecientes a esta línea láser es necesario pasar por una etapa de esqueletización,para reducir el objeto a su misma esencia.

Actualmente se emplean gran cantidad de algoritmos de esqueletización tales comoel empleado por Blum y su cálculo del eje medio para encontrar puntos cuya distancia alborde fuera de dos o más puntos. Otro sistema se basa en el cálculo de máximos locales ycon, básicamente, el mismo concepto del cálculo de distancias al borde.

El proceso más rápido es el llamado thinning o adelgazamiento sucesivo de capashasta que sólo queda un punto o el uso de máscaras.

Otro método es el cálculo de momentos de la línea láser. Para ello se calcula unproceso iterativo de cada columna que consiste en calcular la media aritmética ponderadapor sus niveles de grises de los puntos distintos de cero en dicha columna. A esto se leconoce como el cálculo del centro de gravedad de la distribución de puntos distintos decero en una columna. Esto se expresa de la siguiente manera:

∑∑

≠=

0),(

0),(,

),(

),(

yxpi

yxpi

igyxI

yxyI

y

donde y es la posición del pixel en la columna e I(x,y) es el nivel de gris. Si laimagen está binarizada, éste tendrá el valor de 1.

Además se calcula el radio de giro de dicha distribución de puntos, que equivale ala desviación típica ponderada de la distribución de la forma que indica la expresión (3.97).

( )M

yxIyy

Ryxp

iig∑≠

−= 0),(

2, ),(

∑≠

=0),(

),(yxp

i yxIM

El siguiente paso es eliminar de la distribución de puntos, todos aquellos que sesalgan del intervalo [-R/2, R/2] centrado en el centro de gravedad de la distribución.

Se recalcula el centro de gravedad de la nueva distribución operando repetidamentecomo se ha indicado anteriormente hasta que sólo quede un único punto. En el caso de que

(3.96)

(3.97)

(3.98)

Page 85: 3 Luze Structur Ada

Rubén Collado Hernández Luz Estructurada

GVA-FAIS-UPM®PFC0055-00 121

quede entre dos puntos luminosos y en ese caso se excluirían los dos, pero entonces setomaría el centro de gravedad.

Esto es así ya que en cada pasada el algoritmo se queda con el punto más luminosode la imagen en la columna, eliminando los puntos que se encuentran fuera de undeterminado radio de giro que pueden ser puntos de ruido. Además se consigue obtener lospuntos pertenecientes al plano láser y dentro de ésta, los más luminosos.

A continuación se muestran algunos ejemplos demostrativos del efecto de unaesqueletización y los resultados sobre la línea láser.

Figura 3.68: Efectos de esqueletizaciones

Figura 3.69: Esqueletización de la línea láser

Page 86: 3 Luze Structur Ada

Luz Estructurada Rubén Collado Hernández

122 GVA-FAIS-UPM®PFC0055-00

3.6.4 Estudio de blobs

Otra de las operaciones más importantes, sino la que más, es el estudio de blobs.Por la palabra blob se entiende las determinadas ‘manchas blancas’ que aparecen en unaimagen, normalmente binarizada, sobre un fondo oscuro y que cumple con unasdeterminadas características.

El estudio de estas características permite tener un punto de vista sobre la imagen,ya que, por ejemplo, si se está en un control numérico de cierta cantidad de objetos y elestudio de los blobs indica que existe un número mayor o menor de elementos de los quetienen que aparecer, inmediatamente saltaría el aviso de fallo.

Pero el estudio de blobs no se limita a contar el número de ‘manchitas’ existente enla imagen, sin que va más allá. Permite conocer el área, perímetro, inclinación,coordenadas donde se encuentra, localizar su centro de gravedad, entre otras característicasque lo convierte en una herramienta muy útil para la inspección.

Un buen análisis de blob puede acelerar el proceso de inspección de una maneramuy eficaz, ya que una vez localizado el blob, se pueden crear lo que comúnmente seconoce como ROIs (region of interest) y estudiar solo esa parte. Un ejemplo puede ser elinspeccionar etiquetas que contienen letras, números o dibujos, ya que se necesitaríasolamente encontrar el blob que cumple con las características de la etiqueta y centrar elestudio sobre ésta, cualquiera que sea la ubicación de ésta en el conjunto de la imagenreduciendo el tiempo y operaciones de cálculo y búsqueda.

En el ejemplo de abajo a la izquierda se muestra una imagen en la que se hanbuscado objetos que tuvieran un determinado área de pixeles que se encuentren entre dosvalores límites con el objeto de no marcar todos los puntos que aparecen. A la derecha semuestra la aplicación para la búsqueda de blobs en la imagen de la rejilla de calibración.

Figura 3.70: Ejemplos del estudio de blobs

Page 87: 3 Luze Structur Ada

Rubén Collado Hernández Luz Estructurada

GVA-FAIS-UPM®PFC0055-00 123

3.6.5 Conclusiones

A modo de conclusión y como resumen de este apartado, se puede decir que se hanexplicado algunas de las operaciones básicas más importantes y las comúnmente utilizadaspara el procesado de la información en una imagen digital.

Se ha comentado en primer lugar los diferentes métodos de umbralización con elobjetivo de obtener el mejor valor para la posterior binarización de una imagen de unaforma automática, sin tener que ver el histograma de éstas en cada imagen para tantear unvalor adecuado, junto con ejemplos de dos imágenes distintas para ver su comportamiento.

Los diferentes ejemplos permiten comparar resultados y métodos, ya que teniendoen cuenta imágenes distintas, los resultados de umbrales con técnicas dependientes depunto difieren bastante de una imagen a otra. Sin embargo, cuando se habla de técnicasdependientes de regiones, los valores se asemejan bastante en las dos imágenes debido aque el valor resulta de diferentes valores obtenidos por el estudio de regiones de vecindady no por un sistema punto a punto.

También se ha hablado de las cuatro operaciones básicas morfológicas como son ladilatación y la erosión y las compuestas por éstas como el openning y closing. Además, sehan expuesto junto a ellas ejemplos con imágenes que pueden explicar de una manerapráctica lo que se ha expuesto teóricamente.

Además, se ha comentado qué es y por qué se utiliza la esqueletización en procesosno sólo de luz estructurada, comentando uno de los métodos que se utiliza en el programacálculo de medidas que se comentará en siguientes capítulos.

Por último se ha comentado lo que significa el análisis de los blobs en la Visiónartificial qué es un blob y cuáles son sus ventajas en lo que se refiere al análisis deimágenes.

Page 88: 3 Luze Structur Ada

Luz Estructurada Rubén Collado Hernández

124 GVA-FAIS-UPM®PFC0055-00

3.7 Conclusiones

A lo largo de este extenso capítulo se ha hecho un repaso a los sistemas de luzestructurada a través de sus elementos componentes. Se comienza con unas brevesnociones a la teoría general, para comenzar el estudio de las partes.

Lo primero que se ha estudiado es el láser, desde su historia y funcionamientobásico hasta sus aplicaciones actuales, y cómo se ha aplicado al sistema. Mas tarde se venlos sistemas de cámara, con una introducción a la óptica y el estudio de sus componentesbásicos.

Una vez expuestos los elementos esenciales, se estudia la optimización del sistemacon los recursos existentes.

Especial importancia tiene toda calibración, ya sea de la cámara o del plano láser,por lo que se le dedica uno de los apartados, al igual que a la manipulación digital de lasimágenes, donde se da un repaso a las técnicas más importantes.