ENCUENTRO NACIONAL DE SEMILLEROS DE
INVESTIGACIÓN DE FACULTADES DE INGENIERÍA DE
TELECOMUNICACIONES
LIBRO DE RESÚMENES
Número II
ENCUENTRO NACIONAL DE SEMILLEROS DE
INVESTIGACIÓN DE FACULTADES DE INGENIERÍA DE
TELECOMUNICACIONES
LIBRO DE RESÚMENES
Medellín, 27 de octubre de 2015 Número II
UNIVERSIDAD SANTO TOMÁS, SEDE MEDELLÍN
Comité Académico: Camilo Andrés Flórez Velásquez, Guillermo León Bolívar Ortiz, Ángela María
Londoño Jaramillo.
Compiladores: Camilo Andrés Flórez Velásquez, Ángela María Londoño Jaramillo
Universidad Santo Tomás, 2015
Carrera 82 N0. 77 BB 27.
Medellín, Colombia.
Teléfono: (574) 2341034, Ext. 290.
www.ustamed.edu.co
ISSN 2500-7610 (En línea)
Contenido
Presentación. 9
Curvas de factor de concentración de esfuerzos para platinas con escalón
sometidas a carga axial y a flexión por medio de simulaciones.
11
Interfaces para la expresión musical que expanden instrumentos
tradicionales.
15
Experiencia de participación en el programa de Jóvenes Investigadores del
Instituto Tecnológico Metropolitano.
19
Metodología para la detección de vulnerabilidades a través de pruebas de
penetración con Metasploit para el aumento de la seguridad informática
en el sector empresarial.
23
Hexápodo: Un prototipo de una Hormiga Robótica. 28
Sistema de trilateración 2D en espacios interiores para vehículo de guiado
autónomo utilizando sensores de ultrasonido y comunicaciones bajo el
protocolo MiWi.
30
Propuesta de un modelo para la articulación de la investigación en un
programa de ingeniería.
35
Desarrollo de prácticas de laboratorio para sistemas de comunicaciones
móviles aplicando radio definido por software.
40
Propuesta para identificación de personas en distintas posturas, integrado
al prototipo “HELFEN”, a partir de los patrones generados por KINECT.
49
Implementación y Control de movimiento del vehículo HELFEN a través de
X-Bee.
53
Diseño de la infraestructura de Red de Nueva generación de la Facultad de
Ingeniería de Telecomunicaciones para ofrecer servicios de voz, datos y
vídeo.
56
Dental QR. 61
DomoHouse. 68
Prueba experimental del algoritmo ACP para el reconocimiento de rostros
bajo condiciones de luz controlada y diferentes expresiones gestuales.
73
Desarrollo de un sistema multisensorial para monitorear gases tóxicos en
espacios cerrados mediante tecnología inalámbrica.
78
Clasificación de compuestos volátiles a través de técnicas de modulación
de temperatura en sensores de gases químicos.
83
Medición automática de variables antropométricas para la aplicación y
desarrollo del protocolo de evaluación fonoaudiológica de la respiración.
92
Desarrollo de un aplicativo de software para la segmentación de arterias
coronarias a partir de imágenes angiográficas utilizando el método de
crecimiento de regiones.
96
Diseño e implementación de una plataforma de software, aplicada a la
determinación de microorganismos en medios de cultivo selectivos.
100
Medición automática del nivel de aprendizaje en niños de 4 a 6 años de
edad aplicando el método PLON y técnicas de procesamiento de señales.
103
Análisis de señales ACARS mediante radio definida por software. 107
Evaluación de ataques a dispositivos móviles para el diseño de un sistema
de detección de anomalías.
113
Protección de derechos de autor en imágenes por medio de señales de
voz.
120
Audio forense: Mejoramiento de la calidad de audio. 127
Diseño de un sistema en Cloud, para controlar dispositivos IoT vía Web. 133
Prototipo para generación vectorial de señales RF a través de interface
GPIB.
139
Análisis de vulnerabilidades de elementos inalámbricos utilizados en la
tecnología IoT.
148
Viabilidad de acceso al campus UMNG. 156
Prototipo de generación de modulaciones digitales de señales de RF
mediante SDR y LabView.
159
Sistema de gestión de espectro radioeléctrico empleando el hardware RTL
– SDR.
163
Medición y monitoreo de caudales en cuenca hidrográfica, río Bogotá,
ribera UMNG Campus, mediante el uso de Wireless Sensor Network, para
prevención y posible estimación de desastres naturales.
167
Análisis visual para el mayor rendimiento del estudiante y menor esfuerzo
visual, en el edificio “D” (aulas D101 y D102) de la Universidad Militar
Nueva Granada – Sede Campus (Cajicá).
173
Comparación de la sensórica implementada en equipos de fatiga de
pavimentos existentes entre América y Europa.
178
9
Presentación
El día 27 de octubre de 2015, se desarrolló en las instalaciones de la Universidad Santo
Tomás Sede Medellín, el evento “Tercer Encuentro Nacional de Semilleros de Investigación
de Facultades de Ingeniería de Telecomunicaciones, Medellín 2015” (III ENSIT, Medellín
2015), auspiciado por la Unidad de Investigaciones y la Facultad de Ingeniería de
Telecomunicaciones de la Universidad Santo Tomás Sede Medellín, y la Red de Facultades
de Ingeniería de Telecomunicaciones (REDITEL).
El encuentro nacional de semilleros de investigación es una iniciativa que nació de las
Facultades de Ingeniería de Telecomunicaciones de la Universidad Santo Tomás Colombia,
que tiene por objetivo fundamental abrir espacios propicios para los ejercicios de
divulgación científica, útiles para la presentación pública de los desarrollos investigativos
generados por los semilleros de investigación de diversas facultades de Ingeniería de
Telecomunicaciones y afines del país, o de semilleros de Facultades de áreas no tan afines
a Telecomunicaciones, pero que en sus ejes temáticos multidisciplinarios emplean
tecnologías asociadas a las comunicaciones electrónicas.
En esta tercera versión de tan importante evento se alcanzó la meta de convocar una
gran cantidad de proyectos (32 en total), cantidad que rebasó las expectativas de registro
estimada por el comité organizador, ilustrando así la fuerza y relevancia que el ENSIT ha
adquirido a través del tiempo, y la necesidad imperante de trabajar cada vez más para que
el evento sea reconocido a nivel nacional, como un espacio de primera categoría para la
divulgación de las ciencias a nivel de los semilleros de investigación en el ámbito de las
Telecomunicaciones y otras disciplinas afines.
El encuentro fue sobresaliente respecto a la calidad científica de las ponencias
presentadas por los diferentes semilleros de investigación participantes, tanto de
Antioquia como de otras regiones y ciudades de Colombia, y se mostró al público
académico asistente el gran potencial que poseen los investigadores participantes en el
análisis y resolución de una gran variedad de problemáticas de naturaleza tecnológica que
aquejan a nuestras comunidades, a nuestras regiones y al país.
El presente libro es el resultado juicioso del comité académico del evento y de todos los
participantes, donde se ilustran los resúmenes que por su la calidad y relevancia de las
problemáticas analizadas y soluciones propuestas, son bastante adecuados para ser
enseñados a la comunidad científica del país. Estos resúmenes son una gran muestra de la
capacidad de nuestros jóvenes investigadores universitarios en la proposición de
ingeniosas soluciones que giran alrededor de las ciencias y la ingeniería.
En nombre del comité organizador del III Encuentro Nacional de Semilleros de
Investigación de Facultades de Ingeniería de Telecomunicaciones, Medellín 2015,
agradecemos a todos los investigadores participantes y miembros de los comités
10
académico – organizador que hicieron posible el desarrollo exitoso de tan importante
evento; y estamos seguros que los resúmenes presentados en este libro serán de total
interés como material de consulta para otros investigadores, para impulsar y dinamizar el
desarrollo de nuevos proyectos investigativos de interés para nuestras comunidades.
11
Curvas de factor de concentración de
esfuerzos para platinas con escalón
sometidas a carga axial y a flexión
por medio de simulaciones
Daniel Osorio Patiño 1[autor]
Juan Diego Betancur Gómez 1[autor]
Felipe Hoyos Gómez 1[autor]
Juan Gonzalo Ardila Marín 1[autor]
Resumen
El objetivo del presente estudio es comprobar que las curvas de factor de concentración de
esfuerzos experimentales, que se encuentran disponibles en la literatura y que fueron
construidas tras exorbitantes ensayos físicos, pueden ser realizadas por medio de
simulaciones logrando un ajuste significativo. Para este caso, se seleccionaron dos geometrías
iguales sometidas a dos fuerzas diferentes para el estudio: platina con escalón sometida a
carga axial y platina con escalón sometida a flexión, para las dos geometrías se seleccionaron
diferentes relaciones de forma para comparar las curvas construidas numéricamente con las
curvas experimentales consultadas, tras el desarrollo de la geometría en Design Modeler, su
posterior mallado en Mechanical, luego la aplicación de fuerzas axiales o flexionantes y por
ultimo su simulación en Static structural todas estas oriundas del ANSYS Workbench®, allí se
obtuvo el esfuerzo máximo y se calculó el esfuerzo nominal como la relación entre la fuerza
aplicada y el área mínima perpendicular a la fuerza, para poder, a partir de la relación entre el
esfuerzo máximo y el esfuerzo nominal, evaluar el factor de concentración de esfuerzo,
graficarlo y compararlo con el experimental. Finalmente con los resultados obtenidos podemos
concluir que es posible construir curvas de factor de concentración de esfuerzo para platinas
con escalón sometidas a carga axial y a flexión por medio de simulaciones computarizadas,
con la misma confianza que se tienen de los métodos experimentales convencionales, pero a
un menor costo.
Introducción
La investigación educativa en la actualidad tiene un carácter propio en la medida
que intenta resolver problemas prácticos educativos relacionados con la búsqueda de
1 Programa de Ingeniería Mecatrónica, Semillero En Computación Avanzada y Diseño Digital, Instituto Tecnológico Metropolitano,
Medellín. Correo electrónico: [email protected]
12
un mejor desempeño académico de los estudiantes. Dentro de estos problemas
prácticos, en el campo de las Ciencias, cabe mencionar aquellos relacionados con los
ambientes educativos y su incidencia en el desarrollo de habilidades para la
investigación. Lo anterior implica una transformación de las prácticas docentes en
relación a sus estrategias de enseñanza, para que éstas permitan cualificar los
procesos académicos de los estudiantes y con ello, acercarlos a procesos de
investigación.
Por esto se hace necesario fomentar el mejoramiento de la enseñanza para el
aprendizaje mediante la generación de espacios académicos que involucren de
manera más acentuada la participación de los estudiantes.
En la consolidación de estos propósitos, el semillero de Didáctica y medios de
aprendizaje de las Ciencias Básicas busca abrir espacios académicos de formación en
investigación para estudiantes interesados en desarrollar habilidades y competencias
que les permita hacer parte de equipos académicos con intereses investigativos en
distintas áreas del conocimiento. El trabajo, mediante la metodología de talleres y
actividades de trabajo independiente, ha posibilitado profundizar sobre las distintas
funciones que provee el Matlab como recurso didáctico de aprendizaje y herramienta
informática para la investigación (Gil, 2003). Es así como, se presenta una aplicación
diseñada en Matlab a través de una Interfaz gráfica de usuario que permite visualizar
el sólido de revolución que se obtiene de generar el área entre dos curvas alrededor
del eje x (Stewart J. 2008).
Marco Teórico
La educación superior debe garantizar una plataforma conceptual para la formación
del pensamiento crítico y el desarrollo de la sensibilidad de sujetos que han de
interactuar en los diversos contextos que favorecen el desarrollo humano, científico y
social. En nuestro medio son cuestionados los resultados que muestran los
indicadores que miden el desarrollo social y los avances en la productividad técnico-
científica, situación que pone en evidencia una baja competitividad, en especial, sobre
temas relacionados con procesos de investigación.
En Colombia, el interés por posicionar las actividades de ciencia y tecnología se
hace evidente con la implementación de políticas públicas que buscan ubicar la
investigación como un asunto clave en el desarrollo del país. Tal es el caso de la Ley
de Ciencia y Tecnología que busca fortalecer una cultura basada en la generación,
apropiación y divulgación del conocimiento a través de: la investigación científica, el
desarrollo tecnológico, la innovación y el aprendizaje permanente. En el mismo
sentido, el documento COMPES 2009 establece la Ciencia, la Tecnología y la
13
Innovación (CTeI) como una vía de desarrollo que se basa en el incremento de la
capacidad del país para generar y usar el conocimiento científico y tecnológico.
Por su parte, las Instituciones de Educación Superior deben promover los semilleros
de investigación como espacios para ejercer la libertad, la crítica académica, la
creatividad y la innovación (Oquendo, 2007). Los semilleros de investigación permiten
la participación de los estudiantes en la gestión de proyectos de investigación
mediante la apertura de espacios en los que se comprende que investigar es un
proceso unido a la formación donde se aprende a aprender y se descubre nuevo
conocimiento y métodos de aprendizaje (Torres, 2005). Las actividades desarrolladas
en el marco de la estrategia de semillero, propician la reflexión y el análisis entorno a
las tendencias didácticas y pedagógicas que docentes y estudiantes emplean en sus
quehaceres educativos de forma que se puedan buscar nuevos caminos que
resignifiquen los aprendizajes (Zapata G et al., 2012). En este sentido, se busca
contribuir a la generación de ambientes educativos favorables a través del desarrollo
de habilidades para la investigación que generen espacios de reflexión hacia la
construcción de alternativas de solución de los problemas en que intervienen los
ambientes educativos como factores que obstaculizan o favorecen la enseñanza y el
aprendizaje de las ciencias básicas y aplicadas.
El trabajo independiente direccionado a partir de estos procesos, ha sido concebido
como proceso didáctico a partir del cual se incide en la formación integral del
profesional. Es una propuesta para lograr aprender y enseñar en la sociedad del
conocimiento, a través del tránsito flexible del estudiante por su formación, tomando
en cuenta su vinculación con la práctica, el entorno y el uso de las tecnologías.
El trabajo colaborativo entre el profesor y el estudiante compromete a cada
miembro con la formación personalizada desde lo grupal, donde cada uno aporta
conocimientos en beneficio social, se constituyen ideas novedosas y a la vez
consecuente con la época; hace más viable, humano y esencial el proceso formativo
(Román & Herrera, 2010).
Metodología Empleada
En lo metodológico, el trabajo se ha desarrollado mediante estrategias de trabajo a
nivel grupal e individual. El trabajo en grupo se orienta a través de talleres, sesiones
de discusión, desarrollo de guías de actividades y demás actividades que favorezcan
el trabajo colaborativo. El trabajo individual se concreta en lectura y análisis de
documentos, generación de secuencias y articulación de funciones que siguen una
lógica de programación estructurada.
14
Resultados y Conclusiones
Los contextos de aprendizaje fundamentados en el desarrollo de aplicaciones con
herramientas informáticas, acercan al estudiante al dominio de conceptos y
procedimientos propios del área de Ciencias Básicas. En este sentido, los programas
computaciones como el Matlab permiten la configuración de herramientas para la
investigación que favorecen la experimentación y posibilitan que los estudiantes
participen del logro de conocimientos y de la apropiación de significados relacionados
con diversos objetos matemáticos.
Referencias
Gil Rodriguez, M. (2003). Introducción rápida a Matlab y Simulink para Ciencia e Ingeniería. Madrid:
Ediciones Díaz de Santos.
Consejo Nacional de Política Económica y Social CONPES. (2009). Política Nacional de ciencia,
tecnología e innovación. Departamento Nacional de Planeación(DNP). República de
Colombia. Documento 3582: Bogotá.
Oquendo, S., (2007); Semilleros de investigación y desarrollo humano. En Avances en investigación
formativa. Volumen 2. RedCOLSI. Red Colombiana de Semilleros de Investigación
Román C. E. & Herrera R. J. (2010). Aprendizaje centrado en el trabajo independiente. Revista
Educación y educadores, 13(1), 91–106.
Stewart J. (2008). Cálculo trascendentes tempranas (Sexta ed). Mexico, Cengage Learning.
Torres, L., (2005); Para qué los semilleros de investigación. Revista Memorias. Recuperado el 29 de
abril de 2015 de
http://scholar.google.es/scholar?hl=es&q=Para+qu%C3%A9+los+semilleros+de+investigac
i%C3%B3n&btnG=&lr=
Zapata G., Dominguez J., Molina J.. (2012). Didáctica reflexiva en educación superior: Una mirada
desde el relato autobiográfico. Editorial académica española.
15
Interfaces para la expresión musical
que expanden instrumentos
tradicionales
Oscar Fernando Moreno Restrepo2 [autor]
Jorge Andrés Saldarriaga Gaviria2 [autor]
Miguel Vargas Fernández2 [autor]
Resumen
El objetivo del presente trabajo es explorar algunas posibilidades de expansión de la
expresión de instrumentos musicales, por medio de sensores que mapeados a parámetros de
control de procesamiento digital permiten una interpretación aumentada. Este tipo de
instrumentos se conocen como instrumentos híbridos, expandidos o aumentados. Se quiere
hacer guitarra eléctrica expandida con elementos fáciles de conseguir tales como sensores de
luz, fuerza, presión, distancia; también se propone la integración de un dispositivo móvil como
interfaz de control padXY y en un futuro seguir experimentado con más sensores. Estos
sensores son usados como interfaces para controlar parámetros de un procesador digital al
que va conectado la guitarra.
Introducción
Hoy un instrumento musical está definido como todo aquello que es capaz de
generar sonido audible y se puede emplear para hacer música (Blasco Vercher et al).
Así desde el silbido producido por un humano, hasta los sintetizadores digitales
modernos son considerados instrumentos musicales. Por otro lado existen
instrumentos que son identificados inmediatamente como producidos para el fin
específico de crear música, tales como un piano, un violín, una flauta, etc. Alrededor
de este tipo de instrumentos se han desarrollado maneras tradicionales de
interpretación y cada día se encuentran intérpretes que expanden la manera en que
se pueden expresar con un instrumento musical como por ejemplo cuando se golpea
la caja de una guitarra acústica para producir ritmos de percusión. Estas posibilidades
de expresión están limitadas a las características físicas del instrumento y no siempre
es posible generar un resultado sonoro deseado con un instrumento en particular. La
facilidad para conseguir sensores, microcontroladores, así como el advenimiento de
2 Programa de Informática Musical, Semillero de Investigación Acorde, Instituto Tecnológico Metropolitano de Medellín. Correo
electrónico: [email protected]
16
computadores más poderosos ha permitido la creación de instrumentos híbridos,
también llamados instrumentos expandidos o aumentados que son instrumentos
tradicionales modificados para expandir sus características sonoras, encaminados en
la búsqueda de nuevas interfaces de expresión musical (NIME); a esta actividad de
creación de instrumentos aumentados también se le conoce como Digital Luthier
Crafting –Lutier digital-- (Jordá S). Uno de los trabajos más representativos de este
campo es 'Hyperinstruments' de Tod Machover en el que por medio de sensores crea
instrumentos de cuerda expandidos (Machover T.). Marcelo Wanderley es otro
referente importante el cual ha tenido un amplio recorrido en la expansión de
instrumentos musicales y creación de nuevos instrumentos usando sensores y
sintetizadores digitales (Miranda E. R. et al). Atau Tanaka hace una muy buena
recopilación del tema (Dean R. T.) Desde hace algún tiempo el semillero ACORDE ha
tenido la inquietud de explorar con instrumentos expandidos y dio su primer paso
con la construcción de un dispositivo inalámbrico tipo reloj de pulso, el cual permite
que los gestos hechos con la muñeca de un intérprete de cualquier instrumento
puedan controlar parámetros de procesamiento. Este prototipo permite la conexión e
intercambio rápido de diversos sensores, tales como acelerómetros, sensores de
presión, sensores flexo-resistivos, etc. lo que facilita la experimentación con
diferentes instrumentos musicales y técnicas de interpretación. A su vez se comenzó
el diseño de un software que gestione los datos proporcionados por el prototipo y
que pueda reconocer gestos específicos del intérprete. En el presente trabajo se desea
seguir explorando con instrumentos híbridos de una manera funcional y de bajo
costo. Para este fin se usaron algunos sensores para modificar una guitarra eléctrica
conectada a un procesador digital por medio de un Arduino UNO flasheado para
mandar MIDI por USB. Los sensores usados van mapeados a diferentes parámetros del
procesador digital por medio de MIDI y OSC. Hasta el momento se ha probado con 4
sensores: una fotorresistencia, sensor de distancia por ultrasonido, acelerómetro y
sensor de presión. También se integró un dispositivo móvil como interfaz de control
que usa el protocolo OSC para enviar mensajes MIDI. Las conexiones han sido
realizadas de manera satisfactoria pero aún falta por explorar más el mapeo a los
parámetros de procesamiento ya que puede ser uno entre muchos o varios al mismo
tiempo. De la misma manera se requiere optimizar la calibración de los sensores y
optimizar el manejo de la señal de los sensores para mandar mensajes más limpios.
Metodología Empleada
Descripción general: Se usa una guitarra eléctrica “Estratocaster” como instrumento
a trabajar, a la cual se le han acoplado algunos sensores y un microcontrolador
(Arduino UNO) además de un dispositivo móvil. Estos con el propósito de controlar
17
por medio de mensajes MIDI, diferentes parámetros de un procesador digital de
audio. En la Figura 1 se muestra de manera la conexión de los elementos.
Figura
1. Descripción general del proceso. La imagen fue elaborada por el autor.
Elementos usados:
- Sensores: Fotorresistencia genérica, un acelerómetro ADXL335, un sensor de
presión FlexoForce de 25 lb, y un sensor de distancia ultrasonido.
- Microcontrolador: Se usa la placa Arduino UNO como conversor AD, gestor
de los datos que llegan de los sensores, así como interfaz MIDI para
enviarlos al procesador digital.
- Dispositivo móvil: El dispositivo móvil empleado es un smartphone con SO
Android que cuenta con la aplicación OSC-Touch usando una interfaz Pad
XY.
- Procesador digital: Rack de efectos de procesamiento de audio de Ableton
live.
- Router Thompson TG585: usado para comunicar el dispositivo móvil con el
computador por WI-FI.
El mapeo de datos es un tema que está en constante investigación y por ahora hay
diferentes formas de llevarlo a cabo. En este caso se hace de manera 'uno a uno', es
decir que cada valor arrojado por los sensores controlan un parámetro del procesador
digital.
18
Debido a que la resolución del DAC del Arduino UNO es de 10 bits (0-1023 valores
posibles), se necesita hacer una conversión de datos compatible con mensajes MIDI
que es de 7 bits (0-127 valores posibles). También se toma en cuenta el rango
dinámico de los sensores y los gestos para hacer un mapeo más adecuado.
Resultados y Conclusiones
La comunicación de los sensores, el microcontrolador, el dispositivo móvil y el
procesador de audio fueron establecidas de manera exitosa.
El mapeo de los valores de los sensores a los diferentes parámetros de
procesamiento de audio funciona pudiendo modificar el sonido de la guitarra en
tiempo real con gestos familiares para un intérprete de guitarra eléctrica. Sin
embargo, hay que mejorar la calibración de los sensores en un momento inicial.
La expansión de instrumentos musicales tradicionales es ahora mucho más
asequible gracias a la difusión de sensores y microcontroladores de fácil acceso
como Arduino. Este aspecto se ve mejorado cada día y se ve gran potencial en
microcontroladores con capacidad de comunicación WiFi como el esp-8266, con el
cual se espera trabajar en un futuro cercano.
El instrumento expandido trabajado tiene el potencial para ser usado en situaciones
reales de interpretación musical después de hacer las optimizaciones
correspondientes.
Referencias
Blasco Vercher, F., Sanjosé Huguet, V., & Pérez Bermúdez, C. (1994). Los instrumentos musicales.
Valencia: Universitat de Valencia.
Dean, R. T. (Ed.). (2009). The Oxford handbook of computer music. Oxford ; New York: Oxford
University Press.
Fels, S., University of British Columbia, & New Interfaces for Musical Expression (Eds.). (2005). NIME-
05: New Interfaces for Musical Expression : Vancouver, BC, Canada, May 26-28, 2005 :
Proceedings. Vancouver: University of British Columbia, Media and Graphics Interdisciplinary
Centre.
Jordà, S. (2005). Digital Lutherie Crafting musical computers for new music’s performance and
improvisation. Ph.D. Dissertation. UPF. Retrieved from files/publications/PhD2005-
sjorda.pdf
Miranda, E. R., & Wanderley, M. M. (2006). New digital musical instruments: control and interaction
beyond the keyboard. Middleton, Wis: A-R Editions.
Machover, T., & Laboratory, M. I. of T. M. (1992). Hyperinstruments: A Progress Report, 1987-1991.
MIT Media Laboratory. Recuperado a partir de
https://books.google.com.co/books?id=saqcHAAACAAJ
19
Experiencia de participación en el
programa de Jóvenes Investigadores
del Instituto Tecnológico
Metropolitano
Tatiana Marcela Blandón Montoya 3 [autor]
Juan Carlos Molina García 3 [autor]
Resumen
El Instituto Tecnológico Metropolitano ITM, viene implementando el programa Jóvenes
investigadores e innovadores con el objetivo de fortalecer las capacidades y habilidades en
investigación e innovación de los jóvenes talento de la institución, mediante su vinculación a
grupos y líneas de investigación bajo la metodología de ‘aprender haciendo con criterio’
De manera particular, y como parte de este programa, el semillero de Didáctica y medios de
aprendizaje de las ciencias básicas adscrito a la facultad de Ciencias Exactas y aplicadas del
ITM, viene apoyando este proceso mediante la implementación de tutorías estudiantiles a partir
de las cuales se generan espacios de práctica que conducen a ejercicios escriturales y de
diseño de propuestas de formación en el campo del aprendizaje de las Ciencias. Esto, en el
marco del trabajo entre pares como estrategia de consolidación de propuestas de formación de
estudiantes para estudiantes.
Introducción
El programa de Jóvenes investigadores del ITM, se configura como una oportunidad
de instituir espacios de cualificación orientados a favorecer el relevo generacional
desde la proyección del talento, la excelencia académica y el aprendizaje permanente
de estudiantes que demuestran tener conciencia de sí mismos y del mundo al que
pertenecen como presupuestos de la misión y el modelo pedagógico institucional. La
iniciativa institucional está acorde con los objetivos declarados en la política nacional
de Ciencia, Tecnología e Innovación en lo relacionado con la necesidad de fortalecer la
formación del recurso humano para la investigación y la innovación, así como la
promoción y apropiación social del conocimiento (CONPES, 2009).
3 Programa Transversal a las tecnologías e ingenierías del ITM, Semillero de Investigación En Didáctica y medios de aprendizaje de
las Ciencias Básicas, Instituto Tecnológico Metropolitano de Medellín. Correo electrónico: [email protected]
20
El semillero de Didáctica, como participante de este programa institucional, busca
generar un espacio académico de formación en investigación dirigido a estudiantes
interesados en desarrollar las habilidades y competencias necesarias que les permita
hacer parte de equipos académicos con intereses investigativos en el área de la
didáctica y los ambientes de enseñanza y aprendizaje de las Ciencias. Con esto, se
pretende favorecer la formación académica de los jóvenes del ITM, mediante la
búsqueda del desarrollo de sus potencialidades en el marco de una cultura de la
investigación y el trabajo colaborativo, que permita la participación efectiva y
proactiva de los estudiantes en los procesos de investigación que se desarrollan
desde la Facultad.
Los componentes temáticos del semillero contemplan una visión amplia de los
procesos de investigación articulados a los fenómenos educativos inmersos en la
enseñanza y el aprendizaje de las Ciencias. Bajo esta perspectiva, se hace énfasis en
temas relacionados con metodologías de la investigación, corrientes pedagógicas
contemporáneas y didáctica de las Ciencias.
Como resultados prácticos de las actividades desarrolladas en el marco del
programa de jóvenes investigadores, se presentan, en primer lugar, las ideas
plasmadas en el artículo: Aprendizaje y enseñanza de las matemáticas mediadas por
las TIC. En segundo lugar, se muestra el diseño de un curso de extensión enmarcado
en el campo del uso de centros de recursos en la web para el aprendizaje de las
Ciencias Básicas.
Estas actividades han permitido la apertura de espacios que favorecen el desarrollo
de las capacidades generales para la investigación en la vía de consolidar procesos de
formación integrales, en los que los estudiantes generan reflexiones y actividades de
cualificación dirigidas a los mismos estudiantes como acciones que posicionan la
estrategia de trabajo entre pares.
Metodología Empleada
El semillero de investigación se consolida básicamente como un modelo de
enseñanza aprendizaje que convoca al ejercicio de la libertad, la crítica académica, la
creatividad y la innovación. De esta forma, además de facilitar a los estudiantes la
adquisición de habilidades para la investigación científica, busca generar
conocimientos para el mejoramiento de las relaciones de enseñanza y aprendizaje de
las Ciencias Básicas. Para esto, se basa en el desarrollo de las políticas institucionales
que buscan fortalecer la investigación formativa como herramienta del proceso
pedagógico, esto es, la enseñanza y el aprendizaje mediado por procesos de
investigación (Ocaña, 2010).
21
En lo metodológico, las actividades se han desarrollado mediante estrategias de
trabajo individual con acompañamiento del docente tutor. Estos desarrollos se
concretan a partir de lecturas, análisis de documentos y búsquedas de recursos en la
web.
Resultados y Conclusiones
Los componentes temáticos del programa de Jóvenes investigadores integrados al
semillero de didáctica del ITM, contemplan una visión amplia de los procesos de
investigación articulados a los fenómenos educativos inmersos en la enseñanza de las
Ciencias. Bajo esta perspectiva, el énfasis ha estado puesto en temas relacionados con
la matemática como área vital en la fundamentación científica, las metodologías de la
investigación y los recursos de la web como fuentes de recursos didácticos para el
aprendizaje de las Ciencias.
En este sentido, se ha logrado articular las actividades de acuerdo a dos frentes de
trabajo, en primer lugar, hacia una reflexión sobre las Tic en el aprendizaje de las
matemáticas y su incidencia en la formación de ingenieros y, en segundo lugar, al
levantamiento de un inventario de recursos en la web que facilitan de manera
interactiva los procesos de aprendizaje de las ciencias básicas, de manera particular la
aplicación de conceptos y procedimientos matemáticos. Esto último, para ser
articulado dentro de un curso práctico de extensión que se ofrece a los estudiantes de
primer semestre de ingeniería de la institución.
Las Instituciones de Educación Superior deben promover los semilleros de
investigación como espacios para ejercer la libertad, la crítica académica, la
creatividad y la innovación (Oquendo, 2007). Los semilleros de investigación permiten
la participación de los estudiantes en la gestión de proyectos de investigación
mediante la apertura de espacios en los que se comprende que investigar es un
proceso unido a la formación donde se aprende a aprender y se descubre nuevo
conocimiento y métodos de aprendizaje (Torres, 2005).
En el marco del programa Jóvenes investigadores, la participación del semillero de
Didáctica ha permitido fomentar la investigación formativa como base del
mejoramiento de los procesos académicos de los estudiantes, de igual forma ha
favorecido reflexiones y análisis, desde la perspectiva estudiantil, en torno al
componente pedagógico que rige las relaciones de enseñanza y el aprendizaje de las
Ciencias.
22
Referencias
Consejo Nacional de Política Económica y Social CONPES. (2009). Política Nacional de ciencia,
tecnología e innovación. Departamento Nacional de Planeación (DNP). República de
Colombia. Documento 3582: Bogotá.
Ocaña R. (2010). Pasado y presente de la investigación educativa. En Revista Digital Universitaria, Vol
11 Número 2. Recuperado el 25 de septiembre de 2015 de
http://www.revista.unam.mx/vol.11/num2/art18/art18.pdf
Oquendo, S., (2007); Semilleros de investigación y desarrollo humano. En Avances en investigación
formativa. Volumen 2. RedCOLSI. Red Colombiana de Semilleros de Investigación
Torres, L., (2005); Para qué los semilleros de investigación. Revista Memorias. Recuperado el 2 de
octubre 2015 de
http://www.researchgate.net/profile/Luis_Carlos_Soler/publication/228708157_PARA_QU_LOS_SEMI
LLEROS_DE_INVESTIGACIN/links/54c25ee50cf2911c7a4738ec.pdf
Colombia. Instituto Tecnológico Metropolitano. Convocatoria jóvenes investigadores e innovadores
ITM (junio, 2015). Medellín, p 1-6
23
Metodología para la detección de
vulnerabilidades a través de pruebas
de penetración con Metasploit para el
aumento de la seguridad informática
en el sector empresarial
Juan Felipe Villa Villa 4 [autor]
Éder Alonso Acevedo Marín 5 [autor]
Resumen
El intento de vulnerar una red de datos es una preocupación que cada día aumenta en las
empresas y los métodos avanzados encriptación no está siendo es suficiente para proteger la
información que viaja a través de estas. Esto provoca que las redes de datos sean
implementadas con sistemas de protección y que sean bien diseñados y planeados y que sus
políticas de utilización sean organizadas, rígidas y conocidas por todos los usuarios.
El objetivo de este proyecto es diseñar una metodología para la detección de
vulnerabilidades a través de pruebas de penetración con Metasploit para el aumento de la
seguridad informática en el sector empresarial. Nace de una necesidad de las empresas,
organizaciones e instituciones que se ven diariamente afectadas por el número de ataque
informáticos a su sistema de red de datos, tanto interna como externa.
Se utilizará documentación científica que alimentará la metodología a plantear, igualmente
se utilizarán manuales y tutoriales no científicos con el fin de comprobar su veracidad y la
posibilidad de convertir esta información en datos científicos comprobados, ya que hay mucha
información científica que carece de procedimientos que pueden encontrarse en otra
bibliografía.
Se trabajará con casos de estudio reales expuestos, se contactará a entidades legales
facultadas para la detección de acciones criminales y sospechosos en la ciudad y se utilizará,
se instalará y se probará software existente para el rompimiento de accesos, explotación de
vulnerabilidades, escaneo de puertos y otro tipo de servicios, después de realizar un tanteo del
software existente en la actualidad.
4 Programa de Ingeniería de Sistemas, Semillero de Investigación En Seguridad Informática, Fundación Universitaria Luís Amigó
(Medellín). 5 Programa de Ingeniería de Sistemas, Semillero de Investigación De Seguridad, Universidad Cooperativa de Colombia (Medellín).
Correo electrónico: [email protected]
24
Para poder validar la utilidad de la metodología que se va a proponer se realizarán pruebas
en modo laboratorio en una red de datos genérica y la utilización de equipos utilizados por los
grupos SISCO y SODA. Finalmente apoyándose en los resultados obtenidos, se podrá
comprobar la utilidad de esta metodología que puede ser utilizada por el mismo grupo de
investigación, la Facultad y la Universidad para el análisis de su red de datos y la detección de
vulnerabilidades que pueden corregirse para evitar el acceso indebido de personas.
Las personas que trabajaran en el desarrollo de este proyecto, serán personas con
conocimientos avanzados en informática y en específico, en redes de computadores, que hayan
trabajado con detección de vulnerabilidades, software de intrusión, escaneo y explotación de
huecos de seguridad.
Con el fin de poder contribuir a la seguridad y al mejoramiento de la sana conservación de la
información privada de empresas, organizaciones e instituciones y que estas se sientan más
seguras, se quiere diseñar esta metodología con el fin de que se puedan detectar las
vulnerabilidades actuales de esa red de datos y poder determinar los procesos a ejecutar y la
facilitación de la toma decisiones para que estas puedan aumentar su seguridad y que su
infraestructura de red se encuentre funcionando bajo una metodología probada que garantice
en un mayor porcentaje, la sana utilización de las redes de datos en un espacio en específico.
Introducción
Una Vulnerabilidad es un Grupo de activos en una organización que al tener
debilidades pueden llegar a ser aprovechadas por ciertas amenazas” (ISO,
International Organization for Standardization, 2009)
La información manejada por las empresas, organizaciones e instituciones es
fundamental y es necesario que sus protocolos de comunicación, además de ser
efectivos, sean seguros. Con el objetivo de mejorar esta seguridad se hace
completamente necesario realizar un análisis de vulnerabilidades que pueden
encontrarse dentro de una red de datos, para identificar aquellas a las que se
encuentra expuesta cualquier entidad, tanto por dentro, como por fuera de ella y así
facilitar la toma de decisiones para poder proteger su información, sus servicios
informáticos y demás recursos a los cuáles se puede acceder a través de una red que
generalmente son servicios o información prestados a una comunidad como clientes,
empleados, estudiantes, civiles y demás personas. El estudio de estas
vulnerabilidades debe realizase reduciendo a lo más mínimo la efectividad de los
ataques informáticos sufridos.
El framework de Metasploit es una herramienta de penetración de software libre,
desarrollado para ejecutar exploits a un objetivo remoto. (Ticlla, S. A., Girón, G. I.,
Huamán, D. V., & Rojas, J. V., 2014) Metasploit cuenta con la mayor base de datos de
exploits públicos y privados y puede ser usado para detectar las vulnerabilidades de
nuestros sistemas para protegerlos o usar esas vulnerabilidades para obtener acceso
a sistemas remotos.
25
Según el libro de Barón las “vulnerabilidades de comunicación con el punto frágil en
el trasporte de la información ya sea vía cable, satélite, fibra óptica ondas de radios,
etc.
Siempre se debe garantizar la seguridad de la información mientas esta viaja.
Ejemplos de principales vulnerabilidades de comunicación: Fallas en el medio de
trasporte, la información puede ser alterada durante su trasporte, la información no
llegue a su destino, por interceptación. Falta de sistemas de encriptación de la
información.” (Barón, 2010)
En artículos y libros de investigación ya se han planteado metodologías para la
detección de vulnerabilidades en redes de computadores y trabajos con pruebas de
penetración o utilización de Metasploit por aparte, pero en este proyecto se pretende
proponer una metodología para determinar de una forma organizada y documentada
todos los procesos que se deben llevar a cabo para la detección de vulnerabilidades a
través de pruebas de penetración con Metasploit para el aumento de la seguridad
informática en el sector empresarial.
Metodología Empleada
La metodología que se ha seguido en este proyecto se divide en tres partes:
1. Caracterizar los componentes para la realización de pruebas de penetración
con Metasploit con el fin de mejorar las políticas de seguridad.
Se analiza el estado del arte. Se utiliza documentación científica que alimentará la
metodología a plantear, igualmente se utilizarán manuales y tutoriales no científicos
con el fin de comprobar su veracidad y la posibilidad de convertir esta información
en datos científicos comprobados, ya que hay mucha información científica que
carece de procedimientos que pueden encontrarse en otra bibliografía.
2. Diseñar una metodología para la detección de vulnerabilidades a través de
pruebas de penetración con Metasploit para el aumento de la seguridad informática
en el sector empresarial. Apoyándose en los resultados obtenidos, se podrá realizar
el diseño de la metodología que puede ser utilizada por los mismos grupos de
investigación, la Facultad y la Universidad para el análisis de su red de datos y la
detección de vulnerabilidades que pueden corregirse para evitar el acceso indebido
de personas.
El diseño de esta metodología la cual da a conocer una serie de procesos a seguir
dentro de una auditoría de redes de datos, que abarcan diferentes temas como lo
son, el análisis del estado actual, la planeación, escritura de políticas de seguridad,
aseguramiento de recursos, pruebas, entre otros.
3. Implementar un ambiente de prueba basado en una arquitectura de red de
datos genérico en donde se realizará intentos de vulnerar esta red de acuerdo con
26
metodologías ya planteadas en otras investigaciones, y con software y hardware
existente para ello, con el fin de poder determinar los procesos necesarios para la
realización de una auditoría que permita determinar claramente cuáles son los
aspectos a mejorar y poder tomar decisiones fácilmente sobre las políticas de
seguridad a implantar.
Resultados y Conclusiones
Hasta ahora se han definido políticas de seguridad que pueden ser implementados
en cualquier red de datos, pero es necesario suplir esta necesidad de orden y
documentación correcta de todo el proceso de análisis y mejoramiento de seguridad
en cualquier entidad, y es muy necesario que este conocimiento generado a partir de
prácticas en laboratorios genéricos de redes y empresas sea organizado en una
metodología clara que pueda llevar con éxito una auditoría de redes de datos que se
haga con base en su seguridad.
Para poder validar la utilidad de la metodología que se va a proponer se realizarán
pruebas en modo laboratorio en una red de datos genérica y la utilización de equipos
utilizados por el grupo SISCO. Finalmente apoyándose en los resultados obtenidos, se
podrá comprobar la utilidad de esta metodología que puede ser utilizada por el
mismo grupo de investigación, la Facultad y la Universidad para el análisis de su red
de datos y la detección de vulnerabilidades que pueden corregirse para evitar el
acceso indebido de personas.
Metasploit realiza pruebas de penetración de una manera más rápida y eficiente
mediante ataques repetitivos y multicapas y es efectivo y ordenado cuando se realizan
pruebas que requieran la colaboración de otros equipos.
Además es una herramienta que se apega al realismo para enfrentar las amenazas y
así evitar posibles ataques reales.
Si bien este es un ejemplo algo específico, donde se trata de poner en contexto la
vulnerabilidad de los sistemas a nivel empresarial, se muestra que el trabajo de
Metasploit se hace en un escenario real. Así mismo, los ataques reales pueden ser
más complejos o combinados. Sin embargo, esto es un buen comienzo para tener
noción sobre cómo se realizan ataques con Metasploit.
27
Referencias
Barón, C. J. (2010). Metodología de análisis de vulnerabilidades para la red de datos en la dirección
de telemática de la Policía Nacional. Universidad Militar Nueva Granada.
ISO, International Organization for Standardization. (2009). ISO 27000-1 Seguridad de la
Información. Recuperado el 10 de octubre de 2015, de http://www.iso.org/iso/home.htm
Ticlla, S. A., Girón, G. I., Huamán, D. V., & Rojas, J. V. (2014). Aprovechamiento de vulnerabilidades
del sistema operativo Windows con la herramienta Metasploit. Revista Electrónica de la
Facultad de Ingeniería.
28
Hexápodo: Un prototipo de una
hormiga robótica
Sebastián Arroyave Arboleda 6 [autor]
Santiago Agudelo 6 [autor]
Julián Camilo Mejía Restrepo 6 [autor]
Ana Isabel García 6 [autor]
Resumen
Algunos miembros del semillero SIRMO están en el proceso de capacitación en “Diseño
mecánico”, en muestra de ello se inició la creación de una hormiga robótica (Hexápodo) con el
fin de mostrar las habilidades adquiridas y las destrezas obtenidas durante el periodo de
formación.
Introducción
El presente proyecto muestra la construcción de una hormiga robótica; se describe
su diseño mecánico, su ensamble y programación. Cada una de las etapas de
desarrollo fue trabajada en conjunto con estudiantes de diversas ingenierías con el fin
de incentivar la interdisciplinaridad.
Metodología Empleada
Para el diseño mecánico se realizó un estudio riguroso sobre el software Rhinoceros
utilizado para dicho diseño, para el ensamble de las piezas mecánicas se tuvieron en
cuenta ciertos conceptos teóricos sobre las conexiones de los componentes
electrónicos para evitar cortocircuitos o pérdida de componentes. Además, se hizo un
estudio sobre el comportamiento de una hormiga, tratando de imitar su morfología y
hacer que desde la parte de programación se pareciera lo más real posible.
6 Programa de Ingeniería Electrónica, Semillero de Investigación En Robótica y Mecatrónica, Universidad de San Buenaventura
Seccional Medellín. Correo electrónico: [email protected]
29
Resultados y Conclusiones
Durante el desarrollo del hexápodo se verificó que el uso de materiales más
resistentes en ciertas extremidades del hexápodo, mejoraban el comportamiento
mecánico de las patas de la hormiga, generando mayor sostenibilidad y funcionalidad
al robot. En cuanto al diseño del hexápodo, la implementación de curvas o poli-líneas
en vez de rectas cerradas en algunos puntos finales de cada una de las patas,
generaba que la concentración de cargas se distribuyera y evitara que si en algún
momento se rompiera o agrietara la pieza, el robot pudiera sostenerse o mantener un
cierto equilibrio.
Las conclusiones más relevantes del trabajo adelantado son:
1) Con el estudio de la morfología de la hormiga, se pudo generar que la hormiga
robot imitase de una forma real el comportamiento de este animal.
2) Con el estudio teórico de los componentes electrónicos, se pudo predecir
varios resultados en cuanto al consumo y suministro de energía que estaría
presente en el circuito.
3) Se pudieron unir varios campos de conocimientos con el fin de recrear un robot
que imitase a una hormiga.
4) Con la unión de estudiantes de diferentes ingenierías se tuvo un pensamiento
crítico constructivo a la hora de tomar decisiones.
Referencias
Analog Device (2010). ADXL 335: Technical documentation datsheet [.pdf]. Recuperado del sitio web
http://www.analog.com/media/en/technical-documentation/data-sheets/ADXL335.pdf.
Rhinoceros (s.f.). Modelador NURBS para Windos: Manual de usuario [.pdf]. Recuperado del sitio web
http://www.protojewel.com/introduccion.pdf
30
Sistema de trilateración 2D en
espacios interiores para vehículo de
guiado autónomo utilizando sensores
de ultrasonido y comunicaciones bajo
el protocolo MiWi
Esteban Luis Hernández Meza 7[autor]
Gustavo Adolfo Meneses Benavides 7[autor]
Resumen
Actualmente las posibilidades que brindan los sistemas como los GPS para referenciación
coordenada, de personas y objetos, no está disponible fácilmente para espacios interiores. Se
pretende afrontar este problema de manera experimental y utilizando dispositivos como
microcontroladores, sensores de ultrasonido, elementos de comunicaciones electrónicas, al
igual que software para visualización, procesamiento y lectura información, complementados
con protocolos de comunicación para el envío y recepción de señales inalámbricas. Adicional a
la utilización de metodologías con soluciones matemáticas. Es así como el sistema de prueba a
desarrollar pretende abordar el problema de la referenciación coordenada en interiores.
El sistema de prueba a realizar utilizará protocolo de comunicación inalámbrica en conjunto
con un prototipo de vehículo de guiado autónomo para determinar su ubicación en un
ambiente de interior, utilizando la metodología de trilateración 2D con ultrasonido para
localización en interiores y sincronización con la ayuda del protocolo MiWi. El vehículo de
guiado autónomo, podrá tener una comunicación móvil la cual será transmitida y recibida para
determinar las coordenadas donde se encuentre ubicado. Las pruebas se realizarán en uno de
los laboratorios de electrónica de la Universidad de San Buenaventura seccional Medellín,
tratando de recrear un ambiente con condiciones controladas para realizar los experimentos
necesarios para verificar la trilateración en espacios interiores.
7 Programa de Ingeniería Electrónica, Grupo de Investigación de Modelamiento y Simulación Computacional, Universidad de San
Buenaventura Seccional Medellín. Correo electrónico: [email protected]
31
Introducción
La referenciación de un cuerpo u objeto en un espacio interior utilizando unas
coordenadas de ubicación no es una tarea fácil, esto porque tecnologías como
sistema de posicionamiento global (GPS), requieren de la conexión con una
constelación de satélites lo cual se logra solo en espacio exteriores. Sin embargo en
algunas aplicaciones como los sistemas de logística o en los sistemas de recuperación
y almacenamiento automático (ASRS) la ubicación de los vehículos guiados
autónomos, que operan dentro de ellos, en un sistema de coordenadas es de gran
utilidad para efectos de trazabilidad de la mercancía o de los objetos manipulados por
este. Igualmente en otros ámbitos como el hogar puede ser de utilidad para el
monitoreo y la referenciación coordenada de objetos y personas. Actualmente existe
la posibilidad de integrar sistemas de sensores y de comunicaciones electrónicas para
tratar de resolver el problema de la trilateración en ambientes interiores. Si se
desarrolla una solución en este sentido es posible escalarla a diferentes ámbitos para
complementar sistemas existentes de gran importancia en la industria, como los ya
mencionados ASRS.
Metodología Empleada
Este proyecto de grado es basado en un sistema prueba, utilizando trilateración en
2D para un espacio interior, para determinar la ubicación de vehículo guiado
autónomo de posición desconocida, con la ayuda de sensores ultrasonidos
posicionados (distancias conocidas) correctamente para mediciones de distancia, para
obtener las coordenadas del vehículo dentro del interior e utilizando comunicación
inalámbrica bajo el protocolo MiWi que sincronice al sistema de prueba y la
realización de un algoritmo diseñado para el cálculo de coordenadas en el software
LabView. La figura 1 ilustra la ruta metodológica que se va a seguir para la realización
del proyecto.
32
Figura 1. Ruta Metodológica planteada para el desarrollo del proyecto. La imagen fue elaborada por
los autores.
Inicialmente para llevar a cabo este proyecto, se realizaran diseños, utilizando
sensores de ultrasonido para las mediciones de distancia conocida y comunicación
inalámbrica, se desarrollarán algoritmos de pruebas, igualmente se identificarán y
corregirán errores de programación del firmware ejecutado por los
microcontroladores, para verificar el método de trilateración en dos dimensiones (2D)
en un espacio interior controlado. Luego de tener la circuitería diseñada para este
sistema de localización para vehículo guiado autónomo, que contará con un nodo del
protocolo MiWi, estará sincronizado el sistema ya que este tipo de comunicación se
puede crear una red de área personal, utilizando alguna de las topologías que
describe el protocolo. En el programa LabView se diseñará un instrumento virtual que
permita calcular la coordenada del punto desconocido.
Al final, después de obtener los diseños de circuitos mencionados y sus respectivos
códigos diseñados y depurados, se procederá a verificar el funcionamiento del
sistema de trilateración en dos dimensiones (2D), en un espacio interior controlado
que será definido en el transcurso de la realización de este proyecto.
Resultados y Conclusiones
Hasta el momento se ha realizado el diseño de los nodos sensores para realizar las
pruebas de trilateración, incluyendo la sincronización mediante comunicación
inalámbrica (Protocolo MiWi P2P). Adicionalmente se ha desarrollado un instrumento
virtual en LabView para calcular las coordenadas de un punto (x, y) a partir de las
distancias de esté a tres puntos de referencia. Igualmente se ha modificado el código
que ejecutan los microcontroladores (Entorno de Matlab y lenguaje de programación
33
C18) con el fin de ajustar el funcionamiento de los nodos a los requerimientos de las
pruebas que se deben realizar. En las figuras 2, 3 y 4 se pueden observar el diseño
del nodo sensor, la topología de la red y el instrumento virtual diseñado en LabView.
Figura 2: Nodo sensor para trilateración 2D.La imagen es propiedad de los autores.
Figura 3: Esquema general para trilateración 2D. La imagen es de propiedad de los autores.
Figura 4: Instrumento virtual desarrollado en LabView. La imagen es propiedad de los autores.
34
Según las pruebas realizadas hasta el momento se ha encontrado que la medición
de distancia utilizando solamente sensores de ultrasonido no permite trilaterar
efectivamente un móvil robótico que se desplace en un espacio interior. Lo anterior
debido a factores como la recepción de ecos producidos por otros objetos diferentes
al móvil, lo que es causado por no tener una alineación dinámica con el objeto en
movimiento. Para tratar de solucionar estas falencias se plantea la implementación de
sensores que tengas movimientos rotacionales, mediante su acople a un servomotor,
y adicionalmente la utilización de comunicaciones inalámbricas para “sincronizar” los
eventos de medición de distancia y obtener así las coordenadas (x, y) con mayor
precisión.
Referencias
[1] P. C. Garcia, «Sistema de Localizacion en Interiores por Ultrasonio,» R. Jativa, MSc., 2012.
[2] T. N. Yucel Ugurlu, «Project-Based Learning Using LabVIEW and Embedded Hardware,» IEEE,
2011.
[3] S. K. Reid Simmons, «Probabilistic Navigation in Partially Observable Environments,» de
Artificial Intelligence (IJCAI’95), 1995.
[4] B. I.J Cox, «Position estimation for an autonomous robot vehicle, Autonomous Mobile
Robots: Control, Plannig, and Archietecture,» IEEE Computer Society Prees, pp. 221-240,
1991.
[5] J.M.Tavera, «Posicionamiento por radiofrecuencia basado en robors colaborativos,» Dpto. de
Tecnología Electrónica y de las Comunicaciones, Madrid, 2012.
[6] E. M. G. Polo, «Tecnicas de Localizacion de Redes de Sensores Inalambricos».
[7] F. S. C. P. y. J. R. Antonio R. Jiménez, «Tecnologías sensoriales de localización para entornos
inteligentes,» Antonio R. Jiménez, Fernando Seco, Carlos Prieto y Javier Roa, 2005.
[8] C. V. G. R. G. A. Gustavo Meneses Benavides, «Prototipo de vehículo de guiado autónomo
para sistema de almacenamiento y recuperación automático de libros,» Revista de
Investigaciones-Universidad de Quindio, 2013.
[9] B. K. M. R. M.M. Rashid, «New Automated Storage and Retrieval System (ASRS) using wireless
communications,» Mechatronics (ICOM) 4th International ConferenceOn, Mayo 2011.
[10] G. Meneses, «Tutorial Protocolo MiWi,» Medellín, 2013.
35
Propuesta de un modelo para la
articulación de la investigación en un
programa de ingeniería
Ángela Tatiana Zona Ortiz 8[autor]
Luisa Fernanda Salgado Forero 8[autor]
Esteban Quevedo Pardo 8[autor]
Resumen
El presente proyecto busca desarrollar un modelo que permita la articulación de actividades
curriculares, extracurriculares, de comunicación y apoyo a la investigación, para incentivar la
curiosidad y formar las competencias investigativas propias de la ingeniería y tecnología en
estudiantes de ingeniería.
Las fases del modelo se deben basar en el método prudencial de Santo Tomás (VER, JUZGAR
y ACTUAR), y estar orientadas a que las competencias investigativas a desarrollar por el
estudiante sean aplicables a su ejercicio profesional. De modo que, le den un valor agregado
como ingenieros creativos e innovadores, y le permita construir unas bases sólidas en caso de
querer una carrera como investigador.
El proyecto se ha enmarcado en la actividad inicial del semillero INGENIATEL, ya que se
entiende que el modelo debe escuchar y reflejar la realidad de los estudiantes de la facultad.
Este proyecto surge como iniciativa de la coordinadora de investigación y es parte de la
estrategia de investigación de la facultad.
Los impactos esperados de un posible despliegue y validación del modelo son facilitar el
cumplimiento de requisitos para la acreditación, crear una base sólida para la generación de
productos de formación de recurso humano, y a largo plazo generar el crecimiento del grupo
de investigación INVTEL.
Este proyecto se plantea por el bajo interés de los estudiantes del programa de ingeniería de
telecomunicaciones en la investigación. Hecho que se evidencia en el número de matriculados
e interés en la electiva investigación II, y en la baja asistencia y participación de estudiantes en
la muestra de proyectos semestral.
Este bajo interés genera algunas dificultades, como que los investigadores inviertan gran
parte del tiempo de los proyectos en corrección de escritos, estructuración de los documentos,
análisis de datos y generación de conclusiones, esto debido al poco desarrollo de las
competencias investigativas de los estudiantes. Además, cada investigador da al estudiante al
estudiante su propia perspectiva sobre que es investigación, generando confusiones y
conflictos.
8 Programa de Ingeniería de Telecomunicaciones, Semillero de Investigación Ingeniatel, Universidad Santo Tomás Seccional Bogotá.
Correo electrónico: [email protected]
36
El modelo busca establecer una estructura flexible que articule los diferentes espacios y
actividades de investigación. Para motivar la participación de estudiantes, desarrollar
competencias investigativas, y facilitar a los investigadores la realización de proyectos con
estudiantes.
Introducción
El Sistema Nacional de Acreditación busca fortalecer la calidad de la Educación
Superior, para este fin pública los lineamientos para la acreditación de programas de
pregrado (Consejo Nacional de Acreditación, 2013). En estos lineamentos uno de los
factores a evaluar es el factor de investigación, que está compuesto por dos
características las número 29 y 30. En relación con la No. 29 Formación para la
investigación, la innovación y la creación artística y cultural, los aspectos a evaluar en
relación con los estudiantes contemplan, de manera muy resumida: los programas o
estrategias que busquen generar el espíritu investigativo, mecanismos para identificar
problemas del entorno empresarial, vinculación a semilleros y grupos, actividades
académicas, espacios académicos de investigación, jóvenes investigadores, relación
con empresa en tema de Investigación y desarrollo, participación en proyectos y
programas de innovación.
Las universidades en respuesta a estos lineamientos han iniciado un viaje hacia una
cultura de investigación, con el objetivo de satisfacer los aspectos que avaluaran la
calidad de su educación, sin mencionar, que una de las funciones misionales de
universidad es la investigación. Entonces, es común encontrar iniciativas como
semilleros, grupos de investigación, asignaturas de investigación, eventos científicos,
socializaciones para las iniciativas de los estudiantes (ya sean proyectos de
investigación o aula) y lineamientos y políticas institucionales para la investigación.
Sin embargo, estas iniciativas no están interrelacionadas, ni articuladas de manera
que se permee el currículo y la formación de los estudiantes de manera integral y
duradera.
Se han encontrado referencias relacionadas con iniciativas particulares, por ejemplo
para el caso de semilleros (Torres Soler, 2005). Pero cuando se habla de modelos que
integre diferentes iniciativas y/o espacios académicos para la formación en
investigación, las referencias no abarcan el campo de la ingeniería. Se ha encontrado
algunos modelos en el área de la salud (Marta Rapado-Castro, 2015) y (F. Marco
Martínez, 2010).
Entendiendo que la ingeniería en sí misma busca la generación de soluciones
mediante la aplicación y creación del conocimiento, y no es solo una variedad de
métodos o técnicas a aplicar que generan la especialización, se establece una
estrecha relación entre ingeniería e investigación, y por lo tanto en las competencias
37
que debe desarrollar un ingeniero para enfrentarse al mercado. Puesto que, la
tecnología cambia vertiginosamente gracias a la investigación y desarrollo (I+D), y el
número de innovaciones tecnológicas no para de crecer, podría decirse que son una
exigencia para la competitividad de las empresas y por ende para el desarrollo social
y económico de un país.
De esta manera cobran importancia las competencias requeridas para enfrentar los
cambios tecnológicos desde un enfoque investigativo. Identificar las competencias
genéricas de ingeniería (Martín Palma, 2011), las competencias de un ingeniero según
ABET, entre otras y compararlas con las competencias que según la experiencia son
necesarias para la investigación, permitirá su que estas competencias se trabajen de
forma específica mediante las actividades propuestas en el modelo.
El Proyecto educativo institucional (P.E.I) de la universidad Santo Tomas en la página
27 indica que la investigación debe generar un dialogo entre docente y estudiantes
para la aplicación del conocimiento generando innovaciones, produciendo nuevo
conocimiento o aportando a los problemas nacionales y locales. Apuntando siempre a
contrarrestar el saber con la realidad (universidad Santo Tomás, 2004). Para generar
este dialogo el modelo debe generar espacios de investigación a lo largo de la
permanecía del estudiante en la universidad, que estén articulados e
interrelacionados.
Se pretende mediante la observación de los espacios existentes, los estudiantes y
las necesidades de formación en investigación, plantear un modelo que integre
actividades y espacios, articulados mediante el método de Santo Tomás.
Metodología Empleada
El presente proyecto abarca solamente la primera etapa de un proyecto compuesto
de 4 etapas: Creación del modelo, Despliegue del modelo (Prueba Piloto), Validación
del modelo (medición de impactos) y Optimización del modelo. Las etapas anteriores
se plantean bajo la metodología PHVA (planear, hacer, verificar, actuar) con el objetivo
lograr en un plazo de 3-4 años la aplicación y funcionamiento del modelo dentro de
la facultad de ingeniería de telecomunicaciones.
Esta primera etapa, creación del modelo, se plantea para 9 meses. La metodología
(Figura 1) a emplear se basa en cuatro fases secuenciales: levantamiento de
información, Diseño básico del modelo, Diseño detallado del modelo y requerimientos
de despliegue. El levantamiento de información comprende tanto los espacios de
investigación existentes, como las competencias requeridas para la investigación en
ingeniería, y el entendimiento del método de Santo Tomás. El diseño básico del
modelo comprende la esquematización general del modelo con sus fases, actividades
y articulación. El diseño detallado del modelo está orientado a definir de manera
38
específica las herramientas de cada fase, los mecanismos de aplicación, el detalle de
los espacios tanto en formación como organización, y su interacción. Por último
identificar los requerimientos de despliegue del modelo, esto se refiere a identificar
las necesidades para que el modelo encaje en los procesos institucionales, para
optimizar los recursos en el marco de la facultad de ingeniería de telecomunicaciones
de la universidad Santo Tomás sede Bogotá.
Figura 1. Metodología planteada para la generación de la propuesta de articulación de la
investigación. La imagen fue elaborada por los autores.
Paralelo a las fases anteriores se lleva a cabo la gestión, cuyo fin es documentar el
proyecto, hacer seguimiento del mismo y facilitar la comunicación y toma de
decisiones. Uno de los principales objetivos de un proyecto de investigación es la
producción académica, por lo que una vez diseñado el modelo, se da inicio a la
producción académica que termina con el proyecto.
Resultados y Conclusiones
La Figura 2 muestra un esquema inicial para el diseño del modelo. De manera que el
modelo se estructure en 4 ciclos que están relacionados con los semestres de la
carrera e involucra a aquellos egresados que continúan su formación en investigación.
Cada uno de estos ciclos tiene un enfoque particular orientado a acercar al
estudiante a la investigación, mediante actividades extracurriculares para los
estudiantes, actividades de formación que se denominan apoyo curricular, y
actividades de soporte que buscan interacción entre los estudiantes y los
investigadores, facilitar la creación de redes.
39
Figura 2. Esquema inicial para el diseño básico del modelo. La imagen fue elaborada por los autores.
Esta es una propuesta de investigación que busca acercar a los estudiantes de la
facultad de ingeniería de telecomunicaciones de la sede de Bogotá de la universidad
Santo Tomás, a la investigación mediante el planteamiento de un modelo. Este
modelo debe: ajustarse a la filosofía institucional con el método de Santo Tomás,
contemplar el desarrollo de competencias investigativas, integrar los espacios de
investigación tanto de la facultad como de la universidad, propender el impulso y
consolidación del programa y el grupo INVTEL, y ser cercano a los estudiantes y sus
necesidades.
Referencias
Consejo Nacional de Acreditación. (2013). Lineamientos para la acreditación de programas de
pregrado. Bogotá, D.C: CNA.
F. Marco Martínez, B. F.-G. (2010). Formación para la investigación en patología musculoesquelética:
desde el MIR a la formación médica continuada. Revista Española de Cirugía Ortopédica y
Traumatología, 193-199.
Marta Rapado-Castro, Á. P.-M. (2015). Desarrollo profesional en investigación traslacional en
neurociencias y salud mental: educación y formación dentro del Centro de Investigación
Biomédica en Red en Salud Mental. Revista de Psiquiatría y Salud Mental,, 65-74.
Martín Palma, E. M. (2011). Competencias genericas en ingeniería: Un estudio. XV Congreso
Internacional de Ingeniería de Proyectos, (págs. 2552-2569). Huesca.
Torres Soler, L. C. (2005). Para qué los semilleros de investigación.
Universidad Santo Tomás. (2004). Proyecto Educativo Institucional. Bogotá, D.C.: Editorial USTA.
40
Desarrollo de prácticas de laboratorio
para sistemas de comunicaciones
móviles aplicando radio definido por
software
Mónica Espinosa Buitrago 9[autor]
David Angulo Esguerra 9[autor]
Angie Cristina Triviño Moreno 9[autor]
Miguel Ángel Sarmiento Acosta 9[autor]
Julián Efrén Morales Ortega 9[autor]
Resumen
En el proyecto de prácticas de laboratorio de sistemas de comunicaciones móviles se
planteó desarrollar prácticas de laboratorio para los estudiantes de la facultad de ingeniería de
telecomunicaciones de la Universidad Santo Tomás con el fin de implementar una estación
base de una red GSM (2G) y un sistema ENodeB de una red LTE (4G) utilizando radio definido
por software.
Introducción
Los radios electrónicos de transmisión de las telecomunicaciones inalámbricas, son
sistemas que operan con hardware, que no pueden ser reconfigurados durante la
operación del servicio, generando problemas en su actualización futura y grandes
costos en cambio de hardware por la modificación de cualquier parámetro de uso de
espectro. Por ello han surgido tecnologías en donde los radios de transmisión para
telecomunicaciones inalámbricas pueden ser definidos por software generando la
flexibilidad necesaria en los sistemas de telecomunicaciones espectralmente
eficientes.
En el proyecto el semillero TELESOFT se encuentra realizando una serie de prácticas
de laboratorio utilizando los sistemas del SDR (Software Defined Radio), donde se
identifique la configuración de una estación base en sistemas de comunicaciones
móviles. Para las prácticas a realizar se utilizará un USRP (Universal Software Radio
9 Programa de Ingeniería de Telecomunicaciones, Semillero de Investigación Telesoft, Universidad Santo Tomás Seccional Bogotá.
Correo electrónico: [email protected]
41
Peripheral) de referencia N210, que posee gran capacidad de procesamiento de señal,
con variabilidad de frecuencia y compatibilidad al software libre GNU Radio.
Metodología Empleada
En la figura 1 se ilustra el mapa mental donde se evidencian los pasos necesarios
para la ejecución del proyecto de investigación.
Figura 1. Pasos metodológicos para el desarrollo del proyecto. La imagen fue elaborada por
los autores.
A continuación se procede a detallar la metodología propuesta para el desarrollo del
proyecto de investigación:
- Reconocimiento de los sistemas de radio definido por software a nivel de
hardware y software: en la etapa primaria se realiza un proceso de
reconocimiento de las herramientas que brinda el radio definido por software
en relación a la práctica OpenBTS. También es una etapa que permite la
interacción con el equipo y con todos los sistemas que acompañan el
software.
- Implementación de prácticas de laboratorio de una estación base aplicando
OpenBTS: se crea un esquema de los elementos físicos y lógicos que
componen la práctica en su respectivo orden, así como un diseño que
42
permita evidenciar el proceso a llevar a cabo en la implementación de una
estación base de segunda generación de telefonía móvil celular.
- Desarrollo de la práctica OpenBTS software: de acuerdo al esquema previo,
se procede a desarrollar la práctica OpenBTS, con la ayuda de herramientas
físicas como un ordenador, radio definido por software de referencia USRP
Ettus N210, mobile Station (celular), entre otros. Al igual que con la
respectiva instalación del software GNU Radio corriendo sobre el ordenador,
de esta manera se pretende evaluar parámetros de recepción de señal que
permiten determinar la funcionalidad de la estación base.
- Implementación de prácticas de laboratorio ENodeB LTE: luego de la
culminación de la primera práctica y con la documentación pertinente, se
procede a reconocer nuevamente las herramientas SDR esta vez, para la
arquitectura LTE.
- Desarrollo de la práctica LTE ENodeB: esta etapa se compone de una serie de
procesos y señalización ENodeB LTE desarrollada en Linux.
- Documentación de guías: finalizadas las prácticas de laboratorio que
componen el proyecto, se procede con la documentación de las guías de
laboratorio, donde se describe detalladamente paso a paso el proceso que se
llevará a cabo para el desarrollo adecuado de las mismas, sobre formatos
modelados según los lineamientos de la facultad de ingeniería de
telecomunicaciones.
- Registro de guías de laboratorio: como método de ayuda académico para la
asignatura sistemas de telecomunicaciones móviles y con el fin de apoyar los
procesos que se adelantan en semilleros de investigación en la facultad de
ingeniería de telecomunicaciones, se anexarán a este proyecto las guías de
laboratorio.
Resultados y Conclusiones
Los resultados que se mostrarán a continuación se basan en sistemas móviles de
segunda generación. Para esto se hizo uso del software libre OpenBTS que soporta la
prestación del servicio de llamadas de voz y el envío de mensajería de texto, con la
aplicación de sistemas de radio definido por software.
Para la implementación del software OpenBTS, es necesario la instalación de una
serie de herramientas gestionadas desde su propia interfaz de línea CLI (Command
Line Interface), estas herramientas se observan en la Tabla 2. Además, todas las
herramientas son instaladas en conjunto con OpenBTS en sistema operativo de
distribución Linux.
43
Una vez culmine el proceso de instalación del software OpenBTS, se realiza las
configuraciones necesarias para generar una portadora en banda de frecuencia de
900 MHz y corrimiento de señal de 59.5 MHz, con el fin de, disminuir los niveles de
interferencia. Se observa en la Figura 2, la portadora emitida por la estación base,
graficada en analizador de espectro ROHDE & SCHWARZ.
Posterior a la configuración de la banda de frecuencia y la canalización de la
portadora, es posible buscar la red en los terminales. El método utilizado para
acceder a la red difiere según el sistema operativo del terminal, a continuación se
realiza la demostración del proceso de búsqueda para terminales iOS y Android.
Tabla 2. Herramientas utilizadas para la puesta en marcha de la estación base GSM (2G). La tabla fue
elaborada por los autores.
Herramienta de Gestión Software Instalado Descripción de la herramienta
OpenBTS
Sipauthserve
Es un servidor funcional para la
gestión de los usuarios. Permite
verificar y modificar los
permisos de cada usuario
conectado a la red, al igual que
eliminar o agregar nuevos
terminales.
Smqueue Ejecuta y verifica los permisos
necesarios para el envío de
mensajería de texto corta entre
usuarios inscritos previamente
en la estación base.
Asterisk
Modifica la conexión de los
usuarios, mediante la interfaz
de aire Um, para ser
visualizados por la red como
clientes SIP (Session Initiation
Protocol) y de esta manera,
realizar llamadas de voz entre
terminales o entre terminal y
estación base.
44
Figura 2. Portadora estación base. La imagen fue elaborada por los autores.
En la Figura 3, se observa la metodología utilizada para la selección de red. Los
pasos para encontrar la red Test PLMN 1-1 en un terminal con sistema operativo iOS
son:
- Ingresar a ajustes.
- Seleccionar la barra de operadores.
- Deshabilitar la opción de operador automático (inmediatamente el terminal
buscará las redes disponibles).
- Seleccionar la red Test PLMN 1-1.
Figura 3. Búsqueda de la red en terminal iOS. La imagen fue elaborada por los autores.
En la Figura 4, se observa la metodología utilizada para la selección de red. Los
pasos para encontrar la red Test PLMN 1-1 en un terminal con sistema operativo
Android son:
- Ingresar a ajustes o configuraciones.
- Seleccionar la barra más.
- Seleccionar la barra de redes móviles.
45
- Seleccionar la barra de operador de red. (Automáticamente el terminal realiza
la búsqueda de las redes disponibles, en caso contrario seleccionar la barra
buscar redes).
- Seleccionar la red Test PLMN 0001-01.
Figura 4. Búsqueda de la red en terminal Android. La imagen fue elaborada por los autores.
Finalizado el proceso de suscripción de los terminales en la red, con el comando
(tmsis) en el CLI de OpenBTS, pueden ser vistos por el administrador de la estación
base. Se observa a continuación en la Figura 5, IMEI e IMSI que caracterizan a cada
dispositivo.
Figura 5. Información dispositivos conectados a la red. La imagen fue elaborada por los autores.
Para verificar el servicio de mensajería de texto en los terminales, se envía un
mensaje de texto al número 411, la estación base retorna un mensaje de acuso que
permite hacer veraz la comunicación, esta prueba se puede observar en la Figura 6.
46
Figura 6. Verificación servicio de mensajería de texto. La imagen fue elaborada por los autores.
Para realizar una llamada de voz de un terminal hacía la estación base, es necesario
ingresar al panel numérico y digitar el número 2602. Es generado un canal de tráfico
por el terminal y la estación base retorna los mismos sonidos enviados. También se
puede llamar al número 2600 y la estación base esta vez retorna un sonido continuo
como prueba del servicio de llamadas de voz activo.
En la Figura 7, se observa que existe un canal de tráfico TCH (Traffic Channel) en
uso, que es canalizado al momento de realizar un llamado de voz al número 2602,
igualmente se observan parámetros de transmisión y finalmente el IMSI del terminal
que efectuó la llamada.
Figura 7. Verificación servicio de llamadas de voz. La imagen fue elaborada por los autores.
Una vez mínimo dos terminales se encuentren registrados en la base de
datos de OpenBTS y estén conectados a la red, pueden realizar llamadas de
voz entre sí. Digitando el número con el cual fue registrado en la base de
datos en el panel numérico, es posible efectuar la comunicación entre
ellos.
En la Figura 8, se observan dos canales de tráfico ocupados en la estación
base, de esta manera se comprueba que la llamada ha sido satisfactoria.
Figura 8. Llamadas de voz entre dos terminales. La imagen fue elaborada por los autores.
47
A continuación se observan los protocolos capturados en cada uno de los procesos
de señalización y tráfico. En la Figura 9, es posible visualizar el proceso de
señalización que se establece con el uso del protocolo SIP. Además, del terminal
fuente que corresponde al IMSI 732101077701186, utilizando el canal de tráfico.
Figura 9. Captura del protocolo SIP. La imagen fue elaborada por los autores.
A continuación, se observa la verificación del canal seleccionado para la transmisión
de datos en la estación base, el cual fue el canal 121 con frecuencia central de 959.2
MHz en enlace descendente y 914.2 MHz para enlace ascendente. La Figura 10,
permite observar igualmente la utilización del protocolo gsmtap en la estación base.
El protocolo gsmtap encapsula tramas GSM procedentes de la interfaz de aire (um).
Figura 10. Captura del protocolo gsmtap. La imagen fue elaborada por los autores.
La práctica de laboratorio comprendida en la implementación de una estación base
de segunda generación, fue determinante para evidenciar los factores tecnológicos
necesarios para el adecuado servicio de la estación base. Por lo tanto, se determinó
que las herramientas elementales para la puesta en marcha de la misma son: un
48
servidor funcional en el manejo y control de las bases de datos, otro para el servicio
de mensajería de texto corta, otro para la canalización del tráfico de voz y una última
herramienta para generar y realizar configuraciones de la portadora en el canal
descendente.
El servicio de llamadas de voz demostró gran calidad de servicio al momento de
realizar el cambio de la banda de frecuencia de 850MHz a 900MHz. La comunicación
entre dos terminales fue clara y no se observaron interferencias notorias.
Referencias
Espinosa Buitrago, Mónica (2014). Desarrollo de prácticas de laboratorio aplicando radio definido
por software para sistemas de telefonía móvil celular [Trabajo de grado]. Bogotá D.C.:
Universidad Santo Tomás Colombia.
Dillinger, M., Madani, K. et al (2003). Software defined radio: Architectures, systems and functions.
West Sussex (England): John Wiley & Sons, first edition. ISBN: 0-470-85164—3.
49
Propuesta para identificación de
personas en distintas posturas,
integrado al prototipo “HELFEN”, a
partir de los patrones generados por
KINECT
Julián David Sierra Herrera 10[autor]
Jonathan Martínez Susunaga 10[autor]
Jesús Augusto Guzmán Lozano 10[autor]
Fernando Prieto Bustamante 10[autor]
Resumen
En este artículo se desarrolla una propuesta para el reconocimiento de personas atrapadas
en casos de desastres (para ser integrado en un carro de rescate llamado “Helfen”) utilizando
como base la revisión de algunos artículos desarrollados que muestran cómo utilizar el sensor
Kinect de Microsoft para obtener datos que permitan reconstruir y modelar tanto la persona
expuesta en el sensor como el ambiente en el que está inmerso. Para esto, se estudia primero
la forma en que funciona el sensor y cómo se utilizan los datos arrojados por este para el
procesamiento, luego se revisa los estudios similares para analizar pros y contras de aplicar
metodologías similares en este trabajo, después de esto se desarrolla la propuesta, y por
último se sacan algunas conclusiones sobre Software y manejo de datos entre otros.
Las preguntas de investigación planteadas son las siguientes: ¿Es posible identificar un ser
humano con vida y su posición en situaciones de difícil acceso durante un desastre a través de
redes de sensores operados de un dispositivo móvil?, ¿Es posible identificar seres humanos en
diferentes posturas a partir de los patrones generados por Kinect, integrado al prototipo
“Helfen”?
Introducción
Para el desarrollo de un robot de rescate de seres humanos en desastres, se
considera importante tener la capacidad de ver el ambiente en el que el robot se
sumerge, para que sea posible diferenciar objetos y animales de personas, y la
10 Programa de Ingeniería de Telecomunicaciones, Semillero de Investigación SEVENT, Universidad Santo Tomás Seccional Bogotá.
Correo electrónico: [email protected]
50
condición en que se encuentra. En la actualidad existen varios estudios que buscan a
partir de los sensores de un Kinect poder diferenciar las posturas y gestos de un ser
humano, pero únicamente cuando se encuentra en un rango de distancias y en
posición frontal al sensor. Todo esto se desarrolla utilizando al máximo las
características del dispositivo desarrollado por Microsoft a partir de diversos
lenguajes de programación. En este estudio se busca analizar la posibilidad de
optimizar un sensor Kinect para que pueda ser capaz de reconocer personas sin
importar la posición en que estas se encuentren con respecto al sensor, y de ser
posible, proponer la configuración para su funcionamiento e integración a un robot
de rescate.
Metodología Empleada
El tipo de Investigación adelantada es aplicada, y la metodología planteada es de
corte cualitativo.
En la figura 1 se ilustra un mapa mental donde se ilustra los pasos metodológicos
sugeridos para el desarrollo del proyecto.
Figura 1. Diagrama de flujo de la propuesta. La imagen fue elaborada por los autores.
51
Resultados y Conclusiones
Luego de estudiar diversas formas en que se podría reconocer un ser humano en
dificultados, se ve factible usar el Kinect debido a que este dispone de un algoritmo
de reconocimiento del cuerpo humano, esto lo hace una herramienta fuerte para el
objetivo de HELFEN, que integrado con otros sensores en estudio lograra reconocer
además que esté vivo.
Se logró reconocer a Kinect V2 como una fuerte herramienta con el atenuante que
requiere demasiada capacidad de procesamiento y alto consumo de energía.
Las conclusiones obtenidas a la fecha son las siguientes:
- Es posible utilizar el sensor Kinect para innumerables tareas, entre ellas
modelar objetos y habitaciones, recrear en 3D personas e identificar
posiciones.
- Es posible identificar personas a través de Kinect, utilizando al máximo la
funcionabilidad del mismo, y realizando un algoritmo selectivo, dependiendo
del entorno en el que se encuentre.
- La versatilidad del sensor permite trabajar dos técnicas de reconstrucción,
permitiendo alternarlas para poder realizar el reconocimiento de personas.
- Debe analizarse los datos obtenidos de forma correcta, manejando un
margen de error y otros elementos de la probabilidad, para desarrollar
correctamente un modelo funcional a partir de un número de pruebas
pequeño.
Referencias
Y. Iwano, K. Osuka, and H. Amano, (2005) “Posture manipulation for rescue activity via small traction
robots,” EEUU, IEEE.
G. K. Dey, R. Hossen, M. S. Noor, and K. T. Ahmmed, (2013) “Distance controlled rescue and security
mobile robot,” Int. Conf. Informatics, Electron. Vision, ICIEV.
J. Tran, A. Ferworn, M. Gerdzhev, and D. Ostrom, (2010) “Canine assisted robot deployment for
urban search and rescue,” 8th IEEE Int. Work. Safety, Secur. Rescue Robot. SSRR-2010.
“¿QUE ES UN SENSOR?”, Recuperado de:
http://www.profesormolina.com.ar/tecnologia/sens transduct/que es.htm.
“Kinect de Xbox One: ¿cómo funciona la nueva versión del sensor?” Recuperado de:
http://hipertextual.com/2013/10/kinect-xbox-one-funcionamiento.
“4. Curso de Kinect – Detectando Esqueletos.”. Recuperado de:
https://www.youtube.com/watch?v=z1exGg3DCo4&list=PLGlfxrSj1dRflUF3tknkcE2Xs9k7cMsre&ind
ex=4.
52
“How the Kinect Depth Sensor Works in 2 Minutes.” Recuperado de:
https://www.youtube.com/watch?v=uq9SEJxZiUg.
“Kinect por Dentro.”. Recuperado de:
http://www.todojuegos.cl/fotos index/news/kinect x Dentro.html.
“Kinect for Windows version 2: Body tracking —Vangos PterneasVangos Pterneas.” Recuperado de:
http://pterneas.com/2014/03/13/kinect-for-windows-version-2-body-tracking/.
“Características Kinect 2 — Kinect for Developers.”
Recuperado de:
http://www.kinectfordevelopers.com/es/2014/01/28/caracteristicas-kinect-2/.
“OpenNI: la alternativa open source para interaccionar con Kinect.” Recuperado de:
http://animusproject.wix.com/web/apps/blog/openni-la-alternativa-open-source-para-hablar.
“Acquiring Image and Skeletal Data Using Kinect- MATLAB & Simulink.” Recuperado de:
http://www.mathworks.com/help/imaq/acquiring-image-and-
skeletal-data-using-the-kinect.html.
M. Corporation, “Los súper poderes del rastreo esquelético de Kinect.”. Recuperado de:
http://blogs.technet.com/b/microsoftlatam/archive/2012/05/14/los-s-250-per-poderes-del-
rastreo-esquel-233-tico-de-kinect.aspx. [Accessed: 18-Mar-2015].
H. Heickal, T. Zhang, and M. Hasanuzzaman, “Real-time 3D full body motion gesture recognition,”
(2013), Proceeding IEEE Int. Conf. Robot. Biomimetrics, no.
J. Smisek, M. Jancosek, and T. Pajdla, “3D with Kinect,” (2011). IEEE International Conference on
Computer Vision Workshops (ICCV Workshops).
53
Implementación y Control del
movimiento del vehículo “HELFEN” a
través de XBee
Mariana Medina Castaño 11[autor]
Jesús Augusto Guzmán 11 [autor]
Pedro Alejandro Mancera 11[autor]
Resumen
En el presente documento se presentan los resultados de investigación del proyecto “Helfen”:
Implementación y Control de movimiento del vehículo HELFEN a través de XBee. Se desarrolló
un instructivo explicando paso a paso la interacción entre Java-Arduino-Shield para un posible
prototipo del vehículo Helfen, cuyo objetivo básico es el movimiento inalámbrico por medio de
módulos XBee garantizando una comunicación bidireccional entre el computador y el
prototipo en las 4 direcciones: adelante, atrás, derecha e izquierda.
Posteriormente se ejecutaron pruebas de alcance de señal y de potencia, y se midió la
longitud del enlace inalámbrico, verificando que ambos equipos sean reconocidos en la misma
red de comunicación y a través de mediciones específicas de los parámetros, usando un
analizador de espectro con ancho de banda que cubre frecuencias de hasta 8 GHz.
La pregunta de investigación planteada fue la siguiente: ¿Es posible identificar un ser
humano con vida y su posición en situaciones de difícil acceso durante un desastre a través de
redes de sensores operados de un dispositivo móvil?, y la pregunta específica fue ¿Es posible
gestionar con tiempo de respuestas rápidas la información proveniente de la red de sensores
dispuestos en HELFEN a través de transmisión por XBee?
Introducción
La facultad de ingeniería de telecomunicaciones de la universidad Santo Tomás,
según sus lineamientos de investigación, apoya los proyectos que generen un alto
impacto social aplicando las Tecnologías de la Información y las Comunicaciones
TIC’s. Desde el semillero de investigación SEVENT, se está trabajando en el proyecto
“HELFEN”, un vehículo no tripulado, guiado por un dispositivo móvil tipo celular o
tableta, que por medio de una red de sensores interconectados de forma inalámbrica,
pueda detectar seres humanos sobrevivientes a siniestros bajo los escombros.
11 Programa de Ingeniería de Telecomunicaciones, Semillero de Investigación SEVENT, Universidad Santo Tomás Seccional Bogotá.
Correo electrónico: [email protected]
54
Metodología Empleada
El tipo de investigación adelantada es aplicada, y la metodología que se empleó
para el alcance de los objetivos planteados es de corte cualitativa.
Resultados y Conclusiones
En las figura 1 y 2 se presentan los espectros de magnitud de la señal de 2.4 GHz
generada por los módulos inalámbricos medidas con el analizador de espectro
presente en el laboratorio de la facultad, donde se evidencia la existencia del canal
inalámbrico generado por la red de módulos XBee.
Figura 1. Espectro de la banda de 2,4 GHz. La imagen fue elaborada por el autor.
Figura 2. Espectro de transmisión de módulo XBee. La imagen fue elaborada por el autor.
55
Los resultados alcanzados en el proyecto de investigación a la fecha son los
siguientes:
- Se estableció de forma exitosa un enlace de comunicaciones inalámbricas
entre los dispositivos XBee, desde el prototipo de Helfen.
- Se cuantifico la potencia del canal en el que se encuentran los dispositivos
inalámbricos.
- Se generó una comunicación exitosa entre los tres software, Arduino-java-
shield, manejados inalámbricamente con los dispositivos XBee.
- Como resultado de distintas pruebas, fue posible disminuir el consumo total
de energía del vehículo aplicando las opciones de optimización de energía
del módulo XBee, aspecto prioritario en el proyecto para aumentar el tiempo
de vida del vehículo y los elementos que lo componen.
- Fue posible controlar el vehículo Helfen con tiempos de respuestas rápidos
desde java sin tener en cuenta el peso de los sensores a instalar.
Adicionalmente se concluyó que en escenarios con línea de vista es posible
controlar el movimiento del vehículo hasta unos 35 metros.
Referencias
Al-Karaki, J. N., & Kamal, a. E. (2004). Routing techniques in wireless sensor networks: a survey. IEEE
Wireless Communications,11(6), 6–28. http://doi.org/10.1109/MWC.2004.1368893
Egea-Lopez, E. (2005). Simulation tools for wireless sensor networks. Summer simulation
multiconference SPCECT 2005. Retrieved from www.researchgate.net/profile/Pablo_Pavon-
Marino/publication/255642447_Simulation_Tools_for_Wireless_Sensor_Networks/links/556f
07ed08aeab77722828d9.pdf
Lewis, F. L. (2004). Wireless Sensor Networks, 1–18. http://doi.org/10.1007/b117506
Nan, W., & Xue-li, S. (2009). Research on WSN Nodes Location Technology in Coal Mine. 2009
International Forum on Computer Science-Technology and Applications, 232–234.
http://doi.org/10.1109/IFCSTA.2009.296
56
Diseño de la infraestructura de red
de nueva generación de la Facultad
de Ingeniería de Telecomunicaciones
para ofrecer servicios de voz, datos y
vídeo
Daulys Juliana Cantillo Lurán 12[autor]
Maria Camila Meneses Jaimes 12[autor]
Meleny Luna Ortiz 12[autor]
Diana Carolina Contreras Jáuregui 12[autor]
Resumen
En la actualidad, la tecnología digital disponible y los diferentes medios de acceso permiten
que diversos sectores como lo son las Telecomunicaciones, los datos, la radio y la televisión se
unan en una misma. Este fenómeno es conocido como Convergencia y debido a esto, las redes
deben mejorar para poder lograr la congruencia de estos nuevos servicios multimedia.
Para soportar de manera adecuada estos servicios las redes están evolucionando hacia las
redes de Nueva Generación (NGN). Según la UIT- T las redes NGN son redes basadas en la
transmisión de paquetes capaz de proveer servicios integrados, incluyendo las tradicionales
redes telefónicas, y capaz de explotar el máximo ancho de banda del canal, haciendo uso de
las técnicas de calidad del servicio (QoS), de modo que el transporte sea totalmente
independiente de la infraestructura de red utilizada. Adicionalmente, debe ofrecer acceso libre
para usuarios de diferentes compañías telefónicas y apoyar la movilidad, que permite acceso
multipunto a los usuarios. El objetivo de esta norma, y de todos estos modos de convergencia,
es proporcionar servicios multimedia con una calidad aceptable sobre redes no orientadas a
conexión y que no ofrecen una calidad de servicio determinada, es decir, redes basadas en el
Protocolo de Internet (IP), siendo el factor más importante que guía el proceso de
convergencia.
Actualmente, gracias al aumento del ancho de banda disponible, a los estándares de
compresión y a las nuevas tecnologías de red y de equipamiento de usuario existente, los
operadores se ven en condiciones de ofrecer nuevos servicios avanzados, basados en IP, a los
usuarios residenciales, que incluyen tres tipos básicos de servicios en tiempo real (VoIP, IPTV,
12 Programa de Ingeniería de Telecomunicaciones, Semillero de Investigación de Comunicaciones Aplicadas (SICA), Universidad
Santo Tomás Seccional Bucaramanga. Correo electrónico: [email protected]
57
acceso a internet de banda ancha), combinables en diferentes paquetes y a los cuales se puede
acceder tanto a través de redes cableadas como inalámbricas.
Por lo anterior, este proyecto permitirá desarrollar una propuesta de servicios audiovisuales
y multimedia interactivos para la red de la Facultad de Ingeniería de Telecomunicaciones, que
incluye el diseño, la Arquitectura, las Tecnologías de acceso y el funcionamiento de estos
servicios audiovisuales y multimedia.
Esto se llevara a cabo, primero mediante el estudio y análisis de los diferentes servicios
multimedia (VozIP, Internet y Televisión) interactivos en las redes IP, que permitan identificar la
infraestructura necesaria para su desarrollo; así como definir la arquitectura, los componentes
funcionales y los diferentes protocolos de transmisión y comunicación básicos a utilizar para
los diversos servicios identificados.
Seguidamente, se diseñará la red de servicios multimedia, incluyendo la arquitectura y
tecnología de acceso acorde con las necesidades en la red validando estas características
identificadas y propuestas en el diseño.
Paralelamente al diseño planteado y a su validación, se llevará a cabo una prueba piloto
donde se establecerá el servicio de VozIP y se entregará un informe evaluativo del
funcionamiento, configuración y rendimiento de cada uno de los parámetros identificados en
el diseño propuesto.
Con todo esto se desarrollará una guía digital de servicios multimedia interactivos para la
red de la Facultad de Ingeniería de Telecomunicaciones la cual contiene los requerimientos
técnicos (arquitectura, tecnologías de acceso) y funcionales (protocolos y QoS) necesarios para
los servicios propuestos.
Introducción
El continuo y acelerado crecimiento de la oferta y demanda de servicios multimedia
interactivos a nivel mundial, ha obligado a que las redes actuales crezcan de igual
forma y se optimicen acorde a los requerimientos exigidos por un cúmulo de usuarios
que consumen gran información digital y que cada vez incrementan el nivel de
exigencia.
La necesidad mundial de crear y actualizar redes de comunicaciones, la renovación
continua de conceptos como Redes de Nueva Generación (NGN siglas en inglés), el
constante desarrollo e investigación de protocolos de comunicaciones en busca de
una óptima convivencia de las tecnologías presentes y la apabullante aparición de
nuevas necesidades y servicios tecnológicos, conllevan a que los agentes de
diferentes sectores quienes interactúan con una gran masa de personas sin
clasificación, potencialicen sus servicios con la finalidad de estar un paso adelante de
las exigencias que sus usuarios les demanda.
Tal es el caso de los servicios de televisión, internet y voz, que gracias a la
investigación y desarrollo en su momento, permitieron la convivencia de estos en un
entorno IP, lo que condujo a la apertura de un mundo de nuevas estrategias
58
comerciales, servicios interactivos, aplicaciones y demás aspectos que
indudablemente despertaron nuevos intereses en los usuarios.
Ahora bien, en nuestro entorno académico, la demanda de servicios crece cada día,
demanda producida por estudiantes que son asiduos consumidores de herramientas
multimedia las cuales son utilizadas como alternativas de comunicación y de
entretenimiento.
Es por esto que es imprescindible, disponer de recursos tecnológicos que permitan
soportar esta gran demanda de servicios y a su vez actualizarlos con base en las
manifestaciones de los usuarios y ejercer una total vigilancia de las redes sociales,
fuente que genera la mayor cantidad de información sobre comportamiento, gustos,
comunidades urbanas y demás expresiones que nacen en un mundo de constante
crecimiento.
Con base en lo anterior, se observa la necesidad de redimensionar las
funcionalidades de una red que en sus origines, su función se basa en la transmisión
de datos totalmente relevantes a un ejercicio administrativo propio del
funcionamiento de la Universidad; y dar un vuelco significativo y vincular nuevos,
modernos y funcionales servicios interactivos para satisfacer la demanda generada
por los cientos de nuevos usuarios de la red.
En ese orden de ideas, el planteamiento del presente proyecto, a partir de un
rediseño tecnológico e innovador, busca la inclusión de una plataforma de servicios
multimedia interactivos (televisión, audio, texto, gráficos) que permita el acceso y
difusión de la información; la inmersión de la universidad a un mundo en donde
conozca y comparta las experiencias y necesidades expresadas por los estudiantes en
un medio interactivo; la creación de nuevas estrategias a partir de medios digitales
para fomentar la identidad propia y conservación de los valores; la innovación de
acciones estratégicas para promoción y el crecimiento de la comunidad universitaria.
Teniendo en cuenta las anteriores consideraciones, surge la siguiente pregunta de
investigación, que conducirá al desarrollo de este proyecto.
¿Cuál es la arquitectura y tecnología de acceso requerida para la red NGN de la
Facultad de Ingeniería de Telecomunicaciones que le permitan ofrecer servicios
multimedia interactivos de voz, datos y video?
Metodología Empleada
El enfoque de investigación es EMPÍRICO – ANALÍTICO, puesto que en el proyecto se
requiere hacer un estudio y análisis acerca de los diferentes servicios audiovisuales y
multimedia interactivos que se puedan implementar en la red NGN de la Facultad de
Ingeniería de Telecomunicaciones, con el fin de analizar las necesidades y
requerimientos de dicha red, para poder establecer nuevos servicios soportados en
59
redes IPv4 o IPv6, se definirá para estos servicios su arquitectura, tecnología de
acceso, y protocolos de transmisión y comunicaciones , que permitan diseñar y validar
mediante una prueba piloto los diferentes parámetros que garanticen una buena
calidad del servicio específicamente para el servicio de VozIP. Dado lo anterior, se
podrá desarrollar una guía digital de servicios multimedia interactivos sobre la red de
la Universidad.
Instrumentos: Para la recolección de la información se utilizara:
• Revisión bibliográfica de información especializada
• Revisión e interpretación de infraestructura, arquitectura y tecnologías de
acceso para los servicios audiovisuales y multimedia interactivos actuales y futuristas
• Revisión de casos de éxito de proyectos similares a nivel nacional e
internacional
• Diseño y Validación mediante pruebas piloto
Procedimiento: Para poder definir los servicios multimedia interactivos para la red
NGN de la Facultad, es necesaria una revisión bibliográfica de la adquisición,
procesamiento y distribución de los servicios disponibles sobre la infraestructura de
la red IP. Esto permite establecer los servicios multimedia que soporta la red NGN de
la Facultad de Ingeniería de Telecomunicaciones.
A partir de lo anterior, se trabajará iterativamente con la revisión bibliográfica de
información especializada y de los casos de éxitos publicados a nivel nacional e
internacional, para la interpretación de los requerimientos funcionales y no
funcionales de los servicios multimedia previamente establecidos, definiendo la
arquitectura, la tecnología de acceso y los protocolos.
A continuación, se establecerá, el diseño y validación de la infraestructura,
anteriormente revisada para lo cual se llevará a cabo una prueba piloto del
funcionamiento del servicio de VozIP que permita garantizar la calidad del servicio.
Complementando el trabajo previo, se elaborará una guía digital de servicios
multimedia interactivos, vía software, que se catalogará como producto entregable.
Resultados y Conclusiones
Se realizó una consulta bibliográfica sobre redes de nueva generación NGN sobre la
cual se planteó un diseño de la arquitectura para la red NGN donde se integren los
servicios de voz, datos y video para la facultad de Ingeniería de Telecomunicaciones
de la Universidad Santo Tomás sede Bucaramanga.
La implementación de este tipo de tecnología como apoyo de aprendizaje nos
permitió familiarizarnos con las competencias necesarias para un mejor desempeño
como Ingenieros de Telecomunicaciones.
60
Referencias
Restrepo, A. M. (2009). Visión General de las Redes de Próxima Generación (NGN). Medellín.
Joskowicz, J. (Agosto de 2013). Voz, Video y Telefonía sobre IP. Montevideo, Uruguay.
UNLP. (2013). www.ing.unlp.edu.ar. From
http://www.ing.unlp.edu.ar/electrotecnia/procesos/ieee8023.pdf
Diego Fabián Durán Dorado, J. A. (2013). Arquitectura para el despliegue del servicio de video bajo
demanda de IPTV, apoyada en interactividad y sistemas de recomendaciones. ITECKNE, 10
(1).
ITU. (2015). www.itu.int. From
http://www.itu.int/itunews/manager/display.asp?lang=es&year=2009&issue=03&ipage=24
&ext=html
Chimborazo Navarrete, H. G. (2009). Diseño de una red de voz, datos y vídeo para el mall financiero
de la Cooperativa de Ahorro, Crédito y Vivienda de la Cámara de Comercio de Ambato.
Quito: EPN.
Vallina, M. M. (2013). Infraestructuras de redes de datos y sistemas de telefonía. Paraninfo.
Tejedor, R. J. (2007). Redes de datos y convergencia IP. Creaciones Copyright.
Wilson Pérez, M. R. (2009). La sociedad de la información en América Latina y el Caribe: desarrollo
de las tecnologías y tecnologías para el desarrollo. United Nations Publications.
Falcón, J. A. (2007). VoIP: La telefonía de Internet. Editorial Paraninfo.
61
Dental QR
Camilo Alfonso Jerez 13[autor]
Ricardo Andrés Díaz Suarez 13[autor]
Resumen
En el presente documento se mostrará una alternativa al problema de clasificación y
seguimiento de los pacientes, usuarios de prótesis dentales con identificación QR - code. El
seguimiento se lleva a cabo cuando se leen los datos en la prótesis dental, previamente
impresos en el lenguaje de código QR, al percibir la información, el software envía la
información contenida en la prótesis a una base de datos, donde se registran los datos del
paciente.
Introducción
Dentro de este proyecto de investigación se realizó un aplicativo software para el
seguimiento e implementación de prótesis dentales, esta solución permite tener un
registro de los códigos QR insertados dentro de la prótesis dental.
El código de respuesta rápida QR, ofrece ventajas frente otros códigos
bidimensionales de codificación, una de sus principales capacidades es la velocidad
de lectura, esto se evidencia en el posicionamiento y sincronización de tres puntos de
referencia localizados en las esquinas principales del código. Otra característica del
código QR es su capacidad de almacenamiento alfanumérico junto con la seguridad
del ordenamiento de datos, estos evitan la recodificación una vez generado y
aplicado, la información codificada está distribuida por la matriz del código de
respuesta rápida, conociendo este sistema de codificación se efectúa la aplicación
software.
Metodología Empleada
La metodología se realizó por etapas donde primero se realizó un estado del arte
sobre el control de inventarios utilizando el código QR - code, donde se estudiaron
los diferentes factores que definen los códigos bidimensionales de codificación, como
lo fueron el DataMatrix, Microsoft Tag, MaxiCode, Code 16K, junto con los códigos de
barras, donde se tomó la decisión de trabajar con el Código QR - code.
13 Programa de Ingeniería de Telecomunicaciones, Semillero de Investigación REDSI, Universidad Santo Tomás, Bucaramanga.
Correo electrónico: [email protected]
62
Luego se evaluaron los requerimientos para la elaboración del software, los cuales
están en función de: la información del paciente, el serial de la placa, junto con otra
información adicional presentada por el médico, como los registros antiguos o de
versiones anteriores a la placa presente. Estos factores se tomaron en cuenta para el
desarrollo del aplicativo software y el respectivo registro.
Se presentaron varios inconvenientes relacionados con la lectura del Código, la
resolución de la cámara, ya que si se leía con una cámara de baja resolución, el
código no podía identificar perfectamente los patrones de posición, alineamiento y
sincronización, ya que estos aparecían muy borrosos o no se podían enfocar muy bien
la cámara, otro elemento importante era la cantidad de cera aplicada en la prótesis
para poder adherir el código QR sobre esta, impidiendo una mejor lectura del código
por la presencia de cera abundante sobre el código, otro problema encontrado fue la
posición del código en la placa dental, ya que en este factor la estética juega un papel
importante y se tiende a que no se perciba la aplicación del código QR, en la placa
cuando el paciente sonría o hable.
Por último, para el desarrollo del software, se basó en Processing un lenguaje de
programación y de desarrollo integrado de código abierto en base JAVA, la librería
base del software fue: diewald_barcode, y para el seguimiento y almacenamiento de
pacientes se usó el sistema de gestión de bases de datos PostreSQL.
Resultados y Conclusiones
A continuación se presentan en las figuras 1 hasta la 9 los resultados de la lectura
de codificación QR de las placas dentales.
En las figuras 1 y 2 se presentan las prótesis empleadas con sus respectivos códigos
QR.
Figura 1. Prótesis 1. La imagen fue elaborada por los autores.
63
Figura 2. Prótesis 2. La imagen fue elaborada por los autores.
En la figura 3 se presenta la interfase hombre – máquina del software lector del
código QR, y en la figura 4 la aplicación instalada y funcionando en un teléfono
celular para leer códigos QR.
Figura 3. Software lector del código QR en Processing. La imagen fue capturada por los autores.
64
Figura 4. Software lector de código Qr, que envía los datos al correo. La imagen fue elaborada por
los autores.
En las figuras 5 y 6 se muestra a uno de los miembros del equipo de investigación
leyendo el código QR y la lectura asociada de la información.
Figura 5. Software leyendo el código en la prótesis dental. La imagen fue elaborada por los autores.
65
Figura 6. Lectura del código de la prótesis dental. La imagen fue elaborada por los autores.
Figura 7. Datos enviados listos para ser enviados al correo. La imagen fue elaborada por los autores.
66
Figura 8. Correo de la información de la prótesis dental. La imagen fue elaborada por los autores.
Figura 9. Usuarios registrados cuando el código Qr es leído. La imagen fue elaborada por los
autores.
Las conclusiones más relevantes del trabajo son las siguientes:
- Se elaboró un aplicativo software de escritorio y para dispositivo móvil que
permite la lectura de los códigos QR de las placas dentales.
- Se implementó una base de datos, que almacena los códigos leídos, que
cumplan los requisitos como lo son el nombre, el documento de
identificación, entre otros.
- El uso de esta codificación dentro de las prótesis permite tener mayor
información en de la prótesis en un área más pequeña.
67
Referencias
© ISO/IEC 2000 – All rights reserved. (2000). INTERNATIONAL. Recuperado el 22 de Mayo de 2015,
de Information technology — Automatic:
http://www.swisseduc.ch/informatik/theoretische_informatik/qr_codes/docs/qr_standard.p
df
Narayanan, A. S. (2012). QR Codes and Security Solutions . Recuperado el 22 de Mayo de 2015, de
International Journal of Computer Science and Telecommunications :
http://www.ijcst.org/Volume3/Issue7/p13_3_7.pdf
SERENO, E. (2012). EMPRESARIADOS. Recuperado el 22 de 04 de 2015, de
http://empresariados.com/las-ventajas-de-los-codigos-qr/
Soon, T. J. (2014). https://foxdesignsstudio.com. Recuperado el 22 de 04 de 2015, de Section Three
QR Code: https://foxdesignsstudio.com/uploads/pdf/Three_QR_Code.pdf
Yue Liu, J. Y. (2008). Recognition of QR Code with Mobile Phones. Jinan - China: School of
Information Science and Engineering, University of Jinan - China.
68
DomoHouse
Meleny Luna Ortiz 14[autor]
Diego Ferney Martínez Cuadros 14[autor]
Yordy Leonardo Ávila Granados 14[autor]
Ricardo Andrés Díaz Suarez 14[autor]
Elvis Humberto Galvis Serrano 14[autor]
Resumen
Este proyecto consiste principalmente en la elaboración de un entorno domótico el cual
cuenta principalmente con un desarrollo de una interfaz para ordenadores y para dispositivos
móviles, con la cual se puede interactuar y controlar, también cuenta con un sistema de luces,
un motor o aparato electromecánico (Fuente de agua), y un sensor de presencia, con lo cual se
emulan los diferentes actores de un entorno doméstico. El control del dispositivo
electromecánico se hace a través del ordenador por medio de una aplicación Java, y el control
de los demás dispositivos se hace a través de una aplicación desarrollada en el IDE Processing
en lenguaje Java y trabaja sobre plataforma Android, el control de los dispositivos se puede
realizar por medio de botones en las dos plataformas, y a través de comandos de voz en el
dispositivo móvil, de esta forma se logra interactuar de buena forma con el banco domótico
creado. Para el control del dispositivo electromecánico se tiene la aplicación la cual cuenta con
un interruptor de encendido y apagado por cada dispositivo XBee que se haya emparejado para
controlar, de esta manera se pueden controlar diferentes dispositivos a distancia, para el
control de las luces y la alarma se crearon diferentes botones en la interfaz del dispositivo
móvil el cual permite a través de botones controlar cada uno de los dispositivos, los cuales
también pueden controlarse por comandos de voz previamente establecidos tales como
“Encender luz 1” o “Apagar luz 1”, “Activar alarma” y “Desactivar alarma”, el cual nos despliega
un cuadro de texto que solicita la entrada de una contraseña para la posterior desactivación,
para el control de los dispositivos dentro de la casa se realiza a través de una conexión
Bluetooth, la cual nos permite enviar los comandos desde el dispositivo y recibidos en el
cerebro del banco demótico el cual es en este caso un Arduino para que sean procesados los
datos y sean realizadas las ordenes enviadas.
Introducción
En el siguiente proyecto se da a conocer una de las ramas de las telecomunicaciones
como lo es la domótica, implementado en una maqueta a menor escala, referenciando
como se pueden controlar distintos procesos (sistemas de luces, fuente de agua y
sensor de presencia) desde un dispositivo o un ordenador.
14 Programa de Ingeniería de Telecomunicaciones, Semillero de Investigación REDSI, Universidad Santo Tomás, Bucaramanga.
Correo electrónico: [email protected]
69
Metodología Empleada
En la figura 1 se ilustra el diagrama de bloques donde se enseñan los pasos
metodológicos planteados para alcanzar los objetivos del proyecto de investigación.
Figura 1. Metodología planteada para el desarrollo del proyecto. La imagen fue elaborada por los
autores.
Resultados y Conclusiones
A partir de la consulta bibliográfica se obtuvieron los resultados mostrados en la
figura 2.
Figura 2. Tecnologías seleccionadas por los autores a partir de la revisión de la literatura crítica del
proyecto. La imagen fue elaborada por los autores.
En la figura 3 se ilustran la elección y diseño del prototipo.
70
Figura 3. Elección y diseño del prototipo. La imagen fue elaborada por los autores.
Las especificaciones de las librerías empleadas son las siguientes: Xbee.api,
Processing.serial, Android, Android.bluetooth, Android.speech, Oscp5, Ketai, Control
p5.
El Prototipo del entorno domótico se presenta en la figura 4.
Figura 4. Prototipo del entorno domótico. La imagen fue elaborada por los autores.
En la figura 5 se ilustra la Interfaz gráfica del aplicativo software desarrollada en el
proyecto de investigación.
71
Figura 5. Interfaz gráfica diseñada para la aplicación. La imagen fue elaborada por los autores.
En la figura 6 se puede observar la aplicación para móvil diseñada por los autores.
Figura 6. Aplicativo DomoHouse instalado en un teléfono celular. La imagen fue elaborada por los
autores.
De acuerdo con los resultados obtenidos, es posible diseñar e implementar
sistemas domóticos con tecnología cableada e inalámbrica que permitan controlar
luces, dispositivos eléctricos minimizando costos y optimizando recursos.
Una vez realizado el estudio y análisis de las diferentes tecnologías cableadas e
inalámbricas y los protocolos de comunicación, se estableció que Bluetooth es el más
apropiado en la implementación de este sistema domótico ya que de acuerdo con sus
características y las aplicaciones especificadas (cargas on/off) son flexibles, de bajo
costo, fácil implementación e interoperabilidad tanto entre fabricantes como en los
mismos dispositivos haciéndolo más eficiente y eficaz.
El prototipo diseñado permitirá su uso y funcionalidad para entender y comprender
el correcto funcionamiento de las diferentes tecnologías cableadas e inalámbricas en
diferentes aplicaciones a un bajo costo y de manera eficiente.
72
Referencias
Valls Catala, J. (2013). riunet. Obtenido de Universitat Politècnica de València.:
https://riunet.upv.es/handle/10251/33357
control4col. (2013). Recuperado el 23 de febrero de 2015, de
http://www.control4col.com/domotica
LG. (2015). Obtenido de LG: http://www.lg.com/us/discover/smartthinq/thinq
PSoC. (2015). (wikipedia) Obtenido de http://en.wikipedia.org/wiki/PSoC
5hertz. (s.f.). (xbee) Obtenido de http://5hertz.com/tutoriales/?p=46
agm. (s.f.). (bombillos) Obtenido de http://www.agm.com.co/producto/iluminacion-led/bombillos-
led/bombillos-led-e27-a11/bombillo-led-e27-a11---5w-288-80
bibing. (s.f.). Obtenido de bibing.us:
http://bibing.us.es/proyectos/abreproy/70218/fichero/2.Tecnolog%EDas+Inal%E1mbricas.p
df
bluetooth. (s.f.). Obtenido de bluetooth. inc: http://www.bluetooth.com/Pages/Fast-Facts.aspx
constructoracapital. (s.f.). Obtenido de
http://www.constructoracapital.com/detalle_proyecto_constructora_capital_colombia.php?I
D_proyecto=54&ID_ciudad=2
Desviat Cruzado, P. (2009). Instituto de Investigación Tecnológica. Obtenido de Universidad
Pontificia Comillas: http://www.iit.upcomillas.es/pfc/resumenes/4aa96f8b4e6aa.pdf
electan. (s.f.). (arduino) Obtenido de http://www.electan.com/arduino-uno-pack-con-kit-basico-
arduino-p-3056.html
forosdeelectronica. (s.f.). (sensor) Obtenido de http://www.forosdeelectronica.com/f11/sensores-
presencia-combinados-2055/
Gordillo, G. (2008). slideshare. Obtenido de multiplexacion: http://es.slideshare.net/ggordillo/que-
es-la-multiplexacin-presentation
Martinez, J. P. (2012). Universitat Politècnica de Valéncia. Obtenido de upv:
https://riunet.upv.es/bitstream/handle/10251/17631/Memoria.pdf?sequence=1
maydandesign. (s.f.). (talykats) Obtenido de http://www.talykatz.com/exhibitions.html
Oseira Goas, R. (2011). upcommons. Obtenido de portal d'accés obert al coneixement de la UPC:
http://upcommons.upc.edu/pfc/bitstream/2099.1/11132/1/PFC.pdf
radio.lg.ua. (s.f.). (buzzer) Obtenido de http://radio.lg.ua/index.php?productID=3928
wikipedia. (s.f.). Obtenido de http://es.wikipedia.org/wiki/Arduino
73
Prueba experimental del algoritmo
ACP para el reconocimiento de
rostros bajo condiciones de luz
controlada y diferentes expresiones
gestuales
Juan Pablo Botero Londoño 15[autor]
Johanna Andrea Morales Rodríguez 15[autor]
Laura Román Calderón 15[autor]
Camilo Andrés Flórez Velásquez 15[autor]
Resumen
Los algoritmos de visión artificial empleados para la detección de rostros humanos se
aplican actualmente en el diseño y desarrollo de cámaras de analítica: Cámaras que sirven para
extraer de forma automática información geométrica, cinemática, de colores y texturas, útiles
para el desarrollo de tareas especializadas en diversos sectores como por ejemplo la
seguridad, el control de tránsito, la medicina entre otros. En particular en este trabajo se
presentan los resultados preliminares de una prueba experimental del algoritmo de análisis de
componentes principales (ACP o PCA), aplicado en el reconocimiento de detección y
reconocimiento de rostros humanos mediante visión artificial, con la finalidad de evaluar el
porcentaje de éxito del método y compararlo posteriormente con la técnica de Análisis de
Discriminantes Lineales (LDA).
Para poner a prueba la técnica PCA se procedió a capturar 12 imágenes de rostros de 3
personas en escala de grises, todas de 3 [Megapíxel] y bajo condiciones de luz controlada; con
expresiones gestuales similares y sin rotación de rostros, con la finalidad de entrenar el
algoritmo PCA: Se obtuvieron los Eigenfaces asociados a los rostros de entrenamiento y luego
se proyectaron las 12 imágenes al espacio de rostros, dimensionalmente inferiores a las
imágenes empleadas.
Para medir el grado de éxito del algoritmo se procedió a medir la norma Euclídea entre una
imagen no perteneciente a la base de entrenamiento proyectada a al espacio de rostros, y las
12 imágenes de entrenamiento proyectadas en dicho espacio. Los resultados evidenciaron que
el método PCA es altamente sensible a las expresiones gestuales, lo cual implica que es
15 Programa de Ingeniería de Telecomunicaciones, Semillero de Investigación Procesamiento Digital de Señales – Ingeniería de
Telecomunicaciones, Universidad Santo Tomás, Medellín. Correo electrónico: [email protected]
74
necesario utilizar otras técnicas de reconocimiento de rostros más robustas como por ejemplo
la técnica de análisis de discriminantes lineales.
Introducción
La técnica de reconocimiento de rostros de análisis de componentes principales
(Pentland & Turk, 1991), es una técnica fundamentada en la medición de todas las
características presentes en las imágenes de forma holística (color de los píxeles,
geometría del rostro, textura de la imagen entre otras): Toda imagen se puede
representar como un vector igual a la combinación lineal de unas imágenes base
llamadas “Eigenfaces” o “Rostros Genéricos”, que se obtienen a partir de la matriz de
covarianza de todas las imágenes capturadas para formar el conjunto de
entrenamiento del algoritmo. Estos Eigenfaces además permiten proyectar cualquier
vector asociado a una imagen como un vector en un espacio llamado el espacio de
rostros, cuyas dimensiones son inferiores a las de la fotografía original.
Metodología Empleada
Para poner a prueba el algoritmo de reconocimiento de imágenes propuesto en el
artículo, se procedió a capturar 12 imágenes de 3 [Megapíxel] asociada a 4 personas
distintas bajo condiciones de luz controlada. En total se capturaron 3 imágenes por
persona. Estas imágenes se convirtieron a escala de grises y se emplearon para
entrenar el algoritmo PAC: Las imágenes se convirtieron en vectores, y se calculó la
media de la base de entrenamiento. Luego se halló la resta de cada vector y la media,
para posteriormente usar estos nuevos vectores para computar los vectores y valores
propios de la matriz de covarianzas de las imágenes. A partir de todos los vectores
propios de la matriz de covarianzas (los Eigenfaces), se proyectaron cada una de las
12 imágenes en el espacio de rostros, generando así 12 arreglos con dimensiones
inferiores a las de las imágenes de entrenamiento.
Posteriormente se capturó una (1) nueva imagen perteneciente a una de las 4
personas, con características gestuales diferentes a las de las imágenes de
entrenamiento. Esta imagen se proyectó al espacio de rostros con la finalidad de
calcular su arreglo equivalente. Finalmente se midió la distancia Euclídea entre cada
uno de los 12 rostros proyectados al espacio de rostros con el nuevo rostro
proyectado. Se debería esperar que la distancia Euclídea más pequeña entre los
vectores ocurriera cuando el rostro de prueba de la persona coincidiese con los
rostros de entrenamiento del mismo individuo.
75
Resultados y Conclusiones
En la Figura 1 se pueden observar las 12 imágenes de entrenamiento del algoritmo
PCA previa conversión a escala de grises.
Figura 1. Base de datos de las imágenes de entrenamiento del algoritmo PAC. Cada una tiene
dimensiones de 3 [Megapíxel]. Las imágenes fueron capturadas por los autores.
El valor de Las 12 proyecciones de estos rostros en el espacio de rostros,
12321 ,,,, , son presentados en la figura 2:
Figura 2. Valores de las 12 proyecciones de los rostros sobre el espacio de rostros. La imagen fue
elaborada por los autores.
Nótese las dimensiones de los vectores que representan las imágenes, apenas son
de 12 filas y 1 columna, dimensiones muy inferiores a las de las imágenes originales
(3 millones de elementos).
En la figura 3 se enseña la nueva imagen capturada de la persona número 3 con
expresión gestual similar a la de la base de rostros de entrenamiento.
76
Figura 3. Imagen nueva de una persona cuyo rostro está en la base de datos de entrenamiento, de
iguales dimensiones de 3 [Megapíxel] con expresión gestual similar a las almacenadas. La imagen
fue capturada por los autores.
Al proyectar esta imagen en el espacio de rostros y midiendo la distancia Euclídea
entre las demás imágenes presentes en el espacio de rostro, se obtiene que la
distancia más pequeña se obtuvo contra el vector número 11 asociado a la imagen
número 11 presentada en la figura 1:
Mínima Distancia Face=24.9610 (se obtuvo con la imagen de entrenamiento 11)
En la figura 4 se ilustra una nueva imagen de prueba de una persona cuyo rostro
está en la base de datos con una dimensión de 3 [Megapíxel], con una expresión
gestual diferente a las de la base de datos mostrada en la figura 1.
Figura 4. Imagen nueva de una persona cuyo rostro está en la base de datos de entrenamiento, de
iguales dimensiones de 3 [Megapíxel] con expresión gestual diferente a las almacenadas. La imagen
fue capturada por los autores.
Si se ingresa una imagen de prueba con un gesto no presente en la base de datos
como la ilustrada en la figura 3, entonces se obtiene que la distancia de la huella de
prueba con respecto a las huellas de la base de datos están muy separadas entre sí,
generándose un error de reconocimiento de rostros del algoritmo.
77
Mínima Distancia Face= 203.8086 (se obtuvo con la imagen 11 de la base de datos
de entrenamiento)
La técnica de análisis de componentes principales para el reconocimiento de rostros
humanos presenta serios problemas de funcionamiento frente a las expresiones
gestuales de los rostros, la iluminación y orientación de los mismos.
Se sugiere para los próximos estudios del grupo de trabajo abordar el empleo de
redes neuronales para mejorar sensiblemente la probabilidad de reconocimiento
exitoso de los rostros.
Referencias
Turk, Matthew; Pentland, Alex. Face recognition using eigenface. USA, Massachusetts Institute of
Tech. IEEE, 1991. pps. 586 – 591.
Turk, Matthew; Pentland, Alex. Eigenface for recognition. USA, Massachusetts Institute of Tech.
Journal of cognitive neuroscience, volume 3, number 1, 1991. Pps 71 – 86.
Yang, Li. Course of Biometric and cryptography. Center for information security and assurance,
Univesity of Tennessee. Capturado del sitio web http://www.utc.edu/center-information-
security-assurance/course-listing/b3.2.face.pca.lda.ppt.
Lata, Y. Vijaya; Bharadwaj, Chandra. Facial recognition using eigenfaces by PCA. International Journal
of recent trends in engineering, volume 1, number 1, may 2009. Pps 587 – 590.
78
Desarrollo de un sistema
multisensorial para monitorear gases
tóxicos en espacios cerrados
mediante tecnología inalámbrica
Francisco Tomas Castellón Castro 16[autor]
Cristhian Manuel Duran Acevedo 16[autor]
Resumen
El proyecto a realizar se basa en el diseño de un sistema multisensorial implementado en
espacios cerrados y que sea capaz de monitorear gases tóxicos que puedan existir en dicho
entorno.
Para este sistema se pretende implementar una matriz de sensores controlada por medio de
tecnología inalámbrica, y de igual manera realizar una interfaz usuario tanto gases tóxicos
como el comportamiento de los sensores.
Los gases tóxicos en el espacio cerrado serán determinados a través del procesamiento
de los datos adquiridos previamente por el sistema de medida y a su vez, con capacidad de
generar alarmas de control en la detección de diferentes niveles de los gases. En este último
aspecto se enviara la información en tiempo real hasta un sitio remoto.
Introducción
Un detector de gas es un elemento que sufre un cambio físico o químico, reversible,
en presencia de un gas, para dar una señal que es transmitida, mostrada o utilizada
para operar alarmas y controles. Para este caso se utilizaran los sensores
semiconductores porque están compuestos por dióxido de estaño. En la figura 1 se
ilustra la cámara de sensores diseñada.
16 Programa de Ingeniería Electrónica, Semillero de Investigación de Sistemas Multisensoriales y Reconocimiento de Patrones,
Universidad de Pamplona, Norte de Santander. Correo electrónico: [email protected]
79
Figura 1. Cámara de sensores. La imagen fue elaborada por los autores.
En este proyecto se va a implementar una “nariz electrónica” utilizando los sensores
de gas ya que estos tienen la ventaja de detectar compuesto que para el ser humano
no son fáciles de distinguir, ya que por lo general algunos gases son inodoros y
perjudiciales para la salud humana, teniendo la ventaja que el monitoreo del estado
de los sensores se va a llevar a cabo en un sitio remoto alejado de la cámara de
concentración por medio de la implementación de la tecnología Zigbee.
Marco Teórico y Estado del Arte
- Calidad del aire: La concentración de contaminantes pueden acumularse en un
espacio cerrado y así los riesgos para la salud pueden ser mayores. Los
compuestos orgánicos volátiles (COV) y gases inorgánicos pueden contribuir a
la mala calidad del aire interior (Mandayo et al., 2014)
- Sensores de gas: La nariz electrónica, como un sistema olfativo artificial, se
puede utilizar para la estimación de la concentración de los gases combinada
con un módulo de reconocimiento de patrones.(Zhang et al., 2013)
- Tipos de sensores de gas: Dentro de los sensores de gas encontramos
diferentes tecnologías, según el campo de la aplicación a implementar con
estos dispositivos: Sensores electroquímicos, sensores con materiales
semiconductores, sensores de conductividad química, sensores catalíticos y
sensores infrarrojos. En la figura 2 se ilustran algunos de los tipos de sensores
mencionados.
80
Figura 2. Diferentes tipos de sensores. La imagen fue elaborada por los autores.
Comunicaciones Inalámbricas usando módulos XBee: Zigbee es un protocolo de
comunicaciones inalámbrico basado en el estándar de comunicaciones para redes
inalámbricas IEEE_802.15.4. Creado por Zigbee Alliance, una organización,
teóricamente sin ánimo de lucro, de más de 200 grandes empresas (destacan
Mitsubishi, Honeywell, Philips, _ ODEM_ do, Invensys, entre otras), muchas de ellas
fabricantes de semiconductores. Zigbee permite que dispositivos electrónicos de bajo
consumo puedan realizar sus comunicaciones inalámbricas. Es especialmente útil para
redes de sensores en entornos industriales, médicos y, sobre todo, domóticos.
Las comunicaciones Zigbee se realizan en la banda libre de 2.4GHz. A diferencia de
bluetooth, este protocolo no utiliza FHSS (Frequency hooping), sino que realiza las
comunicaciones a través de una única frecuencia, es decir, de un canal. Normalmente
puede escogerse un canal de entre 16 posibles. El alcance depende de la potencia de
transmisión del dispositivo así como también del tipo de antenas utilizadas
(cerámicas, dipolos, etc.) El alcance normal con antena dipolo en línea vista es de
aproximadamente (tomando como ejemplo el caso de MaxStream, en la versión de
1mW de potencia) de 100m y en interiores de unos 30m. La velocidad de transmisión
de datos de una red Zigbee es de hasta 256kbps. Una red Zigbee la pueden formar,
teóricamente, hasta 65535 equipos, es decir, el protocolo está preparado para poder
controlar en la misma red esta cantidad enorme de dispositivos.
Entre las necesidades que satisface el módulo se encuentran su bajo costo, el ultra-
bajo consumo de potencia, el uso de bandas de radio libres y sin necesidad de
licencias, la instalación barata y simple, y la posibilidad de generar redes flexibles y
extensibles.
El uso del protocolo Zigbee va desde reemplazar un cable por una comunicación
serial inalámbrico, hasta el desarrollo de configuraciones punto a punto, multipunto,
peer-to-peer (todos los nodos conectados entre sí) o redes complejas de sensores.
Una conexión típica se muestra en la Figura, donde se observa que cada módulo XBee
posee algún tipo de sensor, el cual entrega los datos para ser enviados a través de la
red a un centro que administre la información.
81
Figura 3. Conexión típica usando XBEE. La imagen fue elaborada por los autores.
Una red Zigbee la forman básicamente 3 tipos de elementos. Un único dispositivo
Coordinador, dispositivos Routers y dispositivos finales (End points) como lo enseña
Garcia (2013).
Metodología Empleada
Para llevar a cabo los objetivos propuestos en este proyecto de investigación
primero se diseñó una cámara de sensores para así poder extraer muestras de los
diferentes gases a estudiarlos para posteriormente poder clasificarlos y llevar a cabo
el monitoreo de estos. Este monitoreo se pretende implementar por medio de
tecnología inalámbrica llamada Zigbee ya que esta en comparación de otros sistemas
de comunicación inalámbrica como son Bluetooth, WiFi, radiofrecuencia, entre otros,
este sistema presenta menor consumo de energía y mayor alcance
Resultados y Conclusiones
Como resultado obtenido se tomó en cuenta cada uno de los sensores para ver su
comportamiento con respecto a un compuesto volátil en este caso se tomó como
compuesto el alcohol, ya que para las pruebas con los gases planteados no se cuenta
con la disponibilidad inmediata de estos por motivos ajenos al proyecto.
Se realizaron pruebas durante un tiempo determinado obteniendo como resultado
la siguiente grafica con una muestra de 300 datos durante 5 minutos ilustrada en la
figura 4.
82
Figura 4. Grafica de comportamiento de cada uno de los 6 sensores con una muestra de alcohol.
La imagen fue elaborada por los autores.
Referencias
Garcia, H. (2013). Desarrollo de un sistema inalambrico para la supervision y control de un
aerogenrador.
Mandayo, G. G., Gonzalez-Chavarri, J., Hammes, E., Newton, H., et al. (2014). System to control
indoor air quality in energy efficient buildings. Urban Climate.
http://doi.org/10.1016/j.uclim.2014.10.009
Zhang, L., Tian, F., Liu, S., et al. (2013). Chaos based neural network optimization for concentration
estimation of indoor air contaminants by an electronic nose. Sensors and Actuators, A:
Physical, 189, 161–167. http://doi.org/10.1016/j.sna.2012.10.023
83
Clasificación de compuestos volátiles
a través de técnicas de modulación
de temperatura en sensores de gases
químicos
Juan Pablo Benjumea Gutiérrez 17[autor]
Cristhian Manuel Duran Acevedo 17[autor]
Resumen
En el presente artículo se da a conocer el diseño y la implementación de un sistema de
acondicionamiento para una nariz electrónica, a la cual se le aplicó en su resistencia
calefactora (Heater) diferentes métodos de modulación de temperatura, con el fin de estudiar
la respuesta de los sensores, y determinar si estos son capaces de hacer una clasificación
cuando se le aplica un compuesto volátil.
El estudio se basara en observar que tan eficaz y eficiente es el sensor cuando se le aplican
diferentes compuestos volátiles y modulaciones en su Heater analizando la sensibilidad,
selectividad y repetitividad, y determinando que tipo de modulación mejorara la respuesta de
los sensores y cual la deteriora.
Introducción
Las investigaciones referentes a narices electrónicas han tenido un gran auge en
muchos campos. Estas se han utilizado para el monitoreo de olores en la industria
agroalimentaria con el fin de poder determinar la calidad de ciertos productos, al
igual que para la detección de gases en lugares donde se puede poner en riesgo la
vida humana, debido a que pueden ser nocivos para la salud. Otras de las
aplicaciones hacen referencia a la detección de enfermedades como el EPOC y como
aspecto amplio de investigación actual realiza aportes a la minería y todo el campo
referente a hidrocarburos.
Actualmente todas estas aplicaciones se han realizado siguiendo el mismo patrón
de diseño, es decir utilizando sensores que sean selectivos, repetitivos y eficaces al
momento de detectar una muestra de algún compuesto volátil.
17 Programa de Ingeniería Electrónica, Semillero de Investigación de Sistemas Multisensoriales y Reconocimiento de Patrones,
Universidad de Pamplona, Norte de Santander. Correo electrónico: [email protected]
84
En estudios realizados anteriormente por diferentes investigadores como por
ejemplo el de José Antonio Correa Duro en su artículo “Estudio de la modulación
térmica de sensores de gases de tipo micro-hotplate mediante secuencias
pseudoaleatorias”, A.Fort, M.Gregorkiewitz, N.Machetti, S.Rocchi, B.Serrano, L.Tondi,
N.Ulivieri, V.Vignoli, G.Faglia, E.Comini, en su artículo “Selectivity enhancement of
SnO_2 sensors by means of operating temperature modulation”, se han obtenidos
resultados importantes, pero pocos se han centrado en estudiar frecuencia de trabajo
y eficiencia del sensor de gas al momento de realizar la modulación de temperatura
en el Heater, en dichos estudios solo se han detenido a mirar la repuesta del sensor al
aplicarle una modulación de temperatura en el Heater pero no han centrado en ver
qué tan efectiva en la respuesta del sensor y que tan fiable es su respuesta al
momento de realizar la clasificación de compuestos volátiles.
Para realizar este estudio se basó en técnicas de modulación y métodos de
procesamiento, tales como análisis de clúster, componentes principales y redes
neuronales. Se adquirió la señal a través de un dispositivo para la captura de datos y
posteriormente poder analizar la respuesta del sensor.
Marco Teórico y Estado del Arte
Sensores De Óxido De Estaño: El óxido de estaño contiene vacantes de oxígeno en
su estructura cristalina. Cuando este material es calentado a elevadas temperaturas
(alrededor de unos 400 ºC), los electrones libres fluyen fácilmente a través de la
banda de conducción de las partículas de óxido de estaño.
En aire puro el oxígeno es absorbido por las partículas de óxido de estaño de la
superficie y atrapa electrones libres debido a su alta electroafinidad, formando una
barrera de potencial en la banda de conducción. Esta barrera de potencial restringe el
flujo de electrones causando un incremento en la resistencia eléctrica.
Cuando el sensor es expuesto a una atmósfera que contiene gases (reductores /
combustibles, CO, etc.), el óxido de estaño de la superficie absorbe moléculas del gas
produciéndose una reacción de oxidación entre el gas y el oxígeno absorbido, lo que
disminuye la barrera de potencial y en consecuencia reduce la resistencia eléctrica
(Bosch & Lecha, 2001).
Análisis de Componentes Principales (PCA): El PCA es un método que asume
colinealidad entre las variables que intervienen. El análisis de componentes
principales se trata de un algoritmo lineal que puede funcionar incorrectamente en
procesos altamente no lineales, como pueden ser las interacciones químicas entre
sensores y compuestos volátiles, pero funciona sorprendentemente bien en muchas
aplicaciones con sistemas de olfato electrónico, sobre todo en las que las
85
concentraciones de volátiles no son muy elevadas y el comportamiento de los
sensores no es excesivamente alineal.
La compresión de datos y extracción de información relevante se hace más
necesaria en aquellas situaciones en las que existe una falta de selectividad en cada
uno de los sensores que componen la matriz. Por ese motivo el análisis de
componentes principales es un método idóneo para explotar el concepto de
sensibilidades solapadas que se aplica en la mayoría de los SDOE.
El algoritmo PCA suele ser clasificado como un método no supervisado de
reconocimiento de patrones, ya que su uso más extendido con los sistemas de olfato
electrónico se limita a representar bidimensionalmente un conjunto de medidas, para
ver si se pueden determinar agrupaciones (“clusters”) espontáneas entre las diferentes
medidas realizadas previamente. Sin embargo también existen modificaciones que
permiten aplicar el algoritmo en modo supervisado (Durán, 2003).
Redes Neuronales Artificiales: Las Redes Neuronales Artificiales (RNA) nos permiten
resolver problemas, de forma individual o combinada con otros métodos, para
aquellas tareas de clasificación, identificación, diagnóstico, optimización o predicción
en las que el balance datos/conocimiento se inclina hacia los datos y donde,
adicionalmente, puede haber la necesidad de aprendizaje en tiempo de ejecución y de
cierta tolerancia a fallos. En algunos casos las RNAs se adaptan dinámicamente
reajustando constantemente los “pesos” de sus interconexiones, en otros casos estos
pesos permanecen fijos tras un proceso llamado entrenamiento. Las RNAs se basan
en la analogía que existe en el comportamiento y función del cerebro humano, en
particular del sistema nervioso, el cual está compuesto por redes de neuronas
biológicas que poseen bajas capacidades de procesamiento, sin embargo toda su
capacidad cognitiva se sustenta en la conectividad de éstas.
La unidad de una red neuronal artificial es un procesador elemental llamado
neurona que posee la capacidad limitada de calcular, en general, una suma ponderada
de sus entradas y luego le aplica una función de activación para obtener una señal
que será transmitida a la próxima neurona.
Estas neuronas artificiales se agrupan en capas o niveles y poseen un alto grado de
conectividad entre ellas, conectividad que es ponderada por los pesos. A través de un
algoritmo de aprendizaje supervisado o no supervisado, las RNAs ajustan su
arquitectura y parámetros de manera de poder minimizar alguna función de error que
indique el grado de ajuste a los datos y la capacidad de generalización de las RNAs
(Córdoba Olivares, 2013).
86
Metodología Empleada
Con el fin de estudiar la respuesta de los sensores de gases al momento de aplicar
una modulación de voltaje en la resistencia calefactora (Heater), se diseñó un sistema
de acondicionamiento para poder realizar el muestreo de la señal de salida y
posteriormente el funcionamiento correcto del circuito.
El sistema consta de una cámara de concentración, una válvula de control de flujo,
una bomba de vacío, una nariz electrónica compuesta por cuatro sensores, y
finalmente una tarjeta de adquisición de datos.
Cabe resaltar que el proyecto está enfocado a tomar mediciones con compuesto
volátiles de alimentos, por lo tanto se tomaran muestras de vino y alcoholes, entre
otros.
La puesta en marcha de sistema se realiza de la siguiente manera, primero que
todo, los sensores de gases se deben depurar para evitar que existan impurezas, esto
se debe hacer previamente a la adquisición de datos y debe ser realizado con una
señal DC durante un tiempo de 15 a 20 minutos, luego de depurar los sensores se
procederá a aplicar la modulación de voltaje en la resistencia calefactora (Heater) para
posteriormente realizar la adquisición de datos.
Una vez depurado los sensores y aplicada la modulación de voltaje se procederá a
colocar un muestra de alcohol o vino en la cámara de concentración y se dejará un
tiempo de 10 minutos, esto se hace con el fin de que la muestra genere la mayor
cantidad de volátiles dentro de la cámara y se obtenga una mejor respuesta de los
sensores.
Después de pasado el tiempo de concentración de la muestra, se activara una
electroválvula que cerrará la vía donde fluye aire puro (en este caso el que se
encuentra en el medio ambiente) y activara la vía que comunica con la cámara de
concentración, esto con el fin de hacer fluir el aire de la cámara por una bomba de
vacío, que llevará el aire con el compuesto volátil a la matriz de sensores, esto se hará
por un lapso de 5 minutos, con un periodo de muestreo de 1 segundo, dando como
resultado 300 muestras en total.
Una vez excitados los sensores se hará la adquisición de datos a través de una
tarjeta de desarrollo (Arduino), que comunicara el sistema en físico con una interfaz
creada en Matlab, en esta interfaz se podrá observar la respuesta de los sensores en
tiempo real y posteriormente el almacenado de los datos una vez haya terminado el
tiempo de muestreo.
Con los datos ya almacenados se hará el análisis correspondiente para hacer la
clasificación de los compuestos aplicados a los sensores, se tendrá en cuenta la
respuesta de los sensores en cuanto a la modulación aplicada para poder dar un
dictamen final.
87
Resultados y Conclusiones
En este proyecto se describen las técnicas utilizadas hasta el momento y los
resultados preliminares obtenidos basados en las modulaciones de voltaje aplicadas a
la resistencia calefactora (Heater).
En la figura 1 se apreciará la respuesta de los sensores TGS 800, SP-53 7Z6, TGS
826 y SP-15A 921 F, esta respuesta será tomada como patrón ya que es una
respuesta de voltaje de los sensores cuando son excitados con un volteje continuo.
Figura 1. Respuesta de los sensores sin modulación de temperatura, sometidos a una muestra de
Alcohol al 70%. La imagen fue elaborada por los autores.
En el grafico se puede apreciar cada una de las respuestas de los sensores cuando
se le aplica una muestra de 2ml de Alcohol etílico al 70% de concentración, al
observar la respuesta se puede determinar que al aplicarle un voltaje continuo a la
resistencia calefactora los sensores tienen un porcentaje de sensibilidad muy alto, ya
que responde instantáneamente al suminístrale la muestra previamente concentrada
en la cámara, la respuesta de los sensores también está determinada por el tipo de
compuesto al cual es sensible, es decir, el TGS 800 es muy utilizado para reconocer
gases como aire e hidrogeno, el TGS 826 es utilizado para reconocer amoniaco,
entonces tendrán una repuestas característica cuando se le aplican esos gases.
A continuación en la figura 2 se puede observar la respuesta de los sensores
cuando se le aplica una modulación PWM con una frecuencia de 490 Hz y un ciclo de
trabajo de 33.3%, generada por la tarjeta Arduino mega 2560 y se le aplicaron los
mismo parámetros de concentración de la muestra que se utilizaron anteriormente.
88
Figura 2. Respuesta de los sensores a una señal PWM con un ciclo de trabajo del 33.3% en la
resistencia calefactora. La imagen fue elaborada por los autores.
Al interpretar la gráfica de la respuesta en voltaje de los sensores aplicando una
modulación PWM con un ciclo de trabajo menor al 50%, se puede observar que la
respuesta cuando es excitado el sensor tiende a un valor de amplitud máximo, muy
similar a lo que sucede con respecto a una respuesta sin modulación en la resistencia
calefactora, pero con la gran diferencia de que la respuesta con la señal modulada en
el Heater tiende a sostenerse mayor tiempo en su valor máximo, mientras que la
respuesta cuando se le aplica una señal continua en el Heater tiene un declive y
tiende a mantenerse en un valor aproximado a la mitad del valor máximo obtenido
cuando es aplicada la muestra.
También se puede notar que en los sensores SP-53 7Z6, TGS 826 y SP-15 921 F la
respuesta cambia totalmente, ya que ninguno de los sensores alcanza el valor
máximo obtenido cuando se le aplicó la señal sin modulación en el Heater.
Los TGS 826 y SP-15 921 F tiene una respuesta de voltaje muy pequeña como se
puede apreciar en la figura, el voltaje máximo alcanzado no supera los 0.5 voltios,
pero sin embargo se puede decir que respondieron cuando se les aplicó la muestra de
alcohol previamente concentrada en la cámara.
En la figura 3 se ilustra la respuesta de los sensores sometidos al flujo de aire
continuo de una muestra de 2ml de vino Moscatel al 1%.
89
Figura 3. Respuesta de los sensores sin modulación de temperatura, sometidos a una muestra de
vino Moscatel al 1%. La imagen fue elaborada por los autores.
El comportamiento que sigue la señal adquirida cuando se le aplica una muestra de
2 ml de vino moscatel al 1% es muy similar a cuando se le aplica una muestra de 2 ml
de alcohol al 70%, pero se puede notar que la amplitud de la señal cambia, siendo
menor cuando se le aplica una muestra de vino.
En cuanto a sensibilidad, está siendo alta, dando una respuesta de voltaje, casi
instantáneamente cuando se le aplica la muestra de vino.
En la figura 4 se aprecia la respuesta de los sensores sometidos al flujo de aire
continuo de una muestra de 2ml de vino Moscatel al 1% aplicándoles una modulación
PWM con una frecuencia de 490 Hz y un ciclo de trabajo de 33.3%, generada por la
tarjeta Arduino mega 2560.
Figura 4. Respuesta de los sensores sometidos a modulación de temperatura, con una muestra de
vino Moscatel al 1%. La imagen fue elaborada por los autores.
90
Nótese que los sensores tienen una excelente respuesta en cuanto a amplitud, cabe
destacar que aún siguen siendo sensibles cuando se le hace la modulación de
temperatura.
La amplitud de la señal tiende a mantenerse estable después del haber alcanzado la
amplitud máxima, siendo esta respuesta favorable para hacer análisis y
procesamiento de datos,
Con este estudio preliminar se puede decir que la respuesta de los sensores
obtenida cuando se le aplica una modulación, haría más fácil el procesamiento de los
datos al momento de hacer una clasificación, a simple vista si puede notar los
cambios de voltajes producidos por los sensores y cada respuesta varia su amplitud
de acuerdo al compuesto volátil aplicado.
En este trabajo se diseñó e implementó un dispositivo, basado en sensores de gases
químicos cuya finalidad es la obtención de señales eléctricas producidas por los
sensores de gases cuando se le aplica un volátil y se hace variar la temperatura del
Heater a través de técnicas de modulación de voltaje.
Estas señales provenientes de los sensores de gases son adquiridas por un Arduino
2560 y almacenadas en un equipo de procesamiento (PC), para luego realizarle el
procesamiento de datos y posteriormente hacer la clasificación.
De acuerdo a las mediciones realizadas con la nariz electrónica se pude determinar
que los sensores varían su respuesta de acuerdo al tipo de modulación que se le
aplique al Heater, haciendo que esta varié totalmente con respecto a la respuesta de
los sensores cuando no se le aplica modulación de temperatura.
Si se hace una comparación de la respuesta de los sensores cuando se le aplica una
modulación de temperatura y cuando no se le aplica, se notara que cuando se le
aplica una modulación de temperatura el sensor genera una salida de voltaje, y al
hacer una resta del voltaje final menos el voltaje inicial se puede apreciar un valor
mayor al de la respuesta del sensor cuando no se le aplica una modulación de
temperatura, siendo esta respuesta favorable para poder realizar un procesamiento y
clasificación de compuestos volátiles, si se aplica la ecuación .
Al aplicar otro tipo de procesamiento para la selección de datos como seria las
respuestas serian favorables en cuanto a clasificación ya que se haría mucho más fácil
el reconocer y especificar el tipo de compuesto volátil.
Nótese que los sensores fueron sometidos a diferentes compuestos volátiles y en
diferentes escenarios, obteniendo respuestas muy similares con lo cual se puede
afirmar que los sensores pueden ser reproducibles, es decir, obtener la misma
respuesta en diferentes ambientes, salvo en ambientes húmedos donde genera
respuestas erráticas, debido a las condiciones inapropiadas para el sistema de
medición.
91
Referencias
Bosch, S. R., & Lecha, B. (2001). Diseño y realización de una nariz electrónica para la discriminación
de aceites.
Córdoba Olivares, S. (2013). Sistema Electrónico Para La Clasificación De Datos De Fragancia De Café
Utilizando Redes Neuronales Artificiales.
Correa, J. A. (2003). Estudio de la Modulación Térmica de Sensores de Gases de Tipo Micro-Hotplate
Mediante Secuencias Pseudoaleatorias.
Durán, C. M. (n.d.). Optimización de resultados mediante algoritmos de selección de variables
Diseño, (3), 7–13.
Fort, A., Gregorkiewitz, M., Machetti, N., Rocchi, S., et al. (2002). Selectivity enhancement of SnO 2
sensors by means of operating temperature modulation, 418, 2–8.
Gosangi, R., & Gutierrez-Osuna, R. (2013). Active temperature modulation of metal-oxide sensors
for quantitative analysis of gas mixtures. Sensors and Actuators, B: Chemical, 185, 201–210.
http://doi.org/10.1016/j.snb.2013.04.056
Martinelli, E., Polese, D., Catini, A., D’Amico, A., et al. (2012). Self-adapted temperature modulation
in metal-oxide semiconductor gas sensors. Sensors and Actuators, B: Chemical, 161(1),
534–541. http://doi.org/10.1016/j.snb.2011.10.072
Ngo, K. a., Lauque, P., & Aguir, K. (2007). High performance of a gas identification system using
sensor array and temperature modulation. Sensors and Actuators, B: Chemical, 124(1), 209–
216. http://doi.org/10.1016/j.snb.2006.12.028
Ortega, A., Marco, S., Perera, A., Šundic, T., et al. (2001). An intelligent detector based on
temperature modulation of a gas sensor with a digital signal processor. Sensors and
Actuators, B: Chemical, 78(1-3), 32–39. http://doi.org/10.1016/S0925-4005 (01)00788-2
Polese, D., Martinelli, E., Catini, a., D’Amico, a., & Di Natale, C. (2010). Self-adaptive thermal
modulation of gas sensors. Procedia Engineering, 5, 156–159.
http://doi.org/10.1016/j.proeng.2010.09.071
Vergara, a., Llobet, E., Brezmes, J., Ivanov, P., et al. (2005). Optimised temperature modulation of
metal oxide micro-hotplate gas sensors through multilevel pseudo random sequences.
Sensors and Actuators, B: Chemical, 111-112(SUPPL.), 271–280.
http://doi.org/10.1016/j.snb.2005.06.039
Zhang, G., & Xie, C. (2015). A novel method in the gas identification by using WO3 gas sensor based
on the temperature-programmed technique. Sensors and Actuators B: Chemical, 206, 220–
229. http://doi.org/10.1016/j.snb.2014.09.063
Ziyatdinov, A., Fonollosa, J., Fernández, L., et al. (2015). Bioinspired early detection through gas flow
modulation in chemo-sensory systems. Sensors and Actuators B: Chemical, 206, 538–547.
http://doi.org/10.1016/j.snb.2014.09.001
92
Medición automática de variables
antropométricas para la aplicación y
desarrollo del protocolo de
evaluación fonoaudiológica de la
respiración
Héctor Marino Flórez Vera 18[autor]
Resumen
La respiración es un proceso biológico imprescindible para la vida y, aunque se lleva a cabo
de forma involuntaria, la mayoría de las veces se hace de forma incorrecta debido a malas
posturas corporales y diversos factores de fisionomía del rostro, esto ocasiona grandes
dificultades para realizar el proceso de oxigenación del cuerpo y el cerebro. Es así como, el
Protocolo de Evaluación Fonoaudiológica de la Respiración, es una herramienta indispensable
para el profesional de la salud, para detectar posibles problemas relacionados con la mala
respiración. Dicho protocolo en su estado actual sigue una serie de pasos teóricos, en donde al
sujeto de prueba se le realizan factores evaluativos con ayuda de referencias anatómicas o
marcadores corporales que permiten caracterizar la postura corporal, antropometría facial,
examen extra - intra oral y función respiratoria de manera manual, esto conlleva a que los
datos recolectados sean subjetivo. El proyecto presenta el desarrollo de un aplicativo que
realiza de manera automática mediciones antropométricas en dos planos anatómicos, sagital y
frontal. Las mediciones antropométricas se realizan en la parte superior del cuerpo y desde la
cintura hasta la cabeza. Para la toma de los datos se usó visión artificial y para obtener los
datos antropométricos se usarán técnicas de procesamiento de imágenes como: Binarización,
etiquetado, trigonometría. Estas técnicas y los resultados obtenidos permiten desarrollar por
parte de un experto el protocolo fonoaudiológico de la respiración con puntuación.
Finalmente, el aplicativo cuenta con una interfaz gráfica amigable y de fácil manejo,
reduciendo tiempo y trabajo en la implementación del protocolo. Es importante resaltar que
este trabajo permite al especialista apoyarse en una herramienta digital que aumenta la
exactitud de las medidas Y la precisión en el diagnostico emitido, además se demostró que las
mediciones obtenidas por el aplicativo son confiables comparadas con las obtenidas de manera
manual por parte del especialista.
18 Programa de Ingeniería En Telecomunicaciones, Semillero de Investigación de Ingeniería Biomédica y Telecomunicaciones
SIIBTEL, Universidad de Pamplona, Norte de Santander. Correo electrónico: [email protected]
93
Introducción
El ser humano oxigena el cuerpo a través de la respiración, este proceso se ve
afectado por alteraciones posturales, anomalías en la anatomía facial entre otros, en
la rama de la fonoaudióloga se han creado protocolos que analizan postura,
antropometría externa e interna del rostro para encontrar problemas. Existen
aplicaciones o software especializados en medidas de la postura, pero no cumplen a
cabalidad con las medias que requiere el protocolo. En este proyecto se plantea el
desarrollo de un sistema automático, que permita la medición antropometría en dos
planos anatómicos, frontal y sagital del sujeto usando visión artificial. Esto con el fin
de hallar todas las medidas que requiere el protocolo, facilitar y reducir tiempo en su
implantación.
Metodología Empleada
1. Adquisición de imágenes: Etapa de adquisición de imágenes empleando un
Kinect.
2. Procesamiento: Etapa en marcha la cual consta en la implementación de
diferentes técnicas para realizar el acondicionamiento a las imágenes para su
procesamiento, las técnicas implementadas son las siguientes: Umbralización
(OTSU), Filtrado por áreas, Etiquetando, reconocimiento de patrones, Métodos
trigonométricos.
3. Pruebas y diseño de interfaz gráfica: Etapa basada en la implementación del
sistema a pacientes para comprobar su exactitud en las medias antropométricas y
realizar una interfaz graficas amena al usuario final.
4. Validación del sistema: Etapa en la cual se presentaran los resultados
obtenidos tras realizar el procesamiento e implementación de las técnicas
mencionadas, además de validar dichos resultados con el acompañamiento de un
profesional experto en el área de la antropometría y medidas manual.
94
Resultados y Conclusiones
En la figura 1 se presentan las Imágenes obtenidas al realizar el procesamiento:
(a) (b)
(c) (d)
Figura 1. (a) Plano Sagital Izquierdo, (b) Plano Sagital Derecho (c) Plano Frontal, (d) Plano
Posterior. La imagen fue elaborada por el autor.
Se pudo observar que tras aplicar cada una de las técnicas de procesamiento las
medias antropométricas obtenidas presentan un desfase de 1 cm, esto a causa de la
interpolación de las dos cámaras del Kinect, profundidad y RGB.
95
Los resultados obtenidos del sistema de mediciones antropométricas hasta este
punto, aún no han sido validados con respecto a la medición experimental de forma
manual por parte de un especialista, lo que se prevé para las próximas etapas del
presente trabajo, esperando obtener un porcentaje de error mínimo y así comprobar
la robustez del trabajo.
Referencias
[1] Libia Oto, Jesús C. Caracterización De Hábitos Orales En Una Muestra Poblacional De Santiago
De Cali Entre Los Años 2005 Y 2012, Revista Gastrohnup Volumen 15 Número 2 Suplemento 1: S8-
S12, 2013.
[2] Garrido Chamorro RP. Manual de antropometría. Wanceulen Editorial Deportiva S.L. Sevilla,
España, 2005
[3] Dixon F, Leonardo O. Análisis Cuantitativo De Los Movimientos Articulares Del Cuerpo
Humano Y Evaluación De La Postura Global A Nivel De La Columna Vertebral Humana Utilizando
Visión Artificial. Colombia Universidad de Pamplona.
[4] Rafael C. González, Richard E. Woods, Steven L. Eddins. Digital image processing using Matlab.
González, Woods, & Eddins, 2009.
[5] John J. Sanabria, John F. Archila, Juan C. Moreno, Lola X. bautista. Análisis Biomecánico De La
Postura Mediante Técnicas Videogramétricas, Colombia Universidad industrial de Santander.
96
Desarrollo de un aplicativo de
software para la segmentación de
arterias coronarias a partir de
imágenes angiográficas utilizando el
método de crecimiento de regiones
Gustavo Adolfo Quijada Macuart 19[autor]
Resumen
En el presente proyecto se plantea el desarrollo de un sistema automático, que permita la
segmentación de las arterias coronarias en imágenes de angiografía. La metodología a
implementar tiene como base dos fases fundamentales: la etapa de pre-procesamiento y la de
procesamiento. La primera de ellas tiene como finalidad mejorar la calidad de las imágenes y
eliminar objetos indeseados en estas (costillas, columna, pulmones, guía de imagen, entre
otros), este proceso se realizará utilizando técnicas como sustracción logarítmica, algoritmos
de realce de contraste, morfología matemática, entre otros. La fase de procesamiento se
fundamenta en un algoritmo de crecimiento de regiones, eje central del presente trabajo,
donde un pixel inicial denominado semilla, ubicado en el área de interés, es comparado con
los pixeles vecinos, estudiando características como intensidad, relación topológica y
caracterización de regiones. . A partir de ésta imagen se crean automáticamente nuevas
semillas para segmentar las restantes imágenes 2–D. La base de datos a emplear fue obtenida
en el Instituto Autónomo Hospital Universitario de la Universidad de Los Andes (I.A.H.U.L.A.),
Mérida, Venezuela.
Introducción
Las enfermedades cardiovasculares son una de las principales causas de muerte a
nivel mundial, entre las que se encuentran las cardiopatías coronarias, principalmente
la aterosclerosis y estenosis, los diagnósticos de estas patologías se realizan
principalmente con técnicas de análisis cuantitativo y cualitativo de imágenes
19 Programa de Ingeniería en Telecomunicaciones, Semillero de Investigación de Ingeniería Biomédica y Telecomunicaciones
SIIBTEL, Universidad de Pamplona, Norte de Santander. Correo electrónico: [email protected]
97
angiográficas, se plantea el desarrollo de una herramienta de segmentación de
arterias coronarias que le sirva de apoyo al especialista al momento de dictaminar un
diagnóstico sobre estas patologías. Para lograr este objetivo se plantea la
implementación de dos fases para el procesamiento digital de este tipo de imágenes;
una primera fase de pre-procesamiento, en la que se estima el uso de diferentes
algoritmos matemáticos que permitan adecuar las imágenes para la segunda fase de
procesamiento en donde se ejecutara el método de crecimiento de regiones como
base fundamental de este proyecto de investigación, que posibilite la extracción de
los mapas arteriales coronarios, para posteriormente poder validar los resultados por
medio del desarrollo de otra herramienta de segmentación, en este caso manual.
Se presentan a la fecha los resultados preliminares de finalización de la primera fase
de ejecución, en donde se puede apreciar el cumplimiento de la adecuación de las
imágenes a utilizar en la segunda fase.
Metodología Empleada
1. Obtención de la base de datos y selección de las imágenes de 3 estudios
angiográficos: La base de datos que está siendo empleada, fue obtenida en el
Instituto Autónomo Hospital Universitario de la Universidad de Los Andes
(I.A.H.U.L.A.), Mérida, Venezuela.
2. Pre-Procesamiento: Etapa en curso que consta de diferentes técnicas aplicadas
para suavizar las imágenes y prepararlas para su posterior procesamiento, para llevar
a cabo esta fase del proyecto se han implementado las siguientes técnicas:
Sustracción logarítmica, filtro promediador, regresión lineal, filtro de curvatura
anisotrópico, umbralización (OTSU), Morfología aplicada a imágenes, Filtrado por
áreas
3. Procesamiento: Etapa principal del presente trabajo de investigación, basada
en la implementación de la técnica de crecimiento de regiones, donde un píxel inicial
denominado semilla, ubicado en el área de interés, es comparado con los píxeles
vecinos, estudiando características como intensidad, relación topológica y
caracterización de regiones.
4. Presentación y validación de resultados: en esta etapa se presentaran los
resultados obtenidos tras aplicar las técnicas anteriormente descritas, además de
validar dichos resultados a través de una herramienta de segmentación manual.
Resultados y Conclusiones
En la figura 1 se ilustran las Imágenes obtenidas después de culminar la etapa de
pre-procesamiento:
98
(a) (b) (c)
(d) (e) (f)
(g) (h) (i)
Figura 1. (a) Sustracción logarítmica, (b) Filtro Promediador, (c) Regresión Lineal, (d) Filtrado de
curvatura Anisotrópico, (e) Umbralización, (f) Inversa de Umbralización, (g) Morfología de Clausura,
(h) Filtrado por áreas, (i) Crecimiento de regiones. La imagen fue elaborada por los autores.
Se pudo observar que tras aplicar cada una de las técnicas de pre-procesamiento, se
fue eliminando progresivamente algunos elementos que no son deseados para la fase
de procesamiento.
En los resultados obtenidos hasta la fecha se pudo homogenizar la imagen del
estudio, esta es una característica fundamental que debía ser obtenida antes de
99
implementar el crecimiento de regiones, de esta forma nos aseguramos que solo van
a crecer las regiones de interés.
Una vez obtenida la región de interés, que para nuestro caso es el árbol principal
coronario, pues se estipula una posible parametrización de dimensiones con respecto
a la original, así como también las dimensiones de las posibles estenosis.
Referencias
[1] Enfermedades Cardiovasculares, datos y cifras. Organización Mundial de la Salud.
http://www.who.int/mediacentre/factsheets/fs317/es/
[2]Colombia enfrenta epidemia de enfermedades cardiovasculares y diabetes [On line]
http://www.minsalud.gov.co/Paginas/Colombia-enfrenta-epidemia-de-enfermedades-
cardiovasculares-y-diabetes.aspx
[3] La investigación en técnicas de imágenes cardiacas crecerá un 15% este año.
http://www.secardiologia.es/comunicacion/notas-de-prensa/notas-de-prensa-sec/4509-
investigacion-en-tecnicas-imagen-cardiaca-crecera-un-15-este-ano
[4] A. Bravo, R. Medina, M. Garreau, M. Bedossa, C. Toumoulin and H. Le Breton. An approach to
coronary vessels detection in x-ray rotational angiography.
[5] Procesamiento de imágenes, Segmentación de Imágenes. Capítulo
6.http://www.lcc.uma.es/~munozp/documentos/procesamiento_de_imagenes/temas/pi_cap6.pdf
[6 A. Bravo, R. Medina, M. Garreau, M. Bedossa, C. Toumoulin and H. Le Breton. An unsupervised
clustering framework for automatic segmentation of left ventricle cavity in human heart angiograms.
100
Diseño e implementación de una
plataforma de software, aplicada a la
determinación de microorganismos
en medios de cultivo selectivos Leidy Jisseth López González 20[autor]
Resumen
En el presente trabajo, se pretende diseñar e implementar una plataforma de software, que
permita establecer posible tipo de microorganismo en un medio determinado. Para tal fin se
creará la Base de Datos de imágenes del comportamiento de los microorganismos sembrados
en medios selectivos, donde posteriormente se emplearán técnicas de pre-procesamiento de la
imagen, con la intención de adecuar y mejorar los datos adquiridos y resaltar de mejor manera
los objetivos a estimar o alcanzar; seguidamente se realizará un procesamiento de imágenes,
con la finalidad de detectar la pigmentación generada por el microorganismo en el medio. De
igual manera, se desarrollara una interfaz de usuario amigable a la industria, que permita de
una mejor manera analizar los resultados obtenidos.
Introducción
Las enfermedades infecciosas son actualmente la principal causa de mortalidad en
el mundo a pesar del descubrimiento de cientos de agentes antimicrobianos cada vez
más potentes y efectivos.
Las infecciones respiratorias constituye el principal motivo, el segundo lugar ocupa
las infecciones urinarias [1].
Por lo anterior, se propone generar un sistema automático, el cual permita la
clasificación de microorganismos en un medio determinado. Implementando una
metodología que tiene como base dos fases fundamentales: inicialmente adecuar la
base de datos y para posteriormente realizar un sistema de clasificación de los
microorganismos.
20 Programa de Ingeniería en Telecomunicaciones, Grupo de Ingeniería Biomédica, Universidad de Pamplona, Norte de Santander.
Correo electrónico: [email protected]
101
Metodología Empleada
En la figura 1 se ilustra la metodología aplicada a partir de un diagrama de bloques:
Figura 1. Esquema general propuesto como metodología. La imagen fue elaborada por el autor.
A continuación las figuras venideras detallan dichos procesos de la siguiente
manera:
La etapa de Data fotográfica mostrada en la figura 2, ilustra la actividad de la
esterilización de los objetos a utilizar, la disolución de los medios selectivos y
finalmente la siembra de los microorganismos en cada medio de cultivo.
Figura 2. Estructura de trabajo propuesta en la etapa de la Data fotográfica. La imagen fue
elaborada por el autor.
Luego en la etapa de Pre-procesamiento enseñada en la figura 3, se muestra la fase
de acondicionamiento de las imágenes de los microorganismos en los medios
selectivos, donde se eliminará ruido, etiquetas, zonas de baja relevancia, etc.
Figura 3. Estructura de trabajo propuesta en la etapa de pre-procesamiento. La imanten fue
elaborada por el autor.
En la figura 4 (etapa de Procesamiento), se muestran las posibles técnicas a
emplear, con la finalidad de extraer las características más relevantes de nuestro
trabajo, así poder determinar qué tipo de microorganismo se encuentra presente en el
medio selectivo.
102
Figura 4. Fases planteadas a aplicar en la parte de procesamiento. La imagen fue elaborada por el
autor.
Finalmente en la figura 5, se plantea el diseño de una interfaz de usuario, que le
permita al especialista interactuar con dichos algoritmos, de una manera amigable y
clara, durante todo el proceso programado en el presente proyecto.
Figura 5. Despliegue final de resultados amigable al especialista. La imagen fue elaborada por el
autor.
Resultados y Conclusiones
Al finalizar este trabajo, se espera obtener una herramienta importante para la
clasificación de microorganismos, que sirva de apoyo al especialista; desde el aspecto
académico será una base muy importante para futuros estudios en el área.
Se logró la elaboración adecuada de los medios selectivos, implementando el
método de esterilización que eliminaría los restos microbianos que pudiesen haber
quedado en el medio de cultivo, debido que si están contaminados no son aptos para
la siembra; teniendo en cuenta que cada medio de cultivo tiene nutrientes básicos y
factores físicos, que permiten el desarrollo de los microorganismos.
El desarrollo de colonias formadas a partir de las diluciones seriadas presentan
características que difieren en forman, borde, elevación, superficie y estructura
interna, lo cual es notablemente influenciado por las concentraciones de carga
microbiana del medio en el cual dichas colonias se desarrollan.
Referencias
Gali Navarro. Zuleica del C. (2010). Enterobacterias, antibioticoterapia [Trabajo en la red]. Cuba:
Alliance for the prudent use of antibiotics. Recuperado del sitio web
http://webcache.googleusercontent.com/search?q=cache:cJLGfv0ZUkUJ:www.sld.cu/galerias
/doc/sitios/apua-
cuba/enterobacterias_y_antibioticoterapia._dra_zuleica.doc+&cd=1&hl=es&ct=clnk&gl=co
103
Medición automática del nivel de
aprendizaje en niños de 4 a 6 años
de edad aplicando el método PLON y
técnicas de procesamiento de señales
Ivette Stefany Flórez Duarte 21[autor]
Resumen
La psicopedagogía es la disciplina que se encarga de estudiar el comportamiento humano, se
centra en la forma como aprenden y se desarrollan las personas, además, de las dificultades
que presentan durante la adquisición de nuevos aprendizajes. Es por ello, que en la búsqueda
de prevenir y neutralizar dichos problemas de aprendizaje, son necesarios instrumentos
eficaces que soporten al especialista al momento de realizar una intervención preventiva y/o
correctiva en el proceso cognoscitivo del paciente. Pero la carencia de estos instrumentos de
valoración y detección más objetivos, ha conllevado a crear este proyecto basado en la PLON
(Prueba de lenguaje oral Navarra), enfocado específicamente en niños con edades de 4, 5 y 6
años. Este software será una herramienta de gran ayuda para los psicólogos, pedagogos y
logopedas, ya que ayuda a identificar eficazmente los niños con problemas de desarrollo del
lenguaje, y diagnosticar al paciente individualmente para establecer su respectivo tratamiento
en caso de que sea necesario. La idea del proyecto es replantear la forma tradicional de realizar
la prueba, digitalizándola y sistematizándola. El programa almacenará los registros de la
producción verbal del niño durante la prueba, otorgando la posibilidad de analizar
auditivamente las frases o palabras, cuantas veces sea necesario. Se realizará un algoritmo que
analice los registros de voz, los procese, y compare, mediante diferentes técnicas como la
transformada wavelet para el procesamiento de voz y audio, debido a que esta técnica
proporciona información más precisa sobre datos en la señal que otras técnicas de análisis de
señales. Además, se utilizarán métodos de pre-procesamiento de imágenes como la
binarización para facilitar la correcta selección de los objetos en la imagen. Finalmente, se
pretende con este proyecto generar gráficas que contengan información estadística más
precisa con respecto al nivel de retraso o de normalidad en el que se encuentra el paciente, así
mismo, emplear bases de datos para llevar un registro de cada persona evaluada con la
finalidad de que el profesional pueda esclarecer un resultado especifico una vez realizado el
diagnostico, basado en los resultados que arroje el programa.
21 Programa de Ingeniería en Telecomunicaciones, Grupo de Ingeniería Biomédica, Universidad de Pamplona, Norte de Santander.
Correo electrónico: [email protected]
104
Introducción
El lenguaje es el principal vehículo de comunicación, es una de las acciones más
elaboradas y complejas que realiza el ser humano, además de ser fundamental y
necesaria durante toda la vida. El desarrollo del lenguaje se asocia directamente con
el desarrollo intelectual, ya que a medida que se adquiere conocimiento, se mejora la
habilidad lingüística. Trastornos del lenguaje en el infante pueden afectar el
comportamiento del niño a futuro, actuando como un impedimento en la vida,
afectando su desenvolvimiento en el ámbito social, condicionándolo a tener una
forma de actuar y vivir diferente a los demás, pero, el ámbito que más se ve afectado,
es el relacionado con la educación y el aprendizaje. Actualmente, existen diferentes
pruebas que evalúan el nivel de desarrollo lingüístico, pero en la mayoría de estas, el
profesional debe registrar y analizar los resultados de la prueba en forma escrita, lo
cual puede generar un posible error humano. La idea es diseñar un algoritmo que
permita obtener de forma concisa información acerca del estado verbal y lingüístico
en el que se encuentra un infante según su edad cronológica, que mediante las
diferentes técnicas de procesamiento de voz e imágenes permita determinar el grado
de retraso o normalidad de aprendizaje. Con la elaboración de este proyecto se
pretende suplir la carencia de softwares enfocados a evaluar el aprendizaje infantil,
mediante instrumentos o herramientas que ayuden a evaluar el conocimiento básico
verbal que posee el infante, y de esta forma, realizar la respectiva valoración,
detección, diagnóstico y tratamiento.
Metodología Empleada
En la figura 1 se ilustra el diagrama de bloques de los pasos metodológicos
aplicados en el presente trabajo:
Figura 1. Diagrama de bloques donde se ilustra la metodología planteada para el desarrollo del
proyecto. La imagen fue elaborada por los autores.
En la etapa de adquisición se capturan los datos de voz, imágenes y video.
Las etapas de procesamiento y tarea dependerán directamente una de la otra. Ya
que, según el ejercicio a realizar (selección de objetos dentro de una imagen o conteo
105
de palabras o frases) se decidirá el tratamiento o procesamiento que se realizará a los
datos (voz).
En la última etapa se visualizará la interfaz gráfica, en la cual se mostraran los
puntajes, el número de aciertos, las gráficas estadísticas, etc.
Resultados y Conclusiones
A continuación se procede a enseñar algunos ejercicios aplicados para la evaluación
del nivel de aprendizaje:
En la figura 2 se ilustra el ejercicio “Escuchar dos frase Repetirlas Contar el
número de palabras dichas en cada frase”.
Figura 2. Ejecución del ejercicio “Escuchar dos frase Repetirlas Contar el número de palabras
dichas en cada frase”. La imagen fue elaborada por el autor.
En la figura 3 se ilustra el ejercicio “Mostrar imágenes Señalar el objeto que se
indique Mostrar número de objetos señalados correctamente”.
Figura 3. Ejecución del ejercicio “Mostrar imágenes Señalar el objeto que se indique Mostrar
número de objetos señalados correctamente”. La imagen fue elaborada por el autor.
Por último en la figura 4 se enseña el ejercicio “Mostrar imagen Señalar el color
que se le indique Mostrar número de aciertos”.
106
Figura 4. Ejecución del ejercicio “Mostrar imagen Señalar el color que se le indique Mostrar
número de aciertos”. La imagen fue elaborada por el autor.
Al finalizar este trabajo los psicólogos, logopedas y pedagogos contarán una
herramienta importante para el análisis de procesos cognoscitivos en niños de 4 a 6
años. Además, de sentar una base sólida para un futuro trabajo en el campo de
detección de trastornos de habla y aprendizaje en niños.
Referencias
[1] G. Aguinaja Ayerra, M. L. Armentia Lopez de Suso, A. Fraile Blazquez, P. Olangua Baquedano y
N. Uriz Bidegain. PLON (Prueba de Lenguaje Oral Navarra), Barcelona: Gobierno de Navarra.
107
Análisis de señales ACARS mediante
radio definida por software
Kevin Herney Rodríguez Gómez 22[autor]
Juan Enrique Cárdenas Jiménez 22[autor]
Resumen
El presente trabajo de investigación en desarrollo consta en analizar señales que compone
una infraestructura ACARS (Aircraft Communications Addressing and Reporting System)
protocolo que identifica y monitorea todo el tráfico aéreo de la aeronave entre la comunicación
del avión y de la estación base, por lo cual a través de un sistema de radio definido por
software con dispositivos RTL_SDR se intenta lograr captar las señales en las frecuencias
respectivas, realizar la demodulación MSK y la respectiva decodificación para obtener los
paquetes a analizar. Como trabajo en desarrollo existe dentro del sistema de monitoreo de
tráfico aéreo servicios independientes de ACARS, por lo cual es una ayuda para entender el
sistema de posicionamiento que utiliza ACARS, y facilita realizar el posicionamiento de la
aeronave en tiempo real. Esta tecnología se denomina ADS-B que es uno de los servicios
predominantes, si de servicios de posicionamiento aéreo se refiere. Por último se dispone de
un aplicativo en Web que a través de Google Maps traza la trayectoria de la aeronave que se
capte por intermedio del dispositivo RTL-SDR.
Introducción
En la vida moderna del hombre en pleno siglo XXI existe la necesidad de monitorear
y analizar el tráfico aéreo que las personas, instituciones gubernamentales (Ya sean
militares, o civiles) que viajan en aviones demanda y es un servicio que va en
aumento. Con la intención de registrar la trayectoria, información común y mecánica
(Combustible, Disponibilidad de Asientos, Estado de la tripulación, Condición
Climática) (Captain Brian Payne, 2001), estipulada para el respectivo avión con el fin
de evitar impactos y desastres aéreos, etc.
Todas esas funcionalidades se soportan en una solución que a través de los años ha
estado en una continua mejora para suplir las necesidades de tráfico de las mismas
aeronaves y de los mismos accidentes que concurren actualmente. Esta funcionalidad
basa en un protocolo llamado ACARS el cual tiene una infraestructura muy costosa y
de tal envergadura que es muy difícil para un estudiante acceder a un proceso de
22 Programa de Ingeniería de Telecomunicaciones, Semillero adscrito al grupo de investigación en Seguridad y Sistemas de
Comunicaciones, GISSIC, Universidad Militar Nueva Granada, Santa Fe de Bogotá. Correo electrónico: [email protected]
108
investigación de tipo académico del funcionamiento y el conocimiento de los equipos
empleados.
Dado que el aprendizaje del funcionamiento es limitado, existen dispositivos que
permiten bajo un rango de frecuencias (Acorde al tipo de antenas) demodular y hacer
todo el proceso de tratamiento de señales con algún tipo de programa que reconozca
este tipo de dispositivo como lo es MATLAB o GNURadio. Es por ello que analizar las
señales provenientes del sistema ADS-B es posible a un bajo costo.
Estos dispositivos se denominan RTL-SDR que manejan librerías para sistemas
operativos Windows y GNU/Linux, teniendo la finalidad de este trabajo en curso con el
propósito de detallar el funcionamiento y la instalación del dispositivo en los dos
sistemas operativos.
Metodología Empleada
Iniciando el proceso de desarrollo del proyecto es preciso la definición de cada uno
de los pasos que se han realizado para cumplir de manera exitosa la recepción de
señales del sistema ADS-B para tener información de la aeronave que se encuentra en
una posición específica, esta información es captada por la antena en tiempo real y
permite recibir los datos que envía el avión al centro de operaciones que tiene en
tierra.
Como primer punto se ejecutó la documentación de la información referente a la
tecnología de radio definido por software, que es necesaria por el uso del dispositivo
RTL-SDR para tener capturas de información a diferentes frecuencias como las del
sistema ASD-B o ACARS que se encuentran entre las que utiliza el dispositivo
manejando un rango de frecuencias correspondiente a los 25 MHz y 1.75 GHz.
(Laufer, 2014) , lo que permite ver la importancia de tener una recepción de
diferentes bandas de frecuencias y mostrarlas en el equipo que se configura como
receptor del ADS-B, el programa utilizado para la recepción es el GNU/Linux donde se
configura las librerías correspondientes al RTL-SDR con el fin de captar la información
en la terminal de UBUNTU, para la parte de hardware se indaga acerca de la
arquitectura del Dispositivo RTL-SDR y del funcionamiento del sistema ACARS el cual
maneja modulación MSK (Yun Lin*, 2014) y encriptado de la información (Captain
Brian Payne, 2001), lo que hace demasiado complejo captar y demodular la
información que transmiten los aviones con datos más específicos, donde únicamente
se puede recibir la información enviada por la tecnología ADS-B que es el prototipo
utilizado para ver los datos de ubicación, velocidad, trayectoria de vuelo en un
espacio (Laufer, 2014) que logre captar la señal de información transmitida por el
avión lo que permite definir criterios y capacidades a utilizar mediante el desarrollo
que se ha llevado en el proyecto.
109
Resultados y Conclusiones
Al analizar el diseño de este protocolo, es un sistema que mediante un enlace
radioeléctrico transmite corta información de diferentes aeronaves que están
circulando por el aire teniendo comunicación con un sistema de operaciones aéreas
que se encuentra en tierra, donde la comunicación se hace desde el avión por una
banda radiada en el espectro (Captain Brian Payne, 2001); esta información que se
envía tiene un proceso de modulación tipo MSK el cual se hace en el sistema ACARS;
la información transmitida por el avión se envía en mensajes tipo Broadcast, (Liu Lian-
Sheng, 2012) los cuales llegan a antenas de VHF y HF que direccionan la información
a los satélites ya que tienen la capacidad de recepción de los mensajes enviados por
el avión y pueden así llevarlos a la estación localizada en tierra (Yun Lin*, 2014).
Dado que el funcionamiento ADS-B es un servicio de localización aérea, ACARS
utiliza un servicio similar para conocer la ubicación de la aeronave, el funcionamiento
del sistema de recepción de ADS-B utilizando el RTL_SDR se tiene en cuenta la
configuración de la plataforma que se debe configurar para el control del dispositivo
la cual es GNU/Linux, donde se lleva a cabo la instalación de las librerías de
OsmoconSDR (TRAC integrade SMC & Project Management, 2015) para que el
sistema operativo en este caso UBUNTU reconozca el dispositivo y junto con ello la
instalación en particular importancia la tecnología de RTL ADSB, tal como se ilustra en
la figura 1.
Figura 1. Captura de paquetes ADS-B sin decodificar. La imagen fue elaborada por los autores.
110
En la Figura 1 después de haber instalado la liberaría respectiva de RTL-SDR,
conectamos el dispositivo RTL2832u Tuner se ejecuta el comando rtl_adsb para
identificar el dispositivo conectado y la frecuencia sintonizada a 1.09 Ghz con una
frecuencia de muestre de 2MHz, se logra identificar todos los paquetes sin decodificar
que el dispositivo RTL-DSR logra captar.
Luego se necesita decodificar los paquetes a través de un decodificador de paquetes
ADSB denominado DUMP1090, lo cual despliega toda la información contenida en la
captura de los paquetes ADSB sin decodificar obtenidos en el proceso de la figura 1.
Teniendo en cuenta lo anterior se ejecuta el comando ./dump1090 –interactive port
[Puerto del host] –net desplegará una tabla de información como se detalla en la
Figura 2 permite ver la información de manera detallada y especifica que recibe el
dispositivo RTL_SDR.
Figura 2. Captura de los aviones en la terminal. La imagen fue elaborada por los autores.
En la tabla No 1 Indica la descripción de los atributos que puede contener un
paquete ADSB:
Tabla 1. Descripción de cada atributo del contenido del aeronave. La tabla fue elaborada por los
autores.
Campo Descripción
HEX Es una identificación de cada mensaje para cada aeronave
Flight La identificación del vuelo
Altitud Medida que permite reconocer la medida que desde el nivel del mar hacia la
atmósfera.
Velocidad Dada como información adicional de la trayectoria del aeronave
Latitud y Longitud Estos datos son los datos primordiales para reconocer la ubicación del aeronave
dentro de cualquier mapa cartográfica (En Google Maps)
Mensajes Es una medida de reconocer por cuanto tiempo el aeronave ha estado la informando
sobre la ubicación en el mapa o que tan ha sido la trayectoria.
111
Al iniciar la recepción se verifica que existe conexión a internet y para proceder a
hacer uso del aplicativo de google maps, el cual se abre teniendo en cuenta la
dirección IP que tiene el computador para acceder a internet dado por HDCP.
Después de reconocer la IP del dispositivo entonces se abre algún navegador y se
escribe lo siguiente: IP_servidor:8080, e inmediatamente se abrirá el aplicativo lo cual
nos permite observar datos de la tabla de la Imagen No 1b de los diferentes aviones
que se muestran allí, ya mencionados como la longitud y latitud, velocidad y altitud,
que permiten determinar cómo ha sido la trayectoria del vuelo en el mapa en tiempo
real, permitiendo ver de forma más interactiva los datos, gracias a la configuración y
uso de las herramienta que nos brindan el aplicativo de google maps, como lo es el
observado en la figura 3.
Figura 3. Datos recibidos y ubicación de los aviones mostrados en google maps. La imagen fue
elaborada por los autores.
La figura 3 se puede observar toda la trayectoria de la aeronave desde el despegue
del aeropuerto de Bogotá hasta la cercanía de San Cayetano que son
aproximadamente 90 Km que para un sistema de recepción sencillo pueda alcanzar
distancias de esa envergadura son resultados interesantes teniendo en cuenta que se
puede diseñar antenas con una directividad y una ganancia aún mejor que puedan
alcanzar distancias aún más grandes.
Vale la pena aclarar que son condiciones geográficas de un terreno plano y sin
obstáculos considerables como las montañas que pueden atravesar los mensajes
112
transmitidas por los aviones. De modo que la efectividad en cuanto a longitud para
recibir mensajes para situaciones geográficas más críticas puedan ser menores que
no se alcance a lograr capturar alguna aeronave.
Referencias
Gil Rodriguez, M. (2003). Introducción rápida a Matlab y Simulink para Ciencia e Ingeniería. Madrid:
Ediciones Díaz de Santos.
Consejo Nacional de Política Económica y Social CONPES. (2009). Política Nacional de ciencia,
tecnología e innovación. Departamento Nacional de Planeación(DNP). República de
Colombia. Documento 3582: Bogotá.
Oquendo, S., (2007); Semilleros de investigación y desarrollo humano. En Avances en investigación
formativa. Volumen 2. RedCOLSI. Red Colombiana de Semilleros de Investigación
Román C. E. & Herrera R. J. (2010). Aprendizaje centrado en el trabajo independiente. Revista
Educación y educadores, 13(1), 91–106.
Stewart J. (2008). Cálculo trascendentes tempranas (Sexta ed). Mexico, Cengage Learning.
Torres, L., (2005); Para qué los semilleros de investigación. Revista Memorias. Recuperado el 29 de
abril de 2015 de
http://scholar.google.es/scholar?hl=es&q=Para+qu%C3%A9+los+semilleros+de+investigac
i%C3%B3n&btnG=&lr=
Zapata G., Dominguez J., Molina J.. (2012). Didáctica reflexiva en educación superior: Una mirada
desde el relato autobiográfico. Editorial académica española.
113
Evaluación de ataques a dispositivos
móviles para el diseño de un sistema
de detección de anomalías
Mónica Johana Buitrago Ramírez 23[autor]
Resumen
En este documento se realiza la evaluación ataques de tipo MITM, backdoors y de recolección
de información, lo cual se desarrolla en cinco fases. Seleccionando herramientas para
ejecutarlos y estableciendo un escenario de red que permita capturar el tráfico en la red con el
software spleen, para analizarlo y guardar el registro.
Introducción
Actualmente, en el mercado de teléfonos inteligentes, existe una gran cantidad de
aplicaciones, algunas se caracterizan por su popularidad y manejo de información
importante del usuario, esto hace a los teléfonos inteligentes un objetivo fácil e ideal
para atacar.
Debido a esto se evalúan diferentes tipos de ataques comunes a dispositivos
móviles, para posteriormente diseñar un IDS (sistema de detección de anomalías) y
con la ayuda del software académico spleen desarrollado por la Universidad Militar
Nueva Granada, se analiza el tráfico de la red y se genera un registro en formato CSV.
Para el desarrollo de este trabajo se utilizaron las siguientes herramientas
organizadas en dos grupos:
1) Software para el análisis de Red
Spleen: Es una herramienta de software que permite recopilar y analizar la
información de una red de datos, partiendo del tráfico en ella, además permite
obtener un registro de las conexiones utilizando la misma estructura del
conjunto de datos KDD de DARPA creado por el MIT. El grupo de investigación
GISSIC de la UMNG es el propietario de los derechos sobre el software spleen
23 Programa de Ingeniería de Telecomunicaciones, Semillero ENIGMA adscrito al grupo de investigación en Seguridad y Sistemas de
Comunicaciones GISSIC, Universidad Militar Nueva Granada, Santa Fe de Bogotá. Correo electrónico: [email protected]
114
(GISSIC 2014). Ahora, para entender mejor spleen es necesario definir los
siguientes conceptos fundamentales:
- Conexión: es una sucesión de paquetes TCP en periodos de tiempo
determinados, comunicación dada por la trasmisión y recepción de datos
desde una dirección IP de origen a una dirección IP de destino basado en un
protocolo de red. Spleen le da una etiqueta a cada conexión o registro, que lo
identifica normal o ataque. (Información y Ciencias de la Computación, 2005).
- Características: el conjunto de datos importantes para la evaluación de
detección de intrusos, está compuesto por 41 variables o características, que
en este momento son insuficientes para la detección satisfactoria de un
ataque, por lo tanto spleen utiliza 10 características más para hacer una
mejora en la detección (Guillén, Rodríguez, Páez , Rodríguez, 2012).
2) Aplicaciones o herramientas para la ejecución de ataques.
- Zanti: Es una herramienta para la plataforma Android que permite la
realización de pruebas de penetración móvil para que los administradores de
red puedan evaluar el nivel de riesgo en la misma. Este contiene varios tipos de
ataques. En este trabajo se escogió el tipo de ataque MITM con método ARP.
(Zimperium, 2010).
- Inspector WiFi: Es una aplicación Android que nos permite obtener información
como dirección IP, dirección MAC, nombre de dispositivo, etc. de todos los
dispositivos que estén conectados a una red, sin importar el medio de
conexión (WI-FI o Ethernet) (LK interactive Services, 2015).
- Nessus: Es una herramienta de análisis de vulnerabilidades disponible para
varios sistemas operativos en la cual los usuarios pueden realizar varios
escáneres, tener un análisis programado, obteniendo resultados dentro del
mismo software o enviamos por correo electrónico. (Tenable, 2015).
- Kali Linux: Es un sistema operativo basado en Linux donde se puede encontrar
múltiples herramientas para penetración de seguridad. (Kali, 2015).
- Smart living: Es un software que permite el acceso sin permisos a los sensores
de un dispositivo móvil con únicamente el escáner del código QR, utilizando la
plataforma que tienen una solución para internet de las cosas.
Metodología Empleada
Para el desarrollo de este trabajo se planteó una metodología en 5 fases que
permiten lograr el objetivo de evaluación de ataques, tal como se ilustra en la figura
1.
115
Figura 1. Fases en el desarrollo del trabajo. La imagen fue elaborada por el autor.
Las fases propuestas son las siguientes:
Fase 1: Para la selección de ataques se tuvo en cuenta que estos fueran
específicamente más comunes en dispositivos móviles.
Fase 2: Se planteó un escenario que permitió la captura de tráfico a través de un
puerto espejo.
Fase 3: En la ejecución de ataques se desarrollan cada uno de los pasos de
configuración de las aplicaciones móviles y software actante
Fase 4: El tráfico capturado es de toda la red. Esto se logra mediante el uso de la
tarjeta de red en modo promiscuo y en un computador conectado a un puerto espejo
Fase 5: Luego de la captura del tráfico con el software spleen, se procede a realizar
un registro en un archivo CSV que contiene todos los registros de conexiones en la
red con cada una sus variables y sus valores.
Resultados y Conclusiones
Fase 1: Selección de 6 ataques. En esta fase fueron seleccionas 5 aplicaciones para
el grupo de 6 ataques que se explican a continuación en la tabla 1:
116
Tabla 1. Selección de ataques. La tabla fue elaborada por el autor.
Nº Herramientas Tipo De
Ataque
Descripción Resultados
De Smartphone a Smartphone
1 Zanti
MITM_1
Arp
spoofing
DNS
spoofing
Redirección de páginas
http
Redirige las paginas HTTP a las que
entra la victima a una página web
deseada por el atacante
2 Zanti
MITM_2
Arp
spoofing
Inserción de imagen en
una pagina
Pone una imagen elegida por el
atacante en la página HTTP a la que
entra la victima
3 Inspector Wi-fi
Mapeo de red
Recolección de
información de red
Recopila todas las direcciones IPs Y
MAC de la red.
De Computador a Smartphone
4 Nessus
Escaneo de
vulnerabilidad
es
Recolección de
información de
vulnerabilidades
Hace un escaneo a la víctima donde
encuentra información del equipo.
5 Kali Linux Backdoor_1 Robo de información Descarga de imagen y navegación por
directorios del móvil.
6 Smart living
Backdoor_2
Recolección de
información de sensores
El atacante sabe que movimientos se
hacen con el móvil de la víctima.
En la primera parte de la tabla 1 están los 3 ataques de Computador a Smartphone,
y en la segunda parte están los 3 de Smartphone a Smartphone.
Fase 2: escenario de red. En la figura 2 se presentan los escenarios bajo análisis de la
red.
Figura 2. Escenario de red. La imagen fue elaborada por el autor.
117
Fase 3: Ejecución de ataques.
a. Zanti: redirección http
En el ataque de redirección de página HTTP se configura del tipo MITM con método
ARP, también se debe activar el ataque “redirect HTTP” y seleccionar la página a la que
la víctima ingresara.
En los resultados del ataque, se dejó la página del ataque por defecto, la cual es
propiedad de ZIMPERIUM (creador de la app empleada) y muestra un mensaje en el
cual alerta al usuario o víctima.
b. Zanti: sustitución de imágenes
En el ataque de sustitución de imagen en un página web HTTP, se puede observar
que al igual que en redirección HTTP se configura tipo de ataque como MITM con
método ARP, también se debe activar el ataque “Replace images” y seleccionar la
imagen que la víctima vera.
En los resultados se ingresa a la página www.fotos.com, y la víctima ve solo la
imagen deseada por el atacante, en este caso una letra “v”.
c. Inspector WiFi: recolección de información o mapeo de red
En el ataque de recolección de información sobre la red, en este ataque se buscan
saber que dispositivos se encuentran en la red, conociendo su dirección MAC, su
dirección IP y el fabricante de cada uno.
La aplicación devuelve la información después de hacer un escaneo, en la cual se
encontraron 8 equipos de la red con sus características.
d. Nessus: escaneo de vulnerabilidades
En el ataque de escaneo de vulnerabilidades, Se utiliza el módulo de escaneo básico
de nessus, donde se escanea una tarjeta especifica en este caso la tarjeta de Tablet (8)
para encontrar las vulnerabilidades del equipo, en este caso se escaneo la Tablet y
como resultado se obtuvo cuatro bloques de información acerca del fabricante.
e. Metasploit: backdoor
El ataque de backdoor, Se utiliza el módulo de Metasploit de Kali Linux, donde se
ingresa al equipo víctima y se navega por sus directorios hasta encontrar el archivo
deseado y se descarga por el atacante, como se muestra en la figura 13, donde se
descargó una imagen.
f. Smart living: backdoor
En la tabla 8 se encuentran los equipos involucrados en el ataque de Smart living -
backdoor y su función. Para esto se utiliza una “actividad” de la plataforma online que
brinda soluciones a internet de las cosas, en donde la página pide que el Smartphone
escanee un código QR para empezar, luego el celular es redirigido a la página del
ataque en la cual el atacante reconoce todos los movimientos del dispositivo víctima y
mantiene un registro de los mismo.
118
Fase 4: captura de tráfico por spleen.
Figura 3. Captura de trafico dirante la redireccion de HTTP. La imagen fue elaborada por el autor.
La Figura 3 muestra las capturas de tráfico que se hicieron con el fin de observar el
comportamiento de los ataques con respecto al tráfico normal. En algunos casos fue
evidente que el tráfico no era normal, como en la redirección de tráfico, pero en otros
casos ataque el tráfico no se mostró anormal.
Fase 5: registro de conexión por spleen.
Figura 4. Documento con los registros generados y las 52 características recolectadas por spleen. La
imagen fue elaborada por el autor.
En la figura 4. Se observa un ejemplo de un archivo en el cual se guardaron los
valores de las características de las conexiones durante uno de los ataques. El cual
posee un encabezado donde se hace una breve descripción en orden de los
significados de cada una de las características. Por último está el listado de registros
de cada conexión y cada una con los 52 variables.
Algunas de las conclusiones más relevantes son las siguientes:
El software de uso académico spleen permite el análisis de tráfico en la red, pero no
se puede analizar completamente el comportamiento del ataque en la red de forma
manual, es por esto que este software permite caracterizar las conexiones de red por
119
medio de 52 variables necesarias para el diseño y desarrollo de un sistema de
detección de intrusos basado en aprendizaje de máquina.
Algunas de las aplicaciones de ataque para el desarrollo de este proyecto, permiten
analizar la red y detectar las vulnerabilidades en la misma.
Se evidencio que la aplicaciones empleadas, pueden comportase de forma maliciosa
dependiendo de la intención del usuario, es decir, realmente las aplicaciones pueden
emplearse a disposición de la persona que lo manipula, como herramienta de
detección o ataque.
En un escenario de red inalámbrico se dificulta la captura de tráfico en el sistema
operativo Windows por el manejo complejo de las tarjetas red, es por esto, que es se
utilizó una arquitectura de red hibrida con tecnología inalámbrica y cableada que
permitiera el uso de un puerto espejo.
Referencias
GISSIC, g. d. (2014). SPLEEN. Obtenido de http://gissic.umng.edu.co
Guillén, E., Rodríguez, J., Páez, R., & Rodríguez, A. (2012, Octubre). Detection of non- content
based attacks using GA with extended KDD features. In Proceedings of the world congress
on engineering and computer science (pp. 30-35).
Linux, K. (2005). Penetration testing tools present in Kali Linux.
Security, T. N. (2015). Tenable Network Security. Obtenido de
http://www.tenable.com/products/nessus/select-your-operating-system
Service, L. i. (2015). Inspector WiFi. Obtenido de
https://play.google.com/store/apps/details?id=lksystems.wifiintruder&hl=es_419
SmartLiving. (2015). Lest play a guessing game. Obtenido de http://www.smartliving.io/
Universidad de California, i. y. (2005). KDD Databases. Obtenido de
http://kdd.ics.uci.edu/databases/kddcup99/task.html
Zimperium. (2010). Mobile Security Audits Simplified. Obtenido de
https://www.zimperium.com/zanti-mobile-penetration-testing.
120
Protección de derechos de autor en
imágenes por medio de señales de
voz
María Angélica Palacios Cárdenas 24[autor]
Resumen
Uno de los tipos de datos que más se transmiten y utilizan en los medios digitales como
internet, corresponden a las imágenes. Este tipo de representación visual tiene características
que hacen que sea fácil de realizarle cualquier tipo de copia, afectando la originalidad de esta y
los datos del autor.
Para proteger los derechos de autor de una imagen se utiliza la técnica del marcado, que
consiste en insertar “una firma” en la imagen que identifique a su propietario. Sin embargo, si
la marca es fácilmente extraíble, un tercero podría manipular la imagen para extraer la marca y
poderla utilizar para sus propósitos. De tal forma, se hace indispensable que la marca
incrustada en la imagen sea robusta ante ataques pasivos como: filtrado, rotación, adición de
ruido, re-dimensionamiento, entre otros.
Con base a la anterior información se plantea este proyecto que tiene como objetivo
implementar una técnica de ocultamiento de datos para ocultar un audio dentro de una imagen
a color, con el fin de brindar protección a los derechos de autor.
Introducción
El marcado de imágenes es un tema de gran interés en la seguridad de la
información. Tradicionalmente, se han utilizado imágenes binarias como marcas y se
han propuesto numerosos esquemas de marcado de imágenes en imágenes. Sin
embargo, el marcado de imágenes con otro tipo de información como una señal de
audio, ha sido explorado en menor cantidad, debido a que la cantidad de información
de una señal de voz es más redundante que la información en una imagen. La señal
de voz puede ser una marca más robusta ante ataques pasivos en relación a las
marcas con imágenes binarias. La técnica mencionada anteriormente protegería
mejor los derechos de autor de la imagen huésped.
Para este proyecto se analizó diferentes trabajos:
24 Programa de Ingeniería de Telecomunicaciones, Semillero de Investigación Claude Shannon, Universidad Militar Nueva Granada,
Santa Fe de Bogotá. Correo electrónico: [email protected] .
121
En el artículo titulado “Image Steganography base on LSBMR using Sobel Edge
Detection” por Fouroozesh y Al ja’am en 2014, El algoritmo propuesto aplica un
esquema adaptativo en regiones utilizando sustitución LSB. La técnica de detección de
bordes de Sobel se utiliza como criterio para la identificación de la región. La LSB
Matching Revisited (LSBMR) se utiliza como el algoritmo de datos ocultos. Los
experimentos y el resultado realizados confirman que las imágenes stego incorporan
los bits. Tiene tasa capacidad de un bit por pixel (bpp). Además, da una mejor calidad
de la imagen stego en comparación con otros métodos, como el Edge Based Adaptive
LSBMR (EALSBNR).El método propuesto funciona en imágenes en escala de grises.
(Fouroozesh, Al ja’am, 2014).
En el artículo titulado “An analysis of LSB based image steganography techniques”
por Thangadurai y Sudha Devi Gen en 2014, se discute el método LSB para ocultar el
mensaje secreto en el bit menos significativo de la imagen. La técnica de modificación
LSB proporciona una manera fácil de integrar la información en imágenes, pero los
datos pueden ser fácilmente decodificados. LSB se aplica para varios formatos de
archivo. Este método se puede utilizar tanto para el formato GIF y PNG. LSB en
formato GIF es un algoritmo muy eficiente de utilizar al incrustar una cantidad
razonable de datos de una imagen de escala de grises. Los autores afirman que
pueden ocultar datos en archivos de vídeo como trabajo futuro (Thangadurai, Sudha
Devi Gen, 2014).
En el artículo “Analysis of edge base image steganography techniques in spatial
domain” por Singla y Juneja en 2014, se explora en una primera revisión la técnica
LSB, pero se determina que ésta es más propensa a los ataques estadísticos. Según el
sistema de visión humano (HVS: Human Vision System), el ojo puede reconocer los
cambios en áreas continuas más fácilmente que en las áreas no continúas. Se utiliza
este principio junto con los componentes de alta frecuencia de la imagen (Singla,
Juneja, 2014).
Metodología Empleada
Para el ocultamiento del audio en la imagen a color, se desarrollará las siguientes
fases:
Fase 1. Cuantización del audio a emplear y conversión a binario.
Fase 2. Descomposición de la imagen en los planos Red Green and Blue (RGB) y la
Discrete Wavelet Transform (DWT) al plano donde se ocultan el mensaje de voz.
Fase 3. Se oculta el audio en una de las componentes de DWT de un plano por
medio de la ecuación 1.
122
Ecuación 1. Ocultamiento con Quantization Index Modulation (Ballesteros, 2014)
Fase 4. Reconstrucción de las componentes de DWT y los planos para tener la
imagen marcada.
Fase 5. Se realiza un ataque a la imagen marcada con un ruido gaussiano, teniendo
en cuenta la media y la desviación estándar.
Para la recuperación del audio en la imagen a color, se procede a hacer ejecutar las
siguientes fases:
Fase 1. Descomposición de la imagen en los planos RGB y luego DWT al plano
donde se ocultó el mensaje de voz.
Fase 2. Extracción del mensaje de voz de la sub banda del plano con la ecuación 2.
Ecuación 2. Extracción con Quantization Index Modulation (Ballesteros, 2014)
Fase 3. Al tener el mensaje de voz, se debe descuantizar, debido a que este se
encuentra en valores binarios. En esta fase es importante tener en cuenta el valor de
la clave.
Para la corroboración de la imagen original, imagen marcada, el mensaje de voz
original y el mensaje de voz recuperado, se debe realizar la correlación y la
visualización.
El Procedimiento se realizó en el software Matlab utilizando los diferentes
comandos que este tiene.
Resultados y Conclusiones
Los resultados que se presentan a continuación en las tablas I al IV, corresponden a
las pruebas de ocultamiento de un audio de 1 segundo con una frecuencia de
muestreo de 8000 en una imagen a color de formato .tiff en una de las sub bandas de
DWT en los diferentes planos RGB:
123
Tabla I. Correlaciones de la sub banda de Aproximación para formato .tiff. La tabla fue elaborada
por el autor.
Delta ROJA APROXIMACIÓN VERDE APROXIMACIÓN AZUL APROXIMACIÓN
Wavelet Planos Audio Wavelet Planos Audio Wavelet Planos Audio
5 0,9999 0,9999 0,9985 0,9998 0,9998 0,9996 0,9999 0,9999 0,9873
10 0,9994 0,9994 0,9985 0,9991 0,9992 0,9992 0,9995 0,9995 0,9837
15 0,9987 0,9988 0,9981 0,9980 0,9982 0,9993 0,9989 0,9989 0,9884
20 0,9976 0,9978 0,9988 0,9964 0,9969 0,9990 0,9980 0,9981 0,9873
25 0,9963 0,9966 0,9986 0,9944 0,9951 0,9992 0,9969 0,9971 0,9872
30 0,9947 0,9952 0,9984 0,9919 0,9930 0,9989 0,9955 0,9959 0,9836
35 0,9927 0,9934 0,9974 0,9890 0,9905 0,9987 0,9939 0,9944 0,9862
40 0,9906 0,9915 0,9982 0,9857 0,9877 0,9979 0,9921 0,9927 0,9856
45 0,9881 0,9894 0,9970 0,9820 0,9845 0,9979 0,9901 0,9909 0,9794
50 0,9854 0,9869 0,9872 0,9779 0,9809 0,9949 0,9877 0,9887 0,9800
Tabla II. Correlaciones de la sub banda Horizontal para formato .tiff. La tabla fue elaborada por el
autor.
Delta ROJA HORIZONTAL VERDE HORIZONTAL AZUL HORIZONTAL
Wavelet Planos Audio Wavelet Planos Audio Wavelet Planos Audio
5 0,9956 0,9997 0,9990 0,9956 0,9995 0,9999 0,9956 0,9997 0,9996
10 0,9821 0,9987 0,9993 0,9825 0,9981 0,9999 0,9822 0,9989 0,9999
15 0,9610 0,9973 0,9996 0,9615 0,9961 0,9999 0,9609 0,9976 0,9999
20 0,9328 0,9955 0,9996 0,9337 0,9935 0,9999 0,9324 0,9961 0,9999
25 0,8971 0,9934 0,9996 0,8985 0,9905 0,9999 0,8970 0,9944 0,9999
30 0,8544 0,9910 0,9993 0,8557 0,9870 0,9999 0,8535 0,9923 0,9999
35 0,8060 0,9885 0,9996 0,8074 0,9832 0,9999 0,8050 0,9901 0,9997
40 0,7555 0,9858 0,9996 0,7576 0,9794 0,9999 0,7527 0,9878 0,9999
45 0,7007 0,9830 0,9996 0,7044 0,9754 0,9999 0,6985 0,9855 0,9999
50 0,6433 0,9801 0,9993 0,6455 0,9710 0,9999 0,6414 0,9829 0,9999
124
Tabla III. Correlaciones de la sub banda Vertical para formato .tiff. La imagen fue elaborada por el
autor.
Delta ROJA VERTICAL VERDE VERTICAL AZUL VERTICAL
Wavelet Planos Audio Wavelet Planos Audio Wavelet Planos Audio
5 0,9895 0,9997 0,9985 0,9899 0,9995 0,9999 0,9901 0,9997 0,9988
10 0,9563 0,9987 0,9993 0,9585 0,9981 0,9999 0,9587 0,9989 0,9999
15 0,9024 0,9974 0,9996 0,9074 0,9962 0,9999 0,9083 0,9977 0,9996
20 0,8314 0,9957 0,9999 0,8389 0,9938 0,9999 0,8402 0,9963 0,9999
25 0,7461 0,9939 0,9996 0,7573 0,9911 0,9999 0,7611 0,9948 0,9999
30 0,6520 0,9920 0,9993 0,6657 0,9882 0,9999 0,6674 0,9930 0,9999
35 0,5576 0,9900 0,9996 0,5747 0,9853 0,9999 0,5761 0,9913 0,9997
40 0,4642 0,9879 0,9999 0,4772 0,9821 0,9999 0,4809 0,9894 0,9999
45 0,3778 0,9858 0,9996 0,3908 0,9789 0,9999 0,3955 0,9876 0,9999
50 0,3035 0,9838 0,9993 0,3141 0,9757 0,9999 0,3197 0,9857 0,9999
Tabla IV. Correlaciones de la sub banda Diagonal para formato .tiff. La tabla fue elaborada por el
autor.
Delta ROJA DIAGONAL VERDE DIAGONAL AZUL DIAGONAL
Wavelet Planos Audio Wavelet Planos Audio Wavelet Planos Audio
5 0,9996 0,9997 0,9981 0,9996 0,9996 0,9999 0,9996 0,9997 0,9991
10 0,9994 0,9989 0,9995 0,9995 0,9985 0,9999 0,9994 0,9991 0,9999
15 0,9993 0,9979 0,9999 0,9994 0,9969 0,9999 0,9994 0,9982 0,9991
20 0,9992 0,9966 0,9999 0,9994 0,9950 0,9999 0,9993 0,9971 0,9992
25 0,9991 0,9952 0,9993 0,9944 0,9930 0,9999 0,9992 0,9959 0,9999
30 0,9989 0,9936 0,9996 0,9994 0,9908 0,9999 0,9991 0,9946 0,9999
35 0,9987 0,9920 0,9999 0,9994 0,9883 0,9999 0,9991 0,9931 0,9997
40 0,9985 0,9902 0,9999 0,9994 0,9858 0,9999 0,9990 0,9917 0,9999
45 0,9983 0,9885 0,9993 0,9995 0,9833 0,9999 0,9991 0,9902 0,9999
50 0,9980 0,9868 0,9996 0,9996 0,9807 0,9999 0,9991 0,9887 0,9999
De acuerdo a las pruebas realizadas se puede tener las siguientes muestras como
se ilustra en la figura 1 (Imagen Original y Marcada), figura 2 (Plano Original y
Marcado) y figura 3 (Audio Original y Recuperado).
125
Figura 1. Imagen huésped e Figura 2. Plano Original y
Imagen Marcada. Plano Marcado Azul
Las imágenes fueron elaboradas por los autores.
126
Figura 3. Audio Original y Audio Recuperado. La imagen fue elaborada por el autor.
El desarrollo del proyecto de investigación permitió concluir que las comparaciones
entre cada una de las tablas, se puede determinar que la banda RGB y la sub banda de
DWT con más robustez es el azul y la diagonal respectivamente, para un delta o
cantidad de pasos de 10.
Cuando se guarda información en una imagen tiene que ser imperceptible para que
no sea detectada por un tercero, es decir, que al realizar cualquier tipo de ataque no
se pierda ningún dato y pueda llegar correctamente a su destino.
Referencias
D, B. (2014). Procesos de ocultamiento y extracción con QIM. Bogotá D.C.
D, S., & M, J. (2014). Analysis of edge base image steganography techniques in spatial domain. IEEE
Explore.
Fourrozesh Z, & Al Ja'am , J. (2014). Image Steganography base on LSBMR using Sobel Edge
Detection. IEEE Explore.
K, T., & G, S. D. (2014). An analysis of LSB based image steganography techniques. IEEE Explorer.
127
Audio forense: Mejoramiento de la
calidad de audio Madelyng Catalina Castellanos Camargo 25[autor]
Resumen
Inicialmente se tiene una propuesta de investigación en la cual se desarrollan temas en
relación a audio forense y el mejoramiento de la calidad de audio. El proyecto plantea como
objetivo principal mejorar los procedimientos utilizados para procesar y mejorar la calidad de
las muestras en audio forense mediante el software matemático Matlab.
Inicialmente se revisa la evolución del tema propuesto y se filtra información que puede ser
valiosa para la investigación, analizando diferentes estados del arte, artículos y libros que
permitan determinar un marco referencial. Con el tiempo se seguirá indagando más sobre la
temática para un estado completo de la información requerida.
Introducción
El audio forense se ha convertido en una profesión y especialidad reconocida
gracias a su alto grado de utilización en procesos judiciales que utilizan muestras de
audio determinantes. Tiempo atrás los estudios e investigaciones se realizaban por
medio de cintas magnéticas analógicas, filtros analógicos, equipos de reproducción
variable, equipos de prueba, osciloscopios, analizadores de espectro, entre otros, en
estudios de grabación. Esta profesión se define como el proceso de recolectar,
procesar y analizar grabaciones o muestras de audio para que sean utilizados como
pruebas de investigación en procesos judiciales. Existen tres ramas principales dentro
de audio forense: la identificación del hablante, proceso al cual se somete la
grabación para identificar el sujeto implicado; mejoramiento de la calidad de audio,
proceso al cual se somete la grabación para recuperar voz y/o mejorar la calidad del
audio que es baja por ruidos y distorsiones ajenos; verificación de autenticidad de
audio, proceso al cual se somete la grabación para analizar y detectar posibles
empalmes o ediciones que pueda llegar a tener la muestra (Ciencias Forenses, s.f.).
Con el paso del tiempo se implementa herramientas de procesamiento digital de
señales que permitían agilizar el proceso por las entidades especializadas en
seguridad. Como por ejemplo la Oficina Federal de Investigaciones (FBI) aplica
métodos tecnológicos avanzados para procesar y estudiar grabaciones de audio con
25 Programa de Ingeniería de Telecomunicaciones, Semillero de Investigación Claude Shannon, Universidad Militar Nueva Granada,
Santa Fe de Bogotá. Correo electrónico: [email protected]
128
el fin de garantizar su autenticidad, calidad e interpretación, siendo estos los tres
pilares de audio forense (Maher, 2009).
En ocasiones solo se realizan procesos de grabación y procesamiento de voces
mediante software y hardware especializado en estudios de grabación para la
investigación forense con el fin de identificar al hablante y verificar su implicación,
pero estos procesos de grabación no siempre son tan eficaces y cruciales dado que
las personas involucradas no acceden a esta solicitud de forma simple, sin embargo
hay grabaciones de audio ya existentes que han sido registradas por las mismas
víctimas y son las únicas que se pueden utilizar en los procesos, por tal motivo es
necesario realizar un proceso de análisis de dichas grabación para determinar si son
contundentes (Maher, 2009). Para ese análisis se realiza un procesamiento de la señal
de audio en donde se examina la calidad del audio para determinar si dicha muestra
es una prueba apta para los procesos. En Colombia se implementa esta técnica a
mediados de 1992 porque era necesario ejecutar nuevas tecnologías para la
investigación criminal (Vargas, 2013).
Los avances tecnológicos han sido mayores, lo que permite ir más a fondo en casos
que requieren investigación para establecer culpabilidad o inocencia mediante
pruebas que evidencien dichos acontecimientos. Casos de homicidio, secuestro,
hurto, delito y extorsión se desarrollan esencialmente mediante llamadas o archivos
de voz generando pánico a la víctima. Estas muestras son pieza fundamental en la
investigación, para lo cual es necesario realizar un tratamiento que permita procesar y
analizar las muestras de forma especializada (Barreira, 2015).
Hoy en día son utilizados software de alta gama, sin embargo hay ocasiones en las
cuales las limitaciones o requisitos de ese software impiden realizar el análisis
correspondiente en ciertas muestras debido, puntualmente, a la calidad de estas
(Anuario Estadístico del Sector Seguridad y Defensa, 2010).
Dando enfoque al mejoramiento de la calidad del audio se entiende que su principal
objetivo es mejorar la calidad de la muestra que se tiene reduciendo ruidos ajenos
que impidan entender y analizar la conversación, de esta manera se pueden
evidenciar detalles importantes para la investigación en curso. (Ciencias Forenses, s.f.)
. El proceso de mejoramiento y análisis se realiza en el dominio del tiempo y en el
dominio de la frecuencia en una copia digital de la grabación original para que esta
permanezca intacta (Maher, 2009).
Las señales de voz, como las muestras de audio a estudiar, son magnitudes físicas
variantes en el tiempo o en la frecuencia, pero estas se expresan de forma
matemática como una sumatoria de señales sinusoidales, es decir, donde las
amplitudes y las frecuencias son diferentes. Estas señales se caracterizan por
contener información, dependientes de una sola variable independiente conocida
como tiempo. El autor John G. Proakis (2007) establece un diagrama de bloques,
129
como el de la Figura 1, que funcione como un sistema para el procesamiento digital
de señales.
Figura 1. Diagrama de bloques procesamiento digital de señales. (Proakis, 2007)
Este tratamiento se realiza de forma digital dado que es un sistema programable y
flexible que modifica el comportamiento de la señal de entrada mediante operaciones
que exigen bajo porcentaje de hardware, a comparación de un sistema análogo que
requiere alto porcentaje de software y limita su programación porque obliga a
reconfigurarlo todo (Proakis, 2007).
El conversor análogo-digital realiza el proceso de muestreo, cuantificación y
codificación para el procesamiento de la señal digital. El paso de muestreo es el que
convierte la señal continua en el tiempo en señal discreta en el tiempo a partir de
muestras en instantes discretos de tiempo. Se estudia a partir del Teorema de
Muestreo y la frecuencia de Nyquist que define una frecuencia de muestreo mayor a
dos veces la frecuencia máxima de la señal y esto permite recuperar la señal a partir
de sus muestras de forma exacta. El paso de cuantificación se encarga de expresar los
valores de cada muestra como números finitos de dígitos. Se interpreta como
)()( nxQnxQ . Por último el proceso de codificación es el que define una secuencia
binaria de bits para cada valor discreto (Proakis, 2007).
Se han propuesto investigaciones de audio forense que giran en torno
principalmente en la rama de identificación del hablante. Por ejemplo se han creado
protocolos para recolectar y analizar señales para uso forense analizando software ya
existente que usan en instituciones de seguridad de Colombia. Se basan en material
dubitado e indubitado. Analizan los canales que utiliza el Departamento
Administrativo de Seguridad DAS concluyendo que los canales de telefonía celular son
los más utilizados. Estudian una gran cantidad de material de forma analógica para
luego someterlas a procedimientos digitales que mejoren su inteligibilidad. Se
obtienen buenos resultados a partir de muestras poco entendibles y de mala calidad,
son analizadas y mejoradas elevando su grado de importancia. Se evidencia que los
métodos para muestrear las señales son inadecuados porque no cumplen con la
frecuencia de Nyquist. Para implementar el protocolo tienen en cuenta los canales de
comunicación, luego los equipos y software Smart Logger ll principalmente, crean una
130
base de datos para guardar las grabaciones y determinan ciertas características para
los computadores a usar. Toman restricciones en la sala para iniciar con el proceso de
grabación de voces. Al obtener dichas muestras, realizan procesos de filtrado y
rescate de información, edición, y normalización para después analizar a fondo las
muestras. De esta manera concluyen que es posible analizar y mejorar la calidad de
las muestras de audio mediante diferentes software libre o privado, unos mejores que
otros. (Jorge Castro Calderón, 2006)
Otros estudios se han basado en la metodología bayesiana que establece relaciones
de verosimilitud usando la teoría de probabilidad conocida como fórmula de Bayes,
donde se establece que:
)(
)()|()|(
BP
APABPBAP ii
i
Donde:
)( iAP =Probabilidad a priori
)|( iABP =Probabilidad condicional
)|( BAP i =Probabilidad a posteriori
La investigación tuvo como foco definir en qué medida la acusación y las
observaciones del encargado forense influyen en la investigación. En este método de
Bayes logran enumerar, interpretar y aclarar evidencias. Usan datos de grandes
poblaciones para poder realizar los cálculos y establecer un resultado. Concluyen que
“cualquier sistema de reconocimiento de locutor puede adaptarse para funcionar en
un entorno forense siguiendo la metodología bayesiana”. (J. Gonzales Rodríguez)
En Chile se han realizado estudios sobre acústica forense donde investigan como
analizar las evidencias acusatorias. Exigen peritos expertos en ingeniería acústica o
relacionada para laborar en este cargo. Se encargan de conocer la generación de la
voz humana relacionado con campos forenses. Concluyen que para estos análisis, los
costos de software, como BOTVOX, son muy elevados, por tal motivo la industria
académica le impide acceder a estos y los estudiantes se encargan de investigar y
desarrollar nuevos métodos. (Bello, 2008)
En Francia han estudiado diferentes teorías probabilísticas para analizar materiales
de sospechosos mediando pruebas de comparación con otras muestras de cierta
población. A este análisis se le conoce como “Likelihood ratio” o Coeficientes de
probabilidad. Sin embargo solo el juez toara decisiones a partir de los resultados que
se obtengan del análisis. Concluyen que la utilización de este método ha dado buenos
resultados en los últimos años y que a medida que pase el tiempo será una disciplina
complementaria para el área de defensa y seguridad del mundo (Broedera, 2004).
131
Metodología Empleada
Inicialmente se analizara de forma matemática los procedimientos que existen para
el análisis de una señal de audio y su procesamiento. Esto será con apoyo de textos
guía relacionados con el tema que cumplan con las condiciones de investigación.
Luego se estudiara a fondo los procedimientos tecnológicos ya existentes para que
sirvan como guía de análisis, esto permitirá crear mejoras para implementarlo en la
recuperación de grabaciones. Este proceso se apoya sobre el software matemático
Matlab para realizar pruebas y obtener distintos resultados y conclusiones que irán
complementando la investigación.
Resultados y Conclusiones
Los resultados que se esperan es comprobar mediante métodos matemáticos e
implementación de código la posibilidad de aumentar la condición de los
procedimientos utilizados para el procesamiento de señales digitales y el
mejoramiento de la calidad de las grabaciones, permitiendo así un correcto análisis
sobre estos para que entidades de seguridad y defensa, principalmente, tomen
decisiones certeras sobre casos y procesos judiciales que estén afectan a ciertas
poblaciones o individuos.
Las principales conclusiones obtenidas fueron las siguientes:
- Se identificó algunas teorías matemáticas que pueden ser utilizadas para el
procesamiento y análisis de señales para el mejoramiento de la calidad de
audio.
- La consulta de investigaciones realizadas, permitió identificar diferentes
métodos que se han implementado para audio forense, lo cual es
conveniente seguir analizando a detalle para lograr comprender y obtener
información valiosa para la investigación.
Referencias
Anuario Estadístico del Sector Seguridad y Defensa. (2010). Colombia.
Bello, E. A. (2008). Ingeniería acústica aplicada a la criminalística "Acústica Forense". Valdivia.
Broedera, T. (2004). Forensic speech and audio analysis, Forensic Linguistics - A review, (pág. 33).
Lyon.
Ciencias Forenses. (s.f.). Obtenido de Laboratorio de acústica forense:
http://www.cienciasforenses.jalisco.gob.mx/laboratorioacustica.php
J. Gonzales Rodríguez, J. F. (s.f.). Análisis fresne de voces dubitadas en la metodología bayesiana.
Madrid.
132
Jorge Castro Calderón, D. A. (2006). Protocolo de técnicas de adquisición y procesamiento de
señales para uso forense en instituciones de seguridad del estado. Bogotá.
Maher, R. C. (2009). Audio Forensic Examination. IEEE.
Proakis, J. G. (2007). Conversiones analógica-digital y digital-analógica. En J. G. Proakis,
Tratamiento Digital de Señales (pág. 996). Madrid: Pearson Educación.
Barreira, A. (2015). Ingenieros Consultores. Obtenido de
http://www.ingenierosconsultores.com/pericial-audio-forense-y-video/
Vargas, K. T. (2013). La acústica forense es una parte de la criminalística que en Colombia.
Colombia: Prezi.
133
Diseño de un sistema en Cloud, para
controlar dispositivos IoT vía Web
Diana Marcela Ruiz Martínez 26[autor]
Edward Guillen Pinto 26[autor]
Resumen
Esta propuesta de investigación pretende ampliar el desarrollo de un tema tan importante
como IoT, integrándolo a Cloud con el fin de diseñar un sistema que a través de la Web permita
el control de dispositivos inteligentes desde cualquier parte del país.
Para esto se hace necesario analizar a gran escala el concepto de IoT y Cloud, estudiando las
tecnologías y protocolos existentes que intervienen en el desarrollo de este nuevo sistema.
De esta forma, se realiza un estado de arte revisando proyectos, iniciativas propuestas,
trabajos, libros y artículos que giran alrededor de este tema. Además, se analizan las múltiples
aplicaciones y servicios que ofrece esta nueva tecnología.
Introducción
No es ajeno para nadie el hecho de que con el paso del tiempo internet ha ido
creciendo a gran velocidad y con este los dispositivos capaces de conectarse en red a
través de internet. Es decir, además de Internet, surge un nuevo concepto “Internet of
Things (IoT)” como un gran avance que hoy ha causado gran impacto, pero que aún
muchos no comprenden y se define como la interconexión en red de los objetos que
usamos de forma cotidiana y que son capaces de conectarse a través de internet (Xia
F, 2012). Gracias a los avances tecnológicos se estima que IoT ofrezca nuevas
oportunidades para crear aplicaciones que mejorarán la calidad de nuestras vidas
(Evans, 2011).
El Internet de las Cosas es la muestra de la relación que existe entre el mundo real y
el mundo virtual, donde los dispositivos de uso cotidiano pueden ser manejados
remotamente y además pueden actuar como puntos de acceso a los servicios de
Internet y/o cloud “que se define como una técnica de intercambio de recursos en
servidores, almacenamiento y otras infraestructuras de computación en múltiples
lugares están conectados por redes” (Chandrasekaran, 2015) mediante plataformas
en las que se destacan Microsoft Azure, Amazon, Google Apps, entre otras, las cuales
26 Programa de Ingeniería de Telecomunicaciones, Semillero de Investigación Enigma, Universidad Militar Nueva Granada, Santa Fe
de Bogotá. Correo electrónico: [email protected]
134
tienen la capacidad de integrar aplicaciones con la nube y de esta forma crear
entornos inteligentes. Hoy estas tecnologías Web permiten que cualquier persona
pueda acceder a un servicio de internet desde un computador en casa, un pc en el
trabajo o un dispositivo móvil desde cualquier parte del mundo.
Diseñar un sistema cloud para controlar dispositivos IoT da más flexibilidad y
capacidad de almacenamiento reduciendo costos de infraestructura y haciéndolo de
esta forma escalable (intel, 2015), dado que Cloud ofrece dentro de sus servicios:
infraestructuras, plataformas y software a nuestra medida (Cierco, 2011). Es por esto
que con este trabajo de investigación se busca diseñar un sistema en cloud para
controlar dispositivos IoT vía Web.
Para esto, se realiza un estado del arte que comprende el análisis de los trabajos y
avances realizados en IoT, después, es necesario analizar las protocolos de
comunicación que intervienen en IoT para comprender su funcionamiento y por
ultimo estudiar las diversas áreas de computación en nube teniendo en cuenta
aplicaciones y ejemplos de trabajo con IoT, como lo desarrollan algunos trabajos de
investigación y propuestas comerciales.
Internet de las cosas es una visión al futuro desde el principio de la era tecnológica
e incluso desde el mismo momento en que se inventó el telégrafo. Pero este concepto
solo vendría a toma valor en 1990 cuando John Romkey y Simon Hackett diseñan el
primer dispositivo con conectividad a Internet: Tostadora Sunbeam Deluxe, suceso
que da una visión más clara de la importancia que tendría conectar dispositivos a
internet; pero realmente el término IoT es acuñado solo hasta el año 1999 por el
Massachusetts Institute of Technology MIT cuando Kevin Ashton hace referencia a la
relación entre Radio Frequency Identification (RFID) y la cadena de suministro de P&G
e Internet (Donato, 2014).
Para el 2002 ya se encontraba el primer uso documentado del término y en el 2005
ya algunos libros llevaban ese término por título y también la Unión Internacional de
Telecomunicaciones (UIT) hablaba de esto como promesa y lo definiría en la
recomendación UIT-T Y.2060, como “una infraestructura global para la sociedad de la
información, permitiendo avanzados servicios por la interconexión de las cosas físicas
y virtuales, basada en existentes y en la evolución de interoperables tecnologías de la
información y de la comunicación” (ITU, 2012).
Después de estas fechas, el desarrollo de IoT es más notorio y salen a la luz
invenciones tales como el primer refrigerador con conexión a internet propuesto por
LG, botes de basura inteligentes, gafas inteligentes, entre otros (Tina, 2014).
Según la consultora International Data Corporation (IDC) que presta servicios de
asesoría sobre el mercado de tecnología informática y telecomunicaciones en
Colombia y el mundo, para el 2014 se estimó un crecimiento anual de IoT del 16.9%
el cual a nivel global se puede cifrar por aproximadamente unos 656.000 millones de
135
dólares, es decir, se espera que este sector llegue a alcanzar un valor de 1.7 billones
de dólares. Es más, para el 2020 se dice que dos tercios del mercado de IoT será
dominado por dispositivos, la conectividad y los servicios de Tecnología de la
información (TI), los cuales representaran un 32% de los dispositivos del mercado
(MacGillivray C, 2015).
Arquitectura de Internet de las Cosas: La arquitectura de IoT está organizada por
capaz. En total se hablan de cuatro capaz: Capa de Borde, Capa de Acceso, Capa
Middleware y Capa de Aplicación. Donde las dos primeras son para adquisición de
datos y las dos últimas para utilización de datos en las aplicaciones (Salvatierra,
2012).
Figura 1. Arquitectura de Internet de las Cosas (Salvatierra, 2012).
Estándares y Protocolos IoT. Con el fin de buscar una nueva conectividad, se
presentan los estándares y protocolos para IoT, dentro de los cuales se presentan:
COAP: (Protocolo de Aplicación Constrained) es un protocolo especializado para su
uso con nodos y redes restringidas. Implementa el estilo arquitectónico REST, puede
ser transparente asigna a HTTP. Sin embargo, COAP también proporciona funciones
que van más allá de HTTP como notificaciones push nativas y la comunicación de
grupo (iot ecllipse.org, 2015)
ETSI SmartM2M: Proporciona especificaciones para servicios M2M y aplicaciones y se
centra especialmente en los aspectos de internet de las cosas (IoT) y ciudades
inteligentes (iot ecllipse.org, 2015).
136
MQTT (Message Queue Telemetry Transport): Es un protocolo diseñado para
conectar los dispositivos físicos y las redes mundiales, con aplicaciones y middleware
utilizados en TI y desarrollo Web, por lo que es un protocolo de conectividad ideal
para la IO y M2M (iot ecllipse.org, 2015).
OMA LwM2M (OMA LightwightM2M): Es un estándar de la industria para a gestión
de dispositivos M2M/IO. Depende en gran medida de COAP razón por la cual esta
optimizado para las comunicaciones a través del sensor o redes celulares. Además,
proporciona un modelo de objetos extensible que permite habilitar el intercambio de
datos de aplicación, junto con las funciones de administración de dispositivos de
núcleo (iot ecllipse.org, 2015).
Además, se encuentran otros estándares como XMPP, SOAP, WSDL, HyperCat,
SOFIA2 y por último, Telefónica I+D anuncio un acuerdo para definir estándares IoT,
donde por medio de una alianza con el operador coreano KT Corporation busca
afianzar la plataforma FIWARE como estándar con el fin de desarrollar soluciones y
servicios que contemplen la conexión con IoT (TyN, 2015).
Servidores para IoT: Como herramientas y tecnologías al servicio de la IoT de forma
innovadora, varias empresas ofrecen soluciones para los desarrolladores construir y
desplegar nuevas aplicaciones, dentro de las cuales se encuentran:
Nimbits: Es un servicio de registro de datos y una plataforma de motor de reglas
para conectar personas, sensores y software a la nube y entre sí. Brindan servicios de
Server Nimbits, nimbits.io, Nimbits Android y el Nimbits nube pública (nimbits.com,
2015).
WSO2: Es una plataforma abierta para internet de las cosas. Es una plataforma
empresarial, modular de código abierto y proporciona las capacidades necesarias para
el lado del servidor de una arquitectura de la IO (WSO2, 2015).
Zetta: Es una plataforma de código abierto construido sobre Node.js para la
creación de servidores de internet de las cosas, los cuales se ejecutan en todos los
equipos geo-distribuido y la nube. Servidores Zetta se ejecutan en la nube, en los
ordenadores y en equipos únicos de mesa. Con Zetta se pueden vincular Raspberry
Pis, BeagleBones y PC, junto con plataformas en la nube (ZETTA, 2015).
Y otras como: OracleloT, Etherios, Echelon, evrything, entro otros (PROFITBRICKS,
2015).
Gateway IoT: Las puertas de enlace conectan sistemas heredados y nuevos, y
permiten el flujo de datos seguros y sin problemas entre los dispositivos de última
generación y la nube (intel, 2015).
Wyliodrin: Es una herramienta gratuita con un entorno de programación visual en
línea y lenguaje de programación Scratch. Con esta herramienta se puede programar
137
dispositivos integrados empleando un navegador en cualquier computador de una
forma muy sencilla por medio de programación visual y programación por bloques.
(Wyliodrin, 2014).
Metodología Empleada
Inicialmente se indaga sobre diferentes conceptos que involucran los servidores, el
IoT y cloud mediante investigaciones ya realizadas para realizar un análisis sobre los
diferentes protocolos existentes y plataformas que cumplan con los requerimientos
necesarios para el desarrollo del sistema propuesto.
Luego de un estudio exhaustivo se determinarán los lineamientos correspondientes
para continuar con el proceso de investigación.
Y por último se pretende realizar pruebas de comunicación en tiempo real de
dispositivos IoT y el servidor en cloud, haciendo uso de la herramienta Wyliodrin para
programar dispositivos como Raspberry Pi.
Resultados y Conclusiones
Las conclusiones más importantes del trabajo ejecutado son las siguientes:
- Se logra estudiar diferentes conceptos que involucran los servidores, IoT y
cloud con el fin de integrarlos en un solo sistema innovador para dicha
temática.
- Incursionar en el tema de IoT no solo contribuirá a un avance más en el tema
si no que abrirá una visión más amplia de este concepto a nivel global y aún
más, podrá aterrizar más estos conceptos a un ambiente actual.
- Servidor IoT en cloud es un sistema viable, que traerá múltiples beneficios
entre los cuales se encuentran reducción en costos de infraestructura,
integración de múltiples servicios y además, incursión en temas de
investigación.
- Además, este trabajo abre la posibilidad de explorar nuevos campos de
investigación y aplicaciones para mejorar la calidad de vida a diferentes
niveles por medio del desarrollo de los conceptos y arquitectura propia de
IoT. Para lo cual se necesitaran servidores capaces de soportar estas
aplicaciones dándole relevancia a esta propuesta de investigación.
138
Referencias
Chandrasekaran, K. (2015). Essentials of Cloud Computing. U.S: Taylor & Francis Group.
Cierco, D. (02 de 2011). Cloud Computing: Retos y Oportunidades. Obtenido de
https://books.google.com.co/books?id=_fTJXVjOD90C&pg=PA12&dq=cloud+que+ofrece&
hl=es&sa=X&ved=0CBoQ6AEwAGoVChMInYn9o-
2hyAIVhCQeCh3URgpS#v=onepage&q=cloud%20que%20ofrece&f=false
Donato, F. (2014). FierceMobileIT. Obtenido de: A brief history of the Internet of Things:
http://www.fiercemobileit.com/story/brief-history-internet-things/2014-07-23
Evans, D. (2011). Cisco. Obtenido de Internet of Things:
http://www.cisco.com/web/ES/assets/executives/pdf/Internet_of_Things_IoT_IBSG_0411FIN
AL.pdf
Intel. (2015). Transform Business with Intelligent Gateway Solutions for IoT. Obtenido de Internet of
Things: http://www.intel.com/content/www/us/en/internet-of-things/gateway-
solutions.html
IoT ecllipse.org. (2015). Obtenido de IoT Standars: http://iot.eclipse.org/standards
ITU, I. T. (2012). Series y: global information infrastructure, internet protocol aspects and next-
generation networks. ITU-T.
MacGillivray C, T. V. (2015). IDC Analyze the future. Obtenido de Document at a Glance:
http://www.idc.com/getdoc.jsp?containerId=256397
nimbits.com. (2015). Obtenido de http://www.nimbits.com/index.jsp
PROFITBRICKS. (2015). Tools for the Internet of things. Obtenido de
https://blog.profitbricks.com/top-49-tools-internet-of-things/
Salvatierra, A. G. (2012). El Internet de las Cosas y los nuevos riesgos para la privacidad. Madrid,
España.: Universidad Politécnica.
Tina, C. (13 de Marzo de 2014). Siliconrepublic. Obtenido de: The internet of things: The past, the
present, and the future (infographic):
https://www.siliconrepublic.com/machines/2014/03/13/the-internet-of-things-the-past-
the-present-and-the-future-infographic
TyN, I. o. (06 de Marzo de 2015). MWC 2015: Acuerdo para definir estándares IoT. Obtenido de
http://www.tyniot.com/mwc2015-acuerdo-para-definir-estandares-iot/
WSO2. (2015). Obtenido de Open platform for internet of things: http://wso2.com/landing/internet-
of-things
Wyliodrin. (2014). Obtenido de https://www.wyliodrin.com/
Xia F, Y. L. (2012). Internet of Things. International journal of communication systems.
ZETTA. (2015). Obtenido de An API_First Internet of things Platform: http://www.zettajs.org/
139
Prototipo para generación vectorial
de señales RF a través de interface
GPIB
Juan Carlos Martínez 27[autor]
Luis Carlos Sánchez Monroy 27[autor]
Andrés Camilo Alejo Torrijos 27[autor]
Resumen
El control de equipos de laboratorio de forma remota es una herramienta que ayuda a
automatizar medidas dando mayor eficiencia y precisión en caso de tener generación de
señales o mediciones consecutivas repetitivas o que siguen un patrón. En el presente proyecto
se pretende hacer usos de un software que permita controlar el generador vectorial mediante
la interface GPIB.
Introducción
Se ha establecido como objetivo principal del proyecto de investigación desarrollar
un prototipo para generación vectorial de señales de RF a través de interface GPIB.
Documentar el funcionamiento de la interface GPIB y los comandos necesarios para el
control del equipo desde un software remoto; y como objetivo específico Implementar
un software que sea capaz de generar diferentes tipos de señales vectoriales de
manera externa al equipo usando la interface GPIB.
Metodología Empleada
El enfoque metodológico del proyecto se presenta alrededor de la investigación
descriptiva y experimental. Se realiza una recopilación de información con relación al
generador para hacer el prototipo y se procede a la implementación y mediciones
finales.
Para el desarrollo del proyecto se definen las siguientes fases:
a. Revisión bibliográfica del funcionamiento de la interface GPIB.
27 Programa de Ingeniería de Telecomunicaciones, Semillero de Investigación adscrito al grupo de investigación GISSIC, Universidad
Militar Nueva Granada, Santa Fe de Bogotá. Correo electrónico: [email protected]
140
b. Estudio de información técnica.
c. Instalación de herramientas de software y hardware necesarias.
e. Validación mediante generación y medición de señales vectoriales.
f. Análisis de resultados
Resultados y Conclusiones
Se pudo observar la correcta conexión entre un generador de señales vectoriales
(EXG Vector Signal Generator) y un equipo remoto con la ayuda de una interface GPIB,
en donde se pudo observar que efectivamente se establecía la conexión y se permitía
la modificación de los parámetros de fábrica.
Cuando se observó el GPIB-ENET/1000 se pudo observar el número de serial, su
dirección MAC y un hostname que tenía por defecto, como se puede ver en la figura
1.
Figura 1. Equipo GPIB-ENET/1000 con sus características por fábrica. La imagen fue
capturada por los autores.
Una vez se conectó el GPIB-ENET/1000 al PC a través de un enlace Ethernet. Los
parámetros de conexión aparecieron por defecto como DHCP como se puede apreciar
en la figura 2.
141
Figura 2. Parámetros por defecto. La imagen fue capturada por los autores.
Estos parámetros se pudieron observar en WEB gracias a que se permitía acceder
desde el navegador con la facilidad de modificar los parámetros, para acceder desde
el navegador bastaba con escribir el hostname seguido de un “.local” como aparece en
la figura 3.
Figura 3. Parámetros desde el navegador. La imagen fue capturada por los autores.
Al acceder desde el navegador se pueden cambiar los parámetros del hostname y
establecer una dirección estática, además de poder cambiar la contraseña del usuario
142
y agregar unos comentarios. Una vez observados estos parámetros evidenciamos que
efectivamente se tiene una conexión entre el GPIB-ENET/1000 y el PC, con la ayuda de
CDM y el comando ping a la dirección 169.254.25.118 como se observa en la figura
4.
Figura 4. Comprobación de la comunicación entre el PC y el GPIB-ENET/1000. La imagen fue
elaborada por los autores.
Gracias a esto se pudo acceder al generador vectorial, para esto se tiene que el
generador vectorial debe tener una dirección GPIB diferente de 0 y de acá se establece
a través del PC con la ayuda del VISA Interactive control, en donde el PC establecerá
una conexión con el generador a través de la dirección GPIB que se le asigno
previamente al generador, una vez el VISA Interactive control establezca la conexión,
aparecerá el instrumento que se enlazo con la dirección GPIB que se le asignó al
generador vectorial, para nuestro caso se le asignó una dirección GPIB de 6, como se
muestra en la figura 5.
143
Figura 5. Conexión entre el PC y el generador vectorial a través de una dirección GPIB. La imagen fue
capturada por los autores.
Una vez establecida la conexión entre estos dos dispositivos, con la ayuda del VISA
Interactive control, se genera una señal de identificación en donde se pregunta al
dispositivo por sus características y se empieza a trabajar con el dispositivo. Ver
figura 6.
Figura 6. Identificación del equipo a través del VISA interactive control. La imagen fue capturada por
los autores.
Para saber que se está trabajando desde el PC, basta con observar el generador
vectorial, en donde se observa que todo el teclado está bloqueado, si se desea
trabajar manualmente de nuevo es necesario presionar el botón de “local” para que se
desbloquee el teclado del generador. Ver figura 7.
144
Figura 7. Generador controlado remotamente. La imagen fue capturada por los autores.
Para esto se hizo una conexión entre un equipo (PC) a través de su enlace Ethernet
hacia un GPIB-ENET/1000 en su enlace Ethernet. De acá se tiene una conexión a
través de la interface GPIB del GPIB-ENET/1000 a la interface GPIB de un generador
de señales vectoriales (EXG Vector Signal Generator), tal como se ilustra en la figura 8.
Figura 8. Conexión ejecutada. La imagen fue capturada por los autores.
145
El NI GPIB-ENET/1000 posee una interfaz Web la cual está protegida con una
contraseña por defecto, esta se puede configurar para fácil manejo del NI GPIB-
ENET/1000. Se puede comunicar y configurar a través de PC´s en la red, así como
también con dispositivos IEEE 488 desde cualquier parte en una red (LAN) TCP/IP
basada en Ethernet (Gigabit, 100BASE-TX, 10BASE-T). Además que posee las
siguientes características:
- Es compatible con Windows 7/Vista/XP (incluido), así como Linux and Mac
OS X (descarga únicamente).
- Interfaz Web fácil de manejar y protegida con contraseña.
- Razones de transferencia de hasta 5.6 MB/s.
- Compatibilidad con red Gigabit, 100BASE-TX, y 10BASE-T Ethernet.
- Habilidad para compartir hasta 14 dispositivos GPIB desde varios servidores
en red.
- Compatible con RoHS; transferencias hasta 4 veces más rápidas que el GPIB-
ENET/100.
Adicionalmente se tiene una NI ExpressCard-GPIB con la que se puede conectar a la
ranura de ExpressCard que posee el PC, La NI ExpressCard-GPIB posee un bajo costo
y alto rendimiento la cual ofrece razones de transferencia de datos sostenidas hasta
de 1.8 MB/s, esto es porque la ExpressCard trabaja usando el protocolo de
sincronización estándar IEEE 488.1 para transferencias de datos comparativas de
hasta 7.7 MB/s. ver figura 9.
Figura 9. NI. ExpressCard-GPIB. La imagen fue capturada por los autores.
146
Esta ExpressCard se trabaja conectándola directamente al PC (portátil) que posea
una ranura de ExpressCard, y después la ExpressCard se conecta a un cable de
adaptador GPIB, como se muestra en la figura 10, cabe aclarar que no se tenía en
disposición un portátil con la ranura de ExpressCard y por esta razón no se trabajó
por medio de este dispositivo.
Figura 10. NI ExpressCard-GPIB conectada a un cable de adaptador GPIB. La imagen fue capturada
por los autores.
Finalmente se trabajó con el generador de señales vectoriales (EXG Vector Signal
Generator) el cual trabaja con frecuencias desde los 9kHz y los 6GHz, en donde se
tiene un rendimiento muy rápido y un tiempo de actividad largo, la EXG está
optimizado para la prueba de la fabricación con las señales que necesita para la
prueba paramétrica básico de componentes y calibración de los receptores. Además
de que se tiene modulación AM, FM, ØM y narrow pulse. Este generador se puede
observar en la figura 11.
Figura 11. Generador de señales vectoriales. La imagen fue capturada por los autores.
147
Este proyecto posee el objetivo del control de equipos de laboratorio de forma
remota, a través de una interface GPIB, se puede concluir que la comunicación remota
es efectiva y nos permite el manejo de un equipo desde un lugar remoto al
dispositivo, con el fin de que sea de fácil manejo y se pueda tener una caracterización
de los dispositivos que se manejan remotamente. Se puede presentar una correcta
manipulación de un generador de señales vectoriales en donde se observa su manejo
remotamente desde un PC (portátil) con la ayuda de una interface GPIB.
Referencias
National instruments. (2009). Generador de señales vectoriales. 25/Agosto/15, de National
instruments. Sitio web: http://www.keysight.com/en/pd-2114132-pn-N5171B/exg-x-
series-rf-analog-signal-generator?cc=CO&lc=eng
National instruments. (2009). NI ExpressCard-GPIB. 25/Agosto/15, de National instruments. Sitio
web:http://sine.ni.com/nips/cds/view/p/lang/es/nid/202353
National instruments. (2009). NI GPIB-ENET/1000. 25/Agosto/15, de National instruments. Sitio
web: http://sine.ni.com/nips/cds/view/p/lang/es/nid/209211
148
Análisis de vulnerabilidades de
elementos inalámbricos utilizados en
la tecnología IoT
Andrés Parrado Carmona 28[autor]
Resumen
El internet de las cosas (IoT) es un concepto que ha adquirido una gran importancia durante
los últimos años, principalmente por su enfoque a la interconexión digital de los objetos
circundantes con internet y al acceso a los datos en tiempo real. El incremento acelerado del
flujo de datos que se transportan mediante la tecnología IoT, desde la seguridad informática
se hace necesario realizar un análisis de vulnerabilidades para fortalecer la protección de la
información en la tecnología IoT.
De acuerdo a la anterior premisa este proyecto tiene como objetivo realizar pruebas de
interconexión de elementos inalámbricos utilizando la tecnología IoT en un ambiente de
laboratorio para explorar diferentes vulnerabilidades existentes en este tipo de interconexión.
Introducción
El concepto novedoso IoT surgió aproximadamente entre los años 2008 y 2009 con
el crecimiento explosivo de los smartphones y las tablet PC (Evans, 2011) y se
caracteriza por la interconexión de dispositivos, que facilitan el compendio de datos,
procesamiento, análisis y almacenamiento de la información en la nube, mediante la
Identificación por Radiofrecuencia en Red (RFID) y de sensores emergentes, que
permiten detectar el estado físico de las cosas.
El uso de RFID en el internet de las cosas, permite a los objetos que se encuentran
en el entorno obtener una única “etiqueta inteligente” que almacena pequeñas
cantidades de datos (Gama, Touseau, & Donsez, 2012).
La tecnología RFID generalmente se caracteriza por el uso de dispositivos sencillos
en un extremo del enlace como Tags (etiquetas) o transpondedores (dispositivo
receptor y emisor de señales) y dispositivos más complejos en el otro extremo, a
menudo son lectores, interrogadores y/o balizas (dispositivo Bluetooth M2M) que
28 Programa de Ingeniería de Telecomunicaciones, Semillero de Investigación Enigma, Universidad Militar Nueva Granada, Santa Fe
de Bogotá. Correo electrónico: [email protected]
149
tienen mayor capacidad al conectarse a una red o un host, utilizando una frecuencia
de 1000 kHz a 10 GHz (Landt, 2005).
Al recrear inteligencia a los objetos cotidianos mediante la tecnología IoT, estos
dispositivos no solo recopila información si no que interactuar y controlar el entorno
que los rodea (Borgia, 2014).
La tecnología de internet de las cosas (IoT) se caracteriza por tener una arquitectura
compuesta por 3 capas:
i. Capa de Percepción: tiene como función principal identificar el objeto,
recopilando toda su información. (García & Carlos) En esta capa se origina toda la
información y es la capa base de IoT, ya que percibe todo tipo de información
recolectada por : red de sensores, sensores inalámbricos (WSN), tags, sistemas RFID,
cámaras, sistemas de posicionamiento global (GPS) y datos electrónicos (EDI) entre
otros.
ii. Capa de Red: funciona como red de acceso y red de control central. Cuenta con
la capacidad para transmitir datos y procesar información de manera eficiente y
transparente, toda la información obtenida de la capa de percepción. Los elementos
que incluye esta capa son: red convergente de comunicación, red de internet, centro
de información y centro de procesamiento inteligente (García & Carlos).
iii. Capa de servicio o aplicación: contiene dos subniveles, el primero es el subnivel
de servicio en el que se procesó de aplicación a la información y proporciona una
interfaz eficiente para el usuario. El segundo subnivel corresponde al de gestión de
datos complejos e información incierta como compilación , limpieza y identificación ,
servicio de directorio, servicio de mercado a mercado (M2M) , calidad de servicio
(QoS), centro de gestión, Geomática, entre otros, utilizando arquitectura orientada al
servicio (SOA) y tecnologías de computación en la nube. ( Jia, Feng, Q, Fan, & Lei,
2012).
150
Figura 1. Capas de la arquitectura IoT. (García & Carlos)
Las arquitecturas de la IoT permanecen actualmente en desarrollo y se pretende a
futuro lograr una estandarización. Durante los planteamientos básicos de esta
arquitectura sé han encontrado dos grandes problemas a solucionar: el primero
consiste en encontrar la forma estándar de acceso al medio y a los respectivos
dispositivos. Logrando entender la estructura estandarizada para la aplicación de IoT,
mediante el desarrollo de una relación basada en los modelos de capas OSI y TCP/IP
que se presentan en la figura 2 ( Rodríguez González, 2013).
El segundo problema consiste buscar la forma de integrar los dispositivos a la
Internet (Rodríguez González, 2013).
Figura 2. Arquitectura IoT, Basada en modelos OSI y TCP/IP (Rodríguez González, 2013)
151
Actualmente las aplicaciones están siendo impactadas por la tecnología IoT, se
asume que en el 2015, se encuentran conectados 4.9 billones de dispositivo IoT y se
promedia que en 4 años los dispositivos IoT aumentarán a 25 billones (Thierer,
2015).
Las aplicaciones se pueden clasificar de acuerdo a diferentes factores como: el tipo
de red disponible, la cobertura, la escala, la heterogeneidad, la repetibilidad, la
participación de los usuarios y el impacto (Gluhak, Krco, & Nati, 2011). Estos
factores hacen que las aplicaciones se concentran básicamente para cuatro tipos de
dominios:
i. Personal y Social: Este tipo de aplicaciones tiene como objetivo permitir que el
usuario construya relaciones sociales al interactuar con otras personas utilizando los
dispositivos IoT. Este tipo de dominio permite activar y enviar mensajes
automáticamente para informar sobre acciones que se estén realizando en la oficina,
casa y otros lugares de esparcimiento. También permiten emitir alertas en caso de
pérdidas o robos de dispositivos.
ii. Autocuidado: Las aplicaciones IoT para el autocuidado de la salud facilita a los
profesionales de la salud realizar el seguimiento de los dispositivos, pacientes y
personal médico, mediante la identificación y autenticación de personas y la
recolección de datos automáticamente (Vilamovska, y otros, 2009).
iii. Entornos Inteligentes: Un entorno inteligente se considera un lugar físico que
utiliza dispositivos tecnológicos (Sensores y actuadores) para proporcionar
comodidad al usuario o para mejorar la automatización en plantas industriales con
un despliegue masivo de Etiquetas RFID. (Atzori, Iera, & Morabito, 2010)
iv. Transporte y logística: Diferentes sistemas de transporte están equipados con
sensores, actuadores y etiquetas RFID, que envían información en tiempo real a los
centros de logística de mercancía y transporte.
Para poder entender la estructura y conformación de los distintos protocolos
utilizados en IoT, es necesario comparar los protocolos a los estilos de los modelos
OSI y TCP/IP como se presentó anteriormente en la figura 2.
Las características principales de los protocolos IoT son las siguientes:
- Message Queue telemetry transport (MQTT): Se utiliza en tráfico pesado, con
backhaul celular o vía celular, su comunicación es two-way en redes no
confiables además se utiliza en dispositivo de baja potencia y con
hibernación de equipos de un 95% (Hunkeler, Truong, & Stanford-Clark,
2008).
152
- Message Queue telemetry transport for sensor network (MQTT-SN): Tiene
una mayor hibernación que el protocolo antes mencionado en las redes de
sensores, además puede escalar diez veces más dispositivos que MQTT,
pero su gran problema radica en la NAT, por lo cual se debe prevenir en la
planificación de la red (Stanford-Clark & Truong, 2013).
- Constrained Application Protocol (CoAP): Tiene más variaciones que MQTT-
S, sus servicios estan orientados a la arquitectura web. Este protocolo es
muy utilizado en la construcción de plataformas de desarrollo abiertas en
internet. (Shelby, Hartke, & Bormann, 2014).
- IEEE 802.15.4: Protocolo creado para redes inalámbricas de bajo costo, como
nuevo protocolo ofrece una flexibilidad en la red y permite bajo costo por el
consumo de energía. Se utiliza principalmente en aplicaciones donde es baja
la tasa de transmisión de datos. Fue pensado para definir una utilidad en la
capa física y de acceso al medio. (García Salvatierra, 2012).
- M2MXML: Este protocolo con la función de máquina a máquina (M2M)
agregado permite la representación de mensajes en documentos XML
(Extensible Markup Language). Como protocolo debe satisfacer a plenitud la
totalidad rigurosidad, para cumplir un nivel legible de su función de
depuración, también aprovecha la utilización de un lenguaje existente, lo
que permite el uso de APIs garantizando un mejor manejo. (García
Salvatierra, 2012).
El riesgo en la privacidad de información es el principal factor de amenaza. Esta
vulnerabilidad inicia con la revelación de información sin autorización, generando
una insaciable búsqueda para lograr rastrear y obtener dicha información. Las
etiquetas RFID tienen una gran falencia debida a la gran cantidad de riesgos que tiene
este sistema, en este documento no especificaremos los riesgos, pero algunos de
ellos se enlistan así:
-Uso de datos no especificados
-Recolección de información y almacenamiento de datos para objetivos no definidos
-Falta de transparencia y de información
-Falta de políticas en sistemas de eliminación de datos
-Desactivación de etiquetas RFID sin consentimiento expreso del usuario
-Recolección de información secreta, sin consentimiento del usuario
-Derechos de gestión de acceso incompletos
-Mecanismos de autentificación faltantes
-Procesamiento ilegítimo de datos
153
Los anteriores riesgos puede afectar el sistema. Los ataques más recurrentes en el
RFID son: Spoofing (engaño del sistema), Inserción (introducción de comandos), MTIM
(suplantación de identidades), DOS (denegación de servicios), mediantes estos
ataques se puede afectar la información de un sistema de IoT (García Salvatierra,
2012).
OWASP para Internet de las cosas (IoT) es un proyecto de seguridad, que permite a
los fabricantes, desarrolladores y usuarios evaluar la seguridad en la construcción,
implementación y la evaluación las tecnologías IO. (OWASP, 2014)
Las diez áreas de seguridad que implementa este proyecto se presentan a
continuación en la figura 3:
Figura 3. Modelo OWASP para IoT (OWASP, 2014).
Metodología Empleada
Para el desarrollo del proyecto se plantean 4 fases de ejecución que se describen a
continuación:
Fase 1. Recopilación de información y elaboración del estado del arte actual de IoT
y de sus aplicaciones en el entorno.
Fase 2. Programación de las aplicaciones en los dispositivos IoT utilizando un
sistema operativo compatible.
154
Fase 3: Realización de pruebas de interconexión de las aplicaciones desarrolladas y
los dispositivos IoT.
Fase 4: Análisis del rendimiento y vulnerabilidades de las pruebas realizadas en la
interconexión.
Resultados y Conclusiones
Los resultados que se esperan obtener con este proyecto, corresponden a un
análisis detallado de las vulnerabilidades según el modelo OWASP encontradas en la
interconexión entre los dispositivos IoT.
Adicionalmente se determinaran las características técnicas de los dispositivos IoT
utilizados y se analizara el funcionamiento y rendimiento de la interconexión de las
tarjetas IoT con dispositivos inalámbricos.
Las conclusiones más importantes del trabajo ejecutado son las siguientes:
- Se identificaron las arquitecturas IoT utilizadas en los últimos años por
diferentes organizaciones. Estas arquitecturas permiten la interoperabilidad
entre los diferentes dispositivos inalámbricos e internet y facilitan su uso en
las aplicaciones con dominios: personal y social, Healthcare, entornos
inteligentes, transporte y logística.
- Se identificó los protocolos utilizados por la tecnología IoT y se estructuro
bajo el estilo de los modelos OSI y TCP/IP, para facilitar la comprensión de la
estructura de red que utiliza la tecnología IoT.
Referencias
Atzori, L., Iera, A., & Morabito, G. (2010). The internet of things: A survey. Computer networks,
54(15), 2787-2805.
Borgia, E. (2014). The Internet of Things vision: Key features, applications and open issues. (Elsevier,
Ed.) Computer Communications, 1-31.
Evans, D. (2011). Internet de las cosas: Como la próxima evolución de Internet lo cambia todo.
Cisco.
Gama, K., Touseau, L., & Donsez, D. (2012). Combining heterogeneous service technologies for
building an Internet of Things middleware. (Elsevier, Ed.) Computer Communications, 35(4),
405-417.
García Salvatierra, A. (2012). El Internet de las Cosas y los nuevos riesgos para la privacidad.
(Doctoral dissertation, E_Telecomunicacion).
García, L., & Carlos, L. (s.f.). Estudio del impacto técnico y económico de la transición de internet al
internet de las cosas (IoT) para el caso colombiano. Doctoral dissertation, Universidad
Nacional de Colombia.
155
Gluhak, A., Krco, S., & Nati, M. (2011). A survey on facilities for experimental internet of things
research. Communications Magazine, IEEE, 49(11), 58-67.
Hunkeler, U., Truong, H., & Stanford-Clark, A. (2008). MQTT-S—A publish/subscribe protocol for
Wireless Sensor Networks. Communication systems software and middleware and
workshops, 2008. comsware 2008. 3rd international conference on (págs. 791-798). IEEE.
Jia, X., Feng, Q., Fan, T., & Lei, Q. (2012). RFID technology and its applications in Internet of Things
(IoT). Consumer Electronics, Communications and Networks (CECNet), 2012 2nd
International Conference on (págs. 1282--1285). IEEE.
Landt, J. (2005). The history of RFID. Potentials, IEEE, 24(4), 8-11.
OWASP. (2014). OWASP Internet of Things Top Ten Project. Obtenido de
https://www.owasp.org/index.php/OWASP_Internet_of_Things_Top_Ten_Project#tab=OWAS
P_Internet_of_Things_Top_10_for_2014
Rodríguez González, D. (2013). Arquitectura y Gestión de la IoT. Revista Telem@ tica, 12(3), 49-60.
Shelby, Z., Hartke, K., & Bormann, C. (2014). The constrained application protocol (CoAP). Obtenido
de https://tools.ietf.org/html/rfc7252
Stanford-Clark, A., & Truong, H. (2013). MQTT for Sensor Networks (MQTT-SN) Protocol
Specification.
Thierer, A. (2015). The Connected World: Examining the Internet of Things. Available at SSRN
2563765.
Vilamovska, A., Hattziandreu, E., Schindler, R., Van Oranje, C., De Vries, H., & Krapelse, J. (2009).
RFID application in healthcare–scoping and identifying areas for rfid deployment in
healthcare delivery. RAND Europe.
156
Viabilidad de acceso al campus
UMNG
Iván Santiago Suarez Rodríguez 29[autor]
Jonathan Minota Ospina 29[autor]
Resumen
Este proyecto está dirigido a dar solución a una problemática de acceso que se viene
presentando en relación al acceso al Campus UMNG. Es un proyecto en curso que está
encaminado a evaluar la viabilidad de las posibilidades reales y existentes de solución a dicha
problemática. El principal medio de acceso a las instalaciones universitarias, es un puente
peatonal provisto por la Concesión Devinorte el cual ya no cuenta con la capacidad suficiente
para proveer a la comunidad de la UMNG un acceso eficiente a las instalaciones.
De esta manera, se pretende plantear y a su vez evaluar las diferentes posibilidades y
alternativas que existen para dar solución a esta situación, ofreciendo un proyecto que esté
desarrollado por los estudiantes que pertenecen al Semillero SATIC, haciendo uso de las
capacidades y habilidades adquiridas en el transcurso de la carrera; siendo una oportunidad de
aportar al crecimiento del Campus de la UMNG.
Introducción
En este trabajo se analizará y evaluará el creciente flujo peatonal que se presenta en
el puente de acceso a la universidad, conociendo que la construcción de esté fue con
base a un diseño que prevé a la obra de doble calzada Cajicá - Zipaquirá y
entendemos que en ese momento el proyecto Campus UMNG no estaba predispuesto,
ahora que esta sede de la universidad ya tiene un gran avance se vio el aumento del
personal, el cual se percibe durante dos determinadas horas del día (llegada y salida
del tren), donde se identifican sobrecargas en la estructura.
Con el fin de divisar si el puente dará el desempeño óptimo para el personal que
está en crecimiento; se realizarán y entregarán datos estadísticos de información,
mediante la interpretación de datos que nos facilitan algunos de los empleados de la
universidad como son los funcionarios de Turistren o la oficina de seguridad y de este
modo ejecutar un informe definitivo para ser analizado y lograr alternativas viables.
29 Programa de Ingeniería de Telecomunicaciones, Semillero de Investigación Sistema en avanzada tecnológica en ingeniería civil,
SATIC, Universidad Militar Nueva Granada, Santa Fe de Bogotá. Correo electrónico: [email protected]
157
Metodología Empleada
La metodología bajo la cual esta propuesta el desarrollo de este proyecto, está
conformada por tres aspectos fundamentales:
1. Analizar Posibilidades
2. Contemplar Factores
3. Determinar viabilidad y factibilidad
Aspectos para tener en cuenta tales como, el económico, el legal, la seguridad, el
tiempo de ejecución, las repercusiones en el entorno, el impacto ambiental, entre
otros. por tal razón, es objeto de la propuesta de investigación considerar todas
analizar las diferentes posibilidades de solución a dicha problemática, tomando en
cuenta los factores que deben ser tenidos en cuenta para finalmente, como último
aspecto fundamental, poder concluir según el desarrollo de la investigación cuál es la
mejor opción, considerando la viabilidad y factibilidad del proyecto, para dar una
solución de acuerdo a las exigencias de la Universidad en proyección a ser la mejor,
mencionando que el aspecto de la seguridad de los estudiantes es objetivo primordial
de la UMNG.
Resultados y Conclusiones
Para el desarrollo y ejecución de esta investigación se espera poder obtener
resultados de manera tal que permitan determinar cuál es la mejor alternativa para
contribuir en el desarrollo y progreso de la movilidad de la Comunidad estudiantil del
Campus UMNG dando solución a la problemática en la ineficiencia del Puente peatonal
en su función de acceso a la Universidad.
Algunas de las conclusiones más importantes del trabajo son las siguientes:
Es evidente el crecimiento de la universidad, es por esto que en un futuro no muy
lejano el puente podría llegar a su máxima capacidad, poniendo en alto riesgo la
comunidad neogranadina, además, por su ubicación si se llegara a colapsar afectaría
la movilidad de la autopista que lo cruza.
Por medio de los datos suministrado por los representantes de Turistren, fue
posible efectuar un análisis previo de cuantos estudiantes en promedio pasaban el
puente a la hora de llegada.
158
Referencias
Sánchez, Torres, Urazan (2013). El rol de los pasos peatonales subterráneos como alternativa en los
actuales esquemas de planeación urbana. Universidad de la Salle 2013.
Arias Gallegos (2012) Motivos del desuso de puentes peatonales en Arequipa.
Muñoz, Valbuena (s.f.). Evaluación del estado de los puentes de acero de la red vial de Colombia.
Pontificia Universidad Javeriana.
Muñoz Díaz (s.f.). Estudio de las causas del colapso de algunos puentes. Pontificia Universidad
Javeriana.
159
Prototipo de generación de
modulaciones digitales de señales de
RF mediante SDR y LabView
Juan Carlos Martínez 30[autor]
Nelson Enrique Arévalo Arias 30[autor]
Javier Ricardo Blanco 30[autor]
Resumen
Los sistemas de radio definido por software (SDR), permiten la reconfiguración de un sistema
de radiofrecuencia RF especial mediante la conexión con un computador que realiza el
procesamiento digital de señales recibidas o transmitidas, mientras el hardware se encarga de
operaciones como mezclado, amplificación, filtrado, conversión análoga digital, digital análoga
e interacción con el PC entre otras. La plataforma RTL-SDR permite la configuración del
hardware y procesamiento de las señales mediante 3 tipos de software diferente: GNU radio,
Matlab y LabView. En el presente proyecto se pretende hacer uso del software LabView para
trabajar con modulaciones a partir de las herramientas de programación con las que cuenta el
software, se realizará una comparación de los resultados con los teóricos.
Introducción
Los dispositivos RTL-SDR son receptores de señales RF de muy bajo costo (cuestan
alrededor de 25 US), inicialmente fueron diseñados como receptores DVB-T, pero
actualmente vienen siendo diseñados para recepción de señales en un amplio rango
de frecuencias que va desde los 25 MHz hasta los 1.75 GHz, lo cual permite su uso
en diversas aplicaciones.
El software LabView es un entorno gráfico de programación orientado a desarrollos
de diversas ramas de la ingeniería y la ciencia, este software posee diversas librerías
para el uso y compatibilidad con múltiples herramientas, entre ellas el trabajo con
dispositivos SDR, logrando realizar mezclado, filtrado, conversión A/D y D/A, en este
caso como el dispositivo que se usa es solamente receptor, inicialmente interesa
lograr la demodulación de las señales en frecuencias de FM, limitándonos a un rango
desde los 88.5 MHz hasta los 108 MHz, para entender el proceso de demodulación en
30 Programa de Ingeniería de Telecomunicaciones, Semillero de Investigación Maxwell, Universidad Militar Nueva Granada, Santa Fe
de Bogotá. Correo electrónico: [email protected]
160
frecuencia de señales y teniendo esta base, continuar con señales de modulación
digital. Finalmente además de realizar el procedimiento a nivel experimental, se debe
comprobar teóricamente el desarrollo de la demodulación con el fin de identificar la
precisión del trabajo realizado.
Metodología Empleada
El enfoque metodológico del proyecto se presenta alrededor de la investigación
descriptiva y experimental.
Se realiza una recopilación de información con relación al software y hardware
requerido para hacer prototipo y se procede a la implementación y mediciones finales.
Para el desarrollo del proyecto se definen las siguientes fases:
- Revisión bibliográfica de los conceptos y herramientas involucradas en el
proyecto.
- Estudio de información técnica del software y hardware.
- Instalación de herramientas de software sobre el hardware y corrección de
errores.
- Validación mediante pruebas de flujo de datos y comparación con un sistema
convencional.
- Análisis de resultados.
Resultados y Conclusiones
Para lograr la demodulación digital de la señal FM existen diferentes métodos: la
modulación diferencial, demodulación no coherente y demodulación coherente.
En este caso se usó e implementó el método que mediante PLL realiza la
demodulación en varios pasos:
a) Se recibe la señal FM a través del RTL-SDR, esta señal es de carácter complejo
puesto que para el tratamiento de la misma se discrimina una parte real de una parte
imaginaria
b) La señal al ser recibida por el sistema es procesada por un comparador, luego
es filtrada por un filtro pasabajos, procesada por un detector de fase y finalmente es
puesta en la salida de demodulación.
En la figura 1 se presenta la topología del radio empleado.
161
Fig.1. Demodulación digital de la señal FM. Adaptado de Software defined radio using Matlab &
Simulink and the RTL-SDR. La imagen fue elaborada por los autores.
Al realizar la puesta en marcha del programa creado en LabView, inicialmente se
tienen inconvenientes de ruido, por lo cual es necesario reprogramar para poder tener
un piso de ruido más bajo y poder obtener la señal mucho más clara. Otro de los
inconvenientes que se tuvieron fue que debido a la ubicación física, en algunas
ocasiones no fue sencillo captar las señales FM, puesto que la potencia con la que era
recibida la señal no era suficiente para el procesamiento de la misma. Finamente se
logró el objetivo de demodular señales entre los 88.5 MHz y los 108 MHz, con
técnicas de procesamiento digital de señal, siendo recibidas por el dispositivo RTL-
SDR y procesadas por un laptop Asus, con procesador Intel Core i7, 8 Gb de RAM, y el
programa elaborado en LabView instalado en esta máquina.
Las conclusiones más relevantes del trabajo son:
- El trabajo con dispositivos RTL-SDR resulta ser mucho más práctico y
económico comparado con dispositivos USRP, con la desventaja de que el
RTL no permite realizar la transmisión de señales y el rango de frecuencia de
trabajo es mucho menor.
- El rango de frecuencias de uso de RTL, permite su aplicación no solo en el
caso de señales FM sino que también tiene usos a nivel de aeronáutica, UHF,
telefonía celular (4G, GSM)
- El software LabView permite la fácil integración de herramientas como los
SDR y bloques de procesamiento de señal, facilitando la programación e
interacción con su interfaz gráfica siendo una gran característica para un
software especializado que aventaja a otros como GNU Radio o inclusive
Matlab con su módulo Simulink siendo LabView un software más intuitivo en
cuanto a su programación, ejecución y simulación.
162
Referencias
Software defined radio using Matlab & Simulink and the RTL-SDR, Stewart Bob, Barlee Kenneth,
Atkinson Dale, Crocket Louise, University of Strathcyde, Glasgow, Scotland, UK.
http://www.rtl-sdr.com/ Actualizado Sept 8 de 2015.
http://www.ni.com/labview-communications/usrp/esa/ Consultado Sept 10 de 2015.
Adaptado de Software defined radio using Matlab & Simulink and the RTL-SDR.
163
Sistema de gestión de espectro
radioeléctrico empleando el hardware
RTL - SDR
Carlos Julio López Romero 31[autor]
Miguel Antonio Fernández Salgado 31[autor]
José De Jesús Rúgeles Uribe 31[autor]
Resumen
Este Proyecto de Investigación Científica tiene como propósito realizar un sistema de gestión
del espectro radioeléctrico empleando dispositivos de captación de señales RTL SDR (Radio
definida por software), que permita hacer un barrido parcial del espectro radioeléctrico entre el
rango de frecuencia aproximado de 25MHz y 1.75 GHz en el que se prestan en la actualidad
servicios como Radio FM, DAB ,GSM, aunque la elección del ancho de banda que se pretende
analizar se podría efectuar en variedad de rangos con el uso de diseños multi - etapa
aumentando el cubrimiento del barrido que se realiza. Este proyecto se está realizando
mediante el uso de la herramienta Simulink de MATLAB con la cual se lograra visualizar el
espectro y determinar que señales se están trasmitiendo en tiempo real, como parte inicial de
la implementación lo que permite analizar y gestionar las frecuencias que están siendo
usadas y las que están libres en un momento oportuno, este proyecto contara con una interfaz
gráfica desde donde se podrá gestionar determinada frecuencia y detallar en qué estado se
encuentra, en conclusión le proporcionara al usuario del espectro electromagnético una
herramienta de fácil portabilidad y manejo para gestionar de forma eficaz sus comunicaciones.
Introducción
El avance significativo de las tecnologías principalmente las orientadas a
telecomunicaciones van exigiendo día a día nuevos retos a los investigadores, los
cuales deben proporcionarle a los usuarios dispositivos que se adapten a su vida
cotidiana y brinden fácil portabilidad, en este sentido el proyecto de investigación se
encamina a dar solución al acceso táctico de tecnologías de gestión del espectro
radioeléctrico sin necesidad de acudir a multiplataforma de uso limitado, además de
servir como herramienta para futuras aplicaciones en el que se pretenda dar solución
al problema de la ineficiencia en la utilización del espectro de frecuencias, ya que la
31 Programa de Ingeniería de Telecomunicaciones, Semillero de Investigación adscrito al grupo de Investigación GISSIC, Universidad
Militar Nueva Granada, Santa Fe de Bogotá. Correo electrónico: [email protected]
164
identificación de bandas disponibles permite la optimización del uso del espectro
dependiendo de la necesitad y el tipo de servicio que se preste o se requiera.
Tal como se enuncio anteriormente el software que se utiliza para la ejecución de
este proyecto es Simulink de MATLAB ya que este ofrece un sin número de
herramientas ya definidas que nos facilitan la ejecución, análisis e implementación en
hardware como lo es el bloque RTL-SDR Radio, para este proyecto se contara con
un Hardware RTL-SDR NOOELEC RTL2832U que permite captar las señales del
espectro radioeléctrico para luego mostrarlas y analizarlas al ejecutar un diagrama de
bloques previamente definido en Simulink.
Metodología Empleada
Como parte del proceso de desarrollo del proyecto es preciso la definición de cada
uno de los pasos que se han realizado para cumplir de manera exitosa la
implementación del sistema de gestión del espectro radioeléctrico. Como primer
punto se realiza un estado del arte concerniente a la tecnología de radio definido por
software, el uso del espectro de frecuencias, bandas de frecuencias disponibles, uso
de los bloques de Matlab para SDR, en lo que respecta implementación de la interfaz
de usuario; en la parte física se indago acerca de la arquitectura del Hardware RTL-
SDR NOOELEC RTL2832U, que permite definir criterios y capacidades a utilizar
mediante la ejecución del proyecto. Una vez recolectada la información y depurando
las utilidades, características y demás elementos de software y hardware se procedió a
la segunda parte que consiste en instalación de librerías (bloque RTL-SDR Radio en
Simulink, MATLAB), en lo que respecta a la configuración de controladores del
dispositivo USB RTL-SDR. Como tercera fase del proyecto de investigación se realiza
la programación con diagrama de bloques en Simulink que permitiera la visualización
de las bandas de frecuencia; para facilitar la funcionalidad del sistema de gestión se
implementa una interfaz gráfica que permita al usuario un manejo práctico de la
herramienta determinando frecuencias de operación y ganancia de elección.
Resultados y Conclusiones
Dentro de las capacidades del sistema de gestión de espectro radioeléctrico
empleando el hardware RTL SDR se destaca un rango de cobertura por dispositivo de
25MHz y 1.75 GHz; este dispositivo permite captar señales de Radio FM, DAB Radio,
Televisión Digital, Sistemas GSM, entre otros; dentro de las bandas de frecuencia que
el usuario puede examinar se encuentran FM Radio con un rango de 88MHz a
108MHz, BAD Radio rango de 175MHz a 240MHz, TV Digital de 470 a 862 MHz y
GSM Señales Móviles de 800MHz a 1000MHz.
165
Como resultados se tiene una aplicación hecha en Simulink de MATLAB que
permite realizar consultas en el espectro radioeléctrico con el fin de determinar la
disponibilidad e identificar el centro deseado de la frecuencia seleccionada. Como se
evidencia en la figura 1.
Figura 1. a) Interfaz Gráfica, b) Analizador del Espectro en FFT, c) Analizador del Espectro en
Cascada. Las Imágenes fueron capturadas por los autores.
En la figura 1 (a) se observa la interfaz gráfica desarrollada para el usuario final del
sistema de gestión de espectro radioeléctrico, dentro de la cual se puede apreciar
cada uno de los elementos que se pueden configurar como los rangos de frecuencias
166
a analizar, la ganancia, la frecuencia central que el usuario tomara como referencia
para el estudio de su interés y elementos para ajustar la visualización de la resultante
de la captura en una banda específica, en la figura 1 (b) se presenta luego de la
configuración de los parámetros dados en la interfaz de usuario la respuesta en
frecuencia de la banda utilizada a través del analizador de espectros de Simulink, con
esta el usuario puede identificar el uso de una banda de frecuencia en específico, las
características de las señales que se están enviando a través de esta banda y en
general cualquier elemento que sea de importancia del análisis en el dominio de la
frecuencia, en la figura 1 (c) se muestra el espectro en cascada el cual permite
visualizar de forma más detallada las señales que se están generando en el momento.
El analizador se ha configurado con los con los siguientes parámetros
presentados en la figura 2:
Figura 2. Parámetros configurados en el analizador. La imagen fue capturada por los autores.
De acuerdo a los resultados que se obtienen en esta etapa del proyecto de
investigación se puede concluir que con el uso del software Matlab herramienta
Simulink y de cada uno de los bloques se logra implementar un sistema de gestión
de espectro radioeléctrico que permite la consulta del estado de frecuencias
disponibles en el espectro radioeléctrico de forma práctica.
Este sistema de gestión podría ser utilizado como una herramienta para la
optimización del espectro radioeléctrico permitiendo el uso de bandas disponibles
para variedad de servicios evitando el desperdicio de este recurso.
Referencias
Bob Stewart, Kenneth Barlee, Dale Atkinson et al. (2015). Software Defined Radio Using MATLAB &
Simulink and the RTL-SDR, Glasgow, Reino Unido, University Strathclyde.
167
Medición y monitoreo de caudales en
cuenca hidrográfica, río Bogotá,
ribera UMNG Campus, mediante el
uso de Wireless Sensor Network,
para prevención y posible estimación
de desastres naturales
Jimena Astrid Ospina Caro 32[autor]
Paula Daniela Pinilla Torres 32[autor]
Resumen
El grupo de investigación SATIC, en su constante interés por el desarrollo de técnicas
habituales que permitan la elaboración de proyectos innovadores, como en este caso: la
prevención de posibles desastres naturales que aquejan nuestro entorno, realizará en la
primera fase del proyecto, un estudio de monitoreo de un tramo del río Bogotá que se
encuentra ubicado dentro de los límites que abarca la universidad.
Las inundaciones son fenómenos naturales y puede esperarse que ocurran a intervalos
irregulares de tiempo en todos los cursos de agua, por dicha razón, la expectativa principal de
este proyecto es el poder predecir estos sucesos; para ello se hará uso de sensores de caudal.
Teniendo en cuenta que es un plan de prevención, y que lo que se quiere es pronosticar
posibles inundaciones se medirá el flujo del volumen de agua dentro de cotas establecidas
entre el nivel más bajo del caudal y cuando su aumento de volumen puede ocasionar
desbordamientos de la cuenca.
Introducción
Actualmente el estudio del río Bogotá ocupa uno de los primeros lugares de
atención pública ante el creciente deterioro del mismo. Las tecnologías para el control
32 Programa de Ingeniería Civil, Semillero de Investigación adscrito al grupo Sistemas de Avanzada Tecnológica En Ingeniería Civil,
SATIC, Universidad Militar Nueva Granada, Santa Fe de Bogotá. Correo electrónico: [email protected]
168
del caudal evolucionan con mayor rapidez y a medida que se hacen más eficientes se
da espacio a la posible estimación de variaciones considerables del crecimiento y
decrecimiento del caudal que posea una cuenca específica.
Para el desarrollo del proyecto se pretende determinar un estudio que estime la
tendencia al riesgo de inundación que posee la Universidad Militar Nueva Granada
(Sede campus) al colindar con un tramo del río Bogotá que se ubica dentro de los
límites de la institución educativa .Para la realización de dicho proyecto se diseñará
un plan de gestión de riesgos en colaboración con la universidad, que se
desarrollará mediante un estudio monitoreado implementando el uso de sensores de
caudal.
Las alteraciones en el comportamiento de las condiciones climáticas, son un factor
determinante para este estudio, puesto que en el caso de la cuenca alta del río
Bogotá, actividades como la expansión de la frontera agrícola, la tala de árboles, la
sobreexplotación de los suelos y el mal uso del recurso hídrico señalan un alto
impacto en el aumento de precipitaciones, dando como consecuencia alteraciones en
los caudales y una degradación de la cobertura vegetal de la cuenca.
Metodología Empleada
El río Bogotá posee un curso de 255 km y en su recorrido riega tierras de 26
municipios, incluyendo la zona occidental del Distrito Capital.
El proyecto se realizará en diferentes fases, que establecerán parámetros relevantes
para su desarrollo:
Inicialmente se indagará sobre posibles inundaciones previas al estudio y se
determinará si el caudal del río ha incrementado o ha decrecido desde dichos eventos.
Luego se determinarán las épocas del año en las que se incrementa el caudal del río
por precipitación.
Es necesario especificar cuáles son las edificaciones con mayor cercanía a la cuenca
del río, puesto que estas son las que se encuentran expuestas a mayor riesgo de
probables inundaciones.
Adicionalmente se realizará un estudio de campo para visualizar la cuenca y el
terreno, se tomará registro fotográfico de lo que se considere relevante a estudiar
para el desarrollo del monitoreo.
Es importante establecer las ubicaciones adecuadas para situar los sensores. Para
tal fin se tendrá en cuenta las necesidades pertinentes para su uso.
Po último se procederá a realizar una lectura gradual a diferentes horas del día,
para determinar en cuales lapsos de tiempo y estados del clima, los distintos
169
sensores puedan indicar un crecimiento del caudal que supere el límite de la cuenca
del río, y cause afectaciones o riesgos para la comunidad neogranadina.
Los resultados nos permitirán generar tablas de información que serán organizadas
y utilizadas de la mejor forma, estas ayudarán a cuantificar las cotas de afectación y a
prever los factores que puedan impulsar el riesgo natural que deseamos evitar.
A partir de las estimaciones de los riesgos que genera el tramo del río, se procederá
a hacer uso del sistema de monitoreo sensorial, con el objetivo de desarrollar un plan
de prevención de riesgos en acción conjunta con la universidad.
Resultados y Conclusiones
Se realizaron investigaciones y consultas para conocer el comportamiento previo
del rio cuando continúe su curso en el sector que colinda en la Universidad Militar
Nueva Granada, gracias esto, se obtuvo:
RÍO BOGOTÁ: El río Bogotá nace al nororiente de Cundinamarca en el páramo de
Guacheneque municipio de Villapinzón, a 3300 m.s.n.m. y sus aguas fluyen hacia el
suroeste para desembocar al río Magdalena en Girardot a 280 m.s.n.m. drenando las
aguas de una cuenca de 6000 km2 con aproximadamente 7 millones de habitantes y
40 municipios.
Se encuentra localizado entre las coordenadas planas 1.055.000N; 1.035.000E;
1.080.000N y 1.065.000E.
Figura 1. Curso del río Bogotá. (es.wikipedia.org, 2016).
170
CARACTERIZACIÓN DE LA CUENCA DEL RÍO BOGOTÁ: Es una de las 14 cuencas
principales con que cuenta el departamento de Cundinamarca, se extiende
diagonalmente sobre el territorio departamental y ocupa un área de 6107 km2. En la
figura 2 se presenta la cuenca del río.
En la cuenca del río Bogotá se pueden distinguir tres tramos (Alto, Medio, Bajo),
pero en especial trataremos la cuenca alta del rio Bogotá: La cuenca alta del río al
norte de Bogotá con una longitud de 170 km, está comprendida entre dos puntos
extremos: el nacimiento del río Bogotá en el municipio de Villapinzón, hasta el Puente
de la Virgen en Cota, y su caudal medio en la estación de la virgen es de 13.5 m3/s.
En la figura 3 se muestra la descripción de la cuenca alta del río Bogotá.
Figura 2. Caracterización de la cuenca del río Bogotá. La imagen fue elaborada por los
autores.
Figura 3. Descripción de la cuenca alta del río Bogotá. La imagen fue elaborada por los
autores.
ANÁLISIS DE DATOS DE LAS ESTACIONES, EL ESPINO Y PUENTE DE LA VIRGEN: La
cuenca alta del Río Bogotá se comprende entre el municipio de Villapinzón y El puente
de la Virgen en Cota (Cundinamarca), en dicho tramo se establecen varias
171
estaciones de registro que realizan mediciones tanto de fluctuaciones de los niveles
de agua como de Caudal. En base a registros tomados de las estaciones (El Espino y
Puente la Virgen) se pudo realizar una investigación previa para observar
continuamente y tener en cuenta los cambios en los niveles de Caudal abarcados por
el tramo del Río Bogotá, ribera que cruza por la UMNG Campus.
Partiendo de que el tramo de estudio se ubica en medio de las dos estaciones, se
elaboró un cuadro comparativo de mediciones, para realizar un promedio y
visualizar de manera aproximada la cuenca en cuestión con respecto a su nivel y
Caudal actual.
Los resultados obtenidos son una aproximación de lo que se busca obtener del
monitoreo, ya cuando este se desarrolle, se obtendrán datos más confiables y
precisos.
Figura 4. Comparación estaciones de medida y tramo UMNG Campus. La imagen fue elaborada
por los autores.
Las principales conclusiones obtenidas del trabajo son:
- Se delimitó la cuenca del río Bogotá, por medio de estudios pertinentes,
dentro de límites preestablecidos en divisiones de la cuenca alta, media y
baja, y los posibles problemas ambientales que se puedan presentar al
aumentar la cota de afectación. Municipio Villa pinzón y el Puente de la
Virgen en Cota.
- La metodología presentada permite evaluar las características de red de
sensores adecuadas en cuanto a exactitud y efectividad de la medición de
caudales ante posibles escenarios de cambio climático incluyendo un estudio
172
de campo y registro fotográfico que coopera con el desarrollo del plan de
prevención de desastres.
- El presente trabajo se adelantó en condiciones restrictivas de disponibilidad
de información lo que introducen facilidades para la interpretación de los
datos obtenidos por medio de las estaciones del espino y puente de la
Virgen.
- Esta investigación desarrolló una metodología general que puede ser
utilizada para el mismo fin con otros ríos, sin duda alguna con buena
disponibilidad de información los resultados brindarán conclusiones
apropiadas para la disminución del riesgo de posibles desastres naturales de
los ríos.
- En el transcurso de este trabajo se evaluaron caudales con distintos niveles
de información desde estaciones con un monitoreo constante en la cuenca
alta del río, por ello brinda un buen blanco para la valoración del riesgo de
desastres, sin embargo se requiere continuar con este trabajo
complementándolo con los datos de la medición por métodos
convencionales y por red de sensores para generar el respectivo cuadro
comparativo entre estos registros y los de las estaciones consultadas con
anterioridad, También se deben reajustar los datos con los que brinda el
IDEAM debido a que en el transcurso del estudio no estaban disponibles.
Referencias
Alcaldía de Bogotá, CAR, plan de ordenación y manejo de la cuenca hidrográfica del río Bogotá.
Banco Mundial 1818 H Street NW Washington, Water Partnership Program (WPP), Gestión Integral de
Aguas Urbanas Estudio de Caso Bogotá.
Boada, Paola (2011). Caracterización climatológica de la cuenca alta del río Bogotá”.
Bogotá, A. D. (2015). Río Bogotá - El Espino. Obtenido de estación El Espino.
Bogotá, A. D. (2015). Río Bogotá - puente La Virgen. Obtenido de Estación puente la virgen.
Corredor, Jorge ( 2011). Identificación de los parámetros del modelo del número de curva y su
incertidumbre mensual en la cuenca alta del río Bogotá.
D´Crescenzo, Camilo (2009). Evaluación de impacto ambiental Método Riam.
Instituto de hidrología, meteorología y estudios ambientales (2007). Estudio de la caracterización
climática Bogotá y cuenca alta del río Tunjuelo/IDEAM. Bogotá D.C.
173
Análisis visual para el mayor
rendimiento del estudiante y menor
esfuerzo visual, en el edificio “D”
(aulas D101 y D102) de la
Universidad Militar Nueva Granada –
Sede Campus (Cajicá)
Julián Esteban Galvis Correa 33[autor]
Ayde Lucero Durán Devia 33[autor]
Resumen
Este proyecto de iniciación científica pretende determinar la cantidad de luz natural que
favorece la iluminación en las aulas 101 y 102, ubicadas en el primer piso del edificio D
construido recientemente en el campus de la Universidad Militar Nueva Granada; y evaluar si es
absolutamente necesaria la permanente activación de la luz artificial en estos salones, por
medio del análisis de datos obtenidos por la lectura de sensores que cumplan con el sistema
requerido que nos lleve a conocer la variable que nos inquieta en este momento y da origen al
presente proyecto.
Los sensores estarán ubicados en zonas relativamente oscuras o menos iluminadas de los
salones, para identificar el alcance de la luz natural. También se tendrá en cuenta el fácil
acceso para realizar la toma de datos, y garantizar que no sean manipulados por personas
ajenas al proyecto, que puedan generar interrupciones en el proceso o generen datos
incorrectos.
La contaminación ambiental en la actualidad es un tema que genera polémica en la sociedad,
debido a las consecuencias que nos afectan a todos. Teniendo en cuenta que el consumo de
energía eléctrica afecta al medio ambiente, el objetivo de este proyecto es analizar si es posible
reemplazar, en cierto modo, la luz incandescente o fluorescente por la luz natural; generando
una menor cantidad de CO2 y por lo tanto, contribuir a la disminución del calentamiento
global.
33 Programa de Ingeniería Civil, Semillero de Investigación adscrito al grupo Sistemas de Avanzada Tecnológica En Ingeniería Civil,
SATIC, Universidad Militar Nueva Granada, Santa Fe de Bogotá. Correo electrónico: [email protected]
174
Al finalizar el análisis de los datos obtenidos, determinaremos si es necesaria la luz artificial
en los salones ya mencionados, o en qué condiciones específicas se requiere de ésta
iluminación para que favorezca a la comunidad estudiantil y al medio ambiente de forma
simultánea.
Introducción
El uso diario que se le dan a las diferentes aulas de clase, en este caso algunas de
las que se encuentran en el edificio de ingeniería (bloque D), como el debido
crecimiento de la población neogranadina, hizo que el grupo de investigación SATIC
se cuestionará acerca del buen uso que se le da a la luz artificial ubicada en las aulas
D101 a D107 debido a que son salones de uso diario y de gran importancia para el
aprendizaje; hoy en día sabemos que el medio ambiente se ha convertido en una
herramienta fundamental para las diferentes tareas diarias que se nos presentan, la
idea es usar esta herramienta cuando se pueda y así generar cada día un menor
impacto ambiental.
Dentro de las aulas de clase a estudiar encontramos un problema en común, pues
estas poseen menos ventanas que los otros salones de clase, de esta forma se logra
identificar que la luz entrante es menor. A raíz de lo anterior, los estudiantes no
contienen el ambiente más adecuado de aprendizaje, lo que causa
desconcentraciones y bajo rendimiento académico; además se maneja el tema de
impacto ambiental que causa la luz artificial, donde la luz artificial puede ser gastada
de forma innecesaria, lo que causa poco ahorro en la economía de la universidad y
también podría causar enfermedades en las personas que dan uso a estas aulas ya
que se emite una radiación infrarroja.
La pregunta de investigación planteada es la siguiente: De acuerdo al progresivo
crecimiento que se ha venido dando del programa de ingeniería y demás programas
que dan uso de las aulas del edificio D ¿Es suficiente la luz natural que entra a las
aulas de clase D-101 y D-102, para garantizar un espacio adecuado de aprendizaje?
Los objetivos planteados en el trabajo investigativo son los siguientes:
- Analizar, evaluar y medir la cantidad de luz natural que entra en las aulas 101
y 102 del Bloque D de la Universidad Militar Nueva Granada, para poder
desarrollar un método que pueda controlar todo el sistema eléctrico y
determine la necesidad del consumo de energía; que podrá establecer un nivel
óptimo de intensidad para tareas visuales de complejidad media, que ayudarán
a potenciar un consumo de energía eléctrica.
- Ubicar de manera estratégica los equipos a utilizar, garantizando datos
completamente puntuales.
175
- Análisis de sensores mediante herramientas tecnológicas disponibles,
(software gratuito) para cualificar su impacto.
- Realizar la toma de datos mediante los análisis de sensores.
- Cuantificar la cantidad de luz natural que ingresa a los salones evaluados, por
medio de un software, que permita determinar si la luz que hay en las aulas es
suficiente para evitar el uso de energía eléctrica (salones D101 y D102).
- Desarrollar y proponer un documento con el análisis estadístico pertinente de
los datos recopilados.
- Buscar posibles soluciones a los salones que carecen de la entrada de luz
natural, desarrollando propuestas (a futuro) que reduzcan de alguna forma el
consumo de energía eléctrica en estos puntos.
La idea de este proyecto, surge de la necesidad de evaluar si la luz natural en los
salones es la adecuada para la visión promedio de los estudiantes o si se debe usar la
luz artificial para beneficiar al usuario de las instalaciones.
Metodología Empleada
Con el fin de prever distintas situaciones que puedan afectar el proceso de
investigación, se hace necesario evaluar algunos fenómenos o factores que puedan
afectar la intensidad de luz presente, de esta forma el proyecto esta evaluado en
distintas fases:
1. Identificar factores como:
El clima, porque no estamos exentos de encontrarnos con días más cálidos que
otros, en caso de estar nublado, se tendría poca iluminación.
La hora, se estipularan horarios para la toma de los datos, ya que si se realizaran
tomas en la noche no sería lógico. Los horarios para evaluar serian 7:30 am, 12:00 y
4:00pm, se enfatizan estos ya que son las horas más frecuentadas.
La salud visual, en este caso no todas las personas poseen la salud visual en
óptimas condiciones para ver, o simplemente son más sensibles, lo que provoca
que no haya unificación en este sentido.
2. Buscar un sitio adecuado para hacer la toma de datos, es decir el punto más
crítico con el que se pueda llegar a un buen análisis.
3. Después de tener todo lo anterior ya se puede empezar a tomar las mediciones
en los horarios nombrados anteriormente, el sensor a usar seria el luxómetro, ya
que nos da facilidad de lectura y es de fácil manejo.
4. Tomar nota de cada uno de los valores observados en el display del luxómetro.
176
5. Tabulación de los datos recolectados, a través del programa Excel se realizaran
tablas para que la información quede organizada y entendible.
6. Con los datos anteriores se realizaran gráficas a las cuales se le puedan
realizar un análisis y llegara a la conclusión.
7. Finalmente se le da solución de ser posible al problema planteado inicialmente
y podemos llegar a obtener los siguientes resultados: Luego del análisis de los
datos obtenidos a partir de las lecturas generadas por dichos sensores también, al
realizar dicho análisis, respecto al clima como los casos de soleado o nublado, se
propondrán diferentes soluciones para que la iluminación sea la más adecuada en
las aulas y no se requiera de mucho apoyo por parte de la luz artificial.
Mediante el análisis de los datos recopilados por medio de los sensores, es posible
dar respuesta a la hipótesis, acerca de la intensidad de luz requerida en un ambiente
de aprendizaje.
Resultados y Conclusiones
Como el proyecto apenas se encuentra en etapa de planeación, se ha propuesto
como meta analizar la cantidad de luz presente en las aulas 101 y 102 del edificio D,
de la Universidad Militar Nueva Granada para el manejo efectivo de la iluminación
natural; el cual se desarrollará salón a salón y establecerá un patrón como manejo de
información según su ubicación y su estado, teniendo en cuenta pruebas en horarios
diurnos que establecerán la capacidad de apoyo visual, y que permitirán reducir el
consumo medido de la energía electricidad.
Este proyecto está encaminado a ser usado por varias entidades educativas a nivel
nacional e internacional, y se pretende que el mismo, se establezca como punto de
partida para nuevos sistemas que brinden la capacidad de mejorar el nivel visual en
ciertas áreas y sea posible implementarlo en otras entidades, como las comerciales y
administrativas, abarcando diferentes zonas de trabajo.
Referencias
Escuela de ingenieros Julio Garavito. (2008). Iluminación Protocolo. Bogotá.
Hick, R. L., &Leinen, R. A. (2012).Patente nº US8227731 B2. Estados unidos.
Javier. (18 de Marzo de 2011). Blogspot. Recuperado el 3 de Mayo de 2015, de http://javier-
temporizadores.blogspot.com/2011/03/sensores-fotoelectricos-un-sensor.html
Led Box. (2012). Recuperado el 3 de Mayo de 2015, de http://blog.ledbox.es/informacion-led/637
177
QuimiNet. (2011). Recuperado el 3 de Mayo de 2015, de http://www.quiminet.com/articulos/el-
luxometro-la-mejor-opcion-para-controlar-los-niveles-de-iluminacion-en-la-industria-
2575351.htm
Whitttaker, R. (2003). CyberCollege. Recuperado el 3 de Mayo de 2015, de
http://www.cybercollege.com/span/tvp029.htm
Lu, J., Birru, D., Whitehouse, &Kamin. (2010). Using simple light sensors to achieve smart daylight
harvesting. New York: ACM New York.
Begemann, S. H., Van Den Beld, G. J., &Tenner, A. D. (1997). Patente nº US5648656 A. Estados
Unidos.
Carlson, R. S. (1982). Patente nº US4347461 A. Estados Unidos.
Pierpoint, W. (1981). Patente nº US4273999 A. Estados Unidos.
Saraceni, R. (1980). Patente nº US4225808 A. Estados Unidos.
Smith, M. N. (1976). Patente nº US4135116 A. Estados Unidos.
Ayres, J. A. (2007). Patente nº US7253570 B2. Estados Unidos.
Eckel, D. P., Tansi-Glickman, S., Bonasia, G., Hebeisen, S. P., &Porter, J. A. (2002). Patente nº
US6388399 B1. Estaos Unidos.
Evansm, D. F. (2006). Patente nº US7045975 B2.Estados Unidos.
Hick, R. L., & Leinen, R. A. (2009).Patente nº US7608807 B2.Estados Unidos.
Hoffknecht, M. (2004).Patente nº US20040002792 A1.Estados Unidos. Miki, M. (2009). Patente nº US7633406 B2.Estados Unidos.
Paton, J. D. (2007). Patente nº US7190126 B1. Estados Unidos.
178
Comparación de la sensórica
implementada en equipos de fatiga
de pavimentos existentes entre
América y Europa
Jenny Gabriela Prado Quintero 34[autor]
Ángel Santiago López Marroquín 34[autor]
Johan David Barajas Pinilla 34[autor]
Camilo Andrés Galvis Morales 34[autor]
Resumen
En nuestra vida cotidiana es evidente que los pavimentos no han sido desarrollados de una
manera total y eficiente, que garantice una vida útil apropiada para todas las necesidades que
día a día son exigidos los pavimentos tanto por carga como por factores climáticos, es por esto
que como grupo de investigación queremos informar cuales son los avances que hasta ahora
tiene el área de los pavimentos en cuestión de pruebas de fatiga y todo el equipo utilizado
para evaluar los comportamientos de los pavimentos y observar variaciones con diferentes
dispositivos que miden la deformación y demás sensores que evidencian otros efectos sobre
las propiedades del pavimento sometido a cargas.
Con el objetivo de realizar una comparación de los avances y desarrollos que presentan los
diferentes equipos de fatiga tanto en América como en Europa, con el fin de incentivar la
investigación e innovación de esta rama tan importante de la ingeniera civil.
Introducción
La presente investigación abarca los temas referentes a la intensidad de luz
adecuada para un ambiente académico, también las características y beneficios que
representan la luz natural y su medición por medio de sensores.
La idea de este proyecto, surge de la necesidad de evaluar si la luz natural en los
salones es la adecuada para la visión promedio de los estudiantes o si se debe usar la
luz artificial para beneficiar al usuario de las instalaciones. A continuación se pretende
especificar y dar a conocer los avances de esta investigación.
34 Programa de Ingeniería Civil, Semillero de Investigación adscrito al grupo Sistemas de Avanzada Tecnológica En Ingeniería Civil,
SATIC, Universidad Militar Nueva Granada, Santa Fe de Bogotá. Correo electrónico: [email protected]
179
Metodología Empleada
Con el fin de prever distintas situaciones que puedan afectar el proceso de
investigación, se hace necesario evaluar algunos fenómenos o factores que puedan
afectar la intensidad de luz presente, de esta forma el proyecto está evaluado en
distintas fases:
1. Identificar factores como:
El clima, porque no estamos exentos de encontrarnos con días más cálidos que
otros, en caso de estar nublado, se tendría poca iluminación.
La hora, se estipularan horarios para la toma de los datos, ya que si se realizaran
tomas en la noche no sería lógico. Los horarios para evaluar serian 7:30 am, 12:00 y
4:00pm, se enfatizan estos ya que son las horas más frecuentadas.
La salud visual, en este caso no todas las personas poseen la salud visual en
óptimas condiciones para ver, o simplemente son más sensibles, lo que provoca que
no haya unificación en este sentido.
2. Buscar un sitio adecuado para hacer la toma de datos, es decir el punto más
crítico con el que se pueda llegar a un buen análisis.
3. Después de tener todo lo anterior ya se puede empezar a tomar las mediciones
en los horarios nombrados anteriormente, el sensor a usar seria el luxómetro, ya que
nos da facilidad de lectura y es de fácil manejo.
4. Tomar nota de cada uno de los valores observados en el display del luxómetro.
5. Tabulación de los datos recolectados, a través del programa Excel se realizaran
tablas para que la información quede organizada y entendible.
6. Con los datos anteriores se realizaran gráficas a las cuales se le puedan
realizar un análisis y llegara a la conclusión.
7. Finalmente se le da solución de ser posible al problema planteado inicialmente
y podemos llegar a obtener los siguientes resultados:
Luego del análisis de los datos obtenidos a partir de las lecturas generadas por
dichos sensores también, al realizar dicho análisis, respecto al clima como los casos
de soleado o nublado, se propondrán diferentes soluciones para que la iluminación
sea la más adecuada en las aulas y no se requiera de mucho apoyo por parte de la luz
artificial.
Mediante el análisis de los datos recopilados por medio de los sensores, es posible
dar respuesta a la hipótesis, acerca de la intensidad de luz requerida en un ambiente
de aprendizaje.
180
Resultados y Conclusiones
Se han propuesto los siguientes objetivos generales y específicos del proyecto de
investigación:
Ubicar de manera estratégica los equipos a utilizar, garantizando datos
completamente puntuales.
Análisis de sensores mediante herramientas tecnológicas disponibles, (software
gratuito) para cualificar su impacto.
Realizar la toma de datos mediante los análisis de sensores.
Cuantificar la cantidad de luz natural que ingresa a los salones evaluados, por
medio de un software, que permita determinar si la luz que hay en las aulas es
suficiente para evitar el uso de energía eléctrica (salones D101 y D102).
Desarrollar y proponer un documento con el análisis estadístico pertinente de los
datos recopilados.
Buscar posibles soluciones a los salones que carecen de la entrada de luz natural,
desarrollando propuestas (a futuro) que reduzcan de alguna forma el consumo de
energía eléctrica en estos puntos.
Referencias
Alcaldía Mayor de Bogotá (2011). Manual de instrumentación de pavimentos. Bogotá D.C.: Instituto
de desarrollo urbano, Universidad de los Andes.
Dussan Navarro, Eduardo y Flautero Valencia, Fernando (2005). Automatización de ensayos
dinámicos del laboratorio de pavimentos en el equipo N.A.T. de la Pontificia Universidad
Javeriana [Trabajo de grado]. Bogota D.C.: Pontifica Universidad Javeriana.