View
238
Download
6
Category
Preview:
DESCRIPTION
Revista SIRIO FUSM
Citation preview
Editorial Ing. Hans Igor López Chávez Coordinador de Investigación Facultad de Ingeniería FUSM Ambiente de Negociación Automática en el Ámbito del Comercio Electrónico Asistida por Agentes Inteligentes de Software. Fabián Giraldo, Docente Investigador, Ingeniería de Sistemas. Kevin Novoa, Diego Bonilla, Estudiantes, Ingeniería de Sistemas. Análisis Exploratorio de las Microempresas de Reciclaje en Bogotá. Diego Suero, Samuel Alfonso, Johanna Bocanegra, Jefferson Palencia, Alejandra Sanabria. Redes 4G, una evolución de las redes Ad Hoc Móviles Jorge A. Arévalo, Docente Investigador, Ingeniería de Telecomunicaciones.
Aplicación de Metaheurísticas para Secuenciación de Máquinas en el Modelo Básico. Fabián Giraldo, Docente Investigador, Ingeniería de sistemas. Modelo Conceptual para el Transporte en Bicicleta de la Ciudad de Bogotá. Diego F. Suero, Docente Investigador, Ingeniería Industrial. Usando UML en el diseño de sistemas digitales Jorge A. Arévalo, Docente Investigador, Ingeniería de Telecomunicaciones.
Diagnóstico de la reforma agraria dirigida al incremento de la producción de maíz amarillo en Colombia desde el año 2002 hasta el 2006 y propuesta de medidas alternativas hacia el futuro. Adolfo E. Chávarri , Egresado, Ingeniería Industrial. Compresión y Transmisión de Imágenes Ecográficas. Eliana M. García, Juan D. Prieto, Egresados, Ingeniería Electrónica y Telecomunicaciones.
5 7 15 19 23 33 35 41 45
Resumen—El comercio electrónico se ha convertido en un desafío de negocios debido a su funcionalidad, sin embargo fases como: la búsqueda y selección de productos, búsqueda y selección del vendedor y los mecanismos de negociación en ambientes web (elementos importantes en el modelo de compra del consumidor), son tareas bastante manuales. En la actualidad, un usuario que desea adquirir un producto debe visitar en muchas ocasiones decenas de tiendas virtuales, para terminar en muchas ocasiones desistiendo de adquirir el bien deseado.
El comercio electrónico ofrece muchas más oportunidades para mejorar la forma en que los negocios o empresas interaccionan con sus clientes. El objetivo es aprovechar el potencial real que puede proporcionar un entorno electrónico, dar un paso más, e introducir en los sistemas, procesos de negociación automática.
La negociación automática puede permitir la comparación a gran escala de productos con un gran número de características, abaratar costos, ofrecer servicios mas personalizados, y dotar de mayor agilidad a las transacciones. Dada la naturaleza de las tareas implicadas en el comercio electrónico, la tecnología de agentes puede jugar un papel muy importante, donde los agentes actuaran como compradores, vendedores, mediadores, proveedores de información; en definitiva, los agentes automatizarán una parte o todas las tareas necesarias en los procesos de transacciones comerciales [1].
La idea del presente trabajo es presentar la implementación de un sistema multiagente Web implantado en la plataforma JADE, que resuelve algunas fases del modelo de negociación automática.
Palabras Claves—Comercio electrónico, negociación automática,
Sistemas multiagentes, JADE, FIPA, Ontologías.
I. INTRODUCCION
L comercio electrónico se ha convertido en un desafío de
negocios debido a su funcionalidad, los clientes pueden llegar
a una e-tienda en cualquier momento, ir de compras y llenar un
carro completo; incluso, salir de la tienda sin necesidad de
comprar nada. Por lo tanto, atraer clientes y persuadirlos para
comprar no es una tarea fácil. Se ha convertido en uno de los
temas más importantes en los últimos años.
Los clientes generalmente tienen conocimiento sobre los
productos o servicios que satisfacen sus necesidades,
adicionalmente están conformes con esta nueva forma de realizar
negocios, mientras que los vendedores están felices de vender
sus productos o servicios por este medio.
Por lo tanto, el comercio electrónico se convierte en una
estrategia destacada. Algunos clientes comparan los precios de
un mismo producto procedentes de varias tiendas antes de tomar
la decisión de compra.
En la forma tradicional los usuarios visitan establecimientos
comerciales y van comparando tienda a tienda, lo cual involucra
mucho tiempo. El mercado electrónico ofrece más ventajas a los
clientes, estos pueden entrar en línea y buscar los productos
requeridos; sin embargo, no es tan fácil para el cliente satisfacer
sus necesidades debido a las miles de opciones que se pueden
encontrar en un sitio Web.
Un agente de software se puede emplear en este punto debido
a sus propiedades de autonomía, capacidad de negociación,
reactividad y proactividad [2].
La idea básica es diseñar e implementar plataformas de
negociación que permitan a agentes de software automatizar
algunas fases del modelo de comportamiento de compra, a saber:
gestión de búsqueda y selección del producto, gestión de
búsqueda del vendedor, y la negociación automática [3].
La fase de negociación automática no se identifica
normalmente, sin embargo constituye un importante desafio en el
ámbito del comercio electrónico mediado por agentes. En
negociaciones humanas, dos o mas partes interaccionan entre
ellas para determinar el precio o algún otro término de la
transacción. En una negociación automática, son los agentes de
software los que llevan a cabo procesos similares para llegar al
mismo fin. Básicamente lo que se hace es preparar ofertas que se
envían a los otros agentes implicados, y analizar las ofertas que
se reciben con el objetivo de conseguir el máximo beneficio, para
el usuario que representan. Estas tareas se desarrollan conforme
a una estrategia de negociación, que estará acotada por el
protocolo de negociación establecido. Este protocolo define las
reglas de encuentro entre los agentes, es decir quien puede decir
qué, a quién y en qué momento. Dada la extensa variedad de
posibilidades, no existe una aproximación o técnica universal para
el problema de la negociación automática. En su lugar, los
protocolos y las estrategias tienen que adaptarse en función de
las diferentes situaciones o escenarios que se plantean [3].
Fabián Giraldo, Docente Investigador, Kevin Novoa, Diego Bonilla, Estudiantes, Ingeniería de Sistemas.
E
Ambiente de Negociación Automática en el Ámbito del Comercio Electrónico Asistida por Agentes Inteligentes
de Software
El presente trabajo pretende ilustrar un sistema Multiagente en
ambiente Web implantado en la plataforma JADE, que trata de
automatizar las fases de comportamiento de compra. En la fase
de gestión de búsqueda y selección del producto, los agentes
razonarán sobre una ontología de servicios predeterminada, la
cual es utilizada por los establecimientos comerciales para
describir los productos que comercializan. Adicionalmente se
dotará a las tiendas de comercio electrónico de sistemas
inteligentes, como: sistemas de recomendación basada en
técnicas de filtrado colaborativo, y sistemas de suscripción, con el
fin de ofrecer productos y servicios de interés para un usuario
automáticamente.
En la fase de selección de los vendedores, se tendrá un
módulo de decisiones que permite elegir los mejores agentes de
venta, basados en las características de los productos que ofertan
los establecimientos comerciales.
En la fase de negociación se considera en primera instancia el
protocolo de coordinación FIPA Contract-NET, que permite a
agentes de compra solicitar ofertas a los agentes de venta sobre
productos de interés.
El escenario básico que se puede considerar es aquel en el
que existen agentes de compra implementados en plataforma
JADE que son configurados por un cliente particular a través de
una aplicación web y cuya tarea básica es buscar, seleccionar y
establecer una negociación con agentes de ventas (Representan
establecimientos comerciales) que ofrezcan productos que suplan
sus necesidades de su cliente.
II. TRABAJOS RELACIONADOS
A. Intelligent AuctionBot for Forward and Reverse English Auction
Mohammad Zahidur Rahman, Mohammad Fozlul Haque
Bhuiyan y Nur Afroza Khurshed, de la Universidad de
Jahangirnagar Bangladesh, proponen un AuctionBot Inteligente,
basado en un sistema de subasta inglesa donde las pujas pueden
ser realizadas tanto por agente de software como por agentes
humanos.
Presentan dos estrategias de funcionamiento parametrizables.
La primera, una subasta inglesa hacia delante, en la cual un
vendedor publica un ítem o un grupo de ítems y los compradores
realizan las ofertas durante un tiempo especificado por el
vendedor, gana la oferta más alta antes del tiempo de expiración.
Y la segunda, una subasta inglesa inversa, en la cual los
compradores publican un requerimiento de compra de un ítem o
un grupo de ítems. Los vendedores realizan ofertas hasta que el
tiempo especificado por el comprador expira, gana la oferta más
baja.
El diseño arquitectónico de AuctionBot, presenta dos
elementos: una interfaz Web para seres humanos y una interfaz
TCP-IP para agentes de software. La interfaz y el programa de
subasta actualizan un sistema de bases de datos centralizado.
Los agentes humanos o usuarios del sistema inicializan una
subasta configurando una serie de formularios Web, los agentes
de software realizan la configuración en una interfaz específica
para agentes. El formulario final de datos y el programa de la
subasta es insertada en la base de datos y es marcada como no
procesada hasta que el usuario envía una confirmación de los
datos configurados.
El proceso de negociación es controlado por un demonio que
está supervisando constantemente la base de datos y registra los
eventos de cada una de las subastas, para estar informando a los
usuarios propietarios. Entre los parámetros solicitados por la
interfaz de AuctionBot se encuentran: el ítem que se va a adquirir
o comprar, el tipo de subasta (inversa ó hacia adelante), el
propietario de la subasta, la categoría, la hora de inicio, la hora de
fin, la oferta mínima o máxima aceptada, número de ofertas a
realizar, formas de pago, opciones de compra, localización
geográfica en la cual aplica la subasta y términos de envio.
Entre sus desarrollos futuros planean desarrollar mecanismos
para soportar la participación de usuarios registrados en una
plataforma Web en subastas simultáneas, y de las cuales pueden
conocer su evolución a través del propio portal [4].
B. Model of Multi-Agent Based on Personalized Transactions in Electronic Commerce
CHEN Xiao-fang, WANG Ying, de la universidad School of
management, WuHan University of Technology, P.R.China,
realizan un estudio de diferentes patrones de evolución, en
sistemas de comercio electrónico, tales como: Cliente –
Vendedor, en el cual los clientes adquieren el bien realizando el
contrato directo con el vendedor; el patrón Cliente –
Supermercado – Vendedor, en el cual existe un intermediario
encargado de comercializar diferentes productos de los
vendedores, en los cuales el cliente realiza la negociación con el
supermercado y este a su vez se encarga de realizar la
negociación con los vendedores; y el patrón Cliente - Agencia
Web – Vendedor, en el cual existen agencias Web que se
encargan de realizar subastas de productos de vendedores de
acuerdo a la configuración realizada por estos últimos y los
compradores realizar pujas sobres los productos publicados.
Basados en el estudio de estos patrones y del análisis de las
características de los consumidores y compradores, concluyen
que es necesario automatizar los procesos de compra y venta de
productos y proponen un modelo de sistemas multiagente basado
en la personalización de las transacciones electrónicas, utilizando
las plataformas JADE y JESS. Se busca entonces, realizar un
modelo en el cual los compradores tengan agentes de compra
configurables (en producto, precio, método de pago), los
vendedores tengan agentes vendedores configurables (en lista de
productos , características de los productos: precio, método de
pago) y exista una agencia de agencias con un arquitectura que
soporte tecnologías de la Web semántica donde se puedan
realizar encuentros de agentes y negociaciones automáticas en
las cuales se pueda llevar control sobre los contratos y el pago de
los productos.
Adicionalmente proponen la incorporación de una red neuronal
bayesiana encargada de analizar todas las transacciones
electrónicas, con el fin de buscar patrones de comportamiento de
los consumidores para así tener un sistema de soporte a
decisiones para futuras compras [5].
C. GAMA (Genetic Algorithm driven Multi-Agents) for E-Commerce Integrative Negotiation
Dr. Magda B. Fayek, Dr. Ihab A. Talkhan, Khalil S. (El-Masry de
Cairo Univ. Faculty of Eng) proponen GAMA, un agente
intermediario de compra que permite a los compradores
considerar un amplio número de propuestas de comerciantes
antes de tomar decisiones de compra. El sistema ayuda a los
compradores en dos elementos importantes: búsqueda de
productos y negociación. La búsqueda de productos es realizada
por agentes de compra, utilizando como base un algoritmo
genérico que direcciona el espacio de búsqueda, basada en los
mejores productos ofrecidos y considerando los criterios
especificados por los compradores. En primera instancia crea una
población inicial aleatoria de individuos, cada individuo representa
un producto específico ofrecido y cada gen representa un atributo
de los diferentes ítems a considerar en el producto.
El fitness es calculado basado en criterios de satisfacción del
cliente, configurados por el usuario utilizando la teoría de utilidad
multicriterio. La selección, el cruce y la mutación son aplicados a
la población para evolucionar a la siguiente generación.
La negociación es implementada usando la técnica de
algoritmos genéticos colaborativos. El protocolo de negociación
está basado en la comparación de ítems idénticos. Cada ítem es
un producto a ser vendido. Adicionalmente cada ítem tiene un
nombre y una lista de atributos, cada atributo tiene un nombre y
un indicador de pesos relativo y un peso relativo al criterio
especificado por el comprador. El agente de ventas de GAMA
mantiene una lista local de precios junto con una lista de
productos élites para ofrecer, caracterizado por cada uno de sus
atributos [6].
D. Kasbat: An agent MarketPlace for Buying and Selling Goods
Authony Chevez, Pattie Maes del MIT Media Lab. Proponen
Kashbat, un sistema multiagente para el comercio electrónico
implantado sobre la Web, donde los usuarios pueden configurar y
parametrizar agentes autónomos para restringir su operación en
acciones de compra y venta de productos. Kashbat fue
desarrollado en CLOS (Common Lisp Object System) usando
Harlequin Lisp e incorpora una plataforma de negociación que
permite el encuentro entre agentes compradores y vendedores.
Los agentes de compra son agentes proactivos; básicamente
ellos toman la iniciativa y buscan en la plataforma de negociación,
agentes que vendan los productos solicitados por los usuarios que
representan. Uno de los elementos importantes de la plataforma
es que el usuario es el que tiene el control sobre las estrategias
de negociación de los agentes. El usuario puede especificar una
función de decadencia, esto con el fin de guiar al agente sobre el
mecanismo para bajar el precio ofertado sobre determinado bien.
También puede escoger entre tres opciones de negociación:
lineal, cuadrática y cúbica. Agentes más sofisticados podrían
tener diferentes parámetros para definir sus estrategias de
negociación [7].
E. Agent-based Price Negotiation System for Electronic Commerce
Jinkai Wang y Youlin Chen, de Tongji University, desarrollaron
un Agente de negociación basado en precio para un sistema de
comercio electrónico. Los autores proponen un framework para el
desarrollo de agentes cuya función es la realización de
negociaciones automáticas basada en precio y un modelo de
negociación utilizando técnicas de teoría de juegos.
La arquitectura del sistema se centra en la estructuración de un
sistema multiagente, con una definición de tareas para cada uno
de los agentes que conforman el sistema, los cuales son: interfaz,
cognitivo, de estudio y de procesamiento. El de interfaz se
encarga de obtener la información de los productos requeridos por
los clientes, mientras que el agente cognitivo, toma dicha
información y envía la información clasificada a los agentes de
estudio y agentes procesamiento.
Los agentes de estudio son los encargados de garantizar que
los productos y las tareas designadas por los usuarios se
cumplan, para lo cual realizan una descomposición y una
administración de las mismas, con el fin de conocer si debe
delegar responsabilidades a otros agentes del sistema. El agente
procesador combina la información transferida por el agente de
estudio y el agente cognitivo con una librería de modelos que
permite procesar toda la información y determinar si se pueden
cumplir los objetivos establecidos.
Para la comunicación de los agentes proponen el diseño de un
protocolo de comunicación propio, básicamente son cadenas de
texto con una forma preestablecida.
El proceso de negociación realizado se basa en la aplicación
de los conceptos básicos de la teoría de juegos cooperativo; en
los cuales, un grupo de actores colisionan para establecer un
acuerdo sobre la compra de un producto [8].
III. MARCO CONCEPTUAL
A. Sistemas multiagentes
Un sistema multi-agente es un conjunto de entidades
inteligentes, llamadas agentes, generalmente heterogéneos y
potencialmente independientes que coordinan y trabajan en
común resolviendo problemas individuales o globales.
Aunque no existe una definición universalmente aceptada de
agente, para el caso del presente trabajo se puede considerar
como una aplicación informática que tiene capacidades para:
hacer parte de una organización social, utilizar estrategias de
coordinación y cooperación para el logro de objetivos
compartidos, y utilizar estrategias de negociación inteligente.
Existen muchas plataformas para el desarrollo de aplicaciones
multiagentes, siendo JADE (Java Agent Development) una de las
más utilizadas.
JADE es una estructura software que simplifica el desarrollo de
sistemas multiagentes de acuerdo con las especificaciones FIPA
para la interoperabilidad de sistemas de agentes inteligentes. Es
un software libre y de código abierto, que ha sido desarrollado por
el CSELT del grupo Telecom Italia, en parte del proyecto de
investigación europeo ACTS AC17 ―FACTS‖. Tanto JADE, como
los agentes que el usuario define para una aplicación específica,
utilizan el lenguaje de desarrollo JAVA, lo que aporta a la
plataforma una total independencia del sistema o sistemas
operativos empleados.
La plataforma de agentes puede estar distribuida entre distintas
máquinas y su configuración puede ser cambiada en cualquier
momento, ya que JADE permite la movilidad y clonación de
agentes de una máquina a otra. JADE, siguiendo las
especificaciones FIPA, implementa aquellos aspectos de un
sistema multi-agente, que no son particularidades internas del
agente y son independientes del tipo de aplicación [9].
Los protocolos FIPA, definen los actos comunicativos y las
reglas de coordinación que deben seguir para utilizar la
interoperabilidad de agentes. Entre los protocolos FIPA se pueden
nombrar FIPA-ContracNet y FIPA suscription, que son utilizados
en plataforma.
El conjunto de clases ContractNet permite implementar el
protocolo FIPA-Contract-Net. Este protocolo de interacción
permite al Iniciador enviar una solicitud de propuesta (Call for
Proposal) a un conjunto de Respondedores, evaluar sus
proposiciones y después aceptar la preferida de todas (o incluso
rechazarlas todas). Este protocolo de interacción está
profundamente descrito en las especificaciones FIPA.
El Iniciador solicita propuestas de otros agentes enviando un
mensaje CFP que especifica la acción a llevar a cabo y, en caso
de ser necesario, condiciones sobre la ejecución. Los
Respondedores pueden entonces responder enviando un
mensaje PROPOSE incluyendo las precondiciones que
prepararon para la acción, por ejemplo, el precio o el tiempo.
Alternativamente, los Respondedores pueden enviar un mensaje
REFUSE para rechazar la propuesta o, eventualmente, un NOT-
UNDERSTOOD para informar de problemas de comunicación. El
iniciador puede entonces evaluar todas las propuestas recibidas y
hacer su elección de qué proposición de agente será escogida y
cuál rechazada. Una vez que los Respondedores cuya
proposición ha sido aceptada (por ejemplo, aquellos que han
recibido un mensaje ACCEPT-PROPOSAL) han completado sus
tareas pueden, finalmente, responder con un INFORM con el
resultado de la acción (eventualmente justo cuando la acción ha
sido realizada) o con un mensaje de FAILURE si cualquier cosa
ha salido mal.
Antes de que la acción haya sido llevada a cabo y el último
mensaje se haya recibido el iniciador puede incluso decidir
cancelar el protocolo enviando un mensaje de CANCEL [10].
El conjunto de clases Subscription permiten implementar el
protocolo FIPA-Subscription. Este protocolo de interacción permite
al agente Iniciador enviar un mensaje SUBSCRIBE al agente
Respondedor indicando que quiere suscribirse. El agente
Respondedor procesa el mensaje y responde, bien aceptando o
rechazando la suscripción. Si el Respondedor rechaza la petición,
comunica un mensaje REFUSE, pero si está de acuerdo
comunica un mensaje AGREE, que es opcional. En caso de no
entender el mensaje, envía NOT-UNDERSTOOD.
Si el Respondedor está de acuerdo, comunica todo el
contenido emparejando la condición de las subscripciones usando
un INFORM-RESULT; por ejemplo, un acto comunicativo
INFORM con un predicado de resultado como contenido. El
Respondedor continúa enviando INFORM-RESULT hasta que el
Iniciador cancela, comunicándolo con un mensaje CANCEL, o
hasta que el Respondedor sufre un fallo, comunicándolo con un
mensaje FAILURE [10].
Adicional al soporte de la especificación FIPA, Jade presenta
una serie de comportamientos que los agentes pueden utilizar
para definir sus acciones, entre los cuales se encuentran
OneShotBehaviour y CyclicBehaviour. Este tipo de
comportamientos se corresponden con la clase SimpleBehaviour
que representa a comportamientos atómicos, que suelen realizar
tareas simples [11].
B. Sistemas de Recomendación
Los Sistemas de Recomendaciones (SR) constituyen una
herramienta de inestimable ayuda en el ámbito del comercio
electrónico. Cuando la oferta de productos de una tienda
electrónica es muy grande, los usuarios pueden sentirse
desbordados al tener que elegir entre una gran diversidad de
alternativas. Los SR son capaces de restringir este conjunto de
alternativas y proporcionar al usuario un subconjunto con aquellas
que probablemente mejor se ajusten a sus necesidades y gustos.
Son varios los modelos que pueden seguirse para construir un
SR: colaborativos, basados en contenido; demográficos, basados
en conocimiento y los basados en utilidad [12].
Los sistemas de recomendación basados en algoritmos de
filtrado colaborativo utilizan las valoraciones de los usuarios sobre
ciertos elementos del conjunto total para predecir valoraciones en
el resto de los elementos y recomendar los de mayor valoración
predicha.
Existe una serie de herramientas informáticas para este fin, sin
embargo unas de las más prometedoras y de mejor desempeño,
es el proyecto Apache Mahout, que tiene como objetivo
implementar algoritmos para el aprendizaje de máquinas, entre
sus subproyectos se encuentra uno directamente ligado a las
técnicas de filtrado colaborativo [17].
C. Enfoque de Solución
Para dar soporte a cada una de las operaciones enumeradas
se desarrollaron los siguientes elementos, ilustrados en la Fig.1.
Capa Web: El portal Web del proyecto, está especializado en la
venta de instrumentos musicales por internet, contiene todos los
elementos básicos para que los usuarios interesados en adquirir
productos musicales lo puedan realizar, para la estructuración de
este componente se tuvo en cuenta el patrón arquitectónico MVC
(Modelo – Vista - Controlador) teniendo como base las siguientes
capas:
Fig. 1. Componentes Aplicación Construida.
Capa de Presentación (Vista): En esta capa se encuentran
las páginas HTML planas (páginas de información al usuario), las
páginas JSP (páginas de interacción con el usuario), documentos
de estilo, código JAVAScript (funciones de presentación
dinámicas).
Capa de Negocio (Modelo): En esta capa se encuentran las
fachadas lógicas, representadas por clases JAVA, los cuales
proveen la funcionalidad a la que pueden acceder desde los
controladores. De igual forma, en esta capa se encuentran los VO
(Value Object) que representan cada una de las entidades que
comprenden el dominio del problema y que procesan las
diferentes peticiones realizadas con el fin de proveer respuesta y,
de igual forma, de enviar y consultar la información necesaria
hacia y desde la capa de persistencia, respectivamente.
Capa de Persistencia: En esta capa se encuentra las clases
JAVA que componen la fachada de persistencia, y los DAO (Data
Access Object) que se encargan de la administración de tareas de
persistencia del sistema.
Controlador: En esta capa se encuentran los servlets
controladores encargados de procesar las peticiones enviadas
desde la capa de presentación, adicionalmente se encuentran
especificados servlets Gateway encargados de establecer
comunicación con los agentes intermediarios, posterior a una
petición de los usuarios de la plataforma.
Agentes Intermedios En esta capa se encuentran localizados los agentes
encargados de comunicar los servlets y la plataforma multiagente.
Se debe tener en cuenta que la comunicación entre JADE y los
Servlets se logra gracias a la configuración de una clase servlet
(ServletGateWay) que sirve como interfaz y un agente
(AgenteGateWay) que recibirá datos al momento de ejecutar el
comando ―JadeGateway.execute(mensaje)‖. De esta manera el
servlet es configurado en el método de su inicialización (init()) con
la ubicación del agente GateWay de Jade (AgenteGateWay). Así
se podrá mantener la comunicación entre estas dos tecnologías,
permitiéndo enviar java Objects a los agentes Jade con
información para su configuración logrando establecer reglas para
su comportamiento [11].
Sistema Multiagentes JADE
El portal Web del proyecto, está especializado en la venta de
instrumentos musicales por internet brindando varios agregados.
Entre los cuales se encuentran, un servicio llamado ―Guitarra a la
medida de tu bolsillo‖, en donde un usuario autentificado puede
buscar una guitarra que se ajuste al tamaño de su bolsillo, esto
quiere decir que si el usuario dispone de una cantidad de dinero
específica puede registrarla y esperar posibles ofertas de otras
tiendas de guitarras en internet asociadas a la nuestra y el
sistema escogerá la mejor oferta basándose en las condiciones
del usuario (precio, marca, entre otras).
Para la implementación de este sistema se utilizó agentes
JADE configurados con el Protocolo FIPA-Contract-Net en donde
cada una de las diferentes tiendas de guitarras es representada
por un agente TiendaMusical, el cual se configura con una
cantidad de dinero específica que representa la oferta de cada
tienda, para cada uno de los productos ofrecidos. El Comprador
es un agente que lleva como parámetro el nombre del usuario
autenticado y el tamaño de su bolsillo, ósea la cantidad de dinero
con la que dispone para hacer la compra de la guitarra. Luego
que se encuentre la mejor oferta y se efectúe la negociación, el
agente Comprador guarda en la base de datos de la plataforma,
los datos de la oferta hecha por el agente TiendaMusical, para
que luego el usuario, pueda ver su oferta y decidir si la compra o
la rechaza.
Como otro agregado para la Tienda de instrumentos, se
implementó un boletín de noticias al cual, los usuarios
autentificados pueden suscribirse escogiendo un tema de cuatro
disponibles: Guitarras, Bajos, Baterías y Amplificadores. La
suscripción tiene un tiempo de vida predeterminado, esto quiere
decir que desde el primer día que se cree la suscripción se
pueden ver las noticias del tema escogido y al vencerse la
suscripción se podrá renovar sin ningún costo escogiendo el
mismo tema u otro distinto. Las noticias son ingresadas o
eliminadas por el administrador del sitio y cada vez que un usuario
entre a su cuenta podrá verlas de inmediato.
Para la implementación de este sistema, se utilizó agentes
configurados con el protocolo FIPA-Subscription donde cada vez
que un usuario se suscriba al boletín de noticias, un agente
EnviarSuscripcion, envía los datos de la suscripción (nombre de
usuario, tema) a un agente SubscriptionResponderAgent el cual
los analiza y si se ajustan a las reglas predefinidas la acepta.
Al momento de aceptar una suscripción el agente
SubscriptionResponderAgent envía un mensaje al agente
EnviarSuscripcion notificando el éxito o el fracaso, en caso de
éxito el agente guarda en la base de datos de la plataforma la
suscripción, para que el usuario cuando entre a la página pueda
ver las noticias relacionadas con su tema.
En la implementación del protocolo FIPA-SUBSCRIPTION el
agente EnviarSuscripcion necesitaba enviar una serie de datos al
agente SubscriptionResponderAgent por tanto se hizo necesario
el uso de una ontología. La ontología implementada ―Boletin-
ontology‖, está basada en los datos que debe tener una
suscripción para poder ser enviada a la bases de datos. Para usar
la ontología ―Boletin-ontology‖ ambos agentes deben registrar el
lenguaje ―codec2‖ y la instancia de la ontología.
Adicionalmente el portal web, ofrece un sistema de
notificaciones, en este momento se puede configurar para
supervisar cuando existan productos nuevos, ofertas pendientes y
nuevas noticias. El usuario puede configurar que quiere que le
notifiquen.
La notificación se lleva a cabo por medio de un agente con
comportamiento cíclico (CyclicBehaviour) el cual cada cierto
intervalo de tiempo consulta a la base de datos de las tiendas de
comercio electrónico. El usuario al entrar en la pantalla principal
del portal, se le presenta las notificaciones y las novedades.
Por último, el portal web ofrece un sistema de recomendación,
utilizando técnicas de filtrado colaborativo, es decir, por medio de
un sistema de ranking de productos para cada usuario. El sistema
es capaz de hacer recomendaciones a otros usuarios con gustos
similares.
Para la implementación de este se construyó un Agente
Recomendador con comportamiento Cíclico, que ejecutar el
algoritmo cada cierto intervalo, para tratar de encontrar productos
que le puedan interesar a los usuarios. Cabe mencionar que
debido a que este proceso es bastante pesado, se realiza offline
y los resultados se almacenan en el sistema de bases de datos de
la plataforma.
Como se puede observar la plataforma desarrollada automatiza
algunas fases del comportamiento de compra del consumidor:
búsqueda y selección del producto a través de agentes, búsqueda
y selección del vendedor y mecanismos de negociación
automática. Adicionalmente se agregaron elementos esenciales
para tiendas de comercio electrónico, como son: sistemas de
suscripción controlador por agentes, sistemas de recomendación
utilizando técnicas de filtrado colaborativo y sistemas de
notificaciones automáticos.
Tecnologías Alternas
Para la implementación del sistema recomendación se
utilizaron las librerías provistas por el proyecto Apache Mahout,
las cuales permiten recomendar productos a usuarios similares y
calcular los usuarios más parecidos a un perfil particular. Se utilizó
el API provisto y se integró como se comentó en el ítem anterior
con un agente Recomendador [13].
IV. CONCLUSIONES
Con la definición e implementación de las ontologías como
base de los mensajes intercambiados por los agentes, se logra
transmitir información variada y con un acercamiento objetual y se
evita tener que definir protocolos de comunicación textuales, que
deban ser estructurados o procesados en tareas de envio y
recepción de información.
La definición de los protocolos de comunicación y coordinación
entre los agentes utilizando el estandar FIPA, y la utilización de
plataformas de sistema multiagente como JADE, se convierte en
elemento clave, debido a que se sigue un formato predefinido y
comprensible, que facilita tareas de implementación,
mantenimiento y escalabilidad. A pesar que existen mecanismos
de interacción más avanzados que el protocolo ContraNet y
Suscription, estos satisfacieron las expectativas de acuerdo a los
objetivos planeados. En versiones posteriores se implementarán
mecanismos de subasta inglesa y holandesa con el fin de ofrecer
más capacidades de interacción y permitir estrategias de subasta.
La definición de mecanismos de información y publicación de
productos, para que agentes de software consuman información,
permitió que los administradores de los establecimientos de
comercio electrónico solo tuvieran que realizar configuraciones
mínimas, debido a que los agentes automatizaban los procesos
internos, que tiempo atrás debian ser ejecutados manualmente.
Debido al éxito de estos mecanismos, en etapas posteriores se
integrarán a sistemas de comercio electrónico disponibles, como:
Oscommerce y apache OfBiz, plataformas para la implementación
de tiendas vituales open source.
La utilización de técnicas de filtrado colaborativo se convierte
en una estrategia de Marketing importante para los sistemas de
comercio electrónico, debido a que se ofrecen productos que
interesan a los usuarios del sistema y por ende se convierten en
compras potenciales. La integración de tales sistemas con
agentes de software implementados en JADE, fue una estrategia
acertada en el desarrollo de este proyecto, porque los agentes
encapsulan dicho comportamiento y de forma proactiva van
encontrando productos de interés basado en las calificacaciones
realizadas por los usuarios a los productos ofrecidos en la
plataforma.
REFERENCIAS
[1] R.H. Guttman, A.G. Moukas, and P. Maes, ―Agent-Mediated Electronic Commerce: A Survey,‖ The Knowledge Eng. Rev., vol. 13,no. 2, pp. 147-159, 1998.
[2] F. Giraldo, D. Ovalle, J. Guzmán. ―Sistema MultiAgente para la Gestión de Material Bibliográfico― In IV Congreso Internacional de Electrónica y Tecnologías de Avanzada, 2005, Pamplona, Colombia. IV Congreso Internacional de Electrónica y Tecnologías de Avanzada. Pamplona, Colombia: IV Congreso Internacional de Electrónica y Tecnologías de Avanzada, 2005.
[3] M. Lopez, Estrategia de negociación automática basada en restricciones difusas sobre sistemas multiagentes.Universidad de Alcalá (España) ,2006.
[4] M. Rahman, M. Haque, N. Khurshed, ―Intelligent AuctionBot for Forward and Reverse English Auction‖, presented in 6th International Conference on Computer & Information Technology, 19-21 Dec 2003, Dhaka, Bangladesh, Vol. II Page. 952-955.
[5] C.Xiao-fang,W.Ying, ―Model of Multi-Agent Based on Personalized Transactions in Electronic Commerce‖, presented in Management Science and Engineering, 5-7 Oct. 2006.
[6] M.Fayek, I. Talkhan, K.El-Masry, ―GAMA (Genetic Algorithm driven Multi-Agents) for E-Commerce Integrative Negotiation‖, GECCO‘09, July 8–12, 2009, Montréal Québec, Canada. ACM 978-1-60558-325-9/09/07.
[7] A.Chavez and P. Maes, "Kasbah: An Agent Marketplace for Buying and Selling Goods," Proceedings of the first International conference on the Practical Application of Intelligent Agents and Multi-agent Technology (PAAM96). London, UK, 1996, pp. 75-90.
[8] J.Wang, Y.Chen, "Agent-Based Price Negotiation System for Electronic Commerce," isda, pp.90-93, Seventh International Conference on Intelligent Systems Design and Applications (ISDA 2007), 2007.
[9] A. Álvarez, Á. Villar, J. Benavides, C. García, I. Rodríguez, F.Rodriguez. "Experiencia en el desarrollo de un sistema multiagente", presented in¨XXII Jornadas de Automática. Año 2001.
[10] Escuela Superior de Ingeniería Informática de la Universidad de Vigo,2009. [Online]. Available: http://programacionjade.wikispaces.com/Comunicación#.
[11] F. Bellifemine,G. Caire,D. Greenwood, Developing Multi-Agent Systems with JADE . John Wiley & Sons Ltd, 2007.
[12] M. J. Barranco, L. G. Pérez, F. Mata, L. Martínez. "REJA: un sistema de recomendación de restaurantes basado en técnicas difusas". Universidad de Jaén, 2008W.
[13] Apache Mahout ,2009. [Online]. Available: http://lucene.apache.org/mahout/
Resumen—La ciudad de Bogotá capital de Colombia presenta un alto índice en generación de basura por habitante, esta basura contiene un porcentaje significativo de material reciclable, debido a la necesidad de la recolección y administración de estas basuras y en especial del material reciclable se crearon una serie de microempresas encargadas de manejar esos recursos reciclables. Estas microempresas no tienen apoyo significativo por parte de autoridades pertinentes, por ello presentan un bajo índice de organización que implica el mal manejo de material reciclable y la mala administración en su recurso humano como los son los recicladores. Estas microempresas necesitan una evaluación e identificación de los factores incidentes en su baja productividad y capacidad del manejo de este material reciclable para mejorar sus condiciones. En este proyecto se pretende abordar mejor éstas características y demostrar cuales serían las determinantes más incidentes para poder aumentar la productividad de las mismas.
Palabras Claves—Microempresa [1], Reciclaje [2].
I. INTRODUCCIÓN
nformación suministrada por los recicladores, en el país
comenzó la actividad del reciclaje desde hace más de 60 años,
para ese entonces contaba con una población aproximada de
20.000 familias cuyo medio de sustento era la recolección y
comercialización de todo tipo de material reciclable que se
pudieran encontrar en las calles convirtiéndose en su único medio
de sustento. ―De estas familias, 30% se encuentran asociadas en
128 cooperativas afiliadas a la Asociación Nacional de
Recicladores – ANR y el 70% trabajan en forma independiente.
Según el Censo de Recicladores, realizado por el Departamento
Nacional de Estadística – DANE, en Bogotá para el año 2003‖ [3].
II. PROBLEMA
De acuerdo con un estudio realizado por el Ministerio de
Ambiente, Vivienda y Desarrollo Territorial, en el país se generan
28.800 toneladas de desechos de las cuales se recuperan y
reintegran al ciclo productivo tan solo el 13%. El 6%
(aproximadamente) es reincorporado al ciclo de producción por la
industria y los convenios directos de ésta con el comercio, y el 7%
restante es recuperado y comercializado por los recicladores o
recuperadores informales [3].
Para el año 2005, Bogotá D.C. contaba con una población de
6´776.009 habitantes. El promedio de basura generada por
persona es de 0,5 a 1 Kg/día [4] lo que implica que en la ciudad
se generen alrededor de 8.000 Ton. de basura diaria. Según el
Departamento Nacional de Estadística – DANE- para el 2003
existían 8.479 recicladores informales y alrededor de 668
microcomercializadoras o microempresas ubicadas en los barrios
de estrato 1 y 2, donde la basura domiciliaria es dejada en las
calles, para luego ser utilizada por las personas que se dedican al
reciclaje, quienes buscan entre los desechos: papel, plástico,
cartón, vidrio y metal (materiales que tienen mayor demanda).
La tabla 1 el precio promedio de cada tonelada de material:
TABLA 1
PRECIO PROMEDIO DE LOS MATERIALES RECICLABLES EN BOGOTÁ
MATERIAL PRECIO ($ x Ton)
Papel 423.000
Cartón 251.000
Plástico 233.000
Vidrio 42.600
Chatarra 222.000
Metal no ferroso 1.600.000
Con estas cifras es de suponer que el sector de las
microempresas que se dedican al reciclaje tiene excelente
rentabilidad. Pero fijándonos en la realidad no es así, ya que en
el Distrito Capital no existe una cultura en torno a los desechos
sólidos generados y no hay separación en la fuente, lo que
dificulta su recolección y clasificación debido a que muchos de los
materiales que se pueden reciclar terminan contaminados con
residuos orgánicos generando problemas de orden técnico e
impidiendo el reciclaje del material. De otra parte la exclusión y
presión social que sufren las microempresas por parte de los
intermediarios del sector y la Unidad Ejecutiva de Servicios
Públicos, que pone en tela de juicio su sostenibilidad como
organización [5], adicionalmente, de los $32.000 millones que
produce el material reciclable en Bogotá, los recicladores solo
perciben $5.000 millones, por causa de la intermediación a la que
tienen que sujetarse, porque que no cuentan con los recursos
necesarios para convertirse en empresarios y poder vender el
material sin utilización de agentes externos a la microempresa
donde se queda la mayor utilidad producto del negocio [6].
III. JUSTIFICACIÓN
―La falta de espacio para la ubicación de los residuos, la
necesidad de un tratamiento específico para los mismos y el
impacto ambiental que genera, revela la urgente necesidad del
I
Análisis exploratorio de las microempresas de reciclaje en Bogotá
Diego Suero, Docente Investigador, Samuel Alfonso, Johanna Bocanegra, Ingeniería Industrial
reciclaje a gran escala‖ [3]. La capacidad de almacenamiento de
las microempresas de reciclaje en la ciudad no es la adecuada es
por esto que necesitan el uso de intermediarios que si cuentan
con dicha capacidad y que económicamente pueden auto
sostenerse y vender a la industria que se encarga de la
transformación con plazos superiores a 15 días, mientras que las
cooperativas y microempresas no lo pueden hacer ya que estos
viven del día a día [7]. Esto se debe a que el gobierno local no
crea planes de cofinanciación los cuales les permitirían aumentar
su capacidad de producción y por ende mejorar su competitividad.
―En el sector del vidrio se reincorporan unas 125.000 toneladas
al año y se requiere incorporar en el corto plazo unas 75.000
toneladas adicionales‖ [8].
―En el sector del plástico el porcentaje de recuperación se
estima en un 18% y se ha identificado la necesidad de desarrollar
estrategias, especialmente en lo que se refiere al establecimiento
de sistemas integrados de retorno de residuos post consumo. El
sector manifiesta la posibilidad de incrementar este porcentaje,
mediante el desarrollo de estrategias conjuntas con todos los
actores de la cadena del reciclaje‖ [3].
―En el año 2004 se produjo 41.000 toneladas de chatarra de
cobre y aluminio, de las cuales se exportaron, a través de los
grandes depósitos de chatarra, 14.000 toneladas y para la
producción nacional se aprovecharon 16.000 toneladas de cobre y
11.000 toneladas de aluminio. En este sector se presenta escasez
de material para la producción nacional especialmente para los
pequeños productores‖ [3]
―En efecto, el sector papel y cartón, introduce
aproximadamente unas 500.000 toneladas anuales de residuos
en su proceso, lo cual corresponde aproximadamente a 44% del
total del material utilizado en su proceso productivo‖ [3]. ―Hoy el
país recolecta por diferentes medios alrededor del 48% del total
del consumo aparente de cartones y papeles. Este porcentaje de
recuperación es de los más altos del mundo, superior al de países
con alto grado de desarrollo como Estados Unidos, Francia e
Inglaterra‖ [9].
IV. OBJETIVOS
A. Objetivo General
Identificar el grado de incidencia, de los factores determinantes
de la capacidad productiva de las microempresas de reciclaje de
Bogotá a partir de un modelo matemático.
B. Objetivos Específicos
Especificar las características de las microempresas de reciclaje.
Especificar las características de producción del reciclaje en Bogotá.
Caracterizar un modelo estándar del proceso productivo de las microempresas de reciclaje de Bogotá.
Especificar un modelo estadístico que permita explicar la capacidad productiva de las microempresas de reciclaje de Bogotá.
Verificar la concordancia del modelo con el entorno por medio de una prueba piloto.
V. MARCO TEÓRICO
A. Modelo Matemático
―Un Modelo Matemático es un patrón teórico ó experimental
que permite interpretar mediante métodos matemáticos
fenómenos reales o problemas técnicos para hacer inferencia y
tomar decisiones. Los modelos matemáticos son de dos clases:
Determinísticos: cuando se tiene plena certeza acerca del
funcionamiento y los resultados del problema.
Aleatorios o Estocásticos: cuando sólo se tiene certeza parcial
acerca del funcionamiento y se conocen los resultados probables
del modelo.
Un modelo matemático debe ser simple e involucrar las
variables que lo hacen completo‖ [10].
VI. METODOLOGÍA
El proyecto se define como una investigación propiamente
dicha de carácter cuantitativo.
A. Etapa 1
Se realizará la caracterización y evaluación de las
cadenas de reciclaje para su respectiva selección.
Realizar una encuesta con el fin de indagar la
información importante de las microempresas de
reciclaje Bogotá, con el fin de establecer los
materiales más reciclados en la ciudad, y el estado
actual de estas.
Identificar el grupo de microempresas a las cuales se
les realizara la encuesta.
Realizar la encuesta al mayor número de
microempresas enfocadas a la recolección y acopio
del material reciclable.
B. Etapa 2
Calcular el tamaño de muestra apropiado de las
microempresas de reciclaje, para así, especificar en
éstas, las principales variables que determinan la
capacidad de producción.
Identificar el tamaño del mercado de las
microempresas de interés con el fin de establecer
una muestra relevante.
Realizar un estudio a estas microempresas para
especificar las variables que afectan la capacidad de
producción.
C. Etapa 3
Compilar y analizar la información recogida para la
construcción del modelo de regresión multivariado.
Analizar toda la información recolectada por medio de
las encuestas y las investigaciones, con el fin de
clasificar las variables relevantes y poder identificar el
modelo matemático.
D. Etapa 4
Construcción y evaluación del modelo matemático que
permitirá realizar análisis de sensibilidad para la
estimación y observación de los componentes
principales de la productividad de material reciclado
en Bogotá.
Después de identificar las variables y el modelo
matemático a usar, realizaremos el montaje de este
con el fin de determinar la sensibilidad de cada
variable y cuál es la que más afecta la capacidad
productiva de las microempresas de reciclaje.
E. Etapa 5
Prueba piloto del modelo matemático.
Modificar las variables con el fin de ver los resultados
que se pueden obtener y si estos ayudan a mejorar la
capacidad productiva de las microempresas de
reciclaje.
VII. CARACTERIZACIÓN DE LAS EMPRESAS DE RECICLAJE
DE BOGOTÁ
De acuerdo a una encuesta desarrollada por estudiantes de
Ingeniería Industrial de la Fundación Universitaria San Martín,
aplicada a microempresarios en las localidades de Barrios Unidos,
Chapinero, Engativa, los Mártires y Suba, se concluye lo
siguiente:
Según un 73% de las microempresas encuestadas, el
gobierno no les ofrece ninguna ayuda para que puedan cumplir
con su labor del reciclaje, lo cual hace que no avancen
rápidamente, si no que por el contrario, se estanquen y pierdan
posición en el mercado ya que los programas que está generando
el gobierno los está obligando a cerrar sus negocios, pues no
permite el transporte de materiales en la calle sin un embalaje
adecuado; además dicen que el estado quiere privatizar el oficio
enfocándolo solo a unos cuantos. Argumentan también que la
rentabilidad de la actividad ha disminuido, por la poca oferta de
material.
El 60% de los encuestados no cuenta con capacitación. El
porcentaje restante, ha recibido inducción por parte de la
microempresa, el SENA o la Alcaldía Local. La mayoría del
universo objeto de la investigación realiza la actividad de manera
empírica y por la experiencia adquirida. En cuanto a su vigencia,
el 37% de las microempresas tienen entre 4 y 6 años de
creación, un 33% tiene entre 2 y 4 años, el 30% restante hace
relación a microempresas con menos de 2 años y mayores a 6. Lo
anterior muestra que este es un oficio relativamente joven.
Capacidad de Producción (venta) y almacenamiento entre 8 y
10 Ton/mes sin discriminar que tipo de material, es decir en la
misma bodega almacenan los diferentes materiales que compran
a los recicladores informales y acondicionan para su posterior
venta a bodegueros o intermediarios.
Producción 60% 8 y 10 Ton
Almacenamiento 37% 8 y 10 Ton
TABLA 2
ATRACTIVO DEL MATERIAL PARA LAS MICROEMPRESAS
MATERIAL ATRACTIVO (%)
Papel y cartón 80
Metal (chatarra) 13
Plástico 7
Vidrio 0 La tabla 2 relaciona el atractivo de los materiales.
Según la información suministrada por los encuestados, el
papel y cartón son los más reciclados y generan mayor atractivo
que otros materiales debido a su abundancia, lo que facilita su
recolección. Adecuar este material es muy sencillo, eso les
genera múltiples beneficios. Con respecto al vidrio y al plástico,
los datos muestran que el mayor atractivo es la facilidad de
recolección. En los anteriores materiales el precio fue segundo y
tercero no representa el principal atractivo; en cuanto al metal el
precio es el mayor incentivo para los microempresarios.
Los microempresarios no manejan planeación para ejecutar el
proceso, todo lo que llegue se compra (si cuentan con el dinero y
existe lugar para acomodarlo en la bodega) y se vende a
personas con quienes ya manejan relaciones comerciales o sino
al mejor oferente. El 43% de los encuestados dijo que no maneja
contratos con sus empleados directos, que en promedio son 3 o 4
personas, con esto evitan pagar prestaciones sociales, seguridad
social y parafiscales Se observa notoriamente el contrato de
destajo (el reciclador lleva lo que ha recolectado y lo vende según
el precio que ha fijado anteriormente con el bodeguero o
dependiendo del precio del mercado).
Para el pago de salario vemos que en un 37% de las
microempresas las trabajadores y auxiliares reciben entre medio
y un salario mínimo mensual vigente.
En el sector se observa el machismo, ya que a una mujer se le
paga menos por el material que lleva. Las mujeres no pueden
cargar el mismo peso que llevaría un hombre. El rango promedio
de edad de los recicladores está entre 19 y 25 años.
La baja recuperación, acopio y transformación de los
materiales que se pueden reciclar son algunas de las principales
características de este gremio y son factores que afectan su
capacidad de producción debido a la falta de infraestructura y
equipos que generen rentabilidad y valor agregado. Esto hace que
la condición de vida sea deprimente ya que un reciclador con
menos de un salario mínimo debe sustentar en promedio a dos
personas.
Las microempresas de reciclaje tienen un potencial que
explotar y es su capacidad de producción, con esto mejora su
rentabilidad y su calidad de vida además están ayudando
directamente a la conservación del medio ambiente.
REFERENCIAS
[1] Mora Jaramillo, Manuel Guillermo, TEXTO PROPUESTO PARA PRIMER DEBATE EN SENADO PROYECTO DE LEY NUMERO 04 DE 2007 SENADO Y PROYECTO DE LEY NÚMERO 33 DE 2007 SENADO (ACUMULADOS), Consultado el 14 de Junio de 2009, Pág. 13, Disponible en: http://www.ginaparody.com/medioambiente/pdf/rec_ponencia_comision5_1debate.pdf
[2] Grupo Ferrovial, (2008) Informe anual, Consultado el 28 de marzo del 2009 Disponible en: http://memoria2008.ferrovial.es/es/index.asp?MP=107&MS=0&MN=1
[3] Ministerio de Ambiente, Vivienda y Desarrollo Territorial, Despacho del Ministro República de Colombia (2007), Mesa nacional de reciclaje (Propuesta inicial), Consultado el 22 de abril del 2009, [Pag. 3] Disponible en: www.andi.org.co/dependencias/ambiental/novedades/mesareciclaje.pdf
[4] Universidad de los andes, Bogota, Colombia (Mayo, 2001), Revista de ingeniería, Consultado el 22 de abril del 2009, (ed.rev.13) [Pag. 5] Disponible en: http://revistaing.uniandes.edu.co/pdf/Rv13-A1.pdf?ri=7347bd4274bf541f8d18ad5822bded81
[5] Asociación cooperativa de recicladores de Bogotá (Colombia), (2006), Ciudades para un Futuro más Sostenible, Consultado el 22 de abril del 2009 Disponible en: http://habitat.aq.upm.es/bpal/onu06/bp1213.html.
[6] Ministerio de Ambiente, Vivienda y Desarrollo Territorial, (2004), Dirección de desarrollo sectorial sostenible, Consultado el 22 de abril del 2009, Disponible en: http://www.minambiente.gov.co/documentos/evaluacion_cadenas1_2005.pdf.
[7] Castro, Darío. Comunicación personal, 24 de marzo de 2009. [8] Red de desarrollo sostenible de Colombia (Mayo, 2007), Gobierno crea
mesa nacional de reciclaje Consultado el 22 de abril del 2009 [Datos claves, Parr. 8] Disponible en http://www.rds.org.co/notas-breves.htm?x=1054102
[9] Actividad de Reciclaje, SKCCRecycling. (s.f.). Recuperado el 12 de junio de 2009, de www.smurfitkappa.com.co/NR/rdonlyres/82DE8B17-4EF2-4E6A-8AA0-F3DE5AB68D9E/0/SKCCRecycling.doc.
[10] Bertrand Russell [BERU], (s.f.), Modelos aleatorios y probabilidades, consultado el 13 de junio del 2009, disponible en: http://74.125.47.132/search?q=cache:c63i0erwxvwj:www.unalmed.edu.co/~estadist/estainvesti/modelos%2520aleatorios%2520y%2520probabilidades%25202005.doc+que+e+un+modelo+matematico&cd=3&hl=es&ct=clnk&gl=co.
Palabras claves—Redes cognitivas, redes cooperativas, cuarta generación, calidad de servicio.
I. INTRODUCCIÓN
a evolución de los sistemas de comunicaciones y de
tecnologías en la última década, ha ocasionado que surjan
dispositivos inalámbricos de tamaño reducido y con gran variedad
de servicios, con lo cual se han incrementado las necesidades de
los usuarios para compartir conocimientos y puntos de interés,
dando así origen a las llamadas redes sociales.
Los servicios, por mencionar solo algunos, pueden permitirle a
un usuario revisar su cuenta de correo electrónico, navegar en
Internet, determinar su ubicación geográfica, intercambiar
archivos y mensajes, todo desde un teléfono celular. Sumado a
esto, la cantidad de equipos y de usuario han aumentado en
forma considerable durante el mismo periodo de tiempo.
Para poder cubrir estas necesidades, se han propuesto nuevos
estándares y nuevas alternativas de comunicación que tengan en
cuenta aspectos de conectividad entre dispositivos, permitiendo
configuración automática, extendiendo los servicios apoyándose
en colaboración de los nodos participantes en la red y teniendo en
cuenta aspectos a nivel de topología de la red y gestión eficiente
de la energía requerida.
II. GENERALIDADES DE 4G
Es interesante observar que algunos teléfonos móviles,
especialmente los teléfonos inteligentes, son mucho más que
teléfonos. Son realmente pequeños computadores móviles, ya
que proporcionan muchas de las funciones clave de un PC:
Un teclado, que es virtual y se representa en una pantalla táctil.
Interfaz gráfica de usuario amigable.
Servicios de Internet como el correo electrónico, navegación web y conectividad por Wi-Fi.
Cámara integrada con captura de imagen y vídeo.
Reproductor multimedia con capacidad de decodificación de audio y vídeo.
Medios de comunicación inteligentes, herramientas de gestión de canciones, álbumes de fotos, videos, etc.
Funciones de llamada de teléfono, incluyendo los mensajes de texto, correo de voz visual, etc.
Sin embargo, también hay muchas características con las
cuales algunos teléfonos móviles todavía no son compatibles
(aunque pueden llegar en breve), por ejemplo:
Soporte para TV móvil, para recibir programas de televisión en
directo.
Soporte para juegos 3D multiusuario en red.
Renderizado de escenas realistas en 3D.
Captura y renderización de imágenes y video.
Imágenes de alta definición.
La falta de estas funciones se debe a muchos factores,
incluyendo la capacidad de cálculo y la potencia de los
dispositivos móviles, el ancho de banda disponible y la eficiencia
de la transmisión de la red inalámbrica, la calidad de servicio
(QoS), soporte de los protocolos de red, el acceso universal a la
capacidad de la infraestructura del sistema de comunicación y de
la compresión y la eficiencia de control de errores de vídeo y
datos gráficos. Desde un punto de vista de la comunicación móvil,
se espera que tengan una tasa mucho más alta de transmisión de
datos, que es comparable a las redes de cable, así como servicios
y soporte para conectividad sin errores y el acceso a cualquier
aplicación, independientemente del dispositivo y su ubicación. Ese
es exactamente el propósito para el cual se dio paso a 4G.
4G es una abreviatura de cuarta generación, que es un término
usado para describir la evolución completa en la comunicación
inalámbrica. El sistema inalámbrico 4G se espera que proporcione
una solución IP completa en las aplicaciones multimedia y
servicios que pueden ser entregados al usuario en cualquier
momento y en cualquier lugar con una alta tasa de transmisión de
datos de primera calidad y de alta seguridad, que no se puede
lograr mediante la actual infraestructura inalámbrica 3G (tercera
generación). Aunque hasta ahora no hay una definición final de
4G, sin embargo, la Unión Internacional de Telecomunicaciones
(ITU) está trabajando en la norma y tiene como meta para el
despliegue comercial del sistema 4G en el periodo 2010-2015. La
ITU define IMT-Advanced como el sucesor de IMT-2000 (o 3G),
por lo que algunas personas llaman informalmente a las IMT-
Advanced.
Las ventajas de 4G frente a 3G se enumeran en la Tabla I.
Claramente 4G ha mejorado al sistema de 3G de manera
significativa no sólo en el ancho de banda, cobertura y capacidad,
sino también en muchas funciones avanzadas, como QoS, baja
latencia, alta movilidad, y aspectos de seguridad, etc. [1].
Jorge A. Arévalo, Docente Investigador, Ingeniería de Telecomunicaciones.
L
Redes 4G, una evolución de las redes Ad Hoc Móviles
TABLA I
COMPARACIÓN ENTRE 3G Y 4G
3G 4G
Distribución de
potencia
Predominio de
transmisión de la
voz, los datos
ocupan un espacio
secundario.
Datos convergentes y
servicios multimedia
sobre IP.
Arquitectura de la
red
Redes de área
amplia.
Integración de redes LAN
inalámbricas y redes de
área amplia.
Ancho de banda
(bpsa) 384K - 2M
100M para móviles, 1G
para equipos
estacionarios.
Banda de
frecuencias (GHzb) 1.8 - 2.4 2 - 8
Conmutación
Conmutación de
circuitos y
conmutación de
paquetes.
Se usa únicamente
conmutación de paquetes.
Tecnología de
acceso Familia CDMA. Familia OFDMA.
Calidad de servicio
y seguridad No soportado. Soportado.
Técnicas multi-
antena
Soporte muy
limitado. Soportado.
Multicast / servicio
de difusión No soportado. Soportado.
abps: bits por segundo, bGHz: Giga-hertz
A. Estado de 4G y tecnologías clave
En general, al igual que las tecnologías, las infraestructuras y
los terminales han evolucionado en los sistemas inalámbricos
(como se muestra en la Figura 1) de 1G, 2G, 3G a 4G, y de LAN
inalámbrica, a acceso de banda ancha inalámbrica y a 4G, el
sistema 4G contendrá todas las normas que las generaciones
anteriores han aplicado. Movilidad
Baja
Media
Alta
1GNMT, AMPS, CDPD, TACS
2GGSM, iDEN,
IS-95
2.5G/2.75GGPRS, EDGE
3GUMTS, 1xEV-DO, FOMA, WiMAX
3.5GHSPA, HSPA+
Pre-4G/4GLTE, WiMAX, UMB, Flash-OFDM, WiBro
Wireless LANIEEE 802.11/WiFi
Broadband Wireless AccessIEEE 802.16/WiMAX
1980´s 1990´s 2000 2005 2010 2015
Fig. 1. Evolución de la tecnología hacia 4G inalámbrica.
Entre las pocas tecnologías que están siendo consideradas
para 4G incluyendo 3GPP LTE / LTE-avanzada, 3GPP2 UMB, y
Mobile WiMAX basada en el estándar IEEE 802.16m [1].
B. Redes 4G y el ambiente de Radio Compuesto
En la comunidad de comunicaciones inalámbricas se está
presenciando cada vez más la existencia del entorno de radio
compuesto (CRE) y como consecuencia la necesidad de
reconfigurar los conceptos basados en algoritmos cognitivos,
cooperativos y oportunistas. La CRE supone que diferentes redes
de radio pueden ser componentes cooperativos en una
infraestructura heterogénea de acceso inalámbrico, a través del
cual los proveedores de red pueden alcanzar de manera más
eficiente de la capacidad necesaria y los niveles de calidad de
servicio (QoS). La reconfiguración habilita a los terminales y
elementos de red para dinámicamente seleccionar y adaptarse a
las tecnologías de acceso de radio más adecuada para el manejo
de las condiciones encontradas en las regiones área específica de
servicios y zonas horarias del día. Ambos conceptos suponen
nuevos requisitos en la gestión de los sistemas inalámbricos. Hoy
en día, una multiplicidad de normas de tecnologías de acceso de
radio (RAT) se utilizan en las comunicaciones inalámbricas. Como
se muestra en la figura 2, estas tecnologías pueden ser
clasificadas en cuatro grupos [2]:
Fig. 2. Entorno de radio compuesto en el plano cognitivo, de
cooperación y oportunista en redes 4G.
Las redes celulares que incluyen la segunda
generación (2G), sistemas móviles, tales como el
Sistema Global para Comunicaciones Móviles (GSM),
y sus evoluciones, a menudo llamadas sistemas
2.5G, como la evolución digital GSM ensanchado
(EDGE), Servicio General de Radio Paquetes
(GPRS) y IS136 en los EE.UU.. Estos sistemas se
basan en la tecnología TDMA. Las redes móviles de
tercera generación (3G), conocido como Sistema
Universal de Telecomunicaciones Móviles (UMTS)
(WCDMA y CDMA2000) se basan en la tecnología
CDMA, que proporciona hasta 2 Mbit/s. Evolución a
largo plazo (LTE) de estos sistemas se espera que
evolucione hacia un sistema 4G que proporcione
hasta 100 Mbit/s en el enlace ascendente y de hasta
1 Gbit/s en el enlace descendente. Las soluciones se
basan en una combinación de múltiple portadora y
formatos de señal espacio-tiempo. Las arquitecturas
de red incluyen las redes celulares macro, micro y
pico (HAN) y redes de área personal (PAN).
Las redes de acceso vía radio de banda ancha
(BRANS) o las redes inalámbricas de área local
(WLAN), que pueden proporcionar hasta 1 Gbit/s en
4G. Estas tecnologías están basadas en OFDMA y
en codificación espacio-tiempo.
Difusión de Video Digital (DVB) y comunicaciones por
satélite.
Redes Ad hoc y de sensores con aplicaciones
emergentes.
Con el fin de aumentar la eficiencia espectral, además de la
codificación de frecuencia en espacio-tiempo en la capa física, los
nuevos paradigmas, como soluciones cognitivas, de cooperación
y oportunistas serán usados.
Aunque 4G está abierto para los nuevos esquemas de acceso
múltiple, el concepto de CRE sigue siendo atractivo para
aumentar la eficiencia en la prestación de servicios y las
posibilidades de explotación de los RAT disponibles. La hipótesis
principal es que las redes de radio, GPRS, UMTS, BRAN/WLAN,
DVB y así sucesivamente, pueden ser componentes de una
infraestructura heterogénea de acceso inalámbrico. El despliegue
de los sistemas de CRE puede ser facilitado por el concepto de
reconfiguración, que es una evolución de un radio definido por
software. De acuerdo con el concepto de reconfiguración, la
selección de RAT no se limita a los que están pre-instalados en el
elemento de red. De hecho, los componentes de software pueden
ser descargados, instalados y validados. Esto hace que sea
diferente del paradigma estático con respecto a la capacidad de
los terminales y elementos de red [2].
C. Comunicaciones Móviles 4G
3G de evolución a largo plazo (LTE), también conocido como
Super 3G, ha sido estandarizado para proporcionar servicios de
más alta velocidad de transmisión de datos. Sus tasas de
transmisión de datos pico de 100 Mbps y 50 Mbps para el enlace
descendente y ascendente, respectivamente. A pesar que LTE
puede proporcionar un servicio inalámbrico multimedia, su tasa de
transmisión de datos es aún limitada. A fin de proporcionar
servicios multimedia más ricos vía inalámbrica, las
comunicaciones móviles 4G, también conocido como LTE-
avanzada, necesita utilizar un ancho de banda mucho más
amplio, por ejemplo, 100 MHz de ancho de banda necesario para
alcanzar una velocidad de datos de hasta 1 Gbps, en relación con
las tecnologías avanzadas de acceso inalámbrico, tecnologías
MIMO, ARQ híbrido y así sucesivamente [3].
D. Sistemas Inalámbricos 4G
Las redes 4G pueden ser definidas como la conexión de redes
inalámbricas ad hoc de igual a igual de gran usabilidad y de
itinerancia mundial, la informática distribuida, la personalización y
soporte multimedia. Las redes 4G utilizarán la arquitectura
distribuida y el Protocolo Internet (IP) de extremo a extremo. Cada
dispositivo será un transceptor y un enrutador para otros
dispositivos en la red eliminando la debilidad de la arquitectura
centrada en habla de los sistemas celulares 3G. La cobertura y
capacidad de la red cambiará de forma dinámica para acomodar
cambios en los patrones de usuario. Los usuarios de forma
automática se alejarán de las rutas congestionadas para permitir
que la red de forma dinámica y automática se auto balancee.
Recientemente, varias tecnologías inalámbricas de banda
ancha han surgido para lograr altas tasas de datos y calidad de
servicio, de igual forma, las tarjetas de PC para ordenadores
portátiles se han venido habilitando permitiendo una mayor
portabilidad para el usuario [4].
III. COOPERACIÓN EN REDES AD HOC
Por más de una década la comunidad investigadora ha
estudiado de forma intensa las redes móviles ad hoc, conocidas
popularmente como MANET. La gran visión desde el comienzo de
su desarrollo ha sido la creación de una red autónoma y con auto-
organización sin ningún tipo de infraestructura pre-establecida o
una administración centralizada. Esto permite a los nodos
distribuidos aleatoriamente para formar una red funcional temporal
y soporta sin liberar o unir nodos.
En cierto sentido, todas las comunicaciones digitales
inalámbricas necesitan la cooperación al igual que los sistemas
comparten los recursos, y por lo menos en los elementos
extremos de la comunicación necesitan disponer de sistemas de
transmisión y protocolos que sean compatibles, y de alguna
manera estandarizados. El requisito para la cooperación en el
caso de sistemas ad hoc, sin embargo, es muy estricto y está
presente en todos los niveles del sistema [5].
La cooperación y sus desafíos
Los desafíos en el caso de redes ad hoc son ampliamente
relacionados con facilitar y garantizar la suficiente cooperación
entre los distintos nodos, y al mismo tiempo utilizar los escasos
recursos inalámbricos de manera eficiente. La cooperación se
define como "la acción de los cooperantes, es decir, de trabajar
juntos hacia el mismo fin, propósito o efecto; operación conjunta".
En el caso de redes ad hoc se debe ser cuidadoso para entender
que hay dos dominios distintos de cooperación;
"Cooperación de Comunicaciones", en el estricto
dominio del conjunto de comunicaciones, significa
que se tiene que proporcionar un conjunto común de
protocolos de comunicación y métodos de
transmisión para todos los anfitriones
correspondientes, a fin de que la red puede ser
establecida. Este problema es compartido con todos
los sistemas de comunicación, pero la naturaleza
dinámica de las redes ad hoc hace esto muy difícil.
En el caso de las redes ad hoc los desafíos que
surgen de la necesidad de soportar algoritmos
distribuidos y protocolos, y una topología dinámica
sin sacrificar demasiado la eficiencia.
"Cooperación Social" de los nodos de transmisión para
un bien común es otro aspecto. Aquí el desafío es la
cuestión de cómo garantizar que los nodos entre el
origen y el destino están cooperando en el reenvío de
paquetes. En el caso de las aplicaciones de red ad
hoc cerradas (tales como redes militares o de
emergencia) es más fácil de asegurar que si se están
considerando máquinas de red altamente dinámicas.
Una cantidad muy grande de investigación ha sido invertida en
el enrutamiento ad hoc. Aunque todavía hay algunos problemas
por resolver, que en su mayoría comentario aquí algunas
tecnologías maduras que han surgido. Se cree que la mayor parte
de los futuros trabajos de investigación se dirigirán a nuevos
dominios del problema. De hecho, algunos problemas de
ingeniería deben ser resueltos incluso antes que soluciones de
enrutamiento de enlace inteligente se puedan implementar
fácilmente.
Los paradigmas de redes inalámbricas de salto múltiple y de
redes ad hoc tienen ciertamente muchas características atractivas
que se pueden utilizar para mejorar el futuro de las arquitecturas
de red 4G. Uno de los retos para la creación de redes ad hoc esta
en conseguir el impulso suficiente detrás de la normalización de la
tecnología. Si bien, el paradigma básico de MANET es
específicamente para construir sistemas ad hoc, se debe llegar a
un acuerdo sobre la transmisión y el protocolo a usar [5]-[7].
IV. CONCLUSIONES
En los próximos años, parece inevitable que la computación
móvil prosperará y evolucionará hacia la integración,
convergiendo en la tecnología inalámbrica de cuarta generación.
La red ad hoc desempeñarán un papel importante en esta
evolución. Su flexibilidad intrínseca, la facilidad de mantenimiento,
la falta de infraestructura, la configuración automática, las
capacidades de auto-administración, y ventajas significativas de
costo lo convierten en el candidato ideal para convertirse en una
tecnología robusta para la comunicación omnipresente personal.
Las posibilidades y la importancia de las redes ad hoc son cada
vez más reconocidas por la investigación tanto de la comunidad y
la industria, como lo demuestra la avalancha de actividades de
investigación, el fuerte interés de la industria y un crecimiento casi
exponencial de las LAN inalámbricas. Al avanzar y cumplir con
éxito esta visión, se desea además fortalecer los conceptos de
cooperación, redes cooperativas y redes de conocimiento, que
finalmente ayuden a facilitar la publicación y distribución de
conocimiento a nivel global.
REFERENCIAS
[1] H. Wang, et al., ―4G Wireless Video Communications‖, John Wiley and Sons Ltd., 2009, pp. 1-5.
[2] S.Glisic and B. Lorenzo, ―Advanced Wireless Networks – Cognitive, Cooperative and Opportunistic 4G Technology – Second Edition‖, John Wiley and Sons Ltd., 2009, pp. 1-7.
[3] J. Wang, ―High Speed Wireless Commnuications – Ultra-Wideband, 3G Long Term Evolution, and 4G Mobile Systems‖, Cambridge University Press, 2008, pp. 23-27.
[4] V. K. Garg, ―Wireless Communications and Networking‖, Morgan Kaufmann Publishers, 2007, pp. 14-17.
[5] F. H. P. Fitzek and M. D. Katz, ―Cooperation in Wireless Networks: Principles and Applications‖, Springer, 2006, pp. 189-222.
[6] S. Basagni,et al., ―Mobile Ad Hoc Networking‖, John Wiley and Sons Ltd, 2004.
[7] H. Chen and M. Guizani, ―Next Generation Wireless Systems and Networks‖, John Wiley and Sons Ltd., 2006, pp. 361-396.
Resumen— En los años recientes, uno de los campos de investigación más importantes y prometedores han sido las metaheurísticas, las cuales permiten encontrar soluciones óptimas o subóptimas para problemas de naturaleza combinatoria y clasificados como NP-Hard, generando tiempos computacionales bajos. Este artículo presenta tres metaheurísticas: búsqueda tabú, algoritmo genético y enfriamiento simulado. Para minimizar la tardanza total ponderada en el modelo básico y para comprobar la eficacia del algoritmo desarrollado, cada uno de estos enfoques es probado con un conjunto de problemas (benchmark).
Este artículo presenta únicamente la aplicación de estos enfoques para el problema de minimizar la tardanza total ponderada; sin embargo, este enfoque es perfectamente aplicable a otros objetivos dentro del mismo esquema (tardanza máxima y makespan, por ejemplo).
Palabras Claves— Tardanza total ponderada, modelo básico, búsqueda tabú, algoritmo genético, recocido simulado, diseño de experimentos, secuenciación.
I. INTRODUCCIÓN
n la mayoría de los sectores productivos, la programación de
operaciones (secuenciación) reviste especial importancia por
su incidencia en la productividad y la competitividad de las
empresas. Esta se reconoce como un problema complejo dentro
de las organizaciones dado que involucra la asignación de
recursos escasos para lograr la satisfacción del cliente. Por tanto,
es importante desarrollar metodologías que permitan alcanzar
estos objetivos.
El propósito general de este artículo es presentar un algoritmo
eficiente para secuenciar operaciones, en un ambiente de
producción de una máquina, para minimizar la tardanza total
ponderada. Este problema de naturaleza combinatoria, ha sido
clasificado como un problema NP-Hard, por lo que los enfoques
de solución para el mismo han sido direccionados a través de las
metaheurísticas. En este artículo se recurre al desarrollo de tres
metaheurísticas: Búsqueda tabú, algoritmo genético y
enfriamiento simulado; cada uno de estos enfoques es probado
con un conjunto de problemas (benchmark) para comprobar la
eficacia del algoritmo desarrollado.
El documento se encuentra estructurado como sigue: en la
sección 2 se presenta el estado del arte, donde se presenta una
revisión de las investigaciones realizadas hasta la fecha; en la
sección 3, se realiza el planteamiento del problema de la tardanza
total ponderada para el modelo básico;
en la sección 4, se presenta la descripción de las técnicas
utilizadas para resolver el problema; en la sección 5, se definen la
estructuras de los algoritmos propuestos; en la sección 6, se
presentan las pruebas computacionales; los resultados de la
investigación son reportados en la sección 7; las secciones 8 y 9
presentan las conclusiones y el trabajo futuro, respectivamente.
II. ESTADO DEL ARTE
El problema general de la tardanza ponderada fue inicialmente
estudiado por Lawler [1] y Lenstra, Rinnooy y Brucker [2]. Ellos
mostraron que el problema es NP-Hard, y estos últimos
consideraron el caso donde los pesos son iguales. Lawler,
consideró el caso donde los pesos son dispuestos de acuerdo al
tamaño de los trabajos; aquellos con tiempos de procesamiento
largo tienen pesos pequeños. Con estas características iniciales,
desarrollaron un algoritmo con un tiempo de ejecución
pseudopolinomial.
Potts y Van Wassenhove [3] desarrollaron un algoritmo de
ramal y límite en el cual usaron relajación langragiana, porque el
algoritmo de ramal y limite solo, presenta grandes problemas
computacionales cuando se intenta solucionar de manera óptima
un problema con más de 50 trabajos. Ellos reemplazaron la
técnica de subgradiente de optimización por un multiplicador
adaptado, que dió una ventaja en velocidad para calcular el
límite; el método incorpora varios mecanismos de chequeo de la
dominancia del programa dinámico en la búsqueda. Este
desarrollo fue probado con problemas con más de 50 trabajos.
Abdul-Razaq, Potts y VanWassenhove [4] propusieron una
comparación computacional de varios algoritmos exactos. A partir
de los hallazgos encontrados en estos estudios, los enfoques de
solución se han direccionado en métodos heurísticos, que
incluyen heurísticas de solución simple como EDD (Earliest Due
Date), SPT (Shortest Procesing Time) y metaheurísticas como:
Búsqueda tabú, colonia de hormigas, enfriamiento simulado,
algoritmos genéticos y búsqueda local iterada; porque permiten
secuenciar mayor número de trabajos, además, de otros
acercamientos como relajación langragiana.
Matsuo, Suh y Sullivan (1987) propusieron un acercamiento
mediante enfriamiento simulado, que fue mejorado por una
heurística desarrollada por Potts y Van Wassenhove [5].
A. Bahram y K. R. Ramakrishnan [6] exponen una comparación
en dos reglas heurísticas: COVERT (El costo sobre el tiempo) y
AU (Urgencia Aparente), las cuales son contenidas en otras 12
reglas de despacho (heurísticas simples); estas reglas fueron
probados en problemas con 25, 50, 100, 150 y 200 trabajos.
P.A. Huegler y F.J. Vasko [7] realizaron una comparación de
heurísticas, donde definieron varias de ellas basadas en
programación dinámica con métodos simples (―quick and dirty‖) y
complejos; además, usaron una heurística denominada DESO
(Heurística descendiente con cero intercambios) combinada con
Aplicación de Metaheurísticas para Secuenciación de Máquinas en el Modelo Básico
Fabián Giraldo, Docente Investigador, Ingeniería de sistemas
E
enfriamiento simulado (SA). El uso de este método da la
posibilidad de mover la solución desde mínimos locales y llegar a
una solución óptima. Este método requiere un gran esfuerzo
computacional comparado con otras técnicas constructivistas
―quick and dirty‖. La comparación de estos algoritmos fueron
probados en problemas benchmark de 50, 100, 200 y 500
trabajos.
Crauwels, Potts y Van Wassenhove (1998); Congram, Potts, y
van de Velde [8] presentaron una eficiente heurística de búsqueda
local.
A. Bauer, B. Bullnheimer, R. Harti y C. Strauss [9] desarrollaron
un algoritmo de colonia de hormigas. Ellos integraron una
heurística simple MDD (Modified due date), experimentaron con
varias heurísticas de información y con varios métodos de
búsqueda local. Probaron su desarrollo con 250 problemas
benchmark con 50 y 100 trabajos, donde encontraron que la
colonia de hormigas es un método apropiado para este problema.
P.M. França, A. Mendes y P. Moscato [10] desarrollaron un
algoritmo memético (MA), el cual compararon con un algoritmo
genético puro; donde la principal contribución de este trabajo con
respecto la implementación de los algoritmos tradicionales es, la
implementación de la población hibrida como un acercamiento a
la estructura jerárquica, como un árbol y la evolución de los tres
operadores recombinados. En lo que se refiere al procedimiento
de mejora local, los vecinos, implementados mediante la
estructura jerárquica, reducen los esquemas de desarrollo;
demostrando ser eficiente cuando es comparado con un
vecindario completo.
I. Borgulya [11] en su trabajo describe un nuevo algoritmo
evolutivo, la operación de este método fue dividida en tres
estados: Un cluster y dos estados de búsqueda local. En el primer
estado se enfocaron en soluciones localmente óptimas agrupadas
basadas en su similaridad. En el segundo estado, mejora la
precisión de la aproximación de la solución con un procedimiento
de búsqueda local mientras que periódicamente genera nuevas
soluciones. En el tercer estado, el algoritmo continúa la aplicación
del procedimiento de búsqueda local. Ellos prueban el algoritmo
con todos los problemas benchmark de la libreria ORLIB.
N. L. Mohamed, Abdelrahman y S. Ramaswany [12]
desarrollaron un enfoque de solución mediante algoritmos
genéticos. El algoritmo usó una representación del cromosoma
por permutación natural. Mediante combinación de reglas de
despacho y un método aleatorio, originaron la población inicial.
Los problemas de prueba generados mostraron la eficiencia y
calidad de la medida de cumplimiento, con problemas de 10, 25,
50, 100, 200 y 500 trabajos.
R. Maheswaran y E. S. G. Ponnambalam [13] desarrollaron un
procedimiento heurístico llamado backward forward heuristic y un
análisis para los métodos de formulación de los problemas. Los
problemas benchmark y sus valores conocidos disponibles en la
librería ORLIB fueron usados para el desarrollo de una
comparación con el fin de encontrar la influencia de la fecha
prevista relativa (RDD) y el factor de tardanza.
E. Rodríguez, D. Carmona, L. F. Moreno, F. J. Díaz, G. E.
Peña y C. Cárdenas [14] desarrollaron un algoritmo de búsqueda
tabú. El algoritmo desarrollado empleó un vecindario basado en
intercambios aleatorios pareados. Realizaron experimentos de
prueba, fijando diferentes tamaños de vecindario. Los resultados
mostraron que el algoritmo produce soluciones óptimas o
cercanas al óptimo en los problemas de prueba analizados;
además, encontraron que los distintos tamaños del vecindario no
muestran diferencias significativas en la frecuencia de hallazgos
de soluciones óptimas.
A. Grosso, F. Della Croce y R. Tadei [15] presentaron una
mejora al enfoque de solución dado por Congram, Potts y Van de
Velde. Ellos desarrollan una mejora al vecindario de dynasearch,
obtenido por la generalización de un intercambio pareado de
operadores; sustentado por las pruebas computacionales
generadas.
R. Maheswaran y E. S. G. Ponnambalam [16] desarrollaron un
algoritmo evolutivo, donde utilizaron un intercambio aleatorio para
el operador de mutación y un orden para el operador de cruce. La
propuesta de algoritmo comienza con una par de secuencias: una
generada por una heurística greedy; y otra, por una namely. Los
experimentos computacionales condujeron a aplicar en el
operador de mutación una secuencia de la fase backward,
desarrollado en trabajos anteriores. Se probó con 125 problemas
benchmark disponibles en la librería ORLIB y los resultados son
comparados con los resultados disponibles conocidos, dando
mejores resultados que otros.
Ü. Bilge, M. Kurtulan y F. Kirac [17] presentaron un
procedimiento de búsqueda totalmente determinístico con un
vecindario híbrido y una estancia de estructura dinámica. Ellos
investigaron la resistencia de la lista de candidatos, basada en
una estrategia a problemas específicos característicos, buscando
un incremento de la eficiencia de la búsqueda; generando una
mejor calidad de los resultados en los problemas benchmark
obtenidos de la literatura.
P. Araya, P. Silva y P. Palominos [18] presentaron una nueva
heurística greedy, basada en un intercambio de trabajos que
disminuye la función objetivo. Esta heurística fue comparada con
los resultados de los problemas de la librería ORLIB, mostrando,
en algunos casos analizados, que las soluciones son iguales a la
solución óptima con un promedio de error del 2%.
A.B. Colak Altuna y A. Burak Keha [19] solucionan el problema
usando programación entera y programación lineal basada en
algoritmos heurísticos. Ellos formularon un intervalo indexado en
la formulación del problema; mostrando diferentes métodos para
formar el intervalo y diferentes métodos de post-procesamiento.
De acuerdo a esos desarrollos ellos exponen cómo este algoritmo
puede ser usado para mejorar la población de un algoritmo
genético.
L.T. Xianpeng Wang [20] enfocó la solución para el problema
en el desarrollo de una población basada en un vecindario de
búsqueda (VNS). El primer PVNS (Primer vecindario de
búsqueda) consistió en un número de iteraciones básica de VNS,
y en cada iteración una población de la solución es generada,
permitiendo que hayan múltiples soluciones como método de
mejora para la búsqueda de la diversificación. En la segunda
PVNS adoptaron una combinación de path-relinking variable y
búsqueda tabú; actuando como un procedimiento de búsqueda
local como una intensificación de la búsqueda.
III. PLANTEAMIENTO DEL PROBLEMA
El problema de la minimización de la tardanza total ponderada
en el modelo básico puede ser planteado de la siguiente manera:
Cada orden contiene n trabajos, numerado de 1 a n ,
disponibles en tiempo igual a cero; a ser procesados sin
interrupción en una máquina, donde la máquina sólo puede
procesar un trabajo a la vez. Cada trabajo j
tiene un tiempo de
procesamiento Pj , una fecha de compromiso dj
y una
penalización wj
, por cada unidad de tiempo que el trabajo
finalice después de la fecha de compromiso.
Una vez secuenciados todos los trabajos cada uno tiene un
tiempo de terminación Cj .
Se define como medida de cumplimiento, como la tardanza del
trabajo que puede ser definida así: ),0max( djCjTj , donde
Tj representa, la diferencia positiva a partir de la fecha de
compromiso. Si se asume que la función de penalización es
lineal, entonces el problema consiste en hallar una secuencia que
minimice:
(1)
Varios autores han desarrollado estudios donde muestran que
este problema es NP-Hard.
IV. TÉCNICAS UTILIZADAS
Los algoritmos de búsqueda local tienen la ventaja de ser
flexibles o aplicables con gran generalidad, esto quiere decir que
solo requieren de una serie de pautas: especificaciones de
solución, función objetivo y un método eficiente para explorar las
regiones de solución. En la actualidad se han desarrollado
muchos métodos que toman ventaja de estrategias en las que se
aceptan soluciones que deterioran la función de ‗costo‘ como son:
búsqueda tabú, algoritmos genéticos y enfriamiento simulado. En
esta sección se presenta una breve descripción de cada una de
estas técnicas.
A. Búsqueda tabú (TS).
El algoritmo de búsqueda tabú es, una estrategia de búsqueda
basada en la memoria [21], combina un algoritmo determinístico
de avance iterativo con la posibilidad de aceptar soluciones que
incrementen el costo. De esta manera, la búsqueda es dirigida
fuera de óptimos locales y, por lo tanto, otras partes del espacio
de soluciones pueden ser exploradas. El algoritmo preserva una
lista de movimientos o soluciones que han sido visitadas en el
pasado; esta lista es conocida como lista tabú y es una estructura
de cola con estrategia FIFO, con tamaño fijo o variable. El
propósito de esta lista es restringir la elección de soluciones para
prevenir el regreso a puntos recientemente visitados; es decir,
evitando alguna repetición o ciclo. La lista tabú es actualizada
dinámicamente durante la ejecución del algoritmo y define
soluciones que no son aceptables en unas siguientes iteraciones.
Sin embargo, una solución de la lista tabú puede ser aceptada si
su calidad, en algún sentido elevada, lo justifica. En este caso se
dice que se ha alcanzado cierto nivel de aspiración.
La memoria puede ser reciente o basada en la frecuencia. En
caso de la memoria reciente, también conocida como memoria
corta, el tabú, es de tamaño N, donde se guarda los últimos N
movimientos que el algoritmo haya encontrado; el principal
objetivo es, explorar profundamente una región determinada del
espacio de soluciones. La memoria basada en la frecuencia,
conocida como memoria larga, proporciona información adicional,
la frecuencia con que ocurren los movimientos tabú en la solución,
con el fin de identificar regiones del espacio de búsqueda.
B. Algoritmos genéticos (GA)
Los Algoritmos Genéticos constituyen una técnica de búsqueda
y optimización, altamente paralela, inspirada en el principio
Darwiniano de selección natural y reproducción genética; los
principios de la naturaleza en los cuales están inspirados los
algoritmos genéticos son muy simples.
De acuerdo con la teoría de Darwin, el principio de selección
privilegia los individuos más aptos con mayor longevidad y, por lo
tanto, con mayor probabilidad de reproducción. Los individuos con
más descendentes tienen más posibilidades de transmitir sus
códigos genéticos en las próximas generaciones. Tales códigos
genéticos constituyen la identidad de cada individuo y están
representados en los cromosomas.
Estos principios son imitados en la construcción de algoritmos
computacionales que buscan la mejor solución, para un
determinado problema, a través de la evolución de poblaciones de
soluciones codificadas a través de cromosomas artificiales, ya que
estos son capaces de generar soluciones para problemas del
mundo real. El desarrollo de dichas soluciones hacia valores
óptimos para el problema depende en buena medida de una
adecuada codificación de los cromosomas y del diseño del
algoritmo genético [22].
En general, el trabajo con algoritmos genéticos [23], requiere
de una representación del problema, mediante un cromosoma.
Cada uno es una estructura de datos que representa una de las
posibles soluciones del espacio de búsqueda del problema,
además de una función de evaluación o de adaptación al
problema, la cual asigna un valor a cada posible solución
codificada indicando la bondad de la solución. Durante la
ejecución del algoritmo, los padres deben ser seleccionados para
la reproducción o intercambio genético, lo que producirá nuevos
hijos o soluciones, a los cuales, con cierta probabilidad, se les
aplicará una mutación. El resultado de la combinación de los
pasos anteriores será un conjunto de individuos, posibles
soluciones al problema, los cuales pasarán a formar parte de la
población en la siguiente generación.
C. Enfriamiento simulado (SA)
El enfriamiento simulado es una técnica de relajación
estocástica [24], que encontró su origen en la mecánica
estadística; esta técnica es análoga a los procesos de recocido
en los sólidos. El proceso de recocido consiste en evitar el estado
meta-estable producido por el enfriamiento; los metales suelen ser
enfriados muy lentamente. Mediante ese tiempo se obtiene un
orden estable, estructura fuerte y bajas configuraciones de
1
)(J
wjTjsF
energía. Esta analogía puede ser usada en la optimización
combinatoria; los estados de sólidos corresponden a la solución
factible, la energía en cada uno de los estados permite encontrar
la mejora a la función objetivo. Para llegar a estos estados se
involucra la reducción gradual de temperatura durante la
simulación, lo que da al sistema la oportunidad de superar
barreras energéticas en la búsqueda; permitiendo encontrar
mínimos locales de energía.
En cada paso de simulación del algoritmo, un nuevo estado del
sistema es construido por un estado presente dado por un
desplazamiento aleatorio a una partícula aleatoriamente
seleccionada. Si la energía asociada con el nuevo estado es
menor que la energía del estado presente el desplazamiento es
aceptado; así ese estado es, el estado presente. Si el nuevo
estado tiene una energía mayor, la probabilidad de cambio del
presente estado al nuevo estado se da por medio de una
ecuación de transición.
V. ENFOQUES DE SOLUCIÓN
Con el fin de dar una solución eficaz, al problema de la
tardanza ponderada para el modelo básico, se han adoptado las
anteriores tres técnicas metaheurísticas, por que ofrecen grandes
ventajas respecto a otras técnicas estudiadas y han demostrado
ser una metodología competente, que arroja buenos resultados.
La secuencia de pasos que sigue los algoritmos desarrollados
se puede resumir como sigue.
A. Búsqueda tabú (TS).
La estructura de este enfoque esta dada por los siguientes
pasos:
Mecanismo de generación de la solución inicial; esta
es construida aleatoriamente.
Generación del vecindario: Para evolucionar hacia
otras soluciones, se utilizan funciones que alteren la
secuencia inicial o actual, y así generar un entorno de
búsqueda. El algoritmo genera un vecindario de
secuencias, construidas a partir de la solución inicial;
por lo que, se pueden obtener realizando un
intercambio aleatorio pareado de los n trabajos.
Evaluación de la función objetivo: Se evaluan cada una
de las soluciones del vecindario y se escoge aquella
que tenga la menor tardanza ponderada; esta se
convierte en la nueva solución actual.
Actualización de la lista tabú: La actualización consiste
en evaluar si la solución de menor tardanza
ponderada, hallada anteriormente, se encuentra en la
lista tabú, en cuyo caso se remueve esta del
vecindario y se regresa al paso anterior; de no estar,
la solución es añadida a la lista tabú. El tamaño de la
lista tabú desarrollado es fijo, es de memoria corta.
Criterio de finalización: Número de iteraciones
determinado inicialmente.
B. Algoritmos genéticos (GA).
La estructura general de este enfoque está dada en
los siguientes pasos:
Obtener una representación genética a una solución
del problema, mediante un cromosoma artificial.
Generar mecanismo para la población inicial. P (t).
Definir una función de evaluación que permita clasificar
los individuos en términos de la función aptitud
definido para el problema.
Utilizar operadores genéticos que alteren la
composición de los hijos, durante la reproducción y
la mutación, lo cual permite generar el entorno de
búsqueda.
Evaluación de la función objetivo: Se evalua cada una
de las soluciones de la población y se escoge aquella
que tenga la menor tardanza ponderada; esta se
convierte en la nueva solución actual.
Definir un mecanismo para que los individuos pasen a
la siguiente generación.
Criterio de finalización. Número de generaciones.
El funcionamiento básico del algoritmo es el siguiente: El
algoritmo genético mantiene una población de individuos, llamada
P (t), para la generación t; cada individuo representa una solución
potencial al problema; cada individuo es evaluado y se obtiene
una medida de su función de aptitud; algunos se seleccionan y se
le aplican operadores genéticos para formar nuevos individuos.
Hay dos tipos de transformaciones (Operadores genéticos):
Mutación, la cual crea un nuevo individuo realizando un cambio en
un individuo de la población de padres; y el cruce, el cual crea
nuevos individuos combinando partes de dos individuos de la
población de padres. Los nuevos individuos, llamados
descendencia C(t), son evaluados. Una nueva población es
formada seleccionando los individuos de mejor fitness de la
población de los padres y tomando otros siguiendo alguna regla
de selección de la descendencia generada.
Después de varias generaciones, el algoritmo converge al
mejor individuo, el cual representa una solución óptima o
subóptima al problema.
Los elementos principales del algoritmo y la forma en que
fueron obtenidos se resumen como sigue:
Representación del cromosoma: Se seleccionó la
codificación entera unidimensional mediante
permutación de trabajos, a cada trabajo se le asigna
una identificación numérica única, formando el vector
[1, 2, 3,…n], donde n indica el número de trabajos. La
representación muestra la secuencia que minimiza la
tardanza total ponderada.
Formación de la población Inicial P (t): Se generan
aleatoriamente los individuos, de acuerdo a un
mecanismo de selección para formarla y un tamaño
definido inicialmente, como parámetro del algoritmo.
Función de aptitud (Fitness): Es la definida como
función objetivo para el problema
Formación de los descendientes C (t): Se generaron
nuevos individuos a través de los operadores
genéticos, reproducción y de mutación.
Reproducción: Se seleccionan dos individuos de la población y
]),2/1(),2/1([ RDDTFTRDDTFTUdj
se denominan como P1 y P2. Se genera un punto de corte
aleatoriamente; el punto de corte es un número aleatorio entre 1
y el número de trabajos que conforman el cromosoma; el corte se
hace en cada uno de los cromosomas seleccionados como
padres.
Se producen dos nuevos individuos utilizando los siguientes
métodos:
Individuo1: Se preserva la posición absoluta de los
trabajos de P1 antes del corte y se completa el
cromosoma con los trabajos diferentes a los tomados en
P1 de P2.
Individuo2: Se preserva la posición absoluta de los
trabajos de P2 antes del corte y se completa el
cromosoma con los trabajos diferentes a los tomados en
P2 de P1.
Mutación: Se parte de los cromosomas P1 y P2, nombrados
para la reproducción. Para P1 se intercambian trabajos
adyacentes en el cromosoma, y se forma un nuevo individuo;
Para P2 se intercambian trabajos adyacentes en el cromosoma y
se forma el nuevo individuo.
Este procedimiento se realiza tantas veces como
descendientes se hayan configurado inicialmente, mediante un
porcentaje de reproducción y mutación, como parámetros del
algoritmo.
Selección: Los individuos se seleccionan de la siguiente
manera: se toman la mitad de los mejores individuos de la
población actual P (t) y la otra mitad se toma de los descendientes
generados utilizando la regla de la ruleta. Para realizarla se
realizan los siguientes pasos:
Suma de todas las funciones de aptitud de los
individuos descendientes, TF.
Se genera un número aleatorio entre 1 y TF.
Se retornan los primeros miembros de la población que
supere el número aleatorio generado.
Se completa la población utilizando los siguientes
mejores individuos de la población P (t).
C. Enfriamiento simulado (SA)
La estructura de este enfoque esta dada por los siguientes
pasos:
Mecanismo de generación de la solución inicial, esta
es construida aleatoriamente.
Seleccionar una temperatura inicial t0. mayor que cero.
Seleccionar una función de reducción de la
temperatura.
Generación del vecindario: Para evolucionar hacia
otras soluciones, se utilizan funciones que alteren la
secuencia inicial o actual, para generar un entorno de
búsqueda. El algoritmo genera un vecindario de
secuencias, construidas a partir de la solución inicial;
por lo que, se pueden obtener realizando un
intercambio aleatorio pareado de los n trabajos.
Evaluación de la función objetivo. El propósito es
evaluar cada una de las soluciones del vecindario.
Seleccionar la mejor solución encontrada para los
vecinos (Sbest) y compararla con la solución actual
(Sc). Si Sbest es menor que Sc, entonces se toma
como mejor solución del problema; en caso contrario,
se pregunta si la solución encontrada es mejor que la
solución obtenido en la iteración k; si es así, se
acepta como nueva solución k+1; en caso contrario,
se genera un número aleatorio uniforme y se
compara con (2); si es menor se acepta como
solución k+1, para la iteración.
(2)
Se actualiza la temperatura,
usando la función de transferencia, que en este caso
es: tt 9.0
Criterio de finalización: Número de iteraciones
configurado como parámetro del algoritmo.
VI. PRUEBAS COMPUTACIONALES
A. Bahram y K. R. Ramakrishnan, desarrollaron un esquema, el
cual se adoptó para este estudio, para generar los problemas de
prueba (generados aleatoriamente y que contemplan 40, 50 y 100
trabajos) de la siguiente manera:
Tiempos de procesamiento. Son generados mediante
una distribución uniforme discreta tal que:
)100,1(UPi .
Fecha de compromiso: Los problemas NP-Hard
dependen de un rango de fecha de compromiso
relativo (RDD) y el promedio del factor de tardanza
(TF), por lo que la fecha de compromiso es generada
mediante una distribución uniforme tal que:
(3)
En donde RDD, toma valores de (0.2, 0.4, 0.6, 0.8, 1.0); TF de
(0.2, 0.4, 0.6, 0.8, 1.0) y T se calcula con (4).
(4)
iii. Penalización de la tardanza: Los pesos fueron generados
por una distribución uniforme ]10,1[Uwj .
VII. ANÁLISIS DE RESULTADOS
En esta sección se describen las pruebas computacionales que
se usaron para evaluar la eficiencia de los distintos métodos
metaheurísticos. Para ilustrar la efectividad de los algoritmos
propuestos en este artículo, se realizaron pruebas con algunos
problemas de referencia de 40, 50 y 100 trabajos tomados de la
librería ORLIB, que presentan el mismo esquema de generación
que el descrito en la sección anterior.
A continuación se describen los parámetros utilizados para
ejecutar los tres algoritmos.
t
kSFcSF
e
)()(
PjnjT ),...,1(
Vecindario: como se dijo anteriormente, el vecindario fue
construido mediante intercambios aleatorios entre parejas de
trabajos. Se hicieron las pruebas con un tamaño de vecindario de
10 para los tres enfoques.
Número de ejecuciones y número de iteraciones: para cada
uno de los problemas se hicieron experimentos de 5 ejecuciones,
cada una con 500000 iteraciones, dado que la solución inicial es
aleatoria y por lo que el entorno de búsqueda es diferente para
cada una de las corridas.
El programa fue implementado en lenguaje Java y las pruebas
fueron realizadas en un portátil IBM con procesador Intel(R)
Pentium(R) M de 1.4 GHz, y 512MB de Memoria RAM.
La tabla 1 muestra los resultados obtenidos para el problema
de 40 trabajos en cada tamaño de vecindario; para cada criterio
de paro analizado; para las tres metaheurísticas desarrolladas, y
se muestra el tiempo de ejecución para cada corrida. En la parte
inferior se encuentra el óptimo o la mejor solución conocida.
TABLA 1.
RESULTADOS EXPERIMENTALES PARA EL PROBLEMA DE 40 TRABAJOS.
Tiempo de
ejecución
(ms)
Enfoque de soluciónFunción
objetivo
1 406194 Tabu Search 1108
2 309655 Tabu Search 1079
3 308875 Tabu Search 1008
4 308824 Tabu Search 956
5 313110 Tabu Search 1096
6 551293 Genético 1132
7 481640 Genético 1274
8 451700 Genético 1278
9 436377 Genético 1128
10 455194 Genético 1129
11 36534 Enfriamiento Simulado 1181
12 334080 Enfriamiento Simulado 1084
13 331496 Enfriamiento Simulado 1029
14 326008 Enfriamiento Simulado 956
15 339788 Enfriamiento Simulado 1036
Óptimo 913
Para medir el desempeño de las metaheurísticas y poderlas
comparar se calcularon dos indicadores utilizados en la
programación de producción como lo son (5) y (6).
Error relativo enfoque óptimo
óptimo100%
(5)
Mejoramiento enfoque(a) enfoque(b)
enfoque(a)100%
(6)
Para hacer el cálculo de este indicador se realizó una
combinación de los enfoques desarrollados y, seguidamente,
hacer la comparación de mejoramiento entre los mismos.
La tabla 2 muestra los indicadores para medir el desempeño de
cada uno de los enfoques propuestos, para los resultados
obtenidos en el problema de 40 trabajos.
De acuerdo a los anteriores indicadores, se afirma que el error
relativo es alto en todos los enfoques desarrollados, hallando
como error relativo global un 20.29%; sin embargo, se hallan
acercamientos a la solución óptima dada por la literatura, para los
enfoques de búsqueda tabú y enfriamiento simulado, teniendo
estos un acercamiento al óptimo en una de las ejecuciones para
cada uno.
El indicador de mejoramiento para los enfoques indica, de
acuerdo a la función objetivo encontrada para el problema de 40
trabajos, cual de los enfoques es mejorado por algunos de ellos (o
tal vez no se encuentren diferencias significativa en el momento
de encontrar el óptimo del problema).
TABLA 2.
INDICADORES DE DESEMPEÑO, PARA EL PROBLEMA DE 40 TRABAJOS.
Problemaserror
relativo Mejoramiento Combinación
1 TS-1 21,36% -2,17% TS(1)-AG(6)
2 TS-2 18,18% -6,59% TS(1)-AS(11)
3 TS-3 10,41% -18,07% TS(2)-AG(7)
4 TS-4 4,71% -0,46% TS(2)-AS(12)
5 TS-5 20,04% -26,79% TS(3)-AG(8)
-2,08% TS(3)-AS(13)
6 AG-6 23,99% -17,99% TS(4)-AG(9)
7 AG-7 39,54% 0,00% TS(4)-AS(14)
8 AG-8 39,98% -3,01% TS(5)-AG(10)
9 AG-9 23,55% 5,47% TS(5)-AS(15)
10 AG-10 23,66% -4,33% AG(6)-AS(11)
14,91% AG( 7)-AS(12)
11 AS-11 29,35% 19,48% AG(8)-AS(13)
12 AS-12 18,73% 15,25% AG(9)-AS(14)
13 AS-13 12,71% 8,24% AG(10)-AS(15)
14 AS-14 4,71%
15 AS-15 13,47%
De acuerdo a los resultados reportados en la tabla 2. Se
encuentra que el enfoque de algoritmo genético y enfriamiento
simulado disminuyen en un porcentaje bastante alto la calidad de
la solución (en menor proporción este último; hallado por el
enfoque de búsqueda tabú). A su vez el enfoque de algoritmo
genético degrada la calidad de la solución para el problema con
respecto al enfriamiento simulado, de acuerdo al porcentaje
mostrado.
Es importante resaltar que en una ocasión, dos de los enfoques
desarrollados encontraron la misma solución para la función
objetivo del problema.
En la Fig 1. Se muestra el tiempo computacional consumido
por cada uno de los enfoques desarrollados.
Fig. 1. Tiempo de ejecución obtenido para el problema de 40 trabajos.
De acuerdo a la Fig. 1, cuando se secuencia la máquina
mediante alguna de estas metaheurísticas los enfoques toman
tiempos computacionales muy bajos (teniendo en cuenta un
número de 500.000 iteraciones para cada uno de ellos). Al
comparar los enfoques, los tiempos computacionales están
ligados a la dificultad del algoritmo; siendo esto más apreciable
para el algoritmo genético. La implementación de este se hace
más larga que cuando se secuencien por los otros enfoques
realizados. Se puede apreciar en la Fig. 1 que no existen grandes
diferencias entre el tiempo computacional requerido para la
ejecución del enfoque de búsqueda tabú y el del enfriamiento
simulado.
VIII. CONCLUSIONES
A pesar que el porcentaje de error relativo es un poco alto,
tener un resultado sub-óptimo en problemas de tipo NP-Hard, en
un tiempo computacional razonable, se convierte en un elemento
importante para la toma de decisiones. Es por esto que las
técnicas heurísticas superan notablemente a los métodos de
búsqueda exhaustiva (Enumera todas las soluciones para escoger
la mejor entre ellas).
El algoritmo que está mejorando más rápidamente la función
objetivo es el enfoque de búsqueda tabú. En gran parte se debe
porque la selección de soluciones está guiada por la memoria de
corto plazo; al contrario de recocido simulado, que selecciona
peores soluciones basados en una probabilidad, llegando en
algunos casos a bucles en la búsqueda; sin embargo, se debe
considerar la implementación de memoria de largo plazo que
según estudios puede mejorar más aún la diversidad del espacio
de soluciones y por ende encontrar soluciones mas próximas al
óptimo.
Se deben encontrar mejores mecanismos de generación de las
soluciones iniciales, ya que las obtenidas con el método aleatorio
parece ser que son muy lejanas al óptimo, lo cual puede significar
que se comienza a buscar por zonas no apropiadas y esto hace
que la minimización de la función objetivo tarde bastantes
iteraciones para mejorar. Se debe pensar en utilizar reglas de
despacho u otras heurísticas de búsqueda local para generarlas.
El mecanismo de selección (Ruleta) utilizado para el algoritmo
genético debe ser modificado, ya que está permitiendo que pasen
individuos de poca calidad con una alta probabilidad, lo cual
influye notablemente en la calidad de la población en cada
generación; adicionalmente, se debe implementar la reproducción
como mecanismo principal de generación de individuos,
combinando individuos de buenas características en la población
y, adicionalmente, especificar una probabilidad para mutar los
individuos generados. Según estudios realizados por autores
especificados en el estado del arte, estos enfoques mejoran
notablemente la calidad de las soluciones obtenidas.
Trabajos futuros
De acuerdo a la literatura se encontró que los algoritmos
genéticos son los más recurrentes para solucionar el problema de
tardanza total ponderada en el modelo básico. Dada esta
recurrencia en las investigaciones recientes para este problema,
es importante que se realice un análisis comparativo utilizando los
tres enfoques más ‗tradicionales‘ en las metaheurísticas. Estos
son, los empleados en el presente trabajo mediante técnicas de
estadística avanzada, como es la herramienta de diseño
experimental, utilizando parámetros en los algoritmos diseñados
que permitan obtener numéricamente y de manera significativa,
algunos de los efectos dados por elementos como: el número de
iteraciones y número de vecinos en la calidad de solución para el
problema.
La pregunta ¿cuál es el tamaño idóneo para un vecindario?
parece no tener una respuesta clara, dado que intuitivamente se
puede pensar que las poblaciones pequeñas corren el riesgo de
no cubrir adecuadamente el espacio de búsqueda, mientras que
trabajar con poblaciones de gran tamaño puede acarrear
problemas asociados al gran costo computacional. Por tanto, un
aspecto importante para desarrollar en trabajos futuros es la
parametrización de los enfoques de solución desarrollados.
Se proponen explorar otras técnicas metaheurísticas como:
colonia de hormigas y bandadas de aves o bancos de peces, para
el problema de minimizar la tardanza total ponderada, y
compararla con los enfoques ya desarrollados (con respecto a la
calidad de la función objetivo y el tiempo computacional requerido
para obtener una secuencia óptima o subóptima del problema).
Tambien se proyecta el generar soluciones para el problema
mediante los enfoques desarrollados en este artículo,
considerando otras medidas de cumplimiento que contribuyan a
desarrollar planes eficaces y un valor agregado diferenciador para
las necesidades de las diferentes industrias de manufactura.
REFERENCIAS
[1] E. Lawler, A Pseudopolynomial Algorithm for Sequencing Jobs to Minimize Total Tardiness. Annals of Discrete Mathematics,vol 1,1977.
[2] J.K. Lenstra, A.H.G. Rinnooy Kan, and P. Brucer. Complexity of Machine Scheduling Problems. Annals of Discrete Mathematics, Vol 1, pp.343-362, 1980.
[3] C.N. Potts, and L.N. Van Wassenhove. A branch and bound algorithm for total weighted tardiness problem. Operations Research,1985.
[4] T.S. Abdul-Razaq , C.N. Potts , and L. N. Van Wassenhove, A survey of algorithms for the single machine total weighted tardiness scheduling problem, Discrete Applied Mathematics, Vol.26, pp.235-253, Mar. 1990.
[5] N. Potts, and L.N. Van Wassenhove. Single Machine Tardiness Sequencing Heuristics. IIE Transactions, Vol. 23, pp.346-354,1991.
[6] B. Alidaee, and K.R. Ramakrishnan. A computational experiment of covert-au class of rules for single machine tardiness scheduling problem. Computers industrial engineering, 1996.
[7] P.A Huegler, and F.J. Vasko. A performance comparison of heuristics for the total weighted tardiness problem. Gran Bretaña: Computers industrial engineering, pp. 753-767, 1997.
Tiempo de ejecución
0
100000
200000
300000
400000
500000
600000
1 2 3 4 5
Búsqueda tabu
Algoritmo genético
Enfriamiento simulado
[8] R.K, Congram, C.N. Potts, and S.L Van de Velde. An Iterated Dynasearch Algorithm for the Single-Machine Weighted Tardiness Problem. Informs Journal on Computing, vol.14, 2002.
[9] A. Bauer, B. Bullnheimer, R. Hartl, F. RICHARD, and C. Strauss. Applying ant colony optimization to solve the single machine total tardiness problem. Austria: Adaptative information systems and modeling in economics and management science. reporte 42, 1999.
[10] P.M. Franca, A. Mendes, and P. Moscato. A memetic algorithm for the total tardiness single machine scheduling problem. European Journal of Operational Research, vol.132, 2001.
[11] I. Borgulya. A cluster-based evolutionary algorithm for the single machine total weighted tardiness scheduling problem. Journal of computing and information technology. vol.3, pp.211-217, 2002.
[12] N.L. Mohamed,A. Abdelrahman, and S. Ramaswany. A genetic algorithm for the single machine total weighted tardiness problem. IEEE, 2003.
[13] R. Maheswaran, and E.S.G. Ponnambalam. An investigation on single machine total weighted tardiness scheduling problems. Londres: International Journal Adv Manufacturing Technology, vol.22, pp.243-248, 2003.
[14] E. Rodriguez, D. Carmona, L.F. Moreno, F.J Diaz,G.E Peña, and C. Cárdenas. Solución de un Problema de la Tardanza Total Ponderada en el Modelo Básico, Usando Un Algoritmo De Búsqueda Tabú. Revista Iberoamericana de Sistemas, Cibernética e Informática, 2004.
[15] A. Grosso, F. Della Croce, and R. Tadei. An enhanced dynasearch neighborhood for the single machine total weighted tardiness problem. Operations Research letters. vol.32, pp.68-72, 2004.
[16] R. Maheswaran, and E.S.G. Ponnambalam. An intesive search evolutionary algorithm for single-machine total weighted tardiness problem. International Journal Adv Manufacturing Technology, vol.26, pp.1150-1156, 2005.
[17] U. Bilge, M. Kurtulan, and F. Kirac. A tabu search algorithm for the single machine total weighted tardiness problem. European Journal of Operational Research. vol.176, pp.1423-1435, 2007.
[18] P. Araya,P. Silva, and P. Palominos. A new greedy heuristic for the single machina total weighted tardiness problem. Chile: 19th International Conference on Production Research, 2007.
[19] A. Colak, B. Arife, and A. Burakkeha. Interval-indexed formulation based heuristic for single machine total weighted tardiness problem. Computers & Operations Research. vol.36, pp.2122-2131, 2009.
[20] L.T Xianpeng Wang. A population based variable neighborhood search for the single machine total weighted tardiness problem. Computers & Operations Research. vol.36, pp.2105-2110, 2009.
[21] F. Glover, and M. Laguna Tabu search. Kluver academia publishers, 1997. [22] D. Goldenberg. Genetic algorithms in search, optimization and machine
learning. Addison-Wesley, Reading, MA. 1989 [23] J.P. Caballero, G. Mejia. Redes de petri y algoritmos genéticos, una
propuesta para la programación de sistemas de manufactura flexible. Bogotá: Revista Ingeniería y Universidad. Pontificia Universidad Javeriana, vol.10, 2006.
[24] S. Kirkpatrick, C.D. Gelatt, and M.P VECCHI. Optimization by simulated annealing. Science, vol.220, pp.671-680, 1983.
Resumen—La creación de un modelo conceptual permite resumir y modelar de manera más clara y concisa los aspectos que tienen más relevancia a la hora de preferir un medio de transporte como lo es la bicicleta, este documento presenta las variables críticas para la implantación de la bicicleta como medio de transporte en la ciudad de Bogotá.
Palabras clave — Modelo conceptual, Estructura organizacional, Bicicleta.
I. INTRODUCCIÓN
a movilidad es un tema que ocupa y preocupa a los
mandatarios de las principales ciudades de Colombia y en
especial a la ciudad de Bogotá; por ser esta la que concentra un
mayor número de personas y un principal centro de negocios del
país. Es por esto, que esta investigación fue encaminada a
generar una propuesta, a partir de un modelo conceptual, que
genere compromiso y responsabilidades a los diferentes actores
que guían el rumbo de la ciudad, para que a partir del uso de la
bicicleta como medio de transporte de las personas, se contribuya
a mejorar la movilidad en la ciudad y, el cuidado y conservación
del medio ambiente en la misma.
El modelo propuesto, identifica una estructura organizacional
de actores relevantes para la consecución de la propuesta, sus
responsabilidades y compromiso con el mismo, para que se
gestionen políticas que promuevan, generen espacios y regulen el
uso de la bicicleta como transporte de las personas al interior de
la ciudad.
II. MODELO CONCEPTUAL PARA EL TRANSPORTE EN BICICLETA (TB)
La construcción de ciclorrutas para fomentar el uso de la
bicicleta no garantiza el aumento de los usuarios, es necesaria la
combinación de estrategias que trabajen de manera conjunta [1].
En el caso de Bogotá, se corren los riesgos de pérdida en la
inversión ya realizada para la movilidad en bicicleta. La gestión
del tráfico, las garantías de seguridad en las intersecciones, la
vigilancia continua y los estacionamientos son factores que
repercuten de manera positiva al aumento de la movilidad en
bicicleta.
La construcción de los siguientes modelos se fundamentó en el
análisis de entrevistas realizadas, la situación de algunos
países y la situación actual de Bogotá. Es importante resaltar
que además de la información, la construcción de los modelos
tuvo como base la metodología Suave de Peter Checkland, la cual
se aplicó en su totalidad a excepción del último paso, ya que era
imposible de realizar debido a las condiciones del proyecto.
Fig. 1. Modelo Propuesto para el Transporte en Bicicleta.
El nodo de la izquierda y el inferior representan los beneficios y
aspectos necesarios para el transporte en bicicleta, el nodo del
centro y el de la derecha corresponden a las organizaciones
encargadas de gestionar dichos aspectos y el nodo superior el
factor fundamental y decisivo para el ciclo; EOTB responde a
―Estructura organizacional para el transporte en bicicleta‖.
Adicionalmente, el modelo contempla a la ciudadanía en
general como los autores implícitos en el modelo y reconoce la
existencia e impacto de factores externos como: Topografía,
clima, desastres naturales, grupos al margen de la ley.
III. DINÁMICA DEL MODELO CONCEPTUAL
Gestión pública
Esta es la actividad primordial para la realización de cualquiera
de las propuestas generadas a partir por este modelo.
La gestión permite comprometer a los dirigentes políticos,
gubernamentales y el distrito en general para que en sus
programas de gobierno se establezca de manera continua el
apoyo, promoción, divulgación, financiación, aceptación, creación
de programas educativos-ambientales y la reingeniería en los
procesos de avance y capacitación en materia legal, en el
mantenimiento y políticas que favorezcan el Transporte en
Bicicleta (TB).
L
Modelo Conceptual para el Transporte en Bicicleta de la Ciudad de Bogotá
Diego F. Suero, Docente Investigador, Ingeniería Industrial
Estas acciones de coordinación son realizadas en primera
instancia por la organización de usuarios hacia los líderes
políticos y luego de la conformación de la Estructura
Organizacional para el Transporte en Bicicleta (EOTB), se
realizará de manera conjunta entre las dos entidades.
Históricamente, la generación de proyectos para el transporte
no motorizado, ocurren debido a que alguien con poder político,
dinero y perseverancia hace que sucedan. El mejor ejemplo es la
construcción de las ciclorrutas de Bogotá, como promesa de la
campaña del Alcalde Enrique Peñalosa, quien estaba totalmente
convencido de la importancia de tales medidas. De igual forma, la
peatonalización del centro de Curitiba, Brasil, también fue
apoyada por un Alcalde iluminado. La priorización del uso de
bicicletas en China fue una decisión de altos niveles del gobierno
nacional y del partido, al igual que hoy las restricciones al uso
también son impuestas por el gobierno [2].
A. Creación y puesta en marcha de la EOTB: Estructura organizacional para el transporte en bicicleta.(Pública).
Organización encargada de coordinar con todas las entidades
relevantes, actividades para el correcto funcionamiento y logística
del sistema. Esta organización estaría financiada por recursos del
estado y sus integrantes podrían ser personas que ya pertenecen
a cada una de las entidades del distrito, quienes conocen y
manejan de alguna forma los temas relacionados con la movilidad
en bicicleta.
Esta organización de carácter administrativo se encargará de
todos los aspectos necesarios legales y normativos para la
movilidad en bicicleta.
Realización de estudios:
movilidad, accidentalidad
Realización de unanormatividad específica para el
transporte en bicicleta
Control y vigilancia
del sistemaDiseño e implementación de
infraestructura y señalización parael transporte en bicicleta
Recopilación de informaciónde funcionamiento del
sistemaMonitoreo evaluación y
valoración de lainformación
Realización decorrecciones y mejoras al
sistema
Conectividad e integración
modal con otros sistemas
Aprobación y asignación derecursos para la conformación
de la EOTB
Fig. 2. Modelo Propuesto para la EOTB
B. Creación y puesta en marcha de una organización privada de usuarios y partidarios de la bicicleta.
Organización sin ánimo de lucro pero con patrocinios de
empresas privadas y actividades realizadas por la misma. Su
objetivo fundamental es ejercer presión política hacia las
entidades gubernamentales y lideres políticos para aceptación y
creación de programas y proyectos, que favorezcan el transporte
en bicicleta.
Estas acciones se realizan por medio de la coordinación de un
significativo grupo de afiliados, que tienen en común el deseo de
establecer un papel activo en el régimen de mercadeo, servicio de
calidad, y confiabilidad para este sistema de transporte. Entre los
afiliados deberían estar personas influyentes, líderes comunales,
personajes reconocidos públicamente, con el fin de lograr
mecanismos de presión más efectivos.
Para poder ejercer influencia política, es importante reconocer
que ésta organización requiere de ventanas de oportunidad. Estas
se traducen en buscar el momento político oportuno y crear las
necesidades que beneficiarían a las dos partes; políticos y
proponentes. De lo contrario sus objetivos se quedarían
únicamente en intenciones [3].
Es importante que la organización cuente con un campeón de
proyecto, que lidere las acciones del un equipo de profesionales
que la componen como lo deberían ser: consultores de
planificación internacional, ingenieros civiles, un socio local con
influencias y contactos dentro del gobierno, una ONG local,
universidad o compañía de planificación con experiencia de
trabajo y estudio de la población [2].
En algunos países, la presión de los ciclistas, ONG y agencias
internacionales de financiamiento han probado ser vitales para
ejercer presión ante las necesidades del transporte en bicicleta.
Las instalaciones para bicicletas en muchas de las grandes
ciudades de Estados Unidos, Europa occidental, Europa Central
(Carcovia, Budapest, entre otros), en Bangkok y la espectacular
mejora de instalaciones peatonales en Seúl, claramente fueron
producto de la presión aplicada al gobierno por las ONG y
federaciones de ciclistas. En Accra y Tamale (Ghana), en
Tanzania, Marakina (Manila/Filipinas), Lima (Perú), Gdansk
(Polonia), Yogyakarta (Indonesia), y Santiago de Chile, se dio un
gran empuje a nuevas instalaciones de bicicleta y otros medios no
motorizados por parte de organizaciones internacionales, tales
como el Banco Mundial o la UNDP, y generalmente por individuos
más específicamente comprometidos dentro de esas instituciones
[2].
Otros ejemplos son el de Maryland Bicycle Advisory Committee
(BAC), quienes han establecido trabajos cercanos con varios
miembros del estado en la asamblea y el senado [4]. Otro caso es
el de Bicycle Victoria en Australia, la cual ha promovido una
extensa y completa red de ciclorrutas gracias a la presión de sus
42000 miembros [5]. También, el de la Asociación de Ciclistas
Urbanos de Buenos Aires (ACU), que ha dirigido reuniones, foros,
seminarios y eventos especiales, lleva a cabo tres paseos
sociales semanales, publica una hoja informativa y un manual
sobre la bicicleta, realiza presentaciones en las escuelas, conduce
estudios en temas como estacionamientos para bicicletas e
integración con los trenes y proporciona recomendaciones
detalladas al gobierno municipal [6].
Conformación de laorganización con losusuarios y activistas
Definición de objetivos yactividades de la
organización
Realización de la sensibilización yapropiación de la bicicleta como
medio de transporte
Diseño de estrategias
de promoción
Realización de campañaspublicitarias en medios de
comunicaciónEstablecimiento de una red decontactos de promoción del
sistema
Realización de actividades
y eventos de financiación
Realización de una gestión detipo político que facilite la
promoción del sistema
Monitoreo, evaluación y
acciones correctivas
Segmentar el grupo de interésal cual se promocionará el
sistema
Coordinación con
otras entidades
Fig. 3. Modelo propuesto para la organización privada
C. Gestión de beneficios para el sistema; infraestructura y seguridad.
Entre los beneficios para el sistema, uno de los más relevantes
para impulsar el uso de la bicicleta como medio de transporte es
la creación y/o adecuación de una infraestructura adecuada para
la bicicleta; esto incluye, señalización, ciclorrutas, separadores,
puentes, iluminación, entre otros y su respectivo mantenimiento.
Como segunda medida, igualmente importante, es la garantía de
la seguridad en el sistema; seguridad ante la delincuencia y ante
el tráfico vehicular que amenaza los desplazamientos de los
ciclistas.
Para establecer una correcta infraestructura se tiene en cuenta;
Planeación y diseño, Localización y Acceso.
Planeación y diseño
El aprovechamiento de los nuevos diseños y tecnologías se
basa en los lineamientos que tienen en cuenta los medios de
transporte alternativos.
Localización
La ubicación esta en función del espacio urbano y la población.
Acceso
Para la coordinación de los componentes del sistema éstos
deben ser viables.
Por otro lado, las acciones en pro de difundir la importancia del
uso de la bicicleta, tanto en campañas publicitarias como en
campañas educativas permanentes. Programas en los colegios
donde se implemente en las asignaturas, la relevancia de la
movilidad en bicicleta y su adecuada forma de hacerlo. Dar a
conocer la cobertura del sistema y las ventajas que este tiene.
En los países más avanzados donde las ONG tienen acceso a
más recursos, es el gobierno el que en reconocimiento de la
importancia de estos temas para la ciudad, ahora de manera más
común que antes, inicia campañas de sensibilización pública
sobre transporte urbano sostenible [6].
¿Cómo funciona el ciclo?
La creación de la organización de usuarios es el comienzo para
poder ejercer influencia a los dirigentes, por lo tanto, se convierte
en gestión política para obtener beneficios hacia el TB. Esta
gestión política permitirá crear la nueva organización llamada la
EOTB quien a su vez será la encargada de realizar las actividades
de promoción, formación y proporcionar beneficios a los usuarios
de la bicicleta.
Al existir una conciencia y actitud de cambio ciudadana, sobre
la necesidad de la bicicleta, los usuarios exigirán al gobierno más
garantías y beneficios para el TB, retornando nuevamente, en
cuanto a la llamada gestión política (infraestructura y seguridad).
Al obtener los beneficios del sistema, estos serán regulados
por las dos organizaciones, que a su vez se relacionan con el
usuario, a fin de conocer sus necesidades o para ofrecer los
servicios de esta.
Se inicia el ciclo en su proceso nuevamente, cuando la
organización del usuario continúa con sus actividades para ejercer
gestiones políticas, pero ahora también existe una interacción con
la EOTB, de esta manera, el ciclo continúa generando
confiabilidad y eficacia del sistema en sus condiciones necesarias
para facilitar el TB.
IV. OBSTÁCULOS DEL PROYECTO
TABLA 1.
IDENTIFICACIÓN DE OBSTÁCULOS QUE INCIDEN EN EL DESARROLLO DEL
PROYECTO
Funciones de las
instituciones
gubernamentales
Vigilancia y
control logístico
Política ambiental y
social
Falta de voluntad
política
Intereses
creados y/o
particulares
Falta de claridad
en el marco legal y
jurídico
Normatividad y
legislación que
limita la
implementación de
la propuesta
Indiferencia y
desinterés de las
entidades
gubernamentales
ante la creación de
la organización.
Inadecuada
implementación
de la
infraestructura
La situación
actual del país
en la técnica y
tecnología
Indiferencia y
desinterés de los
usuarios y
ciudadanos ante
la creación de la
organización.
Insuficiencia
del modelo
conceptual o
incapacidad para
desarrollar
Dependencia y
Apego hacia los medios
de transporte
motorizado.
Desconocimiento de
las consecuencias del
impacto ambiental a
corto y largo plazo
Desinterés sobre la
responsabilidad social y
ambiental para
incrementar un
desarrollo sostenible.
Falta de inversión de
entes privados y
públicos.
Las
ensambladoras
multinacionales de
autos son serios
obstáculos para
lograra el punto de
equilibrio entre
oferta y demanda
vial.
una(s) de las
determinantes.
V. CONCLUSIONES
La EOTB se encargará de la inserción de una nueva política de
movilidad para el transporte en bicicleta, de manera que deberá
proveer no sólo infraestructura y mantenimiento, sino alternativas
de solución a los problemas, creando una estructura de apoyo
para el transporte en bicicleta [7]. Esta organización, debe
construirse en bases tan sólidas como la de los vehículos
motorizados, así garantizaría su permanencia durante años [8].
Si no existe gestión política no es posible realizar proyectos
que puedan beneficiar el transporte en bicicleta. Esa gestión
política se basa en la presión ejercida por las masas.
Es vital que la organización privada no realice, promocione o
actué en favor de campañas políticas para favorecer candidatos o
partidos políticos de alguna índole. Esto afectaría de manera
radical los objetivos planteados y su neutralidad como una
organización de usuarios y partidarios de la bicicleta.
La normatividad existente acerca de la bicicleta como medio de
transporte contemplada en la ley 769 de 2002 en el código
nacional de transito [9], no beneficia a los ciclistas, se refiere a
una serie de sanciones y represiones, pero no garantías para la
seguridad y transito de manera más eficiente de los usuarios,
además de la similitud con las normas para motocicletas.
Según algunos de los entrevistados, la obligatoriedad del casco
desmotiva el uso de la bicicleta. El argumento en contra es que a
las velocidades tan bajas y debido a la flexibilidad de este
vehículo, los riesgos son mínimos, a excepción de choques con el
tráfico automotor donde las colisiones podrían ser incluso
mortales y los costos adicionales que implica el mismo.
REFERENCIAS
[1] R. Stuven. ¿Y dónde quedaron las ciclovías? 2005 Enero 5 de 2005 [cited; Available from: http://ricardo-stuven.blogspot.com/
[2] W. Hook. Preservar y expandir el papel del transporte no motorizado. GTZ, Transport policy advice, Proyecto de sector "Transport policy advice", 2002.
[3] A. Ardila. Notas de clase, Planeación del transporte. 2005, Universidad de los Andes: Bogotá.
[4] R. Olken, et al. Guide to Bicycle Advocacy. 1999, Washington, DC: Bikes Belon Coalition Ltd.
[5] P. Mckay. Entrevistas. 2005, Victoria-transport institute: Bogotá [6] K. Fjellstrom. Acciones para mejorar el conocimiento público sobre
transporte urbano sostenible. GTZ, Transporte sostenible, proyecto de sector "Transport policy advice", 2000.
[7] A. Sirkis. Ciclovías Cariocas. in Seminario Internacional Ciclovías Unidas de las Américas. 2005. Bogotá.
[8] O. Hatch. European Experience in promoting increased bicycle use. in Encuentro Internacional sobre transporte urbano sostenible y uso de la bicicleta "comienza a rodar el cambio". 1998. Bogotá.
[9] STTB, Manual del usuario de la bicicleta, ed. D.t.d. pedagogía. 2005, Bogotá
Palabras claves—UML, Lenguajes de descripción de hardware, diseño estructural.
I. INTRODUCCIÓN
n la tendencia actual, los sistemas digitales y en general todos
los sistemas de tipo electrónico, son diseñados y simulados
usando herramientas asistidas por computador.
Los diseñadores han priorizado sus esfuerzos en adquirir la
mayor experiencia posible en el uso de estas herramientas y han
dejado de lado, de alguna forma el aspecto más importante en un
segundo plano, el diseño y la documentación del mismo.
Una opción para solucionar esta deficiencia es hacer uso de
una herramienta que en principio se creó con el fin de apoyar el
diseño de aplicaciones de software, pero que posteriormente
evoluciono para permitir su uso en cualquier área de la ingeniería,
esta herramienta es UML (por sus siglas en inglés, Unified
Modeling Language), la cual es un lenguaje que permite diseñar y
documentar de manera gráfica y textual aplicaciones de cualquier
tipo.
II. UML COMO HERRAMIENTA DE DISEÑO
El lenguaje de Modelamiento unificado (UML) fue creado con la
finalidad de tener una notación estándar, donde se combinan
notaciones provenientes desde el modelado orientado a objetos,
modelado de datos, modelado componentes y el modelado de
flujo de trabajo, con la participación de Grady Booch, Jim
Rumbaugh e Ivar Jacobson. Desde su publicación en 1995 ha
presentado varias versiones y actualmente se encuentra
disponible la versión 2.0 [15].
Se debe recordar que un modelo es una vista de un sistema
del mundo real, que describe completamente los aspectos del
sistema que son relevantes al propósito del modelo y a un
apropiado nivel de detalle, y un diagrama es una representación
gráfica de una colección de elementos de modelado. Un lenguaje
de modelado es aquel cuyo vocabulario y reglas se enfocan en la
representación conceptual y física de un sistema. La finalidad de
los diagramas es presentar diversas perspectivas de un sistema,
a las cuales se les conoce como modelo.
UML es un lenguaje estándar que es usado para visualizar,
especificar, construir y documentar los elementos de un sistema,
comprende tres tipos de bloques: los objetos que son
abstracciones de elementos del mundo real, las relaciones que se
encargan de unir estos objetos y los diagramas que agrupan
colecciones de objetos afines [17].
Los objetos en UML se clasifican en estructurales (nombres de
modelos), conductuales (partes dinámicas de los modelos), de
agrupación (partes orgánicas) y notacionales (partes explicativas).
Las relaciones por su parte pueden ser de dependencia,
asociación, generalización y realización.
Por otra parte los diagramas pueden ser: diagramas de clase,
de objetos, de casos de uso, de secuencia, de colaboración, de
estado, de actividad, de componentes o de despliegue.
Los sistemas siempre están soportados en una o varias
arquitecturas; la arquitectura es el juego de decisiones
significantes sobre: la organización de un sistema, la selección de
los elementos estructurales y sus interfaces, su conducta, la
colaboración entre estos elementos, la composición de los
elementos estructurales y conductuales al igual que el estilo
arquitectónico que guía esta organización. De igual forma UML al
ser un lenguaje estructurado esta soportado en una arquitectura
que se muestra en la figura 1.
VISTA LÓGICAVISTA DE
REALIZACIÓN
VISTA DE PROCESOS
VISTA DE DISTRIBUCIÓN
VISTA DE CASOS DE USO
Fig. 2. Arquitectura de UML.
III. EJEMPLO DE APLICACIÓN
Para demostrar la idea previamente expresada, se usará a
manera de ejemplo el diseño de un sistema lógico secuencial que
debe cumplir las siguientes características [6]:
Se desea diseñar el controlador de una máquina vendedora, la
cual dispensa barras de dulce a $700.
El controlador deberá tener las señales de entrada para indicar
el valor de la moneda ingresada ($100, $200 ó $500).
Adicionalmente son necesarias dos entradas adicionales para el
reloj y el reinicio del controlador.
El controlador responde con tres salidas: la salida del dulce,
por donde se dispensa una barra de dulce, más las salidas para el
cambio ($100, $200), cuando sea requerido.
La máquina permanecerá en reposo hasta que sea ingresada
una moneda, evento en el cual empezará a acumular el valor
correspondiente hasta completar por lo menos el valor del dulce.
Una vez acumulado el valor necesario se dispensará un dulce y
se dará el cambio correspondiente.
Para iniciar el proceso, se deben mencionar los diagramas que
se usarán en el diseño y especificación del controlador solicitado,
estos diagramas serán los diagramas de caso de uso (muestran
los requerimientos del controlador), diagrama de clases (muestra
E
Jorge A. Arévalo, Docente Investigador, Ingeniería de Telecomunicaciones
Usando UML en el diseño de sistemas digitales
la interacción de las entidades que aportan a la solución del
problema), diagramas de secuencia (muestran la ordenación
temporal de los mensajes entre entidades), diagramas de
colaboración (muestran la relación estructural de las entidades) y
diagramas de estado (muestran los estados por los cuales pasa el
sistema para llevar a cabo su función).
A. Diagrama de Casos de Uso
Estos diagramas presentan la relación entre los usuarios del
sistema y las entidades internas que realizan una actividad
específica. Los nombrados usuarios no son necesariamente
personas, también pueden ser otros sistemas o subsistemas que
brinden información al sistema o hagan uso de los datos
generados en las salidas. Los diagramas se acompañan de una
descripción textual, que muestra el comportamiento de cada Caso
de Uso [13].
TABLA I
CASO DE USO – ACUMULAR VALOR
Nombre: Acumular valor
Propósito: Acumular el valor de las monedas ingresadas
hasta tener por lo menos el costo del dulce.
Descripción:
Cuando se activa la entrada correspondiente al valor de la
moneda ingresada, este valor se debe acumular.
Cuando el valor acumulado alcanza por lo menos el valor del
dulce, se activa la señal de control que permite dispensar el
dulce.
Si el valor acumulado es mayor al valor del dulce, se activa la
señal de control que permite realizar la devolución
correspondiente y se informa la cantidad a devolver.
Precondiciones:
El sistema esta adecuadamente configurado y ha sido
inicializado.
El sistema de reconocimiento de monedas ha reconocido e
identificado el valor de la moneda ingresada.
Poscondiciones:
La señal que permite dispensar el dulce se activa cuando se
acumula el valor correspondiente.
La señal que permite devolver el cambio correspondiente se
activa si hay lugar a devolución.
Junto con la señal de devolución de cambio se indica el valor
a devolver.
Otras restricciones:
Sistema de reconocimiento de monedas
Acumular valor Deposito de dulces
Caja
Controlador de Máquina Vendedora
1 1
«uses»
«uses»
Fig. 3. Diagrama de Casos de Uso.
B. Diagramas de Clase.
Los diagramas de clase presentan las descripciones de
conjuntos de objetos del sistema, con sus relaciones
estructurales. Se incluyen las definiciones para atributos y
operaciones de cada conjunto de objetos. Estos diagramas
también son la base para los diagramas de componentes y los
diagramas de despliegue.
Los diagramas de clase son usados para visualizar, especificar,
documentar y construir sistemas ejecutables aplicando ingeniería
directa e inversa [16].
Fig. 4. Diagrama de Clases
C. Diagrama de Secuencia
Los diagramas de secuencia destacan la ordenación temporal
de los mensajes entre las entidades que participan en el proceso,
ofreciendo una señal visual clara del flujo de control a lo largo del
tiempo [16].
Fig. 5. Diagrama de Secuencia
D. Diagrama de Colaboración.
Un diagrama de colaboración destaca la organización de los
objetos que participan en una interacción, los enlaces que los
conectan y los mensajes que intercambian. Los diagramas de
colaboración se destacan por mostrar el camino y la ordenación
temporal de los mensajes usando números de secuencia [16].
Fig. 6. Diagrama de Colaboración
E. Diagrama de Estados.
Los diagramas de estados, representan los diferentes estados
del sistema y cada uno representa la ejecución de una acción. Los
estados pueden ser interrumpidos y se considera que invierten
algún tiempo en completarse [16].
Fig. 7. Diagrama de Estados
F. Implementación del código
Teniendo como referencia y soporte cada uno de los diagramas
previamente presentados, se puede realizar la codificación del
programa que cumpla con los requerimientos planteados. En el
momento de realizar la codificación, en este caso usando lenguaje
VHDL, es fácil apreciar la declaración de la clase con sus
atributos (ENTITY), y la declaración de las operaciones que
realiza la clase (ARQUITECTURE) [6].
---------------------------------------------------------------------------
LIBRARY ieee;
USE ieee.std_logic_1164.all;
---------------------------------------------------------------------------
ENTITY CM1 IS
PORT (clk, rst : IN STD_LOGIC;
in_100, in_200, in_500 : IN BOOLEAN;
d_dulce, c_100, c_200 : OUT STD_LOGIC);
END CM1;
---------------------------------------------------------------------------
ARCHITECTURE cmv OF CM1 IS
TYPE state IS (s_0, s_100, s_200, s_300, s_400, s_500,
s_600, s_700, s_800, s_1000);
SIGNAL p_state, n_state : STATE;
BEGIN
----------------- GENERAL PERFORMANCE -----------------
PROCESS (rst, clk)
BEGIN
IF (rst = '1') THEN
p_state <= s_0;
ELSIF (clk'EVENT AND clk = '1') THEN
p_state <= n_state;
END IF;
END PROCESS;
----------------------- BRING UP COUNT -----------------------
PROCESS (p_state, in_100, in_200, in_500)
BEGIN
CASE p_state IS
WHEN s_0 =>
d_dulce <= '0';
c_100 <= '0';
c_200 <= '0';
IF (in_100) THEN n_state <= s_100;
ELSIF (in_200) THEN n_state <= s_200;
ELSIF (in_500) THEN n_state <= s_500;
ELSE n_state <= s_0;
END IF;
WHEN s_100 =>
d_dulce <= '0';
c_100 <= '0';
c_200 <= '0';
IF (in_100) THEN n_state <= s_200;
ELSIF (in_200) THEN n_state <= s_300;
ELSIF (in_500) THEN n_state <= s_600;
ELSE n_state <= s_100;
END IF;
WHEN s_200 =>
d_dulce <= '0';
c_100 <= '0';
c_200 <= '0';
IF (in_100) THEN n_state <= s_300;
ELSIF (in_200) THEN n_state <= s_400;
ELSIF (in_500) THEN n_state <= s_700;
ELSE n_state <= s_200;
END IF;
WHEN s_300 =>
d_dulce <= '0';
c_100 <= '0';
c_200 <= '0';
IF (in_100) THEN n_state <= s_400;
ELSIF (in_200) THEN n_state <= s_500;
ELSIF (in_500) THEN n_state <= s_800;
ELSE n_state <= s_300;
END IF;
WHEN s_400 =>
d_dulce <= '0';
c_100 <= '0';
c_200 <= '0';
IF (in_100) THEN n_state <= s_500;
ELSIF (in_200) THEN n_state <= s_600;
ELSE n_state <= s_400;
END IF;
WHEN s_500 =>
d_dulce <= '0';
c_100 <= '0';
c_200 <= '0';
IF (in_100) THEN n_state <= s_600;
ELSIF (in_200) THEN n_state <= s_700;
ELSIF (in_500) THEN n_state <= s_1000;
ELSE n_state <= s_500;
END IF;
WHEN s_600 =>
d_dulce <= '0';
c_100 <= '0';
c_200 <= '0';
IF (in_100) THEN n_state <= s_700;
ELSIF (in_200) THEN n_state <= s_800;
ELSE n_state <= s_600;
END IF;
WHEN s_700 =>
d_dulce <= '1';
c_100 <= '0';
c_200 <= '0';
n_state <= s_0;
WHEN s_800 =>
d_dulce <= '1';
c_100 <= '1';
c_200 <= '0';
n_state <= s_0;
WHEN s_1000 =>
d_dulce <= '0';
c_100 <= '0';
c_200 <= '1';
n_state <= s_800;
END CASE;
END PROCESS;
END cmv;
---------------------------------------------------------------------------
Finalmente se puede apreciar el bloque funcional del
controlador creado para la máquina vendedora de dulces, en él se
observan los atributos declarados en el diseño.
clk
rst
in_100
in_200
in_500
d_dulce
c_100
c_200
SM1
inst
VCCclk INPUT
VCCrst INPUT
VCCin_100 INPUT
VCCin_200 INPUT
VCCin_500 INPUT
d_dulceOUTPUT
c_100OUTPUT
c_200OUTPUT
Fig. 8. Diagrama funcional del controlador diseñado
IV. APORTES DE LA TÉCNICA EMPLEADA
El uso de herramientas asistidas por computador junto con
UML en la especificación, diseño y documentación de sistemas
digitales permite tener una visión clara del comportamiento y de la
forma como se relacionan las diferentes partes que lo componen.
De la misma forma permite la creación de entidades
especializadas en una serie de actividades que ayudan a darle
más orden al sistema.
El proceso realizado de esta forma ofrece además la ventaja de
dejar bien documentado el diseño, de tal forma que permite
identificar fácilmente los posibles errores y realizar los correctivos
necesarios antes de codificar o implementar el diseño.
Cualquier modificación que se realice a partir del diseño inicial,
es igualmente, fácil de realizar y de documentar, permitiendo así
tener un mejor manejo de versiones del diseño.
V. CONCLUSIÓN
UML como lenguaje de referencia ofrece una serie de guías y
recomendaciones que pueden ser consideradas al momento de
realizar el diseño de un sistema digital, obteniendo una solución
acorde a unas necesidades específicas y con unos costos de
implementación menores, teniendo en cuenta los tiempos
empleados en el proceso.
Al estar el diseño especificado a partir de UML permite reducir
los tiempos de trabajo, debido a que antes de llevar a cabo la
codificación e implementación, ya se tiene claridad sobre el
comportamiento del sistema y evitando caer en situaciones de
prueba y error, que ocasiona en muchas ocasiones que el
producto final sea un conjunto parches que solucionan diferentes
problemas.
El tener los diferentes diseños debidamente documentados,
permite realizar la reutilización de código en diferentes proyectos,
actividad que es poco común en el diseño de sistemas digitales,
debido a la falta de cultura de documentación de los procesos.
REFERENCIAS
[1] E. Börger and R. Stärk, ―Abstract State Machines – A Method for High-Level System Design and Analysis‖, Springer, 2003, pp. 16-27.
[2] Department of Defense, ―Documentation of Digital Digital Electronic Systems with VHDL‖, DoD, 1996, ch. 3.
[3] IEEE Standard VHDL Lenguage Reference Manual, IEEE Standard 1076, 2002.
[4] H. Bhatnagar, ―Advanced ASIC Chip Synthesis Using Synopsys, Design Compiler, Physical Layer and Prime Time – Second Edition‖, Kluwer Academic Publishers, 2002, ch 3.
[5] D. L. Perry, ―VHDL: Programming by Example – Four Edition‖, McGraw Hill, 2002, pp. 15-105.
[6] V. A. Pedroni, ―Circuit Design with VHDL‖, MIT Press, 2004, pp. 202-208 [7] B. Cohen, ―VHDL Coding Styles and Methodologies …an In-Depth Tutorial‖,
Kluwer Academic Publishers, 1995, pp. 1-26. [8] P. P. Chu, ―RTL Hardware Design Using VHDL Coding for Efficiency,
Portability and Scalability‖, John Wiley & Sons, Inc., 2006, pp. 23-66. [9] P. Boulet, ―Advances in Design and Specification Languages for SoCs‖,
Springer, 2005, pp. 161-178. [10] G. Martin and W. Müller, ―UML for Soc Design‖, Springer, 2005, pp. 1-36. [11] E. Villar and J. Mermet, ―System Specification and Design Languages: Best
of FDL´02‖, Springer, 2003, pp. 107-141. [12] B. P. Douglass, ―Real Time UML Workshop for Embedded Systems‖,
Newnes, 2006, pp. 1-33. [13] B. P. Douglass, ―Real Time UML: Advances in the UML for Real-Time
Systems – 3rd Edition‖, Addison-Wesley Professional, 2004, ch. 1-3.
[14] V. K. Madisetti and C. Arpikanondt, ―A Platform-Centric Approach to System-On-Chip (SOC) Design‖, Springer, 2004, pp. 41-50, 83-182.
[15] G. Booch, I. Jacobson and J. Rumbaugh, ―The Unified Modeling Language User Guide‖, Addison Wesley, 1998.
[16] G. Booch, I. Jacobson and J. Rumbaugh, ―The Unified Modeling Language Reference Manual – Second Edition‖, Addison Wesley, 2004.
[17] T. Pender, ―UML Bible‖, John Wiley & Sons, 2003.
Resumen— El incremento de la producción nacional de maíz amarillo
tecnificado es un objetivo que debe cumplirse y así llegar a la
autosostenibilidad dentro de la cadena de cereales, alimentos
balanceados para animales, avicultura y porcicultura; en general, en
todas las industrias en las cuales se utilice el maíz amarillo. Es preciso
que se detenga la dependencia colombiana sobre Estados Unidos o
algún otro país del que se tenga que importar la gran mayoría del maíz
amarillo que se demanda y, más aún, al precio dictado por sus propios
mercados. Es por esto, que en este documento se diagnostican los
esfuerzos realizados por el Gobierno Colombiano entre los años 2002 y
2006 con dirección al incremento de la producción de este cereal y se
determinan las causas del por qué es baja, analizando el mercado desde
diferentes puntos de vista y con distintas herramientas, para luego
elaborar una estrategia nacional que va dirigida al aumento significativo
del maíz amarillo en Colombia y la reducción de costos de producción.
Esta estrategia incluye a todos los actores del mercado, manteniendo un
estrecho lazo de colaboración y con responsabilidades específicas para
cada uno.
Palabras claves — Cadena productiva, Diagnóstico, Estrategia,
Reforma agraria.
I. INTRODUCCIÓN
L maíz amarillo es un producto agrícola fundamental y
tradicional en la canasta familiar del pueblo colombiano. El
principal uso que se le da al maíz amarillo en Colombia está
vinculado a éste último, la elaboración del ABA (Alimento Básico
para Animales), destinándose el 65% del cereal que se consume
en el país. Además, es la principal materia prima que constituye el
ABA, representando el 49% de toda la mezcla, es decir, que los
factores que impacten sobre la oferta, calidad o precio del maíz
amarillo, tendrán repercusiones directas en el mercado de los
pollos, gallinas, huevos y carne de cerdo [1].
La demanda colombiana del producto ha ido en incremento a
través de los años. Para el año 2006 la demanda total nacional de
maíz amarillo se calculó en 4.1 millones de toneladas, cifra que
aumentó en el 74% desde el 2000, año en el que se presentó una
demanda de 2.35 millones de toneladas. La producción
nacional de este cereal también ha estado en ascenso a través
de los años, aunque en cantidades menores que la demanda. En
el año 2000 la totalidad de la producción de maíz amarillo fue de
0.960109 millones de toneladas, para luego incrementarse en
53% en el año 2006 cuando se produjo 1,473 millones de
toneladas [2]. El resto de la demanda tuvo que ser satisfecha
mediante la importación.
De la totalidad de las importaciones colombianas de maíz
amarillo, el 88.9% proviene desde EE.UU [2], lo cual conduce a
afirmar que Colombia es sumamente dependiente de Estados
Unidos en cuanto a oferta de maíz amarillo se refiere, y por lo
tanto cualquier situación que se presente en el mercado del país
del norte tendrá un inevitable efecto directo en el colombiano.
EE.UU. es el principal productor de maíz amarillo en el mundo,
y su oferta maicera se destina al consumo nacional, a la
exportación y a la producción de bioetanol que cada vez demanda
más maíz [3]. Esto último, ha traído como consecuencia el
incremento de la producción del cereal en EE.UU. y además un
incremento en el precio.
II. MARCO TEÓRICO
A. Análisis P.E.S.T.A.
Es también conocido como Análisis S.T.E.E.P. Esta
herramienta permite hacer un diagnóstico detallado sobre un
mercado combinando 5 factores (Políticos, Económicos, Sociales,
Tecnológicos y Ecológicos), identificando las variables que en
cada aspecto del proceso resulten relevantes y que permitan así
entender la relación y el impacto entre estos y el mercado motivo
de análisis [5].
Según sea el caso, es posible incluir otros factores al
diagnóstico (los Legislativos y los Industriales) o excluir a aquellos
que no tengan gran impacto en determinado mercado [6].
Así, este análisis comienza con una definición del mercado
objeto de estudio y la situación actual. Luego, se identifican las
variables que lo explican y los factores relevantes (P.E.S.T.A) que
servirán como base de comparación, dejando sólo los que sean
necesarios para el diagnóstico. Continúa un proceso de
recolección de datos mediante la búsqueda en fuentes primarias o
secundarias, la observación o la interrogación, para con estos
crear una matriz en la que se relacionan los factores y las
variables que se identificaron con anterioridad, comprendiendo el
Adolfo E. Chávarri , Egresado, Ingeniería Industrial
E
Diagnóstico de la reforma agraria dirigida al incremento de la producción de maíz amarillo en
colombia desde el año 2002 hasta el 2006 y propuesta de medidas alternativas hacia el futuro
comportamiento del mercado estudiado.
B. Cinco Fuerzas de Porter
Este análisis fue creado por el Economista Michael Porter en
1979 y describe el comportamiento competitivo de un mercado o
sector de este a través de 5 factores claves, con la finalidad de
entender qué sucede en el entorno del negocio desde el punto de
vista estratégico [7].
Este análisis permite conocer qué factores son relevantes en
un sector industrial y el impacto que cada uno de estos genera en
las variables de medición de competitividad que pueden ser el
precio, calidad del producto, servicio e innovación, principalmente;
dependiendo de cual sea la predominante en el sector industrial a
estudiar. Además, este modelo permite identificar qué tan fuerte
es la competencia en la industria, cuáles son los motivos por la
que esta cambia, las posiciones competitivas de las empresas y
determina también que tan atractiva es en términos de
rendimientos.
El análisis de Porter se constituye por 5 fuerzas que son:
Ingreso potencial de nuevos competidores; Intensidad de rivalidad
entre competidores actuales; Presión de los productos sustitutos;
Poder de negociación que ejercen los proveedores; Poder de
negociación que ejercen los clientes.
III. DETERMINACIÓN DE LAS CAUSAS DEL PROBLEMA
A. Comparación de Cifras Proyectadas con las Reales
El proyecto dio inicio con una descripción de los esfuerzos que
el Gobierno realizó para el incremento de la producción de maíz
amarillo desde el año 2002 hasta el 2006. En esta se cuantificaron
los resultados y se analizaron los factores que fueron causa de los
mismos.
Este análisis arrojó una primera perspectiva de lo que ocurría y
ratificó la necesidad de incurrir en una investigación más profunda
para entender a cabalidad el problema.
Para el momento se comprendía la escasa respuesta que
había tenido la producción maicera ya que los mismos esfuerzos
del gobierno no eran suficientes ni ambiciosos.
B. Análisis P.E.S.T.A.
El segundo paso en el desarrollo del proyecto fue la realización
del análisis P.E.S.T.A. dirigido al mercado colombiano de maíz
amarillo.
Dentro de este análisis se identificaron los siguientes factores:
Políticos:
Artículo 4° de la Ley 101 de 1993.
Mecanismo de Administración de Contingentes.
Económicos:
Costos del paso del cultivo tradicional al cultivo
tecnificado.
Compra de semilla certificada.
Financiación para los agricultores.
Estímulos económicos.
Comercialización de la cosecha.
Sociales :
Trabajo Rural.
Cultivos ilícitos.
Tecnológicos:
Uso de semilla certificada.
Uso de Agroquímicos.
Ambientales:
Cultivos en diferentes regiones de Colombia.
Rendimientos por superficie de tierra.
Cambios climáticos.
Al finalizar con la descripción bajo estos factores, el panorama
se aclaraba demasiado y se tenía el conocimiento adecuado para
diseñar la estrategia adecuada.
C. Cinco Fuerzas de Porter
Esta tercera herramienta proporciono información valiosa en
cuanto al diseño de la estrategia, ya que mediante el desarrollo de
la misma se obtuvo información que mostraba que la calidad del
maíz amarillo nacional era superior a la del maíz proveniente de
EE.UU. Esto fue motivo para dejar el tema de la calidad de lado
en la estrategia y enfocarse estrictamente en la reducción de
costos y expansión del área de cultivo.
También, con este análisis se concluye que el maíz amarillo es
un producto sustituible dentro de la producción del ABA, pero a su
vez es un componente que proporciona cualidades físicas y
nutricionales excelentes a la carne de cerdo, pollo, gallina y a los
huevos.
D. Determinación de los Puntos Clave a Atacar en la Estrategia
La cuarta etapa del proyecto fue una comparación de las
conclusiones arrojadas en los tres anteriores análisis y determinar
así las causas reales de la baja producción maicera de Colombia.
Las causas que se determinaron fueron las siguientes:
Escasa disponibilidad de semilla adecuada.
Manejo inadecuado de la cosecha.
Manejo inadecuado de la tierra.
Poca disponibilidad de acceso a resultados de
investigaciones de los usuarios y seguimiento a
estrategias y acceso a información.
Insuficiente seguridad de la comercialización de la
cosecha.
IV. DISEÑO DE LA ESTRATEGIA
Basado en las causas identificadas en la comparación de los
análisis anteriormente realizados, se construyó la estrategia
denominada Plan Nacional de Incremento de Desarrollo de Maíz
Amarillo Tecnificado.
Este Plan tiene como base trabajar con el cultivo tecnificado. A
partir de esto se desprenden 8 campos de acción que son:
Trabajo diversificado por regiones.
Investigación de las propiedades biofísicas del ambiente
del cultivo, características socioeconómicas y técnicas
de siembra de maíz amarillo en cada región.
Mejoramiento de semilla.
Inversión en infraestructura.
Difusión de resultados y transferencia de tecnología.
Capacitación al usuario para el acceso a tecnología.
Campañas de motivación para la tecnificación de los
cultivos.
Intensificación de los sistemas de comercialización.
V. CONCLUSIONES
Durante el desarrollo del proyecto se aclaró lo fundamental que
resulta para Colombia reducir la importación del cereal de los
Estados Unidos y dejar de depender de éste o de cualquier otro
país para evitar una posible crisis de escasez y/o de aumento
desmesurado de los precios, lo que traería como consecuencia
directa un impacto negativo en la canasta familiar colombiana. Por
tal, se ratificó la necesidad de generar nuevas alternativas para
dar solución al problema.
Se realizó un análisis, utilizando diferentes herramientas
enfocadas desde distintos puntos de vista, para así poder tener un
mejor y claro panorama y entender las causas reales del porqué
no se estaba produciendo dentro del territorio colombiano
suficiente maíz para que la demanda colombiana no se viera
afectada en caso de detenerse las importaciones.
Se hizo una comparación entre las metas propuestas por el
gobierno en cuanto al incremento del área de maíz amarillo
tecnificado y las cifras a las que realmente se llegó entre los años
2002 y 2006. Se pudo observar que las metas fueron
sobrepasadas por escaso margen durante los dos primeros años,
lo que indicaba que se estaba respondiendo excelentemente al
plan del gobierno. Las metas en los años 2005 y 2006 no se
pudieron cumplir, lo que trajo un déficit del total del objetivo del
33% y a su vez llevó a una investigación de las causas del porqué
se pudo en los primeros años y por qué en los dos últimos se
incumplieron los objetivos. Se identificaron también los factores
que contribuyeron al incremento de la producción maicera y los
que evitaron que se cumplan el total de las metas. Se utilizó la
herramienta P.E.S.T.A. para analizar el mercado maicero de
Colombia. En este se determinaron los factores políticos,
económicos, sociales, tecnológicos y ambientales que influyen en
la producción del cereal.
En los aspectos políticos se resaltó el Artículo 4° de la Ley 101
de 1993 y por otro lado se analizó el Sistema de comercialización
de la cosecha MAC. En los económicos, se analizaron los costos
del paso del cultivo tradicional al cultivo tecnificado, la compra de
semilla certificada, la financiación para los agricultores, los
estímulos económicos y la comercialización de la cosecha desde
el punto de vista entre relación directa entre el productor y cliente.
En cuanto a factores sociales, el trabajo rural fue el gran ítem
analizado, tocando también el tema de cultivos ilícitos. Los
factores tecnológicos incluidos fueron el uso de semilla certificada
y el de fertilizantes. Lo incorporado en lo ambiental fue de gran
importancia, ya que cuando se hizo una descripción de las seis
regiones cultivadoras de maíz amarillo en Colombia, se
evidenciaron las que tienen ventajas competitivas frente a las
demás y a las que debe ir dirigida la estrategia final; por otro lado,
el tema del rendimiento también fue de gran importancia y mas al
compararlo con el de Estados Unidos.
Se realizó el análisis de las Cinco Fuerzas de Porter para el
mercado nacional de maíz amarillo, tomando a los productores
nacionales como una sola empresa y al maíz importado de
Estados Unidos como la competencia.
Bajo este análisis se identificó que la calidad del maíz amarillo
colombiano es mejor que la proveniente de los Estados Unidos.
Se compararon los tres análisis previos y se determinaron
cinco causas principales que impiden el gran incremento de la
producción colombiana de maíz amarillo: Escasa disponibilidad de
semilla adecuada para cada región, mal manejo de la cosecha,
inadecuado manejo de la tierra, poca disponibilidad de acceso a
resultados de investigaciones y seguimiento a estrategias y
acceso a información e insuficiente seguridad en la
comercialización de la cosecha.
Se diseñó una estrategia considerando el conocimiento
adquirido en los análisis realizados denominada Plan Nacional de
Incremento de la Producción de Maíz Amarillo Tecnificado.
Esta estrategia está comprendida por 8 puntos clave que
parten de la tecnificación del cultivo: Trabajo diversificado por
regiones; Investigación de las propiedades biofísicas del ambiente
del cultivo, características socioeconómicas y técnicas de siembra
de maíz amarillo en cada región; Mejoramiento de semilla;
Inversión en infraestructura; Difusión de resultados y transferencia
de tecnología; Capacitación al usuario para el acceso a
tecnología; Campañas de motivación para la tecnificación de los
cultivos; Intensificación de los sistemas de comercialización.
VI. RECOMENDACIONES
Las herramientas usadas en este análisis del mercado
colombiano del maíz amarillo son solo algunas formas de
interpretar este escenario, por lo cual este proyecto contribuye a
dar solución a un problema de magnitud nacional, sin caer en la
exageración de afirmar que es lo que el Gobierno debe seguir al
pie de la letra. Pero sí debe considerarse al tomar las medidas
necesarias para incrementar la producción maicera y establecer
una estrategia que permita la autosostenibilidad.
A quien esté interesado en diagnosticar el mercado nacional o
regional de algún producto, se le recomienda conocer a
profundidad el mismo y considerar la mayor cantidad de
herramientas posibles para su análisis, para luego seleccionar las
más adecuadas. Además, se debe conocer a los participantes del
mercado así como sus intereses, para que se encuentre la
manera de sinergizarlos y lograr la cooperación de todos. Todo
esto permitirá el diseño de una estrategia válida y bien
fundamentada.
VII. TRABAJO FUTURO
Este proyecto es la propuesta de una estrategia a nivel
nacional según los análisis realizados y las herramientas
utilizadas antes descritas. Sería interesante hacer énfasis en cada
una de las áreas temáticas descritas en el plan, poniéndolas en
práctica, ya que la implementación de cada uno de estas traería
resultados positivos en el corto plazo.
Además, el viajar a diferentes ciudades de Colombia y tener
comunicación directa con los principales actores del mercado, es
decir, los productores de maíz amarillo tecnificado, daría un
enfoque diferente a la problemática, el cual podría revelar
información que contribuya al mejoramiento de la estrategia.
REFERENCIAS
[1] Observatorio Agrocadenas. 2007. http://www.agrocadenas.gov.co (Navegado en Febrero y Marzo de 2009)
[2] Federación Nacional de Cereales y Leguminosas. 2007. http://www.fenalce.net/ (Navegada en Junio de 2008 y Febrero de 2009).
[3] United States Deparment of Agriculture. 2008. http://www.usda.gov/ (Navegada en Septiembre de 2008)
[4] Bolsa de Chicago. 2008. http://www.cbot.com/ (Navegada en Agosto de 2008)
[5] U-Cursos. 2007. https://www.u-cursos.cl/ [6] (Navegada en Octubre de 2008) [7] Universidad Pontificia Bolivariana. http://cmap.upb.edu.co/ (Navegada en
Octubre 2008) [8] Juan Carlos Aguilar Joyas. Economista - Magister en Administración.
Facultad de Ciencias Económicas y Administrativas – Universidad Autónoma de Occidente. Cali - Colombia. 2006.
Resumen – Este proyecto tiene como objetivo aportar una solución al
manejo de imágenes diagnósticas en medicina basado en el análisis
wavelet. El cálculo de la trasformada wavelet da como resultado
coeficientes que son organizados por codificación entrópica que optimiza
la compresión de las placas ecográficas, logrando así el ahorro de
espacio en los servidores de las clínicas y disminuir el ancho de banda
requerido para el transporte de estas.
Palabras claves– Kernel, compresión, correlación, Transformada
wavelet.
I. INTRODUCCIÓN
ctualmente los países están buscando soluciones médicas
para atender a la población que se encuentra en zonas
alejadas donde es difícil y costoso el acceso de personal
calificado. La Telemedicina, es una rama de las
Telecomunicaciones que pretende contribuir al mejoramiento del
servicio de salud, su propósito es intercambiar información para
aplicaciones médicas como cirugía, radiología, dermatología,
entre otras, utilizando diferentes tecnologías, como redes de área
local o enlaces satelitales.
Al transmitirse y almacenarse imágenes médicas surgen
diversos problemas, entre los que se encuentra el alto consumo
de ancho de banda requerido para ser enviadas hacia otros
equipos, esto hace que los costos y el tiempo para prestar este
servicio sean altos. Este problema se puede solucionar
implementando una técnica de análisis de señales que realice un
proceso de compresión garantizando no tener perdidas altas de
información, puesto que para su estudio médico es importante la
nitidez de la imagen. Existe una herramienta matemática que
permite estudiar una señal en tres dimensiones, comprimir con
pocas pérdidas y así aprovechar de mejor forma el ancho de
banda, esta es la transformada wavelet. Este proyecto
implementa la transformada wavelet en el tratamiento de
imágenes ecográficas digitales con el objetivo de aportar que
permita el mejoramiento del servicio en las entidades prestadoras
de salud. Igualmente se busca el ahorro en espacio de los
servidores que almacenan estudios médicos e historias clínicas y
el ahorro de papel de impresión de ecografías. En el caso de los
servidores estos se saturan rápidamente ya que cada ecografía
tiene un peso aproximado de 1,37 Mbits y por cada estudio son
alrededor de 10 a 12 imágenes, en promedio se sacan 70
estudios diarios los cuales ocupan aproximadamente 414,288
Gbits de memoria.
II. CONCEPTOS BÁSICOS
A. Marco Teórico.
El Ecógrafo, se compone básicamente de un monitor y un
emisor-receptor (transductor) que a través de un cristal induce un
pulso eléctrico y recoge los ecos ultrasónicos, habitualmente con
frecuencias de 1 a 10 MHz,. Cuando se recibe la energía
reflejada por cada órgano, se procesa la información: Los datos
son convertidos de analógicos a digitales, transferidos a un buffer,
se cuantifican, se convierten en una imagen digital y se presenta
en una pantalla en forma de imagen en escala de grises [1]
Existen diversos formatos de presentación de imágenes
ecográficas entre las que se encuentran: [2]
Sectorial: la imagen es en forma de abanico, se usa
especialmente en exploraciones cardiacas y abdominales, su
frecuencia de trabajo suele ser de 3.5 a 5MHz.
Convex: proporciona una imagen en forma de trapecio,
utilizada especialmente para exámenes obstétricos y de abdomen
general, su frecuencia de trabajo es igual a la sectorial.
Lineal: suministra una imagen en forma rectangular, explora
estructuras superficiales como músculos, tendones, mamas,
escroto, tiroides, entre otros tejidos blandos. Da una información
más detallada que las dos anteriores ya que maneja frecuencias
de trabajo de 7.5 a 10 MHz
B. Trasformada Wavelet.
En campos como la medicina, sismología, geología, electrónica
y desarrollo militar se generan señales que no se comportan en
forma estacionaria, o que presentan cambios bruscos en
intervalos muy pequeños. Es por ello que desde hace más de 20
años, se han venido desarrollando nuevas herramientas que
permitan analizar estas señales desde otra perspectiva [3].
La transformada Wavelet tiene su fundamento en la
transformada de Fourier. La transformada de Fourier descompone
una señal en ondas sinusoidales de diferentes frecuencias y
permite pasar del dominio del tiempo al de la frecuencia. Pero
ocasiona pérdida de información del tiempo, es decir, resultaría
difícil determinar el momento en el que ocurre un determinado
suceso cuando se está a una determinada frecuencia. Ocurre
también otro problema con Fourier a corto plazo (Transformada
Gabor), no funciona bien en los puntos donde las señales tienen
algún cambio abrupto en su forma, son incapaces de determinar
el tiempo y la frecuencia del suceso. Por tal razón es necesario
implementar otra técnica, La trasformada Wavelet da solución al
problema.
C. Transformada Wavelet En Tiempo Continúo.
La trasformada wavelet continua está dada por (1):
(1)
Compresión y Transmisión de Imágenes Ecográficas.
A
Eliana M. García, Juan D. Prieto, Egresados, Ingeniería Electrónica y Telecomunicaciones
Donde, f(x) es la señal a transformar y esta dada por:
(2)
En (2) se presenta el Kernel de la trasformada Wavelet, una
ondícula con duración efectiva limitada y valor promedio cero.
Según su definición se encuentra normalizada al ser la base
conformadora del espacio de señal de las trasformaciones que se
pueden generar a partir de este, es decir f(x), es descompuesta
en coeficientes Wavelet que convergen matemáticamente como
combinación lineal al espacio de señal de la Wavelet
implementada en la trasformación. El desplazamiento de la
ondícula sobre la señal está dado por y s es el factor de
escalamiento.
La trasformada Wavelet tiene la propiedad de invertibilidad,
puesto que es una operación lineal, las correlaciones obtenidas
en el cálculo de la trasformada son ortogonales, como
consecuencia la suma de todas las descomposiciones da como
resultado la señal original. Por tanto se puede obtener f(x)
utilizando la transformada inversa Wavelet:
(3)
Donde el criterio de admisibilidad o la energía de la wavelet
es:
(4)
D. Cálculo De La Trasformada Wavelet Discreta En Imágenes
Una imagen es una matriz de pixeles codificados con unos y
ceros, su valor depende del nivel de la escala de color a
representar. Cuando se aplica transformada Wavelet a una
imagen, los coeficientes generados codifican los pixeles con base
al Kernel, produciendo así una correlación sobre estos. Si el
Kernel elegido ofrece pérdidas visuales poco perceptibles, se
puede cuantizar e implementar algún tipo de compresión. El
cálculo de los coeficientes de la trasformada Wavelet discreta está
dado por (5).
(5)
Donde y , son la señal a transformar y el
Kernel wavelet discretizados respectivamente [4].
El cálculo de la trasformada wavelet en imágenes, se hace
mediante la implementación de un banco de filtros ortogonales,
esto con el fin de dividir la información en segmentos de datos
más pequeños pero que ocupen el mismo espectro de frecuencias
de la imagen sin filtrar.
A continuación se muestra el banco de filtros al que es
sometida la imagen:
Fig. 1. Banco de filtros ortogonales de análisis para el cálculo de la
trasformada wavelet discreta.
El banco de filtros divide la imagen en coeficientes de
aproximación y detalle, siendo los de aproximación los que tienen
mayor correlación con respecto a la imagen original y los detalle la
menor (Fig. 2). El cuadrante superior izquierdo contiene la
aproximación sin importar el número de descomposiciones que se
haga en el cálculo.
Fig. 2. DWT en imágenes.
Para la reconstrucción de la señal original, cada segmento
obtenido en la descomposición es sometido a un banco de filtros
de síntesis (Fig. 3), buscando recuperar las frecuencias originales
de cada espectro. La función matemática que describe el cálculo
de la trasformada inversa Wavelet discreta está dada por:
(6)
y , son los coeficientes de la
trasformada y es el filtro wavelet implementado para
hacer el cálculo de la trasformada inversa.
Es importante definir coherentemente los factores de
decimación en interpolación ya que es en este punto donde
pueden presentarse pérdidas de información. Como se trata de
imágenes médicas este tipo de pérdidas no pueden permitirse,
por ejemplo, la variación de un pixel dentro de la ecografía podría
interpretarse como alguna anomalía médica.
Fig. 3. Banco de filtros de síntesis para el cálculo de la trasformada
inversa wavelet discreta.
Los filtros utilizados para el cálculo de la transformada Wavelet
discreta deben converger a la función matemática de la Wavelet
que se desee implementar, luego la respuesta al impulso o al
paso de la función de transferencia de estos, deben describir la
forma de la ondícula.
III. DESARROLLO
A. Selección Familia Wavelet para la compresión.
Se seleccionaron un grupo de ecografías que tenían
características diferentes en cuanto a los tonos (oscuro, blanco y
gris) y al tipo de ecografías (tejidos blandos y obstétricas)
parecida a la de la Fig. 4.
Fig. 4. Ecografía seleccionada del grupo para aplicar descomposición y
determinar la familia wavelet más apropiada para comprimir.
Se aplicó la transformada Wavelet con varios niveles de
descomposición de cada una de las familias existentes en el
Toolbox de Matlab con interfaz gráfica (GUIDE), obteniendo así
las imágenes de síntesis en formato Bitmap (BMP) Fig. 5.
Fig. 5. Descomposición de la imagen en la aplicación GUIDE en el
software Matlab.
Una vez hecho este proceso para cada imagen, se obtuvo un
banco de 168 imágenes que se sometieron a estudios
matemáticos como el cálculo de la correlación, varianza y media
sobre el histograma para determinar variación de contraste y brillo
respectivamente. Estos estudios arrojaron que en ninguna imagen
los cuadros clínicos se veían afectados y los cambios de brillo y
contraste fueron los mismos para cada ecografía. Por esta razón
se sometieron las imágenes al estudio de un médico radiólogo y
de un ingeniero biomédico, quienes compararon las ecografías
originales con cada una de las síntesis, concluyendo que la familia
Wavelet que presenta menores cambios es la Discrete Meyer.
B. Problemas con la compresión.
Los coeficientes obtenidos de la ecografía son en formato
Double, necesitando 64 bits para su representación, lo cual causó
que el tamaño del archivo generado en la trasformada Wavelet
tuviera mayor cantidad de información que la imagen original.
Esto implica que no se puedan lograr altas tasas de compresión
sin perdidas implementando esta herramienta.
En la implementación del Kernel Discrete Meyer se generó un
archivo de 4,25 Mbits, luego de la cuantización de los coeficientes
y de la compresión su tamaño se redujo a 4,23 Mbits por lo que se
concluye de manera obvia que esta familia Wavelet no sirve para
hacer compresión sin perdidas en imágenes.
C. Solución implementada.
Como los diagnósticos profesionales demostraron que ninguna
familia Wavelet alteraba los cuadros clínicos presentes en las
imágenes, se estudió el comportamiento de los coeficientes de las
diferentes Wavelets implementadas, para identificar así la familia
que permite la mayor compresión. Se determinó la razón por la
cual la familia Discrete Meyer no ofrece ningún tipo de
compresión, porque no tiene coeficientes repetidos Fig. 6.
0 1 2 3 4 5 6
x 105
-600
-400
-200
0
200
400
600
800coeficientes familia dmey
Fig. 6. Distribución de los coeficientes familia Discrete Meyer.
Los estudios demostraron que los coeficientes obtenidos más
uniformes Fig. 7. son los de las familias Haar, Daubechies 1,
Biorthogonal 1.1 y Reverse Biorthogonal 1.1. La tasa de
compresión que se obtuvo fue del 87.32% y un tamaño de archivo
comprimido de 311 Kbits.
0 0.5 1 1.5 2 2.5 3 3.5
x 105
-400
-200
0
200
400
600
800coeficientes familia Haar
Fig. 7. Distribución de los coeficientes familia Daubechies 1, Biorthogonal
1.1 y Reverse Biorthogonal 1.1.
D. Técnica de compresión utilizada.
Se implementó codificación Huffman para la compresión de los
coeficientes obtenidos en el cálculo de la trasformada wavelet,
esta técnica no genera pérdidas de información porque asigna a
cada símbolo de la fuente (coeficientes) una probabilidad de
ocurrencia y un símbolo, esto se determina por medio del cálculo
de la entropía la cual determina donde se encuentra concentrada
la información de la imagen y cuantos símbolos de la fuente se
repiten. La tabla 1 muestra los resultados obtenidos en las
compresiones hechas a los coeficientes wavelet.
TABLA 1
TASA DE COMPRESIÓN DE LOS COEFICIENTES WAVELET
Familia Wavelet
Tamaño
de los
coeficientes
(Bytes)
Tamaño de
los coeficientes
comprimidos
(Bytes)
Tasa de
compresión
Haar 2457600 311519 87.32%
Daubechies 1 2457600 311519 87.32%
Daubechies 10 2712216 1765852 34.89%
Symlets 2 2489112 1001754 59.75%
Symlets 8 2655288 1640164 38.23%
Coiflets 1 2511744 1254802 50.04%
Coiflets 5 2852736 2036118 28.62%
bior1.1 2457600 311519 87.32%
bior 6.8 2678784 1579403 41.04%
rbio 1.1 2457600 311519 87.32%
rbio 6.8 2678784 1585052 40.82%
Dmey 4041600 3680787 8.927%
El algoritmo implementado para hacer la compresión de la
imagen ecográfica se muestra en la Fig. 8.
Inicio
Obtención
coeficientes de la
transformada
wavelet.
Calcular
entropía del
coeficiente.
Cuantizar
Compresión
del coeficiente
Empaquetamiento
Fin
Fig. 8. Lógica Técnica de compression
Para determinar la tasa de compresión se diseñó e implementó
la siguiente ecuación:
(6)
Siendo:
Tc, la tasa de compresión.
CC, los coeficientes comprimidos.
TCR, tamaño de los coeficientes sin comprimir.
E. Estructura del archivo comprimido.
El archivo generado tiene la siguiente estructura: coeficientes
comprimidos, el tamaño de los niveles de descomposición y el
mapa de color de la imagen, sin este último la reconstrucción de
la imagen no se podría realizar satisfactoriamente (Fig. 9).
Fig. 9. Imagen reconstruida sin mapa de color.
Si se codifica el mapa de color a escala de grises (0–255) se
producen pérdidas en la imagen (Fig. 10).
Fig. 10. Imagen reconstruida con codificación del mapa de color.
Los resultados obtenidos sugieren que al mapa de color no se
le puede modificar.
Descompresión de imagen ecográfica.
El algoritmo implementado, para la descompresión de la
imagen ecográfica, se aprecia en la Fig. 11.
Inicio
Descompresión
de coeficientes
Recuperación
de tamaños de
coeficientes y
mapa de color
Calculo
trasforma
da inversa
wavelet
Visualizar
imagen
reconstruida
Fin
Fig. 11. Lógica Técnica de compresión
Después de obtener la imagen reconstruida esta fue sometida
cálculos matemáticos con el fin de determinar las posibles
pérdidas generadas en el proceso de compresión y
descompresión.
El resultado de la correlación de la imagen fue de uno,
demostrando así que los cuadros clínicos no se afectaron en
cuanto a forma del contorno de la imagen. Ahora bien, la
correlación de los histogramas de síntesis con respecto al original
arrojó un resultado cercano a cero, lo que indica que estas son
imágenes diferentes y garantiza la transparencia del proyecto.
F. Presentación Final.
La interfaz gráfica tiene un diseño muy sencillo en donde el
usuario podrá comprobar cuales son la familias wavelet que
ofrecen compresión y cuáles no (Fig. 11).
Fig. 11. Imagen reconstruida con codificación del mapa de color.
IV. CONCLUSIONES
La trasformada wavelet es una herramienta matemática que no
comprime solo con su ejecución, la compresión se da al
determinar cuántos y cuáles coeficientes se pueden eliminar sin
causar muchas pérdidas en la imagen. Esta supresión no es
válida para la compresión de imágenes de diagnóstico médico,
debido a que en los coeficientes de detalles y aproximación
pueden encontrarse los cuadros clínicos.
Los filtros wavelet poseen una frecuencia de corte invariable,
sin embargo se puede dividir el espectro de la señal en un banco
de filtros que permita seleccionar los coeficientes más útiles para
la implementación de la compresión de imágenes con pérdidas,
tomando únicamente la aproximación y desechando los detalles.
Se logró alta tasa de compresión con las familias Haar,
Daubechies 1, Biorthogonal 1.1 y Reverse Biorthogonal 1.1
debido a que estas wavelet solo varían su amplitud dos veces
(son señales rectángulos), luego los coeficientes convergen a
estos valores y los coeficientes se hace más similares entre sí Fig.
12.
Fig. 12. Wavelet Haar.
Al aplicar transformada wavelet discreta sobre cada imagen los
especialistas en el manejo de imágenes médicas consultados
notaron que estas tenían variaciones en cuanto al brillo de los
pixeles, apreciación que pudo demostrarse haciendo cálculos
entre los histogramas de cada imagen reconstruida respecto a los
de la original, concluyendo que este fenómeno se debe al
desplazamiento hacia la derecha de la información del histograma
original y la variación de la media (brillo) y la varianza (contraste).
La trasformada wavelet es una herramienta ideal para analizar
señales no estacionarias (que no mantienen la misma forma en el
tiempo), puesto que brinda una completa identificación de las
componentes de frecuencia asociadas a los diferentes niveles de
escala, permitiendo encontrar con mayor facilidad que con otras
herramientas como Fourier discontinuidades y cambios abruptos
en la señal.
V. TRABAJO FUTURO
La telemedicina permite la integración de muchas herramientas
tecnológicas con el fin de mejorar y hacer más fácil el préstamo
de servicios médicos. Este proyecto se basa en imágenes
ecográficas ya tomadas y digitalizadas, para su posterior
manipulación mediante MATLAB; se puede ofrecer el mismo
tratamiento a este tipo de imágenes médicas realizando la
implementación en un DSP (Procesador Digital De Señales).
Como la trasformada wavelet, descompone una imagen en
aproximación y detalles, se puede diseñar e implementar un
algoritmo que detecte cuadros clínicos automáticamente, por
ejemplo, embarazos ectópicos, tumores, quistes y cáncer en
tejidos blandos.
Implementar la trasformada wavelet para el reconocimiento de
patrones auditivos en cardiología, neurología y obstetricia.
Utilizar las diferentes técnicas del procesamiento digital de
señales, para hacer realzado de patrones anormales dentro de la
ecografía o simplemente para implementar técnicas de
ecualización que le permita a los radiólogos mejorar sus
características visuales.
Implementar este proyecto en estándares de manejo de
imágenes médicas como DICOM, facilita el trasporte de estos
datos a través de las redes de comunicación hospitalarias y
además este protocolo no cuenta con herramientas de
compresión sin pérdidas.
VI. OBSERVACIONES
Los resultados obtenidos al hacer todo el proceso presentado
en este proyecto fueron sometidos al estudio de un médico
radiólogo y un ingeniero Biomédico especialista en imágenes
diagnosticas, ambos concluyeron que al implementar la
compresión de las ecografías con cualquier familia Wavelet no
presenta pérdidas significativas que puedan alterar el cuadro
clínico. Con el uso de la familia Discrete Wavelet no se aprecia
cambio alguno entre la imagen original y de síntesis, existe un
problema evidente en la implementación de esta familia sugerida,
se generan coeficientes muy dispersos entre sí por lo cual hacer
cuantización y compresión sobre estos no es viable.
Como ninguna familia afecta los cuadros clínicos vistos dentro
de las ecografías, se hizo un estudio con cada una de las familias
con lo que se demostró que la Haar y sus similares ofrecen una
alta tasa de compresión.
Los autores agradecen a las personas que participaron en el
estudio de cada una de las ecografías tratadas:
Doctora Patricia Ortiz Peña.
Ingeniero Eddier Yesid Pardo Herrera.
REFERENCIAS
[1] J. Mompín P. Introducción a la bioingeniería. serie mundo electrónico. Ed. MARCOMBO S.A. Barcelona España 1988.
[2] L. Fernanda, A. Martínez. ―Ecografías 2D y 3D‖. Programa de Ingeniería Biomédica EIA – CES. Antioquia Colombia 2006.
[3] Kouro R. Samir, Musalem M. Rodrigo, ―Tutorial Introductorio a la Teoría De Wavelet‖. Departamento De Electrónica. Universidad Técnica Federico Santa María. Valparaíso Chile 2002.
[4] González C. Rafael. Digital Image Processing. 3 ed. Addison-Wesley Publishing company. Estados Unidos De América 2008.
Recommended