Upload
ceditec
View
230
Download
8
Embed Size (px)
DESCRIPTION
En este número la revista I+i ofrece a sus lectores: Control difuso de una planta de nivel.- Método alternativo para la producción de oxicloruro de cobre.- An analysis of MPLS performance in layered & hierarchical network.- Construcción de biodigestores discontinuos y análisis de su comportamiento bajo diferentes regímenes de operación.- Entrenamiento a distancia en tecnologías de automatización y control, utilizando laboratorios virtuales de acceso remoto.- Asignación de pérdidas de potencia complejas usando seguimiento de flujo de potencia.- Evaluación del uso de fibras textiles como aislante térmico.- Modelo de gestión del conocimiento.- Efecto del bicarbonato de sodio y del aceite vegetal sobre las epidemias de leandria momordicae en pepinillo y alternaria solani en tomate
Citation preview
Investigaciónaplicada einnovación
Volumen 3, N.o 2Segundo semestre, 2009 Lima, Perú
Editorial ...................................................................................................................................................................
Control difuso de una planta de nivel ..............................Raúl Medrano/Ernesto Godinez
Método alternativo para la producción de oxicloruro de cobre .............................................................................................................................................................. Rosa Sayán/Josefina Quispe
An analysis of MPLS performance in layered & hierarchical network architectures .................................................................................... Dave Hedge/Raymond A. Hansen
Construcción de biodigestores discontinuos y análisis de sucomportamiento bajo diferentes regímenes de operación....... Giancarlo Obando
Entrenamiento a distancia en tecnologías de automatización y control,utilizando laboratorios virtuales de acceso remoto...............................Henry Gómez
Asignación de pérdidas de potencia complejas usando seguimiento de flujo de potencia ................................................................................................................... Yuri P. Molina
Evaluación del uso de fibras textiles como aislante térmico.... ....Julio Monjarás
Modelo de gestión del conocimiento.......................................................................... Rafael Vera
Efecto del bicarbonato de sodio y del aceite vegetal sobre las epidemias de leandria momordicae en pepinillo y alternaria solani en tomate...................................................................................................................................................Roberto Ramírez Otárola
ISSN 1996-7551
75
76
84
89
95
103
110
120
127
140
76
Invest Apl Innov 3(2), 2009
Raúl Medrano, Ernesto Godinez
Control difuso de una planta de nivel
Fuzzy control of level plant
Resumen
El presente trabajo es el complemento de uno anterior deno-
minado “Modelamiento de una Planta de control de Nivel me-
diante Identificación No Paramétrica” [1]. En esta ocasión, va-
mos a utilizar un tipo de control avanzado denominado Lógica
Difusa (“Fuzzy Logic” en inglés), en la cual no es necesario tener
el Modelo matemático de la Planta pero sí el debido conoci-
miento de su funcionamiento y la experticia en su control.
Tal como fue planteado en su oportunidad en [1], el objetivo
primario del presente trabajo es enseñar a los estudiantes de
nuestra institución los fundamentos de control y automati-
zación y, en este sentido, a aplicar otras técnicas de control
alternativas al muy conocido PID durante sus actividades de
laboratorio. En este caso se muestra un tipo de control avan-
zado denominado “Control Difuso”.
La primera parte consiste en proporcionar una metodología
con las ideas y conceptos que sirven como base a la aplica-
ción del control difuso en el control de la Planta de Nivel.
La segunda parte corresponde a expresar lo “difuso” median-
te conceptos matemáticos que permitan introducirla a una
computadora y obtener resultados tal como si se tuviese el
conocimiento de un experto en su interior, con el cual, me-
diante el valor lingüístico de la variable medida (nivel), reglas
de inferencia y sus conclusiones, permite determinar la mejor
señal de control a ser enviada al actuador de la Planta para
que la variable medida se aproxime al valor deseado.
La tercera parte consiste en utilizar la herramienta “Fuzzy
Logic Toolbox” de MATLAB para simular su comportamiento
durante el control de una Planta de Nivel cuyo modelo fue
determinado en [1]. Se contrastan las respuestas simuladas
de control de la Planta de Nivel con el Controlador Difuso y
el Controlador PID.
Los resultados simulados obtenidos demuestran la eficacia
de la estrategia de control difuso, lo cual nos motiva a conti-
nuar con la investigación para contrastar los resultados simula-
dos con resultados prácticos.
Abstract
The present work is the complement of a previous one entitled
“Modeling a Level Plant by Non-parametric Identification” [1],
this time we will use an advanced control type called Fuzzy Lo-
gic where it is not necessary to have the plant’s mathematical
model but is very necessary to have enough knowledge of its
operations and expertise in its control.
As was mentioned in [1], the primary objective of this work is
to teach our students the fundamentals in process control and
apply other alternative control techniques, different than PID,
during laboratory activities. In this case it is an advanced type
of control called “Fuzzy Control”.
The first part consists of providing a methodology with ideas
and concepts that serve as the basis for the application of fuzzy
control for the Level Plant control. We also mention the me-
aning of “diffuse” as an approach that the human being makes
to define a state variable and a control variable.
The second part corresponds to express the “fuzzy” through
mathematical concepts that allow us to enter into a computer
and get results as if we had the knowledge of an expert inside.
The technique uses the linguistic value of the measured varia-
ble (level), inference rules and its conclusion, which allows us to
determine the best control signal to be sent toward the actua-
tor in order to achieve the desired value.
The third part is to use the “Fuzzy Logic Toolbox” of MATLAB to
simulate its behavior during the control of a level plant whose
model was determined in [1]. The simulated results of the con-
trol for the Level Plant are compared with the diffuse controller
and the PID controller.
The simulated results obtained show the effectiveness of fuzzy
control strategy, which motivates us to continue the research
77
Invest Apl Innov 3(2), 2009
MEDRANO, Raúl; GODINEZ, Ernesto. “Control difuso de una planta de nivel”
to check simulated results with the practical results.
Palabras Claves
Control de nivel, Control Difuso, software de simulación, He-
rramienta de Lógica Difusa.
Key Words
Level Control, Fuzzy Control, Simulation Software, Fuzzy Lo-
gic Toolbox.
INTRODUCCIÓN
El objetivo principal de la ingeniería de control es destilar y
aplicar el conocimiento sobre cómo controlar un proceso de
tal modo que el sistema de control resultante sea confiable
y seguro para alcanzar un gran desempeño en su operación
[2, p. 23].
De acuerdo a la aseveración anterior, el ingeniero de control
debe tener toda la data posible del proceso y plantearse mu-
chas preguntas tales como si el proceso es estable, es obser-
vable, es controlable, tiene no linealidades, etc. Luego, ante
señales de entrada y salida en ambiente controlado, se debe
seleccionar la data útil de la respuesta dinámica conseguida,
determinar el modelo matemático de la Planta y definir el
tipo de controlador que mejor logre alcanzar los criterios de
diseño del control como el tiempo de asentamiento y sobre-
impulso máximos, el rechazo a las perturbaciones, error de
estado estable, tiempo de subida, etc. Como se deduce, es un
trabajo muy complejo y tedioso, razonablemente aceptado
para procesos multivariables.
En el caso de controlar el nivel del tanque de una Planta [1], si
preguntamos al operario cuáles deben ser sus procedimien-
tos para controlar dicho proceso, con certeza nos responderá
que basta con abrir y cerrar las válvulas de ingreso y salida de
líquido de acuerdo al valor de nivel observado. No hizo falta
el modelo matemático del proceso ni ecuaciones precisas,
sólo sentido común del operario como resultado de las ob-
servaciones “aproximadas” o “difusas” de determinadas varia-
bles. Por lo tanto, se ha desarrollado el “Control Difuso” como
aquella que proporciona una metodología formal para inter-
pretar, manipular e implementar el conocimiento heurístico
humano sobre el control de un proceso [2]. Se explican los
términos que utiliza esta técnica presentada por Lotfi Zadeh
en 1965 y luego aplicado por otros investigadores como Ma-
mdani, para ejecutar el “Control Difuso” de los procesos.
La Figura 1 muestra la arquitectura propuesta para un Controla-
dor Difuso Directo, el cual usaremos en el control de la Planta de
Nivel. Se observan los nuevos términos a emplear y la lógica que
se ha creado para poder implementar los algoritmos de control
que interpreten el razonamiento y deducción humanos.
Figura 1. Arquitectura del Controlador Difuso [2]
FUNDAMENTOS
Planteamiento del Control Difuso a aplicar en la Planta de Nivel
Vamos a plantear el diseño del control difuso de la Planta de ni-
vel siguiendo lo mostrado en la Figura 2, observando que para
conseguir un control de nivel adecuado, se debe tener además
en cuenta la velocidad del error de nivel. La experiencia del
operario va a ser incrustada en el controlador difuso. Entonces
tenemos las variables “y”, “de/dt” y “e” definidas como:
r: referencia de nivel o valor deseado
y: valor de nivel actual
e: error de nivel (r-y)
(de/dt): velocidad del error de nivel
u: señal de control a la válvula proporcional de ingreso de lí-
quido
Figura 2. Planteamiento de las variables para la Planta de nivel [2]
De la Figura 3, que es una representación del módulo de la Plan-
ta de Nivel, deducimos las siguientes ecuaciones:
e(t) = r(t) - y(t) (1)
d
eu y
r
dt
r(t) u(t) y(t)
78
Invest Apl Innov 3(2), 2009
MEDRANO, Raúl; GODINEZ, Ernesto. “Control difuso de una planta de nivel”
Tomando la derivada de la Ecuación 1:
e(t) = r(t) - y(t) (2)
Resultan las siguientes inecuaciones para el error de la Ecua-
ción 1:
Si: e(t) = 0 r (t) = y(t)
Si: e(t) = 0 r (t) < y(t) (3)
Si: e(t) = 0 r (t) < y(t)
Para las derivadas del error, existen 4 posibilidades depen-
diendo de su polaridad; en el caso que r(t) > y(t) (error positi-
vo), si la derivada del error es positiva significa que el nivel de
líquido decrece alejándose de r(t); caso contrario, el nivel de
líquido aumenta aproximándose a r(t). La Ecuación 4 resume
dicho comportamiento y la Figura 3 ayuda a observar dicha
situación.
(4)
Figura 3. Error y velocidad del error en la Planta de Nivel [1]
Con el objetivo de capturar la experiencia del operario de la
Planta, se realizan preguntas tales como ¿cuál sería su proce-
dimiento de maniobras si observa que y esy ligeramente me-
nor que r y su valorr decrece lentamente (velocidad del error
positiva y lenta)?”; quizás su respuesta sería: “Abrir la válvula
proporcional al máximo”. La respuesta va a estar en función a la
experiencia del operario al trabajar en dicha Planta.
Ahora debemos organizar las variables de estado “e(t)” y “de(t)/
dt” para adecuarla a los valores lingüísticos que va a usar el
operario. Lo mismo haremos para la señal de control “u(t)” que
manipulará la abertura de la válvula de ingreso de líquido. La
Tabla 1 muestra los 5 valores lingüísticos (NL, NS, Z, PS, PL) para
cada una de las variables de estado (se pudieron haber escogi-
do 3, pero deseamos lograr mayor precisión en el control) y 5
para la señal de salida (CL, CS, Z, AS, AL). Observar que también
se aplican valores numéricos lingüísticos (-2, -1, 0, 1, 2) a los
valores lingüísticos para facilitar su tabulación al momento de
desarrollar la Base de Reglas.
e(t) y d(e)/dtPREMISAS
u(t)CONCLUSION
NL: Muy negativo -2 CL: Muy cerrado -2
NS: Negativo pequeño -1 CS: Poco cerrado -1
Z: Cero 0 Z: Medio 0
PS: Positivo pequeño 1 AS: Poco abierto 1
PL: Muy positivo 2 AL: Muy abierto 2
Tabla 1. Valores lingüísticos de las variables de estado
Luego de las preguntas de rigor “¿Qué pasa si e(t) es …. y de(t)/
dt es …..?” (PREMISAS), el operario responde con: “u(t) debe es-
tar …….. “(CONCLUSIÓN). La Tabla 2 es un resumen del conoci-
miento del experto operario en el control de nivel de la Planta.
PREMISAS CONCLUSIÓN
Si e(t) es NL y de(t)/dt es NL u(t) debe estar CL
Si e(t) es NL y de(t)/dt es NS u(t) debe estar CL
Si e(t) es NL y de(t)/dt es Z u(t) debe estar CL
Si e(t) es NL y de(t)/dt es PS u(t) debe estar CS
Si e(t) es NL y de(t)/dt es PL u(t) debe estar Z
Si e(t) es NS y de(t)/dt es NL Entonces u(t) debe estar CL
Si e(t) es NS y de(t)/dt es NS u(t) debe estar CL
Si e(t) es NS y de(t)/dt es Z u(t) debe estar CS
Si e(t) es NS y de(t)/dt es PS u(t) debe estar Z
Si e(t) es NS y de(t)/dt es PL u(t) debe estar PS
……………. …………….
……………. etc ……………. etc
Tabla 2. Diseño de la Base de Reglas
ddt
ddt
0e0ed
dt
79
Invest Apl Innov 3(2), 2009
MEDRANO, Raúl; GODINEZ, Ernesto. “Control difuso de una planta de nivel”
Criterio de diseño del ControladorDifuso
En la Figura 1 se muestra la arquitectura del Controlador Di-
fuso y en la Figura 2 las entradas y salida. Corresponde ahora
utilizar la Tabla 2 para implementar cada una de las partes
que la conforman. A continuación, la definición de cada etapa
según [2].
a) Base de Reglas
Es el conjunto de reglas del tipo “Si ….., entonces ……”
que contiene la cuantificación de la lógica difusa de la
descripción lingüística del experto sobre cómo alcanzar
un buen control.
b) Mecanismo de Inferencia
Se comporta como “el experto que toma las decisiones”
interpretando y aplicando el conocimiento de la Base de
Reglas para concluir el mejor modo de controlar la Planta.
c) Fusificación
Convierte las entradas del controlador (e(t) y de(t)/dt),
usando las funciones de pertenencia o membrecía, en
información que el mecanismo de inferencia pueda usar
para activar y aplicar las reglas.
d) Defusificación
Convierte las conclusiones del mecanismo de inferencia
en la salida (u(t)) para controlar la Planta.
La Figura 4 muestra las funciones de pertenencia o
membrecía del tipo triangular y trapezoidal comúnmen-
te usados en la etapa de fusificación para implementar
la lógica difusa en la computadora. La idea es tener cier-
ta “confianza” del valor de los “valores lingüísticos”. Los
rangos de entrada y salida se normalizan a [-1, 1] y la
amplitud es también normalizada a la unidad. Se obser-
va un valor lingüístico de 0 para e(t), siendo Z = 1; y un
valor de 0,35 para de(t)/dt con Z = 0,25 y PS = 0,75.
La lógica difusa creada para poder introducir los “valores
lingüísticos” a la computadora se pueden resumir en los si-
guientes términos según [4]:
y”
y “Si de(t)/dt es Z =
0,25”
mínimo de (1, 0,25) =
0,25
0,75”
mínimo de (1, 0,75)
= 0,75
La Base de Reglas con todos los valores lingüísticos se muestra
en la Tabla 3.
u(t)d(e)/dt
NL NS Z PS PL
e(t)
NL CL CL CL CS Z
NS CL CL CS Z AS
Z CL CS Z AS AL
PS CS Z AS AL AL
PL Z AS AL AL AL
Tabla 3. Base de Reglas a implementar en el simulador
Entonces, continuando con el ejemplo, pero en este caso con
los antecedentes y conclusión, y apoyados en la Tabla 3, tene-
mos:
y “Si de(t)/dt es Z” entonces “u(t) es Z”
Figura 4. Funciones de Pertenencia de las entradas y salida [2]
-2NL NS Z PS PL
2-1
--- 0.5 0.5 0.7 e(t), ( m )--- 0.7- 1
1
1
0
-2NL ZNS PS PL
2-1
--- 0.5 0.5 0.7 e(t), ( m/s ) d dt
--- 0.7-1
1
1
0
-2
ZCL CS AS AL2-1
--- 0.3 0.3 0.7 u(t), ( v )--- 0.7-1
1
1
0
80
Invest Apl Innov 3(2), 2009
y “Si de(t)/dt es PS” entonces “u(t) es AS”
La ecuación 5 proporciona el área achurada del triángulo
mostrado en la Figura 5.
Para los antecedentes y conclusión analizados líneas arriba,
tenemos dos valores: Area1 (membrecía Z, con h = 0,25) y
Area2 (membrecía AS, con h = 0,75).
(Ecuación 5)
Figura 5. Área del trapezoide [2]
En el mecanismo de inferencia, para este caso se realiza la
siguiente operación:
(6)
El valor “ uresult”, que corresponde al Centro de Gravedad es
enviado por la etapa de defusificación como un pulso de
voltaje (ver u(t) en la Figura 4) hacia la válvula proporcional
de ingreso de líquido (ver Figura 3).
El ejemplo dado corresponde a una toma instantánea de los
valores lingüísticos de entrada y la correspondiente respues-
ta de la señal de control proporcionada por la lógica difusa.
En la práctica, dicho proceso se repite continuamente y por lo
tanto es muy importante implementar el Controlador Difuso
en computadoras PLC’s o DCS’s que puedan correr el progra-
ma a gran velocidad y aún más si el proceso a controlar es
muy veloz (flujo, velocidad).
Modelamiento y Sintonía del Contro-lador Difuso aplicado a la Planta deNivel
Aplicaremos la herramienta Fuzzy Logic Toolbox [3] en SIMU-
LINK de MATLAB para modelar, simular y sintonizar el Control
Difuso de la Planta de Nivel motivo de la investigación.
En el workspace de MATLAB se escribe fuzzy y la herramienta
“FIS Editor” se despliega para permitirnos diseñar de modo
gráfico todas las partes del Controlador Difuso, (ver la Figura
6). Luego, en Membership Function Editor se implementan las r
etapas de Fusificación (para “e(t)” y “de(t)/dt”) y Defusificación.
(para “u(t)”). Cabe mencionar que las funciones de pertenencia
están normalizadas en el rango de [0,1] y las formas a seleccio-
nar pueden ser trapezoidales, triangulares, gaussianas, etc.
1h
wBi
Figura 6. Plantillas de la Herramienta Fuzzy de MATLAB
MEDRANO, Raúl; GODINEZ, Ernesto. “Control difuso de una planta de nivel”
81
Invest Apl Innov 3(2), 2009
Para implementar la Base de Reglas, seleccionamos Rule
Editor (ver la Figura 7) y se despliega una pantalla en la que r
escribimos las 25 reglas “Si ……, entonces ……..” como re-
sultado de las combinaciones de 5 funciones de pertenencia
para cada una de las 2 entradas (ver Tabla 3).
El Mecanismo de Inferencia escogido es el tipo Mamda-
ni, el cual proporciona una salida tipo pulsante (ver “u(t)”
en la Figura 4).
Terminado el diseño del Controlador Difuso, se guarda en
un archivo y también se hace la exportación al workspace
para poder usarlo con SIMULINK durante la simulación con
la Planta de Nivel.
Figura 7. Implementación de la Base de Reglas
La Figura 8 muestra el programa gráfico SIMULINK imple-
mentado para probar el Controlador Difuso con la Planta de
Nivel. Observar que se ha puesto en paralelo un controlador
PID para la respectiva contrastación de resultados simulados.
Se observan los bloques de ganancias (Gain, Gain 1, Gain 2),
cuya función es sintonizar el Controlador Difuso y así evitar
manipular las funciones de pertenencia. El bloque Gain 3 se
adiciona para permitir que el Controlador Difuso minimice el
error estacionario. El bloque Planta de Nivel contiene el mo-
delo matemático hallado en [1].
En la Figura 9 se pueden apreciar dos ayudas adicionales que
proporciona la herramienta, tales como los visualizadores de
Reglas y Superficie. En esta última se ve un gráfico 3D con la
superficie que representa la respuesta del controlador ante
las dos entradas.
Figura 8. Simulación del Controlador Difuso y la Planta de Nivel
Figura 9. Visualizador de las Reglas y Superficie del Controlador Difuso
Seleccionamos una señal cuadrada de amplitud 0,5 y frecuen-
cia 0,001Hz como valor de referencia “r(t)”. La respuesta de la
Planta de Nivel con el Controlador Difuso y con el Controlador
PID se muestra en la Figura 10. Se pueden comparar las dos res-
puestas y ambas tienen comportamiento aceptable, sobre todo
con el Controlador Difuso que no usó el modelo matemático de
la Planta de Nivel.
MEDRANO, Raúl; GODINEZ, Ernesto. “Control difuso de una planta de nivel”
82
Invest Apl Innov 3(2), 2009
Figura 10. Respuesta a un escalón de la Planta de Nivel con Controla-
dor Difuso y Controlador PID
RESULTADOLL S
Fuzzy Logic Toolbox de MATLAB [3] esx
muy práctica y simple de usar, lo que sumado al conoci-
miento base de la técnica o procedimiento para incrus-
tar la experticia del operario en la PC dado en esta inves-
tigación, motivará al estudiante de nuestra institución a
comprobar la eficiencia de otros tipos de controladores
de procesos.
-
vestigación es Mamdani, siendo el más simple de los que
actualmente existen; por lo tanto, si las especificaciones
del control lo requirieran la respuesta puede ser aún me-
jorada al probar con otros tipos de controladores difu-
sos de mejor precisión (Takagi-Sugeno, por ejemplo) o con
técnicas mixtas tal como el Controlador Neuro-Difuso.
el acondicionamiento de las reglas de inferencia al control
de nivel, el número de reglas utilizadas, el tipo de función
de membresía y el dominio de estas. El mejoramiento de
esta eficiencia implica realizar un gran número de pruebas
de simulación.
DISCUSIÓN
-
lador No Lineal [2] [4], y se presenta como una superficie
de 25 mosaicos, cada una con una pendiente determinada
que es dada por la Base de Reglas. Entonces, manipulando
por prueba y error dicha superficie, es muy posible encon-
trar la sintonía adecuada para cumplir con los requeri-
mientos de control de cualquier proceso. Nuestra próxima
investigación será trabajar en tiempo real con la Planta de
Nivel controlada por el Controlador Difuso, implementado
en una PC.
Controlador PID es mejor en el tiempo de establecimiento;
tal como se observa en la Figura 10. Es la razón por la cual
dicho tipo de control es ampliamente usado en la actuali-
dad.
lineales y que son difíciles de modelar matemáticamente,
pero sí podrían ser controlados por un experto que cono-
ce profundamente el funcionamiento del proceso.
CONCLUSIONES
-
diante el Controlador Difuso es muy aceptable (ver Figura
10), ya que no presenta sobre impulso, el error de estado
estable es cero y los tiempos de subida y establecimiento
son bastante cortos. Es una alternativa viable que puede
usar el ingeniero de control para Plantas con comporta-
miento no lineal y de difícil modelamiento.
observa cierta simetría en las conclusiones, lo que nos
permite concluir que puede ser un punto de partida para
iniciar el desarrollo del diseño y la sintonía del Controlador
Difuso para el control de otros tipos de Plantas.
MEDRANO, Raúl; GODINEZ, Ernesto. “Control difuso de una planta de nivel”
83
Invest Apl Innov 3(2), 2009
REFERENCIAS
[1] MEDRANO R. y GODÍNEZ E. (2008). “Modelamiento de
una Planta de Control de Nivel mediante identificación
no Paramétrica”. Investigación Aplicada e Innovación I+i;
2(2), 79-87.
[2] PASSINOPP K, y YURKOVICH S. (1998). Fuzzy Control (1l o. ed.)
Addison Wesley Longman, Inc. USA.
[3] MATLAB (2009 Online only). Fuzzy Logic Toolboox TM 2
User’s Guide. The MathWorks, Inc. USA.
[4] CARR D. y SHEARER J. (2005, junio). “Nonlinear Control
and Decision Making Using Fuzzy Logic in Logix”. Recu-
perado el 6 de julio de 2009: http://discover.rockwellau-
tomation.com/Files/using%20fuzzy%20logic%20in%20
logix%20whitepaper9324-wp006_-en-p.pdf.
ACERCA DE LOS AUTORES
Raúl Medrano Tantaruna
Ingeniero electrónico con especiali-
zación en tecnología educativa DSE
Mannheim, Alemania.
Es profesor de Tecsup en los cursos
de control electrónico de potencia,
diseño y mantenimiento electróni-
co. Ha implementado varios proyectos para el departamento
de Electrónica. Es miembro de las sociedades IEEE e ISA.
MEDRANO, Raúl; GODINEZ, Ernesto. “Control difuso de una planta de nivel”
Ernesto Godines De La Cruz
Ingeniero electrónico e ingeniero
electricista, con Maestría en Ingeniería
de Control y Automatización.
Actualmente se desempeña como Do-
cente en el Departamento de Electró-
nica de Tecsup.
Ha desarrollado e implementado proyectos de electrificación
y automatización de plantas industriales. También ha realizado
diseños y construcciones de tableros eléctricos, celdas de me-
dia tensión, centro de control de motores y bancos de conden-
sadores.
84
Invest Apl Innov 3(2), 2009
Rosa Sayán, Josefina Francia
Método alternativo para la producciónde oxicloruro de cobre
Alternative method for the production of copperoxychloride
Resumen
El oxicloruro de cobre es muy utilizado como fungicida (an-
ticriptogámicos) de amplia acción en la agricultura. Este pro-
ducto es recomendado para ser usado en el control de enfer-
medades que atacan a los cultivos en el agro; es un fungicida
altamente eficaz para combatir en forma económica las pla-
gas de los cultivos.
La demanda del oxicloruro de cobre se ha incrementado fun-
damentalmente en el mercado exterior, pero su costo depen-
de del precio del cobre, por lo que se crea la necesidad de mi-
nimizar el uso del alambrón de cobre (utilizado en el método
tradicional) e inclusive de la chatarra de cobre, cuyo precio se
mantiene en el 80% de la cotización internacional del cobre.
La rentabilidad y factibilidad para la producción industrial del
oxicloruro de cobre esta ligada al uso de un cobre de menor
costo como materia prima.
El proyecto tiene como objetivo la investigación de los diver-
sos métodos empleados en la producción de oxicloruro de
cobre para posteriormente mejorar los procedimientos tra-
dicionales realizando pruebas a escala de laboratorio con el
fin de obtener este agroquímico para que se pueda producir
a nivel industrial.
Abstract
The copper oxychloride is widely used as a fungicide (fungi-
cides) of broad action in agriculture. This product is recom-
mended for the control of diseases that attack crops in agri-
culture; it is a highly effective fungicide to combat cheaply
crop pests.
Demand for copper oxychloride has increased primarily in
foreign markets, but its cost depends on the price of copper,
thus creating the need to minimize the use of copper wire
(used in the traditional method) or even scrap copper, whose
price is still 80% of trading international copper.
The profitability and possibility for the industrial production of
copper oxychloride is linked to the use of a lower-cost copper
as raw material.
The project aims to research the various methods used in the
production of copper oxychloride, and later improve the tradi-
tional methods in the laboratory tests in order to obtain this
agrochemical so it can be produced at industrial level.
Palabras claves
Oxicloruro de cobre, agroquímicos, fungicidas, plaguicidas.
Key words
Copper oxychloride, agrochemicals, fungicides, pesticides.
INTRODUCCIÓN
El oxicloruro de cobre es un fungicida que posee un amplio
espectro para el control de diversas enfermedades en frutales
ya que es altamente eficaz para combatir en forma económica
las plagas. Entre los beneficios que presenta, comparado con
otros fungicidas, encontramos que es el fungicida más econó-
mico puesto que no necesita preparación alguna; se utiliza en
menores dosis, no forma grumos por la calidad de la muestra;
presenta una alta eficacia biológica contra un amplio rango de
hongos patógenos; permite que su manipuleo sea fácil y segu-
ro, y puede usarse mezclado con otros fungicidas, insecticidas
y nematicidas.
La oferta del oxicloruro de cobre en nuestro país ha venido
incrementándose con el pasar de los años; cada vez hay más
85
Invest Apl Innov 3(2), 2009
SAYÁN, Rosa; FRANCIA, Josefina. ”Método alternativo para la producción de oxicloruro de cobre”
empresas productoras de oxicloruro de cobre, entre las que
destacan: Química Peruana S.A., QUIPESA; Sulfato de Cobre
S.A., SULCOSA; Industria Peruana de Metales y Derivados,
IPDEMYDSA; Industrias Químicas Omicrón S.A.; Química del
Pacífico S.A.
A la vez, la demanda del oxicloruro de cobre también ha au-
mentado principalmente en el mercado exterior debido al
crecimiento de la agricultura.
El Perú es uno de los principales productores de cobre en el
mundo, por lo que contamos con la posibilidad de acceder a
un cobre de menor precio, que no sea de alambrón o chata-
rra. Es así que surge la idea de utilizar oxido de cobre reem-
plazando al tradicional alambrón o a la chatarra de muy altos
precios, para así obtener oxicloruro de cobre.
FUNDAMENTOS
Los fungicidas cúpricos actúan como fungicidas y bacterici-
das porque liberan pequeñas cantidades de iones de cobre
en contacto con el agua. Se trata de cantidades del orden de
partes por millón (1 ppm = 1 mg/litro), pero que ya son sufi-
cientemente tóxicas para los hongos a combatir.
El efecto tóxico de las sales de cobre sobre los hongos radica
en la inhibición de la germinación de las esporas.
Las esporas de los hongos son capaces de concentrar los io-
nes Cu2+. Durante la fase de absorción, los iones Cu2+ sustitu-
yen a los iones H+, K+, Ca2+ y Mg2+ presentes en la superficie
celular. Esta sustitución puede ocasionar una alteración de la
semipermeabilidad de la membrana, facilitando la penetra-
ción de los iones Cu2+ al interior de las células.
En el interior de las esporas, los iones Cu2+ se fijan sobre diver-
sos grupos químicos, como por ejemplo los imidazoles, car-
boxilos, fosfatos, sulfhidrilos, aminas o hidroxilos, presentes
en numerosas proteínas enzimáticas. Esta unión produce un
efecto tóxico que perturba el correcto funcionamiento celu-
lar. Así, el oxicloruro de cobre tiene la capacidad para enlazar-
se fuertemente con los grupos amino y carboxilo, reacciona
con las proteínas y actúa como inhibidor enzimático.
El oxicloruro de cobre es un polvo muy fino de color verde
claro o azul verdoso, con un tamaño de partícula de 0.2 a 5
micras, y un contenido mínimo de 56 % de cobre y máximo
de 59 % del mismo. Presenta además muy buena suspensibi-
lidad en el agua de más del 80% en peso, con una humectabi-
lidad máxima de 60 segundos, que por lo general se formula
como polvo mojable en agua.
Es un sólido que se funde a 140 ºC; se obtiene por medio de
conversión o digestión, lavado, filtrado y secado. El oxicloruro
de cobre se caracteriza por ser insoluble en agua y muy soluble
en amoniaco y ácidos.
El oxicloruro de cobre no es explosivo y tampoco inflamable. Es
un producto no tóxico para el hombre la dosis letal media oral
aguda es de 1 500 mg/Kg.
Desde el punto de vista químico, el oxicloruro y el hidroxiclo-
ruro de cobre son compuestos básicos del cloruro cúprico; sus
formulas más conocidas son: 3Cu(OH)2.CuCl
2con un peso mo-
lecular de 427.066 y el tetrahidratado 3CuO.CuCl2.4H
2O cuyo
peso molecular es de 444.066.
Por acción del calor, el oxicloruro de cobre se convierte en sal
básica anhidra de color negro, que por adsorción de agua pasa
nuevamente a su color anterior de azul verdoso claro.
Métodos para la producción deoxicloruro de cobre
a. Método Tradicional:
Producción de Oxicloruro de Cobre a partir de alambrón de co-
bre o cementos de cobre de alta ley.
Cargas de alambrón de cobre electrolítico y cementos de cobre
se atacan con ácido clorhídrico al 13 % en peso y simultánea-
mente se inyecta aire comprimido, que es usado como sistema
de oxidación y agitación.
Esta etapa del proceso, tiene una duración de aproximadamen-
te 60 horas, hasta que el licor presenta pH de 3.5 a 4.0, y se han
precipitado los lodos de oxicloruro de cobre.
Los lodos de oxicloruro de cobre son neutralizados con lechada
de cal hasta obtener un pH de 6.0 y sometidos a lavados in-
tensos con el fin de eliminar impurezas solubles; proceso que
demora aproximadamente 8 horas, para obtener el producto
con una humedad del 40 %.
El producto es calentado hasta reducir la humedad a 10 % du-
rante 30 horas; luego se transfiere el producto a un secador de
bandejas donde es secado a una temperatura de 110 º C.
Posteriormente es sometido a operaciones de molienda y en-
vasado.
Se obtiene aproximadamente 93 % de rendimiento.
86
Invest Apl Innov 3(2), 2009
SAYÁN RIVERA, Rosa Maria; FRANCIA QUISPE, Josefina. ”Método alternativo para la producción de oxicloruro de cobre”
La siguiente secuencia de reacciones tiene suceso este mé-
todo:
Cu + 2 HCl + ½ O2
CuCl2
+ H2O
Cu + CuCl2
2 CuCl
2 CuCl + 2 HCl + ½ O2
2 CuCl2
+ H2O
6 CuCl + 3 H2O + 3/2 O
2CuCl
2.3Cu(OH)
2 + 2 CuCl
2
4 CuCl2
+ 3 Ca(OH)2 + H
2O CuCl
2.3CuO.4H
2O + 3 CaCl
2
b. Método del ácido sulfúrico
El cobre metálico es colocado en un reactor discontinuo (ba-
cht), donde llega mediante bombas la solución mezclada y
disuelta de ácido sulfúrico, sal industrial (NaCl) y agua.
El cobre reacciona con la solución de mezcla ácida, se co-
mienza a oxidar el cobre, formando Cu2+, la reacción termina
al alcanzar un pH entre 1 a 3, formándose gran cantidad de
espuma. La solución empieza a tornarse de un color verde
oscuro.
Seguidamente, se bombea el HCl al 36 % (en relación de 3:1
con el agua), luego de agregar el HCl, la coloración desapare-
ce pasando a su estado inicial de pH 1.
Después de una hora aproximadamente se agrega la solu-
ción amoniacal (en relación de 1:3 con el agua); precipitando
así el oxicloruro de cobre.
La reacción se considera terminada cuando el pH de la solu-
ción llega a los valores comprendidos entre 5 y 6.
La siguiente secuencia de reacciones tiene suceso en el mé-
todo del ácido sulfúrico, detallado anteriormente:
2 H2SO
4+ 2 H
2O 2 H
2SO
4.H
2O
2 H2SO
4.H
2O + 4 NaCl 4 HCl + 2 Na
2SO
4 + 2 H
2O
4 Cu + O2
2 Cu2O
2 Cu2O + 4 HCl 4 CuCl + 2 H
2O
4 CuCl + O2
+ 4 HCl 4 CuCl2
+ 2 H2O
4 CuCl2
+ 4 H2O + 6 NH
4OH CuCl
2.3[Cu(OH)
2].4H
2O + 6 NH
4Cl
Método alternativo para la producción de oxicloruro de cobre
a) Producción de Oxicloruro de cobre apartir de Oxido de cobre (I)
Digestión
El oxido de cobre (I) es colocado en un reactor, donde se reali-
zará el ataque ácido; el ácido clorhídrico se bombea al reactor,
donde se encuentra el oxido de cobre (I).
El ataque ácido del ácido clorhídrico debe garantizar la mayor
oxidación del cobre, dándose así la máxima formación de Cu2+.
Se debe hacer uso de un medio oxidante; con esto se propor-
cionará el medio para la optima producción de licores de clo-
ruro cúprico.
La mezcla se deja reaccionar por 2 días aproximadamente.
Neutralización
Con agitación continua, se agrega soda cáustica para poder
neutralizar la mezcla del ácido clorhídrico con el oxido de cobre
(I), y así poder precipitar el oxicloruro de cobre.
La adición de soda cáustica depende del pH de la mezcla; la
neutralización termina cuando el pH se encuentra en el inter-
valo de 5.5 a 6, y el color de la suspensión es de un celeste ver-
doso claro, color específico del oxicloruro de cobre.
Sedimentación
La suspensión se deja sedimentar por un tiempo de 2 horas,
para asegurar que todo el oxicloruro se encuentre en la parte
inferior del reactor. El licor sobrenadante o licor madre que se
encuentra en la parte superior, se retira por medio de un sifón.
Esta solución de licor madre puede ser recirculada para el nue-
vo proceso, ya que contiene cobre como cloruro, hidróxidos,
etc.
Lavado y secado
Terminada la operación de sedimentación, el producto se des-
carga a un tanque de lavado; el precipitado es sometido a suce-
sivas lavadas para eliminar cualquier tipo de impurezas (el agua
de lavado se mezcla con el licor madre).
En esta operación se agregan aditivos y humectantes tal como
el WANIN, o como el Pagasol HR al tanque de lavado. General-
87
Invest Apl Innov 3(2), 2009
SAYÁN RIVERA, Rosa Maria; FRANCIA QUISPE, Josefina. ”Método alternativo para la producción de oxicloruro de cobre”
mente se mezcla mediante un agitador, luego se bombea a
un secador.
El secado del producto se da a un incremento de temperatu-
ra de 70º C, a una temperatura de 110º C aproximadamente.
Molienda y envasado
El producto previamente secado, pasa por un molino para
realizar una disminución de su tamaño. Seguidamente es
envasado y comercializado tanto al exterior como al interior
del país.
b) Etapas del proceso productivopara la obtención de oxicloruro decobre:
ETAPA I
Obtención de licores de cloruro de cobre
Cu2O + 3 HCl CuCl + CuCl
2 + H
2O + H+
ETAPA II
Neutralización con soda cáustica y precipitación de oxi-
cloruro de cobre
4 CuCl2
+ 6 NaOH + H2O 3 CuO.CuCl
2.4H
2O + 6 NaCl
REACTIVOS CONCENTRACIONES
Cu2O 30% de humedad
HCl 33 %
NaOH 50 %
Tabla 1. Reactivos utilizados
En el siguiente cuadro se expresan las cantidades a utilizar
de las materias primas para obtener 100 g de oxicloruro de
cobre como producto principal (estimados a partir de la este-
quimetría de las reacciones):
REACTIVOS CANTIDAD A UTILIZAR (g)
Cu2O al 70% 223.73
HCl al 33% 604.97
NaOH al 50% 131.22
Tabla 2. Gramos de reactivo para producir 100 g de CuO.CuCl2
l
PROCEDIMIENTO
Diagrama 1. Modelo Base en el método de experimentación
Para la obtención de soluciones de cloruro cúprico se han eva-
luado las reacciones con ácido clorhídrico. Mientras que para la
obtención de oxicloruro de cobre a partir de soluciones de clo-
ruro cúprico, se han evaluado las reacciones con soda cáustica y
otras con lechada de cal.
Se realizaron siete (07) tipos de pruebas de laboratorio donde
se usaron cantidades estequiométricas de los reactivos funda-
mentales: Cu2O, HCl, NaOH y en algunas ocasiones lechada de
cal.
Las variables fueron la neutralización a diferentes pH, la airea-
ción, el calentamiento, el tiempo de enfriamiento y reposo para
la formación de precipitado de oxicloruro de cobre. Se compa-
raron los porcentajes de rendimiento de cada método de labo-
ratorio.
RESULTADOLL S
más de una vez para cerciorar que los resultados obteni-
dos fuesen los correctos y adquirir más destreza y práctica
en la producción de oxicloruro de cobre en laboratorio.
HCl, se forma un sedimento blanco de cristales de cloru-
ro cuproso (CuCl) y un licor de coloración oscura, que está
constituido por una mezcla de cloruro cuproso en solu-
ción.
Precipitado
Modelo Experimental en Laboratorio
HCI = Óxido de cobre (II)
Precipitado
+ 400 mL de HCI
Licor
Licor
Soda
88
Invest Apl Innov 3(2), 2009
clorhídrico al 33 % de concentración, se debe realizar un
proceso de oxidación para así poder obtener mayor con-
centración de cobre en solución como cloruro cúprico, y
con esto asegurar un mejor rendimiento en la produc-
ción de oxicloruro de cobre.
El pH es una variable muy importante en el proceso de
producción de oxicloruro de cobre, ya que el oxicloruro
de cobre precipita solo a un intervalo de pH de 5.5 a 6,
mientras que al subir el pH, estará precipitando hidróxido
cuproso, el cual tiene una coloración amarilla intensa.
para así poder eliminar impurezas.
industria de pigmentos. Este hidróxido, en el proceso
realizado, tiene como impureza al mismo oxicloruro de
cobre, el cual podrá ser eliminado con lavadas sucesivas.
CONCLUSIONES
cobre (I) con 30% de humedad como materia prima me-
diante lixiviación con ácido clorhídrico, reemplazando al
tradicional alambrón de cobre o cobre electrolítico.
-
quiere de grandes capitales de inversión, por lo que re-
presenta una interesante alternativa para la producción
de un fungicida frutal de alta demanda mundial.
REFERENCIAS
[1] ORMACHEA RAMOS, José A. Estudio de investigación para
la obtención de oxicloruro de cobre a nivel de laboratorio.
Tesis. Universidad Nacional del Callao. 1992.
[2] CAMARGO H. y C.; DUQUE P., O. Obtención de Oxicloruro de
cobre a partir de minerales cupríferos. Bogotá: Universidad
Nacional de Colombia. 1994.
[3] Descripción del proceso productivo. Universidad de Chile.
Recuperado del sitio www.u-cursos.cl/ingenieria/2009
[4] SKOOG, Douglas A. Química Analítica. 8o edición. USA: Mac
Graw Hill. 2008
[5] AYRESAA , Gilbert H. Análisis Químico Cuantitativo. México:
Harla. 1978.
[6] VOGEL. Arthur I. Química Analítica Cualitativa. Buenos Ai-
res: Kapelusz). 1980
ACERCA DE LOS AUTORES
Rosa María Sayán
Química, con maestría en Química,
mención en Físicoquímica. Experien-
cia docente universitaria mayor de 20
años y de desarrollo y conducción de
laboratorios químicos. Participación
en procesos de autoevaluación. Publi-
cación de libros. Profesora de cursos
de extensión. Actualmente de desempeña como docente del
departamento de Procesos Químicos y Metalúrgicos de TEC-
SUP.
Josefina Francia Quispe
Alumna del sexto ciclo de Procesos
Químicos y Metalúrgicos de Tecsup,
miembro del tercio superior.
SAYÁN RIVERA, Rosa Maria; FRANCIA QUISPE, Josefina. ”Método alternativo para la producción de oxicloruro de cobre”
89
Invest Apl Innov 3(2), 2009
Dave Hedge, Raymond A. Hansen
Un análisis del rendimiento de MPLS enarquitecturas de redes jerárquicas por capas.
An analysis of MPLS performance in layered & hierarchical network architectures
Resumen
MPLS se ha convertido rápidamente en el protocolo estándar
de transporte preferido en las redes de empresas grandes y
medianas. Como el despliegue de servicios sensibles al tiem-
po es común para estas empresas, se vuelve crítico que las
redes tengan la habilidad de soportar este tipo de servicios.
En este estudio, se utiliza el simulador NS2 con módulos MPLS
para modelar y simular una red a gran escala de un proveedor
de servicios de internet implementada durante esta década.
Empezaremos por examinar el rendimiento de la red (laten-
cia extremo a extremo, tiempo de procesamiento por nodo,
tiempos de ida y vuelta) utilizando solo BGP como protocolo
de ruteo. Estas cifras son analizadas a través de diferentes flu-
jos de tráfico característicos generados por un usuario final y
que deben ser transmitidos a través de la red del proveedor.
El siguiente paso consiste en integrar MPLS en la red del pro-
veedor de un modo jerárquico basado en capas para exami-
nar los mismos parámetros anteriores y utilizando los mismos
flujos de tráfico desde el usuario final a través de la red.
La metodología, parámetros de simulación, resultados, con-
clusiones y trabajo futuro son detalladas en este paper.
Abstract
MPLS has quickly become the preferred network framework
for medium to large enterprises. As these companies deploy
time-sensitive services, the ability of the network to support
these new services is critical. In this study, we use NS2 with
MPLS modules to model and simulate a large Internet Service
Provider network as was deployed early this decade. We be-
gin by examining network performance (end-to-end latency,
node processing time, and round trip times) for a BGP-only
deployment of the provider network. These metrics are exa-
mined over a series of defined representative traffic flows
sourced from a customer network that requires transmission
across the provider network. We then integrate MPLS into the
provider network in a layered and hierarchical manner to exa-
mine those same network performance metrics for the same
defined set of traffic flows. Our methodology, results and fin-
dings, and future work are detailed in this paper.
Palabras claves
MPLS, BGP, Arquitecturas de red, Ingeniería de Trafico, Simula-
ción de red, NS2, Servicios Diferenciados.
Key words
MPLS, BGP, Network, Architectures, Traffic Engineering, Network
Simulation, NS2, Differenced Services.
INTRODUCTION
The Internet is built upon many interconnected networks. The-
se networks share routing information as to where websites,
files, and user applications are located through the use of IP
addresses. This type of structure has been employed since the
beginning of the Internet. However, with the advent and push
toward the unified communications network, the transmission
of traditional data, voice, and video, the latency required to
route traffic using this model has proved difficult for not only
service providers but also for customers.
Service providers have long wanted to define “Classes” of traffic.
These classes correspond to how traffic is routed and serviced
on the network. Existing technologies such as DiffServ require
examination and translation of specific fields within the pac-
ket header at each individual hop. This examination process
creates processing overhead which can translate into latency
while traversing the network. In addition to this classification
process, there is also a route selection process. Currently, routes
are selected based upon best match of the destination address.
Having to do this at each and every hop is a very time and pro-
cessing intensive process.
90
Invest Apl Innov 3(2), 2009
With these current attributes in mind, the goal of this research
project was to simulate the difference, in terms of performan-
ce, between a traditional and an MPLS network. In addition
to looking at the performance difference, we were also inter-
ested in seeing if expanding MPLS closer to the transmission
host meant that performance from the source to destination
would increase.
In the following sections the testing platform, topology, tes-
ting parameters, results, conclusion and areas for additional
research will be presented.
BASIC METHODOLOGY
For this project, Network Simulator 2.26, NS2, was used to si-
mulate an MPLS topology using the MPLS for Network Simu-
lator module (mns-2.0) from [1]. NS2 simulations were selec-
ted over hardware based testing strategy for a multitude of
reasons. First was the reduction in the time required to confi-
gure a large network versus simulating a stable topology via
coding. Second was the issue of stability. We were looking
for a simulation that was repeatable over a large number of
tests. With a hardware-based network, there is not absolute
certainty that the testing platform is going to perform the
exact same on each and every test due to the limited control
of the physical environment. Third was the ability to simula-
te functionality in a large number of devices which was not
feasible with the equipment available. With the current ver-
sions of the existing IGPs on available equipment, it was not
possible to scale to this magnitude and still provide reliable
service.
The benefit of the mns-2.0 plug-in is that it provides NS2 the
ability to designate MPLS nodes, classify traffic, exchange LDP
packets, and build a functional network that is representative
of an enterprise-class MPLS network. For this research, we are
mostly focused on the LDP processes and the ability to desig-
nate certain nodes as MPLS nodes. [3, 5]
Network Topology
The network topology was one of the most significant as-
pects of this research project. The topology that was deve-
loped was based on an actual service provider network, as
shown in Figure 1.
a) Service Provider Backbone
For the Service Provider network, a regional topology
was developed that would comprise of four major re-
gions. These regional hubs were selected because of
their OC-48 backbone connectivity. This backbone ope-
rates at a rate of 2488.32 Mbps and is a realistic represen-
tation of a backbone for a major provider. Between each
head-end backbone router, there is a 1 Gbps cross connect.
It was important to emulate, as closely as possible, a real
network so that the results that were collected have me-
aning from not only a customer perspective but also a Ser-
vice Provider prospective. While this was designed around
an actual network, the current implementation does not
take into account redundancy, outside of basic redundan-
cy, of the network or the overall recoverability in the event
of a catastrophic failure within the service provider net-
work.
Figure 1. Service Provider Network Architecture
Figure 2. Sample Regional Network
b) Service Provider In-Region
With the backbone connectivity selected, five regional
routers were created. These routers would be internal to
the service provider’s network. These routers provided
the connectivity to the high speed backbone routers and
service the service provider’s regional hubs. Redundancy
was built into the design so that any one hardware failu-
re would still provide for connectivity within the region.
This was a design decision that was not tested because we
were not concerned about the recoverability of MPLS for
this research project. The main goal of creating an accura-
te topology was such that basic redundancy was needed.
HEDGE, Dave; HANSEN, Raymond. “An analysis of MPLS Performance in layered & hierarchical network architectures”
91
Invest Apl Innov 3(2), 2009
HEDGE, Dave; HANSEN, Raymond. “An analysis of MPLS Performance in layered & hierarchical network architectures”
For connectivity, these routers were connected via T3
to the head end backbone routers and Metro Ethernet
between the other regional routers. These connections
technologies operate at ~45 Mbps and 10 Mbps respec-
tively.
c) Service Provider Regional Hub
The final service provider consideration was the servi-
ce provider’s regional hub router. These routers are the
gateways for customers to gain access onto the service
provider’s network. Large provider edge locations were
selected from prime locations in Figure 1. These routers
were connected back into the regional ones using Metro
Ethernet connectivity that operates at 10 Mbps.
d) Customer Edge
The final network segment was the customer edge.
These routers represented actual customer’s networks.
Using T1 connectivity, these routers then connect into
the regional hub routers. This is also the location where
traffic generation and reception occurred for the simu-
lations, allowing the rest of the network to route traffic
while not dealing with traffic generation.
Testing & Test Configuration
The testing was conducted in five strategic phases that would
provide detailed information to capture the performance of
the network. The phased approach also provided a stable
testing platform that could be expanded as the project pro-
gressed and was repeatable throughout the testing process.
As each phase progressed, a series of tests were conducted
with data was collected to measure the network performan-
ce statistics.
The testing configuration consisted of seven separate traffic
streams. Each of these streams started in one geographical
location and was sent across the network to a different geo-
graphical location. All of the streams were 10 hops in length.
For testing purposes, and to collect statistics, a single TCP
stream was configured from the Houston area to the LaGuar-
dia area. This stream was the main focus of the simulations
as it provided the most information statistically due to the
nature of the protocol.
The six additional streams were constant bit rate UDP streams.
The main purpose of these streams was to provide some load
to the routers and create traffic in the geographic locations.
These streams also presented a similar traffic pattern to VoIP
and video session. For these streams, the packet rate was set to
1.5 Mbps with a packet size of 1000.
The NS2 testing schedule involved starting all of the UDP/CBR
nodes prior to the start of the TCP/FTP session. This allowed
for packets to be in route prior to the transmission of the TCP
handshake and the start of the session. In addition, the time
prior to the start of the UDP/CBR session provided ample time
for the LDP message to be communicated through the network
depending on what stage the MPLS was implemented.
RESULTLL S
The results were consistent with the original hypothesis: that
MPLS provided a performance increase. While this performan-
ce increase was not in an exponential fashion, there was a clear
performance increase from the traditional network to the pha-
sed approaches evaluated. The test result, which are presented
in the graphs below, include the traditional benchmark, (pha-
se 1), and then each consecutive phase that MPLS was moved
from the provider core to the customer premise. Also the traffic
is representative of either TCP or UDP protocols only. There was
LDP traffic on the network in testing phases that involved the
usage of MPLS. Including the LDP traffic only skews the results
because the further the MPLS is expanded, the more LDP traffic
is needed to build the MPLS table. The simulated test sets were
ran twice, with the first test consisted of each of the network
links having 5ms of latency and the second sets of tests set to
to 15ms of latency.
First up was the End to End Delay time for all TCP traffic. The
TCP traffic was the test-bed for this experiment. The measure-
ment of End to End Delay is as follows, “End2End delay = time
(in seconds) when packet was received by OTHER NODE - time
(in seconds) when packet was sent by CURRENT NODE.” [2] In
this instance, the OTHER NODE was a customer node located in
Houston area and the CURRENT NODE was located in the La-
Guardia area.
Figure 3. Average End to End Delay
92
Invest Apl Innov 3(2), 2009
HEDGE, Dave; HANSEN, Raymond. “An analysis of MPLS Performance in layered & hierarchical network architectures”
As seen in the graph, Figure 3, the first phase, the traditional
benchmark, there was an improvement by implementing
MPLS for the 5 ms network configuration. By expanding the
technology, no additional performance benefits were detec-
table during the testing periods.
However, when the backbone latency was increased to 15
ms, the end to end delay remained constant around 66.8 ms.
There was no significant drop in the end to end delay time
for this configuration. Meaning that there was no significant
performance increase between the traditional and MPLS-
enabled network configurations.
Next was the End to End Delay for the UDP background
streams. Even though these streams were not the focus of the
experiment, the traffic was still being sent across the MPLS
network. This type of traffic, unlike the TCP traffic, is more
consistent with traffic that is time-sensitive. Therefore, an im-
provement in delivery time would be beneficial in marketing
and also to the customer who is looking at implementing a
unified network.
Figure 4 - Average Delay - UDP only
As the graph, Figure 4, illustrates, there is a performance im-
provement associated with the implementation of MPLS for
configurations, as captured by the close descending slope.
However, the initial performance improvement does not oc-
cur at the provider core level as was noted with the 5ms TCP
results. The 15 ms tests returned results that closely mirror
the results of the 5 ms tests, yielding the same performance
increase.
Finally, a composite graph of both TCP and UDP traffic over
the network during all of the phases of testing is presented
below.
As seen from the graph, Figure 5, there is a clear performance
benefit by moving from a traditional network to any MPLS
enabled network. While the largest gain, for both traffic ty-
pes, occurs closest to the Service Provider network, there is
still a benefit for pushing the technology as close to the custo-
mer as possible.
Figure 5 - Average Delay - Combination
Likewise, the results from the 15 ms testing show an increase in
performance that mirrors the 5 ms testing. However, unlike the
5 ms testing, there was no performance increase by enabling
MPLS on the Provider backbone. Instead, the latency drop oc-
curred after the transition of the Service Provider backbone to
MPLS.
CONCLUSION
The simulation’s goal was to explore the hypothesis that a
MPLS-enabled network would be faster than a traditional net-
work. For the most part, this theory was validated by the data
collected at each of the expansion points while testing.
The data collected shows that there is a clear performance for
both TCP and UDP traffic on a MPLS-enabled network when
compared to a traditional network. While this performance
increase does not appear at the same location for each proto-
col, it does occur as some point during the expansion process.
When looking at traditional traffic patterns, a combination of
both TCP and UDP traffic, there is a performance improvement
that is similar to what is seen when isolating the protocol inde-
pendently.
Based on the data that was collected, this opens up many areas
for a Service Provider to offer new services and customers to re-
evaluate their connectivity. The advantage to the Service Provi-
ders would be to implement MPLS throughout the network to
offer new services to their customers. These new services could
include queued traffic. While MPLS by itself does have a perfor-
mance benefit, the more impressive capabilities are to provide
traffic classification and to queue that traffic and then move it
through the network efficiently. With these abilities, the capital
needed to provide such as service could be recovered rather
quickly as existing infrastructure could remain in place while as
either lower level queue types or traditional connectivity.
93
Invest Apl Innov 3(2), 2009
HEDGE, Dave; HANSEN, Raymond. “An analysis of MPLS Performance in layered & hierarchical network architectures”
By taking into account the performance of the 15 ms laten-
cy testing, we ask the question of whether or not link laten-
cy has a factor as to where MPLS should be deployed. This
phenomenon makes sense because as the additional latency
time plus the time for route processing, negatively affects
network performance. Looking at UDP and the average gra-
ph for both protocols, it shows that the performance increase
occurs following the implementation of MPLS on the router
prior to that link.
The findings of this research project also suggest that an
opportunity exists to further categorize Customer needs. It
may no longer be a matter of how much bandwidth a cus-
tomer has at their disposal. If the Service Provider were to
implement a queuing technique, it would then allow the cus-
tomer to purchase their connectivity in terms of queue prio-
rity. Not every business would need to have traffic placed
into a high priority queue. If that business was only utilizing
the “best effort” queue, then there could be financial savings
for doing so.
This research projects evaluation of the combination of both
UDP and TCP streams and the associated impact on the res-
ponse delay times provides the basis for future opportunity
as well. With the enterprise network moving towards unified
networks, the data shows that over an MPLS-enabled network,
there is a better chance of a phone call or video conference
remaining at acceptable limits and delivering performance
that is comparable to separate services.
The result is cost savings for enterprises due to the bundling
of these services onto an existing network.
The next step in this research would be implementing a
hardware-based environment. While the simulated network
provided an excellent testing platform, there is still the issue
of hardware and how the hardware performs.
This final step would also bring to light any additional issues
or areas of study that would be needed to be addressed in
order to bring MPLS to the customer premise.
Future Work and Study
While NS-2 provided a great platform to test from, there is
still a difference between simulation and physical implemen-
tation. Such important difference between a simulated envi-
ronment and a hardware environment would be the physical
router configuration and hardware selection. MPLS requires
an IGP router protocol to build the Label Switch Path (LSP) to
switch packets between nodes within the MPLS cloud. If this
project were to be replicated in a physical environment, some
additional research would need to be conducted as to how the
Service Provider could provide MPLS service to the customer
edge while still maintaining the current security and service
controls that are in place.
An example of existing controls that are in place include Vir-
tual Forward and Routing tables (VRF). These tables allow for
the Service Provider to segment a network, creating a Virtual
Network within their physical network. One significant rea-
son for doing this is the ability to run non routable network
address ranges and then broadcast them to other Service Pro-
vider routers running Multiprotocol Border Gateway Protocol
(MP-BGP). If a customer has multiple sites across the world, the
provider can segment the assigned IP ranges so that only other
sites that are part of the same customer network receive routes
to those locations.
In addition to the usage of private vs. public IP address, the is-
sue of using an IGP for a large scale network requires additional
evaluation. Additional research would need to be conducted
as to how well an IGP would scale to support a Service Provider
network and how the network would respond to flaps within
the network. With the need for convergence as part of all IGPs,
clarity regarding how they would provide the stability and re-
liability of BGP while delivering MPLS is important to Service
Providers and their clients.
The final aspect to investigate is to examine whether the imple-
mentation point of MPLS affects the performance of the overall
network. Since this project was designed to look at whether the
implementation of MPLS provided any performance increase
and not whether link latency determined where the technolo-
gy should be implemented, by changing the latency on back
bone links, there was a clear indication that there was an effect
on the performance compared to a network with links that had
all the same amount of latency.
Acknowledgements
This work was enacted and completed in colaboration with Re-
natto Gonzales of Tecsup in Lima, Peru.
REFERENCES
[1] Bertrand, G. Tutorial for the simulation of MPLS networks
with the Network Simulator (NS). Gilles Bertrand - PhD
candidate - TELECOM Bretagne. [Online] [Cited: Nov-
ember 12, 2008.] http://www.rennes.telecom-bretagne.
eu/~gbertran/pages/tutorials_ns.html#sujet1.
94
Invest Apl Innov 3(2), 2009
[2] Malek, J. (2005). Trace graph 2.05 help..
[3] Subramanian, S. Independent study report - Study of
Traffic Engineering Algrothms and Framework. [Online]
September 9, 2002. [Cited: November 12, 2008.] http://
www.ee.unlv.edu/~venkim/opnet/IndependentStudy.
[4] Greis, M. Tutorial for the Network Simulator “ns”. Marc
Greis’ Tutorial for the UCB/LBNL/VINT Network Simula-
tor “ns”. [Online] December 02, 2000. [Cited: November
12, 2008.] http://www.isi.edu/nsnam/ns/tutorial/index.
html.
[5] Ahn, G, and Chun, W. Design and Implementation of
MPLS Network Simulator(MNS). MNS_v2.0_arch. [Onli-
ne] October 17, 2000. [Cited: November 30, 2008.] http://
heim.ifi.uio.no/~johanmp/mpls/MNS_v2.0_arch.pdf.
ACERCA DEL AUTOR
Raymond Hansen is an Assistant
Professor of Computer and Informa-
tion Systems Technology at Purdue
University in West Lafayette, Indiana.
Professor Hansen’s primery areas of
interest are network engineering,
wired & wireless network systems
administration, enterprise network
management, and wired & wireless network security.
Professor Hansen’s teaching interests include wired and wire-
less network design, engineering, administration, and mana-
gement along with security of enterprise networks.
Dave Hedge is a recent graduate of the internationally re-
cognized Computer & Information Technology program at
Purdue University. He received his degree with a specializa-
tion in Network Engineering Techonology and focused on in-
frastucture operations and management. Dav e is now using
those operations and management skills for his employer,
ExxonMobile Corporation in Houston, Texas.
HEDGE, Dave; HANSEN, Raymond. “An Analysis of MPLS Performance in Layered & Hierarchical Network Architectures”
95
Invest Apl Innov 3(2), 2009
Giancarlo Obando
Construcción de biodigestores discontinuos yanálisis de su comportamiento bajo diferentes
regímenes de operación
Discontinuous biodigesters construction andtheir behavior analysis under different operation
conditions
Resumen
Los desechos orgánicos, producto de procesos industriales,
agroindustriales o comerciales, constituyen hoy en día un
grave problema que libera gases de efecto invernadero al
medio ambiente, repercutiendo sobre su salud y la de la vida
terrestre.
Como parte de los tratamientos conocidos, los métodos bio-
lógicos van ganando aceptación desde que permite degra-
dar la materia orgánica con la consecuente obtención de un
producto con alto poder combustible: el biogás.
El desarrollo de la tecnología de digestión anaeróbica para
cubrir las necesidades de agricultores de pequeño y medio
porte en la región, se constituye como atractivo para el cam-
po de la investigación.
En ese entorno, se construyeron 3 biodigestores para evaluar
la influencia de factores como la temperatura y la agitación
sobre la fermentación anaeróbica. Además, se construyó un
sistema de cuantificación de biogás tipo campana flotante.
Se determinó que tanto la temperatura como la agitación
influencian en el comportamiento de la fermentación anae-
róbica de la materia orgánica, acortando el tiempo de pro-
ducción de biogás.
Finalmente, se determinó que para las condiciones climáticas
de la ciudad de Arequipa, un biodigestor puede prescindir del
sistema de agitación y calentamiento. El proceso demandaría
un mayor tiempo para establecer los niveles de producción
diaria de biogás.
Abstract
The organic wastes product, industrial and agroindustrial pro-
cesses, constitute a serious problem that contributes to Global
Warming, encompassing on the environments’s health inhabi-
tants, compromising the future of new generations.
As part of the treatments known, the biological methods are
gaining acceptance since it allows to degrade the organic mat-
ter with the consequent obtaining of a renewable fuel; the bio-
gás.
The development of anaerobic digestion technology to cover
the needs of small and medium scale regional farmers is attrac-
tive to the research field.
Therefore, in this environment 3 biodigestors were built to as-
sess the influence of heating and mixing process. In addition
was built a biogás quantification system (floating type).
It was determinated that both the temperature and the agita-
tion influence on the anaerobic fermentation behavior, there-
fore reducing the production time of biogás.
Likewise, under Arequipa´s climatic conditions a heating and
mixing systems is not required; the anaerobic digestion just re-
quires more time to set the levels of daily biogás production.
Palabras claves
Biodigestión termofílica, valorización de residuos orgánicos,
cuantificación de biogás, biodigestor.
96
Invest Apl Innov 3(2), 2009
Key words
Organic residues valorization, thermophilic digestion, diges-
ter, biogás quantification.
INTRODUCCIÓN
El crecimiento económico se encuentra estrechamente rela-
cionado con el consumo de energía y el incremento de los
niveles de emisiones nocivas al medio ambiente. Esa relación
es directamente proporcional y la sustenta el consumo de
combustibles fósiles.
La energía renovable ha sido aprovechada desde siglos pa-
sados en la diversificación de la matriz energética de algunos
países; sin embargo la aparición del petróleo truncó la con-
solidación de esta tecnología, pero desde la década del 90, la
comunidad científica ha retomado el desarrollo de tecnolo-
gía basada en fuentes de energía renovable como la bioma-
sa, la energía solar y la eólica; siendo competitivos conforme
se incremente el precio del petróleo o se agoten sus reservas
mundiales.
Desde tiempos remotos, el ser humano hizo uso de la bioma-
sa para satisfacer sus necesidades básicas de alimentación y
confort térmico; en los últimos años, la digestión anaeróbica
se ha tornado adecuada para el procesamiento de los resi-
duos orgánicos, con la posibilidad de reducir las emisiones
al medio ambiente, propias de su proceso de putrefacción,
recuperar un recurso combustible renovable (biogás) y un
importante fertilizante orgánico.
Tecsup, con el objetivo de consolidar la tecnología de la di-
gestión anaeróbica en nuestro país, viene promoviendo la in-
vestigación mediante el Proyecto de Desarrollo y Promoción
de Tecnología Basada en Fuentes de Energía Renovable en el
Laboratorio de Máquinas Térmicas de TECSUP.
En este entorno fueron construidos 3 biodigestores con
diferentes parámetros de operación para la evaluación de
las ventajas y desventajas de asumir procesos de calenta-
miento y/o agitación en biodigestores para la ciudad de
Arequipa.
FUNDAMENTOS
La digestión anaeróbica
La digestión anaeróbica permite degradar la materia orgáni-
ca en ausencia de O2
desarrollándose procesos simultáneos
de acidogénesis y metanogénesis, mientras va ocurriendo
la producción de metano y dióxido de carbono, principal-
mente. Como resultado se obtiene biogás y efluente (Biol
y Biosol) con características fertilizantes, ambos productos
estables [4].
El biogás, dado su alto contenido de metano (60 a 75 %), tie-
ne propiedades combustibles y el efluente es considerado
como un potencial mejorador de suelos, dado su alto conte-
nido de nutrientes estabilizados.
Para asegurar una producción continua de biogás es nece-
sario alimentar diariamente con sustrato orgánico, de prefe-
rencia molido (trozado o destrozado) y en forma líquida, con
el menor contacto posible con el ambiente.
Para Werner, Stohr y Hees (1989) un biodigestor de 10 m³,
alimentado con el estiércol de 5 cabezas de ganado o 12 cer-
dos, produce, aproximadamente, 2 m3 de biogás y 100 litros
de biofertilizante por día. Ese biogás es suficiente para que
una familia de 6 a 8 integrantes pueda cocinar sus 3 comidas
y operar un refrigerador todo el día así como 2 lámparas por
3 horas, u operar un generador eléctrico por 1 hora.
El estiércol animal puede ser mezclado con residuos orgáni-
cos de plantas para mantener una adecuada producción de
biogás; esta mezcla no debe exceder el 10 % de Sólidos Tota-
les. El estiércol de los rumiantes es particularmente adecua-
do para iniciar la fermentación porque ya contiene bacterias
metanogénicas, además de una baja relación carbono/nitró-
geno, entre 9 y 25.
El excesivo contenido de amoniaco (relación C/N por debajo
de 8:1) inhibe la actividad bacteriana.
El estiércol de ganado presenta una menor producción de
gas que el obtenido de pollos o cerdos, debido a que extraen
gran cantidad de nutrientes del forraje y el remanente pre-
senta alta resistencia a la fermentación anaeróbica [8].
El bajo contenido orgánico de la orina, poco contribuye en la
producción global de biogás, pero mejora sustancialmente
el poder fertilizante del efluente y contribuye con la dilusión
del sustrato alimentado al biodigestor.
La cantidad y calidad del biogás esta definida por el conte-
nido, en el sustrato, de sólidos totales (ST, medido en kgST/
m³) y sólidos volátiles (SV, medido en kgSV/m³). Estos valores
generalmente se expresan como porcentaje de peso (Tabla
1 y 2).
OBANDO, Giancarlo. “Construcción de biodigestores discontinuos y análisis de su comportamiento bajo diferentes regímenes de operación”
97
Invest Apl Innov 3(2), 2009
OBANDO, Giancarlo. “Construcción de biodigestores discontinuos y análisis de su comportamiento bajo diferentes regímenes de operación”
Sustrato(estiércol)
Rango de producciónde biogás
(l/kgVS)
Producción promediode biogás
(l/kgVS)
340-550 450
Vaca 150-350 250
Gallinas 310-620 460
Caballo 200-350 250
Oveja 100-310 200
Paja de maíz 350-480 410
Paja de arroz 170-280 220
Algas 380-550 460
Bagazo 140-190 160
Residuos vegetales 300-400 350
Aguas servidas 310-640 450
Tabla 1. Producción de biogás de varios tipos de biomasa agrícola [9].
Esp
ecie
s
Producción dia-ria de estiércol en % del peso
vivo
Sólidos del estiércol
frescoPeso vivo
(kg)
Esti
érco
l
Ori
na
ST (
%)
SV (
%)
Ganado 5 4-5 16 13 135 - 800
Búfalo 5 4-5 14 12 340-420
Cerdo 2 3 16 12 30- 75
Ovejas 3 1 - 1,5 30 20 30 - 100
Cabras 3 1 – 1,5 30 20 30 - 100
Pollos 4,5 25 17 1,5 - 2
Humano 1 2 20 15 50- 80
Tabla 2. Producción promedio de estiércol como porcentaje del peso
vivo de animales estabulados [9].
Dada la diferencia en el contenido de sólidos totales y agua
de cada una de las distintas materias orgánicas usadas como
sustrato, en biodigestores continuos es recomendable utilizar
una proporción de 5 a 10 % y de 25 % para aquellos biodi-
gestores operados bajo el régimen discontinuo. Mayores con-
centraciones tienden a inhibir el metabolismo.
El efluente del biodigestor, que pierde todo el olor caracterís-
tico del estiércol que lo originó, puede ser utilizado en el me-
joramiento de suelos arcillosos y arenosos que son pobres en
humus, y como medio nutritivo de los vegetales bajo cultivo
hidropónico y cultivos orgánicos en invernadero o el campo.
El efluente puede ser utilizado también como alimento para
animales, al mezclarlo, para mejorar su gustocidad, con gra-
nos, tortas, mieles o forrajes, ya que el efluente puro posee una
concentración de aminoácidos esenciales similar al grano de
soya [5].
Mediante quemadores de biogás se puede cocinar e iluminar,
con una eficiencia de 60 a 80 % (Tabla 3). Este deberá ser cali-
brado para obtener el menor consumo [5].
Consumo de biogás por:
Consumo de biogás
Tiempo (min)
1l de agua 30-40 l 8-12
5 l de agua 110-140 l 30-40
3 l de caldo ~60 l/h -
1/2 kg de arroz 120-140 l ~40
1 tortilla frita 10-20 l ~3
1/2 kg de legumbres 160-190 l ~60
persona y por comida 150-300 l/d
Tabla 3. Consumo de biogás para cocina [8], [9].
La evolución de los biodigestores ha permitido, a lo largo del
tiempo, utilizar materiales disponibles localmente para su
construcción, como ladrillo, cemento, metálico o plástico. Por
otro lado, la viabilidad económica ha permitido, para empren-
dimientos de pequeño y medio porte, biodigestores de bajo
costo (bolsa de polietileno), muy utilizados en Vietnam, Colom-
bia, entre otros países. Asimismo, en todos ellos puede variarse
el régimen de operación: continuo o discontinuo [2], [5]. Esto de-
pende de la cantidad de materia orgánica que se tenga disponi-
ble y de los usos finales que se le de a los productos [4], [3].
Parámetros de influencia
La agitación permite mejorar el contacto entre microorganis-
mos activos del sustrato (biomasa), evitando la sedimentación
y la espuma, y mejorando la distribución de la temperatura.
Como cualquier otro proceso microbiano, el metabolismo
incrementa con la temperatura, e influencia en el tiempo re-
querido para completar la fermentación; esto es el Tiempo de
Retención Hidráulica [6]. Estos factores son inversamente pro-
porcionales. Además, mayores temperaturas reducen el tiempo
de sobrevivencia de agentes patógenos como la salmonela.
Una mayor temperatura no afecta la producción total de biogás,
pues esta depende del tipo de biomasa utilizada. La fermenta-
ción anaeróbica requiere una minima temperatura de 15 °C.
La fermentación anaeróbica de la materia orgánica puede esta-
blecerse en diferentes rangos (Tabla 4).
98
Invest Apl Innov 3(2), 2009
RangoMín.(°C)
Ópt.(°C)
Máx. (°C)
TRH(días)
Psicrofilico 4 a 10 15 a 18 25 a 30 Sobre
100
Mesofilico 15 a 20 28 a 33 35 a 45 30 a 60
Termofilico 25 a 45 50 a 60 75 a 80 10 a 16
Tabla 4. Tiempo de retención hidráulica para distintos
rangos de fermentación anaeróbica.
Un sistema de calentamiento se sustenta siempre que la tem-
peratura ambiente sufra grandes variaciones por largos pe-
riodos de tiempo. En climas cálidos, los digestores funcionan
sin calentamiento pero hay que aumentar el TRH.
Así, Carrillo (2003) afirma que a mayores temperaturas se
da una mejor producción de biogás por cada sólido volátil,
como se muestra en la Figura 1.
Figura 1. Influencia de la temperatura sobre la producción
de biogás [1].
PROCEDIMIENTO
Para la investigación se construyeron 3 biodigestores metá-
licos operados bajo el régimen discontinuo y cargados con
estiércol de ganado lechero.
Cada uno de los biodigestores presenta las siguientes parti-
cularidades (Figura 2):
-
recto por resistencia eléctrica y sistema de agitación por
bomba centrífuga.
central, de operación manual y periódica.
-
tación. Denominado biodigestor estándar o control.
Figura 2. Disposición de los biodigestores construidos a partir de cilindros
metálicos de 220 litros.
El BD-03 fue construido, al igual que el BD-02 y BD-01, a partir
de un cilindro metálico de 220 litros en cuya parte inferior se
instaló un desagüe de 2” de diámetro con válvula de PVC. La
salida del biogás fue dispuesta en la parte superior, mediante
una tubería y válvula de PVC de ¾”.
El BD-02 fue equipado con un
agitador mecánico dispuesto
de forma concéntrica en el
cilindro-biodigestor.
El agitador está conformado
por 2 carretes plásticos aleta-
dos (3 paletas de acero galva-
nizado) y asegurados a lo largo
de un tubo de acero SAE 1020
de 2” de diámetro (Figura 3).
Figura 3. Agitador mecánico del
BD-02 (diseño en Solid Edge v20).
En el BD-01 se montó un intercambiador de calor (IC) de tubo
de acero Schedule 40 de 2” de diámetro dispuesto y soldado de
forma concéntrica con el cilindro de 55 galones (Figura 4).
El IC se encuentra inundado de agua que es calentada por una
resistencia eléctrica de 4500 vatios, colocada en la parte inferior
del mismo. En el otro extremo se instaló una válvula de alivio y
otra para reposición del nivel de agua. Una bomba centrífuga
trifásica de 60 LPM recircula la materia orgánica, desde la parte
OBANDO, Giancarlo. “Construcción de biodigestores discontinuos y análisis de su comportamiento bajo diferentes regímenes de operación”
99
Invest Apl Innov 3(2), 2009
OBANDO, Giancarlo. “Construcción de biodigestores discontinuos y análisis de su comportamiento bajo diferentes regímenes de operación”
inferior a la superior del cilindro, generando la homogeneiza-
ción de la mezcla (estiércol y agua) y promoviendo un mejor
intercambio de calor con el agua caliente.
Además, para accionar simultáneamente la resistencia eléc-
trica y la bomba centrífuga se instaló un controlador electró-
nico de temperatura (EKC-101).
Figura 4. Diseño del
sistema de calentamiento
y agitación del BD-03
(software Solid Edge v20)
Para cuantificar el biogás producido en cada biodigestor, se
construyó un medidor común de campana flotante, consis-
tente en 2 cilindros (105 y 220 l) dispuestos de forma inverti-
da uno dentro del otro (Figura 5).
El biogás se almacena entre los cilindros y un sello de agua
hermetiza el sistema (bajo el Principio de Arquímedes). Con el
ingreso de biogás, la campana superior se desplaza vertical-
mente y esa presión de almacenamiento puede variarse con
el incremento de peso sobre la campana.
Figura 5. Medidor de gas tipo campana flotante
Diseño en Solid Edge v20)
La fermentación de la materia orgánica en ausencia de oxi-
geno, ocurrida al interior del biodigestor (BD), recipiente her-
mético, puede generar elevadas presiones que sobrepasen la
resistencia mecánica del mismo, por lo que fueron instalados
manómetros verticales de nivel de agua (manguera transpa-
rente de 5/8) que cumplen las veces de válvula de seguridad.
Una presión por encima de 20 kPa (2000 mmHg) ocasionaría
el vaciado gradual del manómetro, controlando así la presión
interna del BD (Figura 6).
Figura 6. Manómetros de nivel de agua (sistema de seguridad)
Fabricados los biodigestores, fueron sometidos a pruebas de
hermeticidad con aire comprimido y agua.
Posteriormente se cargaron con una mezcla de agua y estiércol
fresco de vacas lecheras estabuladas (3,3 kgSV), utilizándose
una proporción agua/estiércol de 4:1, recomendada para bio-
digestores operados en régimen discontinuo (25% de ST).
Consecuentemente, cada biodigestor fue cargado con 180 kg
de mezcla (80 % de la capacidad total) (Figura 7).
Se establecieron los parámetros de operación de los BD´s, pro-
gramando una temperatura de trabajo de 40 °C para el BD-01
con una variación de 1 °C y una frecuencia de agitación de 3
veces al día (8 am, 12 am y 4 pm), durante 1 minuto, para el
BD-02.
Finalmente, las propiedades combustibles del biogás se com-
probaron mediante su combustión.
100
Invest Apl Innov 3(2), 2009
Figura 7. Diagrama de flujo del proceso de digestión anaeróbica imple-
mentado para la investigación.
RESULTADOLL S
Inicialmente el análisis de los resultados se centró en los pri-
meros 21 días, debido a que se registraron fallas en la opera-
ción del BD-01 por fallas esporádicas en el suministro eléctri-
co de la instalación.
De los resultados, mostrados en la Figura 8, se aprecia la va-
riación en la producción al modificar los parámetros de ope-
ración.
Figura 8. Comparación de la producción de biogás
de los biodigestores.
El BD-01, que fuera operado en el rango termofilico mínimo
(entre 25 y 45 °C), prácticamente inició su producción al día si-
guiente de haber sido cerrado, siendo registrados 9,5 litros al
sexto día de operación.
En la Figura 8 se puede apreciar una menor pendiente en la
producción de biogás, permitiendo una reducción en el tiempo
de retención hidráulica (TRH) del BD-02 y BD-03.
Pasados los 40 días, se registró una producción de aproximada-
mente 40 litros de biogás por día en el BD-02 y BD-03, indican-
do que a pesar de haberse reducido el TRH en el BD-02, dada la
“agitación”, el BD-03 alcanzó la misma producción por día.
El funcionamiento errático, dado el corte de suministro eléctri-
co, del BD-01 mantuvo la producción de biogás con una fluc-
tuación de temperatura entre los 17 y 35 °C.
En el día 22 se registró una falla en el suministro de agua de
reposición del intercambiador de calor del BD-01, lo que porvo-
có el sobrecalentamiento de la resistencia eléctrica y posterior
corto circuito. Esto generó el desbalance prolongado (2 días)
en el metabolismo de las bacterias; cayendo abruptamente la
producción de biogás, no siendo posible su recuperación.
El biogás producido en la primera semana no presentaba ade-
cuados índices de inflamabilidad debido a la presencia de aire
que no fuera evacuado al inicio de las mediciones, correspon-
diente al volumen de almacenamiento de cada BD (20 % del
volumen total) y del medidor común de biogás.
Dados los resultados obtenidos en la experimentación preli-
minar, se procedió a modificar el sistema de calentamiento del
BD-01 e independizar la cuantificación del biogás, haciendo un
medidor de campana flotante para cada biodigestor (Figura 9).
Asimismo, se modificó la mezcla estiércol-agua, utilizándose
30 litros del efluente del BD-03 y 150 litros de mezcla con una
proporción de 4 partes de agua por cada parte de estiércol de
vacas lecheras (3,3 kgSV). Con las modificaciones se disminuyó
el tiempo de calentamiento del BD-01, debido a que la transfe-
rencia de calor mejoró.
Iniciado el nuevo proceso, se pudo verificar que el BD-03 inició
la producción mucho antes que los otros dos. Lo que indica que
las bacterias estabilizadas sin agitación ni calentamiento, del
proceso anterior, consiguen promover una mayor producción
por tenerse las mismas condiciones de operación. Al cabo del 4o
día la producción de los 3 era evidente, y de aproximadamente
10 litros por día.
Producción diaria de biogás
Pro
du
cció
n d
e b
iog
ás (l
itro
s)
Días
Estiércol(36 kg x 3)
Medición de biogás(Tipo campana flotante)
Almacenamiento(cámaras de caucho y polietileno)
Utilización del biogás(Verificación del poder combustible)
Combustión directa(cocina adaptada)
Generación de electricidad(Generador eléctrico 1200 w)
Agua(108 kg x 4)
Mezcla - biomasa(540 kg)
BD-01(180 kg)
BD-02(180 kg)
BD-01(180 kg)
OBANDO, Giancarlo. “Construcción de biodigestores discontinuos y análisis de su comportamiento bajo diferentes regímenes de operación”
101
Invest Apl Innov 3(2), 2009
OBANDO, Giancarlo. “Construcción de biodigestores discontinuos y análisis de su comportamiento bajo diferentes regímenes de operación”
Figura 9. Planta de biogás modificada. Intercambiador de calor del BD-
01 y medidores de campana flotante independientes (Solid Edge 20)
CONCLUSIONES
agitación, se mostraron como apropiadas en la reducción
del tiempo de retención hidráulica.
-
mente por un largo tiempo, la fermentación anaeróbica
cesa y cae la producción de biogás.
-
brepasar la capacidad de almacenamiento del propio
biodigestor (20 % del volumen total), entupiendo las tu-
berías de descarga del biogás, por lo que se recomienda
disminuir la velocidad de descarga de la bomba, incre-
mentado el diámetro de la tubería de descarga o dismi-
nuyendo la velocidad de rotación de la misma.
-
mente para la homogeneización de la mezcla, a pesar de
ser accionada manualmente. Se recomienda establecer
un mecanismo electromecánico que agite automática y
periódicamente la mezcla.
mostró adecuada para evaluar la presión generada en los
biodigestores: la opción de válvula de alivio lo torna más
interesante siempre que el objetivo sea producir biogás a
baja presión (< 20kPa).
en la producción de calor; la que fuera potencializada con
el pintado de negro de los biodigestores. La caída de 10 a
12 °C en el día no representó un problema en la produc-
ción.
(alta radiación solar) no se justifica un proceso de calenta-
miento, puesto que una vez estabilizada la actividad bacte-
riana, al cabo de 50 días de retención hidráulica, la produc-
ción se vuelve estable.
y manual se muestra como la más indicada cuando se re-
quiere reducir el tiempo de retención hidráulica del biodi-
gestor.
implementación de un sistema de calentamiento y/o agi-
tación, la cantidad de biogás producida solo depende de la
calidad de la materia orgánica confinada en el biodigestor.
-
tirán mejorar la precisión en la cuantificación del biogás.
Próximos trabajos serán implementados para mostrar la
especialización en el desarrollo de la tecnología de la di-
gestión anaeróbica.
REFERENCIAS
[1] CARRILLO L. (2003). “Microbiología Agrícola”. Recuperado el
20 de febrero del 2009: http://www.unsa.edu.ar/matbib/
micragri/micagricap5.pdf
[2] DIAZ, Giancarlo Obando. “Análise de Sistemas para o Res-
friamento de Leite em Fazendas Leiteiras com o Uso do
Biogás Gerado em Projetos MDL, 2006”. Disertación (Maes-
tria en Ingeniería Mecánica). Universidade de São Paulo,
Coordenação de Aperfeiçoamento de Pessoal de Nível Su-
perior. Orientador: Flávio Augusto Sanzovo Fiorelli.
[3] GUEVARA A. (1996). Fundamentos básicos para el diseño de
biodigestores anaeróbicos rurales. Centro Panamericano de
Ingenieria Sanitaria y Ciencias del Ambiente. División de
salud y ambiente.
[4] PEDRAZA G, et al. (2002). “Evaluación de los biodigestores
en geomembrana (pvc) y plástico de invernadero en clima
medio para el tratamiento de aguas residuales de origen
porcino”. Livestock Research for Rural Development 14 (1)t
2002.
[5] PRESTON T.R. RODRÍGUEZ, L. (2002). “Low-cost biodigesters
as the epicenter of ecological farming systems”. Procee-
dings Biodigester Workshop March 2002. Recuperado el 5
de mayo del 2006: http://www.mekarn.org/procbiod/con-
tents.htm
102
Invest Apl Innov 3(2), 2009
[6] RODRIGUES L. y BARBOZA A. “Influencia da temperatura
no desempenho de biodigestores com esterco bovino”.
Recuperado El 20 de junio del 2008: www.agriambi.com.
br/revista/v2n1/097.pdf
[7] SABANDO F. y GARRIDO M. (2006). Estabilización de mez-
clas de lodos de pisciculturas y estiércol de vacuno por me-
dio de co-digestión anaeróbica.
[8] VERÁSTEGUI J, Matero M. (1979). “Producción de biogás
a partir de desechos orgánicos: estudio de casos de ma-
nejo ambiental”. Lima, 1979. Recuperado el 2 de agosto
del 2005: http://www.oas.org/usde/publications/unit/
oea27s/begin.htm#Contents
[9] WERNER U, et. al. (1989). “Biogás plants in animal husbran-
dy”. Recuperado el 12 de marzo del 2008: http://www.
fastonline.org/CD3WD_40/JF/JF_OTHER/BIG/GTZ-%20
Biogás%20Plants%20-%201989.PDF
ACERCA DEL AUTORL
Giancarlo Obando es Ingeniero Me-
cánico, Magíster en Ingeniería Mecá-
nica con especialidad en Mecánica
de los Fluidos. Se ha desempeñado
como asesor en temas relacionados
con la producción y uso de biogás.
Actualmente se desempeña como
docente en el área de Mecánica de
Tecsup, sede Arequipa, donde dirige
el programa piloto de Desarrollo y Promoción de Tecnología
Basada en Fuentes de Energía Renovable.
OBANDO, Giancarlo. “Construcción de biodigestores discontinuos y análisis de su comportamiento bajo diferentes regímenes de operación”
103
Invest Apl Innov 3(2), 2009
Henry Gómez
Entrenamiento a distancia en tecnologías deautomatización y control, utilizando laboratorios
virtuales de acceso remoto
Distance training in automation and control technologies using virtual laboratories with remote
access
Resumen
En minería como en cualquier otra actividad económica, la
generación del valor agregado depende de los recursos natu-
rales disponibles, la infraestructura del sistema productivo y
de la competitividad del recurso humano. La competitividad
del personal de planta esta estrechamente vinculada a las ha-
bilidades técnicas que puedan exhibir en la gestión eficiente
del sistema de producción. Esto se torna particularmente crí-
tico cuando se dan condiciones favorables para el crecimien-
to, se ponen en marcha planes de modernización o amplia-
ción de la capacidad instalada, se tienen nuevas tecnologías
de producción, pero no se cuenta con el personal capacitado
para operar y mantener estos sistemas.
La solución a esta problemática es la implementación de
planes de reconversión o programas de capacitación del per-
sonal clave que pueda asumir el reto de operar y mantener
las nuevas tecnologías. Esta opción implica asignar recursos
al entrenamiento, reservar tiempo para la capacitación y de-
sarrollar toda la logística necesaria para facilitar el desplaza-
miento del personal a los centros de entrenamiento.
En éste trabajo, exploramos una solución innovadora a esta
problemática, haciendo uso de las modernas Tecnologías de
la Información y Comunicación (TIC); se implementa una mo-
dalidad de entrenamiento virtual con acceso remoto a labo-
ratorios de experimentación. Esta modalidad, a diferencia de
los clásicos sistemas e-learning, no solo brinda la información
teórica necesaria, sino que también la fortalece mediante la
experimentación y la prueba de equipos y sistemas como
suele hacerse en programas de entrenamiento presencial.
Esto hace posible el desarrollo de algunas habilidades técni-
cas y competencias que solo se pueden lograr mediante la
interacción del personal con las nuevas tecnologías. Solo se
requiere de un computador con conexión a Internet para po-
der acceder en forma remota a los laboratorios de Tecsup y así
disponer de todo su equipamiento.
Abstract
In mining, as in any other economical activity, the generation of
added value depends on available natural resources, infrastruc-
ture of production system and human resource competitive-
ness. The competitiveness of plant personnel is in close relation
to the technical skills that can be used for the efficient mana-
gement of the production system. This is stressful when there
are favorable conditions for growth. Starting modernization or
expansion plans, there are new technologies but there are not
trained people to operate and maintain these systems.
The solution to this problem is the implementation of retraining
plans or training programs for the key people, who can take on
the challenge to operate and maintain these new technologies.
This option implies the assignation of resources, reserved time
for the training, and the development of the logistics to make
the movement of people to the training centers easier.
In this paper, we explore an innovative solution to this problem,
using modern information and communications technologies
(ICT); building a modality of virtual training with remote access
to laboratories for experimentation. This modality, in compari-
son to classic e-learning systems, besides the theoretic infor-
mation, strengthens the learning process by means of experi-
mentation, test of equipments and systems as we do in face to
face training programs. These make possible the development
of some technical skills, competences that only we can achieve
by means of interaction with people and new technologies. We
only need a computer with internet connection from our job
place to access in remote way to laboratories of Tecsup to then
use the equipment.
104
Invest Apl Innov 3(2), 2009
Palabras Claves
Entrenamiento virtual, laboratorios remotos, e-learning
Key Words
Virtual training, remote labs, e-learning
INTRODUCCIÓN
La educación con jóvenes en la formación profesional espe-
cífica requiere de una metodología y un adecuado balance
entre los conocimientos teóricos adquiridos y el desarrollo
de destrezas y habilidades mediante la ejecución de tareas
o experimentos en la práctica, esto se conoce como “Learn
& Works Tasks” [1]. Este concepto, el de aprender haciendo
(Learning by doing) o aprendizaje experimental, trae com-
plicaciones ya que obliga a que los Centro de Formación
Profesional (CFP) o Instituciones de Educación Superior (IES)
proporcionen la infraestructura y el equipamiento necesario
para dotar de estas capacidades a sus alumnos.
David A. Kolb (1994), el mayor exponente del aprendizaje ex-
perimental, propuso un modelo de cuatro etapas para repre-
sentar el proceso de aprendizaje. El proceso empieza con una
experiencia concreta, seguido por una observación reflexiva.
La reflexión luego se asimila como una teoría mediante la
conceptualización abstracta para finalmente probar una hi-
pótesis nueva o reformulada en una nueva situación [2].
El proceso de aprendizaje es aún más complejo para los adul-
tos, ese público que aspira reinsertarse o mantenerse en el
mercado laboral mediante la Formación Profesional Ocupa-
cional (FPO) y la Formación Profesional Continua (FPC), ellos
necesitan saber primero por que deben aprender algo; lue-
go, necesitan que se les reconozca el hecho de que pueden
actuar de manera autónoma sin depender del profesor. Ade-
más, la experiencia previa que tienen la utilizan para relacio-
narla con cada detalle del proceso de aprendizaje. Por otro
lado, los adultos están motivados para aprender aquellas co-
sas que necesitan saber y son capaces de hacer para poder
aplicarlas en su vida diaria o en el trabajo. Finalmente, aun-
que los adultos pueden ser influenciados por motivaciones
externas en el proceso de aprendizaje, la mejor motivación
son las propias presiones internas.
Considerando entonces los escenarios ya descritos y teniendo
en cuenta la necesidad de la experimentación en el proceso
de aprendizaje, la moderna pedagogía en tecnología sugiere
que los estudiantes deben iniciarse en la experimentación
mediante objetos simulados e instrumentos de medición si-
mulados y/o emulados. Luego, cuando ya se ha alcanzado cier-
to dominio del conocimiento, los estudiantes están preparados
para desarrollar experimentos específicos con equipo e instru-
mentos reales. Los experimentos simulados por software de al-
guna manera reemplazan al profesor, aquí nace el concepto del
“e-teacher” [3]. Ahora, a pesar de la utilidad de los experimentos
simulados, se ha notado que los experimentos reales son más
atractivos para los estudiantes que la simulación. Y estos son
aún más interesantes, cuando se hacen con las últimas tecno-
logías e incluyen en forma clara y explícita algunos retos para
el alumno.
Los laboratorios ideales son aquellos en los cuales cada estu-
diante tiene un módulo de experimentación y además no tiene
restricciones de tiempo. Sin embargo las IES generalmente no
tienen los recursos necesarios para brindar estas facilidades.
La solución a esto lo constituyen los laboratorios remotos. La
Internet ha hecho posible una nueva clase de laboratorios, los
laboratorios remotos interactivos con experimentos reales que
cuentan con dispositivos de medición, transductores y demás
objetos necesarios para una investigación.
El presente trabajo tiene por objetivo demostrar que la capa-
citación y entrenamiento en tecnologías de automatización y
control en la modalidad a distancia, es una alternativa viable
para las poblaciones de jóvenes y adultos que se encuentran
alejadas de los centros de entrenamiento especializado. Esto
es posible, gracias a la utilización de los llamados laboratorios
virtuales de acceso remoto o simplemente Laboratorios Remo-
tos (LR), los cuales permiten la realización de experiencias de
aprendizaje semejantes a las que se logran bajo la modalidad
presencial.
Esta modalidad, también denominada de telepresencia, utiliza
los recursos e infraestructura de los laboratorios reales que se
utilizan en la capacitación presencial y, mediante las TIC, los po-
nen a disposición de los estudiantes de los lugares remotos.
FUNDAMENTOS
Definición conceptual
Un laboratorio remoto es el conjunto de equipos e instrumen-
tos reales que se pueden operar y controlar remotamente,
utilizando una interfaz específica. Estos equipos pueden ser
didácticos como los módulos de laboratorio de cualquier IES o
equipos industriales reales como los que se tienen en un banco
de pruebas de cualquier planta industrial. Estos laboratorios re-
quieren de recursos específicos de las TIC para gestionar tanto
el acceso a los usuarios del sistema como a los equipos integra-
dos en dichos sistemas [4].
GÓMEZ, Henry. “Entrenamiento a distancia en tecnologías de automatización y control utilizando laboratorios virtuales de acceso remoto”
105
Invest Apl Innov 3(2), 2009
GÓMEZ, Henry. “Entrenamiento a distancia en tecnologías de automatización y control utilizando laboratorios virtuales de acceso remoto”
Estado del arte
La idea de utilizar en forma remota los equipos de un labo-
ratorio de experimentación con fines educativos, se remonta
a principios de los noventa. En el trabajo de Aburdene et al.
[5], se propone un esquema básico de acceso remoto a los
equipos de un laboratorio y como compartirlo con otras IES.
El artículo de Aktan y Bohus [6] se considera como el primer
trabajo importante que se enfoca en la enseñanza del control
automático a través de Internet y, desde entonces, se han lle-
vado a la práctica varias implementaciones reales. Entre estas
realizaciones destacan por ejemplo el laboratorio de sistemas
dinámicos del Instituto Tecnológico de Stevens, Nickerson et
al. [7], y el laboratorio de control de la Universidad de Siena,
Casini et al. [8]. Estos laboratorios ofrecen la posibilidad de
experimentar sobre módulos de control como el control de
nivel, el control de temperatura o el control de servomoto-
res. Otros módulos de experimentación de acceso remoto se
pueden encontrar en la Web del Comité Español de Automá-
tica (SEA-IFAC) [9].
La importancia de esta herramienta pedagógica en la actua-
lidad es tan gravitante que organismos supranacionales es-
tán destinando en la actualidad fondos para investigaciones
sobre su impacto en la educación. CYBERLAB es el proyecto
más significativo, por ejemplo, y ha culminado con la creación
de un proveedor de servicios para la integración de labora-
torios en red [10]. PEARL es otro proyecto enfocado al desa-
rrollo de LR para investigar su impacto pedagógico y validar
su desarrollo [11]. MARVEL es un proyecto de envergadura
que se propone desarrollar un entorno mixto de equipos y
maquinarias reales con entornos de aprendizaje virtual para
dar soporte a trabajos orientados al proceso con aprendizaje
cooperativo distribuido [12].
El ámbito de aplicación de esta ayuda pedagógica no solo
abarca las áreas de control y automatización, va más allá in-
clusive; por ejemplo, para el estudio de la física y otras ramas
de la ciencia. Es el caso de los proyectos muy exitosos de física
descritos por Bodo Eckert et al. [13]. Estas experiencias cuen-
tan con una muy buena metodología de aprendizaje a tra-
vés de la investigación de fenómenos que experimentamos
a diario. Además, proporciona suficiente material didáctico
para motivar al estudiante en los fenómenos de la física.
Tipos de experimentos con laboratorios remotos
Antes de especificar los detalles de los laboratorios remotos,
empezaremos por distinguir los tres tipos de experimentos
de laboratorio que se pueden poner en línea a través de In-
ternet:
Experimentos tipo batch o por lotes:
En este tipo de experiencias, el estudiante especifica todos los
parámetros que gobiernan la ejecución de un experimento an-
tes que empiece el mismo. La sesión de laboratorio consiste en
enviar un protocolo de prueba con toda la información nece-
saria para el experimento, ejecutar el experimento y luego ad-
quirir la información para analizar los resultados. Normalmente,
este tipo de experimentos se ejecuta de manera rápida y no
requiere de reservación de sesiones.
Experimentos con sensores:
En un experimento con sensores, el estudiante usualmente no
puede especificar ningún parámetro aunque sea posible se-
leccionar los datos de un sensor en particular. En la ejecución
del experimento se recibe la información en forma digital o en
gráficos de tendencias. Este tipo de interfaces, a veces, muestra
herramientas para filtrar o procesar posteriormente la informa-
ción; es el caso de aquellas que permiten activar alarmas o en-
vío de notificaciones por e-mail.
Los experimentos con sensores frecuentemente tienen un
flujo de datos muy asimétrico. Esto puede tomar desde unos
cuantos bits hasta un flujo de datos mucho mayor que pue-
de consumir mayor ancho de banda. Algunos sensores envían
la información de manera continua sin garantizar si esta llega
completa a su destino. Otros pueden almacenar temporalmen-
te la información y, mediante comandos apropiados, pueden
ser accesados en forma remota.
Experimentos interactivos:
En un experimento interactivo, el estudiante típicamente con-
figura una serie de parámetros inicializa el experimento y lue-
go monitorea el desarrollo del experimento; puede cambiar
los parámetros de control si es necesario. Conceptualmente,
un experimento interactivo puede ser concebido como una
secuencia de intervalos de monitoreo y ajustes de control. En
general, los intervalos de control tienen muchas de las caracte-
rísticas de los experimentos tipo batch y los intervalos de mo-
nitoreo son como los experimentos con sensores. Los registros
de una sesión experimental normalmente incluyen la hora en
que sucede un evento y los datos que arrojan los sensores, así
como otra forma de documentación que puede incluir imáge-
nes o video.
RESULTADOLL
En la Figura 1 podemos observar los elementos básicos que
conforman un laboratorio remoto. Los módulos didácticos son
106
Invest Apl Innov 3(2), 2009
los que se disponen en un laboratorio convencional, pero
que han sido implementados con sistemas de adquisición de
datos, interfaces de I/O, cámaras de video y/o captadores de
sonido para proporcionar la información desde el laboratorio
hacia el usuario, y viceversa. El servidor que cuenta con las
aplicaciones de software necesarias para gestionar los acce-
sos de usuarios por Internet, por un lado, y por el otro faci-
litar las interfaces a los módulos didácticos. Finalmente, los
usuarios que deben contar con una conexión a Internet y un
código de acceso al servidor de aplicaciones remotas.
Figura 1. Arquitectura básica de un laboratorio remoto
Figura 2. Componentes de un laboratorio remoto
Esta arquitectura al detalle se observa en la Figura 2. Para
brindar acceso al usuario local o remoto al módulo didáctico,
es necesario digitalizar todas las señales de entrada y/o salida
a través de los módulos transductores. Esto se logra median-
te módulos de hardware con interfaces estandarizadas como
GPIB, RS232, USB entre otras. La organización, visualización,
procesamiento y acceso a la información se logra con los
módulos de software, los cuales, a través de las interfaces de
usuario, permiten su interacción.
El trabajo en equipo es normalmente la metodología utili-
zada en los experimentos desarrollados en laboratorios pre-
senciales. De igual modo, en los laboratorios remotos debe
existir un eficiente mecanismo de comunicación entre los es-
tudiantes. Una alternativa muy versátil para brindar estas facili-
dades, entre otras, es el Skype (www.skype.com). Este software
ha llegado a convertirse en un estándar de facto para aplicacio-
nes de comunicación síncrona que brinda video, telefonía por
Internet y chat.
Figura 3. Configuración local de un relé de protección en una subestación
didáctica de generación eléctrica
Figura 4. Configuración remota y prueba del funcionamiento de un relé de
protección de una subestación didáctica de generación eléctrica
Implementación de laboratorios remotos
Un ejemplo de las facilidades en laboratorios remotos ya des-
critos se observa en la Figura 3 y la Figura 4. En estas se tiene
primero a un usuario local configurando los parámetros de fun-
cionamiento de un relé de protección de generación GE 60 de
General Electric en un experimento tipo batch. Esto se hace en
una subestación didáctica en media tensión con ayuda de un
equipo probador de relés DRTS-6 de ISA en los laboratorios de
Sistemas de Potencia de Tecsup Arequipa. En la Figura 4 se tiene
la configuración remota y prueba de funcionamiento del relé
de protección de generación desde el domicilio del usuario. Se
observa claramente en pantalla el panel del relé de protección
GÓMEZ, Henry. “Entrenamiento a distancia en tecnologías de automatización y control utilizando laboratorios virtuales de acceso remoto”
107
Invest Apl Innov 3(2), 2009
GÓMEZ, Henry. “Entrenamiento a distancia en tecnologías de automatización y control utilizando laboratorios virtuales de acceso remoto”
y la curva de disparo de este luego de una prueba con el pro-
bador de relé. También se notan imágenes de ambos lados
de la conexión por Internet, el laboratorio y el domicilio del
usuario. Con esta aplicación se brinda acceso a un laboratorio
de sistemas de potencia desde cualquier parte del mundo.
Otro ejemplo de laboratorio remoto en el campo de la au-
tomatización es el módulo experimental para configuración
y monitoreo de redes en protocolo Actor Sensor Interface
(AS-I). Este módulo permite realizar tareas de configuración,
programación y monitoreo de un proceso secuencial de va-
riables discretas en un entorno interactivo [14].
El proceso implementado en un módulo didáctico ADIRO
(Figura 5) es un alimentador doble que consiste de dos sur-
tidores por gravedad, removibles, para almacenamiento de
cilindros o bloques con perfil cilíndrico de 50 mm de diá-
metro de lado. Cuenta con un cilindro de doble efecto con
interruptores tipo reed y válvulas de control de flujo de una
vía que empuja la pieza trabajada para su retiro del surtidor.
Los elementos sensores y actuadores están conectados a uni-
dades esclavas Siemens convertidoras de protocolo AS-I de 4
entradas/4 salidas ó 2 entradas/2 salidas.
Figura 5. Módulo de au-
tomatización remota con
red AS-I
Figura 6. Arquitectura del modulo de automatización
remota con red AS-I
La red AS-I, utiliza un cable estandarizado IDC de dos hilos para
interconectar los diferentes módulos AS-I. Estos módulos se
alimentan con 24VDC y reciben la información en modulación
APM desde una estación maestra AS-I por el mismo cable IDC. El
master AS-I debe ser configurado y programado con las direc-
ciones de las estaciones esclavas y los tipos de las unidades de
entrada salida existentes en la red (Figura 6). La configuración
y programación del master AS-I se hace con ayuda del software
AS-Interface Control de Bihl + Wiedermann descargable des-
de Internet. Este, vía conexión RS 232, se conecta a un Servidor
Serial Anybus que es un Gateway que convierte los datos que
recibe por el puerto serial y los encapsula en protocolo TCP/
IP para enviarlos por una red Ethernet. Las conexiones a la red
Ethernet del Servidor Serial y de la cámara IP Dlink, se hacen a
través de un switch, de allí al servidor Web y finalmente a un
router que ofrece a Internet la interfaz gráfica que se muestra
en la Figura 7.
Figura 7. Interfaz del usuario remoto del modulo de automatización con
red ASI
Figura 8. Interfaz del usuario remoto de un módulo de experimentación
en electrónica
Otro laboratorio con el que hemos experimentado el acceso
remoto es el laboratorio de electrónica con módulos UniTrain
de Lucas Nülle [15]. Este módulo brinda la posibilidad de hacer
pruebas en circuitos eléctricos-electrónicos y realizar medicio-
nes de señales eléctricas con instrumentos virtuales como mul-
108
Invest Apl Innov 3(2), 2009
tímetros, osciloscopios y graficadores. Además cuenta con
fuentes de tensión continua y alterna, generadores de seña-
les analógicas y digitales todos ellos configurables desde una
computadora local o remota. También tiene una interfaz para
lectura y escritura de señales eléctricas de entrada/salida
analógica y digital (Figura 8).
Esta implementación es muy apropiada para demostraciones
reales del funcionamiento de circuitos eléctricos y electróni-
cos básicos, es capaz de ser analizado desde un acceso remo-
to, pero en una conexión punto a punto utilizando el proto-
colo Virtual Networking Compute (VNC) [16]. Este protocolo
de acceso remoto a interfaces gráficas de usuario trabaja al
nivel del buffer de tramas y se aplica a todos los sistemas
operativos y aplicaciones. El protocolo opera con cualquier
medio de transporte disponible, tal como TCP/IP. Uno de los
extremos de la conexión con el cual el usuario interactúa
(que es un display y/o un dispositivo de entrada/salida) se
llama Cliente VNC o Viewer. El otro extremo donde cambia
el buffer de tramas origen (que es el sistema Windows y sus
aplicaciones) se conoce como el Servidor VNC.
DISCUSIÓN
Sin lugar a dudas, Internet es una herramienta poderosa
que nos comunica de manera inmediata y brinda acceso a
todo tipo de fuentes de información. Con esta tecnología, las
distancias no interesan, puesto que la información esta a un
clic del que la necesita. Esto ha permitido la implementación
de sistemas de educación a distancia mediante las técnicas
del e-learning. Sin embargo, cuando de entrenamiento o
capacitación especializada se trata, no es suficiente tener la
información disponible mediante los cursos virtuales. Sino
que, además, se debe brindar al estudiante la posibilidad de
desarrollar destrezas y habilidades mediante la interacción
con equipos y sistemas como los que se encuentran en un
laboratorio real de experimentación.
En un entrenamiento en tecnologías de automatización y
control, se tiene inherente la necesidad de la interacción del
estudiante con equipos e instrumentos de uso industrial,
disponibles solo en laboratorios especializados y de uso res-
tringido por limitaciones de tiempo y capacidad de atención.
Este equipamiento, debidamente preparado y con acceso
desde Internet, constituyen los laboratorios virtuales de ac-
ceso remoto que acercan al estudiante al centro de entrena-
miento.
El acceso remoto a equipos e instalaciones de un laboratorio
real, hoy en día son posibles gracias a las tecnologías de la
información y de comunicaciones. La digitalización de la in-
formación, el uso de estándares de comunicación, la fabricación
de equipos basados en microprocesadores con puertos de co-
municación estandarizados y software con entornos amigables
son la clave de esta nueva propuesta de educación a distancia.
CONCLUSIONES
acceder a través de Internet, conformando redes de labora-
torios remotos que facilitarían el entrenamiento en lugares
alejados, como por ejemplo centros mineros o comunida-
des aledañas a estos.
-
municación fluida entre sus integrantes, se ve resuelta con
soluciones de mensajería instantánea, telefonía o video
que se implementan en los laboratorios remotos.
o estándares ha facilitado la implementación de módulos
didácticos para acceso remoto. Adicionalmente, se requiere
de un sistema de gestión de reservas y del uso de los módu-
los didácticos empleados en los laboratorios remotos para
facilitar el acceso a los estudiantes en forma permanente.
REFERENCIAS
[1] WILHELM, Bruns et al. (2002). Final Report: Distributed Real
and Virtual Learning Environments for Mechatronics and
Teleservice (DERIVE). European IST Research and Develop-
ment Project.
[2] MULLER, Dieter. (2005). MARVEL- Mechatronics Training in
real and Virtual Environments. Concepts, Practices, and Re-
comnedations. Bremen.
[3] Marozas, V. Jurkonis, R. Lukosevicius, A. Development
of virtual and Remote Lab Experimentation System for
Electronic Engineering. Biomedical Engineering Institute,
Kaunas University of Technology, Lithuania.
[4] ALIANE, Noudine; FERNANDEZ, Javier; MARTINES, Aída y
ORTIZ, Jaime. (2007). , Un Laboratorio de Ingeniería de Con-
trol Basado en Internet. Universidad Europea de Madrid.
Información Tecnológica Vol 18(6), 19-26.
[5] ABURDENE, M.F; MASTASCUSA, E.J. y MASSENGALE, R.
(1991). “A proposal for a remotely shared control systems
laboratory”. Proceedings of the ASEE, Frontiers in Educa-
tion Conference, 589-592, USA-Lafayette.
GÓMEZ, Henry. “Entrenamiento a distancia en tecnologías de automatización y control utilizando laboratorios virtuales de acceso remoto”
109
Invest Apl Innov 3(2), 2009
GÓMEZ, Henry. “Entrenamiento a distancia en tecnologías de automatización y control utilizando laboratorios virtuales de acceso remoto”
[6] AKTAN, B. y BOHUS, C.A.. (1996). Distance Learning
Applied to Control Engineering Laboratories. IEEE Tran-
sactions on Education, 39(3), 320-326.
[7] NICKERSON, J.V., CORTER, J.E. y ESCHE, S.K. (2007). A mo-
del for evaluating the effectiveness of remote engineering
laboratories and simulations in education. Computers &
Education, 49(3), 708-725
[8] CASINI, M.; PRATTICHIZZO, D. y VICINO, A. (2004).”The
Automatic Control Telelab: A Web-based Tecnology for
Distance Learning”. IEEE Control Systems Magazine, 24(3),
36-44.
[9] CEA-IFAC: “Recopilación de laboratorios virtuales y/o
remotos”. Recuperado de http://www.cea-ifac.es/www-
grupos/educontrol/enl-labs.html.
[10] CYBERLAB: “Proveedor de servicios de experimentación
remota”. Recuperado el 20 de abril de 2009 de: http://
www.cyberlab.org.
[11] COOPER, M. (2003). Proyecto PEARL. Colección de artícu-
los relacionados con los laboratorios remotos. Recupe-
rado el 20 de marzo de 2009 de: http://iet.open.ac.uk/
pearl/publications/index.htm.
[12] MÜLLER, D. y FERREIRA, J.M. (2005). “Online labs and ,
the MARVEL experience. International Journal of On-
line Engineering”. Recuperado el 15 enero de 2009 de:
http://www.i-joe.org/ojs/include/getdoc.php?id=41&
article=4&mode=pdf.
[13] ECKERT, B.; TT GRÖBER, S. y JODL, H. (2009). Distance Educa-
tion in Physics via Internet. Department of Physics, Uni-
versity of Technology Kaiserlautern, Germany. Submit-
ted to American Journal of Distance Education.
[14] SAIRE, A. y Gómez, H. (2008). “Plataforma de aprendizaje
a distancia en Automatización Industrial empleando la-
boratorios remotos”. Investigación Aplicada e Innovación
I+i; 2 (2).
[15] Lucas Nuelle Training System. “Multimedia Desktop Lab
para electrotecnia y electrónica”. Recuperado el 24 abril
de 2009 de: http:// www.lucas-nuelle.com
[16] Tristan, R. Quentin S-F. Kenneth, R. Hooper, W. and H.
(1998). Virtual Network Computing IEEE Internet Compu-
ting; 2 (1).
ACERCA DEL AUTORL
Henry Gómez Urquizo es ingeniero
electrónico, egresado de la Maestría en
Ciencias con mención en Automatiza-
ción e Instrumentación y con estudios
de Doctorado en Ingeniería de Produc-
ción. Realizó cursos de especialización
en Electrónica de Potencia en Colom-
bia, Automatización Industrial, Redes y
Protocolos de Comunicación Industrial
en Alemania.
Actualmente es Jefe del Departamento de Electrotecnia de
Tecsup Arequipa.
110
Invest Apl Innov 3(2), 2009
Yuri P. MolinaPP
Asignación de pérdidas de potencia complejas usando seguimiento de flujo de potencia
Allocation of complex power LossesUsing Power Flow Tracing
Resumen
En este artículo se presenta un método basado en el segui-
miento de los flujos de potencia activa y reactiva para asignar
las pérdidas complejas entre los generadores y cargas. Se uti-
liza el método de la división proporcional para realizar el se-
guimiento de los flujos, considerando el efecto cruzado de los
flujos de potencia activa y reactiva en las pérdidas complejas.
Basándose en esta premisa, se determina la participación in-
dividual de todos los generadores y cargas en las pérdidas
del sistema; inclusive si hay más de un generador o carga en
la misma barra. Los resultados muestran que la asignación
para generadores y cargas individuales es más ventajosa, ya
que es capaz de reflejar mejor la influencia de cada agente en
las pérdidas del sistema. Por último, el método propuesto se
compara con otros métodos disponibles en la literatura, utili-
zando un sistema de prueba de 5 barras.
Abstract
This article presents a method based on flow tracing of active
and reactive power to allocate complex losses among gene-
rators and loads. It uses the proportional sharing principle to
carry out the flow tracing, considering the cross effect of acti-
ve and reactive power flows in complex losses. Based on this
premise, the individual participation of all generation or load
at the same bus is determined, even if there is more than one
generator or load at the same bus. The results show that the
allocation for individual generators and loads is more advan-
tageous, since it can better reflect the influence of each agent
in system losses. Finally, the proposed method is compared to
other methods available in the literature, using a 5-bus test
system.
Palabras claves
Pérdidas eléctricas, división proporcional, efecto cruzado,
Asignación de Pérdidas, seguimiento de flujos.
Key words
Electric losses, proportional sharing, cross effect, losses alloca-
tion, flow tracing.
INTRODUCCIÓN
La reestructuración del sector eléctrico consiste básicamente
en la separación de los servicios de electricidad, el acceso abier-
to a la red de transmisión y la apertura de mercados de energía
eléctrica. La separación de los servicios de electricidad se refie-
re a la asignación de las distintas funciones de la industria eléc-
trica para las diversas entidades corporativas (concesionarias).
Es decir, la separación del sector eléctrico en concesionarias de
generación, transmisión y distribución, que pasaron a ser trata-
dos como negocios diferentes y administrados por empresas
distintas. El aspecto clave fue la introducción de la competencia
en el sector eléctrico, a fin de reducir los precios de la energía
para los consumidores. Debido a esto, se torna mucho más
importante determinar la responsabilidad de los agentes del
sistema (generadores y cargas) en los servicios prestados o re-
queridos por ellos. En esta nueva estructura de mercado, debi-
do a la pluralidad de propietarios en la generación, transmisión
y distribución, la tarea de asignar las pérdidas del sistema de
transmisión entre los agentes (generadores y cargas) es un reto,
y se torna aún más complicado debido a las características de la
no-linealidad y la no-separabilidad de las pérdidas.
Existen varios métodos propuestos para resolver este proble-
ma, sin embargo, las premisas elegidas para cada uno de ellos
determinan sus ventajas y desventajas. En seguida se presenta
una breve descripción de los métodos más conocidos en la li-
teratura.
El método de Pro Rata presentado en [1]-[2] es uno de los más
clásicos. Este método es conocido por su sencillez en la com-
prensión y aplicación. Se caracteriza por asignar las pérdidas
eléctricas en proporción a la potencia de cada generador o de
cada carga.
111
Invest Apl Innov 3(2), 2009
MOLINA, Yuri. “Asignación de Pérdidas de Potencia Complejas Usando Seguimiento de Flujo de Potencia”
En [3]-[4] se proponen métodos basados en el seguimiento
de los flujos para asignar las pérdidas del sistema. En gene-
ral, este metodo utiliza los resultados de un flujo de potencia
conjuntamente con el principio de la división proporcional
(PS). Los métodos propuestos de asignación de pérdidas ba-
sados en el PS se han desarrollado teniendo en cuenta la to-
pología de la red, de forma similar al problema del transporte,
donde la asignación de las pérdidas se basa en la distribución
de los flujos en la red.
Los métodos basados en teoría de circuitos se presentan en
[5]-[6]. El uso de las leyes básicas de circuitos eléctricos, los
torna interesantes en términos de simplicidad de la com-
prensión y aplicación.
Los métodos basados en teoría de los juegos también han
sido utilizados, debido al hecho de que todos los participantes
comparten el mismo sistema de transmisión de electricidad.
Siendo así, todos pueden cooperar con la intención de lograr
los mejores beneficios posibles. Por lo tanto, es posible definir
el problema de asignación de pérdidas como un juego coope-
rativo [7]. En [8]-[9] se encuentran aplicaciones de la teoría de
los juegos para el problema de la asignación de pérdidas.
En [10] se propone una formulación matemática para la
asignación de las pérdidas complejas considerando el efec-
to cruzado de los flujos de potencia activa y reactiva en las
pérdidas de potencia activa y reactiva. En otras palabras, el
autor formula matemáticamente ecuaciones que determi-
nan la parcela de pérdidas de una línea que corresponde a
cada uno de los agentes del sistema.
Este trabajo presenta un método basado en el seguimiento
de los flujos de potencia activa y reactiva para asignar las pér-
didas complejas entre los agentes (generadores y cargas). El
método presentado mejora las premisas del principio de la
división proporcional (PS) en tres puntos, a fin de satisfacer
algunas de sus deficiencias:
i) Este artículo trata generación y demanda coexistentes en
un barra de manera independiente en lugar de considerar la
potencia líquida en la barra, como se ha hecho en la mayoría
de los métodos basados en seguimiento de los flujos, como
por ejemplo, en [3], [4], [11] y [12]. Esta modificación mejora el
desempeño del método para examinar los efectos indepen-
dientes de generadores y cargas que coexisten en una misma
barra en las pérdidas de las líneas de transmisión.
ii) Se toma en cuenta el efecto cruzado de los flujos de po-
tencia activa y reactiva en las pérdidas activa y reactiva. En
otras palabras, se asume que la potencia reactiva en las líneas
tienen una influencia sobre las pérdidas activas, así como la po-
tencia activa tiene un efecto sobre las pérdidas reactiva. Esta
consideración sigue la misma línea descrita en [10]. Esta altera-
ción promueve una mejora en el desempeño del método en la
medida que la consideración del efecto cruzado refleja mejor el
comportamiento real de un sistema de potencia.
iii) El tratamiento independiente de generación y carga en la
misma barra se extiende para un conjunto de generadores y
cargas situado en la misma barra, es decir, un tratamiento in-
dividual para cada generador (carga) en lugar de considerar la
suma de las generaciones (cargas), como se hace en la mayoría
de los artículos. Esta modificación amplía la consideración del
efecto cruzado, porque si existe una influencia cruzada de los
flujos de potencia en las pérdidas complejas, ciertamente habrá
diferencia en el resultado de la asignación si se hace individual-
mente para un generador (carga) en lugar de la asignación al
conjunto de generadores (cargas).
El método propuesto en este trabajo considera que tanto los
generadores como las cargas son responsables por las pérdidas,
coexistiendo en una especie de cooperación de beneficio mu-
tuo, lo que implica una interrelación que los torna mutuamente
indispensables (sin cargas no hay pérdidas, y sin generación
tampoco), correspondiendo al binomio generador carga [13].
FUNDAMENTOS
El principio de la división proporcional
Este principio tiene por objeto identificar cómo están distribui-
dos los flujos en la red de transmisión y asociarlos a generadores
y cargas. El principio de la división proporcional asume que el
nodo es un mezclador perfecto de los flujos que llegan a él, así
que es imposible determinar la ruta que seguirá un electrón [3].
La siguiente figura ilustra la idea del principio de la división pro-
porcional:
Figura 1. Ejemplo de la aplicación del PS
112
Invest Apl Innov 3(2), 2009
Usando el nodo i como referencia, vemos que hay cuatro líi -
neas conectadas a él, dos de los cuales contienen flujos en-
trando y dos contienen flujos saliendo. El flujo total que llega
al nodo i es igual a 100 MW, de los cuales 40 % son provei -
nientes del nodo j y 60 % del nodo j k. Observe que del nodo
i salen 70 MW en la dirección del nodo m. Por lo tanto, aplii -
cando el principio de la división proporcional se obtiene que
70.(60/100) = 42MW representa la contribución del flujo de laW
Línea k-i para la línea i-m y 70.(40/100) = 28MW representa la
contribución del flujo de la Línea j-i para la línea i–m. Tenga
en cuenta que las pérdidas eléctricas no se tienen en cuenta.
El procedimiento para asignar las pérdidas utilizando el prin-
cipio de la división proporcional debe ser separado en dos
etapas, asignando la mitad de las pérdidas para las cargas y
luego la otra mitad para los generadores.
PROCEDIMIENTO
El método propuesto se divide en dos etapas. El primer paso
es el seguimiento de los flujos de potencia activa y reactiva
a fin de determinar las contribuciones individuales de cada
agente en los flujos de las líneas. También, determinar la can-
tidad de potencia suministrada por un generador que efecti-
vamente llega en cada carga, así como la cantidad de poten-
cia consumida por una carga proveniente de cada generador
del sistema. El algoritmo de seguimiento de flujo propuesto
en este artículo se basa en el principio de la división propor-
cional.
En la segunda etapa, se utilizan los resultados del seguimien-
to de los flujos conjuntamente con las ecuaciones propues-
tas en [10] para asignar las pérdidas eléctricas. El método
propuesto en este trabajo considera una responsabilidad del
50% de las pérdidas totales para los generadores y 50% para
las cargas y tiene en cuenta el efecto cruzado de los flujos en
las pérdidas del sistema. La justificativa para la asignación de
50 % para cada categoría se presentó en la introducción.
A. Seguimiento de los Flujos
El proceso descrito aquí se aplica para el seguimiento del flu-
jo de potencia activa y reactiva en la dirección de generado-
res para las cargas. El seguimiento de los flujos en la dirección
de cargas para los generadores se puede hacer de manera
similar. En [3] se puede verificar en detalle los procedimien-
tos aquí descritos.
Para determinar el flujo medio a lo largo de una línea, se debe
conocer el flujo máximo Pi-j
máx (calculado en el origen) y el flux -
jo mínimo Pi-j
min (calculado en el destino) que pasa en la línea.
En seguida, se realiza la suma de sus módulos y se divide entre
dos.
(1)
Por lo tanto, se supone que el flujo de potencia que pasa a tra-
vés de la línea i – j que no j corresponde a sin pérdidas.
Es importante destacar que la representación del sistema en
términos de flujos medios se torna incoherente con respecto a
la ley de corrientes de Kirchhoff (LCK) y, consecuentemente, se
debe alterar los valores de las generaciones y demandas a fin
de cumplir esta ley. Sin embargo, en este trabajo se optó por
utilizar los valores de las generaciones y demandas obtenidas
del flujo de potencia, ya que esta inconsistencia no trae signifi-
cativas alteraciones en los resultados de la asignación.
El siguiente paso es calcular las contribuciones individuales de
los agentes (generadores y cargas) en los flujos de las líneas
del sistema. El cálculo se inicia con el montaje de la matriz de
distribución del sistema que relaciona los flujos de llegan a un
barra con las potencias inyectadas en las barras de origen de
los flujos. El montaje de esta matriz es un proceso simple y se
describe en los párrafos siguientes.
El flujo total que entra en la barra i puede ser calculado suman-
do la potencia generada en la barra y los flujos que llegan a ella
a través de las líneas. Matemáticamente:
(2)
Donde:
: Flujo total que entra en la barra i;
: Potencia generada en La barra i;
: Flujo en la línea j – i;
: Conjunto de las barras que están conectadas y in-
yectan potencia en la barra i.
La ecuación (2) puede ser modificada, considerando que:
(3)
Por lo tanto, tenemos:
(4)
P PP P
i j j ii jMáx
i jMin
2
Pi j
P P Pi Gi j ij i
u
Pi
PGi
Pj i
ju
P c P cP
Pi j ji j jij i
j
P P c Pi Gi ji jj i
u
MOLINA, Yuri. “Asignación de Pérdidas de Potencia Complejas Usando Seguimiento de Flujo de Potencia”
113
Invest Apl Innov 3(2), 2009
También se puede escribir las expresiones citadas arriba en
la forma de matriz. En primer lugar se debe reorganizar a la
siguiente forma:
(5)
Por lo tanto, (5) puede ser escrita matricialmente:
(6)
Donde:
PG : Vector de las potencias generadas en las barras;
D : Matriz de distribución;
P : Vector de las Inyecciones de potencia en las barras.P
La matriz D es obtenida de acuerdo con las siguientes con-
diciones:
(7)
Si D 1 existe, entonces, P P DG1 y el elemento i del vec-
tor P se obtienen por:P
(8)
Donde el elemento D Pik Gk1 representa la contribución de la
potencia activa del generador k en la inyección de potenciak
nodal en la barra i.
El siguiente paso es determinar las contribuciones individua-
les para las líneas, es decir, se debe determinar la parcela con
la cual cada generador contribuye para los flujos en las lí-
neas. En primer lugar, es necesario determinar el porcentaje
del flujo líquido que sale de una barra en dirección a las otras.
El proceso utilizado para obtener esta información es similar
a la observada en el montaje de la matriz de distribución. El
montaje de la matriz Contij es muy simple y se reduce a la
determinación del factor cji . Por lo tanto:
(9)
Donde:
: Matriz que relaciona los flujos que circulan entre
las barras.
Posteriormente, se debe multiplicar la contribución de poten-
cia activa del generador en la inyección de potencia nodal en
cada barra por la contribución porcentual de esa barra para el
flujo en la línea y de esta manera obtener la parcela con la cual
el generador en cuestión contribuye para el flujo de la línea. Por
ejemplo, suponiendo que el generador 1 (G1) aporta 15 MW (in-
formación obtenida de(8)) para la inyección de potencia nodal
en la barra 1 y que el 30% de la potencia líquida de esa barra
va a la línea 1 - 2 (información obtenida de (9)). Multiplicando
estos dos valores, obtenemos la contribución de G1 para el flujo
de la línea 1 - 2.
Después de implementar todos los pasos descritos en los párra-
fos anteriores, se obtienen las parcelas con las que los genera-
dores del sistema de contribuir a las líneas de flujo. Por lo tanto
se debe comenzar el proceso de asignación de las pérdidas.
B. Asignación de las Pérdidas
Obtenidas las contribuciones individuales para los flujos en las
líneas de flujo, se debe determinar un criterio para la asigna-
ción de las pérdidas a los agentes. En el PS original, se multiplica
las pérdidas de la línea por la parcela de flujo debido al agente
en cuestión, obteniendo así un reparto directamente propor-
cional a las contribuciones individuales de cada agente al flujo
total en la línea.
La consideración del efecto cruzado lleva a la necesidad de de-
terminar cuánto influencia la potencia activa en las pérdidas de
potencia reactiva y cuánto de la potencia reactiva influencia
en las pérdidas de potencia reactiva. En [10], el autor propone
cuantificar este efecto a través de las siguientes ecuaciones:
(10)
(11)
Donde:
iloss: Pérdidas activas asignadas al agente i;
Qiloss: Pérdidas reactivas asignadas al agente i;
Lloss: Pérdidas activas totales en la línea;
P P c PGi i ji jj i
u
P DPG
D cij ji iu
1
0
, para i = j, para j
, otras posiciones
P D Pi ik Gkk
n1
1
Cont cij ji iu, para j
Contij
PPP Q Q
P QPi
Loss i L i L
L LLLoss( )
2 2
QPP Q Q
P QQi
Loss i L i L
L LLLoss( )
2 2
MOLINA, Yuri. “Asignación de Pérdidas de Potencia Complejas Usando Seguimiento de Flujo de Potencia”
114
Invest Apl Innov 3(2), 2009
QL
loss: Pérdidas reactivas totales en la línea;
i: Potencia activa en la línea debido al agente i;
Qi: Potencia reactiva en la línea debido al agente i;
L: Flujo de potencia activa total en la línea;
QL: Flujo de potencia reactiva total en la línea.
El uso simultáneo del algoritmo de seguimiento de flujos y
las ecuaciones (10) y (11) permiten la obtención de las par-
celas de las pérdidas totales en las líneas que pertenecen a
cada uno de los agentes, considerando el efecto cruzado de
los flujos de potencia activa y reactiva en las pérdidas activa
y reactiva, ya que toda la información requerida por las ecua-
ciones anteriores se pueden obtener a partir del seguimiento
de los flujos.
C. Modificación en el PS
El proceso descrito en los dos ítems anteriores devuelve un
resultado para el caso en que se considera generaciones (de-
manda) equivalentes en las barras. En este trabajo se consi-
dera los generadores y las cargas que coexisten en una deter-
minada barra como agentes independientes, por lo que sus
efectos sobre las pérdidas del sistema son diferentes.
1) Justificativa para el tratamiento independientemente
de generación y carga que coexisten en una misma
barra
Según una de las premisas del PS, no se puede determinar la
fuente y el destino de un electrón presente en un punto del
sistema. Por lo tanto, aprovechando esta afirmación, es acep-
table extenderla para el caso de la coexistencia de generado-
res y cargas en la misma barra. Siendo así, se hace la siguiente
pregunta: “Si no se puede determinar el origen o el destino de
un electrón presente en cualquier lugar del sistema, ¿cómo es
posible afirmar que toda la potencia consumida por la carga
es proveniente de un determinado generador?”.
La respuesta para esta pregunta no es obvia. Suponiendo que
los elementos de una barra pueden interactuar con los ele-
mentos externos a su barra, se puede explicar esa interacción
a través de un ejemplo sencillo.
En la Figura 2, se observa un sistema de tres barras represen-
tado con sus generadores, sus cargas y las impedancias de las
líneas. Analizando específicamente la barra 2, se observa que
tiene una generación (demanda) líquida de potencia activa
igual a cero. Por lo tanto, de acuerdo con el PS, las pérdidas ac-
tivas que se asignan a ésta barra son nulas.
Figura 2. Sistema-ejemplo de tres barras
Figura 3. Nueva visión del sistema-ejemplo de tres barras
Sin embargo, si consideramos la impedancia equivalente de la
carga 3 sumada a la impedancia de la línea 2 - 3, verificamos que
este valor es menor que la impedancia equivalente de la barra
de carga 2. Procedemos a analizar esta situación a través de las
leyes de circuitos eléctricos; se puede decir que el flujo de salida
del generador 2 debería dividirse entre las dos impedancias co-
nectadas a la barra (similar al divisor de corriente). Por lo tanto,
a pesar de ser representada por una impedancia equivalente de
menos valor que la barra de carga 2, es razonable suponer que
parte del flujo generado en 2 seguirá hasta la barra 3.
Sobre la base de las declaraciones anteriores, es necesario
realizar el proceso de asignación teniendo en cuenta todos
los generadores y cargas del sistema como participantes in-
dependientes en los flujos de las líneas. En otras palabras, es
conveniente asignar las pérdidas a los agentes del sistema sin
considerar generación (demanda) líquida en las barras.
2) Extensión del tratamiento independiente de generado-
res y cargas en una barra
El tratamiento independiente cuando generador y carga co-
existen en una barra, se puede extender al caso en que varios
generadores y cargas que comparten la misma barra. La justifi-
cativa para esta extensión reside en la consideración del efecto
cruzado de los flujos de potencia activa y reactiva en las pérdi-
das complejas.
MOLINA, Yuri. “Asignación de Pérdidas de Potencia Complejas Usando Seguimiento de Flujo de Potencia”
115
Invest Apl Innov 3(2), 2009
Debido al efecto cruzado, se espera que los generadores y
cargas con características diferentes, aunque compartan la
misma barra, tengan diferentes impactos en las pérdidas del
sistema. Así pues, la suma de los agentes de la misma cate-
goría para obtener un equivalente no traduciría adecuada-
mente sus contribuciones individuales para las pérdidas en
las líneas de transmisión.
3) Modelaje del sistema
El tratamiento independiente se logra a través de un cambio
en los datos de entrada (antes del seguimiento de los flujos).
En primer lugar, se tiene que modelar el sistema para que
todos los generadores y las cargas estén separados en barras
virtuales conectadas a la barra original a través de líneas de
transmisión virtuales sin pérdidas. Obviamente, cada nueva
barra creada debe ser conectada a la barra en la que el ge-
nerador (carga) estaba conectado originalmente. Así, la po-
tencia líquida inyectada y enviada para las barras originales
siguen siendo las mismas, sin alterar los flujos de las líneas
originales del sistema. Para explicar estas afirmaciones, a con-
tinuación se muestra un ejemplo de un sistema de tres barras
en su configuración original (ver Figura 4) y, en seguida, se
verifica el mismo sistema después de pasar por el modelaje
propuesto (ver Figura 5).
Figura 4 - Ejemplo - Sistema de 3 barras
La Figura 4 muestra el diagrama unifilar de un sistema diferen-
te al habitual. Los métodos tradicionales ignoran la existencia
de dos generadores en la barra 2, puesto que tales métodos
asignar las pérdidas para un generador equivalente que está
formado por la suma de las potencias generadas por cada uno
de los dos generadores sin tener en cuenta las participaciones
individuales de estos generadores en las pérdidas del sistema.
Lo mismo ocurre para las dos cargas en la barra 3.
La Figura 5, a su vez, consiste en una representación del siste-
ma de la Figura 4 de acuerdo con el modelaje propuesto en
este artículo:
Figura 5. Ejemplo – Sistema de 3 barras modificado
Las Líneas 4-1, 5-2, 6-2, 2-7, 3-8 y 3-9 se crearon para modificar el
sistema. Por estas líneas pasarán las mismas potencias activas y
reactivas generadas o consumidas por los agentes conectados
a las barras de origen. Por ejemplo, si el generador G1 gene-
ra 15 MW/10 MVAr, el flujo en la línea 4-1 será exactamente 15
MW/10 MVAr. Incluso con el cambio en el sistema, el algoritmo
de seguimiento de flujos propuesto inicialmente es capaz de
determinar la parcela con la que cada agente del sistema con-
tribuye al flujo en las líneas nuevas y originales, y por lo tanto
se puede saber cuánto contribuye cada generador para cada
carga, y viceversa.
RESULTADOLL S
En esta sección, el método propuesto se compara con otros dos
métodos: El PS y el método propuesto en [4] modificado. El sis-
tema de prueba de 5 barras presentado en [5] fue modificado
de modo que existiera más de un generador o carga en algunas
barras, manteniendo su valor total generado/consumido.
Como el método propuesto en [4] asigna las pérdidas sólo a las
cargas, este fue modificado a fin de obtener los resultados de la
asignación también para los generadores. Así, en este artículo,
este método será llamado Abdelkader Modificado.
La siguiente figura muestra el sistema de prueba usado en este
artículo:
Figura 6. Sistema-prueba de cinco barras
MOLINA, Yuri. “Asignación de Pérdidas de Potencia Complejas Usando Seguimiento de Flujo de Potencia”
116
Invest Apl Innov 3(2), 2009
Las Tablas 1 y 2 muestran las direcciones y magnitudes de los
flujos en las líneas de flujo y de las generaciones y demandas
en las barras, respectivamente:
k mPkm
(MW)
Qkm
(MVAr)
Pmk
(MW)
Qmk
(MVAr)
PLoss
(MW)
QLoss(MVAr)
1 2 113,92 17,24 -108,84 -0,04 5,08 17,20
2 3 -53,66 -19,96 54,69 22,08 1,03 2,12
3 5 -17,31 12,46 17,55 -13,10 0,24 -0,64
3 4 -42,42 7,70 43,90 -3,11 1,47 4,59
5 4 -41,37 -2,19 42,41 5,20 1,05 3,02
5 1 -66,18 -9,71 67,53 14,10 1,34 4,39
Tabla 1. Flujos en las líneas
Barra Activa (MW)Reactiva (MVAr)
Tensión
(p.u.)p
Angulo
(grados)g
1 2 1 2
1 1,050 0 Carga 45 - 15 -
Generación 226,44 - 46,341 -
2 0,990 -10,17 Carga 100 62,5 5 15
Generación - - - -
3 1,033 -6,70 Carga 80 - 20 -
Generación 37,475 37,475 40 22,246
4 1,050 1,22 Carga 50 - 20 -
Generación 36,31 100 21,089 1
5 1,015 -4,33 Carga 80 10 5 20
Generación - - - -
Tabla 2. Datos de las generaciones y demandas en las barras
A continuación, presentamos los resultados de la asignación
para las barras. El carácter “-” presente en las columnas corres-
pondientes al método propuesto, representa la no existencia
de generador o carga en las barras.
Los métodos PS y Abdelkader Modificado realizan la asigna-
ción de las pérdidas para un equivalente en las barras, por lo
que en la tabla no están separadas las asignaciones para ge-
neradores y cargas que coexisten en las barras. Cabe señalar
también que estos dos métodos consideran que cuando el
generador y carga coexisten en una barra, solo uno de los dos
puede interactuar con el resto del sistema, ya que el genera-
dor suministra toda la potencia demandada por la carga, o la
carga consume toda la potencia generada en la barra. De esta
manera, la tabla muestra claramente que cuando hay mayor
generación que consumo, la carga presente en aquella barra
recibe una asignación nula, y cuando existe mayor consumo
que generación, el generador tiene una asignación nula.
Estas hipótesis hechas por estos dos métodos enmascaran la
contribución real de cada agente. El método propuesto tiene
como objetivo explicar esta participación, tornando más justa
la asignación de las pérdidas.
Barra
PSAbdelka-der Modi-
ficadoPropuesto
P
(MW)
Q
(MVAr)
P
(MW)
Q
(MVAr)
P (MW) Q (MVAr)
1 2 1 2
1Carga 0,00 0,00 0,00 0,00 0,00 - 0,00 -
Generación 3,37 10,79 3,36 10,96 3,29 - 10,74 0,00
2Carga 4,01 9,66 4,01 10,20 2,09 1,36 6,53 4,19
Generación 0,00 0,00 0,00 0,00 - - - -
3Carga 0,09 0,00 0,16 0,00 0,59 - 1,57 -
Generación 0,00 4,12 0,00 2,17 0,20 0,17 0,30 0,28
4Carga 0,00 0,00 0,00 0,00 0,01 - 0,03 -
Generación 1,73 0,42 1,67 2,26 0,39 1,06 1,08 2,95
5Carga 1,00 5,68 1,01 5,09 0,89 0,16 2,69 0,32
Generación 0,00 0,00 0,00 0,00 - - - -To
tal Carga 5,10 15,34 5,17 15,29 3,58 1,52 10,83 4,51
Generación 5,10 15,34 5,03 15,39 3,88 1,22 12,11 3,22
Total 10,20 30,68 10,20 30,68 5,10 5,10 15,34 15,34
Tabla 3 - Resultados de la asignación para las barras
Se observa que, aunque se considere que tanto el generador
como la carga presentes en una misma barra pueden interac-
tuar con otros elementos de red de forma independiente, se
verifica que la carga de la barra 1, se mantiene con asignación
nula. La justificación para tal evento se encuentra en la direc-
ción de los flujos presentes en las líneas conectadas a esta ba-
rra. Dado que no existen líneas llevando potencia a ésta barra,
el algoritmo de seguimiento de flujo para la carga no considera
la participación de esta carga en ninguna de las líneas; por lo
tanto la carga en cuestión no interactúa con los elementos ex-
ternos a su barra.
La asignación de la potencia reactiva a los generadores de la
barra de 4 muestra un hecho interesante. El método propues-
to asigna mayor valor a la unidad generadora 2, aunque la po-
tencia reactiva generada por este generador es mucho menor
que la generada por la unidad de generación 1. Esto se explica
por la enorme diferencia entre la potencia activa generada por
cada uno de ellos, donde la unidad de generación 1 produce
36,01 MW en la unidad de generación de 2 produce 100 MW.
Este ejemplo muestra claramente la necesidad de considerar
los generadores que coexisten en una barra como agentes
independientes en el sistema, dado que la consideración del
MOLINA, Yuri. “Asignación de Pérdidas de Potencia Complejas Usando Seguimiento de Flujo de Potencia”
117
Invest Apl Innov 3(2), 2009
efecto cruzado tiende a reflejar mejor la contribución de
cada agente en las pérdidas del sistema.
La barra 3 tiene también otro ejemplo interesante porque,
aunque los dos generadores contribuyen con la misma ge-
neración de potencia activa, estos tienen asignación de pér-
didas diferentes. Una vez más, se explica este hecho a través
del efecto cruzado de los flujos en las pérdidas del sistema,
dado que la diferencia en la generación de potencia reactiva
dará lugar a asignaciones diferentes a cada uno de los gene-
radores.
El sistema IEEE-30 utilizado en [5] también fue modificado a
fin de tener más de un generador o carga en algunos barras,
manteniendo su valor total generado / consumido. Las barras
de 2 y 8 cuentan con dos generadores, mientras que las ba-
rras de 2, 7, 8, 14 y 15 contienen ahora dos cargas. El método
propuesto es capaz de asignar las pérdidas para varios gene-
radores o cargas presentes en cada barra; sin embargo, para
exhibición de las pruebas se utilizaron como máximo dos de
cada categoría con la finalidad de exponer claramente los re-
sultados.
A seguir son presentadas dos tablas, donde la primera contiene
los datos de las generaciones y demandas en las barras y el
segundo contiene los datos de las asignaciones para el sistema
IEEE-30 utilizando el método propuesto
BarraActiva (MW)
Reactiva (MVAr)
1 2 1 2
2 Carga 11,70 10,00 12,70 10,00
Generación 25,00 25,00 40,434 8,00
7 Carga 20,80 2,00 1,00 9,90
Generación - - - -
8 Carga 15,00 15,00 15,00 15,00
Generación 20,50 2,00 4,00 20,30
14 Carga 6,00 0,20 0,10 1,50
Generación - - - -
15 Carga 8,10 0,10 2,40 0,10
Generación - - - -
Tabla 4. Generaciones y demandas en las barras
con más de un generador/carga
Barras
Generador 1 Generador 2
Barras
Carga 1 Carga 2
P(MW)
Q(MVAr)
P(MW)
Q(MVAr)
P(MW)
Q(MVAr)
P(MW)
Q(MVAr)
Gen
erad
ore
s
1 4,46 5,67 - -
Car
gas
2 0,09 0,08 0,08 0,07
2 0,37 0,23 0,35 0,28 3 0,05 0,06 - -
5 0,02 -0,46 - - 4 0,22 0,21 - -
8 0,02 -0,84 0,01 -0,71 5 1,62 1,53 - -
11 0,08 1,38 - - 7 0,53 -0,19 0,07 -0,46
13 0,10 0,93 - - 8 0,10 -0,13 0,10 -0,13
10 0,10 0,34 - -
12 0,20 0,85 - -
14 0,14 0,42 0,01 0,06
15 0,20 0,65 3e-3 0,01
16 0,08 0,28 - -
17 0,19 0,67 - -
18 0,09 0,28 - -
19 0,24 0,72 - -
20 0,05 0,15 - -
21 0,37 1,41 - -
23 0,09 0,30 - -
24 0,25 0,69 - -
26 0,12 -0,39 - -
29 0,07 -0,26 - -
30 0,36 -0,76 - -
Total 5,05 6,91 0,36 -0,43 Total 5,16 6,91 0,263 -0,45
Tabla 5. Resultados de la asignación para el sistema IEEE-30
MOLINA, Yuri. “Asignación de Pérdidas de Potencia Complejas Usando Seguimiento de Flujo de Potencia”
118
Invest Apl Innov 3(2), 2009
Los resultados son los esperados y siguen la misma línea del
sistema de prueba de cinco barras. En la barra 8, donde hay
dos cargas idénticas, se verifica que hay una asignación igual
a ambas, tanto de potencia activa como reactiva, lo que de-
muestra que el método es capaz de distinguir entre las cargas
y los generadores de acuerdo con sus potencias consumidas
y generadas, respectivamente.
En la barra 2, donde las dos unidades generadoras proveen
25 MW al sistema, hay una asignación diferente de pérdidas
de potencia activa para estas unidades. Una vez más, se expli-
ca este evento debido a la influencia del flujo de potencia ac-
tiva en las pérdidas de potencia reactiva del sistema, porque
existe una diferencia en la generación de potencia reactiva
de estas dos unidades. Por lo tanto, efectos diferentes en las
pérdidas del sistema.
La barra 8 contiene otro caso interesante. Los generadores
de esta barra tienen enorme diferencia en la potencia activa
generada, pero a pesar de que el generador 2 suministra el
equivalente de 9,76 % de la potencia suministrada por el ge-
nerador 1, las pérdidas asignadas al generador 2 son aproxi-
madamente la mitad de las pérdidas asignadas a generador
1. Esta diferencia se debe a la generación de potencia reacti-
va, donde el generador 1 proporciona el equivalente a 19,7 %
de la potencia reactiva suministrada por el generador 2. Así, la
consideración del efecto cruzado hace que las asignaciones
de las pérdidas activas y reactivas para estos dos generadores
tengan valores no proporcionales a su generación de poten-
cia activa y reactiva, respectivamente.
CONCLUSIONES
Los análisis realizados demostraron que la propuesta de tra-
tamiento individual de generador y carga coexistentes en
una barra es relevante. Esta importancia es sustentada en las
pruebas, donde se puede ver que los generadores y cargas
que dividen una misma barra tienen diferentes efectos en las
pérdidas de las líneas del sistema. La influencia de la potencia
activa (reactivo) en las pérdidas de potencia reactiva (activa)
es la principal justificación para el tratamiento independiente.
Por otra parte, la extensión de este tratamiento independien-
te para el caso en más de un generador / carga que dividen la
misma barra, también es necesario.
El efecto cruzado está bien justificado por los ejemplos ex-
puestos, teniendo en vista que la consideración de ese efec-
to tiende a diferenciar agentes aparentemente similares. En
los resultados obtenidos a través del método propuesto, se
pueden identificar los casos en que se verifica la influencia
del efecto cruzado, por ejemplo, donde los generadores de la
misma potencia activa reciben asignaciones diferentes.
REFERENCIAS
[1] CONEJO, A. ARROYO, J. y GUIJARRO, A. “Transmission loss
allocation: A comparison of different practical algorithms”,
IEEE Transactions on Power Systems, pp. 571-576, 2002.
[2] ILIC, M. GALIANA, F. y Fink, L. “Power System Restructuring:
Engineering and Economics”, 1998.
[3] BIALEK. “Tracing the Flow of Eletricity”, IEE Proceedings on
Generation, Transmission and Distribution, pp. 313-320,
1996.
[4] S. ABDELKADER,.“Transmission loss allocation through
complex power flow tracing,” vol. 22, 2007.
[5] SILVA, B. da. Uma “Metodologia para Alocação de Perdas
Ativas de Transmissão em Ambiente Competitivo”. São
Luís, Brasil: Dissertação de Mestrado, UFMA, 2007.
[6] Lima, D. A. Alocação de perdas e custos pelo uso do sistema
de transmissão. Tese de Doutorado, UNESP, Ilha Solteira,
2007.
[7] TANTT , X. H. y LIE, T. T. “Allocation of transmission loss cost
using cooperative game theory in the context of open
transmission access”, IEEE Power Engineering Society
Winter Meeting, pp. 1215-1219, 2001.
[8] MOLINA, Y. P., SAAVEDRA, O. R. y Prada, R. B. “On the Par-
tition of Transmission Losses Among Generators”, IEEE
Transactions on Power Systems, vol. 23, pp. 1883-1885,
Nov. 2008.
[9] MOLINA, Y. , PRADA, R. y SAAVEDRA, O. “Allocation of
Transmission Loss Cost Using Game Theory”, IEEE Lausan-
ne Power Tech, pp. 407-412, 2007.
[10] ABDELKADER, S. “Transmission loss allocation in a dere-
gulated electrical energy market,” Electrical Power Sys-
tems Research, pp. 962-967, 2006.
[11] BIALEK. “Topological generation and load distribution
factors for supplement charge allocation in transmission
open access”, IEEE Transactions on Power Systems, pp.
1185-1193, 1997.
MOLINA, Yuri. “Asignación de Pérdidas de Potencia Complejas Usando Seguimiento de Flujo de Potencia”
119
Invest Apl Innov 3(2), 2009
[12] Bialek, J. “Allocation of transmission supplementary to
real and reactive loads,” p. 1185–1193, 1998.
[13] MOLINA, Y. Alocação de Demandas e Perdas Complexas
via Teoria dos Jogos. Tesis Doctoral, PUC- Rio, Rio de Ja-
neiro, Brasil, 2009.
ACERCA DEL AUTOR
Yuri P. Molina es Ingeniero Eléctrico
con maestría en Sistemas de poten-
cia. Sus áreas de interés se centran
en el planeamiento y operación de
sistemas eléctricos de potencia, in-
teligencia artificial aplicada a los
sistemas de energía y los servicios
complementarios de potencia reac-
tiva. Actualmente se desempeña
como docente del departamento de Electrotecnia industrial
de Tecsup.
MOLINA, Yuri. “Asignación de Pérdidas de Potencia Complejas Usando Seguimiento de Flujo de Potencia”
120
Invest Apl Innov 3(2), 2009
Julio Monjarás
Evaluación del uso de fibras textiles como aislante térmico
Evaluation of the use of textile fibers as thermalisolators
Resumen
El presente trabajo tuvo como objetivo evaluar de una serie
de muestras de fibras textiles cuales poseen mejor propiedad
de aislamiento térmico y cuantificar el ahorro de energía al
utilizarla como resistencia térmica entre dos medios a dife-
rente temperatura, dicho trabajo fue encomendado por una
empresa textil.
La metodología aplicada es de tipo exploratoria/descriptiva,
enmarcada en un diseño experimental.
Se evaluó cada una de las muestras de fibra textil utilizán-
dolas como resistencias térmicas, para ello se construyeron
dos cámaras: una interna más pequeña que simula una ha-
bitación, y otra más grande donde se simuló la temperatura
ambiente en época de invierno.
En la cámara interna se mantuvo una temperatura constante
de 30 °C; esta temperatura se logró gracias al equipo de cale-
facción que se instaló en su interior.
La temperatura ambiental se simuló en la cámara externa en
la cual se instaló un sistema de refrigeración para proporcio-
nar la temperatura de invierno de 0 °C, la que fue controlada
para que permanezca constante a lo largo del tiempo.
Se evaluó el ahorro de energía y economía realizada por el
uso de fibra textil con mejores propiedades aislantes en com-
paración con una fibra comercial.
Los hallazgos de la investigación permitieron identificar que
las muestras de fibra textil con mejores propiedades aislantes
fueron las denominadas N.° 1 y N.° 8. El utilizar materiales con
mejores propiedades térmicas consigue un ahorro de ener-
gía en el funcionamiento de los equipos de calefacción.
La evaluación de las curvas y los tiempos de enfriamiento sir-
ve como un método indirecto alternativo para identificar de
una serie de muestras que poseen mejores propiedades aislan-
tes sin la necesidad de calcular sus coeficientes de conductivi-
dad térmica
Abstract
This research work, requested by a textile company, had as its
objective to evaluate a series of textile fiber samples which
have better thermal isolating properties, and quantify the sa-
ving energy when using it as a thermic resistance between two
environments at different temperatures.
The methodology used is of exploratory / descriptive type, fra-
med in a experimental design.
It was evaluated each of the requested presentations for textile
fibers had better isolating characteristics using them as ther-
mic resistances, for this purpose, two boxes were constructed;
an internal, smaller one which simulated a room; and a bigger
one, where the natural environment temperature in winter
time was simulated.
The internal box was kept at a constant temperature of 30 °C,
through a heating equipment installed inside.
The natural environment temperature was simulated in the
external box, in which a refrigeration system provide a winter
temperature of 0°C, which was controlled in order to remain
constant throughout time.
Saving energy and economy were evaluated with the use of
textile fiber with better isolating characteristics compared with
a commercial fiber.
The research findings allowed to identify that the textile fiber
samples with better isolating characteristics were the N°1 and
N° 8. The use of thermic resistant materials with better thermic
properties pernuts energy saving in the heating equipment
functioning.
121
Invest Apl Innov 3(2), 2009
MONJARÁS, Julio. “Evaluación del uso de fibras textiles como aislante térmico”
The evaluation of the curves and cooling times work as an in-
direct alternative method to identify, from a series of samples
which one has better isolating properties, without the need
of calculating their coefficients of thermic conductivity.
Palabras claves
Curva de enfriamiento, tiempo de enfriamiento, resistencia
térmica, fibras textiles
Key words
Cooling curve, cooling time, thermic resistance, textile fi-
bers.
INTRODUCCIÓN
Para averiguar cuál es el mejor aislante térmico de una serie
de materiales, normalmente se determina el coeficiente de
conductividad térmica, el cual es una medida de la capacidad
del material para conducir calor. Un valor elevado de la con-
ductividad térmica indica que el material es buen conductor
del calor y un valor bajo indica que es un buen aislante.
La evaluación del coeficiente de conductividad se calcula
confeccionando un aparato experimental como se muestra
en la Figura 1.
Figura 1: Equipo para determinar el coeficiente de conductividad
El material para evaluar el coeficiente de conductividad de
espesor “L” y área “A” conocidos, se calienta por un lado me-
diante un calentador de resistencia eléctrica de potencia
conocida. Si las superficies exteriores del calentador están
bien aisladas, todo el calor generado “ ” por la resistencia,
se transferirá a través del material cuya conductividad se va
determinar. Conociendo los valores del espesor y del área y
midiendo las dos temperaturas de las superficies del material
T1
y T2, cuando se alcanza estado estacionario de trasferen-
cia de calor, el coeficiente de conductividad se calcula por la
ecuación (1)
(1)
La evaluación del coeficiente de conductividad térmica de fi-
bras textiles mediante la ecuación (1) se complica, ya que el
espesor de la fibra tiene que ser lo suficientemente grueso para
poder medir las temperaturas de las superficies T1 y T
2, y para
obtener dicho espesor se tendría que juntar y presionar varias
fibras, lo cual afectaría en el resultado de la medición.
La alternativa planteada para averiguar cual es el mejor aislante
de calor de una serie de muestras de fibras textiles es utilizar el
equipo de la Figura 2, en el se determina como varía la tem-
peratura en función al tiempo del interior de una cámara de
aire “T1” inicialmente caliente a una temperatura “T
0”, cuando se
separa con una muestra de fibra textil “2” de otro ambiente ex-
terior que está a una temperatura fría constante “Tfria”.
Figura 2: Equipo para determinar la variación de temperatura
respecto al tiempo
La muestra que traiga como consecuencia un mayor tiempo de
enfriamiento de la temperatura T1
en un mismo rango de tem-
peraturas, será la que mejor propiedades aislantes tenga.
Para poder determinar cual de las muestras encomendada por
una empresa textil tiene mejores propiedades aislantes, se defi-
nieron los siguientes objetivos de estudio:
1. Determinar el tiempo de enfriamiento del aire interior para
un mismo rango de temperaturas cuando se utilizan como
resistencia térmica diferentes fibras textiles
2. Analizar las curvas de enfriamiento del aire del interior de la
cámara en función del tiempo cuando se deja enfriar libre-
mente.
3. Evaluar el ahorro de energía consumida por un equipo ca-
lefactor al calentar el aire dentro de un ambiente al utilizar
como resistencia térmica la fibra con mejores propiedades
aislantes en comparación con otra de confección similar.
122
Invest Apl Innov 3(2), 2009
FUNDAMENTOS
Tiempo de enfriamiento en régimentransitorio
Para calcular la variación de la temperatura T1, asumimos que
la temperatura promedio del aire, “T1” , del compartimiento
interno es la misma en cualquier punto de su interior; lo mis-
mo con la temperatura “T2” en la fibra textil (Figura 2)
Realizando un balance de energía para el aire del interior de
la cámara se tiene:
(2)
Realizando un balance de energía para la fibra textil se tiene:
(3)
Las dos ecuaciones diferenciales lineales simultáneas pueden
resolverse, sabiendo que inicialmente el aire caliente se en-
cuentra a una temperatura “T0”, lo que implica que las condi-
ciones iniciales son:
T1 = T
2 = T
0 en t = 0
Resolviendo obtenemos:
Donde:
h1 = Coeficiente de transferencia de calor por convección por
lado del aire caliente
h2 = Coeficiente de transferencia de calor por convección por
lado del aire caliente
C = Calor específicoC
= Densidad
V = VolumenV
t = Tiempot
La muestra que genere un mayor tiempo de enfriamiento de
la temperatura T1 en un mismo rango de temperaturas, será la
que mejor propiedades aislantes tenga. En la Figura 3 se obser-
va la tendencia de una gráfica de enfriamiento
Figura 3 : Curva de enfriamiento
Equipo y control de la temperatura fria de la cámara externa
Para tener una temperatura externa constante, se construyó
una cámara externa de refrigeración debidamente aislada, que
funciona con un ciclo de compresión de vapor y que utiliza
como refrigerante R22.
El control de temperatura de la cámara está basado en dos
controladores Stand Alone modelo 900-TC8ACVGTZ25, fabri-
cado por Allen Bradley y el controlador EKC 101 fabricado por
Danffoss, cada controlador implementa un lazo de calefacción
y refrigeración respectivamente. La variable de proceso o de
interés es observada mediante sensores de temperatura tipo
PT-100, los que han sido cableados hacia la entrada RTD de
cada controlador. Como elementos actuadores para el sistema,
se tiene:
MONJARÁS, Julio. “Evaluación del uso de fibras textiles como aislante térmico”
123
Invest Apl Innov 3(2), 2009
ventilador, lo cual permite una distribución uniforme
del calor en el interior de la cámara. Dicha resistencia es
energizada por acción de un relé de estado sólido que
es comandado por las salidas DC del controlador Allen
Bradley.
temperatura de cámara. Al cerrarse la válvula solenoide,
un presostato de baja presión enviará la señal eléctrica
para que el compresor del sistema de refrigeración se
apague.
Cuando el punto de operación de la cámara se encuentra
a temperaturas bajas, típicamente 0 °C, el controlador Allen
Bradley pone en funcionamiento un control ON-OFF de tres
puntos con acoplamiento de mallas. Con dicho esquema se
consigue un lazo de control de frío que actúa con el lazo de
calor, lo cual permite un encendido constante del sistema de
refrigeración y activación temporal del circuito de calefac-
ción. Con ello se logra una temperatura nominal que oscila
entre los +/- 0.5 °C.
Para evitar que el sistema de refrigeración se apague en el
controlador EKC 101, se configuró una temperatura de cáma-
ra ligeramente menor que la del controlador Allen Bradley,
típicamente en -2 °C.
En la Figura 4 se observa la cámara externa de refrigeración,
y en la Figura 5 el equipo de refrigeración por compresión de
vapor utilizado.
Figura 4: Cámara externa de refrigeración utilizada
Figura 5: Equipo de refrigeración por compresión de vapor
En la Figura 6 se observa el sistema de control de temperatura
fría de la cámara externa.
Figura 6: Sistema de control de temperatura fría de la cámara externa
Equipo y control de la temperatura delaire caliente de la cámara interna
Para tener la temperatura del aire caliente constante dentro del
ambiente, se construyó una cámara interna debidamente aisla-
da, dejando un lado libre para colocar la muestra de fibra textil
a ensayar.
El control de temperatura interna de la cámara lo realiza un
controlador EKC 101 marca Danffoss. La temperatura del aire
caliente es medida mediante un sensor de temperatura tipo
PT-100, el cual ha sido cableado hacia la entrada RTD del con-
trolador. Como elemento actuador para el sistema, se tiene una
resistencia eléctrica de 2000 W con su respectivo ventilador, lo
cual permite una distribución uniforme del calor en el interior
de la cámara. Dicha resistencia es energizada por acción de un
relé de estado sólido que es comandado por las salidas del con-
trolador EKC 101.
Cuando el punto de operación del aire caliente se encuentre
en un valor típicamente de 30 °C, el controlador EKC 101 pone
MONJARÁS, Julio. “Evaluación del uso de fibras textiles como aislante térmico”
124
Invest Apl Innov 3(2), 2009
en funcionamiento un control ON-OFF, lo cual permite la acti-
vación temporal del circuito de calefacción, con ello se logra
una temperatura nominal que oscila alrededor de 30 °C.
En la Figura 7 se observa la cámara interna aislada y en la
Figura 8, la cámara interna con la muestra de fibra textil co-
locada.
Figura 7: Cámara interna aislada
Figura 8: Cámara interna con muestra de fibra textil colocada
Registro de la temperatura del aire frío y del aire caliente durante de laprueba
Para realizar la prueba con cada muestra de fibra textil , esta
se coloca, debidamente estirada, en la cara libre de la cámara
interna; se encienden el equipo de refrigeración de la cámara
externa así como el equipo de calefacción de la cámara inter-
na y se espera que alcance condiciones estables de tempera-
tura tanto interna como externamente.
Una vez alcanzadas las condiciones estables se proceda a
apagar el equipo calefactor de la cámara interna y se realiza
el registro de la temperaturas internas y externas de las cáma-
ras a partir de ese instante.
Para registrar las temperaturas se utiliza un juego de sensores
de temperatura, los cuales se conectan a una computadora a
través de una interfase Power link marca Pasco, y mediante el
Software Data Studio se van registrando las temperaturas tanto
interna como externa a lo largo del tiempo de enfriamiento
En la Figura 9 se observa las temperaturas registradas en la
computadora
Como el Software registra la temperatura a lo largo del tiempo,
se calculó el tiempo de enfriamiento para cada muestra entre
el rango de temperaturas de 30 a 10,5 °C y se pudo confeccio-
nar una tabla de tiempos de enfriamiento para analizar y dedu-
cir conclusiones de cuál es la muestra con mejores propiedades
aislantes.
Figura 9: registro de temperaturas internas y externas mediante el soft-
ware Data Studio
Medición del ahorro de energía consu-mida por el equipo calefactor de la cá-mara interna
Una vez identificada la muestra que posee mejores propieda-
des aislantes, se coloca en el espacio libre de la cámara interna;
se enciende el equipo de refrigeración de la cámara externa y el
de calefacción de la cámara interna, se espera que se alcancen
condiciones estables y se procede a medir la energía consumi-
da por el calefactor en un lapso de 2 horas. Después se hace lo
mismo con otra muestra con propiedades aislantes menores: el
ahorro de energía nos proporciona un indicador del potencial
de ahorro de energía al utilizar materiales con mejores propie-
dades aislantes.
MONJARÁS, Julio. “Evaluación del uso de fibras textiles como aislante térmico”
125
Invest Apl Innov 3(2), 2009
En la Figura 10 se muestra el equipo medidor de energía mar-
ca Fluke utilizado.
Figura 10: Medidor de energía utilizado
RESULTADOS
La curva de enfriamiento para la muestra de fibra textil 1 se
registra en la Figura 11.
Figura 11: Curva de enfriamiento muestra 1
Las mediciones de la investigación encomendada para las
19 muestras de fibra textil por la empresa se presentan en
la Tabla 1.
PRUEBAS EN FRÍO
Nú
mer
o d
e m
ues
tra Temperatura
detámara Interna (°C)
Temperatura de Cámara
externa (°C)
“Hu-medadrelativa
Tiempo de enfriamiento
Inic
ial
Fin
al
Pro
med
io
Pro
med
io
Seg
un
do
s
Min
uto
s
1 30.0 10.5 0.84 28.98 3289.5 64.83
8 30.0 10.5 0.94 32.20 2907.0 48.46
2 30.0 10.5 0.92 27.32 2296.8 38.28
16 30.0 10.5 1.05 28.98 2222.0 37.03
6 30.0 10.5 1.05 26.62 1615.5 26.93
3 30.0 10.5 0.97 27.86 1579.5 26.33
12 30.0 10.5 0.93 27.84 1513.0 25.22
4 30.0 10.5 1.08 27.49 1134.0 18.90
5 30.0 10.5 1.10 26.70 1034.0 17.23
18 30.0 10.5 1.07 27.79 989.5 16.49
19 30.0 10.5 1.00 27.35 908.5 15.14
17 30.0 10.5 1.02 27.21 698.5 11.64
11 30.0 10.5 0.78 27.80 673.5 11.23
7 30.0 10.5 0.97 24.72 551.0 9.18
10 30.0 10.5 1.19 28.60 361.0 6.02
9 30.0 10.5 1.19 28.62 320.5 5.34
14 30.0 10.5 0.97 24.95 285.0 4.75
13 30.0 10.5 1.95 24.91 137.5 2.29
15 30.0 10.5 1.30 26.44 132.5 2.21
Tabla 1: Mediciones para las 19 muestras de fibra textil
Para poder analizar cuál de las muestras tiene mejores propie-
dades aislantes, se confeccionaron las curvas de enfriamiento
en un solo diagrama, como se observa en la Figura 12.
Figura 12: Curvas de enfriamiento para las 19 muestras de fibra textil
El tiempo de enfriamiento de la cámara interior cuando se co-
loca como resistencia térmica cada una de las muestras de fibra
textil, se presenta en la Figura 13.
MONJARÁS, Julio. “Evaluación del uso de fibras textiles como aislante térmico”
126
Invest Apl Innov 3(2), 2009
Figura 13: Tiempo de enfriamiento para las 19 muestras de fibra textil
El ahorro de energía consumida por el equipo de calefacción
de la cámara interna con un volumen de 1.6 m3 cuando se
usa como medio de resistencia térmica dos muestras simila-
res en confección pero de propiedades aislantes diferentes se
muestra en la Tabla 2.
Muestra“Energía consu-mida KW/Hora”
“Tiempo Horas”
0.275 2
17 0.328 2
Diferencia 0.053 kw/ hora
Tabla 2: Ahorro de energía del sistema de calefacción
DISCUSIÓN
Evaluando las curvas de enfriamiento de la Figura 12, se ob-
serva que las dos que están por encima de las demás presen-
ta mejores propiedades aislantes, ya que la temperatura para
un mismo tiempo de enfriamiento es mayor. Además, se pue-
de observar que el rango de temperaturas en las que se tiene
mejor performance de resistencia térmica está por debajo de
los 14 °C para las muestras 1 y 8
Analizando la Figura 13, se observa que las muestras con
mayor tiempo de enfriamiento son las N.° 1 y 8. Respecto al
consumo de energía del equipo de calefacción de la cámara
interna, esta es menor cuando se utiliza la presentación N.° 1.
Sería necesario ampliar la investigación para cuantificar el
ahorro de energía en equipos de calefacción de edificaciones
reales, usando como medios aislantes materiales con mejores
propiedades térmicas (cortinas de ventanas, por ejemplo)
CONCLUSIONES
mayores cuando se colocan como resistencia térmica las
muestras N° 1 y 8. Las curvas de enfriamiento de estas
muestras siempre están por encima de las demás, lo que
permite concluir que son estas muestras las que tienen
mejores propiedades térmicas.
térmicas, se conseguirá un ahorro de energía en el fun-
cionamiento de los equipos de calefacción.
sirve como un método indirecto alternativo para identi-
ficar de una serie de muestras cual posee mejores propie-
dades aislantes sin la necesidad de calcular sus coeficientes
de conductividad térmica
REFERENCIAS
[1] CENGEL, Yunus A. Transferencia de Calor. México D.F. : 2o
Edición. 2004.
[2] Kreith, Frank y Bohn, Mark S. Principios de Transferencia de
Calor. México D.F.; 2001
Physical Properties of Textile Fi-
bres. o edición, 2008.
ACERCA DEL AUTOR
Julio Monjarás Salvo es Ingeniero Me-
cánico Electricista. Con estudios de
Maestría en Ing. Mecánica con Men-
ción en Turbomáquinas y en Gestión
Integrada del Conocimiento, el Capi-
-
nos por la Universidad Politécnica de
Madrid. Posee amplia experiencia en
el área de Ingeniería Térmica y Entre-
-
mación de Formadores por Competencias, Máquinas Térmicas,
Calderos y Seminarios de Calidad. Es inspector de Ensayos No
Destructivos por Ultrasonido Nivel 1, Certificado por Krautka-
mer. Actualmente es Jefe de Estudios Generales y Coordinador
de la Oficina de Calidad Educativa de Tecsup Arequipa.
MONJARÁS, Julio. “Evaluación del uso de fibras textiles como aislante térmico”
127
Invest Apl Innov 3(2), 2009
Rafael Vera
Modelo de gestión del conocimiento
Model of management knowledge
Resumen
El presente trabajo propone una forma de resolver el proble-
ma de la necesidad de gestionar los conocimientos en una or-
ganización para incrementar la calidad. Este estudio se plan-
tea a partir del recojo de las diferentes teorías administrativas
y sistémicas, pasando por comprender la complejidad de las
diferencias de pensar, decidir y actuar que tienen los ejecuti-
vos, como generadores de conocimiento. Son ellos quienes
necesitan conocer los resultados de sus acciones y de cómo
estas contribuyen a las fases de la cadena de producción.
El modelo se basa en la integración cognoscitiva de los si-
guientes conceptos: reglas de negocio, bases y flujos de co-
nocimientos. Para su aplicación, la metodología del cuadro
de mando integral se relaciona con los temas de las motiva-
ciones administrativas y la gestión de la calidad ISO 9001. La
aplicación del cuadro de mando integral enfocado en el mo-
delo de gestión propuesto se presenta como una solución al
problema de determinar el valor empresarial.
Abstract
The present work proposes a way of solving the problem of
the need of managing the knowledge in an organization to
increase the quality. This study is presented from gathering
the different administrative and systemic theories, happe-
ning for understanding the complexity of the differences of
thinking, deciding and operating that the executives have as
generators of knowledge. It’s them who need to know the re-
sults of his actions and of how these contribute to the phases
of the production line.
The model is based on the cognitive integration of the
following concepts: rules of business, bases and flows of
knowledge. For application, the methodology of the Balance
Scorecard is related to the topics of motivations of manage-
ment and management of the ISO quality 9001. The applica-
tion of the Balance Scorecard focused in the model of ma-
nagement proposed appears as a solution to the problem of
determining the managerial value.
Palabras claves
Modelo de gestión del conocimiento, metodología del cuadro
de mando integral, valor empresarial, reglas de negocio, bases
de conocimiento, flujos de conocimiento, gestión de la calidad
ISO 9001 y sistema de calidad
Key words
Model of management of the knowledge, methodology of the
picture of integral control, managerial value, rules of business,
bases of knowledge, flows of knowledge, management of the
ISO quality 9001 and quality system
INTRODUCCIÓN
Planteamiento de la investigación
En la actual coyuntura económica y empresarial en que la com-
petitividad es un “sine qua non” para la supervivencia de las
empresas, surge la necesidad de conocer en cada momento el
progreso de las actividades de valor como una forma de deter-
minar cuán competitiva es una empresa en el tiempo. Ello per-
mitirá realizar los ajustes y los cambios necesarios en la gestión,
determinando las actividades de valor con el fin de manejarlas
eficazmente y mejorar la competitividad de la empresa.
Definición del problema de investigación
Para definir el problema, se plantea responder la siguiente pre-
gunta general:
¿Cómo determinar y gestionar las actividades de valor en una
empresa con un mercado altamente competitivo, empleando
la gestión del conocimiento y una metodología estratégica de
gestión enfocada en el conocimiento?
128
Invest Apl Innov 3(2), 2009
ANTECEDENTES
La gestión del conocimiento se orientó a ser un paradigma
fundamental para el desarrollo de cualquier organización
inteligente. Actualmente se viene trabajando en sus funda-
mentos como base para lograr su aplicación y mejora en la
obtención de beneficios para las organizaciones.
Existen varias corrientes agrupadas en comunidades que
estudian la forma como integrar los conocimientos en las
actividades organizacionales. Dos de estas corrientes más
importantes son la facilitación del conocimiento y la ingenie-
ría del conocimiento, las cuales a continuación se expondrán
brevemente.
La corriente de la facilitación del conocimiento es sostenida,
entre otros pensadores, por Ikujiro Nonaka (FLCDC, p. vii),
quien expone que el conocimiento no se puede administrar,
solo propiciar. También argumenta que los administradores
deben abocarse a la creación de conocimientos, no a su con-
trol, y que la facilitación del conocimiento incluye el propiciar
relaciones y conversaciones, así como compartir el conoci-
miento en todos los rincones de la organización, e inclusive
más allá de fronteras geográficas y culturales.
La creación del conocimiento organizacional para la facilita-
ción del conocimiento supone cinco pasos destacados y con-
secutivos, los cuales son:
Elaborar un prototipo a partir de los conceptos justificados
Difundir y compartir el nuevo conocimiento en la organización
Con la visión de establecer un potencial creciente de los
conocimientos en la organización, la facilitación del conoci-
miento se concibe de forma circular considerando cinco fac-
tores de facilitación, que son los siguientes:
-
cimiento
Finalmente, la corriente de la facilitación del conocimiento sus-
tenta que la administración del conocimiento se centra en las
acciones de los trabajadores del conocimiento y no en los pro-
cesos humanos y cotidianos implicados.
Para el caso de la segunda corriente, la ingeniería del conoci-
miento, mencionaremos el trabajo de Amparo Alonso (IDCAM,
p 49), en el que propone un sistema con un software capaz de
soportar la representación explícita del conocimiento en un
dominio específico, y de explotarlo a través de los mecanismos
apropiados de razonamiento para proporcionar un comporta-
miento de alto nivel en la resolución de problemas. Esta idea se
fundamenta en los siguientes conceptos:
Tratan de pro-
blemas poco estructurados en los que se encuentran requi-
sitos subjetivos, entradas inconsistentes, incompletas o con
incertidumbre, y que no pueden ser resueltos aplicando
algoritmos clásicos o la investigación operativa.
Es la disciplina tecnoló-
gica que se centra en la aplicación de una forma sistémica,
disciplinada y cuantificable al desarrollo, funcionamiento y
mantenimiento de los Sistemas Basados en Conocimiento.
Los SBC tienen como uno de sus principales orígenes el desa-
rrollo de la inteligencia artificial (IA), lo que se puede apreciar en
su arquitectura en particular, tal como se presenta en la figura
siguiente.
Figura 1: Ingeniería del conocimiento, Amparo Alonso
Estas dos corrientes, no necesariamente antagonistas, pro-
ponen un estudio continuo del conocimiento desde dife-
rentes puntos de vista, contribuyendo al desarrollo de la
gestión del conocimiento y su utilización en beneficio de
las organizaciones.
VERA, Rafael. “Modelo de gestión del conocimiento”
129
Invest Apl Innov 3(2), 2009
VERA, Rafael. “Modelo de gestión del conocimiento”
OBJETIVOS
-
grando las reglas de negocio, las bases y los flujos de co-
nocimiento.
-
focado en el modelo de gestión del conocimiento para
determinar el valor en las actividades de una organiza-
ción.
CONTENIDO
Este trabajo de investigación se inicia desarrollando cuatro
etapas:
-
gral
DESARROLLO DE UN TABLERO DEMOTIVACIONES PARAPP LA ALL GESTIÓN
Como un esfuerzo de sistematizar la gestión, mencionaremos
el trabajo del las Motivaciones de las reglas de negocio, publi-
cado por Business Rules Community (SMBRM).
El tablero de motivaciones, basado en las Motivaciones de las
reglas de negocio, es como un tipo de panel de control de
accesos, que permite organizar sistematizadamente la ges-
tión con un sentido interactivo. Esto hace manejable tanto
la planificación de las motivaciones como el seguimiento de
los indicadores del cuadro de mando integral y, por último,
la aplicación de las iniciativas estratégicas planteadas en la
organización.
Este tablero tiene una división de tres bloques que interac-
túan entre sí. Estos son los siguientes:
1. Planificación. Es el primer bloque y está constituido por
la presentación de las principales motivaciones y por la
activación de los análisis fundamentales en la empresa.
Presenta las siguientes partes:
FODA (Fortalezas, Debilidades, Oportunidades,
Amenazas)
En el tablero, la primera parte se encuentra representada por
un BOTÓN de presentación y las dos siguientes, por dos BOTO-
NES de activación.
2. Seguimiento. Este segundo bloque es la columna princi-
pal del tablero y se encuentra constituido por la presenta-
ción de guías de actividades y por la actividad de control
de resultados. Presenta las siguientes partes:
En el tablero, la primera parte está representada por un BOTÓN
de presentación y la segunda parte, por un BOTÓN de activa-
ción.
3. Iniciativas. Este último bloque tiene su importancia en la
determinación de las acciones que se toman para lograr
los resultados deseados en la organización. Presenta la si-
guiente parte:
En el tablero está representado por un solo BOTÓN de activa-
ción.
Figura 2: Tablero de motivaciones
130
Invest Apl Innov 3(2), 2009
VERA, Rafael. “Modelo de gestión del conocimiento”
El tablero también considera las influencias del entorno y del
comportamiento organizacional de la empresa, representa-
das por el marco circundante del tablero.
Asimismo, funciona como una interfase básica de las activi-
dades de gestión, como parte de un mecanismo que se man-
tiene activo, formando parte de la solución, como veremos
más adelante.
DESARROLLO DE LALL GESTIÓN DE LALLCALIDAD
Entre los proyectos de mejora en toda organización se pue-
de mencionar la aplicación de las normas ISO 9001 versión
2000, como un sistema de calidad que está muy de moda ac-
tualmente. Viene desarrollándose desde los últimos 20 años,
basado en las enseñanzas de pensadores influyentes en el
mundo de la investigación de la calidad, como W. Edwars De-
ming y Joseph Juran. Esta teoría fue aplicada con gran éxito
en compañías como General Electric y Motorola. Un sistema
de calidad requiere contar con la disposición de todas las
personas que lleven a cabo actividades en la organización,
siempre respaldadas por la alta directiva. Involucra el apro-
piado manejo de los recursos para efectuar la realización del
producto. Continúa con la determinación de los procesos y la
transcripción de la documentación correspondiente. Luego,
realiza los controles mediante mediciones y análisis; por últi-
mo, aplica las mejoras propuestas, las cuales son el resultado
de los análisis. Como los procesos no son estáticos, es nece-
sario contar con la inteligencia de los trabajadores del cono-
cimiento para desarrollar innovaciones que originen nuevos
procesos, se optimicen los actuales o se eliminen los obsole-
tos; todo dentro de una visión de integración y valoración de
las actividades del proceso.
La gestión de la calidad, que emplea la norma internacional
ISO 9001 versión 2000, utiliza esta secuencia de etapas:
A continuación, se describen las responsabilidades y acciones
que deben realizarse en cada una de las etapas:
Responsabilidad de la dirección. Esta etapa inicia la secuen-
cia de calidad, asegurando el apoyo y la participación de la alta
dirección. Ese apoyo es fundamental para darle al sistema de
calidad el estatus de alta prioridad en la organización.
Gestión de Recursos.- Esta etapa involucra desde controlar la
provisión de los recursos hasta mantener un adecuado ambien-
te de trabajo:
Figura 3: Manual de la norma internacional ISO 9001: 2000
131
Invest Apl Innov 3(2), 2009
VERA, Rafael. “Modelo de gestión del conocimiento”
Realización del producto. En esta etapa se consideran los
aspectos para llevar a cabo los procesos de la realización del
producto, desde su planificación hasta su servicio posventa:
Control de los dispositivos de seguimiento y de medición
Medición, análisis y mejora. En esta etapa se planifican e im-
plementan los procesos de seguimiento, medición, análisis y
mejora del sistema de calidad.
DESARROLLO DE LALL METODOLOGÍAÍÍDEL CUADRO DE MANDO INTEGRAL
El cuadro de mando integral tiene cuatro perspectivas re-
lacionadas secuencialmente entre sí: Aprendizaje, Internos,
Clientes y Finanzas. Cada perspectiva requiere de un trabajo
en conjunto en la empresa, que empezará sustentando la for-
ma c´lomo sus unidades organizacionales se corresponden
con las perspectivas.
La metodología del cuadro de mando integral (CMI) que se
aplicará se divide en cinco fases secuenciales. El desarrollo de
cada fase requiere la elaboración y discusión en grupos de
trabajo motivados. Estas fases son las siguientes:
Figura 4: Metodología del Cuadro de mando integral
1. Definir el negocio
2. Realizar el análisis estratégico
3. Elaborar la guía estratégica
4. Definir los objetivos e indicadores
5. Realizar las iniciativas de mejora
La primera fase de la metodología se centra en definir la visión
y la misión de la empresa. La segunda fase realiza el análisis
FODA, que es una herramienta de planificación estratégica que
busca literalmente identificar las fortalezas, oportunidades,
debilidades y amenazas en el negocio. El análisis FODA utiliza
información, tanto del medio interno como del medio externo
de la empresa (incluidas las empresas de la competencia). La in-
formación obtenida de un análisis FODA es de mucha utilidad
para poder evaluar correctamente la situación actual de un ne-
gocio y tomar las acciones necesarias para lograr los objetivos
de la organización.
El balance de las perspectivas del cuadro de mando integral es-
tablece la base para construir el mapa estratégico que se pre-
senta en la tercera fase.
LA INFORMACIÓN DEL CUADRO DEMANDO INTEGRAL
La definición de los objetivos e indicadores son parte del desa-
rrollo de la cuarta fase de la metodología del cuadro de mando
integral. Sin embargo, cada perspectiva es una dimensión de la
organización que agrupa objetivos que las áreas se proponen
llevar a cabo y que deben contribuir a la obtención de valor
organizacional. Los objetivos deben ser mensurables, en can-
tidad unos, y en cualidad otros. Los objetivos dan origen a los
indicadores, que tienen generalmente una fórmula de clase
comparativa, es decir, comparan un evento o un resultado con
un todo o un deseo expresado en cantidad o cualidad.
Los objetivos pueden tener un conjunto de indicadores que
deberán ser medidos cada cierto tiempo. Estos indicadores
deben ser controlados para mantenerlos dentro de un rango
aceptable con respecto a los umbrales de riesgo existentes.
Cada uno debe tener una meta, con un valor referencial para
controlar y asegurar que se encuentre en una buena situación
estando cerca de este valor. Es necesario realizar proyecciones
de los indicadores de acuerdo con los recursos posibles. Esto
es propio y tiene que ser realista; la proyección es clave para
determinar el valor futuro en la organización.
132
Invest Apl Innov 3(2), 2009
VERA, Rafael. “Modelo de gestión del conocimiento”
Establecidos los objetivos, identificados los indicadores y
propuestas las metas, se requiere plantear las iniciativas para
lograr alcanzar dichas metas. Una iniciativa tiene que ser rea-
lista, pero debe surgir de la creatividad y de la innovación de
grupos de trabajo responsables de efectuar y/o controlar los
indicadores. Esta debe traducirse en estrategias y en tácticas
planteadas para ser ejecutadas por las áreas de la organiza-
ción.
Figura 5: Estructura de la información del CMI
Una iniciativa puede ser compartida por varios indicadores,
inclusive de diferentes objetivos o de diferentes perspectivas.
Esta puede ser de consideración general o específica, de un
área o de una unidad operativa en especial, lo que dependerá
de los recursos y decisiones de la organización.
LA JERARQUÍAÍÍ DEL MANEJO DE LOSINDICADORES EN EL CUADRO DEMANDO INTEGRAL
Para la revisión de los indicadores se debe considerar des-
de el cálculo de los valores de sus avances hasta los análisis
evolutivos y estadísticos que se puedan llevar a cabo para co-
rregir desaciertos o proponer mejoras. Para esta actividad se
deben tener determinados los niveles de responsabilidad de
acuerdo con la importancia de la información de cada indica-
dor. Esto requiere categorizar los indicadores, considerando
su importancia y alcance en la organización. Se puede utilizar
una pirámide de jerarquía de tres niveles, los cuales son:
Según donde se encuentren los orígenes de los indicadores,
sus valores fluirán de un lado a otro, debido a que varios de
ellos servirán de originadores o reforzadores de otros indica-
dores. Se procederá así hasta llegar, de forma consolidada, a
niveles mayores en la pirámide de jerarquía.
En la pirámide de jerarquía se pueden distinguir tres tipos de
indicadores de acuerdo con su uso dentro de la organización:
El indicador operativo. Surge de las labores cotidianas de
las áreas o grupos de trabajo técnico-operativos. Su utilidad
radica en controlar actividades propias de las áreas.
El indicador ejecutivo. Surge del seguimiento de los pro-
cesos o del conjunto de actividades relacionadas que in-
volucran áreas o grupos de trabajo diferentes. Su utilidad
radica en controlar actividades que involucran varias áreas
o unidades operativas, e, inclusive, procesos completos del
negocio.
El indicador gerencial. Surge de consolidar la informa-
ción obtenida del análisis de los dos tipos de indicadores
anteriores. Este indicador tiene estos usuarios principales:
directores, gerentes y jefes. Se utiliza para controlar el fun-
cionamiento general de la empresa aplicando cambios es-
tratégicos en actividades primarias de la organización.
Figura 6: Jerarquía del manejo de los indicadores del CMI
Los objetivos estratégicos de la empresa también deben ser re-
visados bajo los resultados de los indicadores relacionados con
cada uno. Sin embargo, esta revisión no será necesariamente
periódica. Es posible que, cuando se originen cambios estraté-
gicos en la empresa, se tenga que revisar los objetivos afecta-
dos para evaluar su permanencia, actualización o eliminación.
DESARROLLO DEL MODELO DE GES-TIÓN DEL CONOCIMIENTO
En esta etapa, la organización debe decidir formar un grupo de
trabajo con determinados profesionales del conocimiento para
que lleven a cabo este modelo con las siguientes actividades:
Determinar las primeras reglas de negocio. El modela-
miento comenzará describiendo las primeras reglas básicas
para los requerimientos, los cuales establecerán las condi-
ciones para los flujos de conocimiento que serán transmiti-
dos al universo de sistemas:
133
Invest Apl Innov 3(2), 2009
VERA, Rafael. “Modelo de gestión del conocimiento”
inversiones
diferenciación
y laborales
La integración de la plataforma de conocimientos.
En esta parte, se presenta la plataforma de conocimien-
tos dividida en cuatro sectores correspondientes con las
perspectivas del CMI (Aprendizaje, Internos, Clientes y Fi-
nanzas). Cada uno es como una subplataforma, pero jun-
tos confluyen hacia las reglas de negocio compartidas,
donde el flujo de conocimientos es alineado para una
gestión de forma integrada.
Figura 7: Integración de la plataforma de conocimientos
Establecer temas estratégicos para las bases de cono-
cimiento. La conformación de las bases de conocimien-
tos implica considerar temas estratégicos que tienen
como finalidad llevar a cabo acciones que involucran
tendencias administrativas y tecnológicas actuales. Se
propone considerar los siguientes temas estratégicos, re-
lacionados con cada subplataforma descrita:
Combinando las relaciones presentadas entre los temas es-
tratégicos con la plataforma de conocimientos, y la platafor-
ma de conocimientos con las áreas funcionales, se formará la
armazón de aprendizaje para el desarrollo de los conocimien-
tos en la empresa.
Ensamblar la estructura del flujo de conocimientos.
Teniendo desarrollada la plataforma de conocimientos,
para completar la estructura del flujo de conocimientos,
la empresa, con fines prácticos, clasificó su universo de
sistemas en las siguientes agrupaciones:
Figura 8: Armazón para desarrollar el conocimiento
Como se mencionó anteriormente, los flujos de conocimientos
van de la plataforma de conocimientos a los sistemas, pasando
por las reglas de negocio. Luego de ser asimilados en los siste-
mas, continúa el ciclo proporcionando nuevos conocimientos
que van a las bases de conocimientos, y así se mantiene el ciclo
virtuoso. Finalmente, se tiene armada la estructura del flujo de
conocimientos del modelo.
Figura 9: Estructura del flujo de conocimientos
En esta parte se juntan
las motivaciones con las expectativas de cada integrante
de la empresa, asumiendo un compromiso con el proyecto
e interiorizando que su participación es importante para
concluir con éxito. Desde un inicio y durante todo el pro-
yecto, es necesario mantener en constante evaluación a los
avances con las premisas para definir las estrategias, lo que
ayudará a la toma de decisiones en el modelo. Cada inte-
grante comprometido con el negocio es como una neu-
rona, al cual tiene que llegarle el impulso eléctrico debido
para participar en la creación del nuevo conocimiento, y es
el grupo o conjunto el que hará realidad esto. Es necesario
134
Invest Apl Innov 3(2), 2009
VERA, Rafael. “Modelo de gestión del conocimiento”
que, luego de entrar en producción el proyecto, se sigan
evaluando los elementos del modelo para su actualiza-
ción o enriquecimiento con nuevas reglas y nuevos co-
nocimientos. La integración de los elementos descritos
en este desarrollo proporcionará el modelo de gestión
del conocimiento de la solución.
Figura 10: Esquema del modelo de gestión del conocimiento
INTEGRACIÓN PARAPP LA ALL GESTIÓN DELALL CALIDAD A TRAVÉSVV DE LALL GES-TIÓN DEL CONOCIMIENTO
Para esta etapa se procede a la recopilación de los conoci-
mientos necesarios que están diseminados por toda la em-
presa. Luego, se pasa a la transcripción de los conocimientos
recopilados, tanto tácitos como explícitos, a documentos con
un formato estandarizado, para su tratamiento y almacena-
miento. Esta actividad se llevó a cabo con el inventariado de
la documentación correspondiente con lo dispuesto por las
normas del manejo de documentación del ISO 9001 versión
2000 que, en su cláusula 4.2.1, establece documentar y man-
tener el sistema de calidad como medio para asegurar que el
producto cumpla con los requisitos especificados. Contando
con esta base de conocimientos, producto del proceso de
documentación, se pasa a la implementación del cuadro de
mando integral donde se realiza una serie de entregables, los
cuales son productos del manejo de los conocimientos ya
formalizados.
La integración para el caso se establece con las relaciones de
los tres temas siguientes:
Las relaciones de la integración refuerzan mutuamente la
metodología del CMI con la gestión de la planificación y con
el sistema de calidad. Estas se llevan a cabo mediante el modelo
de gestión del conocimiento, cuya finalidad en esta etapa es
conseguir la determinación del valor en las actividades de la
empresa.
Figura 11: Esquema de la integración para la calidad
La determinación del valor organizacional se da en los grupos
de importancia de la organización. Las actividades de calidad
deben enfocarse en estos grupos y trabajar para satisfacer es-
tratégicamente los requerimientos y necesidades de cada uno
de ellos. Regularmente las organizaciones trabajan con cada
grupo de acuerdo con su rubro, sin descuidar ninguno de ellos.
Por ejemplo, para una empresa de telecomunicaciones podría
darse el siguiente orden:
En la integración para la calidad, mientras que las primeras re-
glas de negocio en la normativa ISO permiten describir correc-
tamente los procesos, es decir, le da a la empresa una orienta-
ción a los procesos, en el tablero de motivaciones de gestión
(TMG) se presenta la descripción de las reglas del negocio en la
parte de Diagramas de Guía (Políticas y Reglas de Negocio). En
la metodología del CMI, las principales reglas se encuentran en
relación con el control estricto de los indicadores. Esto requiere
que sean formulados de tal manera que se tengan que cumplir
con un valor que, como un semáforo, debe mantenerse dentro
de un rango positivo (verde), evitar caer en una zona de riesgo
(amarillo) y, sobre todo, evitar caer en la zona de peligro (rojo).
135
Invest Apl Innov 3(2), 2009
VERA, Rafael. “Modelo de gestión del conocimiento”
Figura 12: Esquema de la determinación del valor
Como se indicó anteriormente, la principal base de conoci-
mientos que se considera en el proyecto es la del sistema de
calidad de ISO en que los flujos de conocimiento permitirán
que la organización pueda reproducir las mejores prácticas
en diferentes áreas, teniendo como fuente de conocimientos
esta base. Esto tiene relación con el bloque de iniciativas del
tablero de motivaciones de gestión (TMG) donde se desarro-
llan las estrategias y las tácticas para mejorar los procesos o
para corregir actividades de algún proceso afectado; es de-
cir, cuando un indicador relacionado se encuentra en la zona
amarilla o en la zona roja. En la metodología del CMI, se en-
cuentra la fase “realizar iniciativas de mejora” donde se listan
las iniciativas que surgen como soluciones a los problemas
encontrados.
La integración para la calidad está dirigida a lograr la determi-
nación del valor en la empresa. Ambos están relacionados me-
diante el modelo de gestión del conocimiento.
Los conocimientos de los aspectos significativos de cada grupo
de importancia están acumulados en bases de conocimiento
de la organización, de las cuales fluyen los conocimientos ha-
cia las áreas correspondientes para su utilización. Esto también
involucra el uso de las reglas de negocio para alinear los flujos
de conocimientos con las motivaciones de la empresa, consi-
derando los aspectos condicionantes y a veces cambiantes de
cada grupo de importancia.
RESULTADOLL S
Implementación de la solución
La presente solución se implementa como parte del desarrollo
del sistema de calidad para la certificación ISO de una empresa
de telecomunicaciones. En seguida, se presentan los formatos
de los entregables de la aplicación de la metodología del cua-
dro de mando integral, ordenados mediante sus cinco fases.
Además se describen, para cada fase, sus respectivas relaciones
con los otros dos temas:
Primera fase:
CMI - Definir el negocio
TDM - Motivaciones del negocio
ISO - Responsabilidad de la dirección
ENTREGABLE 1: Definición del negocio
ENTREGABLE 2: Diagrama de la unidad de trabajo
Figura 13: Esquema de la integración para la gestión de la calidad a través de la gestión del conocimiento
136
Invest Apl Innov 3(2), 2009
VERA, Rafael. “Modelo de gestión del conocimiento”
Figura 14: Formato de entregable # 1 “Definición del negocio”
Figura 15: Formato de entregable # 2“Diagrama de la unidad de trabajo”
Segunda fase:
CMI - Realizar el análisis estratégico
TDM - Análisis FODA
ISO - Medición, análisis y mejoramiento
ENTREGABLE 3: Análisis interno
ENTREGABLE 4: Análisis externo
Tercera fase:
CMI - Elaborar la guía estratégica
TDM - Diagramas de guía
ISO - Responsabilidad de la dirección
ENTREGABLE 5: Síntesis estratégica
ENTREGABLE 6: Mapa estratégico
Cuarta fase:
CMI - Definir los objetivos e indicadores
TDM - Motivaciones de resultados
ISO - Medición, análisis y mejoramiento
ENTREGABLE 7: Matriz de selección de objetivos
ENTREGABLE 8: Ficha de indicador
Figura 16: Formato de entregable # 7“Matriz de selección de objetivos”
Quinta fase:
CMI - Definir las iniciativas
TDM - Iniciativas estratégicas
ISO - Medición, análisis y mejoramiento
ENTREGABLE 9: Relación de iniciativas
Figura 17: Formato de entregable # 8 “Ficha de indicador”
DESARROLLO DEL APLICATIVO DE LALLSOLUCIÓN
Análisis del aplicativo
La elaboración del aplicativo se comenzará con la recopilación
de los requerimientos de los futuros usuarios del aplicativo que
serán seleccionados y confrontados. Así, podemos decir que los
requerimientos corresponden a los siguientes cuatro puntos:
indicadores y ver la tendencia que presentan
-
dicadores de acuerdo con mejoras que se planteen
137
Invest Apl Innov 3(2), 2009
VERA, Rafael. “Modelo de gestión del conocimiento”
redes corporativas
los indicadores correspondientes
Especificación del proceso (EP)
El flujo de la información en la organización tiene dos aspec-
tos importantes, que son determinados por:
Especificación del control (EC)
Es necesario tener un control del acceso a los valores de los
indicadores. La formalización, a través de la asignación de res-
ponsabilidades y accesos para la interrelación con el aplicati-
vo, tiene los siguientes derechos:
Descripción de objetos
El aplicativo tiene dos módulos básicos: Evolución y Estadística.
Estos módulos son propuestos para apoyar al análisis, pre-
sentando la evolución periódica del indicador y su compor-
tamiento estadístico.
Diseño del aplicativo
El modelo de diseño presenta cuatro etapas que, para su me-
jor manejo, pueden realizarse de forma consecutiva:
Figura 18: Transformación del modelo de análisis en uno de diseño
Diseño de datos. En esta etapa se trata de transformar el mo-
delo de la información creado durante el análisis en la estructu-
ra de datos necesario para implementar el aplicativo.
Diseño arquitectónico. Esta representación de la estructura
modular del programa se puede obtener del modelo de aná-
lisis y de la interacción de los subsistemas definidos dentro del
modelo del análisis. La siguiente figura presenta el diseño ar-
quitectónico del aplicativo.
Diseño de interfases. Ventanas de acceso y de consulta de in-
dicadores:
Figura 19: Página de consulta de indicadores
Ventanas de consultas para análisis:
Ventana de Reportes:
Diseño procedimental. En esta etapa se produce la transfor-
mación de los elementos estructurales del aplicativo en una
descripción procedimental de los componentes de software.
Curva de Control. Con los valores obtenidos de los avances del
indicador (recomendable con los últimos 7 periodos), se obtie-
nen la media y la desviación estándar con las cuales se deter-
minan la zona de control de 2Zigma; la holgura, que está dada
por la media más 2Zigma; el valor de delta, que es la diferencia
entre el límite A y la holgura; y el rendimiento, que es el porcen-
taje de cuántas veces 2Zigma hay en delta.
En la interfase de consulta de reportes se presentan tres tipos
de consultas:
Indicadores no actualizados, con más de 10 días de tolerancia
zona roja
138
Invest Apl Innov 3(2), 2009
VERA, Rafael. “Modelo de gestión del conocimiento”
Indicadores que, estadísticamente, tienen que ser revisados
porque tienen una tendencia negativa o muy positiva, lo
que indica que no fueron correctamente dimensionados
Figura 20: Curva de control
Toda esta actividad también está sustentada en el modelo
de gestión del conocimiento, registrándose los nuevos cono-
cimientos surgidos en la documentación elaborada para el
sistema de calidad del ISO 9001 versión 2000.
CONCLUSIONES
El modelo de gestión del conocimiento presentado no tie-
ne la intención de ser un aplicativo más de la organización,
sino una forma de manejar los conocimientos en ella para
determinar el valor de las actividades del negocio.
-
porciona importantes beneficios a la empresa, entre los
cuales se pueden mencionar los siguientes:
– Las relaciones causa-efecto de las diferentes perspec-
tivas y el análisis de sus correspondientes indicadores
permiten identificar las acciones clave en la produc-
ción. Así, sobre la base de ello, se pueden eliminar los
“cuellos de botella” que retardan las operaciones en la
producción.
– El manejo de los indicadores erradicó el viejo para-
digma que afirmaba que las actividades, como las de
recursos humanos, no eran medibles y no contribuían
a generar valor a la organización. La contribución de
las personas a los grandes objetivos de la organización
está garantizada. Para ello, la empresa debe adoptar
estrategias en este tema y lograr transformar a las
personas del negocio en empleados capaces, hábiles,
versátiles, motivados, competentes, proactivos y com-
prometidos con la organización.
– La facilidad del seguimiento de los indicadores y su
contribución a la pronta toma de decisiones propor-
cionan eficacia y eficiencia al manejo de los procesos.
Esto se refleja en la satisfacción de los clientes y, con-
secuentemente, en una mejor situación financiera de la
empresa.
– Otra de las conclusiones expone que el CMI se presenta
como una herramienta que proporciona a los ejecutivos
información actual y les da la posibilidad de proyectar-
se para conseguir logros y evitar peligros en el ciclo de
vida de la empresa. Esta solución se sustenta en la inte-
ligencia de las personas que emplean estratégicamente
los sistemas y documentan sus acciones especiales, las
que al ser traducidas, interpretadas y analizadas se con-
vierten en conocimiento. Luego, este conocimiento es
almacenado en la base de conocimiento establecida, de
donde será transmitido para su uso en la empresa.
– El tablero de motivaciones de gestión se presenta como
un real reforzamiento a la aplicación de la solución. Es
como una interfaz interactiva que, sobre la base de las
primeras motivaciones del negocio (Misión, Visión), acti-
va los análisis de la situación actual y de los valores obte-
nidos (FODA y De Impacto). Luego, establece las políticas
y las reglas de negocio (Diagramas de Guía), lo que per-
mite realizar el seguimiento a las motivaciones de resul-
tados (Objetivos, Metas). Finalmente, sobre la base de los
conocimientos obtenidos del análisis de los indicadores,
se pueden aplicar las iniciativas estratégicas (Estrategias
y Tácticas) que permitirán lograr las metas establecidas,
asegurando así un control continuo y estratégico en la
disposición de obtener el valor agregado.
– La norma internacional ISO 9001 versión 2000, interre-
lacionada con el tablero de motivaciones y con la me-
todología del cuadro de mando integral, fortalece al
sistema de calidad, viabilizando el cumplimiento de las
cláusulas requeridas para la certificación de los proce-
sos de la empresa.
-
delo de gestión del conocimiento para ser adoptado por
cualquier organización con un proactivo modo de pensar.
REFERENCIAS
[1] SERVAT, Alexander. “Manual para documentar sistemas
de calidad [MPDSC]”. Editorial: Prentice Hall, 1era Edición,
2000, México
[2] SERVAT, Alexander. “Implantación estratégica del ISO 9001
versión 2000 [IMEDI]”. Editorial: Centrum, 1era Edición, 2003,
Lima – Perú
139
Invest Apl Innov 3(2), 2009
VERA, Rafael. “Modelo de gestión del conocimiento”
[3] ALONSO BETANZOS, Amparo. “Ingeniería del conoci-
miento, aspectos metodológicos [IDCAM]”. Madrid – Es-
paña: Editorial: Prentice Hall, 1era Edición, 2004.
[4] ARGYRIS, Chris. “Sobre el aprendizaje organizacional
[SEAOR]”. México D.F.: Editorial: Oxford, 1era Edición,
2001.
[5] CHUN WEI CHOO. “La organización inteligente [LORIN]”
México D.F.: Editorial: Oxford, 1era Edición, 2000
[6] COHEN , Daniel y ASIN , Enrique. “Sistemas de informa-
ción para los negocios [SIPLN]”. México D.F.: Editorial: Mc-
Graw Hill, 3era Edición, 2000,
[7] MITNTZBERG, Henry. “El proceso estratégico [EPRES]”.
México: Editorial: Pearson, 1era Edición, 2000
[8] KUME, Hitoshi. “Herramientas estadísticas básicas para
el mejoramiento de la calidad [HEBMC]”. Bogotá – Co-
lombia: Editorial: Norma, 1era Edición, 2002
[9] A. O´BRIEN, JAMES. “Sistemas de información gerencial
[SIGR2]”. Bogotá – Colombia: Editorial: Mc Graw Hill, 4ta
Edición, 2001
[10] JERRY HONEYCUTT. “Así es la gestión del conocimiento
de Microsoft [AELGC]”
Editorial: McGraw Hill, 1era Edición, 2001, Madrid – España
[11] KOTTER , John P. “Las nuevas reglas de los negocios
[NRELN]”. México: Editorial: Prentice Hall, 1era Edición,
2000
[12] TARZIJÁN M. , Jorge. “Organización industrial para la es-
trategia empresarial [OIPEE]”. Buenos Aires – Argentina:
Editorial: Prentice Hall, 1era Edición, 2001
[13] VIEDMA MARTÍ, José María. “La gestión del conocimienÍ -
to y del capital intelectual [GCYCI]”. Cataluña – España:
Editorial: UPC, 1era Edición, 2001
[14] DAVIS, Keith y NEWSTROM, John. “Comportamiento hu-
mano en el trabajo [CHEET]”. México D.F.: Editorial: Mc” -
Graw Hill, 10ma Edición, 2000
[15] LAUDON, Kenneth C. y LAUDON, JANE P. “Sistemas de
información gerencial [SIGR1]”. México: Editorial: Pear-
son, 8va Edición, 2004
[16] BUCKINGHAM, Marcus & COFFMAN, Curt. “Primero, rom-
pa todas las reglas [PRTLR]”. Bogotá – Colombia: Edito” -
rial: Norma, 1era Edición, 2000
[17] NILSSON, Nils J. “Inteligencia artificial, una nueva síntesis
[IAUNS]”. Madrid - España: Editorial: McGraw Hill, 1era Edi-
ción, 2001
[18] DRUCKER, Peter F. “La gerencia en la sociedad del futuro
[LGESF]”. Bogotá - Colombia: Editorial: Norma, 1era Edi-
ción, 2002
[19] DRUCKER, Peter F. “La administración, la organización ba-
sada en la información, la economía, la sociedad [AOIES]”
Bogotá - Colombia: Editorial: Norma, 1era Edición, 1996,
[20] SENGE, Peter. “La danza del cambio [LDZDC]”. Bogotá -
Colombia: Editorial: Norma, 1era Edición, 2000
[21] KAPLAN, Robert S. y NORTON, David P. “Cómo utilizar el
cuadro de mando integral [CUCMI]”. Barcelona - España:
Editorial: Gestión 2000, 2001
[22] CARBALLO, Roberto. “Innovación y gestión del conoci-
miento [IYGDC]”. España: Editorial: Díaz de Santos, 1era
Edición, 2006
[23] SHEPARD, STEVEN. “Convergencia de las telecomunica-
ciones [CDLTL]”. Madrid - España: Editorial: McGraw Hill,
1era Edición, 2002
[24] THE BUSINESS RULES GROUP. www.businessrulesgroup.org
“Organizing business plans [SMBRM]”. Estados Unidos: Edi-
torial: Propia, 1era Edición, 2001
[25] VON KROGH, ICHIJO y NONAKA. “Facilitar la creación de
conocimiento [FLCDC]”. México D.F.: Editorial: Oxford, 1era
Edición, 2000
[26] GATES, William H. “Los negocios en la era digital [LNEDI]”
Barcelona - España: Editorial: Plaza & Janes, 1era Edición,
2000
ACERCA DEL AUTORL
Candidato a Doctor en Administra-
ción. Máster en Ciencias en Sistemas
de Información e Ingeniero Electri-
cista. Especialista en optimización y
sistematización de procesos con apli-
cación de metodologías de gestión y
transferencia de conocimientos. Ac-
tualmente, responsable del laborato-
rio de electricidad del Departamento
de Electrotecnia de Tecsup. Miembro de la IEEE y del CIP.
140
Invest Apl Innov 3(2), 2009
Roberto Ramírez Otárola
Efecto del bicarbonato de sodio y del aceite vegetalsobre las epidemias de en
pepinillo y en tomate.
Effect of sodium bicarbonate and vegetal oil on thecontrol of in cucumber and
in tomato.
RESUMEN
Fueron conducidos dos ensayos en un campo experimental
agrícola ubicado en Sao Paulo, Brasil. Se utilizó un diseño es-
tadístico de Bloques Completamente al Azar con 4 repeticio-
nes.
En el primer ensayo, el objetivo fue evaluar la eficiencia de
aplicaciones semanales de bicarbonato de sodio (5, 10 y 15
g/l), comparados con el ingrediente activo benomyl (0,5 g/l),
para el control del hongo Leandria momordicae y su efecto
en el rendimiento del pepinillo híbrido Premier. Se realizaron
5 evaluaciones de la severidad de la enfermedad, las cuales
se iniciaron 28 días después del transplante, siendo repetidas
cada 14 días. Se determinaron las curvas de desarrollo epi-
demiológico de la enfermedad y la productividad del cultivo
en cada tratamiento. Se concluyó que: a) la cuarta hoja de las
plantas es la mas adecuada para el estudio epidemiológico
de esta enfermedad; b) el benomyl disminuye la tasa de de-
sarrollo epidemiológico de la enfermedad; c) el bicarbonato
de sodio no afectó significativamente la tasa de desarrollo de
la enfermedad, aun cuando a dosis de 10 g/l proporcionó un
aumento significativo del rendimiento del cultivo, equivalen-
te al del benomyl .
En el segundo ensayo, el objetivo fue evaluar la eficiencia
de aplicaciones semanales de bicarbonato de sodio (10 g/l),
Natural Oil - aceite vegetal de uso agrícola (10 ml/l) y el in-
grediente activo iprodione (0,75 g/l), aplicados aisladamente
ó en combinaciones de a dos productos, para el control del
hongo Alternaria solani y su efecto en el rendimiento del toi -
mate Jumbo AG-592. Se realizaron 5 evaluaciones de la severi-
dad de la enfermedad, las cuales se iniciaron 39 días después
del transplante, siendo repetidas cada 14 días inicialmente y
luego cada 7 días. Se determinaron las curvas de desarrollo epi-
demiológico de la enfermedad y la productividad del cultivo
en cada tratamiento. Se concluyó que: a) la quinta hoja de las
plantas es la mas adecuada para el estudio epidemiológico de
esta enfermedad; b) el iprodione presentó efecto positivo en el
control del patógeno en estudio cuando fue aplicado solo o en
combinación con bicarbontato de sodio o aceite vegetal; c) no
se encontraron diferencias estadísticas significativas en el con-
trol de Alternaria entre aplicaciones de Iprodione ó bicarbona-
to de sodio aplicados aisladamente; d) la mayor productividad
y número de frutos se obtuvo con los tratamientos: bicarbona-
to de sodio, iprodione y aceite vegetal + iprodione.
Abstract
Two experiments were carried out under field conditions in
Sao Paulo State, Brazil. The statistical design was randomized
blocks, replicated four times.
In the first experiment, the efficiency of different levels of so-
dium bicarbonate (0,5, 1 and 1,5 %) compared with benomyl
(0.05%), sprayed weekly, on the control of cucumber net spot
(Leandria momordicae) , were studied on cucumber cv Premier.
The disease severity was rated, five times, at 14 days interval
which, started 28 days after the transplanting date, and the epi-
demiological development curves were determined. The Fruit
yield of each experimental plot was also evaluated. The results
showed that the evaluation of the disease severity in the fourth
leandria momordicaealternaria solani
141
Invest Apl Innov 3(2), 2009
RAMÍREZ, Roberto. “Efecto del bicarbonato de sodio y del aceite vegetal sobre las epidemias de leandria momordicae en pepinillo y alternaria solani en tomate”
leaf were more adequate for studying the cucumber net spot
epidemics. Disease severity was lower in benomyl treatment.
The highest fruit yields were obtained with the treatments
benomyl and sodium bicarbonate (1 %), with no statistical di-
fferences among them.
In the second experiment, the efficiency of sodium bicarbo-
nate (1 %), Natural Vegetable oil (1 %) and iprodione (0,075
%), sprayed weekly alone or in combination of two, on the
control of tomato early blight (Alternaria solani(( ) , were studied
on tomato cv Jumbo AG-592. Disease severity was rated at 14
days interval (the first five) or 7 days interval (the last two eva-
luations), which started 39 days after transplanting date, and
the epidemiological development curves were determined.
The Fruit yield of each experimental plot was also evaluated.
The results showed that the evaluation of the disease severity
in the fifth leaf were more adequate for studying the tomato
early blight epidemics. Iprodione plus sodium bicarbonate or
vegetable oil provided better disease control. Iprodione and
sodium bicarbonate provided also efficient control, although
with no statistical differences among them. Sodium bicarbo-
nate, iprodione and vegetable oil plus iprodione resulted in
the highest yield and fruit number.
Palabras clave
Leandria momordicae, Alternaria solani, fungicidas agrícolas
de baja toxicidad, bicarbonato de sodio, aceite vegetal.
Key words
Leandria momordicae, Alternaria solani, low toxicity agricultu-
re fungicides, sodium bicarbonate, vegetable oil.
INTRODUCCIÓN
Los cultivos hortícolas son exigentes en altas inversiones,
siendo el alto consumo de pesticidas un componente muy
importante del costo de producción de los mismos. Estas
aplicaciones de pesticidas pueden originar consecuencias
dañinas para el ambiente, para el consumidor y para los apli-
cadores de pesticidas. Por ejemplo, en el cultivo del tomate
en Brasil, la tasa de consumo de fungicidas fue reportada en
23,3 kg/ha campaña; el mayor valor de consumo entre todos
los cultivos producidos en el país [6].
Investigaciones recientes han demostrado que es posible la
reducción de esos consumos de modo significativo median-
te la implementación de programas de Manejo Integrado de
Plagas, sin disminuir los rendimientos ni perjudicar la apa-
riencia de los productos cosechados [7], [4].
En la horticultura alternativa, así como en la convencional, exis-
te una preocupación por generar alternativas que permitan la
reducción de los fungicidas convencionales. Una línea de inves-
tigación busca la utilización de productos biocompatibles (bi-
carbonatos y aceites) [2], [8] como los fungicidas. Tales produc-
tos, debido a su baja toxicidad en mamíferos y su mínimo daño
ambiental, son una alternativa muy interesante en el control de
enfermedades en hortalizas.
El presente estudio fue realizado con el objetivo de evaluar, en
condiciones de infección natural, el efecto del bicarbonato de
sodio en el desarrollo del hongo Leandria momordicae en pe-
pinillo (Cucumis sativus L.), y del bicarbonato de sodio y aceite
vegetal en el desarrollo del hongo Alternaria solani en tomatei
(Lycopersicon esculentum Mill). Adicionalmente, otro objetivo
fue evaluar el efecto de las enfermedades sobre el rendimiento
de dichos cultivos.
FUNDAMENTOS
Como método de control de enfermedades de plantas, se ha
utilizado exclusivamente fungicidas, a pesar de sus problemas
de contaminación, generación de resistencia y costos elevados.
Actualmente, existe una corriente de investigación que busca
identificar tecnologías de producción ecológicamente mas
adecuadas. En esta línea, el uso de bicarbonatos y aceites se ha
tornado en una alternativa interesante para el control de en-
fermedades fungosas. Los bicarbonatos no son eficientes como
tratamiento de prevención de hongos. Su acción es fungicida al
contacto directo con los patógenos, inhibiendo la formación y
germinación de conidias de diferentes hongos [2], [8].
Varios polímeros (aceites vegetales, aceites minerales, antitrans-
pirantes, ceras y siliconas), han sido utilizados como barrera na-
tural sobre la superficie de las hojas contra la penetración del
tubo germinativo de ciertos hongos patogénicos. Estos polí-
meros no son fitotóxicos, son permeables a gases y biodegra-
dables; pudiendo inclusive ser utilizados en combinación con
fungicidas convencionales. Existen reportes de mejora de la efi-
ciencia en el control de los hongos Alternaria solani y i Septoria
lycopersici en tomate, mediante el uso del antitranspirante GZMi
combinado con el fungicida Carbendazim [1].
La eficiencia fungicida del bicarbonato de sodio y ciertos acei-
tes aumentó cuando estos productos fueron usados en combi-
nación, debido al incremento de la adherencia del ión bicarbo-
nato en las hojas [2], [8].
Por otro lado, el Leandria momordicae en pepinillo y el Alter-
naria solani en tomate son dos patógenos que causan muy i
142
Invest Apl Innov 3(2), 2009
RAMÍREZ, Roberto. “Efecto del bicarbonato de sodio y del aceite vegetal sobre las epidemias de leandria momordicae en pepinillo y alternaria solani en tomate”
importantes pérdidas, principalmente en el Brasil. El control
convencional de estas enfermedades no es eficiente, pues
ocasionan pérdidas de cosecha superiores al 50% [3].
PROCEDIMIENTO
Los dos experimentos (uno con pepinillo y otro con tomate)
fueron conducidos en condiciones de campo experimental
agrícola ubicado en Jaboticabal, Estado de Sao Paulo, Brasil
(21° 45´ 20” de latitud sur y 48° 45´ 58” de longitud oeste). El
clima de la región, conforme a la Clasificación de Köpen es
de tipo Cwa subtropical, con lluvias de verano, presentando
precipitación media anual de 1400 mm y temperatura media
anual de 22°C.
El suelo del campo experimental es un Latosol Rojo Oscuro –
fase arenosa. Los resultados del análisis químico de suelos a
20 cm de profundidad muestran una alta fertilidad (Tabla 1)
Experimento 1: Efecto del bicarbonato de sodio sobre la
epidemia de Leandria momordicae en pepinillo.
Se utilizó el pepinillo híbrido Premier, altamente susceptible
a Leandria momordicae, pero resistente al resto de enferme-
dades fungosas. Se utilizaron plantines de 12 dias de edad en
vivero. La fertilización del suelo fue 220- 400- 240 kg/ha de N,
P2O5 y K2O respectivamente, de acuerdo a los requerimientos
resultantes del análisis de suelos.
Los tratamientos fueron:
1 Testigo
2 Benomyl (0,5 g/l)
3 Bicarbonato de sodio (5 g/l)
4 Bicarbonato de sodio (10 g/l)
5 Bicarbonato de sodio (15 g/l)
Desde el día 22 luego del transplante, las plantas fueron trata-
das semanalmente, hasta completar 9 aplicaciones.
Los 5 tratamientos fueron distribuidos en un diseño de Bloques
Completamente al Azar con 4 repeticiones, totalizando 20 par-
celas. Cada parcela estuvo constituida por 40 plantas.
Para determinar la evolución de la enfermedad, se hicieron 5
evaluaciones. Estas se iniciaron 28 días después del transplante
y fueron repetidas cada 14 días. Las evaluaciones fueron basa-
das en el porcentaje del área foliar afectada (escala de notas
del 1 a 6), de acuerdo con la metodología desarrollada para el
cultivo de la papa [6].
Durante la cosecha, las dos hileras centrales de cada parce-
la fueron usadas para la determinación de la producción, así
como número y peso promedio de frutos comerciales.
Figura 1. Escala diagramática: 0 %, 2,5 %, 12 %, 25 %, 50 % y mas de 50 %
de área foliar lesionada por Leandria momordicae, que corresponden a
los índices de severidad de la enfermedad 1, 2, 3, 4, 5 y 6. [1].
Experi-mento
P resina M.O. pH em K Ca Mg H + Al SB T V
mg. dm-3
g.dm-3 Cacl2 mmolc.dm-3 %
1. Pepi-
nillo100 34 6,0 5,3 47 23 25 75 100 75
2. Tomate 66 32 5,9 3,1 80 25 10 11 118 92
Tabla 1. Resultado del análisis químico del suelo experimental. Jaboticabal, Sao Paulo.
143
Invest Apl Innov 3(2), 2009
RAMÍREZ, Roberto. “Efecto del bicarbonato de sodio y del aceite vegetal sobre las epidemias de leandria momordicae en pepinillo y alternaria solani en tomate”
Experimento 2: Efecto del bicarbonato de sodio y aceite
vegetal sobre la epidemia de Alternaria solani en tomate.i
Se utilizó el tomate cultivar Jumbo AG-592, que presenta
plantas de crecimiento indeterminado para consumo fresco.
Este cultivar es altamente susceptible a Alternaria solani, pero
resistente al resto de enfermedades fungosas. Se utilizaron
plantines de 32 días de edad en vivero. La fertilización del
suelo fue 200 - 400 - 240 kg/ha de N, P2O5 y K2O respectiva-
mente, de acuerdo a los requerimientos resultantes del aná-
lisis de suelos.
Los tratamientos fueron:
1 Testigo
2 Iprodione (0,75 g/l)
3 Bicarbonato de sodio (10 g/l)
4 Aceite vegetal (10 ml/l)
5 Bicarbonato de sodio (10 g/l) + aceite vegetal (10 ml/l)
6 Bicarbonato de sodio (10 g/l) + Iprodione (0,75 g/l)
7 Aceite vegetal (10 ml/l) + Iprodione (0,75 g/l)
El aceite vegetal usado fue Natural Oil (Arbole Agrícola y Co-
mercio Ltda.)
Desde el día 12 luego del transplante, las plantas fueron tra-
tadas semanalmente, hasta completar 12 aplicaciones.
Los 7 tratamientos fueron distribuidos en un diseño de Blo-
ques Completamente al Azar con 4 repeticiones, totalizando
28 parcelas. Cada parcela estuvo constituida por 40 plantas.
Para determinar la evolución de la enfermedad, se hicieron
7 evaluaciones. Estas se iniciaron 39 días después del trans-
plante y fueron repetidas cada 14 días (las 5 primeras) o cada
7 días (las 2 últimas). Las evaluaciones fueron basadas en el
porcentaje del área foliar afectada (escala de notas de 1 a 5),
de acuerdo con la metodología desarrollada para el cultivo
del tomate [5].
Durante la cosecha, las dos hileras centrales de cada parce-
la fueron usadas para la determinación de la producción, así
como el número y peso promedio de los frutos comerciales.
Análisis epidemiológico
Se realizó un análisis de regresión lineal en cada ensayo, con-
siderando los datos originales y la transformación logística,
del modo siguiente:
Datos originales (x)
Transformación logística = ln (x/(1-x));
Los datos originales fueron transformados en valores mayores a
0 y menores a 1 (proporción de enfermedad)
Para cada hoja evaluada (3 en pepinillo y 4 en tomate), cada
transformación (2) y cada tratamiento (5 en pepinillo y 7 en to-
mate) se determinó una ecuación de recta con la forma:
x = a + bt
Donde:
x = proporción de la enfermedad
a = cantidad de inóculo inicial
b = tasa aparente de infección
t = tiempo desde el inicio de la enfermedad
Figura 2. Escala diagramática: 0 %, 2,5 %, 12 %, 25 % y 50 % de área foliar
lesionada por Alternaria solani, que corresponden a los índices de severi-
dad de la enfermedad 1, 2, 3, 4 y 5. [5].
144
Invest Apl Innov 3(2), 2009
RESULTADOLL S
A. Efecto de los métodos de control enla severidad de las enfermedades
Pepinillo
En pepinillo, los mayores valores de R2 fueron obtenidos me-
diante la determinación de la severidad de la enfermedad
en la cuarta hoja a partir del ápice de la planta. Se considera
entonces a esta hoja como la más adecuada para el estudio
epidemiológico de Leandria momordicae (Tabla 2)
Valores de Coeficientes de determinación de las ecuaciones de las curvas epidemiológicas obtenidas evaluando la cantidad de enfermedad a través de la
severidad de la misma
Tratamiento N.° Hoja Log i t
R*2
Testigo 4 0,919
5 0,917
6 0,916
Benomyl 4 0,837
(0,5 g/L) 5 0,810
6 0,890
Bicarbonato de
Sodio4 0,951
(5 g /L) 5 0,948
6 0,930
Bicarbonato de
Sodio4 0,953
(10 g /L) 5 0,941
6 0,936
Bicarbonato de
Sodio4 0,944
(15 g /L) 5 0,936
6 0,929
Promedio de 4°
hoja0,921
Promedio de 5°
hoja0,910
Promedio de 6°
hoja0,920
Promedio General 0,917
Tabla 2: Determinación de la hoja mas adecuada para el estudio epide-
miológico de Leandria momordicae
De acuerdo a los datos de la Tabla 3, se encuentran diferencias
significativas entre los valores de B para todos los métodos de
control cuando fueron comparados con el Benomyl (0,5 g/l), el
cual tuvo el menor valor de B del ensayo. Se concluye que el
Benomyl influye significativamente en la disminución del desa-
rrollo del hongo en comparación con el resto de tratamientos.
Entre las dosis de bicarbonato de sodio la de 10 g/l mostró el
menor valor de B.
Tratamiento
Ecuación / curva
Valores de los Parámetros Estadísticos
Epidemio-lógica
F p/ reg. L in R
TestigoY = -2,8412 +
0,1399 x54,95** 0,868
Benomyl (0,5
g/L)
Y = -1,7230 +
0,0292 x68,34** 0,890
Bicarbonato
de Sodio (5
g/L)
Y = -2,8327 +
0,1267 x45,01** 0,845
Bicarbonato
de Sodio (10
g/L)
Y = -2,8415 +
0,1257 x44,18** 0,843
Bicarbonato
de Sodio (15
g/L)
Y = -2,8357 +
0,1299 x57,05** 0,872
** significativo a nivel de 1% de probabilidad
Tabla 3: Efecto de los diferentes métodos de control en la curva epidemio-
lógica de Leandria momordicae
Tomate
En tomate, los mayores valores de R2 fueron obtenidos me-
diante la determinación de la severidad de la enfermedad en la
quinta hoja a partir del ápice de la planta. Se considera enton-
ces a esta hoja como la mas adecuada para el estudio epide-
miológico de Alternaria solani (Tabla 4).i
Valores de Coeficientes de determinación de las ecuacio-nes de las curvas epidemiológicas obtenidas evaluando la cantidad de enfermedad a través de la severidad de la
misma
Tratamiento N° Hoja Log i t
R*2
Testigo 4 0,965
5 0,955
6 0,950
7 0,944
Iprodione 4 0,947
(0,75 g/l) 5 0,939
RAMÍREZ, Roberto. “Efecto del bicarbonato de sodio y del aceite vegetal sobre las epidemias de leandria momordicae en pepinillo y alternaria solani en tomate”
145
Invest Apl Innov 3(2), 2009
6 0,966
7 0,960
Bicarbonato de
Sodio4 0,962
(10 g /l) 5 0,972
6 0,949
7 0,945
Aceite vegetal 4 0,962
(10 ml /l) 5 0,954
6 0,940
7 0,930
Bicarbonato de
Sodio4 0,911
(10 g /l) + aceite
vegetal (10 ml/l)5 0,947
6 0,903
7 0,911
Bicarbonato de
Sodio4 0,839
(10 g /l) + Iprodio-
ne (0,75 g/l)5 0,900
6 0,930
7 0,951
Aceite vegetal (10
ml/l) + 4 0,952
Iprodione
(0,75 g/l)5 0,958
6 0,940
7 0,958
Promedio 4° hoja 0,934
Promedio 5° hoja 0,946
Promedio 6° hoja 0,940
Promedio 7° hoja 0,943
Promedio General 0,941
Tabla 4: Determinación de la hoja mas adecuada para el estudio epide-
miológico de Alternaria solani
De acuerdo a los datos de la Tabla 5, los valores de B muestran
que los tratamientos 6 (bicarbonato de sodio 10 g/l + Ipro-
dione 0,75 g/l); 7 (aceite vegetal 10 ml/l + Iprodione 0,75 g/l)
y 2 (Iprodione 0,75 g/l) no tuvieron diferencias significativas
entre si presentando los menores valores de B. Se constató
el efecto positivo del Iprodione y el bicarbonato de sodio en el
control del patógeno.
Tratamiento
Ecuación / curva
Valores de los Parámetros Estadísticos
Epidemioló-gica
F p/ reg. L in R
TestigoY = -2,8449 +
0,1015 x63,91** 0,843
Iprodione
(0,75 g/l)
Y = -2,2974 +
0,0666 x43,65** 0,792
Bicarbonato
de Sodio
(10g/l)
Y = -2,6772 +
0,0893 x61,95** 0,839
Aceite vege-
tal (10 ml/l)
Y = -2,8439 +
0,1012 x63,98** 0,843
Bicarbonato
de Sodio
(10g/l) +
aceite vege-
tal (10ml/l)
Y = -2,9056 +
0,1060 x64.48** 0,844
Bicarbonato
de Sodio
(10g/l) +
Iprodione
(0,75 g/l)
Y = -2,0911 +
0,0567 x47,79** 0,805
Aceite vege-
tal (10 ml/l)
+ Iprodione
(0,75g/l)
Y = -1,9429 +
0,0490 x123,70** 0,909
** significativo a nivel de 1% de probabilidad
Tabla 5: Efecto de los diferentes métodos de control en la curva epidemio-
lógica de Alternaria solani
B. Efecto de los métodos de control en la producción de los cultivos
Pepinillo
La producción de frutos comerciales de pepinillo fue signi-
ficativamente afectada por el método de control de Leandria
momordicae (Figura 3). El producto Benomyl fue el que propor-
cionó mejor resultado de control, aun sin mostrar diferencias
significativas en relación al control con bicarbonato de sodio
(10 g/l). La mejor dosis de este producto alternativo fue de 10
g/l, que fue la única dosis significativamente superior en pro-
ductividad (38 %) en relación al tratamiento testigo.
La dosis de 15 g/l de bicarbonato produjo una disminución en
el rendimiento del cultivo, lo cual podría deberse al efecto fito-
tóxico de dicha dosis.
RAMÍREZ, Roberto. “Efecto del bicarbonato de sodio y del aceite vegetal sobre las epidemias de leandria momordicae en pepinillo y alternaria solani en tomate”
146
Invest Apl Innov 3(2), 2009
Benomyl fue significativamente superior en número de frutos
comerciales. Entre los tratamientos con bicarbonato, la dosis
de 10 g/l produjo mayor número de frutos.
Figura 3: Efecto de los diferentes métodos de control de Leandria mo-
mordicae en la producción de frutos comerciales en pepinillo
El peso promedio de los frutos comerciales, no fue afectado
por el método de control utilizado (Tabla 6).
Tratamiento
Frutos Comerciales
Número (milla-res/ha)
Peso Promedio (g)
Testigo 105,5 b 147,5 a
Benomyl (0,5 g/l) 180,5 a 150,0 a
Bicarbonato de
Sodio (5 g/l)110,0 b 142,5 a
Bicarbonato de
Sodio (10 g/l)140,0 b 152,5 a
Bicarbonato de
Sodio (15 g/l)119,0 b 152,5 a
D.M.S. (5%) 1,64 0,19
C.V. 6,41 5,62
Tabla 6: Efecto de los diferentes métodos de control de Leandria mo-
mordicae en el número y peso medio de frutos comerciales de pepinillo
Tomate
La producción de frutos comerciales de tomate no fue signi-
ficativamente afectada por los métodos de control de Alter-
naria solani (Figura 4). Los tratamientos que mostraron la mai -
yor eficiencia en el control del desarrollo de la enfermedad
(bicarbonato de sodio, iprodione, aceite vegetal + iprodione,
bicarbonato de sodio + iprodione), fueron los mismos que
generaron los mayores rendimientos. El bicarbonato de sodio
aumentó 36% la producción, al ser comparado con el testigo.
Este resultado sugiere que esta sustancia es promisoria para
el control de la enfermedad, de modo que se sugiere realizar
nuevos estudios.
No se encontró efecto positivo del bicarbonato de sodio ó del
aceite vegetal en el rendimiento, al ser mezclados con iprodio-
ne. El aceite vegetal no mostró eficiencia en el control de la en-
fermedad.
El peso promedio de los frutos comerciales, no fue afectado por
el método de control utilizado (Tabla 7).
El mayor número de frutos comerciales se constató en los tra-
tamientos que mostraron las mayores producciones, pero sin
existir diferencias significativas.
Figura 4: Efecto de los diferentes métodos de control de Alternaria solani
momordicae en la producción de frutos comerciales de tomate
Tratamiento
Frutos Comerciales
Número (milla-res/ha)
Peso Promedio (g)
Testigo 496,0 a 100 a
Iprodione (0,75g/l) 667,0 a 110 a
Bicarbonato de
Sodio (10 g/l)662,0 a 110 a
Aceite vegetal (10
ml/l)553,0 a 100 a
Bicarbonato de So-
dio (10 g/l) + Aceite
vegetal (10ml/l)
505,0 a 100 a
Bicarbonato de
Sodio (10 g/l) +
Iprodione (0,75 g/l)
605,8 a 110 a
Aceite Vegetal
(10ml/l) + Iprodio-
ne (0,75g/l)
684,0 a 100 a
D.M.S. (5%) 241,61 10,00
C.V. 17,36 5,71
Tabla 7: Efecto de los diferentes métodos de control de Alternaria solani
en el número y peso medio de frutos comerciales de tomate
RAMÍREZ, Roberto. “Efecto del bicarbonato de sodio y del aceite vegetal sobre las epidemias de leandria momordicae en pepinillo y alternaria solani en tomate”
147
Invest Apl Innov 3(2), 2009
CONCLUSIONES
Los dos ensayos permitieron concluir lo siguiente:
cuarta hoja de la planta de pepinillo fue mas adecuada
para el estudio epidemiológico de Leandria momordicae.
la quinta hoja de la planta de tomate fue mas adecuada
para el estudio epidemiológico de Alternaria solani.
de Leandria momordicae, mientras que el bicarbonato de
sodio no afectó significativamente el desarrollo de dicho
patógeno.
entre bicarbonato de sodio e iprodione en el control de
Alternaria solani en tomate.i
producción y número de frutos comerciales en pepinillo
significativamente superiores al testigo.
-
dione proporcionaron los mejores rendimientos y núme-
ro de frutos en tomate.
REFERENCIAS
[1] HAN, JS (1990). “Use of antitranspirants epidermal coa, -
tings for plant protection in China”. Plant Disease, (74) (4),
263-266
[2] HORST RK, T KAWAMOTO SO, Potter LL. (1992). “Effect of
sodium bicarbonate and oils on the control of powdery
mildew and black spots in roses”. Plant Disease, (76) (3),
247-251
[3] JONES JB, JONES JP, STALL RE, ZITTER TA. (2001). Plagas y
Enfermedades del Tomate (2a. ed.) Madrid: Mundiprensa.
[4] JONES JP (1991). Early blight. En JB Jones, JP Jones (Ed).
Compedium of tomato diseases. Saint Paul: The American
Phytopathological Society.
[5] KONNO YT. (1990). Efetividade de fungicidas in vitro a
através de técnicas de aplicacao em cultivares de tomatei-
ro no controle de Alternaria solani. Jaboticabal Sao Paulo:
Faculdade de Ciencias Agrarias e Veterinarias.
[6] REIFSCHNEIDER FJB, LOPES CA, COBBE RV. (1989). Manejo
integrado das doencas. Circular Técnica de CNPHortalicas,
(7), 1-15.
[7] University of California. Statewide Integrated Pest Mana-
gement Project. (1998). Integrated Pest Management for
Tomatoes (4a. ed.) Oakland: University of California Publi-
cation Services.
[8] Ziv O, Zitter TA (1992). “Effects of bicarbonates and films
forming polymers on cucurbit foliar diseases”. Plant Disea-
se, (76) (5), 513-517
ACERCA DEL AUTORL
Roberto Ramírez Otárola Sarmiento es
Ingeniero Agrónomo, con maestría en
Producción Vegetal por la Universida-
de Estadual Paulista, Sao Paulo, Brasil.
Varios años de su vida profesional se
han desarrollado en actividades de
producción agrícola en condiciones
desérticas vinculado a empresas de
agroexportación.
Actualmente se desempeña como Director de Tecsup Trujillo.
RAMÍREZ, Roberto. “Efecto del bicarbonato de sodio y del aceite vegetal sobre las epidemias de leandria momordicae en pepinillo y alternaria solani en tomate”
Lima: Av. Cascanueces 2221 Santa Anita. Lima 43, Perú
Publicación SemestralTecsup se reserva todos losderechos legales de reproduccióndel contenido, sin embargo autorizala reproducción total o parcial para fines didácticos, siempre y cuandose cite la fuente.
Campus ArequipaUrb. Monterrey Lote D-8 José Luis Bustamante y Rivero. Arequipa, PerúT: (54)426610 - F: (54)426654MAIL: [email protected]
Campus LimaAv. Cascanueces 2221 Santa Anita. Lima 43, PerúT: (51)317-3900 - F: (51-1)317-3901MAIL: [email protected]
Campus Trujillo:Via de Evitamiento s/n Victor Larco Herrera. Trujillo, PerúT: (44)60-7800 - F: (44)60-7821MAIL: [email protected]
www.tecsup.edu.pe