memorias cnia
DESCRIPTION
Memoria digital Congreso Nacional de Ingeniería CNIA2012TRANSCRIPT
1
MEMORIA DIGITAL
MEMORIA DIGITAL
CONGRESO NACIONAL DE INGENIERÍA APLICADA – CNIA2012
UNIVERSIDAD DE IBAGUÉ
Carrera 22 Calle 67, Barrio Ambalá
PBX (8) 2709400 Ibagué, Tolima (Colombia)
www.cnia2012.net.co
ISSN:2322-9632
Recopilación de Información
Adriana Isabel Linares Vanegas
Digitalizado en Colombia
Todos los derechos reservados. Esta es una publicación de la Universidad de Ibagué. Se prohíbe
la reproducción parcial o total de su contenido, la recopilación en sistema informático, la
transmisión en cualquier forma o por cualquier medio, por registro o por otros métodos, sin el
permiso previo y por escrito de los editores.
Congreso Nacional de Ingeniería Aplicada
Construyendo Futuro
Memoria Digital
Noviembre de 2012
Organización del Congreso
El Congreso fue organizado por los grupos de investigación GINNOVA, GMAE y
D+TEC de la Universidad de Ibagué y el grupo de investigación CEDAGRITOL de la
Universidad del Tolima.
Líder del comité organizador: Helga Patricia Bermeo Andrade, Ph.D.
Facultad de Ingeniería, Universidad de Ibagué
Directora de Investigaciones
Comité organizador:
Aldemar Muñoz, José Fernando Solanilla, Henry Vaquiro, Leonardo Mauricio
Rodríguez
Facultad de Ingeniería Agrondustrial, Universidad del Tolima
Nelson Javier Tovar, Jorge Luis Enciso, Agustín Valverde Ganja, Mauricio Hernández,
Oscar Barrero, Alfonso Muñoz, Adriana Isabel Linares
Facultad de Ingeniería, Universidad de Ibagué
Apoyo Logístico:
Oscar Javier Cárdenas Barón, Juan Felipe González Martínez, Carlos Andrés Pérez Vargas,
Monica Tatiana Perdomo Pérez, Sandyra Masiel Cubillos Bonilla, Jennny Alexandra Pérez,
Angee Lorena Rengifo Hernández, Leydi Camila Hernández Carrillo, Rubén Dario Conde
Carvajal, Germán Ramírez Murillo, Ingrid Vanesa Guevara Cortés, Juan Sebastián Díaz
Bonilla, William Gerardo Rivas Duarte, Jaime Andrés Jiménez Enciso, Sandra Arias, Anny
Carolina Cortes Jaramillo, Luis Alejandro Ramírez Rojas, Jonathan Steven García Patiño,
Francisco Javier Tocora Susa, Wilson Andrés Sánchez Romero, Luis Felipe Aguirre, Jesika
Maria Rangel, Ivonne Quesada Pérez, Alejandra Quesada Pérez.
CONTENIDO
PRESENTACIÓN ......................................................................................................................... 7
SISTEMA DE MONITOREO DE VARIABLES PARA LA ESTIMACIÓN DE LA
RADIACIÓN SOLAR .................................................................................................................. 9
DESARROLLO DE NUEVOS CATALIZADORES COMO POSIBLES ALTERNATIVAS
PARA LA REACCIÓN DE DESHIDROGENACIÓN DE ETILBENCENO EN PRESENCIA
CO2 EN LA PRODUCCIÓN DE ESTIRENO ............................................................................ 11
SISTEMA DE SUPERVISIÓN VÍA INTERNET EN UN REACTOR ANAERÓBICO PARA
LA PRODUCCIÓN DE BIOGÁS .............................................................................................. 13
METODOLOGÍAS PARA EVALUACIÓN DE INCERTIDUMBRE EN LAS
PREDICCIONES REALIZADAS CON MODELOS HIDROLÓGICOS .................................. 21
DETERMINACIÓN DEL CALOR ISOSTERICO Y LA CINETICA DE SORCIÓN PARA EL
SALVADO DE ARROZ ............................................................................................................. 24
VULNERABILIDAD DEL TRATAMIENTO CONVENCIONAL DE AGUA PARA
CONSUMO HUMANO .............................................................................................................. 26
MODELO MATEMÁTICO PARA LA SIMULACIÓN DE LA PRODUCCIÓN DE METANO
EN UN REACTOR BATCH....................................................................................................... 29
TENDENCIAS ACTUALES EN LA ELECTRÓNICA DE POTENCIA DE LOS SISTEMAS
FOTOVOLTAICOS .................................................................................................................... 30
VARIABLES DETERMINANTES DE LA MADUREZ COMERCIAL EN MORA DE
CASTILLA ................................................................................................................................. 32
CARACTERIZACION NUTRACEUTICA DEL SALVADO DE ARROZ DE DIFERENTES
VARIEDADES SEMBRADAS EN EL DEPARTAMENTO DEL TOLIMA ........................... 36
ESTUDIO DE OPTIMIZACION DE LA PRODUCCION DE METANO POR VIA
BIOLOGICA DE LA FRACION ORGANICA DE RESIDUOS SOLIDOS URBANOS ......... 39
CONSTRUCCION DE UN SISTEMA DE LAVADO Y SECADO PARA BANANITO ........ 41
HERRAMIENTAS ESTADÍSTICAS APLICADAS AL MEJORAMIENTO Y ESTUDIO DE
LA CALIDAD DE LOS PROCESOS ....................................................................................... 43
ANÁLISIS DE UN SISTEMA VMI MTO-MTS CON DEMANDA ESTOCÁSTICA ............. 49
LAS TIC Y SU IMPACTO EN LA PRESTACIÓN DE SERVICIOS DE SALUD EN EL
TOLIMA ..................................................................................................................................... 51
MODELACIÓN DE RIQUEZA DE PECES PARA LA RESTAURACIÓN DE RÍOS ............ 53
OPORTUNIDADES DE DESARROLLO SOCIO-AMBIENTAL Y ECONÓMICO DE LA
AGROINDUSTRIA PESQUERA .............................................................................................. 56
ANÁLISIS DEL COMPORTAMIENTO AL DESGASTE POR DESLIZAMIENTO EN SECO
DEL ACERO AISI-1020 EN ESTADO COMERCIAL EN LA CIUDAD DE IBAGUÉ ......... 62
SIMULACIÓN (MEF) DEL DESLIZAMIENTO DE UNA PARTÍCULA SOBRE UNA
SUPERFICIE DE INGENIERÍA - EFECTO DE LA FORMA .................................................. 64
MODELO DE SIMULACIÓN (MEF) DEL FENOMENO DE DESGASTE EN ACERO 1045
..................................................................................................................................................... 66
SIMULACIÓN DEL EFECTO DE LA FRICCIÓN EN EL DESLIZAMIENTO DE UNA
PARTÍCULA .............................................................................................................................. 68
IMPLEMENTACION DIGITAL DE BAJO COSTO DEL SISTEMA DE CONTROL DE UN
RECTIFICADOR CON CORRECCIÓN DE FACTOR DE POTENCIA .................................. 70
ESTUDIO DE CONVERTIDORES ELECTRÓNICOS PARA LA CONEXIÓN DE
SISTEMAS FOTOVOLTAICOS DE GENERACIÓN DISTRIBUIDA .................................... 72
CONTROL DE CORRIENTE EN UN RECTIFICADOR PFCUSANDO UNSISTEMA DE
REFERENCIA SÍNCRONO ....................................................................................................... 73
DETERMINACIÓN DE LOS ÍNDICES DE MADURACIÓN DEL BANANO USANDO
PROCESAMIENTO DIGITAL DE IMÁGENES ...................................................................... 75
DESARROLLO DE UN SISTEMA DE MEDICIÓN DE MADURACIÓN DE FRUTAS
BASADAS EN ESPECTROMETRÍA DE INFRARROJO CERCANO .................................... 77
CHARACTERISATION OF RICE BRAN FROM THE TOLIMA REGION IN COLOMBIA 79
PROGRAMACIÓN DE LA PRODUCCIÓN PARA LA PLANTA DE ACABADOS DE
FABRICATO FIBRATOLIMA A PARTIR DE LA HEURÍSTICA CBM ................................ 80
REFLEXIONES DE LA APLICACIÓN DE HERRAMIENTAS DE INGENIERÍA PARA
MEJORAR LA EFICIENCIA DE UN SERVICIO DE URGENCIAS REGIONAL ................. 83
Congreso Nacional de Ingeniería CNIA2012 7
PRESENTACIÓN
El Congreso Nacional de Ingeniería Aplicada – CNIA2012, es un claro ejemplo de alianza
interinstitucional entre la Universidad de Ibagué y la Universidad del Tolima. La denominación
de „aplicada‟ obedece a la clara intención del Comité organizador de promover la difusión de
nuevos conocimientos y tecnologías que resulten próximos para su potencial aplicación o
transferencia a la solución de problemas sentidos de esta región centro de Colombia. Por ello, en
este Congreso participaron reconocidos conferencistas y estudiosos de temas vinculados a la
áreas de energía, medio ambiente, informática, materiales y alimentos. Todos estos temas, sin
duda, de relevancia para el futuro desarrollo regional.
No cabe duda que las soluciones que requiere el Tolima, han de venir a la dedicación y el
trabajo colectivo y apasionado de muchos. Para reforzar esta idea, hago alusión a uno de los
mensajes anecdóticos del escritor Gonzalo Gallo, publicado en su libro Oasis. Haciendo
referencia a la „Pasión‟ escribe:
“El espacio de los inventos es apasionante y casi siempre nacen para solucionar
problemas y necesidades. De pronto a alguien lo ilumina la chispa creativa, más
porque se consagra a investigar con paciencia y sabe observar, que por azar.
Los casos abundan y uno bien interesante es el del húngaro Ladislao Biró y el
bolígrafo. Biró era corrector de pruebas en una imprenta y un día se cansó de
recargar su estilográfica y de mancharse las manos con tinta.
Entonces decidió reinventar el bolígrafo creado por Loud en 1888 y mejorado por
Evans, ambos americanos. Esos aparatos rudimentarios usaban tinta común, su
letra era gruesa y sólo servían para marcar cajas o fardos.
Biró había viajado a Buenos Aires, hizo muchos ensayos con un hermano, recibió
apoyo del inglés Henrry Martin y logró su cometido. Poco después el australiano
Frank Seech creó la tinta que se secaba al contacto con el aire. Ojo: su bolígrafo
es el fruto de la dedicación y la pasión de muchos.
¿Eres un ser apasionado por los que amas y por lo que haces?
El Congreso ofreció la oportunidad de ver los resultados de muchos estudiantes, profesores y
empresarios, que de manera colectiva y dedicada, abordan actividades investigativas con el
noble propósito de contribuir al desarrollo de una sociedad sana, justa y equilibrada.
De manera especial, agradezco a todas las personas e instituciones que hicieron posible la
realización del Congreso. A los invitados especiales, quienes nos permitieron lograr un evento
académico de alto nivel; a los ponentes por su activa participación; al Codecyt y ACOFI por su
apoyo institucional, quienes no dudaron en respaldar el desarrollo de este Congreso; a la
Gobernación del Tolima y la Cámara de Comercio por facilitar las instalaciones locativas.
Finalmente agradezco a cada uno de los integrantes del equipo organizador y logístico por su
apoyo, sin cuyo trabajo y dedicación, este Congreso no hubiera sido posible.
Helga Patricia Bermeo Andrade
Líder del comité organizador
PONENCIAS
Congreso Nacional de Ingeniería CNIA2012 9
SISTEMA DE MONITOREO DE VARIABLES PARA LA ESTIMACIÓN DE LA RADIACIÓN SOLAR
S.M. Aragón-Avilés1, A. Valverde-Granja
1, O. López-Santos
2
1GMAE, Universidad de Ibagué, Ibagué.
2D+TEC, Universidad de Ibagué, Ibagué.
Palabras claves: Radiación solar, panel solar.
Problema
Entre las diferentes formas de utilización de energías renovables en el mundo, los sistemas fotovoltaicos se
presentan como una alternativa promisoria, destacándose su alta confiabilidad, posibilidad de generación
descentralizada, carácter modular, ausencia de residuos, renovabilidad y, desde el punto de vista económico, una
tendencia a la disminución de los precios con un aumento de la eficiencia. También resulta una opción
interesante para el abastecimiento de energía eléctrica a consumidores que se encuentren distanciados de la red
de distribución de energía (Marini J. e Rossi L., 2003).
Debido a la gran utilización que han tenido los sistemas fotovoltaicos en los últimos años en el mundo, por las
ventajas que estos aportan, se ha planteado la necesidad del estudio del rango de la intensidad de radiación solar
que es recibido en la ciudad de Ibagué, más específicamente en el campus de la Universidad de Ibagué, durante
cierto periodo del año, para analizar la viabilidad de posibles proyectos fotovoltaicos.
Metodología
Para el desarrollo del proyecto se tienen en cuenta varias etapas con las cuales se llevará a cabo el proceso
metodológico. La primera etapa es una fase documental, donde se proyecta la realización de una búsqueda
bibliográfica, su clasificación, selección y estudio de la información obtenida sobre medidores de radiación
solar. La segunda etapa es la selección de las variables experimentales que intervienen en la estimación de la
radiación solar. Y la última fase del proceso, es el dimensionamiento e implementación del prototipo que
permita realizar la estimación de la radiación solar recibida en la ciudad de Ibagué.
Avances
Para llevar a cabo el desarrollo del proyecto se realizó en primera instancia una búsqueda bibliográfica, en donde
se seleccionaron algunos artículos investigativos, en los cuales se utiliza como herramienta principal para la
supervisión de las variables determinantes de la radiación solar, el software LabVIEW [1, 2]. La adquisición de
datos en distintos casos es realizada mediante la utilización de una tarjeta de adquisición o por conexión
mediante puerto serial con el computador [2]. En uno de los artículos investigativos encontrados, se diseño el
software PV-Size que simula instalaciones fotovoltaicas mediante la utilización de bases de datos y algoritmos
[3]. En este artículo los autores mencionan que se debe realizar un seguimiento detallado y “analítico” del
sistema. Las variables meteorológicas y eléctricas analizadas por el sistema de supervisión caracterizan el
funcionamiento de la instalación fotovoltaica durante el intervalo de tiempo normalizado.
Posteriormente, se definió como mecanismo de adquisición de datos la utilización de una tarjeta de adquisición
y se seleccionaron las variables relevantes para la estimación de la radiación solar. Las variables definidas son la
temperatura del panel solar, la temperatura del ambiente y la máxima potencia entregada por el panel solar. Con
base en estas variables se diseñaron e implementaron los circuitos electrónicos para el acondicionamiento de las
señales obtenidas a partir de los sensores de temperatura, voltaje y corriente utilizados. Además, se construyo un
convertidor de potencia DC-DC de topología elevadora que permite estimar el máximo punto de potencia del
panel solar a partir de la variación del ciclo útil de trabajo utilizando el método de perturbación y observación [4,
5, 6] (Ver Figura 1). La interfaz grafica actual implementada en LabVIEW, muestra la mediciónde las variables
con un periodo de muestreo de un segundo para las temperaturas y de 70 segundos para cubrir el rango de ciclo
útil definido para la perturbación en el convertidor (Ver Figura 2). La información obtenida es almacenada y
clasificada en una base de datos que acumula mediciones históricas por día que permitan comparar las
mediciones del sistema con las mediciones realizadas por una subestación de monitoreo meteorológica
comercial ya instalada en el campus de la universidad. La comparación detallada entre cada una de las
Congreso Nacional de Ingeniería CNIA2012 10
mediciones obtenidas de las variables con el prototipo experimental en relación con la radiación solar medida
con la subestación permite encontrar el comportamiento que las correlaciona, dando así, una estimación de la
función que determina la radiación solar dependiente de la potencia entregada por unidad de área de panel solar
y de la temperatura del panel solar.
Figura 1. Montaje circuito convertidor de potencia DC-DC de topología elevadora.
Figura2. Interfaz gráfica estación de monitoreo en LabVIEW.
Referencias
[1] F. Chico, J. A. Aristizabal y G. Gordillo, “Desarrollo de Sistema de Medición y Evaluación del Potencial de
Radiación Solar Usando Instrumentación Virtual”, Revista Colombiana de Física, vol. 41, No. 1, Enero, 2009.
[2] N. Forero, F. Mesa y G. Gordillo, “Medición y análisis estadístico de radiación solar y temperatura
ambiente, medidos en Bogotá”, Revista Colombiana de Física, vol. 35, No. 1, 2003.
[3] Características de la Planta Solar Fotovoltaica del Laboratorio C.I.B.A. de la Universidad de Valladolid
[Online]. Available:(www3.uva.es/renova/esp/proyectos/descripcionplantapvweb.doc), Agosto, 2011.
[4] D.P. Hohm y M.E. Ropp, “Comparative study of maximum power point tracking algorithms”.Progress in
Photovoltaics: Research and Applications, pp. 47–62, 2003.
[5] T. Esram y P.L. Chapman, “Comparison of photovoltaic array maximum power point tracking
techniques”.IEEE Transactions on Energy Conversion , vol. 22, No. 2, pp. 439–449, 2007.
[6] A. Mellit, H. Rezzouk, A. Messai y B. Medjahed, “FPGA-based real time implementation of MPPT-
controller for photovoltaic systems”, Renewable Energy, vol. 36, pp. 1652-1661, 2011.
Congreso Nacional de Ingeniería CNIA2012 11
DESARROLLO DE NUEVOS CATALIZADORES COMO POSIBLES ALTERNATIVAS PARA LA
REACCIÓN DE DESHIDROGENACIÓN DE ETILBENCENO EN PRESENCIA CO2 EN LA
PRODUCCIÓN DE ESTIRENO
R.E. Causado-Escobar1 y A. Liliana Barbosa López
2
1 Universidad de Cartagena, Campus de Zaragocilla, Cartagena de Indias, Colombia
2 Laboratorio de Investigaciones en Catálisis y Nuevos Materiales de la Universidad de Cartagena, LICATUC Campus de
Zaragocilla, Cartagena de Indias Colombia
Introducción
El estireno es uno de los monómeros más importantes en la producción de polímeros, tales como resinas,
cauchos sintéticos y plásticos, siendo uno de los intermediarios químicos de gran valor comercial y de gran
utilización y consumo en la actualidad [1,2].La deshidrogenación catalítica de del etilbenceno es la vía de
producción comercial más importante y también la que arroja mejores resultados. Sin embargo, este proceso
presenta varias desventajas, asociadas principalmente a su carácter reversible y endotérmico y al excesivo vapor
requerido. Las implicancias económicas de las mismas sobre el costo del proceso. Una alternativa interesante, a
fin de superar estos inconvenientes y para la cual se ha señalado ventajas comparativas respecto a la
deshidrogenación directa, es el proceso de deshidrogenación con dióxido de carbono de etilbenceno a estireno,
Carmo Rangel y col (2008), muestran que la introducción de CO2 en la alimentación, produce el hidrocarburo
insaturado e hidrogeno, alcanzándose las siguientes ventajas respecto al proceso de deshidrogenación directa: La
reacción es irreversible y por lo tanto, la conversión no está limitada por el equilibrio [3]. El proceso es
exotérmico en lugar de endotérmico. Las temperaturas de operación pueden ser mucho más bajas, razón por la
cual varios grupos de investigación se enfocan en desarrollar nuevos catalizadores. Considerando estos aspectos,
en este trabajo se desarrollaron diferentes alternativas en materia catalítica no disponibles en el mercado
destinadas a la deshidrogenación de etilbenceno en presencia de dióxido de carbono.
En una primera fase se tuvo en cuenta sistemas catalíticos novedosos tales como molibdatos de níquel, de hierro
y de cobre, los cuales en trabajos como los realizados de manera independientes por Mazzocchia y col y Abello
y col.han mostrado gran actividad y rendimiento en reacciones de deshidrogenación de alcanos [4,5], y se
trabajó además con el ya conocido sistema férrico en forma de hematita, Fe2O3, dado sus grandes valores de
selectividades pero soportándolo en carbón activo nanoporoso y óxido cálcico comercial. En una segunda y
última fase se caracterizaron estos materiales para conocer distintas propiedades de estas especies y así poder
correlacionarlas con sus respectivas actividades y selectividades catalíticas.
Experimental
Preparación De Los Catalizadores
Preparación del catalizador másico de NiMoO4 y NiMo/CaO: El catalizador estequiométrico de NiMoO4 se
preparó por coprecipitación de una solución equimolar de ácido molíbdico y Nitrato de níquel (0.25M), a 85°C
con un pH ajustado a 5.25 por adición de amoníaco. El precipitado obtenido se filtró en caliente y se secó a
120°C por 15 horas, entonces se calcinó a 550°C por 2 horas. Para la preparación del catalizador de NiMo/CaO
se preparó primero la fase activa de igual forma como se preparó el catalizador másico de molibdato de níquel
(coprecipitación ) y se impregnó sin interacción la fase activa en el soporte de CaO comercial con un
porcentaje de 10% NiMo. Se sometió luego a secado a 393 K (120°C) por 15 horas y a calcinación a 773 K
(500°C) por 2 horas.
Preparación del catalizador másico de FeMo y CuMo: Los catalizadores másicos de FeMo se prepararon por el
método de coprecipitación adicionando una solución de heptamolibdato de Amonio (HMA) de pH 4.7 y
temperatura 80°C con otra de sulfato ferroso-férrico amónico (o de sulfato de cobre, CuSO4, para el CuMo) de
igual pH y temperatura. Se filtró el precipitado resultante y se secó a 383 K (110°C) por 20 h. Posteriormente se
calcinó a 773 K (500°C) por 2 h.
Preparación del catalizador de Fe2O3/ CaO y Fe2O3 /C: Se prepararon por el método de impregnación sin
interacción utilizando como fuente de hierro la sal cloruro férrico, la cual después de calculada la cantidad de
hierro a soportar fue tratada con hidróxido de amonio para producir la precipitación de todo el hierro como
hidróxido ferrico. Posteriormente se procedió a filtrar el precipitado lavándolo con abundante agua destilada.
Seguidamente se colocó en agitación una suspensión acuosa del soporte (sea oxido cálcico comercial o el
Carbón nanoporoso obtenido) y se le fue adicionando poco a poco pequeñas cantidades del hidróxido férrico con
Congreso Nacional de Ingeniería CNIA2012 12
un intervalo aproximado de una adición cada dos minutos. Se sometió luego a secado a 377 K (104°C ) por 12
horas y calcinó al aire a 1023 K (750°C) durante 5 horas. La carga de Fe fue de 10% en CaO y 1 al 3% en
Carbon nanoporoso.
Preparación del carbón nanoporoso: Una mezcla 1:2 de Resorcinol (99%, reactivo ACS) y Formaldehido (37 %
solución acuosa, reactivo ACS) se adicionó a una solución acuosa coloidal de sílica sol (Ludox HS-40, Aldrich,
40 %), la mezcla de reacción se mantuvo a 85ºC por una semana ajustando el pH inicial hasta 8 con NaOH 1 N
para obtener la composición de sílica y gel resorcinol-formaldehido (gel RF). A continuación la mezcla
resultante se secó a 85ºC por dos días, y se carbonizó a 850ºC con una velocidad de calentamiento de 5ºC/min,
por 3h en atmósfera de N2. Para remover el agregado de sílice en la composición sílice- carbón, se agitó en una
solución acuosa de HF al 48% en peso por 12h, seguida por filtración y lavado con agua desionizada hasta pH
del filtrado aproximadamente 7. La relación molar de los reactivos resorcinol: formaldehido: sílica: agua fue
1:2:7.5:86.
Caracterización De Los Catalizadores
Se caracterizaron los distintos materiales sintetizados por técnicas tales como la espectroscopia de absorción
atómica (AAS), la difracción de rayos X (DRX), la espectroscopia infrarroja con transformada de Fourier
(FTIR) , el método BET y el análisis de reducción a temperatura programada (TPR).
Resultados y Discusión
AAS: los valores de absorción atómica para los catalizadores reflejaron los porcentajes metálicos
esperados.
FT-IR: en los catalizadores NiMo/CaO, FeMo, se observaron estiramientos correspondientes a grupos
Mo=O [O], Mo-O-Mo, H2O estructural, en el caso del FeMo se registraron bandas correspondientes a
polimolibdatos de hierro, Mo=O[O] PoliMo, Fe-O [T], Mo-O-Mo, Fe-O-Mo. En el soporte de CaO
comercial se presentaron estiramientos Ca-O, y se observó la presencia de carbonatos.
TPR: Los catalizadores de CuMo, NiMo y FeMo presentaron una reactividad mayor frente al hidrogeno
siendo más fácilmente reducibles que el Fe2O3 / CaO en el que se aprecio la aparición de un solo pico
correspondiente a la reducción de la especie Fe3+
a Fe2+
, con una temperatura máxima de reducción de
779 °C ligeramente mayor que la reportada para la hematita másica.
XRD: En todos los catalizadores se aprecian picos definidos y agudos, lo que permite considerar que los
sólidos son bastantes cristalinos. Al comparar los sólidos NiMo/CaO y NiMo se pudo observar que se
estabiliza la fase beta (β) del Ni. En los catalizadores de oxido férrico de 10% soportado en CaO se apreciaron
picos correspondientes a la fase hematita, posiblemente en partículas pequeñas y ampliamente dispersas.
Importancia
Este tipo de reacciones gozan de profundo interés debido a su uso potencial en el renglón petroquímico y en los
polímeros [10-12], por lo que se hace importante la búsqueda de nuevas y mejores alternativas catalíticas que
mejoren el rendimiento de la reacción y reduzcan los costes del mismo.
Referencias
[1] Saito, M., Kimura, H., Mimura, N., Wu, J. Y Murata, K. Applied Catalysis A: General. 239 (2003) 71-77.
[2] Lee, E. Catálisis Review. 84 (1963) 285.
[3] Botelho, S., Pereira, D., Melo, A., Rabelo, D. y Rangel, M. Catalysis Today 133–135 (2008) 92–98.
[4] Mazzochia, C.; Anouchosky, R.; Kaddouri, A.; Sautel, M. Y Thomas, R. J of ther Anal. 40 (1993). 1253-
1265.
[5] Abello, M., Gomez, M., Rivarola, J. Y Ferretti, O. XVI Simposio iberoamericano de catálisis. Cartagena de
Indias. Colombia.23 al 28 de Agosto de 1998. Tomo3. 1998. Pag. 1575-1580.
Congreso Nacional de Ingeniería CNIA2012 13
SISTEMA DE SUPERVISIÓN VÍA INTERNET EN UN REACTOR ANAERÓBICO PARA LA
PRODUCCIÓN DE BIOGÁS
F.E. Muñoz., H. Numpaque., I.A Ruge.
Universidad de Cundinamarca
Palabras Claves: Instrumentación, Interfaz Hombre Maquina, Supervisión vía internet, Adquisición Remota.
Introducción. La problemática de los RSU ha venido aumentando como consecuencia de rápido crecimiento y
la concentración desmesurada de la población, del desarrollo industrial, las actividades agrícolas y falta de
políticas para una adecuada gestión de residuos sólidos urbanos. Un manejo y tratamiento inadecuado de los
RSU provocan entre otros aspectos enfermedades, contaminación de recursos hídricos, deterioro del suelo y
contaminación del aire afectando en corto tiempo la calidad del medio ambiente y la vida de las comunidades.
En miras de encontrar posibles soluciones a dicha problemática, la Universidad de Ibagué en alianza con la
Universidad de Cundinamarca formularon el proyecto de investigación titulado “Modelización, simulación,
control y optimización la producción de metano e hidrogeno por vía digestión anaerobia de residuos orgánicos,
urbanos y agrícolas”. El cual busca aprovechar dichos residuos en la producción de biogás e hidrogeno, para tal
fin, el proyecto tiene como objetivo principal optimizar la producción de metano e hidrogeno por vía biológica
en fase de fermentación de la Fracción Orgánica de Residuos Urbanos y Agrícolas en la planta piloto de la
Universidad de Ibagué, aplicando sistemas de monitoreo en línea y estrategias de modelización, simulación,
control no lineal y optimización de procesos.
Este trabajo presenta el desarrollo de la primera fase del proyecto, en la cual se ha venido trabajando el diseño e
implementación de un sistema de supervisión y adquisición de datos vía internet en el software LabVIEW.
Dicho sistema permite crear registro histórico de las variables temperatura, pH, flujo de biogás, concentraciones
volumétricas de CO2 y CH4, con su respectiva visualización en tiempo real. El registro histórico de estos datos
será aprovechado para realizar el tratamiento de los mismos y posteriormente realizar la identificación dinámica
del proceso y diseñar estrategias de control.
Descripción del sistema: Como muestra la Figura 1, la plata piloto de biogás de la universidad de Ibagué cuenta
con un bioreactor continuo (CSTR). En el tanque A se almacena el sustrato a tratar, en el B se lleva a cabo el
tratamiento del sustrato mediante digestión anaeróbica y se genera el biogás. Cada uno de los tanques están
construidos en acero inoxidable con una capacidad de 50L, en donde 24L son para el almacenamiento de
sustrato y 26L son para el almacenamiento inicial de biogás.
Figura 1. Diagrama de bloques del sistema.
La instrumentación que se emplea para monitorear las variables del sistema se encuentra instalada en el tanque
B. El modulo de instrumentación está compuesto por una termocupla tipo J para medir la temperatura del
proceso, una sonda de pH, un sensor de flujo de gas construido a partir de un sensor de presión diferencial
acoplado a un tubo con placa de orificio y un sensor infrarrojo que permite cuantificar las concentraciones
volumétricas de CO2 y CH4. Los sensores son conectados una tarjeta de adquisición de datos NI-USB6009, que
está a su vez está conectada a una computadora personal dentro de la planta, que esta conectada
Congreso Nacional de Ingeniería CNIA2012 14
permanentemente a internet, a esta computadora se le asigna el nombre de PC-servidor. El PC-servidor mediante
una interfaz HMI (Interfaz Hombre Maquina) desarrollada en LabVIEW, adquiere y elabora un registro histórico
de las variables del proceso, para posteriormente enviar vía internet dichas variables a un una computadora
personal remota a la cual se le asigna el nombre de PC-cliente, donde las variables pueden ser visualizadas en
tiempo real. El cliente cuenta con una HMI y un registro histórico de las variables supervisadas.
Desarrollo del sistema de adquisición y supervisión remota de datos. El sistema de adquisición y
supervisión de variables se divide en tres etapas:
Instrumentación y Adquisición.
Comunicación Remota.
Interfaz Grafica de Usuario.
Nota: En el desarrollo del sistema de supervisión se hace uso del software LabVIEW 9.0 a 32bit de Nacional
Instruments. LabVIEW se describe por sus fabricantes como un extenso entorno de desarrollo que brinda a
científicos e ingenieros integración con hardware sin precedentes y amplia compatibilidad. La principal
característica de LabVIEW es el uso del lenguaje G, es decir grafico, donde la herramienta permite el desarrollo
de aplicaciones mediante el uso de bloques funcionales que deben ser interconectados entre sí de acuerdo con las
entradas y salidas que se cuente en cada bloque.
Instrumentación y Adquisición de Datos.La instrumentación se compone de los siguientes sensores:
Sensor de temperatura: El sensor de temperatura empleado es una termocupla tipo J, la cual cumple con las
siguientes especificaciones según el fabricante:
Rango de operación de -40 °C a 750°C.
Sensibilidad ~52 µV/°C.
Material de fabricación en Hierro-Constantana
A razón que la señal de salida de la termocupla tipo está dada en milivoltios, es necesario implementar una etapa
de amplificación a partir de un Amplificador de Instrumentación INA128P. El circuito necesario para realizar la
amplificación en la termocupla es el presentado en la Figura 2.
Figura 2. Circuito amplificador para termocupla tipo J con Amplificador de Instrumentación INA128P.
Implementado el circuito de la Figura 2 con la termocupla, se halla la curva característica del sensor, Figura 3.
Figura 3. Curva característica de termocupla tipo J con Amplificador de Instrumentación INA128P.
Congreso Nacional de Ingeniería CNIA2012 15
Finalmente la ecuación característica del sensor es:
T °C =0.001 ∗ y − 0.6569
0.0289
(1)
Sensor de pH: El sensor empleado es la sonda pH_03 de la empresa LUTRON ELECTRONIC, las
especificaciones del fabricante de esta sonda son las siguientes:
Rango de medición del pH de 1 a 14.
Rango temperatura de operación del sensor de 0°C a 60°C.
Igual que en sensor anterior, es necesario implementar un circuito de adecuación de señal, para tal fin se
implementa el circuito presentado en la Figura 4 con el amplificador de instrumentación de referencia INA114.
La caracterización de la sonda es realizada en los valores de temperatura de 25°C, 30°C, 35°C, 40°C, 45°C, y
50°C.
Figura 4. Circuito amplificador para sonda pH_03 con Amplificador de Instrumentación INA114.
Las curvas características halladas para este sensor es la presentada en la Figura 5.
Figura 5. Curva característica del sensor de pH.
Mediante una regresión polinómica de las curvas anteriores se halla la ecuación característica de la sonda.
𝑝𝐻 = −5.781𝑉3 − 24.27𝑉2 − 42.25𝑉 − 20.5 (2)
Sensor de CO2 y CH4: Para la medida de estas dos variables se cuenta con un sensor que posee doble propósito,
el cual permite medir concentraciones volumétricas de CO2 y CH4, El sensor empleado es el IR15TT-R, el cual
funciona por el principio de Absorción Infrarroja. Las especificaciones del fabricante son las siguientes:
Dos canales para detección simultánea de Dióxido de Carbono y Metano.
0 2 4 6 8 10 12 14-2.2
-2
-1.8
-1.6
-1.4
-1.2
-1
-0.8
-0.6
Temperatura [°C]
pH
Caracterización sonda de pH en función de la temperatura
25°C
35°
40°C
47°C
50°C
Congreso Nacional de Ingeniería CNIA2012 16
Medición de 0 hasta 100% Vol. de Dióxido de Carbono.
Medición de 0 hasta 100% Vol. De Metano.
Resistente a la corrosión.
Según (R. Ilber, 2011) para poder hacer uso de este sensor se requiere de una etapa de amplificación y filtrado,
tanto para el canal de medición del Dióxido de Carbono como para el canal de medición del Metano. El circuito
utilizado es el presentado en la Figura 6.
Figura 6. Circuito amplificador y filtrado para sensor infrarrojo de gas IR15TT-R.
Adquisición de datos: La adquisición de datos para el Sistema de Supervisión Remota se desarrolla con una
tarjeta de adquisición de datos USB de National Instruments, referencia NI USB-6009. Esta tarjeta de
adquisición cuenta con las siguientes características:
- Sistema Operativo: Linux, Mac OS, Windows
- Tipos de Medida: Voltaje
- Entradas analógicas: 8 Canales de una sola terminal y 4 Canales Diferenciales, con una resolución de 14 bits y
una velocidad de muestreo de 48 kS/s, con un máximo voltaje de entrada analógica de 10V y un rango de voltaje
máximo de -10 V - 10 V.
- Entradas y salidas TTL: 12 canales bidireccionales con resolución de 12 bits.
En el aplicativo de LabVIEW el bloque usado para adquirir las señales a través de la tarjeta de adquisición es el
DAQ assistant, el cual es configurado de tal forma se puedan recibir cinco señales a la vez, con un periodo de
muestreo de 1kS/s. Los valores adquiridos por la tarjeta de adquisición deben ser convertidos a un formato de
8bit para poder ser usados en las siguientes etapas, por lo cual son convertidos en un formato extendido y luego
multiplicados por un factor de 51, con el fin de obtener a la salida un valor entre 0 a 255 en formato de 8bit. En
la Figura 7 se muestra el código desarrollado en LabVIEW para esta sección, donde cada hilo corresponde a
cada una de las cinco variables, temperatura, pH, CO2, CH4, y flujo de gas a supervisar [7].
Figura 7. Programa para la adquisición de datos con la NI USB-6009.
Comunicación Remota. La comunicación remota permite que el sistema comparta información de forma
bidireccional entre el PC-servidor ubicado en la Universidad de Ibagué y el PC-cliente ubicado en la
Universidad de Cundinamarca. A la hora de realizar los estudios del funcionamiento de los bloques de
comunicaciones se elije el uso de los bloque de comunicación de datos con el protocolo TCP. Es elegido este
protocolo porque es orientado a la conexión y va a garantizar que el enlace entre el servidor y el cliente siempre
Congreso Nacional de Ingeniería CNIA2012 17
este activo y en caso de caída de la conexión la reporta. Estudiando el funcionamiento de los bloques TCP se
encontró que la comunicación entre dos equipos puede realizarse dentro de una red de área local, siempre y
cuanto el PC-servidor y el PC-usuario estén conectados a dicha red de área local, es decir, si los dos equipos se
encuentran conectados a un router se puede realizar la comunicación sin ningún inconveniente, lo único es
definir una dirección IP estática a cada equipo y utilizar esa IP a la hora de realizar la comunicación entre los
equipos. El inconveniente en el desarrollo de este proyecto se encontraba en la topología de red con que se
cuenta, donde es imposible realizar la conexión entre los dos equipos a una red de área local, debido a la gran
distancia que se encuentran ubicados, por tal razón es necesario recurrir al uso de una Red Privada Virtual, VPN.
La función de la VPN es generar una red de área local virtual mediante un túnel a través de internet. Con la VPN
se genera determinado número de direcciones IP que van a corresponder a una sola red privada virtual y dichas
direcciones IP pueden tener determinados privilegios de acceso y comunicación, según los criterios que se hallan
definido en la VPN y en cada uno de los equipos que pertenezcan a esa VPN. La Figura 8 muestra la topología
de red que utiliza una VPN para realizar la conexión entre dos equipos que pertenecen a diferentes segmentos de
red dentro de internet y el esquema que representa el túnel que permite la comunicación entre dos segmentos de
red.
Figura 8. Esquema de configuración típica de una VPN
Para la implementación de la VPN el software utilizado es Hamachi de la empresa LogMeIn, versión 2.1.0.210,
el cual es de licencia gratuita en su versión más básica. Este software permite establecer una red segura entre dos
o más equipos como si estuviesen conectados físicamente. La razón de elegir Hamachi para la implementación
de la VPN es su capacidad de posibilitar la conexión entre los equipos sin importa la presencia de firewall
lógicos o por hardware y antivirus. También es una herramienta muy fácil de utilizar con una GUI, tal como se
presenta en la Figura 9, es muy amigable para el usuario más novato en el tema de VPN.
Figura 9. Vista preliminar de la GUI de Hamachi
Los bloques de comunicación de datos con el protocolo TCP, fueron el bloque TCP Listen.vi, Figura 10, el cual
es utilizado en el servidor y cumple la función de estar a la escucha de cuando el usuario se conecte a la red. Si
este tiene dentro de su identificador la dirección IP asignada al servidor permite realizar la conexión. Tiene
como parámetro de entrada el puerto del protocolo TCP por el que se desea realizar la comunicación y el
connection ID que es el hilo por el que se realiza la conexión TCP, a través de este es donde se lleva a cabo la
conexión y es por donde se interconectan todos los Bloques TCP, por lo que esta entrada o salida se va a
encontrar en todos los bloques del protocolo TCP.
Congreso Nacional de Ingeniería CNIA2012 18
Figura 10. Bloque de comunicaciones TCP Listen.vi
El bloque TCP Open Conecction.vi se muestra en la Figura 10, y es el encargado de abrir la conexión entre el
PC-usuario y el PC-servidor. Este bloque se utiliza en el PC-usuario y tiene como parámetros de entrada la
dirección IP del PC-servidor, el puerto del protocolo TCP por el que se desea realizar la comunicación y el
connection ID. En tal caso la dirección IP que se ha de ingresar en este bloque es la entregada por software
encargado de la gestión de la VPN, LogMeIn Hamachi que está instalado en el PC-servidor, tal como se mostro
en la Figura 11.
Figura 11. Bloque de comunicaciones TCP Open Conecction.vi
Otro bloque utilizado es el TCP Close Conecction y se función es cerrar la conexión entre los dos computadores.
Solo es necesario conectarle la entrada de connection ID como se muestra en la Figura 12.
Figura 12. Bloque de comunicaciones TCP Close Conecction.vi
Con estos tres bloques mencionados hasta el momento se tiene la conexión por protocolo TCP, ahora para
realizar la lectura de datos y escritura se usan los bloques TCP Read.vi, y TCP Write.vi, los cuales cumplen la
función de recoger la información para luego ser transportada por el protocolo TCP, después bajarla en el host
de llegada y finalmente escribirla en un arreglo string. Para el caso del TCP Read.vi es el encargado de subir la
información por la comunicación establecida por protocolo TCP y para el cado del TCP Write.vi es el encargado
de bajar la información enviada por el computador.
Se puede observar en la Figura 13 el código mínimo para el transporte del valor de una variable, para este caso
flujo de biogás. Este es un fragmento del código total implementado en el PC-servidor. En esta figura se puede
observar el uso del bloque TCP Write.vi.
Figura 13. Fragmento del código implementado en el PC-servidor.
Cabe resaltar la existencia de un bloque en particular dentro de la Figura 15, que se presenta individualmente en
la Figura 14, este cumple una función muy específica de aplanar los datos que se van a llevar por el protocolo
TCP [8].
Congreso Nacional de Ingeniería CNIA2012 19
Figura 14. Bloque Flatten To String Function, para aplanar datos.
Para el caso del PC-Usuario, en comparación al código implementado en el del PC-Servidor, se van a notar
algunas diferencias, Figura 15, la primera es que ya no se usa el bloque TCP Write.vi, en cambio de este se usa
el bloque TCP Read.vi, cuya función es bajar los datos que provienen desde el PC-Servidor, vía internet.
Figura 15. Fragmento del código implementado en el PC-Usuario.
La segunda diferencia en el PC-Usuario frente al PC-Servidor, es que en este hay que desaplanar los datos para
regresarlos de nuevo a un formato string y la tercera es que el bloque usado para establecer la comunicación es
el TCP Open Conecction.vi. Como se menciona antes en este bloque hay que ingresar la dirección IP de
gestionada por LogMeIn Hamachi.
Interfaz Grafica de Usuario. La Interfaz Grafica de Usuario (GUI), es el elemento donde es posible visualizar el
comportamiento de las variables supervisadas en tiempo real y el registro histórico de dichas variables del
proceso que se está llevando a cabo en el reactor anaeróbico ubicado en la Universidad de Ibagué. Para el
caso de la Universidad de Cundinamarca, la GUI es muy similar a la GUI de la Universidad de Ibagué. La
única diferencia que existe en las dos interfaces es que la de la Universidad de Cundinamarca tiene una
pequeña caja de dialogo donde es posible ingresar la dirección IP de la estación a la que se desea conectar, en
este caso, la de la Universidad de Ibagué.
La GUI que cuenta tanto el PC-Servidor, como PC-Usuario son iguales y se cuenta con un display donde puede
observarse el comportamiento en tiempo real de cada una de las variables que se han dedicado a supervisar por
el sistema. Figura 16.
Figura 16. Fragmento de la GUI de visualización de las variables supervisadas en tiempo real.
Congreso Nacional de Ingeniería CNIA2012 20
También se cuenta con una serie de pestañas donde puede visualizarse el registro histórico y una visualización
grafica (variable vs. Tiempo). En la Figura 17 se observa el comportamiento del flujo del biogás.
Figura 17. Fragmento de la GUI de del registro histórico del flujo de biogás.
Análisis de resultados. La prueba realizada para calcular la latencia del sistema de supervisión, se realizó
mediante el comando ping de DOS de un equipo a otro, donde la latencia promedio fue de 860ms, un valor muy
aceptable teniendo en cuenta que las dos universidades cuentan con redes de internet que son administradas por
servidores que poseen un alto trafico de información.
Conclusión. Con el desarrollo del sistema de supervisión se ha garantizado el transporte de información en
tiempo real; considerando el bajo tiempo de latencia, de tal forma que los datos del proceso pueda ser utilizados
por ambas partes (Universidad de Ibagué y Universidad de Cundinamarca) para poder desarrollar modelos de
identificación que permitan conocer mejor los procesos de la digestión anaeróbica de residuos sólidos orgánicos
para propósitos de producción alternativa de energía como lo es el biogás, y por otro lado, contar la información
suficiente para diseñar estrategias de control que permitan a futuro poder normalizar una producción de biogás
de forma eficiente.
Referencias
National Instruments. Data Acquisition Basics Manual, January 2000 Edition Part Number 320997E-01.
Disponible en internet en: http://www.ni.com/pdf/manuals/320997a.pdf LAJARA. José, LabVIEW, entorno grafico de programación, Alfaomega-marcombo, 2007, ISBN por marcombo
84-267-1426-29 y por alfaomega 970-15-1133-6
BAILEY. David, Practical SCADA for Industry, ELSEVIER, First published 2003, ISBN: 07506 5805. Disponible
en internet en: http://www.fer.unizg.hr/_download/repository/Practical_SCADA_for_Industry.pdf RUGE. Ilber, Modulo De Entrenamiento Para El Aprendizaje De Comunicación Usb Entre Microcontrolador Pic
Y Delphi Borland. 2010. Segundo Congreso Virtual, Microcontroladores y sus Aplicaciones. Disponible en:
http://www.areacapacitacion.com.ar/ Ruge, Ilber. Control difuso basado en microcontrolador para la producción de biogás en digestión anaerobia tipo
batch de fracción orgánica de residuos sólidos, articulo publicado en: Memorias Segundo Congreso Internacional
De Instrumentación Control Telecomunicaciones, ISBN: 978-958-8561-26-4, Universidad Santo Tomas, Tunja
Boyacá, 2011.
PEREZ. Yohan, Implementación de Comunicación USB con Microcontrolador PIC18F4550 y LabVIEW.
Disponible en:
http://www.pcbporladerecha.com/descargas/USB%20con%20PIC18F4550%20y%20LabVIEW%20-
%20rev%202012.pdf
Manual de usuario de la tarjeta de adquisición NI USB-6009. Disponible en internet: http://www.ni.com/white-
paper/8985/es
Congreso Nacional de Ingeniería CNIA2012 21
METODOLOGÍAS PARA EVALUACIÓN DE INCERTIDUMBRE EN LAS PREDICCIONES
REALIZADAS CON MODELOS HIDROLÓGICOS
J. C. Múnera-Estrada
Programa Ingeniería Civil, Universidad de Ibagué, Ibagué
Palabras claves: Evaluación de Incertidumbre, Modelos Hidrológicos, Métodos Bayesianos
Problema
Al igual que ocurre con cualquier modelo matemático, los modelos hidrológicos pueden son herramientas útiles
para representar de una forma simple la realidad física de un sistema muy complejo como es una cuenca
hidrográfica. Muchos hidrólogos aluden a la dificultad que conlleva emular el comportamiento de una cuenca
con un modelo matemático y resaltan la necesidad de incorporar en el análisis la incertidumbre derivada de este
ejercicio. Por otro lado, los modelos hidrológicos están compuestos por sub-modelos que representan diversos
procesos físicos interrelacionados en la cuenca entre el agua, la energía, el suelo y la vegetación.
La dinámica de cada uno de ellos se estudia mediante ecuaciones matemáticas relativamente simples que actúan
como representaciones agregadas de los mismos, que suelen tener una marcada variabilidad espacio-temporal.
Por esta razón, los parámetros involucrados en las mismas no siempre representan una entidad física medible en
forma directa, razón por la cual los valores estimados adquieren la connotación de "parámetros efectivos" [1].
Por otro lado, para su estimación o calibración se recurre con frecuencia a métodos indirectos basados en la
dinámica de los flujos de entrada (precipitación) y de salida (caudal) en un período de tiempo determinado. No
obstante, la variabilidad espacio-temporal de los primeros suele estar pobremente representada, y los errores de
estimación de los segundos pueden ser apreciables, especialmente durante las crecidas; ambos efectos inducen
sesgos considerables en la identificación de los parámetros del modelo. En este contexto, se puede afirmar sin
lugar a dudas que las simulaciones o predicciones realizadas con modelos hidrológicos no están exentas de error.
Por este motivo, un marco metodológico conceptual de modelación lluvia escorrentía no sólo debe describir y
cuantificar los procesos hidrológicos, sino también incluir una evaluación objetiva de la incertidumbre en la
modelación. Este análisis debe considerar tres aspectos fundamentales interrelacionados como son: el
entendimiento, cuantificación y reducción de la incertidumbre [2].
Metodología
En los últimos años se ha dado un debate en la comunidad científica de hidrólogos y meteorólogos sobre cuál es
el marco metodológico más robusto para estimar e interpretar la incertidumbre vinculada a la modelación
hidrológica, de modo que se obtenga su máximo potencial práctico, tanto en propósitos de investigación como
en la práctica hidrológica operacional. Una corriente amplia coincide en que ese marco conceptual debe basarse
en la teoría Bayesiana formal, mientras que otro grupo se ha orientado hacia métodos simplificados que se
pueden considerar pseudo-probabilísticos.
Los métodos del primer tipo intentan descomponer y propagar las diversas fuentes de incertidumbre que
aparecen en el proceso de modelación (datos de entrada, parámetros, estructura del modelo, datos de salida),
utilizando técnicas de simulación tipo Montecarlo para estimar los cuantiles de la variable simulada en cada paso
de tiempo. Algunos ejemplos son: Markov Chain Montecarlo (MCMC), Bayesian Total Error Analysis
(BATEA), Bayesian Recursive Analysis (BARE). Los segundos permiten analizar la sensibilidad del modelo
ante las posibles variaciones en los datos de entrada o los valores que puede adoptar el espacio de parámetros.
Algunos de éstos son: Generalized Likelihood Uncertainty Estimation (GLUE), General Sensitivity Analysis
(GSA), Dynamic Identifiability Analysis (DYNIA).
Incertidumbre de validación versus incertidumbre predictiva
Es importante diferenciar entre la incertidumbre de validación y la incertidumbre predictiva (IP). Todas las
aproximaciones mencionadas antes hacen referencia a la primera, la cual expresa la capacidad del modelo para
emular la realidad [3] y se define como la incertidumbre de una predicción realizada por un modelo (ŷt), dado el
Congreso Nacional de Ingeniería CNIA2012 22
conocimiento de lo que en realidad ha ocurrido, es decir, el valor observado (yt) al que se refiere tal predicción.
Esta incertidumbre se expresa en términos de la función de densidad de probabilidad (fdp) condicionada
fy y y y=y* (Figura 1) y es una información muy importante para evaluar la calidad del modelo con el claro
propósito de mejorarlo modificando su estructura, los valores de los parámetros, etc. En contraste con lo
anterior, en los casos de predicción lo que interesa es expresar la incertidumbre sobre el valor real que puede
ocurrir en un futuro (yt), teniendo como única información disponible la predicción realizada con el modelo (ŷt).
Este tipo de incertidumbre es la que se denomina incertidumbre predictiva (IP) y debe considerar explícitamente
la fdp de un valor futuro desconocido de la variable de interés, condicionada a las predicciones realizadas con el
modelo: fy y y y =y * (Figura 2).
Figura 1. Representación de la incertidumbre de validación
Figura 2. Representación de la incertidumbre predictiva
Congreso Nacional de Ingeniería CNIA2012 23
La metodología Bayesiana Model Conditional Processor (MCP) [4] está inspirada en el pos-procesador
Hydrologic Uncertainty Processor (HUP) [5] y en la técnica Bayesian Model Averaging (BMA) [6]; esta última
permite combinar predicciones realizadas con varios modelos. El MCP se basa en la idea de generalizar el uso
de la transformación Normal Quantile Transform (NQT) para convertir la serie histórica observada y las
predicciones de los modelos a un espacio Multi-Normal (ó Meta-gaussiano) para estimar la IP. La combinación
de más de un modelo de predicción se realiza en tres fases: en la primera, se procesan las series originales de las
observaciones y los modelos y se calcula el valor esperado por separado para cada modelo; en la segunda, se
calcula el valor esperado de la combinación de valores esperados de cada uno de los modelos, y en la tercera, se
procesa la serie del valor esperado de la combinación como si fuese un único modelo.
Resultados
Para la aplicación de la metodología propuesta se seleccionó la cuenca Baron Fork en Eldon (afluente del Río
Illinois), con un área de drenaje de 795 km2. Esta cuenca está incluida en la segunda fase del proyecto de
intercomparación de modelos hidrológicos distribuidos (DMIP2) del National Weather Service (NOAA/NWS).
El MCP se ha aplicado por separado a las predicciones obtenidas con 3 modelos hidrológicos: dos modelos
distribuidos físicamente basados (TETIS y TOPKAPI) y un modelo de Redes Neuronales Artificiales (ANN).
Posteriormente se ha realizado la estimación de la IP para las 3 combinaciones posibles de dos modelos, y por
último, la combinación de los 3 modelos.
Para el evento de validación analizado (enero de 1998), la combinación de los dos modelos distribuidos parece
más robusta, permitiendo reducir la banda de incertidumbre respecto a los dos modelos individuales, lo cual es
un resultado esperable. En cuanto a la combinación de los 3 modelos, los resultados muestran un estrechamiento
de la banda de incertidumbre que refleja el papel dominante del modelo ANN. Igualmente, se observa una
mejora importante en la rama ascendente del hidrograma respecto a este modelo, aunque el valor esperado de la
triple combinación infravalora el caudal pico del hidrograma. No obstante, la probabilidad de excedencia
estimada en este último caso para el umbral de caudal prefijado (350 m3/s) es la que mejor se ajusta al
comportamiento observado.
La aplicación del MCP al caso de estudio evidencia que la esta metodología es una herramienta robusta y muy
útil para estimar la IP asociada a la predicción de una avenida de magnitud considerable con uno o varios
modelos. La metodología del MCP fue concebida como un pos-procesador de incertidumbre, de modo que
permite utilizar como herramienta de predicción cualquier tipología de modelos hidrológicos, hidráulicos o
basados en los datos que resulten adecuados al problema, beneficiándose de las diferentes potencialidades y
características de cada uno de ellos.
Referencias
[1] Francés, F., J. I. Vélez, and J. J. Vélez “Split-parameter structure for the automatic calibration of
distributed hydrological models”, Journal of Hydrology, 332(1-2), 226-240, 2007.
[2] Liu, Y., and H. V. Gupta, “Uncertainty in hydrologic modeling: Toward an integrated data assimilation
framework”, Water Resources Research, 43(7), 1-18, 2007.
[3] Todini, E., “History and perspectives of hydrological catchment modeling”, Hydrology Research, 42(2-
3), 73-85, 2011.
[4] Todini, E., “A model conditional processor to assess predictive uncertainty in flood forecasting”,
International Journal of River Basin Management, 6(2), 123–137, 2008.
[5] Krzysztofowicz, R., “Bayesian theory of probabilistic forecasting via deterministic hydrologic model”,
Water Resources Research, 35(9), 2739, 1999.
[6] Raftery, A. E., T. Gneiting, F. Balabdaoui, and M. Polakowski, “Using Bayesian Model Averaging to
Calibrate Forecast Ensembles”, Monthly Weather Review, 133(5), 1155-1174, 2005.
Congreso Nacional de Ingeniería CNIA2012 24
DETERMINACIÓN DEL CALOR ISOSTERICO Y LA CINETICA DE SORCIÓN PARA EL SALVADO
DE ARROZ
H.M. Hernández Sarabia1, B. De Meulenaere
2
1 Programa de Automatización Industrial, Grupo de Investigación GMAE, Universidad de Ibagué
2 Department of Food Quality and Food Safety, Faculty of Bioscience Engineering, Ghent University, Belgium.
Palabras claves: Cinética de sorcion, calor isosterico, salvado de arroz.
Problema
La determinación de la cinética de sorción y el calor isosterico para el salvado de arroz (SA) es un cálculo
determinante para establecer los requerimientos energéticos y el tiempo necesario para llevar el SA a una
condición de equilibrio, pensando en los procesos de estabilización que son fundamentales para evitar la
hidrolisis enzimática y el consecuente deterioro por alta acidez y enranciamiento del SA que limita su uso para
nutrición humana, donde se tiene por su contenido de aceite y de proteína una fuente para obtener y desarrollar
nuevos productos que le den valor agregado a este subproducto de bajo valor comercial y se puedan así, las
utilidades en la molinería y en la cadena productiva del arroz.
Metodología
La determinación del calor isosterico y la cinética de sorción y desorción para el SA, fue realizada, aplicando los
modelos GAB, BET, Henderson, Chung Pfost, Halsey y redes neuronales. Los modelos fueron verificados con
datos obtenidos de experimentación realizada en el laboratorio de NutriFoodChem de la facultad de
Bioingeniería de la Universidad de Gent en Bélgica. La experimentación se llevo a cabo por espacio de 4 meses
para la determinación de las curvas de equilibrio por el método gravimétrico para la absorción y desorción del
salvado de arroz. Para el cálculo de la cinética de desorcion y adsorción, las muestras fueron incubadas en
recipientes plásticos con control de humedad relativa desde 40 hasta el 80% y almacenadas en cámaras con
control de temperatura a 30 y 37 grados centígrados, hasta alcanzar el equilibrio final. El contenido de humedad
fue determinado por mediciones constantes de peso, durante el tiempo de incubación. Los datos obtenidos en la
parte experimental entonces, fueron procesados y los modelos mencionados, se obtuvieron utilizando
Matlab/Simulink.
Resultados
Los resultado para las curvas de absorción y de sorción del SA obtenido por el molido del arroz paddy variedad
Fedearroz 60, se presentan en las Figuras 1 y 2 para las temperaturas de 30 y 37 °C respectivamente. En las
Figuras podemos observar el valor de la humedad en equilibrio (EMC) por sus siglas en ingles (Equilibrium
Moisture Content) expresada en gramos de agua por 100 gramos de materia seca frente a la fracción de actividad
de agua para el SA. Las muestras fueron medidas por triplicado y en las graficas se observa que la desviación
estándar no fue significativa para el EMC en cada una de las fracciones de actividad de agua. El EMC fue
alcanzado al tener por más de tres días en la incubación valores con una variación inferior de peso de 0,1 %.
El EMC fue alcanzado primero en tiempo para la sorción a 37 °C, indicando que el intercambio de humedad
entre el SA y el ambiente se incrementa al aumentarse la temperatura. Para las figuras se selecciono el modelo
GAB (Líneas continuas) que fue el que mejor se ajusto a los valores experimentales (datos punteados). Estos
resultados concuerdan con los obtenidos por diversos estudios de investigación desarrollados que se encuentran
en las referencias [1], [2], [3] y [4], quienes seleccionaron como el modelo más ajustado el de GAB. El criterio
de selección utilizado fue el porcentaje de error medio relativo (Pe) y el grafico de residuos recomendados por
[1] y [2] en sus trabajos de investigación. El EMC para 30 °C se alcanza por debajo del 14% que es el valor al
que se llega al equilibrio para las isotermas de sorción a 37°C, con los cual se evidencia que especialmente para
la de sorción más rápidamente se alcanza el EMC a 37 °C. La histéresis generada por las curvas de adsorción y
de sorción son similares para las curvas a las dos temperaturas trabajadas. El calor isosterico fue calculado
aplicando la ecuación de Claussius Clapeyron de acuerdo con lo recomendado por [1] y el valor obtenido es de
7,11 k/mol. En Colombia realizada una exhaustiva revisión bibliográfica no se encontraron datos reportados
Congreso Nacional de Ingeniería CNIA2012 25
confiablemente para el SA obtenido de la variedad de arroz paddy Fedearroz 60, con lo que no se pudo hacer
una comparación a nivel local.
Figura 1. Isotermas de sorción para el salvado de arroz a 30 °C
Figura 2. Isotermas de sorción para el salvado de arroz a 30 °C
Referencias
[1] B. S. Reddy y A. Chakraverty.Equilibrium Moisture Content of Raw and Parboiled Paddy, Brown Rice
and Bran. Drying Technology. Vol. 22, No 4, pp. 837 – 851. 2004.
[2] S. Samapundo, F. Devlieghere, B. De Meulenaer, A. Atukwase, Y. Lamboni yJ. Debevere.
Sorptionisotherms and isosteric heats of sorption of whole yellow dent corn. Journal of Food Engineering 79 pp.
168 – 175. 2007.
[3] Ernesto O. Timmermann. Multilayer sorption parameters: BET or GAB values?.Colloids and Surfaces
A: Physicochem. Eng. Aspects 220, pp. 235 – 260. 2003.
[4] A. Vega Gálvez, E. Lara Aravena y R. Lemus Mondaca. Isotermas de adsorción en harina de maíz. Ciencia
y Tecnología Alimentaria, 26(4), pp. 821-827. 2006.
0,0
2,0
4,0
6,0
8,0
10,0
12,0
14,0
16,0
0 0,1 0,2 0,3 0,4 0,5 0,6 0,7 0,8
EMC
(g
agu
a/1
00
g m
s)
Actividad de Agua
Adsorción
Desorción
0,0
2,0
4,0
6,0
8,0
10,0
12,0
14,0
16,0
0 0,1 0,2 0,3 0,4 0,5 0,6 0,7 0,8
EMC
(g
agu
a/1
00
g m
s)
Actividad de Agua
Adsorción
Desorción
Congreso Nacional de Ingeniería CNIA2012 26
VULNERABILIDAD DEL TRATAMIENTO CONVENCIONAL DE AGUA PARA CONSUMO
HUMANO
O.E. Ospina Zúñiga1, H. Ramírez Arcila
2
1-2 Departamento de Ingeniería Civil, Grupo Investigación AQUA, Universidad Cooperativa de Colombia,
Ibagué
Palabras claves: Vulnerabilidad, contaminantes, tratamiento
Problema
Las diversas y altas concentraciones de contaminantes incorporados a cuerpos de agua, ponen de manifiesto la
vulnerabilidad de las plantas de tratamiento convencional de agua para consumo humano, con consecuencias en
la salud pública. Colombia como reflejo de muchas regiones latinoamericanas, es víctima de una irresponsable
actitud estatal y de particulares, que por ausencia de controles de calidad, legislación y tratamiento
indiscriminado de cultivos con plaguicidas y agroquímicos están ocasionando un severo efecto ambiental en el
agua, perjudicando sus componentes y tornándose mortal para la salud humana. Los sistemas de tratamiento
convencionales son ineficientes para retener algunos de estos contaminantes.
El principal detonante de las altas tasas de morbilidad y mortalidad que se presenta en la población, se ha
convertido en uno de los problemas ambientales más graves del siglo XXI debido a la agresiva intervención
antrópica de las Cuencas Hidrográficas, como fábricas de los cuerpos de agua abastecedores de sistemas de
acueducto, con proliferación de todo tipo de contaminantes y especialmente químicos industriales. La riqueza
hídrica que históricamente ha poseído Colombia, está en alto riesgo dada la mala práctica que la población le
está dando a este preciado recurso, con la falacia que es inagotable e invulnerable.
Metodología
El trabajo se realizó mediante métodos evaluativos. La investigación se refiere a la evaluación de la
vulnerabilidad de los sistemas convencionales de tratamiento de agua superficial, a partir de los potenciales
contaminantes establecidos en la normativa vigente en Colombia [1]. El sistema de tratamiento convencional
utilizado frecuentemente en Colombia, corresponde al conjunto de los siguientes procesos: Mezcla rápida,
floculación – coagulación (clarificación), sedimentación, filtración y desinfección [2]. Todos ellos con la
capacidad de remover contaminantes físicos, químicos, organolépticos y bacteriológicos, siempre y cuando la
fuente de abastecimiento no contenga altos índices de contaminación (concentración, diversidad).
La retención de partículas solubles y disueltas en el agua se remueve de mayor a menor tamaño, siendo la
filtración la fase final de este proceso. Pero en el agua existen algunas partículas o elementos que por su tamaño
no pueden ser cribadas en el proceso de tratamiento y se incorporan al agua tratada, siendo consumida por la
población. También algunos micro-organismos son capaces de superar el proceso de filtración dado su tamaño.
El proceso de clarificación del agua para consumo humano, definido como la separación de los sólidos del agua
por acción de la gravedad, se obtiene a partir de la coagulación, floculación y separación de partículas
(sedimentación y filtración) como se indica en la figura 1; siendo: Coagulación, la aglutinación de las partículas
suspendidas y coloidales presentes en el agua mediante la adición de coagulantes; floculación, la aglutinación de
partículas inducida por la agitación lenta de la suspensión coagulada [3]. El proceso de tratamiento
convencional típico utilizado en Colombia y especialmente en la totalidad de municipios del departamento del
Tolima, se describe en la Figura 1.
Congreso Nacional de Ingeniería CNIA2012 27
Figura 1. Esquema del proceso de tratamiento convencional
Fuente: OSPINA, 2011
La norma Colombiana establece 40 indicadores de contaminación distribuidos en cinco (5) grupos:
Microbiológicos, físicos, químicos con efecto directo, plaguicidas y químicos con efecto indirecto. Varios de
ellos requieren para su remoción de procesos tecnológicos no incluidos en el sistema de tratamiento
convencional, lo cual pone de manifiesto la vulnerabilidad del mismo en el evento de estar presente en la fuente
de abastecimiento. Algunos contaminantes se remueven utilizando procesos de intercambio iónico, ósmosis
inversa, carbón activado y aplicación de ozono, entre otros; tecnologías estas que no hacen parte del proceso
convencional y no están disponibles para comunidades urbanas y rurales en Colombia, dado sus altos costos de
operación y mantenimiento. Si la fuente de abastecimiento posee este tipo de contaminantes, es probable su
consumo por parte de la población con su consecuente acción destructiva en la salud. Las plantas de tratamiento
convencionales realizan la retención física de partículas de mayor a menor tamaño: En el desarenador se
retienen hasta tamaños mínimos de 100 micras y en la filtración hasta de 5 micras.
Figura 2-A. Tamaño de partículas presentes en el agua y retenidas en el tratamiento físico convencional
Fuente: OSPINA, 2011
Congreso Nacional de Ingeniería CNIA2012 28
Figura 2-B. Tamaño de partículas presentes en el agua y retenidas en el tratamiento físico convencional
Fuente: OSPINA, 2011
Todo lo anterior cuando se trata de unidades operando en condiciones de buen funcionamiento y con los
caudales y tiempos de retención de diseño. Para el caso de la filtración, en Colombia es frecuente utilizar
multicapas con materiales como grava, arena y antracita [4]. El tamaño de varias partículas y micro-organismos
son inferiores a 1 micra, por lo tanto la planta de tratamiento es vulnerable al respecto. El proceso de remoción
de micro organismos del agua, es de gran complejidad y requiere especial atención cuando la fuente de
abastecimiento posee altas concentraciones y algunos ooquistes inmunes a desinfectantes como el cloro (en
dosis no letales para el ser humano).
Resultados
La investigación desarrollada pone de manifiesto la vulnerabilidad de las plantas de tratamiento convencionales
de agua para consumo humano, cuando las condiciones físicas, químicas y bacteriológicas de la fuente de
abastecimiento son deficientes. Si se analiza cada uno de los potenciales contaminantes que se presentan en
aguas superficiales y el proceso eficaz de remoción, se puede determinar cuáles son retenidos en el sistema
convencional y cuáles lo superan. Varios de los químicos con efecto directo en la salud humana provienen de
actividades antrópicas (agricultura y ganadería), los cuales no son retenidos, por tratamientos convencionales. El
tamaño de partículas disueltas y en suspensión pueden pasar el sistema de filtración, dejando en el agua para
consumo humano presencia de algunas bacterias y virus que afectan la salud humana. En varias investigaciones
se ha comprobado que los ooquistes de Cryptosporidium y Giardia son protozoos parásitos que sobreviven al
tratamiento convencional del agua, como es el caso de la investigación realizada en el año 2010 a varios
municipios de Galicia – España, donde se detectó la presencia de estos parásitos luego del proceso de
tratamiento del agua [5]. El indicador de coliformes fecales es la escherichia coli [1], con la cual se evalúa la
presencia o no de este tipo de contaminante (tamaño de hasta 3 micras). Sin embargo existen otras bacterias de
menor tamaño que pasan sin dificultad la filtración, como es el caso del streptococcus y haemophilus influenza;
lo cual implica un adecuado proceso de desinfección en el tratamiento.
Referencias
[1] Resolución 1096 (2000). Reglamento Técnico del Sector de Agua Potable y Saneamiento Básico R.A.S.
2000. Ministerio de Desarrollo Económico de la República de Colombia.
[2] CEPIS - Centro Panamericano de Ingeniería Sanitaria y Ciencias del Ambiente) (1981). Teoría, diseño
y control de los procesos de clarificación del agua – Serie Técnica 13.
[3] O. Ospina. Sedimentación de agua con coagulantes naturales. Maestría en Gestión y Auditorías
Ambientales. Universidad Internacional Iberomaericana de Puerto Rico, 2011.
[4] H.E., Hilleboe. Manual de tratamiento de aguas. New York: Departamento de Sanidad del Estado de
Nueva York, Albany.1998
Congreso Nacional de Ingeniería CNIA2012 29
MODELO MATEMÁTICO PARA LA SIMULACIÓN DE LA PRODUCCIÓN DE METANO EN UN
REACTOR BATCH
H.M. Hernández Sarabia1, M. Machado Higuera
2
1 Facultad de Ingeniería/GMAE, Universidad de Ibagué, Ibagué.
2 Facultad de Ciencias Naturales y Matemáticas/NATURATU, Universidad de Ibagué, Ibagué.
Palabras claves: Digestión anaerobia, Biogás, Bioproceso
Problema
Obtener un modelo matemático que represente las reacciones químicas del proceso biológico (dinámico) de
digestión anaerobia, para la producción de biogás en un reactor batch (no continuo). Luego simular el modelo
utilizando Matlab/Simulink® y posteriormente validarlo con datos experimentales.
Metodología
La Formulación del modelo matemático que represente el proceso de digestión anaerobia, se realizo estudiando
los procesos biológicos, químicos y físicos que tienen relación en un ecosistema donde coexisten diferentes tipos
de microrganismos que catalizan las reacciones que tiene lugar en un bioreactor tipo batch. Se determinó la
cinética de las reacciones en un sistema dinámico como este y se hizo una estimación de los parámetros del
modelo tomando los resultados del comportamiento de las variables de pH, Temperatura, Acidez, Alcalinidad,
remoción de materia orgánica y producción de Biogás que tienen lugar en un bioreactor. Para la solución del
sistema se determinaron las constantes cinéticas del proceso para cada paso y se resolvieron las ecuaciones
diferenciales que describen el sistema no lineal. Las ecuaciones diferenciales fueron implementadas en
Matab/Simulink®, donde se realizaron simulaciones para analizar el comportamiento de las diferentes variables
que interviene en el proceso, revisar su dinámica y ajustar parámetros iníciales. Luego para comprobar la validez
del modelo se corrieron simulaciones con datos obtenidos de referencias bibliográficas confiables y se
compararon resultados del modelo planteado contra los datos de validación.
Resultados
Se obtuvo un modelo matemático que representa satisfactoriamente la producción de Metano en un reactor tipo
batch para diferentes tipos de sustratos. El modelo fue validado con datos obtenidos se demostró que es
confiable para representar la dinámica de las variables como pH, producción de biogás, concentración de
sustrato, concentración de biomasa en el proceso de digestión anaerobia en un reactor batch. Para la obtención
del modelo el proceso fue dividido en tres partes, donde se representa mediantes ecuaciones químicas acopladas
los procesos de desintegración, hidrolisis, acidogenesis, acetogenesis y metanización que se llevan a cabo dentro
de la digestión anaerobia. Con el modelo obtenido se tiene una valiosa herramienta para profundizar en el
conocimiento del proceso y para el diseño de estrategias de control automático que permitan tener una
producción de Biogás estable y optimizar la producción a partir de la fracción orgánica de desechos orgánicos,
contribuyendo de esta forma con una solución tangible al problema ambiental con el manejo de residuos sólidos
y al calentamiento global con una producción de biogás estable que puede ser aprovechado por su contenido de
Metano del 60% como un biocombustible renovable que ayude con la disminución de la concentración de gases
efecto invernadero y el reemplazo de combustibles fósiles.
Referencias
[1] Bastone, D.J, Keller, J., Angelidaki, I., kalyuzhnyi, S.V, Pavlostatathis,S. G., Rozzi A., Sanders, W. T.
M., Siegrist, H., Vavilin, V. A.(2002). Anaerobic Digestion Model No 1, scientifically and technical report No
13. IWA Publishing.
[2] Batstone, D. J., Keller, J. & Steyer, J. P. (2005). A review of ADM1 extensions, applications, and
analysis 2002 - 2005, Workshop.
[3] García-Ochoa, F., Santos, V.E., Naval, L., Guardiola E. and López B., (1999). Kinetic model for
anaerobic digestion of livestock manure. Elsevier Science Inc., Enzyme and Microbial Technology 25, 55-60.
Congreso Nacional de Ingeniería CNIA2012 30
TENDENCIAS ACTUALES EN LA ELECTRÓNICA DE POTENCIA DE LOS SISTEMAS
FOTOVOLTAICOS
O. Lopez-Santos1, L. Martinez-Salamero
2, G. Garcia
3
1D+TEC, Universidad de Ibagué, Ibagué, Colombia
2GAEI, Universidad de Rovira i Virgili, Tarragona, España
3MAC, Laboratoire d‟Analyse et d‟Architecture des Systèmes - LAAS, Toulouse, Francia
Palabras claves: Sistemas fotovoltaicos, electrónica de potencia, generación distribuida.
Problema
Existe una clara tendencia mundial hacia el aprovechamiento de energías renovables que permitan reducir la
producción de energía eléctrica a partir de hidrocarburos o energía nuclear. En los años recientes, debido a los
acontecimientos que evidencian los riesgos introducidos por el uso de la generación nuclear, el interés por el uso
de energías renovables se ha acelerado en todo el mundo, principalmente en Europa por la cantidad de centrales
nucleares instaladas. Por lo tanto, diversos esfuerzos de investigación se enfocan en conseguir que los
generadores fotovoltaicos y otras energías alternativas puedan usarse de forma distribuida [1,2].
Los generadores fotovoltaicos, han evolucionado históricamente desde las arquitecturas con un inversor
centralizado para arreglos de múltiples paneles solares hacia las arquitecturas con un micro-inversor para cada
panel solar. Esto se debe principalmente a que la conexión de paneles solares en arreglos serie, deteriora el
rendimiento general del sistema debido a la no homogeneidad de los módulos o de las condiciones de operación.
Las topologías usadas actualmente introducen una etapa de conversión DC-DC que permite extraer del panel
solar la totalidad de la energía captada usando un algoritmo de seguimiento para el máximo punto de potencia
MPPT (del inglés: MaximumPower Point Tracking), mejorando el rendimiento [3]. Entre las topologías actuales
de los sistemas fotovoltaicos se destacan las arquitecturas con arreglos en cadena (del inglés: Multi-string), en
donde los paneles fotovoltaicosson conectados cada uno a un convertidor DC-DC que posee MPPT, para
posteriormente conectar los convertidores en serie y obtener un nivel de tensión apto para una etapa reductora
DC-AC [4]. Otra arquitectura que ha despertado el interés de la comunidad científica e industrial, convierte la
energía suministrada por un panel solar directamente a la forma de la red eléctrica permitiendo la conexión
directa y en consecuencia la unificación del sistema en un único módulo AC [4]. Los módulos AC más
comúnmente utilizados y de los que se ha discutido una inherente ventaja respecto a los demás utilizan una
topología con dos etapas, una etapa DC-DC con MPPT y otra DC-AC [5]. Así, surge la pregunta: ¿Qué
convertidores electrónicos pueden ser utilizados para desarrollar un módulo AC de dos etapas garantizando
estabilidad, confiabilidad y valores aceptables de tamaño, peso y costo?
Metodología
Se han planteado tres mecanismos de obtención de información: indagación, simulación y experimentación. La
indagación se realiza especialmente en publicaciones de IEEE e IET, hojas técnicas y manuales de fabricantes,
con énfasis en los inversores fotovoltaicos conectados a la red eléctrica. La simulación es desarrollada usando
PSIM y MATLAB, con el fin de explorar las topologías y realizar la verificación de los resultados que se
deriven de análisis teóricos. La experimentación será enfocada en la construcción de un prototipo completo de
modulo AC. Para la consecución de los objetivos propuestos, se definen los siguientes pasos:
Estudiar diferentes configuraciones de módulos AC de dos etapas.
Analizar el comportamiento estático de las etapas.
Estudiar el funcionamiento de la estructura durante el arranque.
Determinar las topologías más apropiadas para cada etapa.
Diseñar leyes de control requeridas.
Todas las etapas validadas a través de simulaciones y experimentación.
Avances
Hasta el momento, la investigación ha permitido comparar al convertidor elevador, el convertidor elevador
cuadrático y el convertidor elevador cúbico con el fin de satisfacer las condiciones de la etapa DC-DC sin usar
un transformador de alta frecuencia. El estudio se ha centrado en el análisis de rendimiento de los convertidores,
teniendo en cuenta tanto las pérdidas por conducción como las perdidas por conmutación. Estos resultados
Congreso Nacional de Ingeniería CNIA2012 31
preliminares nos permiten concluir que el convertidor elevador cuadrático es una estructura competitiva para ser
aplicada en el desarrollo del modulo AC de dos etapas propuesto. Además, se han realizado simulaciones del
convertidor completo (Etapas DC-DC y DC-AC) conectado a la red eléctrica inyectando potencia real con
resultados favorables. La Figura 1 presenta el modelo de simulación usado y la Figura 2, las señales
correspondientes a la salida de cada una de las etapas del convertidor.
Figura 1. Modelo de simulación PSIM de modulo AC de dos etapas
Figura 2.Resultados de simulación:a) tensión de entrada, b) tensión de salida de la etapa DC-DC, c) corriente
inyectada a la red, y d) tensión de la red.
Referencias
F. Blaabjerg, C. Zhe, S.B. Kjaer, "Power electronics as efficient interface in dispersed power generation
systems," IEEE Transactions on Power Electronics,vol. 19, no. 5, pp. 1184-1194, Septiembre, 2004.
Y.Xue; L. Chang; S.B.Kjaer; J. Bordonau,T. Shimizu, "Topologies of single-phase inverters for small
distributed power generators: an overview", IEEE Transactions on Power Electronics, vol.19, no. 5, pp. 1305-
1314, Septiembre, 2004.
K.K.Tse, B.M.T. Ho, H.S.-H. Chung, S.Y.R.Hui, "A comparative study of maximum-power-point trackers for
photovoltaic panels using switching-frequency modulation scheme," IEEE Transactions on Industrial
Electronics, vol.51, no.2, pp. 410-418, Abril, 2004.
J.M.A. Myrzik, M. Calais, "String and module integrated inverters for single-phase grid connected photovoltaic
systems - a review", 2003 IEEE Bologna Power Tech Conference Proceedings, vol. 2, pp. 23-26, Junio, 2003.
S.B. Kjaer, J.K. Pedersen, F. Blaabjerg, "A review of single-phase grid-connected inverters for photovoltaic
modules", IEEE Transactions on Industry Applications,vol.41, no.5, pp. 1292-1306, Septiembre, 2005.
Congreso Nacional de Ingeniería CNIA2012 32
VARIABLES DETERMINANTES DE LA MADUREZ COMERCIAL EN MORA DE CASTILLA
L.C. Ayala S1., C.P. Valenzuela R
2., Y. Bohórquez P
3.
1-2-3 Grupo de Investigación CEDAGRITOL, Universidad del Tolima, Ibagué
Palabras claves: Grado de madurez, pérdidas, comercialización.
Problema
La mora de castilla (Rubus glaucus Benth.), fruto cultivado en zonas de clima frio moderado del departamento
del Tolima, en relación a su tendencia de producción, presenta un alto potencial para consumo en fresco e
industrial. Sus características fisicoquímicas, morfológicas y fisiológicas hacen de éste uno de los frutos más
lábiles de la cadena hortofrutícola, si se tiene en cuenta su alta perecibilidad, reducida vida en anaquel (3 – 5
días) bajo condiciones especiales de almacenamiento (90 - 95%HR y 0 – 1°C), susceptibilidad fitosanitaria al
ataque de Botrytis cinerea, fermentación y daños mecánicos, que en general redundan en pérdidas que a nivel
nacional pueden ascender a 70% en etapas de cosecha y postcosecha cuando su manejo no es adecuado [1].
Adicionalmente factores como su condición de respiración no climatérica, desarrollo y maduración no
homogéneos dificultan las labores de cosecha, selección, empaque, transporte, conservación y comercialización,
actividades que en la actualidad son realizadas de manera subjetiva, generando un producto con reducida calidad
por avanzado estado de madurez, heterogeneidad en forma, tamaño y color, que afectan volúmenes ofertados,
precios y aceptación en el mercado. En particular para este estudio se evaluó mora de Castilla proveniente del
Cañón del Combeima – Municipio de Ibagué, donde más de 200 agricultores garantizan en promedio 14
toneladas/semana al mercado local y en su mayoría dependen de esta actividad económica por su posibilidad de
generar buenos ingresos y empleos permanentes. Se espera que la difusión de resultados correspondientes a la
estimación del estado de madurez óptimo de cosecha del producto que garantice un adecuado desarrollo físico,
apariencia, acumulación de compuestos fitoquímicos, balance dulce/acido, resistencia y conservación en
postcosecha sea en corto plazo de gran utilidad para productores, comercializadores y consumidores de la
región.
Metodología
Material Vegetal: Los frutos de mora cultivados entre 1800-2300 msnm en la Vereda el Retiro del Cañón del
Combeima, fueron recolectados en tres estados de madurez, según clasificación por color establecida en la NTC
4106 [2] con algunas modificaciones propuestas para esta investigación (tabla 1), posteriormente se dispusieron
en contenedores de Ptereftalato de Polietileno (PET), y transportaron bajo cadena de frio a los laboratorios de
postcosecha de la Universidad del Tolima y Salud Pública de la Secretaria de Salud Departamental para su
correspondiente evaluación física, química y fisiológica .
Tabla 1. Clasificación de frutos de Mora por grado de madurez, adaptada de NTC 4106 [2].
Grado de Madurez Características
Grado 4 Fruto de color rojo con ¼ de área rojo intenso y/o morado
Grado 5 Fruto con mitad de área roja y mitad morada
Grado 6 Fruto morado oscuro
Parámetros Físicos: Se realizó la medición de longitud, diámetro mayor y menor empleando 75 frutos por
muestra, haciendo uso de un calibrador HOPEX; y se registró el peso unitario en fresco por medio de una
balanza de precisión electrónica HR-200 A&D con capacidad de 210 g ± 0,0001 g.
Parámetros Químicos: Se cuantificó el contenido de sólidos solubles totales (SST) con refractómetro ATAGO
escala de 0 a 32 °Brix; y la Acidez titulable (AT) se determinó con titulación potenciométrica haciendo uso de
un potenciómetro CG 820 Schott a temperatura de referencia de 20°C, sus resultados se reportaron en porcentaje
de ácido málico. Las metodologías de referencia corresponden a las normas ICONTEC para productos de frutas
Congreso Nacional de Ingeniería CNIA2012 33
y hortalizas. A partir de la relación entre el valor mínimo de SST y el valor máximo de AT [3] se determinó el
índice de madurez.
Parámetros Fisiológicos: Índice de transpiración e intensidad respiratoria fueron evaluados, para tal fin se
dispuso de 250 g de fruta por muestra, en empaques rígidos con tapa plana tipo tarrina de Ptereftalato de
Polietileno (PET) 16 Oz., con 10% del área perforada y almacenados durante 6 días en refrigeración bajo
condiciones de temperatura y humedad relativa de 2 ± 1°C y 65 – 85% respectivamente. La transpiración de los
frutos se determinó mediante la cuantificación de la pérdida diaria de peso, su resultado se reportó en porcentaje
p/p; entre tanto la taza de respiración se cuantificó diariamente utilizando un determinador de gases CheckMate3
PBI-Dansensor, expresando su resultado en mgCO2/Kg·h.
Análisis Estadístico: Los resultados obtenidos por triplicado, fueron tabulados y evaluados a través de análisis
de varianza simple y multifactorial (ANOVA - MANOVA), se empleo diferencias mínimas significativas (LSD)
de Fisher como método de comparación múltiple, con un nivel de confianza del 95,0%. Dichos análisis se
realizaron con el paquete estadístico Statgraphics Centurion Versión XV.II. (Statpoint Technologies Inc.,
Warrenton, VA, E.U.).
Resultados
Como variable de crecimiento de los frutos se tiene definido el tamaño (largo y ancho), sin embargo este
proyecto incluyo el peso, diámetro mayor y menor en la estimación de desarrollo de los mismos. Los frutos de
mora presentaron rangos de 18,15 a 38,1 mm; 14,0 a 28,55 mm y 8,3 a 19.95 mm en longitud, diámetro mayor y
menor respectivamente. Como se observa en la tabla 2, la fruta en grado de madurez cinco (GM 5) presentó un
promedio de longitud levemente superior a los frutos en GM 6, fenómeno atribuible a factores de recolección,
clasificación de muestras de acuerdo al interés del estudio (grado de madurez) e irregularidad de crecimiento y
maduración del producto en campo generado posiblemente por deficiencias en nutrición e irrigación de las
plantas. No obstante, el análisis de varianza por diferencia mínima significativa (LSD) de Fisher estableció que
no existen diferencias estadísticamente significativas entre medias de la longitud para los tres grados de madurez
analizados (Tabla 2). Al relacionar este parámetro con las medidas de diámetro mayor y menor se observó que
los frutos son más largos que anchos terminando en punta hacia el ápice. Las medias de diámetro mayor y menor
presentaron diferencias estadísticas entre estados, particularmente el diámetro menor permite inferir que a partir
del GM 4 se define la forma cónica característica de la fruta. Cabe resaltar que dichas medidas en promedio
clasifican a la mora producida en el Cañón del Combeima en calibres B, C y D [2], aspecto a considerar para el
diseño de nuevas alternativas de empaque y mejoramiento de calidad.
Tabla 2. Parámetros fisicoquímicos de mora de Castilla producida en el Cañón del Combeima-Ibagué.
Grado de
Madurez
Parámetro
Peso*
(g)
Longitud*
(mm)
Diámetro
mayor*
(mm)
Diámetro
menor*
(mm)
Acidez T.**
(%Acido
Málico)
SST**
(°Bx)
Índice de
Madurez**
(°Bx/%AT)
GM 4 6,85±1,16a
27,29±2,87a
18,81±1,63a
12,71±1,76a
3,23±0,05a
6,93±0,12a
2,15±0,03a
GM 5 7,58±1,48b
28,09±3,49a
19,32±1,68a
12,09±1,24b
2,83±0,03b
7,93±0,12b
2,80±0,07b
GM 6 7,77±1,98b
27,05±3,68a
20,22±2,31b
12,10±1,69b
2,25±0,15c
8,00±0,00b
3,57±0,25c
* Valores promedio n=75±DE. Letras en el superíndice de cada columna indican diferencias significativas
(p<0.05).
** Valores promedio n=3±DE. Letras en el superíndice de cada columna indican diferencias significativas
(p<0.05).
El peso presentó un comportamiento ascendente, con incremento de 10% del GM 4 al GM 5 y 2% del GM 5 a
GM 6, en este caso particular, el fruto en el estado de madurez GM 6 no experimento cambios estructurales en la
protopectina que genera ablandamiento de los tejidos y liberación de agua y otros compuestos al medio, lo que
en condiciones normales de cosecha y postcosecha en la zona (factores ambientales, empaques, almacenamiento
Congreso Nacional de Ingeniería CNIA2012 34
en campo y transporte) generan una reducción en el peso del fruto cercana al 17% por lixiviados. El ANOVA
evidenció que no existen diferencias estadísticamente significativas en los valores promedio de peso entre los
estados de madurez GM 5 y GM 6.
Respecto del contenido de SST se observo un aumento promedio de 6% SST entre grados de madurez, dichos
valores se ubican dentro de los límites establecidos en la normatividad [2], además son superiores a 6,5°Brix, lo
que indica que cumple con los requerimientos mínimos de sólidos solubles totales para mercado en fresco e
agroindustrialización en cualquiera de los estados de madurez evaluados. La valoración estadística de este
atributo indica que no existen diferencias significativas entre GM 5 y GM 6, condición que permite evidenciar la
posibilidad de recolección en grado de madurez 5 para frutos con destino a mercado en fresco y procesado. La
correlación positiva entre el estado de madurez y el aumento de SST, se atribuye a la conversión de ácidos
orgánicos en azúcares o la reserva de carbohidratos de la planta por baja capacidad fotosintética del fruto [3].
Así mismo, se encontró una tendencia descendente para %AT con el avance de la madurez, comportamiento que
diversos autores relacionan a la actividad de las deshidrogenasas y empleo de ácidos orgánicos como sustratos
de la respiración para síntesis de nuevos componentes. La relación °Bx / Acidez titulable o índice de madurez
(IM), además de ser un indicativo del estado de desarrollo de los frutos, constituye una aproximación a la
calidad organoléptica de los mismos. En este sentido la tendencia ascendente, con máximo incremento (22%)
entre los estados 5 y 6, coincide con lo obtenido por Galvis (1995) y diversos autores, para mora producida en
otras regiones del país y pone de manifiesto la competitividad del producto local para el mercado nacional. El
ANOVA indica que las medias son estadísticamente diferentes (p<0,05) entre grados de madurez, tanto para
%AT como para IM.
Figura 1. Intensidad respiratoria de frutos de mora de Castilla (Rubus glaucus Benth.) en tres estados de
madurez durante almacenamiento refrigerado (2°C±1°C).
Los frutos en los 3 estados de madurez presentaron un descenso en la actividad respiratoria, obteniendo valores
entre 101,4 y 8.4 mgCO2/Kg·h, teniendo influencia directa la edad del tejido. El menor grado de madurez
presentó la más alta tasa respiratoria, indicando que la recolección en GM 4 generará mayores cambios de
calidad de la fruta y envejecimiento durante el almacenamiento y/o comercialización. Los resultados obtenidos
para esta variable concuerdan con los reportados por Sora (2006) en mora proveniente de Silvania-
Cundinamarca, refrigerada y empacada en atmósferas modificadas activas (170 y 5 mgCO2/Kg·h) [4], lo que de
nuevo pone de manifiesto la competitividad de la fruta del Cañón del Combeima en relación a su actividad
metabólica ligeramente inferior a la presentada por un producto sometido a tratamientos más costosos. De igual
manera, el comportamiento respiratorio ratifica a la mora como un fruto no climatérico, que ve afectado la
síntesis de azucares y otros compuestos si es recolectado de forma prematura, aún cuando puede presentar
cambios de coloración por síntesis de pigmentos. El análisis multifactorial indico que tanto el grado de madurez
como el tiempo de almacenamiento tienen un efecto estadísticamente significativo sobre la respiración de los
frutos con un nivel de confianza del 95,0%, además, la prueba múltiple de rangos discriminó los promedios entre
grados de madurez.
En general la intensidad respiratoria e índice de transpiración se ven afectados por condiciones de
almacenamiento, principalmente por temperatura, humedad relativa, edad del fruto y variedad. Diversos autores
Congreso Nacional de Ingeniería CNIA2012 35
resaltan el hecho de que a menores temperaturas los procesos metabólicos que inciden en el envejecimiento de
los tejidos se ralentizan, es así como particularmente en la mora se obtiene una reducción significativa de la
actividad respiratoria almacenada en condiciones de refrigeración. En conjunto las muestras indicaron un
aumento progresivo de pérdida de peso por transpiración, sin diferencias estadísticamente significativas
demostradas por la prueba múltiple de rangos (95,0% LSD Fisher). Los frutos experimentaron una reducción
promedio de peso del 9.6% al sexto día de almacenamiento refrigerado, valor superior a frutos de mora
empacados en atmósfera modificada activa y almacenada en sistemas convencionales de refrigeración (4°C 90-
95%HR) [4].
Figura 2. Pérdida de peso en frutos de mora de Castilla (Rubus glaucus Benth.) almacenados en refrigeración
(2°C±1°C).
Esta caracterización de frutos de mora en sus estados finales de madurez permitió establecer contrastes en
calidad del producto, registrándose las mayores diferencias en parámetros morfométricos y químicos. Los
valores obtenidos indicaron que la comercialización de la mora debe realizarse en GM 5 teniendo en cuenta que
en dicho estado de madurez se alcanza la adecuada acumulación de ácidos, sólidos solubles, desarrollo y forma
característica del fruto, sin diferencias significativas en peso respecto de la madurez comercial actual (GM 6). La
cosecha en GM 4 se hace inviable, atendiendo especialmente a las diferencias en peso y alta tasa respiratoria, lo
que conllevaría a la reducción en precios de venta y aceleración de procesos degradativos del producto. La
recolección en GM 6 es descartable pese a las buenas características fisicoquímicas y fisiológicas presentadas,
puesto que en dicho estado la resistencia a la compresión disminuye considerablemente, dificultando labores de
empaque, transporte y comercialización por generación de daños mecánicos, lixiviación y fermentación.
Finalmente, la cuantificación de atributos específicos de calidad de un fruto representativo del departamento
como lo es la mora, permite ratificar su competitividad, así como suministrar a la comunidad en general,
valiosos resultados para futuras negociaciones que se proyecten realizar a nivel local, nacional e internacional.
Referencias
[1] J.A. Galvis y A. Herrera, La mora: manejo postcosecha. ed. Medellín (Colombia): Universidad Nacional de
Colombia-Sena, 1995.
[2] Instituto Colombiano de Normas Técnicas y Certificación. Frutas Frescas. Mora de Castilla.
Especificaciones (NTC 4106). ed. Bogotá (Colombia): ICONTEC, 1997.
[3] C.R. Gómez, En: Caracterización de los productos hortofrutícolas Colombianos y establecimiento de las
normas técnicas de calidad. Mora de Castilla (Rubus glaucus Benth.). ed. Bogotá (Colombia): Cenicafé-
Federación Nacional de cafeteros de Colombia–Sena, 2004.
[4] A.D. Sora, G. Fischer y R. Flórez, “Almacenamiento refrigerado de frutos de mora de Castilla (Rubus
glaucus Benth.) en empaques con atmósfera modificada”. Agronomía Colombiana, vol. 24, no. 2, pp. 306-316,
Diciembre, 2006.
0,00
2,00
4,00
6,00
8,00
10,00
0 1 2 3 4 5 6
% P
P
Tiempo de almacenamiento (Días)
GM4
GM5
GM6
Congreso Nacional de Ingeniería CNIA2012 36
CARACTERIZACION NUTRACEUTICA DEL SALVADO DE ARROZ DE DIFERENTES
VARIEDADES SEMBRADAS EN EL DEPARTAMENTO DEL TOLIMA
H.M. Hernández Sarabia1, M. Rojas
2, B. De Meulenaere
3
1 Programa de Automatización Industrial, Grupo de Investigación GMAE, Universidad de Ibagué
2 Department of Food Quality and Food Safety, Faculty of Bioscience Engineering, Ghent University, Belgium.
Palabras claves: Aceite de salvado de arroz, proteína, antioxidantes
Problema
El arroz es el principal cereal consumido en Colombia, El departamento del Tolima es el primer productor y en
su proceso de industrialización y producción se generan diferentes subproductos como el Salvado de arroz (SA)
el cual no tiene un alto valor comercial y su principal uso es para alimento concentrado de animales. El
contenido de Oryzanol, de vitamina E y la relación entre ácidos grasos saturados e insaturados hacen del aceite
del SA un saludable aceite para consumo humano. La presencia de todos los aminoácidos esenciales, su alta
digestibilidad y baja alergenicidad hacen de la proteína del SA un excelente suplemento proteico para ser
aprovechado en la industria alimenticia. En este trabajo se presenta los análisis nutraceuticos del SA para las
variedades Fedearroz 50, Fedearroz 60, Coprocem 304 y Mocari, en cuanto al contenido de oryzanol,
tocotrienoles, tocoferoles, fracciones proteicas, aminoácidos, perfil de ácidos grasos, para realzar los potenciales
usos en la industria alimenticia del SA y generar expectativa sobre este subproducto para un mejor
aprovechamiento.
Metodología
Los análisis nutraceuticos se realizaron para las 4 variedades en el laboratorio de NutriFood Chem de la
Universidad de Gent, Bélgica. Las muestras de SA fresco fueron tomadas en molinos de la región del Tolima,
estabilizadas en horno microondas por 3 minutos a 750 MHz, para evitar la degradación enzimáticas y después
fueron transportadas en el menor tiempo posible vía aérea hasta el laboratorio de la Universidad de Gante en
Bélgica, donde fueron almacenadas a -30 °C hasta el momento de los respectivos análisis. Se tomaron muestras
de las 4 variedades y 8 diferentes baches de producción para determinar la variación que se puede tener por
condiciones climatológicas de los cultivos, calidad de semillas, preparación de terrenos, fertilización y manejo
de cultivo. Se realizaron análisis bromatológicos de contenido de aceite, proteína, fibra dietaría, carbohidratos,
humedad y cenizas de acuerdo con el método AOAC1990 [1]. La extracción para las determinaciones del
contenido de Oryzanol, tocoferoles, tocotrienoles y perfil lipídico se realizo la extracción del aceite utilizando
Éter de petróleo como solvente en una relación 1:8 entre el SA y el solvente. Las muestras se centrifugación a 20
°C por espacio de 15 minutos a 9000 rpm. El sobrenadante fue recogido y el residuo extraído dos veces más.
El solvente con el aceite recolectado fue separado usando un rotovapor con temperatura de 40°C y luego el
aceite recogido fue secado con Nitrógeno. El contenido de Oryzanol fue determinado a una longitud de onda de
314 nm utilizando un espectrofotómetro Varian Cary 50, en una alícuota de 0,05 gramos de aceite en 25 ml de
Iso-Octano, de acuerdo con el método propuesto por Seetharamaiah and Prabhakar [2]. Se utilizo para la curva
de calibración ɣ-Oryzanol puro adquirido en Tokyo Industrial Chemicol Corporation. Los análisis de
Tocoferoles y Trocotienoles fueron realizados por cromatografía liquida usando un equipo Agilen 1100 ® con
automuestreador con columna de separación de Silica de 5 µm LichroCART con un detector de fluorescencia y
usando una fase móvil compuesta de 0,9% de Isopropanol, con 1% de agua en Hexano en un gradiente de flujo
de 1 ml/min en un tiempo de eludación de 22 minutos. Para la curva de calibración se utilizo una mezcla
estándar de Tocoferoles de 7,64%, 1,07%, 57,11%, y 24,52% de α, β, ɤ and δ Tocoferol respectivamente y una
mezcla estándar de tocotrienoles obtenido de aceite de palma purificado. Para la determinación del contenido de
aminoácidos las muestras se trataron en hidrolisis acida y básica para el Triptófano. Estándar interno fue
utilizado para la calibración y fueron derivaizadas utilizando OPA y FMOC en el mismo equipo de HPLC
Agilent pero con columna de separación Zorbax Eclipse AAA de rápida resolución de 4,6x150 mm.
La fase móvil compuesta por dos solventes el primero con una composición de 45% de Metanol, 45% de
Acetonitrilo y 10% de agua y el segundo solvente con solución buffer 45 mM de NaH2PO4.H2O con 0,02 % de
Congreso Nacional de Ingeniería CNIA2012 37
NaN3 a pH de 7,8. La rata de flujo fue de 2 ml/min y el tiempo de eludación de 25 minutos. El perfil lipídico se
realizaron por la descomposición de metil esteres de ácidos grasos de acuerdo con el método AOCS [3]. Fue
utilizado para los análisis un cromatografo de gases Agilent 6890N, con una columna capilar de 58.5mmx250
µm y diámetro interno de 0.2 µm nominal. El gradiente de temperatura del horno fue de: 50ºC (4min), 50-120ºC
(10ºC/min), 120-225ºC (6ºC/min); y el gas de transporte fue He con una rata de flujo de 1ml/min. Todos los
análisis fueron realizados por triplicado y analizados estadísticamente utilizando S-Plus 8.0 Para Windows®,
ANOVA y la prueba de Turkey fueron utilizadas para el análisis de significancia estadística con P=0,05.
Resultados
En las tablas del 1 al 5 se presentan los resultados obtenidos de los análisis Proximal, contenido de Oryzanol,
Tocoferoles, Tocotrienoles y Perfil Lipídico en el aceite y contenido de Aminoácidos en la proteína,
respectivamente.
Tabla 1. Análisis Proximal Salvado de Arroz de diferentes variedades
Parameter Variedades
F60 C304 F50 RBM
Humedad (%) 9,62 ± 0,12 9,95 ± 0,08 11,11 ± 0,20 10,30 ± 0,43
Proteína Total (g/100gDM*) 13,60 ± 0,06 15,29 ± 0,10 14,62 ± 0,21 15,08 ± 0,12
Ceniza/100g DM) 12,08 ± 0,06 12,26 ± 0,13 12,58 ± 0,01 9,47 ± 0,06
Aceite Total (g/100g DM) 21,09 ± 0,66 23,44 ± 0,47 21,28 ± 0,50 22,15 ± 0,55
Fibra Total (g/100 DM) 25,96 ± 0,95 24,74 ± 1,15 29,94 ± 0,79 20,98 ± 0,54
Carbohidratos (%) 48,14 44,13 45,79 47,81
seca
Tabla 2. Contenido de Oryzanol, Tocoferoles y Tocotrienoles en el Salvado de Arroz de diferentes variedades
Variedades
Parámetros F60 C304 F50 RBM
γ Oryzanol(g/100g Aceite) 1.94 ± 0.32 1.43 ± 0.14 2.13 ± 0.20 1.78 ± 0.06
Alfa tocoferol (mg/kg aceite) 91.02 ± 17.78 212.45 ± 26.84 63.79 ± 5.61 104.95 ± 1.50
Betatocoferol (mg/kg aceite) 22.28 ± 5.48 29.18 ± 9.48 28.02 ± 10.19 10.09 ± 0.65
Gamma tocoferol (mg/kg aceite) 198.71 ± 38.33 56.28 ± 6.12 78.15 ± 6.75 94.43 ± 1.17
Delta tocoferol (mg/kg aceite) 8.33 ± 1.55 6.66 ± 4.34 4.44 ± 0.32 5.14 ± 0.23
Total tocoferol (mg/kg aceite) 320.33 ± 62.32 304.57 ± 37.30 174.40 ± 22.81 214.62 ± 3.13
Alfa tocotrienol (mg/kg aceite) 80.37 ± 20.33 106.11 ± 12.34 70.56 ± 6.69 65.41 ± 2.15
Gama tocotrienol (mg/kg aceite) 1115.95 ± 207.59 639.93 ± 80.68 873.12 ± 81.69 835.18 ± 13.79
Delta tocotrienol (mg/kg aceite) 99.99± 19.18 74.9609± 10.16 80.53± 7.37 63.43±1.73
Total tocotrienol (mg/kg aceite) 1296.32 ± 147.09 821.00 ± 102.65 1024.21 ± 95.41 964.02 ± 17.34
F60: Fedearroz 60; C304: Corpocem 304; F50: Fedearroz 50; RBM: Mocari.
Congreso Nacional de Ingeniería CNIA2012 38
Tabla 3. Contenido de Acidos grasos en el Salvado de Arroz de diferentes variedades
Ácidos Grasos %
Variedades
F60 C304 F50 RBM
C14:0 0.30 ± 0.03 0.32 ± 0.09 0.27 ± 0.09 0.28 ± 0.02
C14:1 0.02 ± 0.015 0.02 ± 0.016 0.01 ± 0.01 0.01 ± 0.02
C16:0 19.95 ± 0.45 19.83 ± 0.38 19.81 ± 1.06 20.86 ± 0.70
C16:1 0.18 ± 0.01 0.20 ± 0.02 0.20 ± 0.03 0.10 ± 0.09
C18:0 1.57 ± 0.04 1.78 ± 0.05 1.85 ± 0.03 1.86 ± 0.46
C18:1 40.70 ± 0.19 42.37 ± 0.65 42.27 ± 1.67 39.029±0.88
C18:2 35.32 ± 0.31 33.60 ± 0.35 33.56 ± 0.32 35.45± 0.82
C18:3 1.35 ± 0.02 1.08 ± 0.03 1.21 ± 0.09 1.42 ± 0.02
C20:0 0.61 ± 0.04 0.81 ± 0.10 0.80 ± 0.08 0.73± 0.05
SFA 22.433 22.73 22.74 23.73
MUFA 40.895 42.5896 42.47 39.139
PUFA 36.672 34.6776 34.77 36.87
SFA: Total de acidos grsos saturados; MUFA: Tatal de acidos grsos mono saturados; PUFA: Total de acidos grasos polisaturados
Tabla 4. Contenido de Amino acidos en el Salvado de Arroz de diferentes variedades
Aminoácidos
(mg/g proteína)
Variedades
F60 C304 F50 RBM
Aspartate 75.35 ± 5.02 75.52 ± 0.54 76.91 ± 2.84 67.55 ± 3.16
Glutamate 120.36 ± 7.86 121.19 ± 0.14 117.05 ± 3.71 108.02 ± 4.46
Serine 47.83 ± 3.32 47.85 ± 0.44 48.10 ± 1.79 44.88 ± 3.07
Histidine 29.96 ± 2.22 29.08 ± 0.40 28.19 ± 1.18 27.35 ± 1.25
Glycine 61.16 ± 5.76 59.70 ± 0.28 61.05 ± 2.23 62.25 ± 3.78
Threonine 40.81 ± 3.17 40.44 ± 0.57 40.26 ± 1.62 36.99 ± 1.60
Arginine 72.69 ± 5.93 72.85 ± 1.44 72.44 ± 3.00 66.76 ± 2.91
Alanine 67.08 ± 5.06 67.65 ± 0.31 67.01 ± 2.64 60.85 ± 2.79
Tyrosine 36.94 ± 2.55 38.91 ± 0.02 37.38 ± 1.24 33.77 ± 1.32
Valine 52.06 ± 4.37 52.33 ± 1.29 52.85 ± 2.56 47.96 ± 2.09
Methionine 14.94 ± 0.40 16.12 ± 0.60 15.20 ± 0.87 15.29 ± 0.82
Phenylalanine 47.52 ± 3.56 47.90 ± 0.16 48.82 ± 1.99 43.65 ± 1.86
Isoleucine 39.22 ± 3.01 38.99 ± 0.05 39.52 ± 1.25 36.43 ± 1.36
Leucine 77.28 ± 5.96 77.75 ± 0.30 77.65 ± 3.22 70.46 ± 2.96
Lysine 47.79 ± 3.47 46.94 ± 0.55 46.72 ± 1.77 42.72 ± 1.84
Proline 50.94 ± 2.47 51.13 ± 1.87 51.79 ± 2.28 52.61 ± 4.86
Tryptophan 13.57 ± 1.59 12.38 ± 0.92 12.29 ± 0.23 6.51 ± 1.18
Referencias
[1] AOAC, Association of Official Analytical Chemists. Official Methods of Analysis. 15th Edition,
Washington, D.C., (1990).
[2] G. S. Seetharamaiah y J. V. Prabhakar. Oryzanol content of Indian rice bran oil and its extraction from
soap stock. Journal of Food and Technology, 23, 3-6.R, (1986).
[3] AOCS, Official methods and recommended practices of the American Oil Chemists‟ society. Official
methods Ce 1b-89 for marine oils. 5th Edition, D. Firestone, AOCS press, Champaign, (1990).
Congreso Nacional de Ingeniería CNIA2012 39
ESTUDIO DE OPTIMIZACION DE LA PRODUCCION DE METANO POR VIA BIOLOGICA DE LA
FRACION ORGANICA DE RESIDUOS SOLIDOS URBANOS
M. Hernández1, B.A. Gómez
2
1-2 GMAE, Universidad de Ibagué, Ibagué
Palabras claves: Biogás, Residuos, Potencial
Problema
La fermentación anaeróbica es un proceso natural que ocurre en forma espontánea en la naturaleza y forma parte
del ciclo biológico. Las primeras menciones sobre biogás se remontan al 1.600 DC. Pero es hasta el año 1890 es
donde se encuentran las primeras referencias técnicas sobre la construcción del primer biodigestor a escala real
en la India y ya en 1896 en Exeter. Para el caso de Colombia, solo hasta los años 70, se iniciaron procesos de
difusión de la tecnología de los biodigestores en las fincas, copiando inicialmente los modelos chinos (cúpula
fija, presión variable) e indios (campana flotante, presión estable), con la ayuda y divulgación de entidades
estatales y privadas que han estado interesadas en la producción de Biogás a nivel industrial, de combustible
domestico y para vehículos así como generación de energía eléctrica [1], en el marco de la utilización de
energías renovables como fuente de abastecimiento amigable con el medio ambiente.
Aún así la información disponible se encuentra de forma dispersa y no está organizada, por lo que no se
considera una fuente de consulta veras para quienes están interesados; presenta discordancia en los datos
suministrados, en cuanto a los valores objeto de análisis que además en varios casos presenta información
desactualizada y no le permite a cada una de las regiones conocer su situación en tiempo real, frente a la
producción de Biogás y tomar medidas que catalicen y fomenten la utilización de este tipo de energía pues se
tiene una perspectiva equivoca en la que la generación de energía renovable no es viable económicamente
debido a sus bajas escalas de producción y así como tampoco se tiene en cuenta que el esquema se puede
combinar con la venta de créditos de carbono y la producción de biogás se puede convertir en una opción
económica, ambiental y socialmente sostenible [2].
Metodología
En este se proyecto se cuantifico la producción de Biogás en el Tolima con el objetivo de dejar una herramienta
de consulta, para quienes en hoy en día están interesados en convertir la fracción orgánica de residuos
domésticos, industriales, agropecuarios principalmente en fuente de combustible en el departamento, abriendo el
espectro de aprovechamiento de los recursos con los que cuenta cada región y de esta manera estimular el
desarrollo sostenible, mediante la utilización de energías renovables con peso económico importante que de
forma escalonada puede disminuir la producción de metano fósil, a quien se le atribuye el 16% de las emisiones
de gases de efecto invernadero en el mundo [3]. Contribuyendo al mismo tiempo con el cumplimiento del
séptimo objetivo del milenio, con el que se pretende dar respuesta a las necesidades humanas presentes sin
destruir la capacidad del medio ambiente para atender las necesidades energéticas en el largo plazo, aportando
significativamente a la cuota latinoamericana.
Se seleccionaron las fracciones orgánicas de residuos provenientes de plazas de mercado, desecho, residuos
domiciliarios, estiércol producido por especies agrícolas bobinas, porcinas y avícolas y la materia orgánica de
las aguas residuales domesticas que deben ser tratadas en las Plantas de Tratamiento de Aguas. El potencial se
calculo tomando como base la descomposición anaerobia de la materia orgánica contenida en cada tipo de
residuos. A pesar que el enfoque que se le dio al metano fue direccionado económico y ambientalmente, son
múltiples las posibilidades de aprovechamiento implícitas de este recurso, adicionales a las mencionadas
anteriormente y que a la conservación del medio ambiente se refiere. Su utilización se puede dar como Bio-
fertilizante pues su estabilidad química es ideal para el tratamiento agrícola, adicionalmente, eliminar la
dependencia de las empresas prestadoras de servicios públicos principalmente en el sector rural y lugares
remotos, generara la descentralización de la producción eléctrica y estimula la creación de ciclos cerrados en la
agricultura [4].
Congreso Nacional de Ingeniería CNIA2012 40
Resultados
En Colombia para el manejo de residuos sólidos en rellenos sanitarios existen dos experiencias importantes a
resaltar que son: el relleno Doña Juana ubicado en la ciudad de Bogotá y el relleno Don Juanito ubicado en la
ciudad de Villavicencio, que a la fecha han generado iniciativas para tratar eficientemente los residuos sólidos
orgánicos, utilizando formulación para estimar el potencial de recuperación de Biogás a partir del modelo
propuesto por la USEPA. A nivel general, se han presentado dificultades en la transición y adopción de modelos
e iniciativas verdes, evidenciando algunas causas durante el desarrollo de la investigación entre ellas la no
existencia de un marco legal que reglamente el manejo de residuos sólidos en cada municipio, la no inclusión
del Biogás dentro de la categorización de Biocombustible, tal como lo es el Etanol o el Biodiesel [5], que se
afianzan de forma representativa en una industria que ha ido creciendo lentamente, pero que ya incluso supera el
número de usuarios de los combustibles convencionales (Ver la Figura 1), la falta de inversión en investigación
y financiación de estas iniciativas y la cultura no menos importante y necesaria para generar no solo cambios
actitudinales sino mentales.
Figura 1. Venta de Biocombustibles en el 2011
Fuente: FedeCombustibles, 2011
Con los cálculos realizados del potencial de producción de Biogás estimamos que de acuerdo con la generación
de Residuos Orgánicos en el departamento se podría generar 19‟.816.69 MW-h/año que podría suplir de energía
eléctrica a 11.227,6 viviendas cubriendo de la población Tolimense y aun más interesante si utilizáramos este
Biogás como gas domiciliario se podría suministrar el combustible necesario a 29.832,82 viviendas,
adicionalmente se producirían 96‟044.425 Bonos de Carbono con un valor equivalente a 816‟377.612 USD con
lo que se lograría un verdadero aporte a los objetivos de reducción de emisiones de gases efecto invernadero y se
obtendrían recursos extras a los Municipios por la participación en Mercados de producción más limpia.
Referencias
[1] Ciro Serrano Camacho. (2007). Retrieved Marzo 15, 2012, from Ministerio de Minas y Energia:
http://www.upme.gov.co
[2] Da Silva, C. L. (2009). La Cadena de Biogas y la Sustentabilidad Local. Innovar: Revista de Ciencias
Administrativas y Sociales , 83-98.
[3] Ministerio de Minas y Energia. (2008). Dinero.com .
[4] Kaiser, F. (2009). Produccion de Biogas - Europa y Potencial para Chile -. Santiago, Chile.
[5] FedeBiocombustibles. (2011). Graficas Informativas del Sector de los Biocombustibles en Colombia.
Armenia: Federacion Nacional de Biocombustibles en Colombia.
Congreso Nacional de Ingeniería CNIA2012 41
CONSTRUCCION DE UN SISTEMA DE LAVADO Y SECADO PARA BANANITO
José Luis Guerrero1, Alfonso Cubillos Varela
1, Angélica Sandoval
2, Claudia Villota
3
1Programa de Ingeniería Mecánica, Universidad de Ibagué, Ibagué
2Universidad del Tolima
3CORPOICA CI TIBAITATA, Mosquera
Palabras claves: Musa Acuminata, bananito, secado, lavado
Problema
En zona rural del municipio de Icononzo (Tolima) se realiza el cultivo y adecuación de bananito (Musa
Acuminata) con fines de exportación. El proceso se lleva a cabo por la asociación de productores de banano de
Icononzo (ASOBAICOTOL), entidad sin ánimo de lucro que busca apoyar a los campesinos de la región en la
comercialización de sus productos. Esta asociación cuenta con una planta de adecuación del producto donde se
realiza el desmane, lavado, secado, desinfección y empaque de los gajos de bananito. En la etapa de enjuague se
remueve el jabón con que se lava preliminarmente el bananito. En este proceso se utiliza agua en exceso, ya que
por problemas de diseño de los tanques únicamente se utiliza la mitad de la capacidad de estos; además, los
tiempos de permanencia de los gajos de bananito no son constantes y depende de la capacidad de secado,
siguiente etapa del proceso. La Figura 1 muestra el tanque de enjuague con el producto, se observa el
represamiento del producto (cuello de botella).
Figura 1. Tanque de enjuague
El secado del producto se realiza con un lienzo (ver Figura 2) que puede rallar el producto y afectar su calidad.
Además en este se puede acumular bacterias que pueden transmitirse al producto reduciendo su calidad y tiempo
de vida útil. Al utilizar el secado por evaporación natural se evitan estos problemas pero se aumenta
considerablemente el tiempo del proceso, generando cuellos de botella y reducción de la productividad.
Se plantea entonces la implementación de un sistema de transporte que permita automatizar las actividades de
enjuague y secado del producto. Este sistema permitiría reducir el tiempo de procesamiento y el uso de agua en
el proceso y mantendría la calidad del producto.
Figura 2. Paño con el que se secan los bananitos (Musa acuminata)
Congreso Nacional de Ingeniería CNIA2012 42
Metodología
La definición de los objetivos del diseño, así como las restricciones y parámetros de operación del proceso se
realizaron en reuniones interdisciplinarias entre la Universidad de Ibagué y CORPOICA, así como el análisis de
las condiciones de la planta de la asociación ASOBAICOTOL. La definición de las alternativas de construcción
se definió al analizar procesos similares y patentes relacionados. La opción de construcción se determinó al
evaluar las alternativas en función del cumplimiento de los objetivos y restricciones del diseño. La alternativa
seleccionada fue presentada y discutida con los operarios y representantes de ASOBAICOTOL. El diseño
escogido se presenta en la Figura 3, que consiste en una banda en la que cuelgan los bananitos. Esta banda
sumerge el producto en el tanque de enjuague y luego lo pasa por un túnel de secado, con descarga en la mesa de
empaque. El túnel de secado está construido en láminas de acero inoxidable y dos ventiladores que inyectan aire
a presión para remover las gotas agua. Fue realizado el análisis estructural, la resistencia mecánica de los brazos
que sostienen la banda y los bananitos. Se calculó la velocidad del sistema y la potencia necesaria del motor.
Además, se realizó una simulación computacional del secador por aire a presión para garantizar su adecuado
funcionamiento.
Figura 3. Sistema de enjuague y secado de bananito
Resultados
Se diseñó y construyó un sistema de transporte que permite enjuagar y secar los bananitos. La Figura 4 muestra
los bananitos colgados en la banda, el motor y una sección del túnel de secado. Se logró obtener un producto
seco sin alterar las condiciones de calidad del producto, con una producción continúa que redujo el tiempo de
proceso.
Figura 4. Sistema de transporte con carga
Referencias
[1] DYM. Clive, LITTLE. Patrick, El proceso de diseño en ingeniería. Editorial LimusaWiley. 2006.
[2] IICA. Instituto interamericano para de cooperación para la agricultura, Tecnología del Manejo de
Postcosecha de Frutas y Hortalizas. ICCA 1986.
[3] MORT, Robert L, Diseño de elementos de maquinas cuarta edición. Person Education 2006.
[4] http://www.fao.org/Wairdocs/X5403S/x5403s06.htm#TopOfPage.
Congreso Nacional de Ingeniería CNIA2012 43
HERRAMIENTAS ESTADÍSTICAS APLICADAS AL MEJORAMIENTO Y ESTUDIO DE LA
CALIDAD DE LOS PROCESOS
M.L. Pérez1, A. Carrión
2, O.A. Troncoso
3
1Grupo de investigación GINNOVA, Universidad de Ibagué,
2Director del Centro de Gestión de la Calidad y del Cambio, UPV - España
3Director de calidad Grupo Segovia, Valencia - España,
Palabras claves: Calados, tolerancia, capacidad de proceso
Problema
El grupo SEGOVIA, está conformado por cinco plantas de fabricación de autopartes que provee piezas,
componentes y conjuntos de piezas para el ensamble de carrocerías, motores, asientos y chasis en gran parte de
las plantas de Europa, Asia y América; a fabricantes de automóviles, como FORD, VOLVO, SEAT, JAGUAR,
LAND ROVER, FAURECIA, JOHNSON CONTROLS, BMW, AUDI. Entre las partes que fabrica se encuentra
la pieza BRKT EXHAUST CONV MNTG, que es una pieza del motor que cumple una función de refuerzo.
Esta pieza debe cumplir con una serie de especificaciones, marcadas en el plano de la pieza, en donde las
tolerancias más importantes son la posición de los calados que tienen una tolerancia de 1 mm (+/- 0,5 mm)
respecto a la alineación de la pieza en tres puntos (puntos A, B y C). La función de la pieza es ejercer de
refuerzo y sujeción de otra pieza llamada MANIFOLD que es el colector de gases del motor y es suministrado
por otro proveedor de Ford.
La situación es entendida como un no cumplimiento específicamente de las tolerancias de posición de los
calados CIR 1 y CIR 2 en el proceso de montaje de la pieza en la planta de Ford Michigan. El proceso de
montaje de la pieza comienza con atornillar el calado b (CIR-B) y el coliso (SLT-C) siguiendo la alineación de
la pieza, una vez atornillada la pieza al motor por estos dos puntos (ver figura 1), la pieza MANIFOLD
(colector) debe coincidir exactamente con los dos calados restantes de la pieza (CIR-1 y CIR-2) (ver figura 2).
Según lo denunciado por el cliente, estos dos calados no coincidían con la pieza MANIFOLD (colector) (figura
3), por lo que no se podía atornillar la pieza con el MANIFOLD (colector). De acuerdo con las manifestaciones
del cliente (planta de Ford en Michigan y su departamento de INCOMING), se tienen problemas en el montaje
de dicha pieza ya que la posición de los calados se encontraba fuera de la tolerancia de posición, es decir,
estaban desplazados, generando de esta manera problemas en el encaje de la pieza, por lo que se requería
desmontarla y probarla con otra dentro de la tolerancia de posición para poder proseguir con el proceso
productivo del coche; este problema genera paros en la línea de producción y por consiguiente disminución de la
productividad, generando costos a la planta de 6.000 euros/minuto.
Figura 1. Pieza BRKT EXHAUST CONV MNTG
Congreso Nacional de Ingeniería CNIA2012 44
Figura 2. BRKT EXHAUST CONV MNTG Figura 3. BRKT EXHAUST CONV MNTG
Como se puede observar en el plano de la pieza, la tolerancia de posicion para los dos calados CIR-1 y CIR-2 es
de 1mm, esto significa que el centro de los calados se pueden desviar +/-0,5mm en el eje X e Y en relacion a la
alineacion de la pieza (puntos A, B y C). La alineacion de la pieza son los puntos que simulan el montaje en
Ford y a partir de los cuales se mide la pieza dimensionalmente.
Figura 4. Plano BRKT EXHAUST CONV MNTG
Metodología
Para abordar la situación planteada por el cliente se realizó un estudio del proceso de fabricación de la pieza
verificando paso por paso el cumplimiento de las condiciones de fabricación y sus tolerancias. Para esto se
conformó un equipo de trabajo de cinco trabajadores del área de producción que tenían relación directa con la
fabricación de esta pieza y aplicando la técnica estadística de gráficos de control se verificó que el proceso de
fabricación de la pieza para la característica de calidad relacionada con la tolerancia de posición de los calados
(1mm) respecto a la alineación marcada en el plano se encontraba controlada estadísticamente, es decir, su
proceso de fabricación solamente estaba sometido a causas de variación aleatorias o del azar. De acuerdo con lo
anterior se procedió a realizar el estudio de capacidad de proceso con el fin de determinar el nivel de
cumplimiento de las especificaciones de los calados, lo que permitiría determinar si las piezas estaban
incumpliendo sus especificaciones y por tanto causando los problemas mencionados por el cliente.
Congreso Nacional de Ingeniería CNIA2012 45
Para realizar el estudio de capacidad de proceso se diseñó un plan de muestreo con las siguientes condiciones:
N= 4 lotes
n= 5 piezas por lote
Tiempo total del muestreo: 20 horas, correspondiente a la producción de un día
Tiempo entre muestras: 4 horas
Se realizó el estudio de capacidad en el proceso de producción por lotes de producción los cuales son afectados
por la variación de las variables de un proceso normal de estampación en frio, como lo son las características de
la materia prima (Rm - limite de rotura, Re – Limite elástico, %A - Alargamiento), parámetros del proceso de
estampado como pueden ser el esfuerzo de la maquina estampadora, el desgaste de los elementos de la matriz, el
recorrido de la apertura de la prensa y la cantidad de lubricación de la maquina, entre otras. El estudio consistió
en la verificación de las características de posición de los calados CIR-1 y CIR-2, que pudiera determinar si el
proceso podría cumplir con las tolerancias requeridas en el plano. Adicionalmente el equipo de trabajo utilizó la
disciplina de Global 8D, reuniendo un grupo de expertos para discutir la situación, y para la definición integral
del problema se diseño y ejecuto el estudio de capacidad. El estudio se realizó muestreando cuatro lotes de
fabricación diferentes, tomando una muestra de 5 piezas en cada uno, con el objetivo de evaluar y tener en
cuenta todas las variables que pueden influir en las dimensiones requeridas en los calados, conociendo de esta
manera si era capaz y aseguraba estadísticamente que todas las piezas estarían dentro de las tolerancias dadas en
el plano (Ver figura 2). Las muestras fueron tomadas de manera aleatoria y a diferentes intervalos de tiempo
dentro del proceso con un intervalo de cuatro horas entre muestra completando un total de 20 horas de
producción continúa encontrándose los datos de la tabla siguientes en donde:
- CIR1-X corresponde a la variación de la posición del calado 1 en el eje X,- CIR1Y corresponde a la variación
de la posición del calado 1 en el eje Y, - CIR2X corresponde a la variación de la posición del calado 2 en el eje
X, - CIR2Y corresponde a la variación de la posición del calado 2 en el eje Y.
Una vez los datos han sido recogidos por las personas encargadas de ello en la planta y apuntados en las
plantillas dadas en papel, se procedió a pasar estos datos informáticamente en la Tabla 1. En esta tabla se pueden
observar todas las desviaciones de posición de cada uno de los calados (CIR 1 y 2) en los ejes X e Y.
Tabla 1. Datos de muestras
CIR1-X CIR1-Y CIR2-X CIR2-Y
Hoja 1 -0,272 -0,006 -0,229 0,052
Hoja 2 -0,261 0,013 -0,190 0,076
Hoja 3 -0,305 -0,054 -0,298 0,013
Hoja 4 -0,363 -0,060 -0,334 0,008
Hoja 5 -0,363 -0,016 -0,301 0,057
Hoja 6 -0,264 -0,022 -0,215 0,039
Hoja 7 -0,293 -0,024 -0,253 0,039
Hoja 8 -0,369 -0,003 -0,301 0,060
Hoja 9 -0,384 -0,115 -0,409 -0,043
Hoja 10 -0,371 -0,065 -0,363 -0,002
Hoja 11 -0,312 -0,014 -0,254 0,052
Hoja 12 -0,311 -0,024 -0,257 0,038
Hoja 13 -0,368 -0,027 -0,319 0,037
Hoja 14 -0,327 -0,039 -0,302 0,017
Hoja 15 -0,304 -0,003 -0,218 0,057
Hoja 16 -0,322 0,003 -0,283 0,033
Hoja 17 -0,323 -0,031 -0,282 0,032
Hoja 18 -0,322 -0,015 -0,280 0,018
Congreso Nacional de Ingeniería CNIA2012 46
CIR1-X CIR1-Y CIR2-X CIR2-Y
Hoja 19 -0,319 -0,029 -0,284 0,034
Hoja 20 -0,320 0,001 -0,281 0,031
Hoja 21 -0,318 -0,014 -0,283 0,033
Hoja 22 -0,317 -0,021 -0,285 0,035
Hoja 23 -0,299 0,004 -0,280 0,030
Hoja 24 -0,324 -0,028 -0,275 0,029
Hoja 25 -0,325 -0,012 -0,286 0,036
Con los anteriores datos se realizó el estudio de capacidad, encontrándose los índices de capacidad Cp y Cpk:
Tabla 2. Capacidad del proceso
VAR CIR1-X CIR1-Y CIR2-X CIR2-Y
X_max -0,261 0,013 -0,190 0,076
X_avg -0,322 -0,024 -0,282 0,032
X_min -0,384 -0,115 -0,409 -0,043
R_max 0,123 0,128 0,219 0,119
S 0,033 0,027 0,046 0,023
SCpm 0,331 0,037 0,292 0,041
Tabla 3. Histogramas de tolerancias en muestras
VARIABLE
DIMENZIÓ CIR1-X USL 0,5 LSL -0,5
HISTOGRAMA / HISTOGRAM / HISZTOGRAMM
X_max -0,261
X_avg -0,322
X_min -0,384
R_max 0,123
s 0,033
Cp 6,14
Cpk 2,18
25 15Numero de muestras ESTUDIO:
Number of samples STUDY
Elemzésben résztvevő mérésszám:
Numero TOTAL de muestras:
Number TOTAL of samples:
Mérési eredmények száma
0
2
4
6
8
10
12
14
16
-2,000 -1,750 -1,500 -1,250 -1,000 -0,750 -0,500 -0,250 0,000 0,250 0,500 0,750 1,000 1,250 1,500 1,750 2,000
MIN CIR1-X CIR1-Y CIR2-X CIR2-Y
Cp 1,67 6,14 6,77 4,28 8,30
Cpk 1,67 2,18 6,44 1,86 7,76
Congreso Nacional de Ingeniería CNIA2012 47
Estos índices muestran la aptitud del proceso para producir productos dentro de los límites de especificaciones
de calidad. Son índices basados en la reproducibilidad del producto hecho por el proceso, determinados por
métodos estadísticos y comparando la producción con los límites de especificación con el fin de saber si el
proceso puede consistentemente entregar un producto dentro de estos parámetros.
Resultados
El estudio de capacidad del proceso permitió demostrar que el proceso es capaz de producir las piezas BRKT
EXHAUST CONV MNTG dentro de los límites de especificación de calidad. El cálculo de los índices de
capacidad basados en la reproducibilidad del producto determinado por métodos estadísticos y comparados con
VARIABLE
DIMENZIÓ CIR1-Y USL 0,5 LSL -0,5
HISTOGRAMA / HISTOGRAM / HISZTOGRAMM
X_max 0,013
X_avg -0,024
X_min -0,115
R_max 0,128
s 0,027
Cp 6,77
Cpk 6,44
25 15Numero de muestras ESTUDIO:
Number of samples STUDY
Elemzésben résztvevő mérésszám:
Numero TOTAL de muestras:
Number TOTAL of samples:
Mérési eredmények száma
0
5
10
15
20
25
-2,000 -1,750 -1,500 -1,250 -1,000 -0,750 -0,500 -0,250 0,000 0,250 0,500 0,750 1,000 1,250 1,500 1,750 2,000
VARIABLE
DIMENZIÓ CIR2-Y USL 0,5 LSL -0,5
HISTOGRAMA / HISTOGRAM / HISZTOGRAMM
X_max 0,076
X_avg 0,032
X_min -0,043
R_max 0,119
s 0,023
Cp 8,30
Cpk 7,76
25 15Numero de muestras ESTUDIO:
Number of samples STUDY
Elemzésben résztvevő mérésszám:
Numero TOTAL de muestras:
Number TOTAL of samples:
Mérési eredmények száma
0
2
4
6
8
10
12
14
16
18
20
-2,000 -1,750 -1,500 -1,250 -1,000 -0,750 -0,500 -0,250 0,000 0,250 0,500 0,750 1,000 1,250 1,500 1,750 2,000
Congreso Nacional de Ingeniería CNIA2012 48
los límites de especificación permite determinar la consistencia del proceso para entregar el producto dentro de
los parámetros.
La conclusión después de haber realizado el SPC fue que los Cp y los Cpk de las distintas dimensiones,
resultaron por encima del mínimo estipulado por la empresa el cual es 1.67, lo que significa que el proceso es
estadísticamente capaz de cumplir con las especificaciones marcadas en el plano (Ver Tabla 2) y que la
probabilidad de generar una pieza fuera de tolerancias de posición es de menos de una pieza por cada millón de
piezas fabricadas, 1 PPM (pieza por millón).
Con vistas a la mejora continua de los procesos, se debe considerar que en las dos características de la dimensión
X existe un considerable descentrado hacia la parte izquierda, Aunque esto no compromete la capacidad en el
momento actual, es algo que debe considerarse para plantear su mejora en el futuro. De hecho las excelentes
capacidades potenciales en las cuatro características analizadas (Cp entre 4.28 y 8.30), dan lugar a unos valores
de capacidad aceptables pero mucho más modestos (Cpk de 1.86 y 2.18) en las dimensiones X.
La aplicación de la herramienta Global 8D solo llego a la segunda de las etapas o disciplinas (2D), debido a que
las piezas estaban correctamente fabricadas, el proceso no generaba partes con defectos (ver Tabla 3), este
estudio fue principal arma para poder defender la posición frente a FORD Michigan.
Debido a esto se concluyó que el problema lo estaba generando la pieza MANIFOLD (colector) ensamblada a la
nuestra y suministrada por otro proveedor y eran estas las desviaciones que estaban provocando los problemas
de montaje en el motor, por lo que Ford procedió a denunciar este problema al proveedor de la pieza
MANIFOLD (colector) y a anular la reclamación hecha por problemas en la pieza BRKT EXHAUST CONV
MNTG.
Posteriormente y al ver los problemas en el ensamblaje de estas dos piezas, Ford propuso el cambio de
tolerancias para las dos piezas, pasando de una tolerancia de posición de 1mm (+/-0,5mm) para los CIR1 y CIR2
a ampliarla a 1,5mm (+/-0,75mm), por lo que se eliminaron todos los problemas que pudieran surgir con el
ensamblaje de estas dos piezas.
Referencias
[1] Eugene L. Grant y Richard S. Leavenworth, Control Estadístico de Calidad, México: Continental. 1996.
ME. 2a ed.
[2] Evans, James R., Administración y control de la calidad, México: Cengage Learning. 2008. 7 ed.
[3] Gitlow, Howard S., Design for six sigma for green belts and champions: applications for service
operatios, foundations, tools, DMADV, cases and certification, New York: Pearson. 2006.
[4] Introducción al control estadistico de la calidad, Douglas C. Montgomery; Traducido por: Dirk.
ValckxVerbeeck, Mexico:Iberoamerica,2004.
[5] Pablo Juan Verdoy, Manual de control estadístico de calidad: teoría y aplicaciones, Castelló de la Plana
(Francia): Publicaciones de la Universitat Jaume I, D.L. 2006.
[6] Ronald E. Walpole, Raymond H. Myers, Sharon L. Myers, Keying Ye. Probability &
[7] Statistics for Engineers & Scientists. Pearson. 2007. 8 ed.
Congreso Nacional de Ingeniería CNIA2012 49
ANÁLISIS DE UN SISTEMA VMI MTO-MTS CON DEMANDA ESTOCÁSTICA
O.M. Cepeda1, F. Torres
2, E. Gutierrez
3
1-2-3 Departamento Ingeniería Industrial/Grupo Investigación, Universidad de los Andes, Bogotá
Palabras claves: VMI (administración inventario por el proveedor), MTO (make to order), MTS (make to stock)
Problema
La administración de inventarios por el proveedor (VMI), es una estrategia en la cual el proveedor genera las
órdenes basado en un intercambio de información con su minorista, lo que permite la generación de grandes
beneficios a la cadena de abastecimiento [1], no solo en costos, sino en servicio al cliente. La mayoría de los
modelos matemáticos básicos de VMI han sido desarrollado bajo el supuesto de demanda determinística [2].
Este supuesto se encuentra en la práctica claramente alejado de la realidad. El presente trabajo desarrolla un
modelo matemático de un esquema coordinado VMI entre un productor y un comprador con demanda
estocástica, y un único producto. El enfoque propuesto permite evaluar y comparar las estrategias MTO (make
to order) [3] y MTS (make to stock) y facilita el estudio de esquemas coordinados. El estudio adicionalmente
presenta un análisis de sensibilidad de los modelos propuestos en varios escenarios. Los beneficios en la
implementación de las estrategias MTO y MTS son estudiados variando los parámetros que los componen, como
son: tasas de producción y demanda, tiempos de aprovisionamiento, costos de mantener y ordenar, faltantes. La
evaluación de los diferentes escenarios se basa en la comparación de los costos logísticos del productor,
comprador y la cadena total en la situación tradicional sin VMI y los esquemas coordinados con VMI bajo MTO
y MTS.
Metodología
Para el desarrollo se consideró una cadena compuesta por un proveedor y un comprador. El proveedor cuenta
con una tasa de producción mayor a la tasa de demanda.
Los parámetros del modelo fueron los siguientes.
p tasa de producción. (und/año)
d tasa de demanda. (und/año)
m Número de pedidos del comprador en la fase productiva del ciclo del vendedor
k Número de pedidos del comprador en el tiempo de ciclo del vendedor
t tiempo de ciclo del comprador (año)
q tamaño de lote del comprador (und.)
T tiempo de ciclo del vendedor (año)
Q tamaño de lote del vendedor (und.)
As Costo de pedir (colocación orden de producción) del vendedor ($/pedido)
Hs Costo de mantener del vendedor ($/(und x año))
Gs Costo total del vendedor ($/año)
Ab Costo de pedir del comprador ($/pedido)
Hb Costo de mantener del comprador ($/(und x año))
F Costo de transporte ($/pedido)
Gb Costo total del comprador ($/año)
r Punto de reorden (und.)
ss Stock de seguridad del comprador (und.)
πb Costo de faltantes del comprador ($/und.)
𝐼𝑛𝑣 Inventario promedio del vendedor (und.)
L(z) Función de pérdida estandarizada.
Un modelo enfocado la producción a partir de una orden (MTO) es adaptado de Torres [4], el cual se trabajó con
la estructura de costos de la Ec. 1.
𝑇𝐶𝑉𝑀𝐼 = 𝐷
𝑄 𝐹 + 𝐴𝑏 + 𝐴𝑠 + 𝐻𝑏
𝑄
2+ 𝑟 − μ
LT + 𝐻𝑠𝑄𝐷
2𝑃+ 𝜋
𝐷
𝑄𝑏 (𝑟,𝑄) (1)
Congreso Nacional de Ingeniería CNIA2012 50
Para el caso de la producción para almacenar (MTS), se desarrolló la siguiente estructura de costos, consistente
con el enfoque VMI.
Inventario promedio del vendedor 𝐼𝑛𝑣 = 𝑞
2(1 + 𝑘 −𝑚) (2)
Vendedor: 𝐺𝑠 =𝐴𝑠
𝑘𝑡+ 𝐻𝑠𝐼𝑛𝑣 (3)
Comprador: 𝐺𝑏 =𝐴𝑏
𝑡+
𝐹
𝑡+ 𝐻𝑏
𝑞
2 + 𝑠𝑠 + 𝜋𝑏
𝜎𝐿𝑇 𝐿(𝑧)
𝑡 (4)
Costo total de la cadena : 𝐶𝑇 = 𝐺𝑏 + 𝐺𝑠 (5)
En un análisis tradicional quien tiene conocimiento de la demanda será el comprador; por lo tanto este
optimizará su inventario, obteniendo la siguiente relación.
𝑞𝑇𝑅𝐷 = 2𝑑(𝐴𝑏+𝐹+ 𝜋𝑏𝜎𝐿𝑇 𝐿(𝑧)
𝐻𝑏 (6)
En el caso de la implementación de un modelo VMI, se buscará la minimización de costos totales en la cadena
de suministro. Con lo cual obtenemos las siguientes relaciones óptimas.
𝑄𝑉𝑀𝐼 = 𝑘 × 𝑞𝑉𝑀𝐼 = 2𝑑𝐴𝑠
𝐻𝑠 1−𝑑
𝑝 (7) 𝑞𝑉𝑀𝐼 =
2𝑑(𝐴𝑏+𝐹+ 𝜋𝑏𝜎𝐿𝑇 𝐿(𝑧)
𝐻𝑏+𝐻𝑠 (8)
Resultados
En los modelos se desarrolló una instancia inicial que permitió analizar el comportamiento de los costos en la
cadena. En la Figura 1, se presenta el comportamiento en el porcentaje de reducción de costos, con las
estrategias MTO y MTS al implementar VMI.
MTO
MTS
Figura 1. Comparación de la implementación de las estrategias VMI con MTO y MTS (D = 1800 und/año,
σ=400und/año, P = 3800 und/año, b=0,01 años, As = 400, F = 300, Hs =50, Hb = 40, π = 120)
Observando el comportamiento del indicador, se puede concluir que fijando los parámetros diferentes al costo de
ordenar (Ab) del comprador, la selección de la estrategia más apropiada entre MTO y MTS depende de la
magnitud de Ab. Para la instancia seleccionada será más adecuada la implementación de un modelo VMI con un
enfoque MTS, cuando los costos de ordenar son mayores a $7625. Si los costos de ordenar presentan valores
menores, la estrategia más adecuada será la implantación de un modelo VMI con un enfoque MTO.
Referencias
[1] S.P. Nachiappan, N. Jawahar / European Journal of Operational Research 182 (2007) 1433–1452.
[2] Y. Yao et al. / Decision Support Systems 43 (2007) 663–674.
[3] Jafar Razmi & Reza Hosseini Rad & Mohamad Sadegh Sangari; “Developing a two-echelon
mathematical model for a vendor-managed inventory (VMI) system”, Int J Adv Manuf Technol (2010) 48:773–
783.
[4] Torres. Fidel, Gutiérrez. Eliécer; Performance Analysis of a VMI System for a Producer-Buyer Supply
Chain with Stochastic Demand; 22nd Annual POMs Conference. Reno, Nevada. 2011.
Congreso Nacional de Ingeniería CNIA2012 51
LAS TIC Y SU IMPACTO EN LA PRESTACIÓN DE SERVICIOS DE SALUD EN EL TOLIMA
Oscar Turriago Murillo1, Olga Suarez
1, Helga Patricia Bermeo Andrade
2
1Empresa TURRISYSTEM Ltda.
2Facultad de Ingeniería, Grupo GINNOVA, Universidad de Ibagué
Palabras claves: TIC, Sector salud, SISBEN
Problema
El Proceso de Autorizaciones de Servicios de Salud de usuarios del SISBEN (Sistema de Selección de
Beneficiarios a Programas Sociales) y del Régimen Subsidiado, es un trámite al que se enfrentan los pacientes
en la red hospitalaria, cuando requieren de un proceso de atención con especialistas. La inexistencia en el
Tolima, de sistemas informáticos en linea y actualizados con la información correspondiente a los usuarios,
ocasiona entre otras cosas, demoras y sobrecostos en la prestación de los servicios de salud. Ante esta
problemática, el Gobierno Nacional a través del Decreto 4747 expedido diciembre 7 del 2007, y el marco de un
gran programa de e-government [1][2] para las ramas del sector público, modificó el trámite para la prestación
de servicios de salud, con el fin de que los usuarios no tuvieran que intervenir en el mismo. Según el Decreto,
los trámites para la prestación de servicios de salud deben pasar a ser un ejercicio entre instituciones, evitando
que el paciente, sus familiares o terceros, se vuelvan tramitadores y mensajeros. Lo anterior requería el diseño y
puesta en marcha de sistemas informáticos en línea que facilitaran este proceso, de manera más efectiva y para
beneficio los usuarios de la red de servicios de salud del Departamento.
De los productos existentes en el mercado que son especialmente estructurados como sistemas de información
para el sector salud, existen diferentes alternativas y ambientes de desarrollo, que en general contribuyen a
suplir las necesidades de soporte de los procesos que llevan las Secretarias de Salud, pero no todos los sistemas
están ajustados a la normatividad y la dinámica de los cambios, lo que implicó la necesidad de realizar una
herramientas desarrollada a la medida y ajustada a la normatividad y los procesos que se llevan dentro de la
Secretaria de Salud del Tolima (SST).
Metodología
Naturaleza del estudio. El Proyecto se enfocó en un análisis descriptivo –comparativo. Primero se orientó a
describir el actual proceso de atención a servicio de salud (PASS), para luego pasar a contrastar la operación
actual del Proceso con la puesta en marcha de alternativas como la integración de una nueva herramienta
informática para el sector salud.
Fuentes y herramientas para colección de información. Las fuentes que se tuvieron en cuenta para el presente
proyecto fueron: a) la documentación técnica de PASS en entidades del Ministerio de Protección Social,
FOSYGA y Gobernación del Tolima; b) los funcionarios de la Secretaria de Salud del Tolima y c) los usuarios
del sistema en el régimen SISBEN y subsidiado. Para obtener la información de cada una de las fuentes se hizo
uso de: a) Documentación con la visita a las páginas de internet de las entidades relacionadas con el objeto
estudio, b) Entrevistas a personal funcionarios y los usuarios de la red de servicios de salud del Tolima, c)
Encuestas a los beneficiarios del Sistema. Etapas del proceso. En el desarrollo del proyecto se manejaron las
siguientes etapas:
Etapa 1: Documentación e investigación sobre el objeto de estudio
Etapa 2: Elaboración y aplicación del nuevo sistema de información al problema en estudio.
Etapa 3: Análisis de los efectos de la integración de la TIC en el PSS y conclusiones.
Técnicas de análisis (Indicadores de desempeño). Se recurrió al análisis estadístico descriptivo como de
comparación, de forma que se pudo contrastar las ganancias en términos de las siguientes variables de
desempeño definidas para este estudio: a) Diferencia promedio entre los tiempos de solicitudes de
autorizaciones b) Diferencia promedio en los costos de las solicitudes de autorizaciones.
Congreso Nacional de Ingeniería CNIA2012
52
Resultados
Con la revisión del proceso PASS se dio inicio al proceso de conceptualización, desarrollo e implementación en
línea de una herramienta informática apoyada en la modalidad de computación en la nube [3][4] (Cloud
Computing) y esquema cliente servidor, para el PASS en la Secretaría de Salud del Tolima (ver Figura 1a y 1b).
Figura 1. Esquema de conectividad (1a) y de operación (1b) del Software implementado en la SST
Fuente: Suarez & Turriago [5]
Los análisis de desempeño de la nueva herramienta informática, revelaron luego de la consulta a 300 usuarios
del sistema PASS y unos tres meses de operación, que se había logrado una mejora significativa en la calidad y
eficiencia del servicio. Antes del sistema informático, tan solo 8% de los usuarios lo calificaban como bueno
mientras que luego el 98% de usuarios lo calificaron como bueno e incluso excelente. De otro lado, las demoras
y costos en la prestación del servicio se redujeron dramáticamente para la gran mayoría: de un promedio de 1 a
3 días pasó a menos de 12 horas; y de un costo superior a los $20 mil pesos para el usuario.
Conclusión
Con la integración de las TIC a la organización encargada de la PASS, se logra que el nuevo sistema de
información para el proceso PASS, tenga un efecto positivo en términos de calidad, costos y tiempos, tanto para
los prestadores como para los usuarios del Sistema de Salud en el Tolima.
Referencias
[1] A. Glassman. From few to many: ten years of health insurance expanssion in Colombia. BID, 2009.
[2] Khalil, O. e-Government readiness: Does national culture matter? Government Information Quarterly ,
28, 2011.
[3] F. Galea, ¿Qué es... cloud computing? Bit, vol.176.
[4] M. Nour, A. AbdelRahman, A., & A. Fadlalla, A context-based integrative framework for e-government
initiatives. Government Information Quarterly, Vol. 25, 2008.
[5] Suárez Gutiérrez, O. P., & Turriago Murillo, O. Análisis del impacto socioeconómico de la
implementación de las TIC en los trámites de autorizaciones de la secretaría de salud departamental del Tolima.
Trabajo de grado en la Esp. en gestión de Operaciones y Tecnología, programa de Ingeniería Industrial,
Universidad de Ibagué - Colombia, 2011.
Congreso Nacional de Ingeniería CNIA2012
53
MODELACIÓN DE RIQUEZA DE PECES PARA LA RESTAURACIÓN DE RÍOS
E. J. Olaya-Marín, F. Martínez-Capel, R. Costa, J. Alcaraz-Hernández
Institutd'Investigació per a la Gestió Integrada de ZonesCostaneres, UniversitatPolitècnica de València, C/
Paranimf, 1, 46730 Grau de Gandia (València), España.
Palabras claves: Redes neuronales artificiales, riqueza de peces, restauración ecológica.
Problema
Debido principalmente a la rápida degradación que sufren los ecosistemas de agua dulce a nivel global, en los
últimos años, la modelación ecológica se ha convertido en una herramienta muy importante para la conservación
de la fauna silvestre y sus hábitats. En España y especialmente en los ríos de clima mediterráneo, la
contaminación, la introducción de especies exóticas y la modificación del régimen hidrológico, han ocasionado
el declive y/o la extinción de numerosas especies nativas. Por lo tanto, es necesario el desarrollo de herramientas
que permitan mejorar el conocimiento de la ecología fluvial de estas cuencas para soportar el desarrollo de
políticas y acciones alternativas encaminadas a la restauración de los ríos y principalmente de sus especies
nativas.
Metodología
En este estudio se desarrollaron modelos de redes neuronales artificiales (RNA) para predecir la riqueza de
peces y simular medidas de mitigación en tres ríos de clima mediterráneo (Júcar, Cabriel y Turia), ubicados al
este de España. Se utilizaron datos de 90 puntos de muestreo de peces distribuidos a lo largo de los cauces de los
tres ríos (Figura. 1). Las capturas se realizaron mediante pesca eléctrica, en los meses de primavera y verano en
el período 2005-2009.Se tuvieron en cuenta tres grupos de variables ambientales:
Calidad del agua: oxígeno disuelto, demanda biológica de oxígeno, fósforo total, nitritos, pH, sólidos
suspendidos, conductividad, temperatura media anual del agua.
Hidromorfología: porcentaje de mesohábitats (poza, tabla, corriente, rápido y run), distancia libre de obstáculos
artificiales, área de drenaje, distancia al nacimiento, anchura media, caudal medio anual, caudal medio inter-
anual, coeficiente de variación intra-anual, coeficiente de variación inter-anual.
Índices biológicos: Iberian Biomonitoring Working Party-IBMWP, índice de vegetación de ribera – QBR. Se
utilizó el método paso a paso hacia adelante y el método de las derivadas parciales (PaD) para seleccionar las
variables más importantes en el modelo [1]. Se construyeron y probaron diferentes modelos de RNA con el fin
de determinar el número óptimo de nodos en la capa oculta y el tipo de función de transferencia más apropiado.
Se empleó validación cruzada k-fold para entrenar y validar la red neuronal artificial[2] y el algoritmo de
optimización empleado en la construcción de las redes fue el Levenberg-Marquardt.
Congreso Nacional de Ingeniería CNIA2012
54
Figura 1. Ubicación de los 90 sitios muestreados en los ríos Júcar, Cabriel y Turia en la Península Ibérica
Posteriormente, se simuló el efecto del aumento de la distancia libre de obstáculos artificiales sobre la riqueza
de peces nativos, en el tramo de río comprendido entre los azudes de la Manchega y Torcío (Fig. 2). Para ello se
evaluó el efecto de la eliminación de tres pequeños azudes fuera de uso en dicho segmento: Carrasco, La
Marmota y Los Pontones. En segundo lugar, se estudió la sensibilidad de la riqueza de peces nativos a un
incremento del porcentaje de corriente en 10, 20, 30, 40 y 50% con respecto a sus valores observados en dos
segmentos del río Júcar bajo el embalse de Alarcón.
Resultados
La mejor arquitectura de red fue de tres capas (7-6-1), siete neuronas en la capa de entrada que corresponde a las
variables ambientales, una capa oculta de seis neuronas y una capa de salida con una neurona la cual calcula el
valor de la riqueza de especies nativas.
El coeficiente de correlación (r) del modelo neuronal en la fase de entrenamiento fue de 0.90 y en validación
0.81.La aplicación del método de las derivadas parciales permitió establecer que las variables que más
contribuyen al modelo fueron, en este orden, IBMWP, porcentaje de corriente y caudal medio anual con una
importancia relativa de 20.72, 20.18, y 16.44% respectivamente. En los escenarios de simulación se encontró
que la riqueza de especies nativas aumenta a medida que se incrementa la distancia libre de obstáculos
artificiales y el porcentaje de hábitat de corriente (Figura 2).
Congreso Nacional de Ingeniería CNIA2012
55
Figura 2. Riqueza de pecesnativossimulada
Aplicando el análisis de sensibilidad de PaD se observó la influencia de las principales variables ambientales en
la predicción de la riqueza de peces nativos en el modelo, la cual se ilustra con tres diagramas de dispersión
(Fig. 3). En ellos se puede interpretar que los valores positivo en el eje Y, indican una relación positiva entre la
variable de entrada y la variable a predecir (riqueza de especies), y los valores negativos representan una
influencia negativa. Se puede observar que los valores de las derivadas parciales de la riqueza de peces nativos
con respecto al índice IBMWP, mesohábitat de corriente y caudal medio anual tienden a ser positivos, por lo
tanto un incremento en alguna de estas tres variables llevará a un incremento de la riqueza de especies nativas
en el área de estudio.
Figura 3. Derivadas parciales en función de las variables ambientales con mayor contribución en la predicción
de la riqueza de pecesnativos en la RNA.
Referencias
[1] M. Gevrey, Dimopoulosand S. Lek, “Review and comparison of methods to study the contribution of
variables in artificial neural network modelsl”, EcologicalModelling,vol. 160, no. 3, pp. 249-264, February,
2003.
[2] JD. Olden, Lawler and NL.Poff, 2008.“Machine Learning Methods Without Tears: A Primer for
Ecologists”,The Quarterly Review of Biology, vol. 83, no. 2, pp. 171-193, June, 2008.
Congreso Nacional de Ingeniería CNIA2012
56
OPORTUNIDADES DE DESARROLLO SOCIO-AMBIENTAL Y ECONÓMICO DE LA
AGROINDUSTRIA PESQUERA
N. Perea, J. Rodríguez
Departamento de Ingeniería, Grupo de Investigación en Eficiencia Energética y Energías Alternativas,
Universidad Nacional de Colombia, Palmira
Palabras claves: residuos pesqueros, alternativas de aprovechamiento, caracterización de residuos.
Problema
La actividad pesquera en Buenaventura genera aproximadamente 2370 ton/año de residuos sólidos, los cuales
presentan un gran potencial económico por su alto contenido nutricional [1]. Sin embargo, actualmente estos
residuos son descartados por las industrias pesqueras que intervienen desde la captura hasta la comercialización,
ocasionando problemas ambientales y económicos en el sector pesquero, afectando la población y el turismo de
la región. Estos residuos pesqueros pueden ser valiosos recursos biológicos, ya que contiene una abundante
oferta de valor de bio-materiales, tales como proteínas, lípidos, enzimas y quitina. No obstante, en Colombia la
poca información y falta de investigación sobre la caracterización y cuantificación de estos residuos y las
alternativas para su aprovechamiento, ha limitado la generación de nuevas oportunidades de valor agregado para
el sector, que permitan la diversificación en la oferta de los sub-productos y a su vez impacte en el desarrollo
socio-ambiental y económico de la región.
Metodología
El objetivo del estudio fue cuantificar y caracterizar los residuos generados por la agroindustria pesquera de
Buenaventura, con el fin de proponer estrategias ambientales preventivas y reactivas, las cuales contribuyan a
mejorar el rendimiento de los procesos, diversificar la oferta de productos pesqueros e impactar menos en el
ambiente. El estudio se llevó a cabo en las empresas pesqueras ubicadas en Muro Yusti-Pueblo Nuevo, del
municipio de Buenaventura, donde se encuentran 24 empresas pesqueras. La metodología comprendió 2 fases:
La primera fase, consistió en determinar la cantidad de residuo generado por proceso y caracterizar estos
residuos. En la segunda se estimó la cantidad de residuo pesquero generado en Buenaventura y se generaron
propuestas para el aprovechamiento de estos. En la primera fase, se realizó el balance de masa, caracterización e
inspección a 3 procesos pesqueros en 4 empresas, esto, a partir del seguimiento a sus procesos durante jornadas
de 6 horas. Los residuos sólidos se caracterizaron químicamente, usando los métodos propuestos por la
A.O.A.C, 1990 [2].
La segunda fase de cuantificación de los residuos, se realizó a partir de la extrapolación del recurso pesquero
desembarco en Buenaventura, a partir, del porcentaje de residuos generados por proceso y del porcentaje de
nutrientes presentes en estos residuos y posteriormente se generaron alternativas para su aprovechamiento.
Resultados
En Buenaventura, los principales procesos pesqueros están enfocados a la producción de filetes de pescado y
comercialización del producto fresco de pesca blanca y crustáceos. El proceso que mayor residuo genera es el
fileteado de pescado. En este, se consumen 5 m3 de agua/ton de pescado, los cuales son utilizados para lavar el
producto durante el procesamiento, producción de hielo, limpieza y desinfección de las áreas de trabajo,
equipos, herramientas y utensilios del proceso; siendo la limpieza y desinfección la que consume alrededor del
45% del consumo total. Este residuo, se logran disminuir con la implementación de estrategias ambientales
preventivas.
Para ello, se propone la implementación de pistolas de presión en las mangueras, aprovechando que la presión
de estas reduce los tiempos de operación de lavado; e igualmente evita que por olvidos del operario las llaves
Congreso Nacional de Ingeniería CNIA2012 57
permanezcan abiertas, y dado que, trabajan a medio caudal, se produce reducción del consumo de agua, lo cual
se traduce en ahorros económicos.
En las empresas pesqueras, se encontró que ya se han implementado algunas estrategias preventivas, entre estas
la implementación de cortinas térmicas en la entrada de cuartos fríos y, sistemas de aseo para el personal al
ingreso del área de producción, sin embargo, se diagnosticó que es necesario capacitar y entrenar el personal de
planta sobre la importancia de estas medidas, para incrementar la eficiencia del proceso y mejorar la calidad del
producto.
No obstante, se encontró que los residuos sólidos no se logran disminuir antes ni durante el proceso. El proceso
de fileteado genera 538,3 g. residuo/Kg. de pescado, el de acondicionamiento de pescado fresco y el de camarón,
108 y 283,4 g. residuo/Kg. de pescado, respectivamente. Con el objetivo de caracterizar estos residuos y evaluar
su potencial de aprovechamiento, se realizó un análisis proximal (tabla 1), en el cual se encontraron altos
contenidos de minerales (representado en el contenido de cenizas), con 35,68% ±14,07 y proteínas, con 36,08%
± 15,66.
Tabla 1. Análisis proximal de los residuos de la agroindustria pesquera.
Exoesqueleto
camarón tití
Hueso de
pescado
Piel de
pescado
Vísceras de
pescado
Promedio Desviación
Estándar
Materia Seca 17,7 35,75 29,6 27,9 27,7 7,5
Ceniza 40,2 46,8 16,7 27,9 32,9 13,3
Proteína 39,5 37,2 11,6 54,9 35,8 17,9
Extracto etéreo 2,2 8,05 2,2 3,5 4,0 2,8
Carbohidratos 18 7,95 69,4 13,8 27,3 28,4
En Buenaventura se desembarcan aproximadamente 9995 ton/año de pesca blanca, las cuales son procesadas y
comercializadas en fresco, congeladas o fileteadas. Todas las especies se pueden filetear, pero algunas se filetean
más que otras, y de las especies fileteables, aproximadamente el 50% se filetea [3], lo que equivale a 2650
ton/año de especies desembarcadas fileteadas. En cuanto a los crustáceos, se desembarcan aproximadamente
1061 ton/año, siendo el camarón y el langostino los más representativos.
De acuerdo a los datos anteriores, se estimó que en Buenaventura se generan por proceso de fileteado 1500
ton/año de residuos, por acondicionamiento de pescado fresco, 675 ton/año y del de crustáceos, 300 ton/año. Es
decir, que en total las empresas procesadoras y comercializadoras de pescado generan alrededor de 2.366
ton/año de residuos sólidos, los cuales van a dar finalmente a una celda de transición, causando impactos
sociales a la población aledaña a esta. Al relacionar la cantidad de residuo generado, con el análisis proximal de
estos, se estimó que la cantidad de nutrientes disponibles en estos, equivalen a 255 ton/año, 79 ton/año y 500
ton/año de minerales, grasa y proteína, respectivamente.
Frente a este potencial nutricional, se propone para el aprovechamiento de los residuos de pesca blanca, la
implementación de procesos alternos para la generación de subproductos como proteínas (utilizadas en la
producción de alimentos de consumo animal, principalmente harinas), biodiesel y minerales y, para el
aprovechamiento de residuos de crustáceos, se proponen procesos alternos para la obtención de quitosano y
otros subproductos como proteínas y minerales (Tabla 2).
Congreso Nacional de Ingeniería CNIA2012 58
Tabla 2. Esquemas de alternativas de aprovechamiento de residuos sólidos provenientes de las empresas
pesqueras
Referencias
[1] J. Rodríguez, J. I. Hleap, F. Estrada, J. C. Clavijo y N. Perea. Agroindustria Pesquera en el Pacífico
colombiano: Gestión de residuos pecuarios en sistemas de Producción Más Limpia. 1ra edición. Palmira:
Universidad Nacional de Colombia. 2011. 228 pp. 162-165.
[2] AOAC. Official methods of analysis. 14th ed. Washington, DC: Association of Official Analytical
Chemists. 1990.
[3] J. Clavijo. Formulación de una estrategia de competitividad para la Cooperativa Multiactiva de
Pescadores artesanales de Buenaventura. Trabajo de grado. Universidad Nacional de Colombia. Palmira, 2009.
Limpieza
Secado
Molienda
HARINA Comercializar
QUITOSAN
O
Acondicionamiento
y separación
PROTEÍNA
S
MINERALES
Harina Ca, P y CaCO3
Proceso
Residuos sólidos
crustáceos
Residuos sólidos
pesca blanca
Recepción, adecuación y
separación
PROTEÍNAS MINERALES GRASAS
Planta de
concentrados
Harina
Proceso Proceso
Ca, CaCO3 y
P Biodiesel
Congreso Nacional de Ingeniería CNIA2012 59
DETERMINACIÓN EXPERIMENTAL DE LOS PARÁMETROS CRÍTICOS DE LA DINÁMICA Y
TERMOCONDUCTIVIDAD DEL SUELO BOYACENSE
M. P. Rojas1, O. A. Bellón
2
1 Facultad de Ciencias e Ingeniería, Departamento de Física, Grupo GIMAC Universidad de Boyacá. Tunja 2 Facultad de Ciencias e Ingeniería, Programa de Ingeniería Mecatrónica, Grupo GIMAC Universidad de
Boyacá. Tunja
Palabras claves: Arduino UNO, cultivos, dinámica, gradiente térmico, heladas climáticas, parámetros críticos, suelo,
termoconductividad.
Problema
Las heladas climáticas, afectan el desarrollo y calidad de los productos agrícolas cultivados en el altiplano
cundiboyacense. Existe una buena cantidad de técnicas para combatir los efectos adversos, desencadenados por
este fenómeno climático. Empero, resulta difícil evaluar en profundidad, con cual de las diferentes técnicas, se
obtiene el mejor desempeño en términos de costo económico y efectividad, porque son muchos los factores a
tener en cuenta al analizar, entre otros:
Parámetros del suelo
Entorno atmosférico cercano,
Velocidad del viento
Variables climáticas
Morfología
Composición química del suelo
La determinación de la mejor estrategia para combatir las heladas climáticas en un cultivo en particular, requiere
un conocimiento en detalle de la dinámica de la transferencia de calor del sistema físico que comprende un
cultivo particular.
Este trabajo investigativo, es una primera etapa, en la determinación del modelo dinámico de la transferencia
térmica del suelo y entorno atmosférico adyacente. La búsqueda, del conjunto de ecuaciones diferenciales, que
describen este proceso, es el fundamento para llegar a una descripción precisa del fenómeno y determinar un
algoritmo computacional que se constituya en una herramienta de alta precisión en la selección de la mejor
técnica -o combinación de ellas-, así como, en la posterior selección de la estrategia de control.
Metodología
Este proyecto es una investigación descriptiva-experimental, porque el objetivo del proyecto es:
La descripción precisa del proceso del flujo de energía en forma de transferencia de calor, en un entorno
limitado y definido a escala, que represente un terreno de cultivo y su ambiente superior cercano.
Para ello, se hace un análisis a partir de las leyes físicas de la conservación de la masa y la energía y el principio
de continuidad, con el propósito de obtener una ecuación dinámica que relacione cuantitativamente un conjunto
de variables ambientales. Debido a las características propias del terreno, es necesario determinar parámetros
particulares, que sólo mediante una serie de pruebas experimentales, será posible definir numéricamente.
Con los valores numéricos de los parámetros, de un terreno particular, en combinación con las leyes físicas, que
describen los procesos de transferencia térmica, para lograr así generar un modelo matemático para sustentar la
simulación numérica.
Congreso Nacional de Ingeniería CNIA2012 60
Para tal fin se tomaron muestras de terreno de un lote de cultivo en el municipio de Tunja en contenedores
adiabáticos cilíndricos de 100 cm de altura y 5 cm de diámetro transversal (Volumen de muestra = 1963.5
cm^3). garantizando que el contenido mantuviera las características de densidad y distribución morfológica.
Se hizo la instalación de 10 transductores de temperatura, espaciados equidistantemente desde la superficie
expuesta en contacto con una fuente calórica de potencia conocida y constante, hasta el extremo inferior del
contenedor. La señal de cada transductor, fue procesada mediante la tarjeta de desarrollo Arduino UNO, en
interfaz con el programa MATLAB, en el que se hizo el procesamiento y análisis de datos.
Resultados
La importancia de esta investigación es que los resultados obtenidos de temperatura, gradiente térmico y
dinámica de la termoconductividad del suelo Boyacense, permitieron generar un modelo matemático el cual
suministra una herramienta confiable para tomar decisiones en la selección e implementación de metodologías
de protección y regulación térmica en cultivos afectados por las heladas.
Se tendrá un ambiente de simulación para valorar con precisión los resultados de una estrategia de control de
temperatura en particular y se podrá comparar con otras estrategias, reduciendo el costo que implica la
aplicación de metodologías por prueba y error.
De otra parte, no sólo se tiene utilidad por la evaluación del comportamiento al utilizar diversas metodologías,
sino por el ahorro económico significativo que el productor o inversionista, puede encontrar al examinar
diversas alternativas y contar con criterios bien fundamentados para tomar una decisión.
Referencias
[1] Calpouzos, L. 1969. Fungicides, Volume 2. Academic, Press Inc., New York. p. 367-393.
[2] Chapman, P. J. 1967. Petroleum oils for the control of orchard pests. N.Y. Agr. Exp. Sta. Bui. No. 814. 1-22.
[3] Dean, H. A., E. L. Wilson, V. C. Bailey, and L. A. Riehl. 1961. Fluorescent dye technique for studying
distribution of spray oil deposit on citrus. J. Econ. Ent. 54:333-340.
[4] Griffiths, A. E., and J. J. Janes. 1952. Advances in chemistry series. No. 7. American Chemical Society,
Washington, D. C. p. 37-43.
[5] Klingman, G. C. 1961. Weed control: As a science.J. Wiley & Sons, Inc. p. 208-219.
[6] Neff, M. S., and B. G. Sitton. 1962. Progress in screening materials for delaying bloom of tung. Proc. Amer.
Tung Oil. Assoc. 29: 22-23.
[7] Raese, J. T. 1971. Prolonging dormancy of tung trees with spray oil and succinic acid 2,2-
dimethylhydrazide.Hort.Science 6:408-410.
PÓSTERS
Congreso Nacional de Ingeniería CNIA2012 62
ANÁLISIS DEL COMPORTAMIENTO AL DESGASTE POR DESLIZAMIENTO EN SECO DEL
ACERO AISI-1020 EN ESTADO COMERCIAL EN LA CIUDAD DE IBAGUÉ
E.M. López-Vanegas, E.A. Pérez-Ruiz, J.A. García
Grupo de Investigación D+Tec, Universidad de Ibagué, Ibagué
Palabras claves: Tribología, Desgaste, Pin on Disk, AISI 1020, Coeficiente de fricción.
Problema
En la industria metalmecánica regional se encuentra que los aceros AISI-1020 y AISI-1045 son la alternativa
comercial más común en aplicaciones estructurales. Esto sin considerar que no es totalmente conocido el
comportamiento al desgaste por deslizamiento en seco de estos aceros. Además, académicamente, a través de la
literatura son conocidos solo algunos parámetros del coeficiente de friccion (μ) de dichos materiales, sin
embargo estos parámetros no corresponden al comportamiento de los aceros de la industria nacional.Por lo
anterior, es importante preguntarse: ¿Es posible conocer el comportamiento al desgaste por deslizamiento en
seco del acero AISI-1020 comercialmente utilizado en la ciudad de Ibagué?
Metodología
La metodología de trabajo se centrará en el desarrollo de IV etapas, las cuales son:
Etapa I: Familiarización con el equipo tipo pin-on-disk. El equipo en el que se trabajo fue diseñado y
construido con anterioridad para un trabajo de grado de Luís Fernando Lamprea, este tribometro se
rigepor la norma ASTM-G99. Para los ensayos de desgaste en el equipo pin-on-disk se requiere un par
tribologico que se encuentran en movimiento relativo provocando una trayectoria de deslizamiento de
forma circular sobre el disco. La primera probeta es un pin con punta redonda o plana puesta
perpendicularmente sobre la segunda muestra, la cual es un disco circular plano en posición horizontal.
Etapa II: Instrumentación y calibración. Esta etapa consiste en el rediseño del sistema electrónico y de
control, el cual fue desarrollado por medio de las siguientes funciones:
Amplificación: se realiza cuando el nivel de salida de un sensor es demasiado bajo. De esta forma los
posibles ruidos que se introduzcan en el circuito resultarán cuantitativamente menores.
Filtrado: consiste en eliminar una cierta banda de frecuencias de la señal.
Linealización: consiste en obtener una señal de salida que varíe linealmente con la variable que se desea
medir.
Conversión de señal: se requiere cuando es necesario convertir un tipo de variación eléctrica en otro. Se
utilizo una tarjeta de Instrumentación NI-6008.
Interfaz Grafica: Se utilizo el software LabView, es un lenguaje de programación de alto nivel, de tipo
gráfico, y enfocado al uso en instrumentación.
Etapa III: Desarrollo experimental. Principales Variables de los experimentos: Cargas 1kg, 2.5kg y
3.5kg, Velocidad 60, 180, 300rpm, Distancia de deslizamiento 1000m. La cantidad de pruebas fue
determinada por el método experimental de matriz 3X3 con 3 replicas por cada combinación resultante.
Etapa IV: Análisis de los resultados y confrontación con la literatura
Resultados
Al comparar los resultados del coeficiente de fricción obtenidos en la experimentación con la literatura podemos
encontrar que los valores coinciden (Ver Tabla 1.)
Congreso Nacional de Ingeniería CNIA2012 63
Tabla 1. Valores orientativos para coeficiente de fricción estática y de rozamiento por deslizamiento.
Al analizar los valores de las medias de las pruebas se puede visualizar que μ disminuye al aumentar la carga y
mantener constante la velocidad (Figura 1). Así mismo, al analizar los valores de las medias de las pruebas se
puede visualizar que al amentar la velocidad y mantener constante la carga disminuye el μ. (Figura 2)
Figura 1. Prueba 11, 3.5Kg, 300RPM, Media (μ): 0,594177115.Prueba 1, 2.5Kg, 300RPM, Media (μ):
0,628592657
Figura 2. Prueba 13, 3.5Kg, 180RPM, Media (μ): 0,699141843.Prueba 10, 3.5Kg, 300RPM, Media (μ):
0,600008213
Referencias
RABINOWICZ, Ernest. Friction and Wear of Materials. 2 ed. New York USA.: John Wiley and Sons, 1965.
ASTM G-99 “Standard Test Method for Wear Testing with a Pin-on-Disk Apparatus”
I.M. HUTCHINGS, Tribology, friction and wear of engineering materials, Ed. Arnold, London, 1992
Congreso Nacional de Ingeniería CNIA2012 64
SIMULACIÓN (MEF) DEL DESLIZAMIENTO DE UNA PARTÍCULA SOBRE UNA SUPERFICIE DE
INGENIERÍA - EFECTO DE LA FORMA
E. Pérez R1, Luis O Tafur B
1, R.M. Souza
2
1 Departamento de Ingeniería Mecánica, Universidad de Ibagué, Colombia
2 Laboratorio de Fenómenos de Superficie, Universidad de São Paulo, Brasil
Palabras claves: Simulación Numérica, Ensayo Rayado, Desgaste.
Problema
En el diseño de maquinaria y elementos de máquinas, es necesaria la selección de materiales resistentes a
condiciones de contacto y deslizamiento relativo (desgaste). Para esto, son realizados ensayos (indentación y
rayado) que permiten analizar algunas propiedades de los materiales tales como dureza y tenacidad, así como
estudiar y asociar el efecto de las anteriores en la resistencia a la falla (deformación, concentración de esfuerzos,
falla del material) de los materiales.
En el estudio de los fenómenos de contacto, debido a la extensión en el número de operaciones de cálculo, son
utilizadas herramientas de simulación, como es el análisis por el método de los elementos finitos (MEF), los
cuales permiten de forma confiable obtener mapas de esfuerzos y deformaciones en los materiales al someterlos
a condiciones de contacto[1].
El objetivo de este estudio se centra en simular, vía elementos finitos, y analizar el comportamiento de los
esfuerzos y la deformación plástica de un acero AISI 1045 con acabado superficial (Ra = 0,79), cuando está
sometido a contacto con una partícula rígida con forma esférica y con forma cónica y a deslizamiento de 2,5 mm
bajo carga de contacto incremental hasta 15N.
Metodología
Etapa I: Familiarización con los Elementos Finitos. Esta etapa de la investigación se centra en el manejo
herramientas computacionales, más específicamente en el método de los elementos finitos, utilizando el
software de simulación ABAQUS, el cual es licenciado por el laboratorio de fenómenos de superficies LFS, de
la universidad de São Paulo.
Etapa II: Análisis del Estado del Arte. En esta etapa apoyada en la revisión bibliográfica, se buscará entender el
comportamiento mecánico de sistemas recubiertos y no recubiertos, además se podrá extraer la información
necesaria para la identificación de las variables a utilizar en el desarrollo de un modelo de simulación.
Etapa III: Desarrollo de mallas de simulación. En esta etapa se desarrollan mallas que permitan simular las
condiciones del modelo generado. Además se utilizara un análisis de convergencia buscando la malla que genere
los resultados más confiables.
Etapa IV: Resultados y Discusión. En esta etapa serán analizados y discutidos los resultados obtenidos, así
como comparados con los resultados encontrados en la literatura, publicados por grupos de investigación
internacional
Resultados
La figura 1-2 son dos graficas de tendencia (media móvil = 70), que muestran unos resultados de manera mas
clara y que pueden ser analizados de una forma más eficiente, ya que el comportamiento de los esfuerzos y
deformaciones en una superficie rugosa fluctúan según el perfil de rugosidad del material, de esta forma se
puede generar un mayor entendimiento en los resultados.
Las figuras 1-3 presentan la relación de los resultados de la distribución de esfuerzos equivalentes (Von Mises),
del deslizamiento de una partícula rígida; cónica y esférica, a lo largo de la superficie rugosa (Ra=0.79) y lisa,
respectivamente, calculados en función de la distancia recorrida (mm) y siendo medidos desde el inicio del
desplazamiento hasta el final del recorrido de la partícula rígida.
Congreso Nacional de Ingeniería CNIA2012 65
En la figura 1 se ve claramente como los esfuerzos de Von Mises, tanto de la simulación con el indentador
cónico, como la del indentador esférico, se elevan a medida que el deslizamiento avanza y la carga aumenta,
tendiendo a estabilizarse sobre un rango [4], este rango coincide con el esfuerzo ultimo del material (acero 1045)
[5], esto muestra la gran posibilidad de falla del material. Los esfuerzos generados por la partícula esférica,
tienden a estabilizarse un instante después que los esfuerzos de la partícula cónica, como se muestra en la Figura
1, así mismo ocurre en la Figura 2 donde los esfuerzos generados por la partícula cónica son mayores que los
esfuerzos generados por la partícula esférica, esto es una clara evidencia de la influencia que tiene la forma de la
partícula rígida.
Figura 5. Relación Esfuerzos Von Mises Figura 2. Relación de Deformación
Figura 3. Relación Esfuerzos Von Mises, S. liso Figura 4. Relación de Deformación S. liso
La Figura 2-4 presenta la relación de la distribución de deformación del sustrato tanto rugoso como liso
respectivamente, en el deslizamiento de una partícula cónica y esférica. En las figuras, es claro ver como la
deformación, generada por el deslizamiento de la partículacónica, es mayor que el generado por la partícula
esférica, esta es una evidencia de la influencia de la forma del indentador. Al comparar los esfuerzos y
deformaciones generados en el sustrato rugoso de la figura 1-2, con los esfuerzos y deformaciones generados en
el sustrato liso de la figura 3-4, es evidente que la rugosidad en el sustrato, produce mayor concentración de
esfuerzos generando una mayor deformación y muchísima más probabilidad de falla del material.
Referencias
[1] J.L. Bucaille, E. Felder, G. Hochstetter "Mechanical analysis of the scratch test on elastic and perfectly
plastic materials with the three-dimensional finite element modeling," wear, vol 249, pp. 422–432, 2001
[2] M. Tkaya, H. Zahouani, S. Mezlini. "The effect of damage in the numerical simulation of a scratch test,"
wear, vol 263, pp. 1533–1539, 2007
[3] D. Tabor, "The hardness of solids", Proceedings of the Institute of Physics F, Physics in Technology vol 1,
pp. 145–179, 1970
[4] K. Holmberg, A. Laukkanen, H Ronkainen, K. Wallin, "Tribologicalcontact analysis of a rigidballsliding on
a hardcoatedsurfacePart I: Modellingstresses and strains," Surface&Coatings Technology, vol 200, pp. 3793–
3809, 2006
Congreso Nacional de Ingeniería CNIA2012 66
MODELO DE SIMULACIÓN (MEF) DEL FENOMENO DE DESGASTE EN ACERO 1045
E.A. Pérez R., G. Muñoz T., R.M. Souza 1 Departamento de Ingeniería Mecánica, Universidad de Ibagué, Colombia
2 Laboratorio de Fenómenos de Superficie, Universidad de São Paulo, Brasil
Resumen
Para la evaluación del desgaste presente en los materiales, es necesario considerar la aplicación de cargas
normales y tangenciales a la superficie del cuerpo en estudio, logrando de esta forma reproducir el fenómeno, el
cual se fundamenta en el contacto y movimiento relativo de los cuerpos. Para la evaluación del desgaste es
comúnmente utilizado el ensayo de rayado, en donde se desarrollan campos de esfuerzos y deformaciones, los
cuales son la causa de falla. Para el presente estudio de los esfuerzos y las deformaciones generados en el acero
1045, es desarrollado un modelo de simulación utilizando (MEF).
Problema
La mayoría de los procesos en la industria y los elementos de maquina experimentan contacto y movimiento
relativo entre ellos, esto lleva a que las superficies estén sometidas constantemente a condiciones de fricción y
posible pérdida de material (desgaste) lo que posteriormente conduce a daños o detrimento del elemento.
Objetivos
Objetivo General. Desarrollar un modelo de simulación numérica utilizando el método de los elementos finitos,
que permita reproducir el comportamiento de los esfuerzos y la deformación de un material sometido a contacto
y deslizamiento con una partícula rígida.
Objetivos específicos
Analizar e identificar las variables de estudio a considerar en el modelo, teniendo en cuenta resultados de estudios
de autores identificados en la revisión bibliográfica.
Diseñar mallas de simulación, haciendo énfasis en el tipo de elemento, número de elementos, refinamientos y
análisis de convergencia.
Análisis del comportamiento de los esfuerzos y la deformación del material sometido a contacto y deslizamiento.
Metodología
Etapa I: Familiarización con los Elementos Finitos.
Etapa II: Análisis de variables a considerar.
Congreso Nacional de Ingeniería CNIA2012 67
Etapa III: Obtención y ensamble de la geometría.
Etapa IV: Restricciones del modelo.
Etapa V: Diseño de mallas de simulación.
Etapa VI: Resultados y Discusión
Conclusiones
Se creó un modelo (MEF) que permite reproducir el fenómeno de desgaste en superficies metálicas con una
malla de 124.824 elemento y teniendo en cuenta diferentes parámetros que ayudan a la obtención de resultados
confiables.
Se concluye que el esfuerzo último del material (673Mpa) es alcanzado y sobrepasado después de una longitud
de deslizamiento aproximadamente de 1.5mm, lo que puede dar idea de la formación de surcos, aparición de
grietas y desgaste.
Se puede concluir que a medida que la partícula desliza sobre la superficie la penetración se hace mayor, lo que
lleva a pensar que la remoción de material es cada vez más alta (característica del fenómeno abrasivo).
Referencias
[1] K. Holmberg, A. Laukkanen, H Ronkainen, K. Wallin, "Tribological contact analysis of a rigid ball sliding
on a hard coated surface Part I: Modelling stresses and strains," Surface & Coatings Technology, vol 200, pp.
3793–3809, 2006.
[2] S. Hogmark, S. Jacobson, M. Larsson “Design and evaluation of tribological coatings” wear, vol 246, pp.
20- 33, 2000.
[3] D. Tabor, "The hardness of solids", Proceedings of the Institute of Physics F, Physics in Technology vol 1,
pp. 145–179, 1970.
Congreso Nacional de Ingeniería CNIA2012 68
SIMULACIÓN DEL EFECTO DE LA FRICCIÓN EN EL DESLIZAMIENTO DE UNA PARTÍCULA
E.A Pérez R1, C.A Parra
1, R.M. Souza
2
1 Departamento de Ingeniería Mecánica, Universidad de Ibagué, Colombia
2 Laboratorio de Fenómenos de Superficie, Universidad de São Paulo, Brasil
Resumen
El objetivo de esta investigación es simular y analizar el comportamiento mecánico, como consecuencia del
contacto de una superficie metálica con una partícula rígida sometida a carga normal y deslizamiento. Para esto,
se realizan simulaciones (FEM), considerando una partícula esférica con diámetro 1.59mm deslizando sobre un
sistema compuesto por un sustrato de acero AISI-1045. Los resultados permiten observar la influencia del
coeficiente de fricción (0.3-0.5), en el comportamiento de los esfuerzos de contacto, así como analizar la
relación inversa dada entre el coeficiente de fricción y los esfuerzos superficiales
Problema
El desgaste es el proceso de remoción de material debido al movimiento relativo de dos superficies, En dicho
proceso, el material puede ser removido de la superficie y expulsado fuera de la región de contacto. También
puede ser transferido a la otra superficie y quedarse adherido a ella o romperse y generar restos que pueden
quedar, en parte, atrapados en el contacto.
Objetivos
Objetivo General. Analizar la influencia del coeficiente de fricción de (0.3-0.5) y las condiciones de contacto y
deslizamiento, sobre los esfuerzos y deformación plástica de un material sin recubrimiento.
Objetivos específicos
Desarrollar un modelo de simulación para el contacto y deslizamiento de un cuerpo rígido con diferentes
coeficientes de fricción, sobre un sustrato liso.
Desarrollar mallas de simulación en 2D, para el contacto entre una partícula-substrato.
Analizar el comportamiento de los esfuerzos y deformación del sustrato, considerando diferentes coeficientes de
fricción sobre una superficie lisa
Metodología
Etapa I: Familiarización con los Elementos Finitos.
Etapa II: Análisis del Estado del Arte
Etapa III: Desarrollo de mallas de
Congreso Nacional de Ingeniería CNIA2012 69
simulación
Etapa IV: Resultados y Discusión
En esta etapa serán analizados y discutidos los resultados obtenidos, así como comparados con los resultados
encontrados en la literatura, publicados por grupos de investigación internacional
Resultados
Conclusiones
Al observar los resultados obtenidos mediante el deslizamiento de una partícula esférica sobre un sustrato liso se
presenta que en diferentes puntos del recorrido hay mayores tensiones o esfuerzos los cuales son ocasionados
por el material acumulado, el cual, presenta un aplastamiento y compresión debajo del indentador. Se observar
que el comportamiento generado por la influencia de la fricción varia acorde al avance generado ocasionando al
parecer el fenómeno stick-slip debido al patrón del comportamiento de los esfuerzos. Al haber analizado la
influencia de la fricción en el comportamiento de la deformación plástica equivalente se observa que aumenta a
medida que la carga se incrementa sin ser constante e incrementar de forma oscilatoria presuponiéndose que
puede ocurrir por el fenómeno de stick-slip.
Bibliografía
[1].Caracterización de las propiedades tribológicas de los recubrimientos duros, Maryory Astrid Gomez Botero,
Memoria presentada para optar el grado de doctora Barcelona, Diciembre de 2005,Marti i Franques,1,08028
Barcelona.
[2].Análisis de simulación de esfuerzos y deformación plástica durante el contacto y deslizamiento de dos
cuerpos., IVAN NEGRIN HERNANDEZ, EDUARDO A. PÉREZ RUIZ, Scientia et Technica Año XIV, No 39,
Septiembre de 2008. Universidad Tecnológica de Pereira. ISSN 0122-1701].
[3]. Anantha Ram, B.S,Danckert, J., Faurholdt T., Finite element analysis of stress due to normal and sling
contac conditions on an elastic surface, 4th European LS-DYNA Users Conference (2003).
Congreso Nacional de Ingeniería CNIA2012 70
IMPLEMENTACION DIGITAL DE BAJO COSTO DEL SISTEMA DE CONTROL DE UN
RECTIFICADOR CON CORRECCIÓN DE FACTOR DE POTENCIA
J.M. Barrero, O. López-Santos
Grupo de Investigación D+TEC, Universidad de Ibagué, Ibagué-Colombia
Palabras claves: THD-R, Boost.
Problema
En la actualidad una de las preocupaciones más grandes en la ingeniería involucrada en el suministro eléctrico es
la calidad de la energía. Diversas estandarizaciones actuales aplicadas en el mundo demandan que los
dispositivos electrónicos sean desarrollados para extraer de manera más adecuada la potencia del sistema
eléctrico, lo que implica un elevado factor de potencia y un bajo contenido armónico en la corriente. El
problema de control asociado al desarrollo de rectificadores que permitan cumplir con estas exigencias es
complejo debido a la referencia variante en el tiempo en el lazo de corriente y la necesidad de regulación en la
tensión de salida.
El semillero de investigación SICEP del grupo D+TEC de la Universidad de Ibagué ha desarrollado un prototipo
del rectificador monofásico de topología Boost con control digital basado en DSPIC, sobre el cual se han
realizado pruebas de control lineal y no lineal. En el presente trabajo, se busca plantear un nuevo esquema de
control que permita mejorar el rendimiento del sistema y así mismo profundizar en las limitaciones físicas que
impone la implementación digital como el limitado set de instrucciones y los tiempos de ejecución, además la
implementación además el nuevo prototipo debe ser de bajo costo.
Metodología
Se realizara una búsqueda bibliográfica sobre las diferentes técnicas de control comúnmente utilizadas en este
tipo de topología [2] y se analizara su rendimiento, se llevaran a cabo experimentaciones para obtener
información del funcionamiento preliminar del dispositivo [1] con el fin de identificar posibles fallas que puedan
alterar su comportamiento, de esta forma se realizaran modificaciones en los circuitos eléctricos para mejorar su
rendimiento e inmunidad al ruido, se desarrollara un algoritmo que permita aprovechar en mayor medida los
tiempos de ejecución y finalmente se realizara una comparación con los nuevos resultados obtenidos.
Avances
Se planteo un algoritmo que permite sincronizar la señal de referencia con el cruce por cero de la red eléctrica
[3], se redujo el tiempo de procesamiento del lazo de corriente con la generación interna de la señal de referencia
lo que conllevo a la reducción de la distorsión armónica de un 7.7% a un 3.3% [figura 1], se implemento un
control en modo deslizante con tiempos de muestreo de 6.2us, lo que favoreció también la reducción del THD.
Congreso Nacional de Ingeniería CNIA2012 71
Figura 1. Referencia análoga digital
Figura 2. Referencia digital
Referencias
[1] H.F.Murcia.“Rectificación Electrónica Del Factor De Potencia”, Trabajo de pregrado, Programa De
Ingeniera
Electrónica, Universidad De Ibagué, 2011.
[2] L. Rossetto, G. Spiazzi, “Control Techniques for Power Factor Correction Converters”.P. Tenti, Department
of
Electrical Engineering, University of Padova,2000.
[3] Miranda, U.A,, “A DQ Synchronous Reference Frame Current Control for Single-Phase Converters”, Power
Electronics
Specialists Conference, 2005. PESC '05. IEEE 36th.
Congreso Nacional de Ingeniería CNIA2012 72
ESTUDIO DE CONVERTIDORES ELECTRÓNICOS PARA LA CONEXIÓN DE SISTEMAS
FOTOVOLTAICOS DE GENERACIÓN DISTRIBUIDA
T. Sierra, O. López-Santos
Grupo de Investigación D+TEC, Universidad de Ibagué, Ibagué-Colombia
Problema
El mundo actual siendo azotado por los cambios climáticos generados por la posesión de los recursos mundiales,
degenerando así la sociedad y de esa misma manera el medio ambiente, se ve en la obligación de generar nuevas
ideas, nuevas propuestas en cuanto a producción de energía se refiere. Sabemos que no dejaremos de consumir
energía, mas sí podemos hacer que esta sea renovable y en esa medida amigable con el medio ambiente. El
proyecto a continuación descrito pretende no solo desarrollar una idea para ser leída, sino para ser implementada
a nivel local (Ibagué, Tolima), nacional y/o mundial. Para el desarrollo practico la universidad de Ibagué,
propone un sistema de energía solar para alimentar y dar sostenimiento a la planta educativa, posiblemente no
en su totalidad, pero si se proyecta a conectar una gran parte de esta, incluyendo las áreas de laboratorios de
potencia y demás.
Metodología
La forma en la que se llevara a cabo el proceso metodológico se podría definir a razón de cómo se va
entendiendo mejor la finalidad de este, así como se van conociendo nuevas ramas a las que se va a atacar y no
solo a atacar sino a colaborar. Se quiere controlar un convertidor BOOST de segundo orden con un solo
interruptor (menores perdidas), usando control programado con corriente. Se censa la corriente de conmutación
para propósitos de re alimentación, de esta manera las dinámicas de cuarto orden en el convertidor pasan a ser de
primer de orden, lo que simplifica sustancialmente el diseño del controlador del lazo externo. Estos
convertidores se pueden configurar en cascada para obtener mayores niveles de potencia pero en cuanto más alta
sea esta, más pérdidas habrá. El lazo de corriente se implementa cuando el interruptor de corriente es
realimentado y amplificado usando una ganancia N, la resultante es inyectada al modulador. El lazo de voltaje
en la salida tiene un divisor de voltaje y el controlador, de esta manera la señal de referencia y la señal de salida
son comparadas en el controlador teniendo así el error. Lo más importante de estos nuevos convertidores es que
solo necesitan de un transistor de conmutación para su funcionamiento. Por lo anterior se dice que respecto de
pérdidas de potencia es mejor tener un convertidor simple, entonces estos convertidores cuadráticos se usan en
casos específicos y completamente necesarios. Se están encontrando nuevos materiales para tener convertidores
con mayor numero de etapas para los dispositivos de conmutación como Sic SBD‟s (diodos shotckey de barrera
fabricados con carburo de silicio), estos son diodos de recuperación ultra rápida.
Resultados Esperados
El trabajo desarrollado en el proceso servirá como soporte para las empresas que empiezan en Latinoamérica a
trabajar con energía solar, así mismo con otro tipo de energías. La finalidad es servir como soporte para nuevos
descubrimientos y así seguir en la labor de difundir y reconocer este tipo de investigaciones. Por estos tiempos la
energía solar y demás renovables/alternativas han dado de que hablar y ahora se ve una mayor preocupación
tanto de los usuarios como de los proveedores o creadores de nuevas tecnológicas que guíen el reconocimiento e
implantación de esta innovadora posibilidad de trabajo que además ayuda al medio ambiente.
Bibliografía
[1] K. K. Tse, Billy M. T. Ho, Henry Shu-Hung Chung, and S. Y. Ron Hui, IEEE. “A Comparative Study of
Maximum-Power-Point Trackers for Photovoltaic Panels Using Switching-Frequency Modulation Scheme”
[2] J.A. Morales-Saldan, R. Galarza-Quirino, J. Leyva-Ramos, E.E. Carbajal-Gutierrez and M.G. Ortiz-Lopez.
“Multiloop controller design for a quadratic boost converter”
Congreso Nacional de Ingeniería CNIA2012 73
CONTROL DE CORRIENTE EN UN RECTIFICADOR PFCUSANDO UNSISTEMA DE REFERENCIA
SÍNCRONO
H.F. Murcia, O. Lopez-Santos, J.M. Barrero
Grupo de Investigación D+TEC, Universidad de Ibagué, Ibagué, Colombia
Palabras claves: Distorsión armónica, convertidor elevador, corrección de factor de potencia.
Problema
Gran parte de las fuentes de energía de corriente directa están compuestas por un rectificador de puente
completo monofásico convencional y una o más etapas de filtrado. Éste tipo de circuitos presentan significativos
niveles de corriente en ciertas fracciones de tiempo y ausencia de consumo en otras, presentando un factor de
cresta elevado y en consecuencia altos niveles de distorsión armónica. Esta distorsión armónica introduce
además deterioro en el factor de potencia, provocando una reducción en la eficiencia y la capacidad disponible
en las líneas de transmisión de energía eléctrica.
Figura 1. Topología boost PFC.
Fuente: Autor
Dentro de las técnicas de rectificadores electrónicos con corrección de factor de potencia (PFC) se destaca el
convertidor elevador (Boost)[1], [2], [3],con una respuesta fuertemente influenciada por las características del
control aplicado sobre el convertidor. El sistema de control implementado propone un control en cascada en el
que el lazo interno de control garantiza que la corriente de entrada tenga la misma forma de onda que la del
voltaje de entrada. El lazo externo de control define la amplitud de la corriente de entrada y estabiliza el voltaje
de salida en 48 VDC. La Figura 1 ilustra la topología del sistema de control empleada:
a)
b)
Figura 2. Esquema de control implementado para el convertidor boost PFC: a) referencia proporcional al voltaje
de entrada, b) referencia síncrona.
Fuente: Autor
El problema de este estudio, consiste en el desarrollo de un prototipo experimental de rectificador de topología
boost (Figura 1) PFC que cumpla con los estándares IEEE519 e IEC 61000-3-2 para los niveles de
Congreso Nacional de Ingeniería CNIA2012 74
contaminación armónica producidos por equipamiento electrónico. Este estudio permite ademásevaluar el
desempeño final contrastando dos métodos de control para el seguimiento en corriente.
Metodología
El presente proyecto de investigación es de tipo experimental en la ingeniería electrónica, asociando: el índice de
distorsión armónica (THD), el factor de potencia (PF), el factor de desplazamiento, la corriente y el voltaje de
entrada entre otras como variables de medición. Agrupa áreas de la ingeniería: instrumentación, control,
electrónica de potencia, electrónica industrial y electrónica digital con el propósito de contribuir en el
mejoramiento de la eficiencia de sistemas electrónicos de potencia a partir de la evaluación del desempeño del
convertidor en topología boost, sistemas de referencia para el control de corriente. El alcance de los objetivos
contempló una secuencia metodológica que implicó: plantear el problema, definir los alcances y objetivos,
establecer el estado del arte, proponer alternativas de solución, seleccionar la alternativa de solución más
adecuada, diseñar, simular e implementar un prototipo de prueba, evaluar su desempeño usando como
herramienta de análisis la comparación y finalmente formular nuevas aplicaciones. Con base en los resultados
obtenidos se pretende dentro del semillero de investigación SICEP, replantear el problema y los propósitos de
manera que se genere un ciclo que permita un continuo mejoramiento y progreso de estas ramas de la ingeniería.
Resultados
A continuación se presentan los resultados experimentales medidos sobre el prototipo implementado del
rectificador activo del factor de potencia en topología boost empleando el osciloscopio AGILENT 54622D.
a)
b)
Figura 3. Señales medidas en el prototipocon control de corriente ON - OFF: a) señal de referencia proporcional
a la tensión de entrada, b) señal de referencia síncrona.
Tabla 1. Resultados experimentales de factor de potencia y distorsión armónica
Método de generación de referencia PF DPF THD
Proporcional a la tensión de entrada 1.00 1.00 7.7%
Referencia sinusoidal sincronizada con la red 1.00 1.00 3.3%
A partir de la las señales ilustradas en la Figura 3 y los datos mostrados en la Tabla I, puede evidenciarse que
aunque en el método de referencia proporcional al voltaje de entrada, la carga es percibida como una resistencia
incluso para el contenido armónico.Por el contrario en el caso en que se aplica sistema de referencia síncronoa
pesar de que el contenido armónico de la corriente difiere del contenido armónico del voltaje el índice de
distorsión armónica es menor.
Referencias
W. Erickson, “Fundamentals of power electronics”, KLUWER ACADEMIC PUBLISHERS, 2004.
H. Akagi, E. Watamable, M. Aredes, “Instantaneous power theory to power conditioning”, IEEE press, 2007.
M. Chen, A. Mathew, J. Sun, “Nonlinear Current Control of Single-Phase PFC Converters”, IEEE Transactions
on power electronics, vol. 22, no. 6, Nov. 2007.
Congreso Nacional de Ingeniería CNIA2012 75
DETERMINACIÓN DE LOS ÍNDICES DE MADURACIÓN DEL BANANO USANDO
PROCESAMIENTO DIGITAL DE IMÁGENES
O. Barrero-Mendoza1, C. Herrán
2
1Investigador Universidad de Ibagué.
2Estudiante de Maestría en Ingeniería de Control Industrial.
Resumen
El uso del procesamiento digital de imágenes (PDI) en el campo de la agricultura específicamente en el manejo
poscosecha es muy importante, ya que después de cosechada la fruta, se acelera la respiración y por tanto su
degradación físico-química causando pérdidas en el almacenamiento y en la distribución al consumidor final; la
colorimetría basada en el PDI es un técnica eficiente, no destructiva que permite analizar el color de una
muestra y obtener datos de su proceso de maduración y de las características relevantes a controlar para su
preservación en las cámaras de atmosferas controladas.
Problema
Colombia como uno de los cinco principales países productores y exportadores de banano en el mundo produce
más de 1.9 millones de toneladas al año; de la cual se pierde gran cantidad en pos-cosecha. Uno de los aspectos
más importantes del almacenado en poscosecha es la determinación del estado de maduración y de las variables
físico-química afectadas de forma rápida y no destructiva. Como solución se plantea desarrollar un colorímetro
digital usando Image Processing Toolbox™ de Matlab que permita obtener y analizar el estado de maduración
del banano y relacionándolo con sus características fisicoquímicas (pH, %acidez, contenido de sólidos solubles)
para ser usado en cámaras de atmósfera controladas con el fin de mejorar el desempeño de sus sistemas de
control automático.
Figura 1. Representación gráfica de los componentes principales de un colorímetro digital (adaptado de
Agronomía Costarricense 2009).
Objetivos
Objetivo General. Usar procesamiento digital de imágenes (PDI) para mejorar las condiciones y prolongar el
tiempo de almacenamiento del banano en cámaras de atmósfera controlada.
Objetivos específicos
Desarrollar software y hardware que permita hacer monitoreo del proceso de maduración del banano en línea.
Validar el desempeño del dispositivo de medición de maduración del banano usando procesamiento digital de
imágenes, en cámaras de atmósfera controlada.
Metodología
El procesamiento digital de imágenes se realiza usualmente utilizando un método de reconocimiento de
patrones, cuyos pasos se ilustran en la Figura 2.
Congreso Nacional de Ingeniería CNIA2012 76
Figura 2. Método de recopilación de información usando procesamiento digital de imágenes.
Formación de la imagen, preprocesamiento, segmentación, umbralización extracción de características
correlación de la información recabada para determinar las características fisicoquímicas (pH, %acidez,
contenido de sólidos solubles).
Resultados Esperados
Generación de conocimiento y/o nuevos desarrollos tecnológicos.
Desarrollo del colorímetro digital usando Image Processing Toolbox™ de Matlab.
Validar el desempeño del dispositivo de medición de maduración del banano usando procesamiento digital de
imágenes, en cámaras de atmósfera controlada.
Referencias
Agronomía Costarricense 33(2): 283-301. ISSN:0377-9424 / 2009
http://www.mathworks.com/products/image/
Abdullah, M.Z.; Guan, L.C.; Lim, K.C. & Karim, A.A. (2004). The applications of computer vision and
tomographic radar imaging for assessing physical properties of food. Journal of Food Engineering 61: 125-135.
Congreso Nacional de Ingeniería CNIA2012 77
DESARROLLO DE UN SISTEMA DE MEDICIÓN DE MADURACIÓN DE FRUTAS BASADAS EN
ESPECTROMETRÍA DE INFRARROJO CERCANO
O. Barrero-Mendoza1, C. Herrán
2
1 Investigador Universidad de Ibagué.
2 Estudiante de Maestría en Ingeniería de Control Industrial
Resumen
La investigación de alternativas eficientes para el mejoramiento del manejo poscosecha es muy importante, ya
que después de cosechada la fruta, se acelera la respiración y por tanto su degradación físico-química con
cambios de color, acidez y concentración interna de azúcares; a nivel de laboratorio se utilizan técnicas
destructivas para el análisis de estas variables. La espectrometría de infrarrojo cercano (NIR) es una técnica
rápida, no destructiva ni contaminante de gran precisión, empleada como alternativa a los métodos químicos
tradicionales, la cual se basa en la emisión de rayos de luz a longitudes de ondas definidas sobre las muestras.
Problema
El manejo poscosecha de frutas presenta serios inconvenientes en el almacenamiento y transporte, lo que
conlleva a grandes pérdidas y disminución de la calidad del producto. Una de las tecnologías más usadas
actualmente son las cámaras de atmósfera controlada (Nahor, 2005), las cuales permiten almacenar productos
perecederos por largos periodos de tiempo, controlando sus propiedades fisicoquímicas y organolépticas; debido
a esto, se propone en esta investigación diseñar un instrumento que permita medir la maduración de frutas,
basado en espectrometría de infrarrojo cercano para ser usado en cámaras de atmósfera controladas con el fin de
mejorar el desempeño de sus sistemas de control automático.
Figura 1. Representación gráfica de los componentes principales de un espectrómetro de infrarrojo (adaptado de
Stuart, B. 2004).
Objetivos
Objetivo General. Usar espectrometría de infrarrojo cercano (NIR) para mejorar las condiciones y prolongar el
tiempo de almacenamiento de frutas en cámaras de atmósfera controlada.
Objetivos específicos
Desarrollar software y hardware que permita hacer monitoreo del proceso de maduración de la fruta en línea.
Validar el desempeño del dispositivo de monitoreo, por espectrometría de infrarrojo cercana, en cámaras de
atmósfera controlada.
Metodología
La tecnología NIRS se basa en la emisión de un haz de luz sobre la muestra a analizar, la cual en función de su
composición, o mejor aún, de la naturaleza de los enlaces presentes en sus moléculas, fundamentalmente de
aquellos de tipo –CH, –NH y –OH, interaccionará con ellos absorbiendo una determinada cantidad de radiación
electromagnética en el rango del infrarrojo cercano, de 780 a 2500 nm (Shenk et al., 2001).
Congreso Nacional de Ingeniería CNIA2012 78
Figura 2. Formas de análisis NIR de los productos agroalimentarios (adaptado de Kawano, 2004).
Para extraer la información química relevante de cada muestra es necesario emitir un haz de luz infrarrojo en un
rango especifico de longitud de onda a través de la muestra y detectar la información según el método de
recepción implementada (ver Figura 2) para luego ser interpretada por el software.
Resultados Esperados
Generación de conocimiento y/o nuevos desarrollos tecnológicos.
Desarrollo del sensor para medición de la madurez en frutas basado en espectrometría de infrarrojo cercano
(NIR).
Validar el desempeño del dispositivo de monitoreo, por espectrometría de infrarrojo cercano (NIR), en cámaras
de atmósfera controlada.
Bibliografía
Bhande, S. R. (2008). Respiration rate of banana fruit under aerobic conditions at different storage temperatures.
Journal of Food Engineering , 116–123.
Fonseca, S. O. (2002). Modelling respiration rate of fresh fruits and vegetables for modified atmosphere
packages: a review. Journal of Food Engineering , 99–119.
Ozaki, Y. M. (2007). Sampling techniques.In Near- Infrared Spectroscopy in Food Science and Trchnology.
New Jersey: Wiley-Interscience.
Congreso Nacional de Ingeniería CNIA2012 79
CHARACTERISATION OF RICE BRAN FROM THE TOLIMA REGION IN COLOMBIA
M. Hernandez-Sarabia1 D. Rojas
1, B. De Meulenaer
2
1 Programa de Automatización Industrial, Grupo de Investigación GMAE, Universidad de Ibagué
2 Department of Food Quality and Food Safety, Faculty of Bioscience Engineering, Ghent University, Belgium.
Problem
Rice is a staple food for more than half of humanity and every continent on the planet produces rice except
Antarctica (Amissah et al, 2003), and it is also the third main commodity consumed in Colombia. Rice Bran
(RB) is a by-product of rice milling factories and is underutilized. Actually in main rice producing region of
Colombia, Tolima, a large proportion of RB is used as animal feed, wasting its excellent quality and nutritional
value. It is essential to establish the chemical and nutritional variations in order to analyze the industrial
potential of the rice bran in Tolima region in Colombia.
Objetivs. Evaluated varietal differences and its effects on the quality parameters on RB and RBO from main 4
rice varieties cultivated from Tolima region in Colombia.
Methods
The analysis of rice bran composition was carried out for the four varieties, the two milling fractions
comparison, and on the samples from the eight batches of F50 variety. The parameters measured were: protein,
fat content, moisture, ash, total fibre, amino acids on one sample of rice bran in triplicate. In three oil extractions
fatty acid profile, tocopherols, tocotrienols, and g-oryzanol were analyzed. The moisture, crude fat, crude protein
and ash contents were determined based on the official methods of analysis of the AOAC (AOAC, 1990) in
triplicate. Carbohydrate content was determined by difference. The conversion factor used for protein
determination was 6.25. Total dietary fibre composition was obtained by a combination of enzymatic and
gravimetric methods (Asp et al., 1983; AOAC, 1984). All reagents were obtained from BIOQUANT -Merck
(Germany). The analysis was carried out using two samples of rice bran previously defatted and dried at room
temperature, in order to correct the fibre content from protein and ash interference. Each sample and blank (same
procedure without sample) was done in triplicate. The amino acids were analyzed using the method described by
Kerkaert et al. (2010). All the amino acids except tryptophan were analyzed by HPLC after acid hydrolysis. In
the acid hydrolyzed samples, all amino acids except proline were analyzed after pre-column ophtalaldehyde
(OPA) derivatisation, while proline was analyzed after 9-fluorenylmethyl chloroformate (FMOC) derivatisation.
Tryptophan was analyzed after basic hydrolysis by pre-column OPA derivatisation on HPLC. The HPLC
analysis was done on 1100 Agilent HPLC equipped with a zorbax eclipse-AAA column. Oryzanol content was
determined in a Varian Cary 50 series spectrophotometer according to the method described by Seetharamaiah
and Prabhakar (1986). Standard was obtained from Tokyo Chemical Industry Co., Ltd. (Japan). The standard
was used to create the calibration curve in the range 0-0.1 mg/ml.
Results
Parameter (g/100g DM)
Varieties
F60 C304 F50 RBM
Moisture 10.65 ± 0.13 11.04 ± 0.09 12.50 ± 0.22 11.48 ± 0.48
Protein 13.60 ± 0.06 15.29 ± 0.10 14.62 ± 0.21 15.08 ± 0.12
Ash 12.08 ± 0.06 12.26 ± 0.13 12.58 ± 0.01 9.47 ± 0.06
Fat 21.09 ± 0.66 23.44 ± 0.47 21.28 ± 0.50 22.15 ± 0.55
Total fibre 25.96 ± 0.95 24.74 ± 1.15 29.94 ± 0.79 20.98 ± 0.54
Carbohydrate 16.62 13.22 9.07 20.8
Bibliografía
AOAC (1984). Association of Official Analytical Chemists. Official Methods of Analysis. 1984. 14th Edition,
washington, D. C.
AOAC (1990). Association of Official Analytical Chemists. Official Methods of Analysis. 1990. 15th Edition,
Washington, D. C.
Congreso Nacional de Ingeniería CNIA2012 80
PROGRAMACIÓN DE LA PRODUCCIÓN PARA LA PLANTA DE ACABADOS DE FABRICATO
FIBRATOLIMA A PARTIR DE LA HEURÍSTICA CBM
L.F Lozada-Valencia, E. Otalora-Murcia
Grupo de Investigación Ginnova, Universidad de Ibagué, Ibagué – Tolima
Palabras claves: Job Shop, Métodos Heurísticos, Programación de la Producción
Problema
El principal problema a atacar en la planta de Acabados de la empresa Fabricato – Fibratolima, se orienta a la
inadecuada programación de la producción con la que actualmente cuenta la compañía, afectando de manera
directa el cumplimiento a las fechas de entrega pactadas con clientes potenciales, además de generar altos
niveles de inventarios de producto en proceso y de producto terminado.
El análisis de la información recolectada permite desglosar el problema anteriormente expuesto en unos puntos
principales como lo son en primera medida, lo concerniente al proceso de producción normal de la tela, esto
debido básicamente a la cantidad de referencias manejadas en la compañía, las cuales a pesar de clasificarse en
líneas de producción ya estandarizadas con la mínima variación en el tejido al igual que las materias primas
usadas para el mismo, hace que el proceso deba estimar un gran número de variables, entre las más
sobresalientes están el color de la tela relacionado con los pases por teñido y fijado de las mismas, las
velocidades de producción determinado por el peso y característica del telar, las mermas y perdidas normales
referentes a cada línea de producción, entre otras; volviendo complejo el proceso tanto en la parte operativa de
transformación de materias, como en la parte de programación de pedidos, ya que no se cuenta con una
herramienta para efectuar esta actividad. Finalmente, el mayor problema es la limitada capacidad instalada con
la que cuenta la empresa haciendo que el ciclo de producción se vea atascado por sus máquinas cuello botella
localizadas principalmente en el área de teñido.
Mediante la consolidación de las ideas anteriormente expuestas se hace evidente que para la compañía Fabricato
– Fibratolima es indispensable dar solución a dos grandes problemas que son el retraso en el proceso de
producción lo que genera a su vez el incumplimiento de entrega de pedidos y los altos niveles de telas enviadas a
reproceso. Estos dos problemas están directamente relacionados y generan la siguiente pregunta de
investigación: ¿Cómo la aplicación de la heurística “El cuello de botella móvil (CBM) o shiftingbottleneck”,
contribuye a la mejora en la programación de la producción para la planta de Acabados de Fabricato –
Fibratolima?
Metodología
El presente estudio obedece a cuatro etapas específicas:
En la primera etapa se caracterizara el proceso productivo de la planta de acabados de Fabricato - Fibratolima,
a partir de entrevistas a los distintos actores que intervienen en los procesos de producción, visitas a la planta y
la búsqueda de documentación existente, con miras a determinar las variables de proceso más sobresalientes,
líneas de producto de mayor importancia, problemas neurálgicos, con lo que se busca generen una idea global
del tema a trabajar.
En la segunda etapa, a partir de la información obtenida, se realizara la búsqueda de la información teórica que
fundamente la heurística denominada “The Shifting Bottleneck Heuristic and The Makespan”,que se aplicara
en la programación de la producción de la planta de acabados de Fabricato – Fibratolima.
La tercera etapa se basa en la consecución de una serie de datos necesarios como los tiempos de procesamiento
estándar por máquina, líneas de productos y referencias más sobresalientes, flujos de procesos estándar por línea
de producto, tiempos de preparación y cambio de programa, ciclo de teñido de la tela, porcentaje de reproceso
Congreso Nacional de Ingeniería CNIA2012 81
por línea de producción y maquinaria, programas maestros de producción mensuales, entre otros; los cuales
serán la base y estado de partida que alimenten la heurística de programación a desarrollar.
La cuarta y última etapa del proyecto es de desarrollo y aplicación de la heurística “The Shifting Bottleneck
Heuristic and The Makespan”, el cual será recreado en la planta de acabados de la firma textil Fabricato –
Fibratolima y que pretenderá solucionar los problemas de programación de la producción.
Resultados
Un taller de fabricación o Job-Shop es una configuración productiva que permite fabricar una gran cantidad de
productos diferentes. Este tipo de sistema se caracteriza por tener máquinas de propósito general, y por qué cada
trabajo tiene una ruta de fabricación única, que no necesariamente se repite entre trabajos. [1]
La planta de acabados cuenta con un área de 11.200 metros cuadrados, en la cual se encuentra el área de
productividad, de diseño, de calidad, de recursos humanos. Está conformado por 17 máquinas, en las cuales se
realiza los procesos finales a la tela, como el pre tratamiento, teñido, estampación, suavidad, apresto, fijación del
color. Estos procesos son indispensables para dar a la tela la textura, color y las características físicas necesarias
para obtener un producto final de excelente calidad.
El proceso de producción de la planta de acabados se inicia con la tela cruda proveniente de telares, la cual trae
contaminantes tales como ceras, cascarilla, goma, grasas, aceites que deben ser retirados durante los diferentes
procesos físicos y químicos.
Figura 1. Caracterización del Sistema Productivo
El cuello de botella móvil (CBM) o shiftingbottleneck, desarrollado por Adams, Balas y Zawack (1989), es una
de las heurísticas para programación de talleres más exitosas [2]. Su idea principal es secuenciar una a una las
máquinas del taller según su grado de criticidad. Este último es calculado de acuerdo con la secuenciación de las
máquinas que afecta la función objetivo. El algoritmo inicia con la determinación del cuello de botella inicial y
establece una secuencia de trabajos óptima para esa máquina. Una vez se ha hecho esta operación, se imponen
nuevas restricciones que afectan la secuenciación de las máquinas restantes. Se determina y se secuencia la
nueva máquina cuello de botella entre aquellas no secuenciadas y el proceso se repite hasta que no haya
máquinas sin secuenciar [3].
En el marco de la tercera y cuarta etapa de la metodología a continuación se muestra la tabla definida por el área
de programación de la producción y los autores, para definir los tipos de base más sobresalientes en la planta de
acabados de Fabricato – Fibratolima con el flujo estándar de las maquinas en la producción:
Congreso Nacional de Ingeniería CNIA2012 82
Cuadro 1. Secuencia de las máquinas para acabados de tela más sobresalientes.
A partir de la información obtenida luego de llevar a cabo la secuenciación de los doce pedidos trabajados en la
prueba piloto, se destaca como la aplicación de la restricción definida por defecto en el área de teñido genera una
variación considerable en los resultados obtenidos tanto para efectos del desarrollo del programa a partir del
método actual asociado a regla de despacho FIFO, como para el método propuesto a través de la heurística
CBM.
Tomando como base de análisis el tiempo de fabricación máximo de todos los pedidos Cmax, como la variable
de decisión en términos de comparación y selección de la mejor opción, se evidencia para el caso un aumento
significativo de 1881 minutos para en el método de programación actual, ya que pasa de manejar un Cmax de
8628 minutos a un Cmax de 10509 minutos, el cual expresado en términos de días sería un incremento de casi
día y medio de producción. De igual forma, para el caso de la heurística CBM se observa una variación relativa
del 25% pasando de un Cmax de 7850 minutos a un Cmax de 9780 minutos, que en términos de días se expresa
en un aumento de 1.34 días para dar por finalizada la corrida de producción.
Referencias
[1] Castro, C. A., Velez, M. C., & Maya, J. (2003). Algoritmo de Busqueda Aleatoria Para la Programacion
de la Produccion en un Taller de Fabricacion. Revista EAFIT, 3-4.
[2] PINEDO, M., & CHAO, X. (1999). Operations Scheduling With Applications In Manufacturing And
Service. New York: McGraw Hill.
[3] Britto, R. A., Mejia, G., & Caballero, J. P. (2007). Programación de la producción en sistemas de
manufactura tipo taller con el algoritmo combinado cuello de botella móvil y búsqueda tabú. Universidad de los
Andes, 205-206.
TIPO DE BASE BASE ACABADO
14513 140/12 DCOLE DESC BQEO MERC APR PREENC REV PICAR 0 0
45524 480/33 DCOLE DESC BQEO MERC TDO APR PREENC PICAR 0 0
45525 480/33 DCOLE DESC BQEO MERC TDO APR PREENC PICAR 0 0
44520 140/12 DCOLE DESC BQEO MERC APR PREENC REV PICAR 0 0
55506 870/PA DCOLE DESC MERC TDO EST REDUC APR PREENC REV PICAR
55502 870/PA DCOLE DESC MERC TDO EST REDUC APR PREENC REV PICAR
24527 460/62 DCOLE DESC BQEO MERC ESM TDO APR PREENC REV PICAR
24520 460/62 DCOLE DESC BQEO MERC ESM TDO APR PREENC REV PICAR
24524 460/62 DCOLE DESC BQEO MERC ESM TDO APR PREENC REV PICAR
24526 460/62 DCOLE DESC BQEO MERC ESM TDO APR PREENC REV PICAR
45524 480/33 DCOLE DESC BQEO MERC TDO APR PREENC PICAR 0 0
45525 480/33 DCOLE DESC BQEO MERC TDO APR PREENC PICAR 0 0
45528 480/TE DCOLE DESC BQEO MERC TDO APR PREENC REV PICAR 0
24568 480/95 DCOLE DESC BQEO MERC TDO TIN APR PREENC REV PICAR 0
24582 480/95 DCOLE DESC BQEO MERC TDO TIN APR PREENC REV PICAR 0
18190 904/34 DCOLE DESC BQEO EST PIGM TDO BCO OPT APR PREENC REV PICAR 0
45526 904/34 DCOLE DESC BQEO EST PIGM TDO BCO OPT APR PREENC REV PICAR 0
FLUJO ESTANDAR
BLANCOS
CAMUFLADO
TEÑIDO
UNIFORMERO
ESTAMPADO
Congreso Nacional de Ingeniería CNIA2012 83
REFLEXIONES DE LA APLICACIÓN DE HERRAMIENTAS DE INGENIERÍA PARA MEJORAR LA
EFICIENCIA DE UN SERVICIO DE URGENCIAS REGIONAL
C. Saavedra-Moreno
Ingeniería Industrial/GINNOVA, Universidad de Ibagué, Ibagué
Palabras claves: servicio de urgencias, logística hospitalaria, ingeniería aplicada.
Problema
La salud es un derecho fundamental del ser humano. Desde la Carta de Constitución de la Organización
Mundial de la Salud - OMS se plantea que todo ser humano tiene derecho a que se le garantice la salud, sin
distinción de raza, religión, ideología política o condición económica o social. Los avances en materia de salud
a nivel mundial han sido limitados y desiguales, debido a situaciones de conflicto, malas gobernanzas, crisis
económicas, alimentarias o humanitarias y la falta de recursos [1]. Según datos de la OMS [2], dos tercios de
las muertes infantiles prematuras se deben a enfermedades que se podrían evitar o tratar con intervenciones
simples, un tercio de las muertes de niños están asociadas a la malnutrición y cada día mueren unas 800
mujeres por causas prevenibles relacionadas con el embarazo y el parto. Una de las áreas de mayor prioridad
para mejorar en un hospital es el área de urgencias, como se evidencia en Pantoja Rojas & Garavito Herrera
[3], Hoot & Aronsky y Espinosa & Case [4], en donde se destaca la necesidad de mejorar esta área debido a
que atiende servicios que requieren tiempos de respuesta óptimos y de alta calidad. Una respuesta inoportuna o
un servicio deficiente pueden generar el empeoramiento de la salud e integridad física del paciente. En el
Artículo 159 de la ley 100 colombiana se definen dentro de las garantías de los afiliados al sistema de
seguridad social la atención eficiente de urgencias en todo el territorio nacional, una situación de servicio
ineficiente está en contra de la ley y de los derechos constitucionales de los ciudadanos.
En este marco, en donde los servicios de urgencias se configuran como áreas con altas congestiones, tiempos
de espera altos, alta ocupación de instalaciones médicas y recursos limitados, no solo por la creciente demanda
de usuarios, sino por ser la fuente de pacientes para otras especialidades de las clínicas, es importante
identificar las herramientas ingenieriles que potencialmente pueden mejorar el funcionamiento operativo del
servicio. Lo anterior, si se tienen en cuenta que actualmente el sistema de salud colombiano se encuentra en
crisis debido a problemas en la regulación del sistema, la corrupción, prestación de servicios deficientes (baja
actualización de personal y malas condiciones de infraestructura), entre otros factores [6]. Por lo anterior, en
este artículo se realiza una revisión bibliográfica de las herramientas ingenieriles que se pueden integrar y
adaptar en un servicio de urgencias regional, con el fin de maximizar el uso de los recursos disponibles y
mejorar los procesos actuales.
Metodología
Para realizar el proceso de búsqueda de esta revisión se definieron las siguientes restricciones:
Los artículos tienen como objeto de estudio el servicio de urgencias de hospitales y plantean
problemas que se solucionan con herramientas de ingeniería.
Las herramientas de ingeniería aplicables buscan mejorar el funcionamiento operativo del servicio, en
particular la eficiencia del área de urgencias. La eficiencia medida por el indicador de oportunidad de
atención.
Los artículos deben plantear los factores requeridos para construir una solución. Lo anterior, con el fin
de identificar las alternativas que pudiesen adaptarse a la situación regional.
Se revisaron alrededor de 50 artículos en bases científicas especializadas (Scienti y Scopus) de los cuales se
seleccionaron 25 que cumplen las restricciones especificadas en el proceso de búsqueda y se publicaron en
los últimos cinco años. Las ecuaciones de búsqueda utilizadas incluyeron los siguientes términos con
diferentes combinaciones:, improve efficiency process emergency department, simulation emergency
department, lean emergency department, operation research emergency department , six sigma emergency
department. Por medio de la revisión de los artículos se lograron conocer las diferentes herramientas de
ingeniería que se pueden utilizar para solucionar problemáticas propias de un servicio de urgencias. Además,
conocer casos de aplicación que permiten evidenciar las mejoras de la operación del servicio, los factores que
se deben tener en cuenta para replicar las investigaciones y ventajas y desventajas de cada una. Estos cuatro
Congreso Nacional de Ingeniería CNIA2012 84
elementos se clasificaron y organizaron en tablas, que permiten seleccionar las alternativas para adaptar,
dependiendo de los problemas que se identifiquen en el servicio de urgencias a mejorar.
Resultados
La revisión de literatura muestra diferentes aplicaciones de ingeniería diseñadas a la medida de las necesidades
propias de cada entidad, teniendo en cuenta las diferencias que puedan existir en el marco de la regulación
legal, la cantidad de servicios que se ofrecen, el volumen y características de usuarios que la entidad atiende y
su presupuesto. Sin embargo, se evidencia en su mayoría que la aplicación de herramientas de ingeniería para
mejorar servicios de urgencias genera beneficios cuantificables en el indicador de oportunidad de atención (es
decir se disminuyen los tiempos de espera de los pacientes).
En la tabla 1 se muestran las metodologías analizadas con los diferentes elementos estudiados para solucionar
problemas de servicios de urgencias.
Tabla 1. Herramientas de Ingeniería aplicadas para mejorar la oportunidad de atención en el servicio de
urgencias
Herramienta de
ingeniería
Herramienta
especifica Mejoras alcanzadas
Ventajas y/o desventajas
identificadas
Referencias
Simulación
Simulación de eventos
discretos
Identificación de cuellos de
botella
Planeación e identificación
de capacidad
Evaluación de escenarios
Permite modelar un sistema
complejo con funciones sencillas
[7], [8], [9], [10],
[11], [12] [3]
Simulación basada en
agentes
Mejoras en el flujo de
pacientes y recursos del
sistema
Es una metodología que permite
determinar configuraciones de
los recursos.
Se centra en los componentes
básicos no en el sistema en
conjunto
[13], [14], [15],
[16], [17]
Programación de recursos o actividades
Asignaciones optimas de
recursos
Disminución de los tiempos
ociosos
Permite la optimización en la
asignación de recursos
[18], [19], [20],
[21], [22]
Gestión de la
calidad
Seis Sigma
Reducción de la variabilidad
de los procesos
Disminución en errores y
devoluciones
Tiene un enfoque hacia el cliente
(en este caso el paciente)
Se requiere del compromiso y
participación del personal del
área.
[23] [24] [25] [26]
[27] [28] [29]
Manufactura Esbelta
Reducción de desperdicios
(eliminación de procesos que
no generan valor)
Incremento del nivel de
satisfacción de los pacientes
Referencias
[1] L. M. Pantoja Rojas and L. A. Garavito Herrera, “Analysing the Diana Turbay CAMI emergency and
hospitalisation processes using an Arena 10.0 simulation model for optimal human resource distribution,”
Ingeniería e Investigación, pp. 146-153, 2008.
[2 F. Venegas, C. Amaya and N. Velasco, “Modelo de Simulación de eventos discretos del servicio del
departamento de emergencias para un hospital,” Los cuadernos de PYLO - Logística Hospitalaria, p. 13, 2008.
[3] M. Taboada, E. Cabrera and L. Iglesias, “An Agent-Based Decision Support System for Hospitals
Emergency Departments,” Procedia Computer Science, vol. 4, pp. 1870-1879, 2011.
[4] J.-Y. Yeh and W.-S. Lin, “Using simulation technique and genetic algorithm to improve the quality care of
a hospital emergency department,” Expert Systems with Applications, vol. 32, pp. 1073-1083, 2007.