UTCJ THEOREMA Revista científica Edición 8

Page 1

Revista CientĂ­fica

1


2

Revista CientĂ­fica


DIRECTOrio Gobierno del Estado

CONSEJO TÉCNICO

M.C. Consuelo Catalina Fernández Gaxiola Universidad Tecnológica de Ciudad Juárez Presidente del Consejo Técnico

Dr. Iván Juan Carlos Pérez Olguín Universidad Autónoma de Ciudad Juárez (SIN C) Director de Obra

Lic. Javier Corral Jurado

Gobernador Constitucional del Estado de Chihuahua

Dr. Manuel Arnoldo Rodríguez Medina

Dr. Carlos González Herrera

Instituto Tecnológico de Ciudad Juárez

Secretario de Educación y Deporte

Secretaría de Educación Pública

Ing. Héctor Arreola Soria

Coordinador General de Universidades Tecnológicas y Politécnicas

Dra. Lucia Monserrat Pérez Navarro Instituto Nacional de Ciencias Médicas y Nutrición

Dra. María de los Ángeles López Martínez Universidad Tecnológica de Ciudad Juárez

Dr. Manuel Iván Rodríguez Borbón Universidad Autónoma de Ciudad Juárez (SIN C)

Universidad Tecnológica de Ciudad Juárez

Lic. Guillermo José Álvarez Terrazas

Rector

Dr. Rodrigo Villanueva Ponce Delphi Electrical Centers (SIN C)

Dr. Manuel Alonso Rodríguez Morachis Instituto Tecnológico de Ciudad Juárez

Lic. Francisco Javier Reza Pacheco

Abogado General

M.C. Armando Veloz Grajeda

Secretario Académico

C. José Agustín Pérez Limón M.C. José Agustín Pérez Limón

Lic. Adrián García Castro

Instituto Tecnológico de Los Mochis

Director de Vinculación

Lic. Salvador Álvarez Mata

Director de las carreras: Logística Internacional, Negocios e Innovación Empresarial y Financiera y Fiscal

M.T.I., M.A.D. Luis Alberto Santos Berumen

Director de la carrera: Tecnologías de la Información y Comunicación

Ing. Ricardo Pérez Santellana

Director de las carreras: Mantenimiento Industrial y Nanotecnología

Dra. Rosa Elba Corona Cortez

Director de las carreras: Energías Renovables y Procesos y Operaciones industriales

M.E.R. José Luis Peinado Martínez

Director de la carrera: Mecatrónica

M.C. Ana Eréndida Rascón Villanueva

Directora de las carreras: Terapia Física y Protección Civil y Emergencias

Dra. Nancy Angélica Coronel González Instituto Tecnológico de Ciudad Juárez

M.I.I. David Oliver Pérez Olguín Instituto Tecnológico de Los Mochis

M.C. Miriam Margarita Ruíz Sánchez Universidad Tecnológica de Ciudad Juárez

M.A. Luis Alonso De Santiago Romero Universidad Tecnológica de Ciudad Juárez

M.C.S.P. Alfredo Alfonso Cabel Acevedo Universidad Tecnológica de Ciudad Juárez

CONSEJO EDITORIAL Lic. María Teresa Álvarez Esparza Subdirectora de Extensión Universitaria

Lic. Idalí Meléndez Domínguez Jefe del Departamento de Prensa y Difusión

L.D.G. José Castro Castruita Diseño Gráfico

Universidad Tecnológica de Ciudad Juárez UTCJ THEOREMA REVISTA CIENTÍFICA Edición No. 8, Enero-Junio 2018 Av. Universidad Tecnológica No. 3051 Col. Lote Bravo II C.P. 3265 Ciudad Juárez, Chihuahua Tels. (656) 649.06.00 Ext. 3870

//utcj.edu.mx

Revista Científica

3


CONTENIDO + Artículo arbitrado # 1

8

Producción y caracterización de grafito exfoliado vía química

Brenda Marcela Salcido Trillo, Lucio Genaro López Panduro, María de la Luz

14

do, empleando un desarrollo electrónico embebido Cuevas

María Cristina Cervantes Franco , Francisco Javier García Rodríguez , Luis

20

26

Estudio de distribución de Cyphomandra betacea Cav. en la comunidad de Mazahuacán, Lolotla, Hidalgo Martínez y Cirenio Velasco Castillo

32

Estrategias competitivas en micronegocios comerciales de una comisaría meridana desde la perspectiva de sus propietarios

Rocha

Canto Esquivel

Gustavo Rodríguez Miranda, Irma Gabriela Orozco González, Lucila Villa Pérez e

38

arbitrado # 15 + Artículo Aplicación de escritorio para control presupuestal de egresos Yolanda Flores Ramírez, Germán Espino Olivas, José Ángel Pendones Fernández

Alejandro Cano Mota, Luis Alberto Ponce Mateos, José Luis Landgrave Martínez

arbitrado # 16 + Artículo Percepción del clima laboral y sonducta segura del trabajador:

y Saúl García Andazola

y Andrés López Velázquez

44

Bejinez Macias

50

Ortega Cruz

56

arbitrado # 18 + Artículo Evaluación de Equipo de Sujeción para la Manipulación Manual De Carga

+ Artículo arbitrado # 19 62

Revista Científica

120

Aplicación de tecnología en un prototipo de invernadero en la Universidad Tecnológica de Ciudad Juárez Glenis Masiel Ochoa Márquez, Oscar Delgado Landeros, Adair Jaquez Mora y Pablo Meléndez Lucero

+ Artículo arbitrado # 20

La situación del emprendimiento en el sector primario en el Estado de Oaxaca Javier Damián Simón

4

112

Corral

Osorio

Olivo, Francisco F. Razura Carmona y Sonia G. Sáyago Ayerdi

ambientes dinámicos

Gabriela Gómez Bull, Luis Asunción Pérez Domínguez y Carlos Ponce

Angélica Murillo Ramírez, María del Rosario Moreno Fernández y Álvaro Flores

Luz M. Hernández Maldonado, Oscar G. Martínez Moreno, Abraham O. Martínez

102

Salvador Trujillo Ordoñez, Carlos Felipe Ramírez Espinoza, Karla

Sistema de control de nivel de líquidos en tanques verticales conectados en serie con retroalimentación a través de electroválvula

Alimentos funcionales en México: situación actual y perspectiva

arbitrado # 17 + Artículo Análisis estratégico como herramienta de éxito empresarial en Esquivel Guillén y Reiner Rincón Rosales

Mónica Martínez Olguín, Aimer Fernanda Cruz Sánchez y Laura Luz

Artículo arbitrado # 10

Su relación

Francisco Alexander Rincón Molina, Luis Alberto Vázquez Robles, Karla Lizzet

Punsión seca y ejercicio excéntrico para la resolución del punto gatillo miofasial en las fibras superiores del músculo trapecio

+ Artículo arbitrado # 9

98

María Monserrath Yam Che y Cecilia Aguilar Ortega

Sergio Sandoval Pérez, Enrique Herrera Segura, J. Jesús García C. y J. Carlos

+ Artículo arbitrado # 8

94

del municipio de Nuevo Casas Grandes, Chihuahua

de combustión interna utilizando la 1ra y la 2da leyes de la termodinámica

arbitrado # 7 + Artículo Modelado y simulación de un vehículo en el software CARSIM

90

Comunidades de aprendizaje con enfoque a la educación ambiental, vértice entre la responsabilidad social universitaria y la empresarial Imelda Yáñez Ruiz

Pamela Alejandra Colli Acevedo, María Antonia Morales González y Ana María

arbitrado # 6 + Artículo Metodología para el balance energético aplicado a un motor

84

Ramón Parra Loera, Jansel Edmundo Arreola García y Víctor Manuel Morales

+ Artículo arbitrado # 14

César Jiménez Pelcastre, Raúl Valentín Islas, Ricardo Guevara Herrera, Alejandro Perea

+ Artículo arbitrado # 5

Ángel Silva García

Laboratorio de virtualización utilizando virtualización anidada con HIPER-V

Zaira Montellano Gaytan

Artículo arbitrado # 4

76

Gerardo Esparza Díaz, Hugo Carrillo Rodríguez, Sayde Atzin Ramírez y Miguel

+ Artículo arbitrado # 13

Edgar Olvera Espinosa, Fernando Pedroni Lara, José Alberto González Avendaño y

+

+ Artículo arbitrado # 12

Juan Carlos Zaragoza Hernández, Armando García Mendoza y Jaime Jalomo

Matriz de desempeño a partir del diagrama de HOPE para la toma de decisiones en capital humano

+

Rojas Nevárez y María de los Ángeles López Martínez

Diseño y construcción de un a planta piloto especializada en el acondicionamiento de uniformes antiestáticos

+ Artículo arbitrado # 3

68

Análisis de la sustentabilidad económica, competitividad y resistencia al cambio en las PyMEs de Ciudad Juárez Chihuahua

Daniel Herrera Hernandez, Javier Solís Hernandez y Daniel Márquez Olivas

arbitrado # 2 + Artículo Control difuso PD+I y PID para un sistema de aire acondiciona-

+ Artículo arbitrado # 11

126


+ Artículo arbitrado # 22

138

Predicción de los precios del combustible en el Estado de Baja Califormia, México, utilizando simulación discreta continua combinada Bogart Yail Márquez Lobato

+ Artículo arbitrado # 23

144

Estudio del proceso de corrosión y pasivación de Ti-6Al-4V en NaCl y H2SO4 utilizando polarización potenciodinámica Daniel Barragán de Santiago, Mónica Galicia Garcia, Elsa G. Ordoñez Casanova y Manuel Lira Martinez

+ Artículo arbitrado # 24

Sistema de visión por computador para detectar plagas en prototipo de cultivo de Jitomate usando ambiente controlado

150

Rosa María de Anda López y Agripín Sánchez Salinas

+ Artículo arbitrado # 25

Evaluación del contenido de compuestos fenólicos y de la actividad antioxidante en guayaba (PSIDIUM GUAJAVA L.)

156

María Karla Flores López, Rosa Cristina Ávila Peña2, Suhei Lizette Cabrera Gregoire, Sandra Díaz Montes, Katia Nayely Ramos Santoyo, Ma. Del Rosario Villanueva Macías y Carlos Vidal Díaz

+ Artículo arbitrado # 26

160

Mejoramiento de la gestión del almacén aplicando herramientas de mejora continua, caso de estudio: Empresa industrial Marlene Ramírez Bonifacio, Arturo González Torres, Armando I. Ramírez Castañeda, Luis F. Rivas Mendoza y Federico Arrendo Berrocal

UTCJ THEOREMA REVISTA CIENTÍFICA

arbitrado # 27 + Artículo Expansión y enfriamiento del Universo

168

J. Rubén Morones Ibarra

+ Artículo arbitrado # 28

Relación de las variables sociodemográficas y la calidad en el servicio en un hotel de la ciudad de Mérida Yucatán.

182

Edwin Esau Cen Lara, Andrés Miguel Pereyra Chan, Hermila Andrea Ulibarri y María Guadalupe Guzmán Gómez

Artículo arbitrado # 29 + Estudio sobre incursionar con

E-Commerce comercialización de productos alimentarios locales

188 en

la

Helga Heise González , María del Pilar Azamar Vilchis, Edwin Flores Ortiz y Dania Elba Villaseñor Padilla

+ Artículo arbitrado # 30

194

Calidad clase mundial y su impacto en el medio ambiente Jorge Luis Estrada Perea, Olinda Ornelas Benítez y Elsy Denisse Martínez Torres

MANUAL DE ESTILO

2018

Eugenia Bermúdez Jimenez y Arnulfo Alanis Garza

No. 8

José Sergio Magdaleno Palencia, Bogart Yail Marquez Lobato, María

ENERO-JUNIO

132

Lectura encefalográfica para medir el grado de concentración de la letra “A” con sistemas difusos

THEOREMA

+ Artículo arbitrado # 21

Año 4, No. 08, es una publicación semestral, enero-junio 2018, editada por la Universidad Tecnológica de Ciudad Juárez, Avenida Universidad Tecnológica #3051, Col. Lote Bravo II, C.P. 32695, Tel. (656) 649 0604, www.utcj.edu.mx. Editor responsable: Idalí Meléndez Domínguez. Reserva de Derechos al Uso Exclusivo No. 04-2016-061713532700-203, ISSN: 2448-7007, ambos otorgados por el Instituto Nacional del Derecho de Autor. Responsable de la última actualización de este número, Departamento de Prensa y Difusión, L.D.G. José Castro Castruita, Avenida Universidad Tecnológica #3051, Col. Lote Bravo II, C.P. 32695, fecha de la última modificación 29 de junio de 2018. Las opiniones expresadas por los autores no necesariamente reflejan la postura del editor de la publicación. Queda prohibida la reproducción total o parcial de los contenidos e imágenes de la publicación sin previa autorización del Instituto Nacional del Derecho de Autor.

200

PARA PUBLICAR EN THEOREMA Revista Científica

5


THEOREMA 6

Revista Científica


EDITORIAL La revista UTCJ Theorema presenta su edición número 8, la cual incluye 30 artículos de investigación; de esta manera, demuestra su compromiso de continuar publicando artículos, que incluyan la perspectiva y el análisis multidisciplinar de áreas como Procesos Industriales, Mantenimiento, Mecatrónica, Tecnologías de la Información, Energías Renovables, Negocios, Finanzas, Contabilidad, Comercio Exterior y temas relativos a la salud, para promover y difundirlos a la comunidad investigadora no sólo de la localidad sino también nacional. Nuestra revista representa un espacio de referencia muy importante para la comunidad investigadora, no sólo para Universidades Tecnológicas y Politécnicas, sino también para aquellas que están fuera del subsistema; como son los InstitutosTecnológicos y las Universidades Autónomas, el éxito recae en el esfuerzo colaborativo de los autores, los integrantes del Comité Editorial y el Comité Técnico en cada uno de los números, sin omitir el apoyo institucional.

conservando su identidad, la inclusión multidisciplinar de investigación y el rigor en el proceso en la selección y publicación de los trabajos de investigación. Por su carácter electrónico, la revista pretende seguir aprovechando las potencialidades que representa este medio, en un formato totalmente visual e innovador, donde se pueden apreciar los artículos y dar pie a la reflexión y el análisis.

COMITÉ TÉCNICO DE UTCJ THEOREMA REVISTA CIENTÍFICA

Actualmente, la revista se encuentra indexada en LatinIndex y Actualidad Iberoamericana, con esto, la revista está en camino a una nueva etapa de consolidación y apertura a nuevos públicos y horizontes. Al entrar a esta nueva etapa deberá seguir

Revista Científica

7


Javier Solís Hernandez1, Daniel Herrera Hernandez2 y Daniel Márquez Olivas3.

Universidad Tecnológica de Ciudad Juarez, 2,3 Universidad Autónoma de Ciudad Juárez 1,3

daniel_marquez@utcj.edu.mx.

Recibido: Mayo 31, 2017. Recibido en forma revisada: Noviembre 11, 2017. Aceptado: Mayo 9, 2018.

8

Revista Científica

Resumen: El objetivo principal de esta investigación es desarrollar grafito exfoliado a partir de grafito natural utilizando una metodología de exfoliación a través de una vía química utilizando ácido sulfúrico (H2SO4), ácido nítrico (HNO3), y ácido cítrico (C6H8O7). La metodología empleada busca ver las propiedades que se pueden obtener del grafito, como son propiedades fisicoquímicas, estructural y de adsorción. Las técnicas empleadas para demostrar estas propiedades son: análisis caracterización textural para determinar la cantidad de microporos, mesoporos y diámetro de poros desarrollados en la estructura del grafito exfoliado, así como también, análisis Termo-gravimétrico (TGA) para determinar la humedad, carbón fijo, cenizas y volatines. La determinación del número de iodo se aplica para determinar la adsorción de moléculas en los microporos, además es un parámetro utilizado en la industria para determinar el área superficial. Los resultados sobresalientes son una superficie total de 46 m2/g en el grafito exfoliado a 60 segundos siendo este el que mayor también el de mayor volumen de micro y mesoporos presenta con un volumen total de 0.1000 cm3/g. Para el análisis Termo-gravimétrico los resultados representativos los obtuvo el grafito exfoliado a 60 segundos obteniendo una humedad de 7.49, volátiles 8.02 % y cenizas 14.85% disminuyendo con forme el tiempo de activación del grafito aumentaba, mientras que para el carbón fijo se dio un aumento de 54.95% del grafito natural hasta 69.52%


del grafito exfoliado a 60 segundos.

+

Palabras clave: grafito, exfoliación, porosidad, choque térmico.

Abstract: The main objective of this investigation is develop exfoliated graphite from the natural graphite using a methodology of exfoliation through a pathway chemistry from sulfuric acid (H2SO4), nitric acid (HNO3) and citric acid (C6H8O7), to see the properties which can implement to the graphite treat in this way, either physic-chemical, structural and adsorption in the surface and interior, some techniques used to demonstrate these properties are: analysis of characterization to determine the amount of macropores, mesopores and micro pores in the structure of the exfoliate graphite, as well as, analysis Thermo-Gravimetric (TGA) to determine the moisture, fixed carbon, ashes and volatile’s. The determination of the iodine number is applied to determine the adsorption of molecules in the micropores, in addition it is a parameter used in the industry to determine the surface area. The outstanding results are of a total surface of 46 m2/g in the graphite exfoliated to 60 seconds of which also the greater volume of micro and mesoporos present with a total volume of 0.1000 cm3/g. For the thermo-gravimetric analysis the representative results obtained the graphite exfoliated at 60 sec obtaining a humidity of 7.49, volatiles 8.02% and ash 14.85% decreasing with the time of activation of the graphite increased, whereas for the fixed carbon an increase of 54.95% of the natural graphite to 69.52% of the graphite exfoliated to 60 seconds.

+

Keywords: Graphite, exfoliated, porosity, thermal shock.

Introducción El grafeno es un nuevo material nanométrico bidimensional, obtenido en 2004 por exfoliación micro-mecánica del grafito. Es una hojuela cuasiplana con pequeñas ondulaciones, dando la apariencia de un panal de abejas, con un grosor de un átomo de carbono (0.1nm). Su producción hasta ahora es restringida a nivel laboratorio. Sin embargo, se realizan arduas investigaciones para producirlo a escala industrial debido a las extraordinarias propiedades que exhibe, tales como un efecto Hall cuántico anómalo, con un comportamiento como semiconductor gap superficial y ausencia de localización electrónica, entre otras (Rodríguez, 2008). La adsorción puede definirse como la adhesión de los átomos o moléculas de una sustancia denominada “adsorbato” sobre la superficie de otra denominada “absorbente”. Si nos referimos a la adsorción de fluidos sobre sólidos, los adsorbatos suelen ser gases nobles, fluidos metálicos, disoluciones acuosas, compuestos orgánicos (hidrocarburos), etc., mientras que las sustancias más utilizados son el carbón, el grafito exfoliado, cristales simples y algunos metales (Valderrama, 1998). Existen técnicas para poder obtener el grafito exfoliado por oxidación química seguido de una exfoliación por microondas. Los resultados que se presentaron indicaron que los poros de la red estaban bien desarrollados con una estructura con forma de gusano de grafito expandido (GE) podrían ser claramente observados. La capacidad de GE fue evaluada por la adsorción de rodamina B y una solución acuosa de 4-clorofenol. Lo que podría atribuirse a los grupos funcionales y los poros de la red bien

desarrollados en el GE de gusano (Du, Xian, Meng, Hay, 2004; Du, Xian, Meng, Hay, 2005). El GE es un material versátil que se utiliza para el desarrollo de productos en diversas aplicaciones de ingeniería. La técnica de irradiación de microondas es uno de los mejores procesos disponibles para producirlo, es muy rápida y con un bajo costo. Con anhídrido acético, permanganato de potasio y ácido perclórico seguido de una irradiación de microondas. Para la capacidad de sorción que se determinó utilizando diferentes aceites 102, 94,87 (+/- 2) g por 1 g de EG. Se fabricaron nanocompuestos de caucho de estireno butadieno (SBR) reforzado con el grafito modificado y grafito natural con concentraciones de 5% en peso. Para procesarlo se utilizó ácido, choque térmico, sonicación en la fabricación de grafito modificado. Los resultados mostraron que los nanocompuestos onto plaquetas ácido–grafito con mejores propiedades mecánicas y propiedades de fatiga de nanocompuestos en comparación con las que contiene el grafito natural debido al incremento en la interacción ente el polímero y el grafito modificado. Además, las propiedades térmicas y eléctricas de nanocompuestos utilizado plaquetas ácido–grafito se mejoraron debido a la superficie especifica ampliando el tratamiento con ácido (Song, Cao, Cai, Zhao, GFang, Fu, 2011). Con este estudio se tiene como fin el producir un grafito exfoliado con características que sirvan industrialmente en adsorción a un menor costo y tiempo.

Materiales y métodos + Producción de grafito exfoliado El grafito natural se secó en una estufa a 80°C por 24 horas. Después se mezcló con ácido sulfúrico, ácido nítrico y ácido cítrico (4:1:1 v/v), se dejó enfriar la reacción y se mantuvo en agitación. Después de 16 horas de reacción el grafito se filtró y se lavó con agua desionizada hasta que alcanzó un pH de 6. Posteriormente se secó a 100°C por 12 horas, obteniendo como resultado un compuesto intercalado de grafito que es sometido a un choque térmico a 1050°C por 15, 30 y 60 segundos en una mufla para obtener el grafito exfoliado.

+ Caracterización Análisis de caracterización textural

Para evaluar los parámetros texturales de las muestras, se usó adsorción física de nitrógeno (N2) a 77 K en un analizador automático de adsorción de gas Quantachorome Autosorb 1. Las muestras se desgasificarón a 300ºC por 3 horas. El área superficial (SBET) se obtendrá utilizando el método multipoint BET. El volumen de microporos (VMI) se calcula usando la ecuación de Dubinin-Radushkevich (DR) para la adsorción de N2 (P/P0 ≤ 0.1). El volumen total de poros (VT) se determina a 0.95 P/P0 y se calcula el contenido de mesoporos (VME) por diferencia entre VT y VMI.

Análisis Termo Gravimétrico (TGA)

Se analizaron las muestras por (TGA) Thermogravimetric Analyzer TGA-7 Perkin Elmer bajo las siguientes condiciones: se colocó la muestra en una atmósfera de argón hasta los 400 ºC y se cambió la atmósfera a aire, con el fin de determinar la humedad, carbón fijo, cenizas y volátiles. Además de ver la termo-estabilidad de los grafitos exfoliados.

Revista Científica

9


Caracterización estructural

La morfología se observó por microscopía electrónica de barrido (MEB) en un microscopio Joel JSM-5800LV equipado con un sistema para espectroscopia de rayos-X (EDX) marca EDAX, el cual se utilizó para identificar la composición cualitativa de componentes estructurales de los grafitos obtenidos.

Propiedades fisicoquímicas y de adsorción

Mientras que en este trabajo se utilizó ácido sulfúrico, nítrico y cítrico en una proporción 4:1:1 v/v. Con relación al volumen total de poros obtenidos fue de 0.1000 cm3/g este es menor a los reportados por Guohua (2004) que fue de 0.159 cm3/g, en cuanto a los microporos y mesoporos se observó que su desarrollo no se incrementa de manera considerable hasta la muestra de 60 segundos. Algo a destacar es que hay mayor contenido de mesoporos que microporos como se observa en la Tabla I.

Posteriormente, se determinó en base a normas ASTM el pH (ASTM D3838) y el número de Iodo (ASTM D4607).

Resultados y discusiones En la Figura 1 se muestran las cuatro isotermas de adsorción de N2 obtenidas a 77 K. se identificaron cada gráfica como: a) grafito natural, b) grafito exfoliado por vía química por 30 segundos, c) grafito exfoliado por vía química por 45 segundos, d) grafito exfoliado por vía química por 60 segundos, en el cual se muestra como la adsorción de N2 va incrementando conforme se aumenta el tiempo del choque térmico.

Tabla I. Resultados de propiedades texturales.

ABET: área superficial BET. VT: volumen total de poros. VMICRO: volumen de microporos. VMESO: volumen de mesoporos. Dp: diámetro de poros.

Figura 1. Isotermas de adsorción de N2 a 77 K en un analizador automático de adsorción de gas (Quantachrome Autosorb 1).

En la Figura 2 se puede observar como el incremento del tiempo de choque termico esta relacionado directamente con la generacion del área superficial. El grafito exfoliado al ser tratado con óxido de niquel presenta una superficie total de área superficial variable que va desde los 1.4 a los 180 m2/g según Shornikova en el 2007, en este trabajo se obtuvieron áreas superficiales de 7.16 m2/g a 46.35 m2/g siendo mayores las de ellos, en contraste Guohua, Wengui, Dajun, Cuiling, Jinrong, Pingping y Xiangfeng, (2004) utilizó un procedimiento sumamente parecido al utilizado en esta investigación, obtuvieron áreas superficiales menores oscilando de 17.55 a 24.11 m2/g. Guohua y colaboradores utilizó la misma técnica solo que al momento de darle un tratamiento químico lo hizo con ácido sulfúrico y ácido fumaríco en un volumen 4:1 v/v, aparte de la exfoliación se sometió a un tratamiento de radiación ultrasónica con una potencia de 100 W, donde el grafito exfoliado es fragmentado a grafito foliado.

10

Revista Científica

Figura 2. Área superficial BET (m2/g) de los grafitos exfoliados obtenidos.

En la Figura 3 se muestra una comparación entre el área superficial y el volumen de microporos de cada uno de los grafitos exfoliados obtenidos y se observa una relación entre el área superficial y la microporocidad de los grafitos exfoliados, por lo que mientras se incrementa el volumen de


microporos en los grafitos exfoliados van en aumento el área superficial.

Figura 5. Adsorción de número de Iodo en área superficial BET. Figura 3. Tendencia del área superficial con relación a el volumen de microporos obtenidos.

En la Figura 4 se muestra la relación que existe entre la microporocidad y la mesoporocidad de los grafitos exfoliados obtenidos y se muestra que los mesoporos tienden a aumentar mientras que los microporos tienden tienen la misma tendencia esto gracias a que en la formación de los mesoporos de los grafitos exfoliados es dependiente de la formación de los microporos.

Análisis termogravimetrico arrojo un comportamiento donde la humedad, volatiles y cenizas disminuyen con el incremento del tiempo de choque termico por el contrario el carbon fijo se incrementa paulatinamente como se muestra en la Tabla 2 y en la Figura 6, siendo esto muy relevante para este trabajo ya que se busca que generar la mayor cantidad de hojas de grafeno derivado del proceso de produccion.

Tabla 2. Resultados de análisis termogravimétrico (TGA).

Figura 4.Comparación de la formación de microporos contra mesoporos de los grafitos exfoliados obtenidos.

El número de iodo se incrementa directamente al incrementarse los microporos y el área superficial en todas las muestras (Figura 5). El número de iodo es un parámetro que utiliza la industria para determinar las propiedades de adsorción de un material y está relacionado con el área superficial.

Figura 6. Resultados de análisis termogravimétrico de la composición de los grafitos exfoliados obtenidos.

Revista Científica

11


El pH es un parametro que permite determinar la naturaleza de los grupos funcionales que posiblemente se desarrollron en la superficie de las hojas de grafeno donde se puede encontrar grupos carboxilicos, lactonas entre otros. En este estudio se obtuvieron pH que oscilan entre los 6 y 6.4, considerandolo ligeramente ácido esto posiblemente se deba a la naturaleza de los ácidos utilizados para funcionalizarlos. En la Figura 7 se muestra los resultados obtenidos por MEB donde se puede observar como el grafito natural se empieza a separar en nano hojas de grafeno, posiblemente el intercalamiento de grupos acidos en las estructuras del carbon nos falite la separacion de las capas de grafeno asi como el choque termico por medio del cual se gasifican algunos componentes organicos produciendo las orquedades o separaciones entre las capas., Guohua, Wengui, Dajun, Cuiling, Jirong, Pingping y Xiangfeng (2004) obtuvieron resultados similares a los obtenidos en este trabajo.

Figura 7. Imágenes del grafito natural, a) grafito exfoliado a 30 segundos, b) grafito exfoliado a 45 segundos, c) grafito exfoliado a 60 segundos tomadas a 1000x.

El grafito natural presenta una conformación granular de forma irregular y amorfa, mientras que el grafito exfoliado presenta laminas intercaladas con una separacion entre las laminas de grafeno por las que esta conformado el carbon natural, es hay en donde encontramos los diferentes tipos de poros en su estructura.

Conclusión El objetivo de producir grafito exfoliado vía química se cumplió de manera exitosa pues se obtuvo un material con las propiedes y cualidades buscadas, tanto en propiedades texturales como de adsorcion. Se logró la producción de grafito exfoliado vía química, pero se podria pensar que si se incrementara el tiempo de choque termico podria separar de manera mas eficiente las laminas que se observan en las micrografias obtenidas por microscopia electronica de barrido, donde se puede ver una uniformidad en las laminas y un aumento en las mismas según el tiempo de choque termico. La cantidas de microporos y mesoporos en la estructura es relativamente baja eso tambien es atribuible al tipo de estructura generada en las hojas de grafeno que son planas y poco porosas.

12

Revista Científica

En las microfotografias tomadas por MEB se ve una esturctura abierta y aumentando entre mas choque termico, siendo la muestra obtenida a 60 segundos quien tiene una estructura mas definida posiblemente se deba a las fuerzas que unen las laminas de grafeno en este caso uniones debiles entre carbono y carbon, fuerzas de Van der Waals, por lo tanto es considerada el resultado más destacado.


Bibliografía + Du X.S.; Xiao, M.; Meng, Y.Z. y Hay, A.S. (2004). Synth. Met., 143, 129. + Du, X.S.; Xiao, M.; Meng, Y.Z.; y Hay, A.S. (2005). Carbon, 43,195. + Guohua, C.; Wengui, W.; Dajun, W.; Cuiling, W.; Jinrong, L.; Pingping, W. y Xiangfeng, C. (2004). Preparation and characterization of graphite nanosheets from ultrasonic powdering technique. Carbon 42: 753-759. + Rodríguez González, C., y Vasilievna Kharissova, O. (2008). Propiedades y aplicaciones del grafeno. Ingenierías, XI(38), 17–23. + Shornikova, O.N.; Sorokina, N.E. y Avdeev, V.V. (2007). The effect of graphite nature on the properties of exfoliated graphite doped with nickel oxide. Journal of physics and chemistry of solids. + Song, P.; Cao, Z.; Cai, Y.; Zhao, L.; GFang, Z. y Fu S. (2011). Fabrication of exfoliated graphene based polypropylene nanocomposites with enhanced mechanical and thermal properties. Polymer. 52;4001-4002p. + Valderrama, José (1998). Información tecnológica. Centro de información Tecnológica.VOL 9, Nº 2.

Revista Científica

13


Juan Carlos Zaragoza Hernandez1, Armando García Mendoza2 y Jaime Jalomo Cuevas3

Instituto Tecnológico de Ciudad Guzmán Avenida Tecnológico #100. Ciudad Guzmán, Jalisco, México, C.P. 49100

1,2,3

zaragoza.jcarlos@gmail.com

Resumen: El articulo presenta la implementación de dos algoritmos para el control de aire acondicionado. Los sistemas de aire acondicionado generalmente son operados mediante un controlador simple, de encendido-apagado (ON-OFF), ya que estos son simples y fáciles de implementar. Sin embargo, el rendimiento de estos sistemas no suele ser preciso, tiene un alto consumo de energía y la vida del compresor suele ser corta. Con el objetivo de aumentar la eficiencia del sistema, mejorar el rendimiento y reducir el consumo de energía, se decidió aplicar y comparar dos algoritmos. Uno de ellos basado en la lógica difusa, utilizando el método PD+I y el otro empleando el control tradicional PID. Los resultados obtenidos en simulación y pruebas físicas demuestran la estabilidad y rapidez de respuesta de los controladores con errores no superiores al 2.5% y con un tiempo 25% menor de estabilización del control difuso PD+I en comparación al control PID.

+ Palabras clave: Control difuso PD+I, control PID, sistema de aire acondicionado. Recibido: Agosto 28, 2017. Recibido en forma revisada: Noviembre 1, 2017. Aceptado: Mayo 9, 2018.

14

Revista Científica

Abstract: The paper presents the implementation of two algorithms for air conditioning control. Air conditioning systems are usually operated with a simple on-off controller, as these are simple and easy to imple-


ment. However, the performance of these systems is often not precise, has a high energy consumption and compressor life is often short. In order to increase system efficiency, improve performance and reduce power consumption, we decided to apply and compare two algorithms. One is based on fuzzy logic, using the PD + I method and the other using traditional PID controller. The results obtained in simulation and physical tests demonstrate the stability and speed of response of the controllers with errors not exceeding 2.5% and with a 25% less time of stabilization of the fuzzy PD + I controller in comparison to the PID controller.

+

óptico estamos protegiendo la salida de la tarjeta USB-6008 aislándola de las altas tensiones de corriente eléctrica por parte del compresor. Para la obtención de la función de transferencia del sistema de aire acondicionado se realizó la medición de temperatura producida por el equipo al cambio de referencia de temperatura mostrado en la figura 1 y empleando el comando ident de MATLAB se estimó el modelo de la función de transferencia descrito en la ecuación (1).

Keywords: Graphite, exfoliated, porosity, thermal shock.

Introducción Los sistemas de aire acondicionado convencionales tienen dos estados: on y off. En estado on, consumen una potencia eléctrica constante cuando están en funcionamiento (Booten, Christensen y Winkler, 2014) y una vez alcanzada la temperatura deseada, la unidad exterior se apaga, siendo este el estado off. Uno de los métodos ampliamente utilizados para la optimización de los parámetros PID es el método de Ziegler-Nichols (Meshram, Rohit y Kanojiya, 2012). Los métodos de lógica difusa también se utilizan para mejorar el controlador PID (Zheng y Tao, 2011; Ahsan ur Rehman Omer y Muhammad, 2017) mediante el uso de funciones de membresía para disminuir el sobreimpulso y aumentar el tiempo de respuesta. Además, el control de lógica difusa se utiliza en el aire acondicionado para mantener la temperatura y la humedad cerca de los valores objetivo y reducir la carga compresor-ventilador de energía eléctrica del aire acondicionado (Dash, Mohanty y Mohanty, 2012). El objetivo de esta investigación es implementar los dos algoritmos de control haciendo uso de la plataforma de desarrollo de Instrumentación Virtual de National Instrument y realizar una comparativa de respuesta de un sistema de aire acondicionado, realizando simulaciones propuestas en MATLAB & Simulink y pruebas físicas realizadas por medio de la tarjeta de adquisición de datos de National Instruments USB-6008.

Figura 1. Gráfica del comportamiento del sistema a un cambio escalón.

La metodología empleada en esta investigación ha sido la teoría de control, utilizando un controlador PID que puede ser considerado como una forma extrema de un compensador de retardo de fase con un polo en el origen y el otro en el infinito. Un controlador PID estándar también se conoce como el controlador de “tres términos”, cuya función de transferencia se escribe generalmente en la “forma paralela” dada por (2) o la “forma ideal” dada por (3) (Heong Ang, Chong y Li, 2005).

Métodos y materiales Los materiales empleados fueron, el sistema de aire acondicionado marca YORK tipo ventana modelo YCUSC08-2S, la tarjeta NI USB6008, el sensor de precisión de temperatura LM35, el relé contactor DPST 3100 y un circuito de potencia para el acoplamiento de señal de salida de la tarjeta al compresor del aire acondicionado. El tipo de programación empleada fue instrumentación virtual por medio de LabVIEW. Una entrada y una salida analógica de la tarjeta fueron habilitadas con el propósito de comunicar el sensor de temperatura y el equipo de aire acondicionado. Los circuitos de potencia son aquellos elementos que sostienen mayores cargas eléctricas, puesto que son los encargados de ejecutar las órdenes dictaminadas por el circuito de mando. Este tipo de circuito se caracteriza sobre todo por trabajar a tensiones superiores 230 V, 400 V y más, en corriente alterna principalmente. Además, es el encargado de excitar el relé para activar la continuidad de corriente eléctrica en el arranque y paro del compresor del equipo de aire acondicionado. Con un aislador acoplado

Donde Kp es la ganancia proporcional, Ki la ganancia integral, Kd la ganancia derivada, Ti la constante de tiempo integral y Td la constante de tiempo derivativo (Kuo, 1991). En la Figura 2, se muestra el lazo de control para el sistema de aire acondicionado aplicando un control PID, simulaciones propuestas en MATLAB & Simulink.

Figura 2. Diagrama a bloques del lazo de control PID.

Revista Científica

15


En la lógica difusa, la salida del sistema se evalúa en función de las entradas del sistema. Las entradas son codificadas utilizando la función triangular de membresía. Basándose en estos valores, la salida es decodificada utilizando reglas difusas. La salida del control se convierte a la salida del sistema por medio del método de defusificación (Kozlova y Kozlova, 2014). El proceso de control del aire acondicionado se muestra en la Figura 3. En esta figura, el punto de ajuste es la temperatura seleccionada o requerida por el usuario. La salida del controlador es utilizada por el convertidor de energía que proporciona la potencia que debe suministrarse al compresor del equipo de aire acondicionado para alcanzar la temperatura solicitada. El diseño propuesto para simulación fue desarrollado en MATLAB, por medio del toolbox fuzzy logic designer. El sistema MISO (de múltiple entrada y salida única), GP-error y GD-error las señales de entrada y voltaje la señal de salida del controlador acoplada al compresor del aire acondicionado.

El control difuso utiliza reglas en forma de frases para controlar un proceso (Jantzen, 2013). El número de reglas difusas depende de posibles combinaciones de funciones de membresía de entrada. Como hay tres funciones de membresía para GP-error y tres para GD-error, nueve reglas difusas son suficientes. Estas combinaciones de funciones de membresía de entrada determinan la regla apropiada de disparo. Estas reglas son:

1.

If (GP-error is GP-bajo) and (GD-error is GD-bajo) then (voltaje is V-Media)

2.

If (GP-error is GP-bajo) and (GD-error is GD-medio) then (voltaje is V-Alta)

3.

If (GP-error is GP-bajo) and (GD-error is GD-alto) then (voltaje is V-Alta)

4.

If (GP-error is GP-medio) and (GD-error is GD-bajo) then (voltaje is V-Baja) Figura 3. Diagrama a bloques del lazo de control difuso.

En la Figura 4, se muestra las funciones de membresía, el rango de GPerror y GD-error es de 1-5 y es dividido en tres rangos para la evaluación del grado de valor de membresía de tres funciones triangulares. Además, la señal de salida con un rango de 1-5 dividido en tres funciones triangulares de membresía, para facilitar el acoplamiento de señal de salida al compresor del aire acondicionado.

5.

If (GP-error is GP-medio) and (GD-error is GD-medio) then (voltaje is V-Media)

6.

If (GP-error is GP-medio) and (GD-error is GD-alto) then (voltaje is V-Alta)

7.

If (GP-error is GP-alto) and (GD-error is GD-bajo) then (voltaje is V-Baja)

8.

If (GP-error is GP-alto) and (GD-error is GD-medio) then (voltaje is V-Baja) Figura 4. Diagrama a bloques del lazo de control difuso.

9.

If (GP-error is GP-alto) and (GD-error is GD-alto) then (voltaje is V-Media)

En la Tabla 1, se muestra la relación de las reglas difusas.

16

Revista Científica

Tabla 1. Base de reglas difusas.


Los resultados de las simulaciones del lazo de control del sistema de aire acondicionado aplicando los algoritmos de control vistos se discuten más adelante. El método utilizado en el control difuso descrito en este documento es el tipo Mamdani, que incluye fusificación de datos de entrada basados en funciones de membresía, una base de datos de reglas de inferencia y defusificación de la señal de salida (Kovacic y Bogdan, 2005). La inferencia de tipo Mamdani espera que las funciones de pertenencia de salida sean variables difusas, en consecuencia, después de la agregación de las salidas de señal hay un conjunto difuso para cada variable de salida a defusificar. En la Figura 5, se muestra la estructura de un control difuso PD+I (Jantzen, 2013).

6008.

Figura 6. Diagrama a bloques del control difuso PD+I en LabVIEW.

Figura 7. Diagrama a bloques del control PID en LabVIEW. Figura 5. Estructura del control difuso PD+I.

Donde U está dada por la ecuación (4).

Los resultados de las pruebas físicas del lazo de control del sistema de aire acondicionado aplicando los algoritmos de control vistos se discuten más adelante.

Resultados

Los valores de las ganancias se obtienen de las siguientes ecuaciones (5), (6) y (7).

El controlador difuso PD+I proporciona todos los beneficios del control PID, pero también las desventajas con respecto a la reacción de la señal de error derivada. El error integral elimina cualquier error de estado estacionario, pero también puede provocar inestabilidad del integrador. El toolbox de LabVIEW fuzzy logic control es una excelente plataforma para soportar el diseño, implementación y prueba de los dos tipos de métodos de control vistos. En la Figura 6, se muestra el diagrama a bloques del control difuso PD+I programado en LabVIEW utilizando las referencias de diseño mismas en las que se realizaron en MATLAB. Además, en el diseño se incluye el almacenamiento del registro de temperatura del aire acondicionado en tablas de Excel, entrada y salida analógicas configuradas en la tarjeta con valores de trabajo de 1-5 V. Mismo para el caso del diseño del controlador PID en LabVIEW. En la Figura 7, se muestra el diagrama a bloques programado y ejecutado en la tarjeta USB-

Los resultados obtenidos de las simulaciones se realizaron aplicando una entrada aleatoria de valores simulando los rangos de funcionamiento de la temperatura de 16°C a 23°C del equipo de aire acondicionado. En la simulación con el control difuso PD+I en MATLAB & Simulink mostrada en la figura 8, aplicando las ganancias obtenidas de las ecuaciones (5), (6), (7), se obtuvieron los parámetros Kp=2, Td=0.05 y 1/Ti=0.12. Al especificar las características de la respuesta del sistema de control para una entrada escalón unitario, es común precisar lo siguiente: Tiempo de retardo, td; Tiempo de subida, tr; Tiempo pico, tp; y Tiempo de asentamiento, ts (Ogata, 2010). El tiempo de retardo td obtenido fue de 3.346 equivalente al 50% del valor final; un tiempo de asentamiento ts= 9.754 que es el tiempo necesario para alcanzar el 2% del valor final y un tiempo de subida tr= 12.02 para alcanzar la respuesta de 0 a 100% del valor final.

Figura 8. Gráfica de la respuesta del sistema aplicando el control difuso PD+I.

Revista Científica

17


En la Figura 9, se muestra el resultado obtenido de la simulación ejecutando el control PID clásico aplicado a la planta representado por el modelo matemático de la ecuación (3) del equipo de aire acondicionado, las ganancias empleadas en la simulación son: Kp=2, Ki=1.97, Kd=0.05. El resultado obtenido es un tiempo de asentamiento ts=1.642 necesario para alcanzar el 2% del valor final. Además de un tiempo tr=2.07 en alcanzar la respuesta de 0 a 100% del valor final.

miento ts=20.4 min.

Figura 11. Gráfica comportamiento de respuesta del control PID.

Figura 9. Gráfica de la respuesta del sistema aplicando el control PID.

Al comparar las respuestas de los dos controladores en simulación en la Figura 10, se muestra gráficamente el resultado de los dos métodos de control aplicados al mismo modelo de sistema de aire acondicionado.

En la Figura 12, se muestra la gráfica de respuesta del comportamiento del control difuso PD+I aplicado al equipo de aire acondicionado, las ganancias del controlador aplicadas son los mismos valores que en la simulación. El error generado al cambio del valor de referencia es de 2.2059%, el tiempo de retardo td=5.4 min, el tiempo de subida tr=12.2 min, el tiempo pico tp=16.3 min, y el tiempo de asentamiento ts=17.4 min. Los valores de referencia están adaptados en un rango de trabajo a la temperatura de 13°C a 23°C, alineados por el sensor de temperatura acoplando la señal de entrada al control de 1 a 5 como valores de referencia para el usuario. En la Tabla 2, se observa la comparación del análisis de la respuesta transitoria entre los dos controladores al aplicar un cambio de referencia de entrada igual a 4.

Figura 10. Gráfica comparativa de respuesta del control difuso PD+I y control PID.

Las pruebas físicas realizadas con el equipo de aire acondicionado fueron por medio de la tarjeta USB-6008 y visualizadas en el panel frontal de LabVIEW. La Figura 11, muestra gráficamente el resultado obtenido aplicando el control PID al equipo de aire acondicionado. Al analizar la respuesta del sistema, el error en estado estacionario generado al cambio del valor de referencia es de 2.34265%, el tiempo requerido para que la respuesta alcance por primera vez la mitad del valor final td=7.3 min, un tr= 17.86 min, que es el tiempo requerido para que la respuesta pase de 0 al 100%, un tp=18.283 min, el tiempo requerido para que la respuesta alcance el primer pico de sobreelongación y el tiempo de asenta-

18

Revista Científica

Figura 12. Gráfica comportamiento de respuesta del control difuso PD+I.

Tabla 2. Comparativa de los dos controladores.

El principal hallazgo de este estudio fue que el control difuso PD+I es mejor en comparación con el control PID clásico al implementarlo en


el sistema de aire acondicionado ya que se encontró que el tiempo de estabilización es más corto y el error generado al cambio del valor de referencia es menor. En la literatura revisada se encontró el uso del control PID en sistemas de aire acondicionado de igual manera que el control difuso (Dash, Mohanty y Mohanty, 2012; Al-Ghasem y Ussaleh, 2012; Ahsan ur Rehman Omer y Muhammad, 2017; Heong Ang, Chong y Li, 2005; Jantzen, 2013) utilizando métodos diferentes de control difuso y de sintonización en el control PID. Al comparar el trabajo realizado con respecto a la literatura, se encontró el método difuso PD+I no había sido implementado con anterioridad en sistemas de aire acondicionado convencionales. El resultado obtenido a través de este estudio permite identificar futuras áreas de desarrollo, tales como la introducción de nuevas variables al control, como por ejemplo humedad. Uno de los principales inconvenientes al usar un aire acondicionado es su gran consumo de energía eléctrica, siendo la conservación de ésta misma de vital importancia para la industria y el hogar. Los resultados obtenidos a través de la simulación y experimentación en este estudio demuestran que, al emplear el control difuso PD+I en sistemas de aire acondicionado convencionales, se observó un desempeño del compresor más eficiente en comparación con el control PID clásico implementado en las mismas condiciones, lo que se traduce en ahorro de energía eléctrica.

Agradecimientos Agradezco a mis asesores el maestro Armando García y Dr. Jaime Jalomo por su invaluable apoyo en la elaboración de este artículo. A mis padres, quienes a lo largo de mi vida han velado por mi bienestar y educación. A mi novia, quien ha depositado su entera confianza y compañía sin dudar ni un solo momento en mi capacidad e inteligencia.

Bibliografía + Ahsan ur Rehman Omer, S. y Muhammad, E. (2017). Design of Intelligent Air Conditioner Controller. Innovations in Electrical Engineering and Computational Technologies (ICIEECT). Karachi, Pakistan. + Al-Ghasem, A. y Ussaleh, N. (2012). Air Conditioner Control Using Neural Network and PID Controller. Mechatronics and its Applications (ISMA). Sharjah, United Arab Emirates. + Al-Ghasem, A. y Ussaleh, N. (2012). Air Conditioner Control Using Neural Network and PID Controller. Mechatronics and its Applications (ISMA), 2012 8th International Symposium on. Sharjah, United Arab Emirates: IEEE. + Booten, C.; Christensen, C. y Winkler, J. (2014). Energy Impacts of Oversized Residential Air Conditioners—Simulation Study of Retrofit Sequence Impacts. National Renewable Energy Laboratory, 2-10. + Cao, S.; Liu, F. y Weng, W. (2010). An Innovation PID Control Method of Split Air-conditioner Based on Online Prediction. Electrical and Control Engineering (ICECE), 2010 International Conference. Wuhan, China. + Chengyi Guo, Q. S. (2007). A Neural Network Assisted Cascade Control System for Air Handling Unit. IEEE Transactions on Industrial Electronics, LIV(1), 620 - 628. + Dash, S. K., Mohanty, G., & Mohanty, A. (2012). Intelligent Air Conditioning System using Fuzzy Logic. International Journal of Scientific & Engineering Research, III(12). + Heong Ang, K., Chong, G., & Li, Y. (2005). PID control system analysis, design, and technology. IEEE Transactions on Control Systems Technology,

559 - 576. + Jantzen, J. (2013). Foundations of Fuzzy Control: A Practical Approach. John Wiley & Sons Inc. + Kovacic, Z. y Bogdan, S. (2005). Fuzzy Controller Design: Theory and Applications. Control Engineering Series, 9–40. + Kozlova, L. P. y Kozlova, O. A. (2014). Using of fuzzy set theory when designing technical systems. training manual, SP. + Kuo, B. C. (1991). Automatic Control Systems. Prentice Hall. + Meshram, P. M.; Rohit, G. y Kanojiya. (2012). Tuning of PID controller using Ziegler-Nichols method for speed control of DC motor. Advances in Engineering, Science and Management (ICAESM)( 12818603). + Ogata, K. (2010). Ingeniería de control moderna (Quinta edición ed.). (M. Martín-Romo, Ed., S. Dormido Canto, & R. Dormido Canto, Trads.) Madrid, España: Prentice-Hall. + Shein, W. W.; Tan, Y. y Lim, A. O. (2012). PID Controller for Temperature Control with Multiple Actuators in Cyber-Physical Home System. Network-Based Information Systems (NBiS), 2012 15th International Conference. Melbourne, VIC, Australia. + Vadirajacharya G. Kinhal, P. A. (2011). Performance Investigation of Neural-Network-Based Unified Power-Quality Conditioner. IEEE Transactions on Power Delivery, 26(1), 431 - 437. + Zheng y Tao. (2011). Second-order system’s velocity feedback gain control based on PID variable damping ratio controller. Communication Software and Networks, 3rd International Conference. Xi’an, China.

Revista Científica

19


Edgar Olvera Espinosa1, Fernando Pedroni Lara2, José Alberto González Avendaño3 y Zaira Montellano Gaytan4

Universidad Tecnológica del Valle de Toluca Carretera al Departamento del D.F. Km 7.5, Santa María Atarasquillo, Lerma, México, México, C.P. 52044 1,2,3,4

Resumen: La administración de recursos humanos es una función fundamental ante los entornos económicos altamente competitivos, donde la rápida adaptación organizacional para desarrollar una alta capacidad de respuesta puede ser una ventaja competitiva. En este sentido, se presenta una propuesta de medición del aprendizaje organizacional a partir de la evaluación del desempeño, que mediante una serie cálculos, es posible mitigar la subjetividad, que se ponderan en una escala con la finalidad de identificar en la ventana de Johari las áreas “libre”, “oculta”, “ciega”, y la “desconocida”. De tal manera que, se puede conocer la escala del desarrollo personal, en función del bienestar. En esta investigación se presenta el modelo para calcular las escalas y valoraciones, así como el proceso a seguir en la valoración de escalas.

edgar.olvera@utvtol.edu.mx

+ Palabras clave: Evaluación del desempeño, bienestar organizacional, johari, mejora organizacional, capital humano.

Recibido: Agosto 28, 2017. Recibido en forma revisada: Noviembre 1, 2017. Aceptado: Mayo 9, 2018.

20

Revista Científica

Abstract: Human resource management is a key function in highly competitive economic environments, where quick organizational adaptation to develop a high responsiveness can be a competitive advantage. In this sense, is proposed a to measure organizational learning based on the performance evaluation, which through a series of calculations, it is possible to mitigate the subjectivity, which are weighted in a scale in order


to identify in the window of Johari the Areas “free”, “hidden”, “blind”, and “unknown”. In such a way that the scale of personal development can be known, in terms of well-being. In this investigation we will be able to calculate the scales and valuations, as well as the process to follow in the valuation of scales.

+

Keywords: Performance evaluation, organizational welfare, johari, organizational improvement, human capital.

Introducción En esta investigación se retoma el planteamiento de la investigación presedente Evaluación del desempeño como herramienta de competitividad organizacional, en el cual se desarrolla una metodología a partir de los principios de la Evaluación 360º para medir el grado de desarrollo de competencias relacionales en una organización. La dirección estratégica de capital humano requiere una dirección planificada para lo cual es muy importante la mejora continua de los sistemas de evaluación, como parte del proceso administrativo y que ésta sea de utilidad en el desarrollo del capital humano en la organización. En este sentido, se presenta una propuesta que valora a partir de las variables del bienestar, el desempeño en cuatro ejes básicos: Habilidades, percepciones, objetivos y expectativas. Si bien los factores actitudinales generalmente son evaluados por las áreas de recursos humanos, usualmente se quedan a nivel de diagnóstico de necesidades de capacitación. El instrumento que se presenta en esta investigación busca ser una herramienta que mejore la toma de decisiones, la interacción personal y bienestar en las organizaciones.

Metodología El instrumento se desarrolló a partir de la metodología de la evaluación 360°, se identificaron las principales variables del bienestar a partir de entrevistas a líderes de áreas de capital humano de una muestra aleatoria de 40 empresas del Valle de Toluca de diferentes giros y tamaños; posteriormente se diseñó un primer instrumento como prueba piloto para ver su efectividad. Al analizar los resultados, se pusieron a consideración de un grupo de enfoque en el que se observó que se requería mayor precisión en los planteamientos, por lo que mediante una lluvia de ideas se plantearon frases que verificarán el desarrollo de la actitud a medir. Con la finalidad de estandarizar la evaluación y cada variable se pudiera medir bajo la misma escala, se transformaron en afirmaciones agrupadas en bloques de cuatro enunciados para medir cada variable. De ello resultaron veintidós variables a medir. Se aplicó el instrumento en las mismas 40 empresas y se traficaron los resultados, donde se puede apreciar patrones de comportamiento que explican la realidad organizacional. Posteriormente, se agruparon las veintidós variables de acuerdo con las variables del bienestar organizacional del funcionamiento psicológico óptimo de Ryff, y se aplicó en 40 organizaciones que no habían participado en el primer ejercicio. Al analizar los resultados, se observó que describen con mayor precisión la situación actual del desempeño de las personas, se presentó a los líderes de capital humano y reportaron que a partir de los resultados, fue posible tomar decisiones para mejorar la competitividad de los individuos y la organización. Posteriormente se plantea una serie de relaciones

para calcular un valor para el desempeño en las variables del bienestar.

Desarrollo La evaluación es un concepto de mejoramiento continuo de la calidad generalmente asociado a la calidad total. El aporte fundamental de este concepto radica en la idea de ciclo concebida por Shewart (1891-1967) que se identifica por el acrónimo PDCA (Plan, Do, Check, Act) en idioma inglés y en español como PHVA (Planear, Hacer, Verificar, Actuar). El concepto fue desarrollado ampliamente por Deming (1900-1993) también conocido como el padre de la calidad total, como parte de su conceptualización acerca del mejoramiento continuo de la calidad, al punto de que en la actualidad, es más conocido como ciclo de Deming (García, 2009). Este ciclo, permite la generación de conocimiento en sí, ya que establece la constante retroalimentación en la organización, donde a través de auditoría, análisis, investigaciones y diferentes tipos de control, es posible realizar acciones correctivas y así mejorar procesos, productos, servicios. Para efectos de esta investigación, se plantea que la mejora continua también es importante en el ámbito de relaciones personales. Si tomamos en cuenta que la sociedad es en su esencia una red de relaciones por su morfología y complejidad que ha evolucionado a través de la historia y la movilidad del conocimiento de los profesionales, es posible establecer escalas globales que permitan trascender las fronteras tradicionales que estaban vigentes en el siglo pasado (Leite, 2015). En este sentido, se requiere una postura cada vez más emprendedora para transitar a esa nueva forma de percibir el mundo pues los estudiantes que llegan a las universidades necesitan desarrollar habilidades para trabajar en redes de contacto que funcionan las veinticuatro horas (Leite, 2015). Para identificar la importancia del proceso de evaluación del capital humano, es necesario conocer cómo forma parte del proceso de dirección estratégica de los recursos humanos. El cual procede de la capacitación y entrenamiento. En lo que a al modelo respecta, se identifican variables críticas que miden la competencia organizacional del capital humano, que inciden en la contribución, remuneración y beneficios del bienestar organizacional. Las variables que proponen son: Control ambiental, crecimiento personal, propósito en la vida, autonomía, auto aceptación y relaciones positivas con otros.

Revista Científica

21


La evaluación 360° evalúa los círculos que, simbólicamente representan todas las vinculaciones de una persona en su entorno laboral, y la información que de ello deriva es útil para la retroalimentación, calidad y mejora continua de cada uno de los aspectos evaluados; lo cual permite que la persona visualice de modo objetivo el desempeño que tiene en la organización, porque sus compañeros, directivos proporcionan una visión particular, logrando triangular la información para obtener una evaluación integral. Se considera el eje de autoevaluación, para apreciar el contraste con la apreciación personal y tener un referente para él área conocida y privada de la Ventana de Johari.

Tabla 1. Variables del bienestar (Hervás, 2009)

Es así, como se plantea la síntesis de los resultados de la evaluación como una herramienta de síntesis del conocimiento para la toma de decisiones en la remuneración y beneficios. Por lo tanto, la evaluación ha de ser considerada por la alta dirección y para la gestión de la mejora, ya que es quien define acciones en función de los resultados que se requieren (García, 2009). La integración de esta matriz que sintetiza la información al modelo de evaluación es muy importante, de acuerdo con la guía Europea de Gestión del Conocimiento es: El conjunto de saberes, valores, información, percepciones e ideas que crean determinada estructura mental en el sujeto para evaluar e incorporar nuevas ideas, saber y experiencias (FUNDIBEC, 2014). Para ello, se define gestión del conocimiento como la dirección planificada y continua de procesos y actividades para potenciar el conocimiento e incrementar la competitividad a través del mejor uso y creación de recursos del conocimiento individual y colectivo. El planteamiento de la matriz de desempeño a partir del diagrama de HOPE (Md-HOPE) para la toma de decisiones en capital humano, parte del modelo de la ventana de Johari, donde existen cuatro cuadrantes de los cuales uno se reconoce como “abierto”, el área en que la información personal es conocida por el individuo y por los que lo rodean, un segundo cuadrante en el que quiénes lo rodean no conocen información que sólo el individuo conoce, conocido como “secreto”, pero hay otro cuadrante donde quiénes lo rodean conocen información que el individuo no conoce, a este cuadrante se le llama “ciego”; el cuarto cuadrante, es el “desconocido”, el cual se refiere a la información que ninguno conoce, y periódicamente aflora algo de información (Verderber, 2005).

Figura 2. Modelo de desempeño a partir del diagrama de HOPE (Md-HOPE) Elaboración propia.

3.1 Matriz de desempeño - Diagrama HOPE El Diagrama HOPE permite organizar en cuatro cuadrantes la información que se obtiene del proceso de evaluación, así como fijar objetivos personales y expectativas organizacionales (Catedras UBA, 2017).

• Habilidades: Información de la autoevaluación. •

Percepciones: Evaluación de pares y superiores (Entrevista de retroalimentación).

• Objetivos: Cuáles son las metas personales. •

Expectativas: Qué requiere de la persona la organización (entrevista de retroalimentación).

Foco en las prioridades críticas Una vez identificadas las brechas significativas entre habilidades, objetivos, percepciones y expectativas, es preciso analizarlas para identificar las más importantes prioridades de desarrollo.

Figura1. Ventana de Johari. (Verderber, 2005)

22

Revista Científica

¿Qué le preocupa más a las personas?: Las personas no pueden trabajar en modificar todas sus debilidades al mismo tiempo, entonces es importante identificar cuáles son las necesidades más apremiantes, considerando los objetivos de corto y largo plazo. ¿Quieren ellos ser más eficientes y efectivos en sus actuales trabajos?, ¿Están deseosos de prepararse para un trabajo diferente?, ¿Ansían una


mayor satisfacción personal?, ¿Quieren usar sus habilidades al máximo de su potencial?, ¿Están ellos entusiasmados por desarrollar sus habilidades? (Catedras UBA, 2017)

que espera su equipo del empleado esta en desarrollo.

Relación con los intereses organizacionales Se debe atender que las prioridades personales sean compatibles con los intereses de la organización, a partir de ello desarrollar a las personas en esas áreas. Es necesario comparar los objetivos personales con las expectativas organizacionales, persiguiendo una relación GANAR-GANAR. Por ejemplo: Prioridad personal: Ser admirado por las competencias adquiridas. Interés Organizacional: aportar beneficios que ayuden al crecimiento del equipo. Objetivo de desarrollo alineado: Mejorar las competencias y adquirir nuevas para contribuir al desarrollo óptimo del equipo (Catedras UBA, 2017). El diagrama HOPE permite organizar la información que se obtuvo del proceso de evaluación 360º. El diagrama HOPE se divide en cuatro cuadrantes (Tabla 2).

Tabla 3. Cálculo de variables MD - HOPE (Elaboración propia).

Al realizar las operaciones correspondientes, es posible obtener una matriz de desempeño a partir de habilidades, objetivos, percepciones y expectativas, donde se aprecia las áreas a fortalecer, por citar una ejemplo los resultados se presentan de la siguiente manera:

Tabla 4 Ejemplo de medición variables HOPE (Elaboración propia). Tabla 2. Diagrama HOPE (Catedras UBA, 2017).

El cuadrante de Habilidades (1): Para calcular sus habilidades se dividen los resultados de su autoevaluación individual entre los resultados de la autoevaluación de todo el equipo. Una vez conseguido el resultado, se promedian todos los resultados. El resultado indicará si el empleado cuenta con habilidades similares a las de su equipo de trabajo. Si el resultado es mayor a 1, sus habilidades son óptimas. Si el resultado es menor a 1, sus habilidades están en desarrollo. El cuadrante objetivos (2), se determina por el promedio general de la evaluación (PG): De la autoevaluación, evaluación de colaboradores y superior. Y el nivel esperado es el nivel (NE) de competencia que debe alcanzar un empleado para ocupar el puesto y lo define el superior de una escala del 1 al 5. Para calcular si sus competencias son acorde con el nivel esperado por el puesto se divide el resultado del promedio general (PG) entre el promedio del nivel esperado (NE). El cuadrante (3) percepciones, se calcula a partir de las evaluaciones de sus colaboradores individual y de su superior. El primer cálculo se obtiene de la división de los resultados de la evaluación de los colaboradores individual (A) entre los resultados de la evaluación colaboradores equipo (B); el segundo cálculo se obtiene de la división de los resultados de la evaluación del superior individual (D) entre los resultados de la evaluación del superior equipo (E); posteriormente se promedian (PS) los resultados de dicha división. El cuadrante expectativas (4), se calcula a partir de la división de la correlación individual (CI) entre la correlación del equipo (CE), con lo cual se obtiene la razón correlacional. Si el resultado es mayor a 1, lo que espera su equipo del empleado es óptimo. Si el resultado es menor a 1, lo

La interpretación, es la siguiente: La persona a quién se aplicó la evaluación del desempeño, en función de las variables del bienestar organizacional se percibe con habilidades por encima del promedio de su equipo de trabajo (H 1.23), lo cual se asevera, con la percepción que los demás tienen de él (P 1.14); tanto su superior como sus compañeros de trabajo, lo perciben con expectativas de crecimiento (E 0.93), sin embargo de acuerdo a lo requerido por la organización en el puesto aún puede desarrollarse. De acuerdo con los resultados, es posible apreciar que el autodominio y las relaciones positivas con otros son competencias que se recomienda desarrollar, ya que su desempeño se centra en el autodominio y la auto aceptación, de lo cual se infiere que la persona está demasiado centrada en el trabajo individual, por lo que abrir sus expectativas hacia el equipo y una mayor tolerancia al estrés puede lograr un mejor desempeño. Estos mismos cálculos se pueden promediar por áreas funcionales, lo que deriva en indicadores de desempeño del bienestar organizacional.

Conclusiones A través de las escalas de medición que se incorporan en la matriz MD-HOPE es posible identificar las variables del bienestar organizacional a fortalecer tanto en el capital humano como en la organización y así emprender acciones de mejora que repercuten en los sistemas de evaluación y beneficios. Si bien hay diferentes aspectos que se pueden evaluar del desempeño, es relevante intervenir en los aspectos relacionados con el comportamiento, que conforman la base para el desempeño relacionado con la competitividad que requieren las organizaciones, y desde luego

Revista Científica

23


la alta dirección. La toma de decisiones a partir de MD-HOPE en capital humano, permite reducir la subjetividad de las evaluaciones de desempeño tradicionales, mediante cálculos que amplían la perspectiva, individual, del equipo e incluso del supervisor. Para mejorar el bienestar organizacional, es necesario hacer una apropiada interpretación de la información y presentarla a la alta dirección, en consecuencia, elaborar un programa de acción, orientado a la mejora de las relaciones personales, por encima del programa de capacitación. Al contar con esta información de manera periódica, será posible generar el conocimiento organizacional y personal que promueva la mejora continua e incrementar el nivel de bienestar que se requiere para mejorar la productividad, competitividad e innovación y adaptarse al Mercado y cambiante entorno. Mediante la propuesta de MD-HOPE se pretende aportar a la generación de conocimiento e innovación en materia del capital humano. La creatividad e innovación son esenciales en el espíritu emprendedor que siempre constituyen una empresa, que de no cambiar no sería creatividad e innovación, no se lograría crear cosa alguna, frente a una perspectiva global (Leite, 2015), con ello se da paso a nuevas investigaciones sobre la medición para la toma de decisiones y establecer nuevos estándares.

24

Revista Científica


Bibliografía + Alles, M. (2005). Desempeño por competencias. Evaluacion 360º. Buenos Aires: Granica. + Alles, M. (2006). Dirección Estratégica de Recursos Humanos. Buenos Aires: Granica. + Catedras UBA. (2017). From Elaboración de un plan de desarrollo: http://www.catedras.fsoc.uba.ar/ mosqueira/BBL%20Autodesarrollo. htm + FUNDIBEC. (30 de 06 de 2014). fundibec.org. Obtenido de http://www.fundibeq.org/opencms/ export/sites/default/PWF/downloads/ gallery/methodology/tools/gestion_ del_conocimiento.pdf

+ Hervás, G. (2009). Psicología positiva:una introducción. Revista interuniversitariade formación del profesorado, 34-35. + Leite, E. (2015). Empreendedorismo, Inovação e Incubaçãode Empresas e Startups (Primera Edición ed.). Pernambuco, Brazil: Bagaço. + Olvera, E. (2016). Análisis de la evaluación del desempeño. Lerma, México: UTVT. + Ryff, C. (1989). Happiness is everything, or is it? Expliorations on the meaning of psycologycal well-being. Journal of personality and social psycology, 57, 1069-1081. + Verderber, R. Y. (2005). ¡Comunícate! México: Thompson.

+ García, M. I. (2009). Calidad y gestión de servicios de salud. Villa Hermosa, Tabasco: Secretaría de Salud, Gbierno de Tabasco.

Revista Científica

25


Jiménez Pelcastre César1, Valentín Islas Raúl2, Guevara Herrera Ricardo3, Perea Martínez Alejandro4, Velasco Castillo Cirenio5

Universidad Tecnológica de la Sierra Hidalguense Carretera México-Tampico, Km. 100 Colonia. Tramo Pachuca-Huejutla. Zacualtipán de Ángeles, Hidalgo, México, C.P. 43200.

Resumen: La información presentada está dirigida a contribuir en la conservación de Cyphomandra betacea Cav., una de las plantas organismos propios del Bosque Mesófilo de Montaña; implica conocer su distribución y estado de sanitario de la especie; para lograrlo se realizó un estudio en toda la comunidad de Mazahuacán, perteneciente al municipio de Lolotla en Hidalgo, escogido porque la gente ya inicia su comercialización, encontrando una gran aceptación en el mercado como terapéutico natural, gracias a sus propiedades nutrimentales, por lo que incrementar su distribución y cultivo dentro del mismo espacio donde vive sin alterar su hábitat, es una forma de conservar sustentablemente el Bosque Mesófilo de Montaña.

cjpelcastre77@hotmail.com

Siendo una planta de origen andino, le gusta la humedad, espacios con luz pero que tengan bajas temperaturas al menos durante la noche, la luz directa seca la hoja haciéndola vulnerable a múltiples oportunistas, desde insectos que comen hojas, hasta hongos por la gran humedad; la sombra de árboles y las temperaturas templadas son las mejores condiciones para hacer crecer saludablemente la planta, ya que la luz directa deshidrata la planta por el aumento de la evapotranspiración debido al tamaño de las hojas, la distribución reflejada en la presente resumen, es un intento por acrecentar su cultivo en la comunidad de Mazahuacán, iniciando por conocer donde se encuentra actualmente y las condiciones que le favorecen en su crecimiento.

1,2,3,4,5

cesar.jimenez@utsh.edu.mx

Recibido: Agosto 28, 2017. Recibido en forma revisada: Octubre 25, 2017. Aceptado: Mayo 9, 2018.

26

Revista Científica


Palabras clave: Cyphomandra betacea, bosque mesófilo de montaña, Mazahuacán, distribución, Lolotla.

recursos abióticos y bióticos y que la influencia por parámetros como temperatura, humedad, altura entre otros, pueden ser datos, considerados en este trabajo, que servirán para establecer las mejores condiciones productivas del fruto a futuro.

Abstract: The information presented is intended to contribute to the conservation of Cyphomandra betacea Cav., One of many organisms that belong to the Mesophilous Mountain Forest; This work implies the knowledge its distribution and state of health of the species; To achieve this, a tour of the entire community of Mazahuacán, belonging to the municipality of Lolotla in Hidalgo, it was chosen because people are already beginning their commercialization, finding a great acceptance in the market as a natural therapeutic, thanks to its nutritional properties, so to increase its distribution and cultivation within the same space where it lives without altering its habitat, is a way to sustainably conserve the Mesophilous Mountain Forest.

Finalmente se ha llegado a la conclusión que, conocer la distribución de Cyphomandra betacea Cav. y las condiciones donde crece, es solo el principio de los diversos trabajos que deben realizarse sobre la planta, estos podrían hacer la diferencia en su valor comercial, ya que puede ser alimento de consumo local o un fruto terapéutico natural, considerado así por europeos que son el mercado principal, interesados en consumir alimentos cuyas propiedades naturales sin químicos son la alternativa de tener una calidad de vida sana, saludable y sobre todo llena de sabores del campo.

+

Being a plant of Andean origin, it likes the humidity and spaces with light, but having low temperatures at least during the night, it if was direct light it dries the leaf making it vulnerable to multiple opportunists, from insects that eat leaves, even fungi due to the great humidity that presents; The shade of trees and the warm temperatures are the best conditions to grow the plant healthy, since the direct light dehydrates the plant because of the increase of the evapotranspiration due to the size of the leaves, the distribution reflected in the present summary, is a Attempt to increase its cultivation in the community of Mazahuacán, starting with knowing where it is currently and the conditions that favor it in its growth.

+

Keywords: Cyphomandra betacea, mesophilous mountain forest, Mazahuacán, distribution, Lolotla.

Introducción Esta memoria es un afán de contribuir en la descripción de la distribución de Cyphomandra betacea Cav., cuya presencia en el Bosque Mesófilo de Montaña (BMM), ha sido reportada previamente en estudios de flora de Lolotla. El bosque ha disminuido notoriamente en los últimos años, SEMARNAT a través de CONABIO, reporta que del territorio del país, menos del 1% son de BMM extendidos en 18,534 Km2; realizar un manejo sustentable es una alternativa de su conservación y aprovechamiento. Para lograr este aprovechamiento es necesario conocer que hay y donde se encuentra, en este caso Cyphomandra betacea Cav., organismos con potencial económico y que al mismo tiempo no es invasivo al hábitat Mesófilo ya equilibrado, pueden ser alternativa de producción sustentable, el estudio revela que existe Cyphomandra betacea Cav. en diferentes espacios, incluyendo potreros de la comunidad de Mazahuacán, del municipio de Lolotla, estado de Hidalgo, por lo que el mapa que se generó, será de gran utilidad para promover el cultivo de la planta creando una producción, que a corto plazo, pueda introducirse como un alimento más en la dieta de la gente de la sierra por su excelente nivel nutricional y a largo plazo se tenga una producción que active la economía en la serranía Hidalguense. Por tanto se realizó una estimación de abundancia y distribución de la población de Cyphomandra betacea Cav. en la comunidad de Mazahuacán; considerando que la población de esta planta está influida por los

Objetivo General Monitorear la distribución poblacional de Cyphomandra betacea Cav. en la comunidad de Mazahuacán del municipio de Lolotla, Estado de Hidalgo.

Objetivo particular a) Caracterizar Cyphomandra betacea Cav., para su identificación y monitoreo en campo. _____________________________________________________ b) Realizar un mapa de distribución poblacional de Cyphomandra betacea Cav., en la comunidad de Mazahuacán del municipio de Lolotla, Estado de Hidalgo, utilizando Sistemas de Información Geográfica. _____________________________________________________ c) Registrar parámetros físicos relacionados con el ciclo de vida de Cyphomandra betacea Cav., que coadyuven en el desarrollo de la planta.

Marco teórico La Organización para la Agricultura y la Alimentación (FAO) por sus siglas en inglés; de las Naciones Unidas, en colaboración con el Jardín Botánico de Córdoba (España), como aportación al desarrollo del programa “Etnobotánica 92”, realiza un compendio de especies vegetales que, en otros momentos o bajo otras condiciones, jugaron un papel fundamental en la agricultura y en la alimentación de los pueblos indígenas y comunidades locales. La marginación a la que han llegado estas especies ha sido, en muchos casos, la consecuencia de la supresión premeditada de formas de vida autosuficientes que caracterizaban a las culturas tradicionales. (León y Hernández Bermejo, 1992). El ser humano se ha alimentado de diferentes animales y plantas a lo largo de su historia, muchas de ellas han dejado de consumirse producto de una domesticación selectiva, derivado de una agricultura emanada de culturas dominantes, considerando aspectos sociales, políticos y económicos, dejando atrás aspectos ecológicos, incrementando la vulnerabilidad de los hábitats por invadir con especies de crecimiento cosmopolita que

Revista Científica

27


desplazan especies nativas. Retornar a alimentarse de las múltiples especies vegetales que se consumían en comunidades desde hace muchos años, cuyo crecimiento no es invasivo, permite aumentar la variabilidad nutrimental requerida y al mismo tiempo contribuyen a la diversificación en fuentes de alimento, conservando los hábitats donde han crecido los organismos y han estableciendo un equilibrio con su entorno. La granada silvestre, es una fruta exótica originaria de la vertiente oriental de los Andes, específicamente de Perú, Ecuador y Colombia, perteneciente a la familia Solanaceae y se conoce con este nombre en Colombia, Perú, Ecuador y México; tomate de monte, tomate silvestre, pepino de monte y gallinazo panga en Bolivia; tomate chimango, tomateiro da serra en Brasil; “tree tomato” en países de habla inglesa. A nivel comercial se le ha conocido con diversos nombres en distintas regiones, hasta que alrededor de 1970 en Nueva Zelanda se le asignó el nombre “tamarillo”, posicionándose como la designación comercial generalizada para el tomate de árbol en el mercado mundial.

Caracterización de Cyphomandra betacea (Cav.) Es un arbusto arbóreo de 2.0 a 4.0 m de altura, aunque puede llegar a más altura, corteza grisácea, con tallo erecto y pocas ramas; tallos semi-leñoso o blando leñosos que lo hace frágil, con médula gruesa, densa y diminutamente puberulentos, pelillos finos de 0.1 mm de largo; presenta follaje aromático, ligeramente fétido, hojas generalmente en pares (Figura 1) cardiformes ovadas entre 15-30 cm de largo y 8-20 cm de ancho, peciolo robusto de 4-8 cm de largo, densamente piloso, crecimiento alterno una de 1/3-1/2 el tamaño de la otra, pero de forma parecida, densamente puberulentas en el haz (por lo menos cuando jóvenes), el ápice acuminado, la base profundamente cardada, los lóbulos generalmente sobrepuestos, la nerviación es marcada y sobresaliente, de color menos intenso.

Los suelos donde se desarrolla en buenas condiciones el tomate de árbol deben ser sueltos, en lo posible franco-arenosos o franco-arcillosos, ya que en estas se presenta un mejor crecimiento y desarrollo del sistema radical; con muy buen drenaje para evitar encharcamientos. Los valores de pH deben estar entre 5.5 – 6.5 para un adecuado desarrollo del cultivo y para una mejor absorción de nutrientes, condición que es encontrada donde se acumula la hoja de árboles caducifolios. La capacidad de intercambio catiónico (CIC) debe estar entre 25 y 30 meq/100 gramos de suelo. El contenido de materia orgánica, debe ser en clima frío mayor de 10% y en clima templado mayor del 5%. (León F., Viteri D. y Cevallos A., 2004).

Metodología El cuerpo académico de Recursos Naturales en la Sierra Alta Hidalguense, de la Universidad Tecnológica de la Sierra Hidalguense, se ocupa en diferentes proyectos por lo que presentar la propuesta de trabajo es la primer opción, donde se seleccionó el monitoreo de la población de Cyphomandra betacea (Cav.). Una especie de origen andino pero que ha existido desde hace tiempo en el Bosque Mesófilo de Montaña; así lo demuestran los trabajos sobre florística de este ambiente realizados por Luna Vega y Alcantara (Análisis florístico de dos áreas con bósque mesófilo de montaña, en el estado de Hidalgo, México, 2001) y Luna Vega, Ponce Vargas y Ruíz Jiménez (Florística del Bosque Mesófilo de Montaña de Monte Grande, Lolotla, Hidalgo, México, 2006). El primer paso para conocer su distribución es caracterizar Cyphomandra betacea (Cav.) en su ciclo de vida para su identificación y monitoreo en campo. Para el monitoreo se utilizará el de cobertura, es la variable más utilizada para cuantificar la abundancia de especies vegetales, relaciona la proporción de la superficie muestreada recubierta por la proyección vertical de la vegetación, ya que la especie estudiada no presenta una distribución homogénea y los terrenos muestreados han sido modificados para uso como potreros, por lo que un análisis probabilístico sesgaría el conteo de la población, razón por la cual se realizó un conteo de los especímenes y si bien no permite realizar alguna inferencia sobre la población circundante, el conocimiento de ubicación de cada planta para su la realización de otros estudios es factible.

28

Revista Científica

Figura 1. Follaje de Cyphomandra betacea (Cav.).

Inflorescencias caulinares, generalmente 1 cm por arriba y al lado de


un par de hojas o en las dicotomías, son flores pequeñas (Figura 2) de color blanco-rosaceo, dispuestas en pequeños racimos terminales, ligeramente fragantes con cinco pétalos e igual número de estambres amarillos, las anteras formando un cono, con dehiscencia por poros apicales, las inflorescencias pueden estar formadas por más de cinco flores cada una en forma caulinar, florece entre mayo y junio.

Mapa de ubicación de Cyphomandra betacea (Cav.) Teniendo los elementos para poder identificar en campo la especie, una vez obtenida la autorización de los dueños para acceder a los terrenos, se procede a realizar un levantamiento, el muestreo se realizó en la comunidad de Mazahuacán (Figura 4) perteneciente al municipio de Lolotla, Estado de Hidalgo, utilizando un GPS Garmin con un margen de error de 4.0 m; se georreferencía las plantas cuyos frutos son presentes, porque es de ellos donde los parámetros físicos son registrados para delimitar las condiciones óptimas de producción; ayudándonos de Sistemas de Información Geográfica con el software ArcMap 10.3, se localiza una imagen del sitio donde fue encontrado Cyphomandra betacea Cav. (Figura 5).

Figura 2. Flor de Cyphomandra betacea (Cavanilla).

Frutos péndulos (Figura 3), de 1 a 9 por infructescencia, ovoides, de 6 cm de largo, 3.5 cm de diámetro, agudos en ambos extremos, con marcas longitudinales, cerácea, glabra, presenta tres colores (variedades) naranja, naranja-morado, morado.

Figura 4. Mazahuacán, Municipio de Lolotla, Estado de Hidalgo.

Figura 5. Distribución de Cyphomandra betacea en la comunidad de Mazahuacán.

Figura 3. Fruto inmaduro

Para monitorear el desarrollo de los frutos encontrados y el desarrollo de la planta, se realizaron etiquetas de identificación, con la finalidad de establecer un seguimiento continuo, sobre todo de aquellos ejemplares encontrados en potreros donde el deterioro es más probable por la presencia de ganado vacuno.

Revista Científica

29


Organismos potenciales de relación biológica Una vez etiquetadas e identificada la ubicación de las plantas, se procedió a buscar las condiciones de la planta, color de hojas, plantas circundantes, artrópodos o cualquier otro organismo potencial con los que pueda generar algún tipo de simbiosis benéfica o perjudicial. Las plantas con mejores características se encontraron bajo la sombra de árboles, sin embargo no hay una especie en específico de preferencia para esa sombra, en cuanto a herbáceas, algunas compiten por espacio con la especie estudiada, no identificando alguna en particular; en cuanto a los animales, buscando artrópodos asociados, no se detectó alguno que lo perjudique al grado de plaga, pero la presencia de chapulines, caracoles comiendo la hoja y enredaderas, indica que requiere cuidados la planta en caso de ser cultivada; varios especímenes se encontraron dentro de los potreros, y aunque las vacas no comen los retoños ni la planta madura, si representan una amenaza por ocuparlos como rascadores y al ser frágil su tallo por no contar con cuerpo leñoso, deterioran o tiran la planta. Su crecimiento está asociado a los límites de los potreros, donde los animales no pisan y la sombra está presente, no encontrándose en los espacios abiertos donde el pasto que consume los animales impide el crecimiento de alguna otra planta. En cuanto a los especímenes encontrados bajo la sombra y que se encontraron en buenas condiciones, las plantas ya contaban con inflorescencias y algunos con frutos en diferentes estados de maduración, lo que indica que la cosecha puede ser realizada en diferentes momentos, dando oportunidad que a su venta el producto esté fresco ya que se desconoce el tiempo de anaquel.

en los límites donde inicia el bosque y terminan los potreros, notando que en los lugares donde la vegetación es muy densa su existencia es casi nula; en los sitios donde la sombra es escasa por la falta de árboles tampoco está presente el espécimen estudiado; durante la segunda y tercer semana del mes de junio se presentó una ondeada de calor afectando el follaje de las plantas encontradas, posiblemente por el incremento de la evapotranspiración debido al tamaño de la hoja; las plantas que se encontraron postradas, se notó que realizan una ramificación y la generación de un nuevo eje de crecimiento (Figura 7a y Figura 7b ), ratificando la postura de que su reproducción mediante esquejes es factible, solo una planta tiene evidencia de aprovechamiento, se encuentra en medio de un cultivo de maíz y vecinos reportan que la dueña vende el fruto en el mercado local.

Figura 7a. Cyphomandra betacea postrada con nuevos ejes de crecimiento.

Parámetros físicos Para registrar parámetros físicos relacionados con el ciclo de vida de Cyphomandra betacea (Cav.), se consideró primero las características de la región, datos obtenidos de páginas oficiales gubernamentales, concretamente las de INEGI y CONABIO, sirviendo como punto de partida para establecer los requerimientos de la planta. Condiciones como la alta precipitación en Mazahuacán, la presencia continua de neblina, así como las laderas que permiten un drenaje adecuado evitando el encharcamiento que pudra la planta, son condiciones mencionadas por (Revelo, Pérez y Maila, 2003) que ayudaron en la búsqueda de las plantas; al menos dos especímenes que se encontraban en un terreno cercado por tener descargas de aguas residuales, tienen excelentes características, hojas de un verde intenso, con inflorescencias e infrutescencias, de baja altura y poca ramificación, lo que indica que no ha sido podada de los ápices, su presencia bajo la sombra de un Quercus sp. y el flujo de agua hace notoria la baja de temperatura en un par de grados con respecto a los alrededores y que su buena salud se debe a la gran cantidad de nutrientes que proporcionan los lodos del desagüe.

Análisis e interpretación de resultados Al plasmar la localización de Cyphomandra betacea Cav., en un mapa ocupando los Sistemas de Información Geográfica (SIG) insertada con una imagen de fondo de Google Earth se notó que las plantas se localizan

30

Revista Científica

Figura 7b. Cyphomandra betacea postrada con ejes de crecimiento, abatida por el calor.

El mayor número de plantas de que se encontraron en los diferentes predios de Mazahuacán, son plantas en desarrollo, lo que implica que la propagación apenas se está iniciando.


Aportaciones y conclusiones Cyphomandra betacea Cav., presenta serios problemas por el daño ocasionado en su hábitat natural, siendo una especie que no tolera la exposición directa de la luz solar, su maduración de fruto es prolongado y presenta flor aún cuando ya existen frutos maduros, permitiendo cosechas múltiples. La granada silvestre se cosecha a mano, partiendo el pedicelo en la zona de abscisión que se forma a 3.5-5 cm de la base del fruto, su introducción en la comunidad de Mazahuacán es como terapéutico por poseer un alto valor nutricional, se recomienda dar continuidad con el proyecto en una segunda etapa para definir e identificar plagas y/o enfermedades que presenta la especie, polinizador específico si es que existe, ciclo anual de monitoreo para cuantificar el progreso de desarrollo de las plántulas encontradas.

Bibliografía + Garro, G. (2014). Aspectos biológicos, uso agrícola y medicinales del “tomate de palo” (Cyphomandra betacea). Tecnología en marcha, 16(4), 68-72. + León, J. y Hernández Bermejo, J. (1992). Cultivos Marginados otra perspectiva de 1492. Roma: Colección FAO: Producción y protección vegetal No. 26. + León, F.; Viteri, D. y Cevallos A. (2004). Manual de cultivo del tomate de árbol No. 61. Programa de fruticultura y granja experimental, 51-53.

+ Luna Vega, I. y Alcantara, O. (2001). Análisis florístico de dos áreas con bósque mesófilo de Montaña, en el estado de Hidalgo, México. Acta botánica Mexicana, 54: 51-87. + Revelo M.; Pérez A., E. y Maila A. (2003). El cultivo del tomate de árbol. Quito-Ecuador: Instituto Nacional Autónomo de Investigaciones Agropecuarias. + Tejero Diez Daniel, L. L. (2010). El Bosque Mesófilo de Montaña en México: Amenazas y Oportunidades para su Conservación y Manejo Sostenible (Vol. 1). Ciudad de México, México: Comisión Nacional para el Conocimiento y Uso de la Biodiversidad.

+ Luna Vega, I.; Ponce Vargas, A. y Ruíz Jiménez, C. (2006). Florística del Bosque Mesófilo de Montaña de Monte Grande, Lolotla, Hidalgo, México. Revista Mexicana de Biodiversidad, 77: 177-190.

Revista Científica

31


Colli Acevedo Pamela Alejandra1, Morales González María Antonia2 y Canto Esquivel Ana María3

Tecnológico Nacional de México-Instituto Tecnológico de Mérida Mérida, Yucatán, México, C.P. 97118

1,2,3

pamela.colli@outlook.com

Resumen: Mejorar la competitividad es un elemento importante para la supervivencia y éxito de las empresas; en particular para los comercios tradicionales que se ven afectados con mayor frecuencia por un entorno más competitivo y globalizado. El presente trabajo tiene como objetivo analizar las estrategias de competitividad de los micronegocios comerciales de la comisaría de Komchén desde la perspectiva de sus propietarios. Para tal efecto, se aplicó una entrevista estructurada a los propietarios; integrada por 33 ítems relacionados con los conceptos de competitividad, estrategia competitiva, características del empresario y su negocio. Los resultados de la investigación indican que a pesar de su falta de preparación académica, los propietarios tienen conocimiento de que deben realizar acciones que les permitan competir, sobrevivir y ganar; entre las que sobresalen mantener precios bajos y la calidad del servicio; como claves para el éxito de estos negocios.

+ Palabras clave: Competitividad, micronegocios, comercio al por menor, estrategia competitiva, ventaja competitiva. Recibido: Agosto 28, 2017. Recibido en forma revisada: Noviembre 1, 2017. Aceptado: Mayo 9, 2018.

32

Revista Científica

Abstract: Improving competitiveness is an important element for the survival and success of companies; In particular for traditional traders who are more frequently affected by a more competitive and globalized environment. The present work aims to analyze the competitiveness stra-


tegies of the commercial micronegocios of Komchén from the perspective of their owners. For this purpose, a structured interview was applied to the owners, integrated by 33 items related to the concepts of competitiveness, competitive strategy, characteristics of the entrepreneur and his business. The research results indicate that despite their lack of academic preparation, homeowners are aware that they must take actions that allow them to compete, survive and win, among which stand out man-have low prices and quality of service as keys to the success of these businesses.

+ Keywords: Competitiveness, micro-business, retail trade, competitive strategy, competitive advantage. Introducción En México, la oferta de bienes para el consumidor final se realiza a través del comercio minorista tradicional y el comercio minorista moderno. El comercio minorista tradicional comprende una variedad de pequeñas tiendas todo servicio, como pequeños puestos que sirven al tránsito carretero, tiendas todo-servicio o especializadas tradicionales, ferias y los mercados sobre ruedas o tianguis (Reardon y Berdegué, 2002). En tanto, el comercio minorista moderno abarca las tiendas de autoservicio, las tiendas departamentales y las tiendas especializadas (Reardon y Berdegué, 2002; Bocanegra, 2008). Los años noventa fueron de singular importancia para el comercio minorista en México; aunados a los cambios generados por el desarrollo de la tecnología, el mercado virtual de mercancías y la mercadotecnia publicitaria; se presentó una proliferación de comercios minoristas modernos por gran parte del territorio mexicano, los cuales han ganado una participación creciente en el mercado, sacando ventajas de la pérdida de competitividad de los establecimientos del comercio tradicional, de las oportunidades derivadas de la transición alimentaria asociadas con el desarrollo socioeconómico; así como de los procesos de apertura comercial, desregulación de las actividades económicas y las medidas correspondientes implementadas por el Estado Mexicano (Bocanegra, 2008). En este contexto, mejorar la competitividad resulta de primordial importancia para los comercios tradicionales a fin de garantizarles su supervivencia y éxito. La competitividad puede entenderse como aquella capacidad que tiene una empresa, no solo para competir y sobrevivir, sino para ganar y así poder mantenerse compitiendo (Antorsi, 1999). Para desarrollar una posición de mercado poderosa y una organización capaz de producir un desempeño exitoso, a pesar de los acontecimientos imprevistos, de la competencia y de las dificultades internas, es necesario desarrollar una buena estrategia competitiva. Dicha estrategia proporciona un plan de acción para ganar una ventaja competitiva sustentable sobre los rivales (Thompson y Strickland, 2001). El fin de la estrategia de una empresa es encontrar una posición dentro del sector desde la que pueda defenderse del mejor modo posible (Porter, 2009). Mientras mejor concebida está la estrategia de una compañía y mientras mejor se ejecute, más probabilidad hay de que se tendrá un desempeño sólido y un éxito competitivo en el mercado (Thompson y Strickland, 2001). Hill y Jones (2007) argumentan que una empresa tiene ventaja competitiva sobre sus rivales cuando su rentabilidad es superior a la que en promedio tienen todas las compañías de su industria y, si se logra mantener durante varios años se convierte en una ventaja competitiva sostenida.

En la ciudad de Mérida, en años recientes han proliferado una diversidad de industrias, grandes centros comerciales, universidades y fraccionamientos residenciales en diversas partes de la ciudad, sus comisarías y sub-comisarías; entre ellas la comisaría de Komchén (Lugo y Tzuc, 2003, 2010). La cercanía de esta comisaría con el norte de la ciudad de Mérida, viene generando desde 1980 cambios sociales-culturales, económicos, tecnológicos y demográficos en la localidad (Bolio, 2014; Lugo y Tzuc, 2003, 2010). Esta situación representa un gran desafío para las microempresas de comercio minorista que se desarrollan en la comunidad, debido a que tienen que responder a las necesidades del nuevo mercado y al cambio en las necesidades de sus clientes actuales. Asimismo, esta expansión está generando nuevos competidores o facilitando el acceso a los mismos, principalmente a las grandes empresas nacionales o transnacionales. Este estudio se centra en las microempresas de comercio al por menor de la comisaría de Komchén con la intención de conocer cómo los dueños de estos negocios conciben los conceptos de competitividad y estrategia competitiva, así como las estrategias que ponen en práctica en sus negocios, que les permiten ser competitivos y responder a las exigencias del entorno actual en el que se desarrollan, que reúne diversos elementos que pueden causar efectos en la rentabilidad y continuidad de sus empresas. Para tal efecto, se planteó como objetivo principal de esta investigación: Analizar las estrategias de competitividad de los micronegocios comerciales de la comisaría de Komchén desde la perspectiva de los propietarios.

Materiales y métodos Esta investigación tiene un alcance descriptivo, por lo que no se pretende generalizar los resultados obtenidos; solo se busca describir la situación que se presenta en las unidades de análisis en beneficio de las mismas, siguiendo rigurosamente un proceso, de acuerdo con ciertas reglas lógicas (Hernández, Fernández y Baptista, 2014). La utilidad de este estudio es describir comunidades, contextos o ambientes, las actividades que se desarrollan en éstos, las personas que participan en tales actividades y sus significados; comprender procesos, vinculaciones entre personas y sus situaciones o circunstancias, identificar problemas y generar hipótesis; todo esto en torno a los micronegocios comerciales minoristas de la Comisaria de Komchén en beneficio de los empresarios, empleados, clientes y la comunidad de Komchén en general. Para alcanzar el objetivo planteado, se efectuó una investigación de campo bajo un enfoque cualitativo con el propósito de examinar la forma en que los individuos perciben y experimentan los fenómenos que los rodean, profundizando en sus puntos de vista, interpretaciones y significados. El diseño de la investigación fue no experimental con temporalidad transversal, puesto que los fenómenos se analizaron en su entorno natural, sin realizar la manipulación de alguna variable y la recolección de datos se realizó una sola vez (Hernández, Fernández y Baptista, 2014). Las unidades de análisis de esta investigación son los micronegocios de comercio al por menor de la comisaría de Komchén, que ascienden a 77 unidades económicas, según se observó en la exploración de campo realizada en la comunidad. Los sujetos de estudio son los propietarios de estos negocios, a quienes se les aplicó una entrevista estructurada, donde éstos compartieron sus conocimientos, opiniones y experiencias acerca de los temas de interés de esta investigación. La selección de la muestra fue no probabilística del tipo autoseleccionada, ya que las personas se propusieron como participantes en el estudio y únicamente se tomaron a

Revista Científica

33


consideración los individuos que voluntariamente accedieron a participar (Hernández, Fernández y Baptista, 2014). Todos los propietarios fueron invitados a integrarse en el estudio, sin embargo, solo 17 aceptaron participar, por lo que se formó una muestra de 17 empresarios, cuyos negocios se mencionan y clasifican en la Tabla 1.

de la sección III del instrumento, se desarrolló considerado las coincidencias observadas en los comentarios de los entrevistados y los conceptos reportados en la literatura.

Resultados Los resultados de esta investigación se exponen en tres secciones: perfil de los propietarios, perfil de los negocios, y conocimientos y aplicación de los conceptos estudiados.

Perfil de los propietarios

Tabla 1. Listado de unidades de análisis de la investigación.

La entrevista estructurada consiste en una guía de preguntas específicas, donde el entrevistador se sujeta exclusivamente a ésta; el instrumento prescribe qué cuestiones se preguntarán y en qué orden (Hernández, Fernández y Baptista, 2014). El instrumento elaborado para esta investigación está integrado por 33 ítems relacionados con los conceptos de competitividad y estrategia competitiva, así como características del empresario y su negocio, que se agruparon en tres secciones, las cuales se describen en la Tabla 2. Se emplearon preguntas generales y estructurales, las cuales fueron respondidas en forma abierta o mediante las categorías establecidas previamente en el instrumento de acuerdo al aspecto analizado. La validación de contenido del instrumento se realizó mediante la aprobación de dos expertos en el tema de competitividad empresarial del Instituto Tecnológico de Mérida.

Tabla 2. Conformación del instrumento.

El análisis de los resultados se realizó con base en la metodología propuesta por Hernández, Fernández y Baptista (2014), que consiste en recolectar, revisar, organizar y preparar los datos, para posteriormente descubrir las unidades de análisis y realizar una codificación abierta de estas unidades para describir las categorías emergentes y la codificación de las categorías. La categorización de los resultados de las preguntas abiertas

34

Revista Científica

De un total de 17 entrevistados, 9 fueron mujeres y los 8 restantes hombres, esto refleja que ambos géneros tienen una participación importante en la gestión de la microempresas estudiadas. En lo referente a la edad, el promedio de los microempresarios entrevistados es de 51.94 años con una desviación estándar de 9.96 años. En su mayoría son adultos por encima de los 45 años, con mayor frecuencia en el rango de edades entre 53 y 59 años, por lo que puede decirse que son principalmente adultos maduros y adultos mayores. En cuanto al nivel educativo, en su mayoría manifiestan por lo menos haber asistido a la primaria o haber estudiado hasta la secundaria, como se muestra en la Figura 1a); esto coincide con el grado promedio de escolaridad de la población que es de 7.1 grados según reporta INEGI (2010). Debido a que los microempresarios pueden administrar el negocio con estudios básicos de primaria o incluso sin haber asistido a la escuela, ellos no se preocupan por seguir preparándose académicamente y manifiestan que no ha sido fácil administrar un negocio bajo este esquema, sin embargo, han podido salir adelante con sus empresas. En lo referente a la situación familiar de los microempresarios se observa que en su mayoría son personas casadas (76%) y se consideran jefes de familia (82%). En la Figura 3b), se presenta la distribución porcentual de los propietarios según el número de dependientes económicos que tienen; como puede apreciarse el 35% cuenta con al menos un dependiente económico, el cual


consiste principalmente en su cónyuge y solo un 18% manifiesta no tener dependientes económicos.

a)

de ingresos de los propietarios, ya que solo el 35% obtiene otros ingresos a través de un empleo, pensión, empleo del cónyuge u otros negocios, según refieren en sus comentarios.

Perfil de los negocios Con respecto a la antigüedad de las microempresas se obtuvo una media de 18.76 años con una desviación estandar de 15.27 años. El 82% de las microempresas cuenta con al menos 8 años de operación, lo cual indica que la mayoría de los negocios han superado la esperanza de vida a nivel nacional para el sector comercio que reporta el INEGI (2014) que consiste en 6.6 años. En la Figura 2, se presenta la distribución de las microempresas según su antigüedad, puede observarse que el rango con mayor frecuencia se encuentra entre 0 y 12 años de operación, seguido del rango entre 13 y 24 años. Una de las empresas presentó 60 años de antigüedad, la cual se encuentra dirigida por la tercera generación; las demás empresas aún se encuentran a cargo de sus fundadores. De acuerdo al porcentaje de pertenencia de la empresa, el 29% de los entrevistados afirmaron ser el único dueño del negocio, mientras que el 57% afirmó que la microempresa tenía 2 dueños, siendo su cónyuge el otro dueño. Solamente una empresa tuvo 4 dueños que se referían al entrevistado y sus hijos; por lo que en la mayoría de los casos la empresa está a cargo del matrimonio.

b)

Figura 1. Distribución porcentual de los propietarios según su a) escolaridad y b) dependientes.

Finalmente, en la mayoría de los casos los propietarios dependen económicamente de la microempresa; ya que el 65% se dedica exclusivamente a trabajar en su negocio contra el 35% que se dedica a otras actividades, como un empleo u otro negocio. También representa la principal fuente

Figura 2. Distribución de las microempresas según su antigüedad.

Según reportan los propietarios, el 53% de las microempresas que participaron en el estudio no cuentan con razón social. Dos de las microempresas que no cumplen con este requerimiento son de nueva creación, por lo que sus propietarios argumentan que por esta razón no lo tienen. En cuanto al tipo y propiedad del establecimiento, 9 microempresas se encuentran en un establecimiento fijo, mientras que las 8 restantes se encuentran dentro de la vivienda de los propietarios. El 82% de los establecimientos son propiedad de los empresarios y el 18% restante corresponde a los 3 negocios ubicados en locales al interior del mercado de la comisaria que son propiedad del Ayuntamiento de Mérida. El número de trabajadores en la microempresa se encuentra entre 1 y 5 trabajadores, donde predominaron aquellas con 2 y 3 trabajadores según se muestra en la Figura 3. El personal de las microempresas se clasifica en dueños, familiares y empleados que no son familiares. Principalmente son los dueños los que laboran en los negocios, solamente en 3 de los casos se reporta que el dueño no figura como un trabajador.

Revista Científica

35


Otro concepto que se preguntó a los microempresarios fue el de estrategia competitiva, el cual resultó aún más difícil que el anterior para los entrevistados debido a que 9 de los 17 comentan no saber su significado y solamente 6 de ellos relacionan este concepto con una acción que deben poner en práctica las empresas para atraer a los clientes y ser mejor que la competencia. En cuanto a las acciones que los empresarios ponen en práctica para vender más que su competencia y que su negocio permanezca, es decir, la estrategia del negocio; se mencionaron en varios de los casos más de una acción, solo tres de los propietarios cometan que no realizan acciones. En la Tabla 3, se exponen los cometarios expuestos por los propietarios, así como la actividad económica que desempeñan sus negocios. Puede observarse, que tener precios bajos es la medida a la que principalmente recurren los propietarios sin importar la actividad económica de sus negocios, seguida del surtido y el trato que igual fueron mencionados como importantes para varios comercios.

Figura 3. Distribución de las microempresas según su número de trabajadores.

El 47% de los empresarios reporta que los ingresos de sus establecimientos son mayores a $20,000 pesos mensuales y solamente un 6% afirma tener un ingreso menor a los $5,000 pesos mensuales como se muestra en la Figura 4. Finalmente, en cuanto a sus horas de operación semanal, los establecimientos trabajan en promedio 70.47 horas con una desviación estándar de 26.17 horas y un rango 35 a 123 horas.

Figura 4. Distribución porcentual de las microempresas según su ingreso mensual.

Conocimientos y aplicación de los conceptos competitividad y estrategia competitiva en las microempresas de comercio al por menor

Tabla 3. Acciones que ponen en práctica para vender más que su competencia y permanecer.

Finalmente, se les cuestionó a los 17 propietarios porque creían que la gente prefería ir a su negocio, algunos comentaron más de una razón. En la Figura 5, se muestra una categorización de conceptos que los emComo pude verse en la Figura 6, la mayoría de los propietarios comentan presarios dieron con respecto a la competitividad; puede notarse que solo que los clientes principalmente acuden a su negocio por el trato amable, dos de los entrevistados perciben a la competitividad como una capacidad seguido de la ubicación y los precios bajos que ofrecen. Otras respuestas que pueden tener las empresas. Este concepto resulta confuso para los que se mencionaron fueron: hacer bien el trabajo, asesoría que se le da propietarios, quienes principalmente lo asocian con la acción de competir al cliente, limpieza, calidad del producto y vender lo que el cliente pide. con otros negocios o con sus competidores, lo entienden desde un punto de vista externo a su empresa, que se relaciona más bien con una acción y no con una capacidad de su empresa.

36

Figura 5. Definición de la competitividad según los propietarios.

Revista Científica

Figura 6. Razones por las que los clientes acuden a los negocios según sus propietarios.


Discusiones Los conceptos de competitividad y estrategia competitiva según como han sido definidos en la literatura, no son conceptos que los propietarios de las microempresas comerciales de Komchén conozcan y comprendan; sin embargo, gran parte de estos negocios como ya se ha mencionado, sobrepasan la esperanza de vida para el sector comercio en el país, lo cual indica que están funcionando de una manera apropiada al menos para el contexto en el cual se desenvuelven. Aunque no se observa la aplicación de estrategias competitivas en estos negocios, ni cuentan con ventajas competitivas establecidas; los comentarios de los propietarios indican que a pesar de su preparación académica precaria, tienen el conocimiento de que deben realizar acciones que les permitan competir, sobrevivir y ganar. Entre las acciones que mencionan puede apreciarse que primordialmente se enfocan a la calidad del servicio, exceptuando los comentarios referentes al precio, los cuales pueden asociarse a la situación económica de la población, que es una zona con alto grado de marginación. La calidad en el servicio es una de las estrategias que ha tenido éxito en las organizaciones a nivel mundial (Zeithaml, Parasuraman y Berry, 1990); debido a su aparente relación con la satisfacción del cliente, la lealtad del cliente, la retención del cliente, los altos ingresos y el aumento en los índices de ventas cruzadas (Zeithaml, 2000; Setó, 2004). Aunque en los micronegocios no se aplique integralmente esta estrategia, si se observa que los propietarios tienen cierta inclinación a utilizar algunos elementos considerados clave para la calidad en los servicios como son: el trato amable, surtido de mercancías, brindar asesoría al cliente y contar un horario amplio (Setó, 2004); esto posiblemente debido a que no implica mayores costos y complejidad para sus negocios; lo cual se alinea a los resultados obtenidos en el presente estudio.

Bibliografía + Antonorsi, M. (1999). Guía práctica de la empresa competitiva. Ediciones Venezuela Competitiva, Venezuela. + Bocanegra, C. O. Para entender el comercio minorista en México a partir de los noventa. Revista Nicolaita de Estudios Económicos, 3(2), pp. 89-104, 2008. + Bolio, J. (2014). Mérida metropolitana. Evolución histórica y rasgos actuales: una perspectiva urbana. En R. López y L. A. Ramírez (Eds.), Crecimiento urbano y cambio social: escenarios de transformación de la zona metropolitana de Mérida (pp. 21-60). Universidad Nacional Autónoma de México, Mérida, México. + Hernández, R. Fernández, C. y Baptista, L. (2014) Metodología de la investigación. McGraw Hill /Interamericana Editores, México. + Hill, C. y Jones, G., (2007). Administración Estratégica: un enfoque integrado. McGrawHill, México. + INEGI (2013). Sistema de Clasificación Industrial de América del Norte, México: SCIAN 2013. INEGI, México. + Lugo, J. A. y Tzuc, L. La participación femenina en la economía familiar en dos comisarías meridanas: Komchén y San José Tzal. Revista de la Universidad Autónoma de Yucatán, 18 (225), pp. 84-97, 2003. + Lugo, J. A. y Tzuc, L. (2010). La conurbación en el municipio de Mérida: su impacto en la economía de los pobladores rurales y el medio ambiente. En R. Durán y M. Méndez (Eds.), Biodiversidad y desarrollo humano en Yucatán (pp.77-81). Mérida, Yucatán: PNUD-México, CICY/ PPD-FMAM/ CONABIO/ SEDUMA. [22 de noviembre del 2016]. Disponibilidad y acceso: http://www.seduma.yucatan.gob.mx/biodiversidad-yucatan/ libro-biodiversidad-yucatan.php. + Porter, M., (2009). Ser competitivo. Harvard Business Press, España + Reardon, T., y Berdegué, J. A. La rápida expansión de los supermercados en América Latina: desafíos y oportunidades para el desarrollo. Revista Economía, (49), pp. 85-120, 2002. Setó, D. P. (2004). De la calidad de servicio a la fidelidad del cliente. ESIC, Madrid, España. + Thompson, A. y Strickland, A. (2001). Administración estratégica. Conceptos y casos. McGraw Hill, México. + Zeithaml, V. A. Service quality, profitability, and the economic worth of customers: what we know and what we need to learn. Journal of the academy of marketing science, 28(1), pp. 67-85, 2000. + Zeithaml, V., Parasuraman, A., y Berry, L. (1990). Calidad Total en la Gestión de Servicios. Díaz de Santos, Madrid, España.

Revista Científica

37


Alejandro Cano Mota1, Luis Alberto Ponce Mateos2, José Luis Landgrave Martínez3 y Andrés López Velázquez4

Facultad de Ingeniería Mecánica y Eléctrica, Universidad Veracruzana Circuito Universitario Gonzalo Aguirre Beltrán, Centro Xalapa Enríquez, Veracruz, México 91000 1,2,3,4

Resumen: El presente trabajo propone una metodología alterna para calcular las pérdidas de energía calorífica en un monoblock y obtener la eficiencia y eficacia del sistema. Haciendo uso mínimo de herramientas económicas complementadas por datos y cálculos teóricos. La metodología consistió en adquirir datos termográficos de las aletas del monoblock de un motor de combustión interna sometido a diferentes condiciones de velocidad angular y viento. Con los datos adquiridos experimentalmente y los datos teóricos se calcularon los valores de las pérdidas de energía por calor, así como la exergía y eficiencia del motor.

jose.landgrave@mail.ru

+ Palabras clave: Transferencia de calor, eficiencia, exergía. Abstract: An alternative methodology is proposed to calculate the losses of heat energy in a monoblock and obtain the efficiency and effectiveness of the system. Making use of a minimum of inexpensive tools complemented by experimental data and theoretical calculations.

Recibido: Agosto 28, 2017. Recibido en forma revisada: Noviembre 1, 2017. Aceptado: Mayo 9, 2018.

38

Revista Científica

The methodology consisted in acquiring thermographic data of the monoblock fins of an internal combustion engine subjected to different conditions of shaft angular velocity and wind. With experimental and


theoretical data energy losses by heat were calculated as exergy and efficiency of the engine.

Keywords: Heat transfer, efficiency, exergy.

condiciones de frontera. Como volumen de control se consideró a la capa de aire inmediata a la superficie del monoblock y el múltiple del escape, basándose en el principio de la conservación de masa. Aplicando la primera ley de la termodinámica para un flujo estacionario (Yunus A. Cengel, 2009), el balance se expresa en la ecuación (1): (1)

Introducción La distribución de la energía en los motores de combustión interna es un fenómeno que se ha estudiado a profundidad (Fu y Liu, 2013; Tae y Cho, 2013), debido a la baja eficiencia que presentan y la necesidad de mejorarla para aumentar el aprovechamiento de los hidrocarburos. Existen varias metodologías teóricas y experimentales para encontrar el balance energético. Se pueden utilizar métodos experimentales como: el dinamómetro o los métodos gráficos, sin embargo, uno de los más utilizados es el método teórico por ser económico y preciso.

Debido a que se tiene una entrada, se maneja solo un flujo másico. Del mismo modo se despreciaron la velocidad y la gravedad ya que no influyen en el experimento ecuación (2). (2) Para la definición del volumen de la cámara de combustión se obtuvo con las medidas del fabricante, listadas en la Tabla 1.

En el presente trabajo se propone el uso de una metodología teórica basada en la primera y segunda leyes de la termodinámica apoyada en un método experimental, para calcular las perdidas por convección del monoblock en un motor de combustión interna, de ignición por chispa, enfriado por aire. Con el propósito de obtener mayor precisión en los cálculos y contar con una metodología alterna se emplea el método exergético. La metodología consiste en aplicar un balance de energía usando la primera ley de la termodinámica, calculando las variables por método teórico, basado en las propiedades del combustible, del aire y las especificaciones del fabricante. Después, se realizaron mediciones en condiciones controladas, haciendo uso de una cámara termográfica, se obtuvo una serie de imágenes del monoblock del motor, con la finalidad de cuantificar la transferencia de calor en las aletas y calcular el flujo de calor. Al obtener las variables que conforman la primera ley, la energía que se pierde en el escape puede ser despejada, para el balance de energía. De esta manera se calculó la energía aprovechada y desperdiciada debido al diseño del motor. A continuación, se realizó un balance exergético para analizar la eficacia y eficiencia del motor y se contrastaron con los resultados obtenidos en la primera ley.

Tabla 1 Características motor honda motos 150 cc. (HONDA MOTOS, s.f.)

Con los datos se obtuvo el volumen de desplazamiento del pistón de 149,048.28 mm3 representados esquemáticamente en la Figura 1. También se requiere conocer el volumen libre, para esto se aplicó la relación de tasa de comprensión (Heywood, 1988) ecuación (3).

Primera Ley de la Termodinámica La primera ley hace referencia al principio de la conservación de la energía, la cual enuncia que la energía no se crea ni se destruye, únicamente cambia de forma. Con esta ley se pueden estudiar las formas en que se relacionan las diferentes manifestaciones de energía como calor y trabajo agrupándolas en una sola propiedad denominada energía total. La energía total es la herramienta principal como base de cálculo para resolver problemas de ingeniería, a través del balance de energía en el que se analizan los cambios de energía que existen en cualquier clase de proceso.

Metodología teórica Para el cálculo del trabajo efectivo, realizado por un motor Honda para motocicleta de 150 c.c., en condiciones controladas de temperatura ambiental y un flujo forzado laminar de aire, se requiere delimitar las

Figura 1 Diagrama esquemático del pistón y cámara de combustión (Heywood, 1988). Calculo de las diferentes dimensiones del motor objeto de estudio.

Revista Científica

39


(3) Se obtuvo un volumen libre de 18,401.02 mm3. Conociendo la capacidad de la cámara, se calculó la cantidad de masa y la relación en que se encuentra la mezcla aire combustible de 14.7. Suponiendo que la relación de aire-combustible es correcta se obtienen las reacciones químicas exactas sin desperdicios ni radicales libres. Aplicando la ley general de los gases ideales para calcular la cantidad de aire que entra en la cámara y a continuación se calculó la masa del combustible. Se consideró al aire como un gas ideal y se estableció con la Ecuación 4 (Yunus A. Cengel, 2009).

incidió de frente al monoblock de la motocicleta, se midió el flujo de aire que circuló en las aletas del monoblock, la temperatura y la humedad relativa en el ambiente con un anemómetro. El mapeo térmico se realizó con una cámara termográfica variando la temperatura desde condiciones ambientales hasta las temperaturas obtenidas en ralentí y de máximo torque. En la Figura 2 a), se observa el calentamiento en el arranque inicial a 5,000 RPM sin aire forzado, se opera en ralentí hasta que alcanza la estabilidad, como se muestra en la línea ralentí, a partir de este momento se introdujo el aire hasta bajar la temperatura de la aleta en 96°C y alcanzar estabilidad, se regresó al régimen de las 5,000 RPM con aire forzado y se obtuvo la estabilidad a la Ts = 111°C.

(4) La masa del aire es 0.000178 kg. aplicando la relación de aire-combustible de 14.7 y se obtuvo que la cantidad de combustible es de mF = 0.000012 kg. durante un ciclo de combustión. Dadas las condiciones de la experimentación, donde la velocidad del motor se mantuvo a 5000 rpm o bien 41.667 ciclos por segundo, utilizando la masa del combustible y multiplicando por los ciclos del motor en un segundo, para obtener el flujo másico del motor en un segundo, se obtuvo como resultado es mf = 0.0005 kg/s. El primer término del balance energético se resolvió al establecer una igualdad entre la suma de las masas y las diferencias de entalpias igualando esto a la energía que se crea a partir de la explosión dentro de la cámara. Se consideró que la combustión dentro de la cámara generara agua en forma de vapor, por lo que se asumió un valor menor de calentamiento (consultando las tablas para gasolina) es de LHV=48,000 kJ/kg (Tae y Cho, 2013). El cálculo de la energía entrante al sistema se realizó con la Ecuación (5) (5) Obteniendo un valor de 24,000 W de energía entrante. Esta energía se distribuye de acuerdo a la primera ley. En segundo término, se calculó la potencia generada por el motor con la Ecuación (6), empleando las características del fabricante a 5000 RPM el torque es de 11.9 N.m. (Heywood, 1988):

Figura 2 a). Relación de temperatura del motor contra tiempo, dadas diferentes condiciones de régimen y flujo de aire; b) Relación de temperatura del motor contra tiempo.

En la Figura 2 b), se muestra la imagen termográfica a 5,000 RP con aire forzado y Ts =111ºC. Para establecer la transferencia de calor del monoblock por la convección con el medio ambiente se utilizó la Ecuación (7) (Frank P. Incropera, 1999): (7) También fue requerido el cálculo del coeficiente de convección, mismo que se obtuvo a través de las condiciones del experimento. Para el cálculo del número de Reynolds ReD para el aire forzado a través de los tubos se empleó la Ecuación (8).

(8) (6) En total se obtuvo 6,230.83 W de potencia de salida en condiciones del fabricante.

Metodología experimental Para el cálculo de la convección entre el monoblock y el medio ambiente, se aplicó un método experimental en condiciones controladas, se midió la distribución de temperaturas del monoblock con una cámara termográfica, para esto se recreó un flujo de aire laminar con un arreglo de ventilador y tubos de diámetro de 5.08 cm, de modo que el flujo de aire

40

Revista Científica

De acuerdo a los datos de (Cengel y Cimbala, 2012), y con una velocidad media del aire de 2.5 m/s, se obtuvo un ReD= 8365.06, resultando flujo turbulento. Para determinar si el fluido estaba totalmente desarrollado se aplicó el criterio de la Ecuación (9) (Frank P. Incropera, 1999). (9) Donde el largo de los tubos xcd,h de 0.606m y el número de Reynols (Re) es de 12.99 por lo que se determina con Ecuación (9), la condición de flujo totalmente desarrollado y se aplicaron los criterios correspondientes. Cuando el flujo de aire sale del tubo, cambian sus condiciones y pasa a ser


flujo laminar debido a Re< 5E105. Por lo tanto, para un flujo externo se calcula Prandlt (Pr) (Yunus A. Cengel, 2009) con Ecuación (10):

(10) Resultando Pr= 0.84, esta consideración se aplicó para un flujo laminar para un Pr>0.6 y se calculó el número de Nusselt (Frank P. Incropera, 1999) con Ecuación (11): (11) Con los datos resultantes se obtuvo la relación del coeficiente de convección la cual se aplica para encontrar el flujo de calor en un conjunto de aletas (Frank P. Incropera, 1999) con Ecuación (12): (12)

El área de la aleta (Af) es calculada con las Ecuaciones (13) y (14):

Método Exergético, segunda Ley de la Termodinámica La segunda ley de la termodinámica dicta que los procesos solo pueden ocurrir en cierta dirección y que la energía tiene calidad. La propiedad entropía sirve para determinar si los procesos existen en la dirección correcta y para determinar la exergía (energía útil o potencial de trabajo) de una fuente de energía. Con el análisis exergético se puede evaluar la capacidad de trabajo que se pierde en cada proceso dentro de un sistema, teniendo una visión general para definir en qué proceso es prioritario sugerir una implementación a modo de corregir los incrementos de irreversibilidades.

Metodología teórica Es importante calcular la eficiencia racional y las irreversibilidades de los motores de combustión interna ya que sirven como referentes de los cambios que se pueden implementar en un equipo para mejorar su funcionamiento. Para el conocimiento de estos índices energéticos, como primer paso, se requiere conocer las condiciones operativas del motor objeto de estudio, iniciando con la composición química del combustible utilizado Tabla (2).

(13) (14) Los datos de eficiencia de aletas rectas (perfil rectangular, triangular y parabólico) son obtenidos de (Frank P. Incropera, 1999). Teniendo como resultado 96 W perdidos por cada cara del monoblock, teniendo como resultado un total de Q_loss=384 W, por las 4 caras. Recurriendo a la primera ley, se despejó la variable de flujo de calor del escape Ecuación (15). (15) Al substituir los valores se obtuvo una Q_(exh) de 17,385.20 W, la mayor parte de la energía se disipa por el escape, mientras que el 25% es aprovechado para el movimiento efectivo de la motocicleta. La distribución del total de energía, en porcentajes, dio como resultado que la energía perdida por las caras del monoblock es del 1% como se observa en la Figura 3.

Tabla 2. Composición química de la gasolina y de los gases de combustión (Sun, Yan, Yu, & Su, 2015).

Balance químico:

Con el balance químico anterior se calcula de la temperatura de combustión adiabática (Marín Hernández, 2014).

(16) Para obtener la temperatura de combustión adiabática se recurre a un proceso iterativo (Tabla 3).

Figura 3. Distribución total de energía en el Monoblock.

Revista Científica

41


La eficiencia de Carnot es calculada con la ecuación (17) dando como resultado 85.36%, la eficiencia de 1a Ley de la termodinámica de las Ecuaciones (5) y (6) se calcula con Ecuación (18) resultando en 25.96%. Para conocer el trabajo reversible se calculó con la eficiencia de 2a Ley ecuación (19) obteniendo una eficiencia del 30.41%.

Con ec. (24) se obtiene un cp,m = 0.5803 kJ kg-1 K-1 y con Ecuación (25) el valor de εf2= 947.40 kJ kg-1 (24) (25)

(17) (18)

Se despeja de ec. (21) la irreversibilidad del balance de exergía obteniendo I=18.0159029 kW. La deficiencia δ = 73.0% que se calcula con Ecuación (26).

(19) (26) Despejando de ecuación (19) para Wrev se obtuvo un valor de 20.4896 kW. Continuando el cálculo de la exergía química del combustible se emplea la Ecuación (20). Para el cálculo de la eficiencia racional de 25.113% se empleó la Ecuación (21).

(20)

Cálculo de eficiencia racional:

(21) Para conocer las irreversibilidades del sistema se aplica un balance de exergía para sistemas abiertos Ecuación (22). (22) Despreciando la exergía física, cinética y potencial se obtiene, se desprecia la exergía del aire por encontrarse en estado muerto con valor de 49,662.4 kJ kg-1 con la Ecuación (23).

(23)

Para el cálculo de la exergía específica de salida se calcula el Cp,m y se emplea (24) despreciando los efectos de la exergía química, cinética y potencial, obteniendo los valores de c(p,k) de (Heywood, 1988) reflejados en la Tabla 4.

Conclusiones Se consideraron varios factores para la obtención del calor disipado en el escape, el cual resultó en 17,385.20 W, entre ellos: Se obtuvo una eficiencia del 25% de trabajo efectivo, resultando un valor congruente de acuerdo con la bibliografía utilizada para el presente trabajo. La convección de las aletas se consideró solo en la interacción con el sumidero, omitiendo el calor disipado por la carcasa del motor, la máquina es carburada y enfriada por aire, lo cual representa una menor eficiencia y una menor cantidad de trabajo con mayores pérdidas. Se consideró una relación de aire-combustible teórica, sin embargo, este dato varía en condiciones reales, tampoco se tomó en cuenta que el motor es carburado y se tiene un menor control de la mezcla aire-combustible. Por otro lado, debido a la frecuencia de la explosión, se espera que la mayor cantidad de energía se pierda a través de los gases del escape, porque la combustión es más rápida y hay un menor tiempo para que se realice la transferencia de calor entre la explosión y las paredes de la cámara, teniendo como resultando que la mayor parte de la energía es desechada por medio de los gases de escape. En general, por las consideraciones tomadas para esta metodología, se recomienda su uso para realizar prácticas en laboratorio ó revisar la calibración del dinamómetro. A pesar de que la eficiencia de Carnot es alta, este valor sirve como paramento de referencia ya que es reversible. La ηII no resulta confiable ya que no considera la exergía ocupada, solo el trabajo realizado y los procesos reversibles, un dato más exacto es la eficiencia racional que refleja la cantidad de exergía aprovechada la cual

42

Revista Científica


resulta similar a ηI para este caso. Al calcular el balance exergético se encuentran altas irreversibilidades debido a la entropía generada en el proceso de combustión. Sin embargo, existen irreversibilidades evadibles como las pérdidas de calor las cuales pueden ser aprovechadas y aumentar la eficiencia del sistema.

Bibliografía + Cengel, Y. A. y Cimbala, J. M. (2012). Mecánica de fluidos Fundamentos y aplicaciones. En Y. A. Cengel, y J. M. Cimbala, Mecánica de fluidos Fundamentos y aplicaciones (pág. 930). México D.F.: Mc Graw Hill. + Frank P. Incropera, D. P. (1999). Fundamentos de transferencia de calor. México D.F.: Pearson Practice Hall.

+ HONDA MOTOS. (s.f.). Motos Honda Xalapa. Recuperado el 24 de 09 de 2015, de http://motoshondaxalapa.mx/deportivas/cb150/ + Marín Hernández, J. J. (2014). El Método Exergético. XALAPA: Universidad Veracruzana. + Sun, H., Yan, F., Yu, H. y Su, W. (2015). Analysis of exergy loss of gasoline surrogate combustion process based on detailde chemical kinetics. Applied Energy(152), 11 - 19.

+ Fu, J., Liu, J., Feng, R. y Yan, Y. (2013). Energy and exergy analysis on gasoline engine based on mapping. Applied Energy, 622-630.

+ Tae, K., Cho, H., Luck, R. y Mago, P. (2013). Modling of reciprocating internal combustion engines for power generation and heat recovery. Applied Energy, 102, 327 - 335.

+ Heywood, J. B. (1988). Internal combustion engine fundamentals. E.U.A: McGraw-Hill.

+ Yunus A. Cengel, M. A. (2009). Termodinámica. México, D.F.: McGraw-Hill.

Revista Científica

43


Sandoval Pérez Sergio1, Enrique Herrera Segura2, J. Jesús García C.3 y J. Carlos Bejinez Macias4

Tecnológico Nacional de México Instituto Tecnológico de Cd. Guzmán Av. Tecnológico # 100 Zapotlán El Grande, Jalisco, México, C.P. 49000. 1,2,3,4

Resumen: En este artículo se presenta el modelado matemático no lineal de un automóvil utilitario, tomando en cuenta la dinámica de la velocidad longitudinal, velocidad lateral y velocidad angular de viraje o yaw. Estas dinámicas se simularán en simulink con norma ISO 3888-1 que servirá como plataforma para el uso del CarSim, el cual es un software que simula el comportamiento dinámico de cualquier tipo de automóvil y las simulaciones arrojadas son vistas en 3-D. Además de establecer estas simulaciones como herramientas de diseño para la industria automotriz. Palabras clave: Automóvil, simulación, CarSim.

ssandoval@itcg.edu.mx

Recibido: Agosto 28, 2017. Recibido en forma revisada: Octubre 20, 2017. Aceptado: Mayo 9, 2018.

44

Revista Científica

Abstract: This article presents the nonlinear mathematical modeling of a utility vehicle, taking into account the dynamics of longitudinal velocity, lateral velocity and angular velocity of yaw. These dynamics will be simulated on Simulink with norm ISO 3888-1 that will serve as a platform for the use of CarSim, which is a software that simulates the dynamic behavior of any type of automobile and the simulations thrown are 3-D views. In addition to establishing these simulations as design tools for the automotive industry.

+ Keywords: Automobile, simulation, CarSim.


Introducción En los últimos años, el desarrollo de una filosofía integral ha cambiado en como los ingenieros realizan investigación en el área de diseño de nuevos dispositivos para el control del automóvil. Hoy en día se cuenta con una gran potencia computacional que nos permite trabajar con unidades de control en los vehículos, esto es debido al mejoramiento de dispositivos electrónicos y al avance en la tecnología, que permite desarrollar nuevos sistemas de control que evitan cualquier restricción desde el punto de vista tecnológico. Considerando algunas variables físicas del automóvil, el diseño de un sistema de control para la velocidad lateral es uno de los principales tópicos de investigación en el área de control de automóviles. Estos dispositivos modifican las dinámicas de los vehículos imponiendo fuerzas o momentos en el cuerpo del automóvil de diferentes maneras, (Burgio y Zegelaar, 2006), (Karbalaei, Kazemi y Tabatabaei, 2007), (Baslamisli, Polat y Kose, 2007), (Ackermann, Guldner, Steinhausner y Utkin, 1995), (Malan, Borodani y Gortan, 1994), (Ren, Chen, Liu y Zheng, 2014), Acosta, Di Gennaro y Sánchez, 2016) y pueden también utilizar “sensores inteligentes” que permiten mediciones precisas de las variables que se desean medir, haciendo una alta eficiencia en la acción que el controlador este realizando, contribuyendo a la estabilidad del vehículo, la seguridad y confort para el conductor (Beal y Gerdes, 2013), (Zakaria, Dwijotomo, Azman y Tamaldin, 2014). El movimiento de un vehículo puede ser categorizado en términos de su funcionalidad, así como de su maniobrabilidad y estabilidad. El funcionamiento está enfocado sobre el peso y los movimientos longitudinales del chasis. La estabilidad y las características de manejo generalmente se refieren a la respuesta lateral/maniobrabilidad de las acciones de conducción del automóvil que se requieran (Bianchi, Borri, Benedetto, Di Gennaro y Burgio, 2010), (Zhao y Liu, 2014) . Una gran variedad de modelos de baja, media y alto orden están disponibles para describir el movimiento traslacional y rotacional del automóvil. Un modelo del vehículo de bajo orden de un grado de libertad (DOF por sus siglas en inglés) donde el automóvil se considera una masa puntual y con ello es suficiente para generar una plataforma de velocidad. Un modelo de dos grados de libertad es considerado de medio orden por su análisis (Yacine, Ichalal, Ait-Oufroukh, Mammar y Djennoune, 2015), tomando en cuenta que las llantas frontales y traseras del vehículo son consideradas como una sola llanta delantera y una trasera (modelo de la bicicleta); en este modelo en la llanta delantera se puede introducir la dinámica del conductor y del volante. Además, los efectos del ángulo roll y de transferencia de masa son despreciados y este modelo permite estudiar la respuesta lateral/dirección del vehículo para pequeños ángulos de maniobrabilidad en velocidades longitudinales. En este artículo se presentara el modelo matemático de alto orden y la transferencia de masa del mismo sistema. Todos estos parámetros deben de ser medidos para la realización completa a futuro de algunos diseños (Heydinger, Garrot, Chrstos y Guenther, 1990). Esta medición de parámetros físicos se pueden realizar mediante la utilización de un software como el CarSim, el cual nos ofrece una amplia gama de soluciones tanto para el tratamiento de datos, como para la simulación en una manera visual muy agradable, además de obtener graficas de cada una de las variables físicas a medir, considerando también características del automóvil como pueden ser la altura del mismo con respecto a un centro de gravedad, las longitudes frontal y trasera con respecto a las llantas y al centro de masa.

Agregando otra característica importante a este software llamado CarSim es que puede relacionarse con el programa Matlab-simulink, conocido por diseñadores, investigadores y estudiantes de ingeniería, obteniendo con esto grandes aplicaciones a niveles de investigación tanto en educación como en la industria. Una de las aplicaciones es implementar algoritmos de control para el automóvil y enviarlos al CarSim para simularlos y observar si son correctos, ahorrándose con esto tiempo y dinero, por lo que esta herramienta es importante a nivel mundial en el diseño de la rama automotriz. Por lo tanto solamente resta describir como se divide este artículo de investigación, comenzando por la sección dos, donde se muestra el modelo matemático del vehículo a utilizar con sus dinámicas revisadas, en la parte tres se establecen las simulaciones del comportamiento del modelo matemático del automóvil, y se observa la forma de interconectar el Matlab-Simulink con el CarSim y por último en la parte cuatro se describen las conclusiones y finalizando con las referencias para este artículo.

Modelo Matemático del Vehículo El modelo dinámico (Figura 1) presentado en esta sección es usado en las simulaciones numéricas para estimar valores del automóvil. En ecuación (1), se muestra el modelo matemático del vehículo utilizado para la simulación numérica, en el cual se considera tres grados de libertad; la velocidad longitudinal, la velocidad lateral y la velocidad angular yaw, donde pueden ser expresadas usando el llamado modelo de la bicicleta (Ackermann, Guldner, Steinhausner y Utkin, 1995);

Donde m,jz son la masa y la inercia del vehículo con respecto al eje perpendicular, lf,lr son las distancias desde el centro de gravedad del vehículo (CG) a la llanta frontal y trasera, ax,ay son la aceleración longitudinal y lateral, vx,vy son las velocidades longitudinal y lateral del CG, ωz es la velocidad angular yaw, μ es el coeficiente de fricción. Además F(f,y),F(r,y) son las fuerzas lateral frontal y traseras de las llantas y se supone que se tiene un coeficiente de fricción alto entre las llantas y el suelo.

Figura 1. Modelo no lineal de la bicicleta.

Revista Científica

45


De (1) se obtiene el sistema dinámico;

Este modelo describe las dinámicas del vehículo bajo las siguientes consideraciones: - Dinámica pitch no considerada. - El sistema es rígido. - La suspensión es pasiva. Las aceleraciones longitudinal y lateral ax,ay en (2) pueden ser expresadas en términos de las fuerzas del neumático longitudinal y lateral;

Y pueden ser medidas por acelerómetros usualmente a bordo de automóviles modernos. En donde Ff,x,Fr,x son las fuerzas longitudinales del neumático frontal y trasera. Las fuerzas longitudinal y lateral pueden ser definidas mediante la siguiente fórmula mágica de Pacejka;

Con i=x,y,j=f,r. Las constantes Bj,i,Cj,i,Dj,i en (5) son experimentalmente determinadas (ver Tabla 1). El ángulo de deslizamiento de los neumáticos αf,αr definidos como (Di Cairano, Tseng, Bernardini y Bemporad, 2013);

Figura 2. Ángulo del conductor δd (rad/s).

En este modelo matemático en ecuación (2), la simulación de la velocidad ángular yaw controlada con respecto a un sistema de referencia se puede ver en la Figura 3.

Donde δd el ángulo de la rueda.

Tabla 1. Parámetros reales usados en la simulación del vehículo.

Simulaciones En esta sección el comportamiento del modelo matemático del automóvil se simula (Simulink- Matlab-CarSim), bajo una maniobra ISO 3888-1, también conocida como “double change” con un ángulo δd , que se muestra en la Figura 2.

46

Revista Científica

Figura 3. Velocidad angular de viraje ωz (rad/s).


La simulación de la velocidad lateral controlada con respecto a un sistema de referencia se muestra en la Figura 4.

Figura 6. Programación Simulink-CarSim.

Figura 4. Velocidad lateral vy (m/s).

En la Figura 5, se observa la forma de interconectar el Matlab-Simulink con el CarSim. Como inicio el software CarSim ofrece la siguiente pantalla:

Figura 7. Simulación en software CarSim.

Conclusión

Figura 5. Panel frontal del software CarSim-Simulink. A continuación se trabaja con la programación de los algoritmos del automóvil (análisis matemático), se empiezan a programar los blocks en Simulink, estos valores son los que se utilizan para el modelo matemático del vehículo (ver Figura 6), teniendo en cuenta que se envían al software CarSim para su evaluación como se muestra en Figura 7.

Este trabajo de investigación propone un modelo no lineal de tres grados de libertad para el automóvil, pero aplicando un control activo en Matlab-simulink para obtener las dinámicas del vehículo controladas, considerando una comparación con un modelo de referencia, el cual proporciona las variables del automóvil en condiciones ideales (llantas nuevas, suspensión nueva, etc), todos los algoritmos matemáticos tanto para el controlador como para el sistema de referencia, no se analizan porque lo único que se desea fue presentar el funcionamiento del software CarSim, donde este tiene una aplicación para simulación de los modelos matemáticos de controladores que se diseñan, pudiendo ver si funcionan correctamente en la parte de aplicación física a futuro en el vehículo. También se pueden proponer por diferentes teorías de control observadores para las dinámicas del automóvil y aplicarlas al software CarSim y ver su funcionalidad, pero como conclusión se obtiene que a partir de un modelo matemático sencillo de control se puede realizar aplicaciones al simulador y definir diseños para aplicaciones como pueden ser a direcciones asistidas para la estabilidad y maniobrabilidad en el automóvil. Por ultimo cabe mencionar que este tipo de investigaciones favorecen a que los estudiantes inicien en el campo del diseño automotriz en México, para lograr los centros de investigación que se necesitan en la actualidad.

Revista Científica

47


Símbolos m Masa del vehículo (kg) ___________________________________________________________________________________________ jz Momento de inercia del Vehículo (kg m^2) ___________________________________________________________________________________________ lf,lr Longitud desde el centro del vehículo hacia la llanta frontal y trasera (m) ___________________________________________________________________________________________ vx Velocidad longitudinal (m/s) ___________________________________________________________________________________________ vy Velocidad lateral (m/s) ___________________________________________________________________________________________ ωz Velocidad angular yaw del vehículo (rad/s) ___________________________________________________________________________________________ αf,αr Ángulo de deslizamiento lateral de las llantas frontal y trasero (rad/s) ___________________________________________________________________________________________ δd Componente del ángulo de la llanta impuesto por el conductor (rad) ___________________________________________________________________________________________ ωz Velocidad angular yaw del vehículo (rad/s) ___________________________________________________________________________________________ Ff,y,Fr,y Fuerzas frontal y trasera lateral de las llantas (N) ___________________________________________________________________________________________ Ff,x, Fr,x Fuerzas frontal y trasera longitudinal de las llantas (N) ___________________________________________________________________________________________ ax, ay Aceleración longitudinal y lateral (m/s^2)

48

Revista Científica


Bibliografía + Acosta, C., Di Gennaro, S. y Sánchez Maria., (2016). An Adaptive controller applied to an anti-lock braking system laboratory. Revista DYNA de la Universidad Nacional de Colombia, Vol. 83, 69-77. ISSN # 0012-7353. + Ackermann, J., Guldner, J., Steinhausner, R. y Utkin, V., (1995). Linear and nonlinear design for robust automatic steering. IEEE Transactions on Control System Technology, Vol. 3, No. 1, 132-143. + Baslamisli, S. C., Polat, I. y Kose, I. E., (2007). Gain Scheduled Active Steering Control Based on a Parametric Bicycle Model. IEEE Intelligent Vehicles Symposium, 1168-1173. + Bianchi, D., Borri, A., Di Benedetto, M. D., Di Gennaro, S. y Burgio, G., (2010). Adaptive Integrated Vehicle Control Using Active Front Steering and Rear Torque Vectoring. International Journal of Vehicle Autonomous Systems, Special Issue on: “Autonomous and Semi-Autonomous Control for Safe Driving of Ground Vehicles, Vol. 8, No. 2/3/4, 85-105. + Burgio, G. y Zegelaar, P., (2006). Integrated Vehicle Control Using Steering and Brakes. International Journal of Control, Vol. 79, No. 2, 162-169. + Di Cairano, S., Tseng, H. E., Bernardini, D. y Bemporad, A., (2013). Vehicle Yaw Stability Control by Coordinated Active Front Steering and Differential Braking in the Tire Sideslip Angles Domain. IEEE Transactions on Control Systems Technology, Vol. 21, No. 4, 1236-1248. + Beal Earl, C. y Gerdes Christian, J., (2013). Model Predictive Control for Vehicle Stabilization at the Limits of Handling. IEEE Transac-

tions on Control Systems Technology, Vol. 21, No. 4, 1258-1269. + Heydinger, G. J., Garrott, W. R., Chrstos, J. P. y Guenther, D. A., (1990). Methodology for validating vehicle dynamics simulations. SAE, Paper 900128. + Karbalaei, R., Kazemi, G. R. y Tabatabaei, S. H., (2007). Design of an Integrated AFS/DYC based on fuzzy logic control. IEEE International Conference on Volume Vehicular Electronics and Safety, 1-6. + Malan, S., Borodani, P. y Gortan. L., (1994). Robust performance design for a car steering device. Proceedings of the 33rd IEEE Conference on Decision and Control, 474-479. + Ren, H., Chen, S., Liu, G. y Zheng, K., (2014). Vehicle State Information Estimation with the Unscented Kalman Filter. Advances in Mechanical Engineering, Vol. 2014, 11-20. + Yacine, Z., Ichalal, D., Ait-Oufroukh, N., Mammar, S. y Djennoune, S., (2015). Takagi-Sugeno Observers: Experimental Application for Vehicle Lateral Dynamics Estimation. IEEE Transactions on Control Systems Technology, Vol. 23, No. 2, 754-760. + Zakaria, M., Dwijotomo, A., Azman, M. y Tamaldin, N., (2014). Development Motor Control Unit for Electronic Steering System Test Rig. 2014 IEEE 10th International Colloquium on Signal Processing and its Applications (CSPA), 42-47. + Zhao, L. y Liu, Z., (2014). Vehicle State Estimation with Friction Adaptation for Four-Wheel Independent Drive Electric Vehicle. Proceeding of the 11th World Congress on intelligent Control and Automation, 4527-4531.

Revista Científica

49


Martínez Olguín Mónica1, Cruz Sánchez Aimer Fernanda2, y Ortega Cruz Laura Luz3

Universidad Politécnica de Pachuca Carretera Pachuca-Ciudad Sahagún km 20 Ex Hacienda de Sta. Bárbara Zempoala, Hidalgo, México, C.P. 43830. 1,2,3

monicamo@upp.edu.mx

Recibido: Agosto 28, 2017. Recibido en forma revisada: Noviembre 1, 2017. Aceptado: Mayo 9, 2018.

50

Revista Científica

Resumen: El síndrome de dolor miofascial es el conjunto de signos y síntomas originados en los puntos gatillo miofasciales, los cuales son la parte nodular y más irritable de una banda tensa formada por fibras musculares que afecta al 85% de la población en algún momento de su vida. El objetivo del presente estudio fue determinar la efectividad de la punción seca con ejercicio excéntrico para la resolución del punto gatillo en las fibras superiores del músculo trapecio. El tratamiento se aplicó a una muestra no probabilística de 40 participantes, se empleó el Cuestionario de Dolor de McGill y el inclinómetro digital MICRO Fet-5 como instrumentos antes y después del tratamiento. El abordaje constó de dos sesiones con una diferencia de 14 días entre las aplicaciones. La punción seca consiste en la entrada de la aguja en el punto gatillo, provocando una ruptura de las fibras musculares y generando una respuesta de espasmo local, para este abordaje se provocaron al menos 6 respuestas de espasmo local. Posterior a la punción se realizó ejercicio excéntrico para disminuir el dolor muscular de aparición tardía. El procesamiento se realizó con 34 participantes. De acuerdo con los valores correspondientes a la inicial de dolor (12.28), y la final (5.68), así mismo para desviación estandar inicial (6.04) y desviación estandar final (4.38) puede observarse una considerable disminución de estos valores después de la aplicación del tratamiento. En cuanto al movimiento de


flexoextensión la desviación estandar inicial fue de 15.68 y la σ final de 14.20. Para el movimiento de rotación la desviación estandar inicial fue de 19.03 y la desviación estandar final fue de 17.54. Y para las lateralizaciones la desviación estandar inicial fue 13.16 mientras que la desviación estandar final fue de 11.07. Conclusiones. Se afirma que el tratamiento es efectivo, ya que de acuerdo con el cuestionario de McGill se encontró una diferencia considerable en la disminución del dolor, así mismo se encontró una mejora en la ejecución del movimiento en los tres planos. Consecuente a lo anterior, aumentando el arco de movimiento y disminuyendo el dolor se da resolución al punto gatillo miofascial.

+ Palabras clave: Arco de movimiento cervical, cuestionario de McGill, inclinómetro, punción seca, punto gatillo, síndrome miofascial.

Abstract: Myofascial pain syndrome is the set of signs and symptoms originated from the myofascial trigger points, which are the most irritable part of a tight band formed by muscular fibers that affects 85% of the population at some point in their life. The aim of the present study was to determine the effectiveness of dry needling with eccentric exercise to solve the trigger point in the upper fibers of the trapezius muscle. The treatment was applied to a non-probabilistic sample of 40 participants, using the McGill Pain Questionnaire and the MICRO Fet-5 digital inclinometer as instruments before and after treatment. The approach consisted of two sessions with a difference of 14 days between the applications. The dry needling consists of the entrance of the needle in the trigger point, causing a rupture of the muscular fibers and generating a local spasm response, for this approach were provoked at least 6 responses of local spasm. Subsequent to dry needling, eccentric exercise was performed to reduce late-onset muscle pain. The process was carried out with 34 participants. According to the values corresponding to the initial pain (12.28), and the final (5.68) for the initial estandar desviation (6.04) and final estandar desviation (4.38), a considerable decrease of these values can be observed after the application of the treatment. As for the flex extension movement, the initial estandar desviation was 15.68 and the final estandar desviation was 14.20. For the rotation movement the initial estandar desviation was 19.03 and the final estandar desviation was 17.54. Finally, for the lateralization movement the initial estandar desviation was 13.16 while the final estandar desviation was 11.07. It is stated that the treatment is effective, since according to the McGill questionnaire a considerable difference was found in the decrease of pain, and an improvement in the execution of the movement in the three planes was found. Increasing the range of movement and decreasing pain gives resolution to the myofascial trigger point.

+ Keywords: Cervical range of movement, McGill questionnaire, inclinometer, dry needling, trigger point, myofascial pain syndrome.

Introducción El síndrome de dolor miofascial se define como el conjunto de signos y

síntomas originados en los puntos gatillo miofasciales (PGM), los cuales son la parte nodular y más irritable de una banda tensa formada por fibras musculares. De acuerdo con la hipótesis integrada de David G. Simons, los puntos gatillo son provocados por una cadena de seis pasos que comienza en una disfunción de las placas motoras (Melzack & Wall, 1996), las cuales, por una excesiva secreción de acetilcolina, provocan una contractura muy localizada en las sarcómeras más próximas a la placa motora y un sobreestiramiento de las sarcómeras situadas a ambos lados de la contractura, todo lo cual crea un aumento en la tensión de las fibras musculares afectadas (Baldry, 2005). Esta tensión causa el hallazgo palpable de la banda tensa y provoca hipoxia en la zona, debido a la isquemia localizada (Simons, 2004). Esta isquemia causará sufrimiento de los tejidos (Dommerholt, 2004) por la falta de aporte energético y la consiguiente liberación de sustancias sensibilizantes. El síndrome de dolor miofascial afecta a 85% de la población en algún momento de su vida y afecta cualquier parte del cuerpo en 30 a 93% de la población. La falta de criterios unificados y la ausencia de una prueba diagnóstica dificultan el cálculo de su prevalencia real (Villaseñor, Escobar, De la Lanza y Guizar, 2013). Punción seca se denomina así al uso de la punción, sin la inyección de ninguna sustancia, en el tratamiento de los PGM, actualmente esta modalidad terapéutica constituye, probablemente, el medio más preciso del que se dispone en fisioterapia para el tratamiento de los PGM. El objetivo del presente estudio fue determinar la efectividad de la punción seca con ejercicio excéntrico para la resolución del punto gatillo miofascial en las fibras superiores del músculo trapecio a través de la medición de los arcos de movimiento y el dolor.

Material y métodos Se realizó un estudio cuasi-experimental y transversal en el que la muestra fue no probabilística, constó de 40 participantes con síndrome de dolor miofascial en músculo trapecio en sus fibras superiores con un rango de edad de 20 a 25 años. El estudio se llevó a cabo en las instalaciones de la Universidad Politécnica de Pachuca entre febrero y abril del 2017. Los criterios de inclusión fueron pacientes con síndrome de dolor miofascial en trapecio fibras superiores que consintieron después de explicarles el procedimiento y características del estudio considerando los principios éticos y de bioseguridad basados en la NOM-012-SSA3-2012 que establece los criterios para la ejecución de proyectos de investigación para la salud en seres humanos y la Declaración de Helsinki de la Asamblea Médica Mundial. Los criterios de exclusión fueron pacientes con belenofobia, enfermedades psiquiátricas, vasculares, que estuvieran bajo otro tratamiento de fisioterapia o farmacológico, embarazadas, pacientes con diabetes o epilepsia, alteraciones estructurales a nivel de raquis y fibromialgia.

Para la medición se empleó lo siguiente: + Versión abreviada del cuestionario de dolor de McGill (SF-MPQ), por sus siglas en inglés). La versión original consta de 78 descriptores de los aspectos sensitivos, afectivos y evaluativos del dolor del paciente

Revista Científica

51


y agrupa las palabras en diversas categorías dentro de cada uno de estos aspectos (Melzack, 1975). Sin embargo, la versión abreviada consiste en 15 descriptores (11 sensoriales y 4 afectivos) los cuales se cuantifican en una escala de intensidad donde 0 = sin dolor, 1 = leve, 2 = moderado o 3 = severo (Melzack, 1987). La administración dura inicialmente de 15 a 20 minutos, siendo sólo de 5-10 minutos el re-test.

+ Goniometría. A través del inclinómetro digital Micro FET 5 manufacturado por Hoggan Health Industries, se midió la flexoextensión, lateralizaciones y rotaciones del raquis cervical. El esquema de tratamiento constó de dos sesiones con 14 días de diferencia; se midió el dolor y los arcos de movimiento cervical al inicio y al final de cada sesión. En la aplicación de punción seca se empleó la técnica de entrada y salida rápida de Hong provocando al menos seis respuestas de espasmo local (REL) por cada punto (figura 1), la medida de la aguja fue de 0.25 x 25 mm; el ejercicio excéntrico constó de 10 repeticiones de diez segundos con cinco de reposo (Figura 2). Figura 1. Punción del punto gatillo.

52

Revista Científica


Resultados La muestra inicial constó de 40 pacientes, al finalizar el tratamiento 6 de ellos fueron eliminados por abandono del tratamiento o por ingesta de medicamentos El análisis se llevó a cabo con 34 pacientes de los cuales el 61.76% fueron mujeres y el 38.23% hombres; la media de edad fue 21.05 años. Para la interpretación de los datos se empleó la distribución de frecuencias. En cuanto a la puntuación inicial y final de dolor, se agruparon los datos en cinco categorías: C1:00-09, C2:10-18, C3:19-27, C4:28-36, C5:3745. Dichas categorías consideran la puntuación del Cuestionario de Dolor de McGill que va de 0 a 45 puntos. Figura 2. Ejecución del ejercicio excéntrico.

Revista Científica

53


Se puede observar, de acuerdo a la puntuación inicial de dolor, que la categoría con mayor frecuencia fue la del rango que va de 10 a 18 con 22 pacientes. En cuanto a la puntuación final de dolor la categoría con mayor frecuencia fue la que va de 0 a 09 con 28 pacientes (Figura 3). Con la media inicial (12.28) y media final (5.68), la desviación estándar inicial (6.04) y desviación estándar final (4.38) se demuestra una disminución la puntuación del dolor.

C7:109-126, C8:127-144, C9:145-162, C10:163-180. Dichas categorías consideran la amplitud total de movimiento de rotación según Kapandji (2007) que es equivalente a 180°. Se puede observar que la rotación inicial del día 1, la categoría con mayor frecuencia fue el rango que va de 109° a 126° con 20 pacientes; la rotación final del día 14 la categoría con mayor frecuencia fue el rango que va de 163° a 180° con 21 pacientes (Figura 5). La media inicial del día 1 (122.85°) y media final (142.20°), desviación estándar inicial (19.03) y final (16.26); y en comparación con las medidas correspondientes a la media inicial del día 14 (139°), media final (148°), y desviación estándar inicial (19.93) y desviación estándar final (17.54) podemos demostrar que la rotación cervical aumentó considerablemente; 4 pacientes completaron la amplitud de180° del movimiento en el eje vertical.

Figura 3. Puntuación inicial y final del dolor empleando el cuestionario de McGill.

Para la interpretación de los datos obtenidos de la flexoextensión inicial y final del día 1 y día 14 de aplicación se hicieron 10 categorías: C1: 0-13, C2:14-26, C3:27-39, C4:40-52, C5:53-65, C6:66-78, C7:79-91, C8:92-104, C9:105-117, C10:118-130. Dichas categorías consideran la amplitud total de movimiento equivalente a 130° (Kapandji, 2007). Se puede observar en la flexoextensión inicial del día 1 que la categoría con mayor frecuencia fue la del rango que va de 79° a 91° con 13 pacientes. Mientras que para la flexoextensión final del día 14 la categoría con mayor frecuencia fue la del rango que va de 105° a 117° con 12 pacientes (Figura 4). De acuerdo con las medidas correspondientes a la media inicial del día 1 (86.38°) y media final del mismo día (99.40°) y la desviación estándar inicial (15.68) y desviación estándar final (14.99) se demuestra un aumento considerable de los arcos de movimiento desde la primera aplicación del tratamiento. Así mismo de acuerdo a las medidas correspondientes a la media inicial del día 14 (96.29°) y media final (106.65°) y desviación estándar inicial (14.82) y desviación estándar final del día 14 (14.20) podemos determinar que después de la segunda aplicación del tratamiento se incrementó de manera considerable el movimiento en el eje transversal, incluso en tres casos se alcanzaron los 130°.

Figura 5. Rotación cervical.

Por último, para la interpretación de los datos de lateralización cervical, se utilizó una distribución de frecuencias; agrupando los datos en diez: C1: 0-9, C2:10-18, C3:19-27, C4:28-36, C5:37-45, C6:46-54, C7:55-63, C8:64-72, C9:73-91, C10:82-90. Dichas categorías consideran la amplitud total de movimiento de lateralización equivalente a 90° (Kapandji, 2007). Se observa que en el día 1, la categoría la lateralización inicial con mayor frecuencia fue la del rango que va de 82° a 90° con 10 pacientes; en la lateralización final del día 14, la categoría con mayor frecuencia fue la que va de 82° a 90° con 20 pacientes (Figura 6). La media inicial del día 1 (70.90°), media final (79.40°) y la desviación estándar inicial del día 1 (13.16), desviación estándar final (11.00); y en comparación con las medidas correspondientes a la media inicial del día 14 (74.15°), media final día 14 (80.38) y desviación estándar inicial del día 14 (11.98), desviación estándar final (11.07).

Figura 4. Flexoextensión cervical.

En la distribución de frecuencias para la rotación se hicieron diez categorías: C1: 0-18, C2:19-36, C3:37-54, C4:55-72, C5:73-90, C6:91-108,

54

Revista Científica

Figura 6. Lateralización cervical.


Conclusión Con base en los resultados obtenidos, se demuestra que el tratamiento es efectivo, ya que de acuerdo con el cuestionario de dolor de McGill aplicado a los pacientes antes y después del tratamiento se encontró una diferencia considerable en la disminución del dolor, así mismo al realizar el análisis de los valores correspondientes a la medición goniométrica se encontró una mejora en la ejecución del movimiento en los tres planos. Consecuente a lo anterior, aumentando el arco de movimiento y disminuyendo el dolor se da resolución al punto gatillo miofascial. En la actualidad existen diversos abordajes que se encargan del tratamiento de los puntos gatillo miofasciales, sin embargo, la punción seca, aunque es mínimamente invasiva, es un método efectivo para su resolución, ya que desde la primera sesión de tratamiento se obtiene una mejoría considerable, lo que reduce el tiempo y los costos en comparación con tratamientos convencionales.

Bibliografía + Baldry, Peter (2005). Acupuncture, trigger points and musculoskeletal pain. Livingstone: Elsevier. ISBN # 0443066442, 9780443066443 + Dommerholt J. (2004) Dry Needling In Orthopedic Physical Therapy Practice. Orthopaedic practice, 16, 11-16. ISSN # 1941-7551 + Kapandji (2007), I.A. Fisiología articular tomo 3. Madrid: Panamericana. ISBN # 978-84-9835-60-7

Mayoral del Moral (2004) señala que tras la revisión de la literatura se destaca la falta de estudios que confirmen o descarten una eficacia de las técnicas invasivas superior al placebo y concluye la necesidad de investigación en este terreno, por lo que con esta investigación se aporta evidencia que confirma que la punción seca repercute en la mejora de los pacientes, la cual es medible y comprobable.

+ Melzack, R. (1975) The McGill pain questionnaire: major properties and scoring methods. Pain, 1, 277-299. ISSN # 1872-6623.

Para futuras investigaciones se sugiere la ejecución de una tercera sesión de tratamiento, la cual podría desaparecer el dolor por completo y completar los arcos de movimiento, de igual manera se sugiere que se indique y supervise la realización del ejercicio excéntrico todos los días entre las sesiones de tratamiento.

+ Melzack, Ronald y Wall Patrick D (1996). The challenge of pain. Reino Unido: Penguin. ISBN 9780140256703

+ Melzack R. (1987) The short-form McGill Pain Questionnaire. Pain, 30, 191-197. ISSN # 1872-6623.

+ Mayoral del Moral, O. (2004) Fisioterapia invasiva del síndrome de dolor miofascial. Fisioterapia, 27, 69-75. ISSN # 0211-5638 + Simons DG (2004). Review of enigmatic MTrPs as a common cause of enigmatic musculoskeletal pain and dysfunction. Journal of Electromyography and Kinesiology, 14, 95-107. ISSN # 1050-6411 + Villaseñor, Julio César, Escobar, Víctor Hugo, De la Lanza, Laura Patricia., Guizar, Brenda Irma (2013). Síndrome de Dolor Miofascial, Epidemiología, Fisiopatología, Diagnóstico y Tratamiento. Revista de Especialidades Médico-Quirúrgicas, 18, 148-157. ISSN # 1665-7330

Revista Científica

55


Angélica Murillo Ramírez1, María del Rosario Moreno Fernández2 y Álvaro Flores Osorio3

Instituto Tecnológico Superior de Tierra Blanca Av. Veracruz S/N Esquina Héroes de Puebla. Col. PEMEX, Tierra Blanca, Veracruz, México C.P. 95180 1,2,3

a_17_mr_@hotmail.com chayayin74@hotmail.com alvarito1o@hotmail.com

Recibido: Agosto 26, 2017. Recibido en forma revisada: Octubre 18, 2017. Aceptado: Mayo 9, 2018.

56

Revista Científica

Resumen: Desarrollar investigación aplicada dentro de las instituciones educativas permite a los docentes investigadores diseñar e implementar sistemas de control de nivel de líquidos en tanques verticales conectados en serie, logrando con ello medir los niveles y llevar un registro de las distintas presiones que se presentarán durante la retroalimentación del líquido que pasa por medio de los tanques con la ayuda de una electroválvula; el sistema permite registrar las distintas presiones, así como medir uno de los tanques, al activar el sistema. Con ésta investigación los alumnos de la carrera de Ingeniería en Electrónica realizarán prácticas similares a los procesos industriales, de tal modo que se vaya familiarizando con los procesos industriales de automatización y control, desarrollando prácticas acerca de control de nivel de líquidos, utilizando un controlador lógico programable y la tecnología de vanguardia que se oferta en el mercado.

+

Palabras clave: Control automático, nivel, electroválvula.

Abstract: Developing applied research within educational institutions allows researcher teachers to design and implement liquid level control systems in vertical tanks connected in series, thereby achieving levels and keeping track of the different pressures that will be presented during the feedback of the liquid that passes through the tanks with the help of


an electrovalve; The system allows to register the different pressures, as well as to measure one of the tanks, when activating the system. With this research the students of the course of Electronics Engineering will carry out similar practices to the industrial processes, in such a way that it becomes familiar with the industrial processes of automation and control, developing practices about liquid level control, using a programmable logic controller And cutting-edge technology being offered in the market.

+ Keywords: Automatic control, level, solenoid valve. Introducción Esta investigación versa sobre el enfoque de las tendencias educativas actuales y emergentes en la formación académica superior, con énfasis en la aplicación de conocimientos a situaciones concretas para resolver problemas reales, la gestión de información e interacción entre diversos campos de estudio, el trabajo interdisciplinario y colectivo, el manejo de tecnologías de la información y la comunicación, las técnicas autodidactas y la reflexión ética, para el desarrollo de competencias profesionales en los estudiantes inscritos en las instituciones del Sistema Nacional de Instituciones Tecnológicas, con base en ello el desarrollo del proyecto de investigación coadyuva en la formación profesional de los alumnos de la carrera de ingeniería en electrónica, contribuyendo de tal forma que los futuros profesionistas puedan diseñar, modelar, implementar, operar, integrar, mantener, instalar, administrar, innovar y transferir tecnología electrónica existente y emergente en proyectos interdisciplinarios, para resolver problemas y atender las necesidades de su entorno con ética, actitud emprendedora, creativa, analítica y comprometidos con el desarrollo sustentable. Durante el transcurso de la carrera de ingeniería en electrónica los alumnos deberán integrar todas las capacidades cognitivas, actitudinales y éticas con el fin de fortalecer sus habilidades competitivas; es importante que los alumnos desde los primeros semestres tengan contacto directo con tecnología de punta, de tal modo que puedan identificar los avances que van surgiendo en el área de la electrónica, misma que deben de identificar para estar actualizados constantemente, es por ello se realizó un Sistema Modular de Control de Nivel de Líquidos en Tanques Verticales conectados en serie con Retroalimentación a través de Electroválvula que les permitan fortalecer su desarrollo cognitivo y práctico. Indiscutiblemente las prácticas que los alumnos de las carrera de ingeniería en electrónica deben de realizar, como parte de su formación académica, es dentro del campo laboral por medio de este proyecto se le brinda a los alumnos una alternativa para iniciar con las prácticas iniciales, mismas que en un futuro realizarán en la industria, con el desarrollo de este proyecto de investigación da la oportunidad a los alumnos de la carrera de Ingeniería en Electrónica de incursionar en la práctica de manera segura y paulatina, con los recursos propios dentro del laboratorio de electrónica del Instituto Tecnológico Superior de Tierra Blanca.

Metodología Existen diversos tratados sobre las tipologías de la investigación. Las controversias para aceptar las diferentes tipologías sugieren situaciones

confusas en estilos, formas, enfoques y modalidades. De acuerdo con el desarrollo de éste proyecto de investigación se empleó el método de investigación aplicada confirmatoria debido a las características el proyecto, porque se explica el por qué se utiliza el fenómeno, para éste proyecto el fenómeno a explicar fue el control de los niveles de líquidos en tanques verticales conectados en serie, así como el mismo método utilizado para el proyecto se fundamentó en las aproximaciones teóricas sobre el uso de retroalimentar los niveles de líquidos por medio de una electroválvula, finalmente utilizando el método aplicada confirmatoria se utilizaron diversas situaciones por medio de la fuerza y basado en el nivel de medición y análisis de la información; así mismo el proyecto es una investigación cuantitativa, debido a que es secuencial y probatorio. Cada etapa precede a la siguiente sin saltarse una etapa (Hernández-Sampieri, 2010), el enfoque cuantitativo tiene su origen en otro pionero de las ciencias sociales: Max Weber (1858-1920), quien introduce el término “verstehen” o “entender”, con lo que reconoce que además de la descripción y medición de variables sociales, deben considerarse los significados subjetivos y la comprensión del contexto donde ocurre el fenómeno. El enfoque cuantitativo tiene ciertos procesos que nacen desde la idea, planteamiento del problema, marco teórico, etcétera. Al ser una investigación aplicada confirmatoria se integra la experiencia de investigación con propósitos de resolver o mejorar una situación específica o particular, para comprobar un método o modelo mediante la aplicación innovadora y creativa de una propuesta de intervención, en este caso permiten al alumnado ejercer diversas prácticas, donde podrá interactuar con sensores, válvulas de control, variadores de velocidad, bombas monofásicas, trifásicas, elementos de control, etc., realizar pruebas que lo lleven hasta la obtención de un modelo matemático del cual pueda obtener los resultados mucho antes de introducir las variables en dicho sistema de control.

Algunas variables que el alumno puede manipular en el prototipo ya terminado: Caudal (Q): Volumen de líquido elevado por la bomba en la unidad de tiempo; es independiente del peso específico y variable al bombear líquidos de viscosidad superior a la del agua. Presión Atmosférica (Pa): Fuerza ejercida por la atmósfera por unidad de superficie. Presión Relativa O Efectiva (Pr): Es la presión medida con relación a la presión atmosférica. Los manómetros miden presiones positivas. Los vacuómetros miden presiones negativas. Presión Absoluta (Pabs): Es la presión por encima del cero absoluto (vacío perfecto) Pabs = Pa + Pr

(1)

Resolución El módulo consta de dos depósitos de líquido que se encuentran en forma vertical, conectados en serie, mediante tubería y “válvulas de control”, uno funciona como tanque cisterna y el otro como tanque elevado. El agua se lleva de la cisterna al tanque mediante una bomba trifásica controlada por un variador de frecuencia y a través de la tubería, en la cual

Revista Científica

57


se encuentran instalados, una válvula de control, dicha válvula abrirá total o parcialmente para variar el flujo de líquido que pasará a través de ella, un rotámetro, de acuerdo con el autor Creus Solé (2010), es un medidor de caudal de área variable, en el cual un flotador cambia su posición dentro de un tubo, proporcionalmente al flujo del fluido; y un sensor de turbina el cual consisten en un rotor que gira al paso del fluido con una velocidad directamente proporcional al caudal para monitorear el caudal de entrada hacia el deposito superior (Creus Solé, 2010). Es necesario indicar que para conocer el nivel del tanque se utiliza un sensor ultrasónico, el tipo de sensor utilizado en la aplicación es el HC-SR04, para calcular la distancia de un objeto que envía ondas sonoras ultrasónicas a otro objeto y mide el tiempo que tarda en volver al sensor. El sensor envía aproximadamente ocho pulsos de 40 kHz y espera a que en un objeto reboten las ondas de regreso al receptor, provocando la emisión de un impulso alto proporcional al tiempo que se tarda en enviar y recibir las ondas de sonido. Para utilizar el sensor, se genera un tren de impulsos continuo mediante una tarea de salida de contador con un tiempo alto y un tiempo bajo establecido. Un envío de pulsos de 100 uS en la línea TRIG, activa el módulo HC-SR04, para iniciar el envío de los impulsos ultrasónicos seguido de un tiempo de 100 ms bajo. Se envía un voltaje alto en la línea ECHO hasta que las ondas acústicas vuelven al receptor (National Instruments Corporation, 2015). El sensor ultrasónico indicará la distancia a la que se encuentra el nivel del agua, para que después, conectado a una tarjeta Arduino Uno, pueda traducir la información de tal manera que se indique perfectamente el nivel del líquido dentro del tanque, y hacer más fácil la conversión de la señal digital a una señal analógica que varía entre 0 y 5 volts, calibrada apropiadamente de acuerdo a las dimensiones del depósito. El agua se retorna a la cisterna por medio de la tubería y se regula el caudal de salida con otra válvula de control. Ambas válvulas de control se consideran de tal forma, ya que son adaptadas y operadas por medio de servomotores, los cuales accionan las palancas de cada una de las válvulas manuales tipo globo. Para que el prototipo entre en funcionamiento, puede ser de dos formas distintas; la primera es de forma automática, para lo cual las tarjetas Arduino Uno funcionan como esclavo del controlador principal, éste controlador no es más que un sistema integrado de hardware y software para aplicaciones de control industrial, monitoreo remoto, adquisición de datos e Internet de Cosas IoT (Colmer, 2017). Mediante el software de OPTO 22 SNAP PAC, se programan las estrategias de control para realizar el control PID; el alumno debe poner en práctica los conocimientos adquiridos en las clases y desarrollar las soluciones a las problemáticas indicadas por el docente, para lo cual podrá manipular el sistema a su disposición y creará el código necesario para que el sistema pueda comportarse como un control: todo o nada, proporcional, derivativo, integral, o la combinación de los últimos tres (Creus Solé, 2010). Los alumnos de la carrera en electrónica podrá interactuar con el Sistema de control de nivel de líquidos en tanques verticales conectados en serie con retroalimentación a través de electroválvula al momento de realizar prácticas en el laboratorio, simulando una práctica en la industria sin problema con el prototipo, apoyándose en el diagrama de control que se muestra en la Figura 1, así como una interface virtual para monitorear de manera remota el funcionamiento del proceso.

58

Revista Científica

Figura1. Diagrama de control.

Virtualmente, se puede observar el estado de cada tanque, la cantidad de agua que contienen, el porcentaje de almacenamiento; el momento en que uno de los tanques se llene y el otro tanque se vacíe, al cambiar éstos de color en pantalla; en verde y rojo, respectivamente. En la Figura 2, se muestra un ejemplo del proceso cuando el sistema se encuentra activado y el diagrama de flujo que dio solución a dicha aplicación.

Figura 2. Monitoreo del sistema activo.

Otra forma en que opera el dispositivo es manualmente, para ello el usuario debe ajustar todas las variables, logrando así que el sistema se encuentre controlado. La forma en que se elige cualquiera de las dos opciones, es modificando el estado del interruptor que se encuentra en el panel de control, justo al lado del diagrama del variador de frecuencia, donde indica si el equipo será manipulado de forma automática o manual.


Resultados El comportamiento del sistema es de forma lineal, ahora se presentan algunos datos adquiridos al momento de calibrar el sensor de turbina; dicha información fue indispensable para poder visualizar la lectura del sensor y así hacer una comparación con la lectura del marcador de presión de la bomba.

Tabla 1. Relación de voltajes y presión

En la Tabla 1, se exhibe la relación que existe entre los voltajes suministrados al servomotor; para así lograr abrir la válvula de llenado; con el voltaje medido en la salida del convertidor Analógico-Digital (ADC) que permite pasar de corriente a voltaje la señal proveniente del sensor de turbina. Se puede interpretar a simple vista que, hay una relación entre el voltaje que sale del ADC, con la presión medida por el marcador.

Figura 3. Gráfica de comparación entre llenado y vaciado de los tanques.

La gráfica de la Figura 3, expone visualmente la diferencia que existe entre el llenado y el vaciado del tanque principal; el llenado es más rápido porque en él influye la bomba. Por otro lado, el tiempo que tarda éste mismo depósito en drenar el agua en su totalidad es de 2 minutos más; debido a que sólo actúa en el líquido la fuerza de gravedad.

Conclusiones

Tabla 2. Tiempo de llenado del tanque principal.

Según la información contenida en la Tabla 2, se deduce que: a mayor cantidad de voltaje suministrado al servomotor de la válvula de llenado, menor es el tiempo que tarda en saturarse el depósito superior. Según lo mostrado en la tabla 3, se aplica el mismo análisis; mientras mayor sea el voltaje proporcionado al servo de vaciamiento, menor será el tiempo que tarde el recipiente 1 en su desprendimiento del agua.

Tabla 3. Tabla de vacío.

Para una interpretación más clara acerca de los resultados, se muestra la gráfica de la Figura 3, en la que se observa el comportamiento lineal del sistema. Dicha gráfica nos indica en el eje de las abscisas se observa el voltaje y en el de las ordenadas, el tiempo. Función azul nos muestra de qué forma se va vaciando el depósito y la roja el llenado.

El proyecto de Sistema de Control de Nivel de Líquidos en Tanques Verticales Conectados en Serie con Retroalimentación a través de Electroválvula logró la simulación de un proceso industrial real, como lo es un sistema de depósitos (llenado y drenado), en donde los alumnos obtiene parte del aprendizaje con el que cuenta un trabajador con experiencia laboral en el ámbito industrial, además de poder contribuir con el laboratorio de automatización y control de la carrera de ingeniería en electrónica para que los alumnos realicen prácticas. El actual diseño e implementación de éste módulo de control de nivel, mide y registra las distintas presiones presentada en él; además de medir nivel en uno de los tanques, al activar el sistema. En un futuro se puede dar continuidad e implementar también un circuito que mida velocidad y temperatura para lograr un proyecto más completo y más cercano a un sistema de control industrial midiendo presión, nivel, velocidad y temperatura. Básicamente el opto 22 es un controlador muy completo en su categoría, ya que antes de su adquisición se llevaba la tarea de investigar su funcionabilidad y su amplia gama en la industria laboral, se comparó con todos los equipos de su ramo en el mercado, y es el de mayor confianza comprobable ya que nos encontramos con que todas las empresas que lo habían adquirido tenían éxito con el equipo, desafortunadamente muy pocas empresas tienen el beneficio de utilizarlo.

Agradecimientos

Agradecemos al Instituto Tecnológico Superior de Tierra Blanca, en el estado de Veracruz, por todas las facilidades brindadas para la realización del proyecto, así como las facilidades para la elaboración de éste artículo.

Revista Científica

59


60

Revista CientĂ­fica


Bibliografía + Acedo Sánchez, J. (2006). Instrumentación y Control Básico de Procesos. España: Díaz de Santos. + Colmer, J. (2017). Opto 22 IoT Certified System Integrators Bridge the OT/IT Gap. Obtenido de: http://documents.opto22.com/2230_Press_Release_ Opto_22_Announces_IoT_Certified_Partners.pdf + Creus Solé, A. (2010). Instrumentación Industrial. México: Alfaomega + Golnaraghi, F. y Kuo, B.C. (2012). Automatic Control System. Estado Unidos: Wiley. + Hernández Sampieri, R. y Hernández Collado, C. (2010). Metodología de la Investigación. México: Mc Graw Hill. + National Instruments Corporation. (2015). Obtenido de: https://forums.ni.com/t5/Example-Program-Drafts/LabVIEW-DAQ-Ultrasonic-Distance-Measurement-with-HC-SR04-4/ta-p/3521195 + Ramón P. Oscar C. Ramón B. (2009). Sensores y Acondicionadores de Señal. México: Alfaomega. + Universidad Nacional de Córdoba. Transductores y sensores. Obtenido de: http://www.efn.uncor.edu/etc/ liade/Docencia/programasensores.pdf + Vásquez, A. (2014). Modelado, Simulación y Control de Nivel de Altura para Modulo de Unidad Didáctica RT614 Gunt Hamburg.

Revista Científica

61


Luz M. Hernández Maldonado1, Oscar G. Martínez Moreno2, Abraham O. Martínez Olivo3, Francisco F. Razura Carmona4 y Sonia G. Sáyago Ayerdi5

Tecnológico Nacional de MéxicoInstituto Tecnológico de Tepic. Av. Tecnológico 2595, CP 63175 Tepic, Nayarit, Mexico. (311)211-94-00 ext. 234. 1,2,3,4,5

sonia.sayago@ittepic.edu.mx

Resumen: Un alimento funcional (AF) se define como, aquellos alimentos que además de nutrir brindan un beneficio a la salud. En México, no se cuenta con una organismo gubernamental (OG) que integre, defina y regule este tipo de alimentos. Se realizó una encuesta a personas vinculadas al área de Nutrición/Alimentos, en la cual, el 87.5% de los encuestados afirmó que un AF brinda un beneficio a la salud. El 48% considera que la función de un AF está relacionada con la prevención de enfermedades y el 52% considera que un AF cura enfermedades. En la comunidad científica el concepto AF es ampliamente utilizado. En otros países la regulación que existe para considerar un AF es clara y estricta, por lo que se considera muy importante que en México se establezca un conceso entre industriales, academia y OG para incorporar el concepto de AF en la población en general.

+

Palabras clave: Alimento funcional, declaraciones en salud, legislación, México.

Recibido: Agosto 23, 2017. Recibido en forma revisada: Septiembre 29, 2017. Aceptado: Mayo 9, 2018.

62

Revista Científica

Abstract: A functional food (FF) is defined as, those foods that have beneficial effects on target functions beyond nutrition. In Mexico, any government agency (GA) integrates, defines and regulates this type of food. A survey was conducted among people linked to the Nutrition / Food Sciences, in which 87.5% of those surveyed stated that a FF provides a health benefit, 48% consider that the function of a FA is related to the


prevention of diseases and 52% consider that a FA cures diseases. In the scientific community the FF concept is widely used. In other countries, the regulation that exists to consider a PA is clear and strict, so it is considered very important that in Mexico a relationship between industrialists, academia and GO is established to incorporate the concept of FF in the general population.

situación actual y las perspectivas que guarda el concepto de alimento funcional en México.

+ Keywords: Functional food, declarations in health, legislation, México.

En la segunda mitad del siglo XX, los acontecimientos políticos y socioeconómicos en países desarrollados dieron lugar a un suministro de alimentos más seguros y abundantes, debido a esto, la esperanza de vida aumentó y al mismo tiempo, se observó un aumento de varias enfermedades crónicas, las cuales están vinculadas a factores dietéticos y al estilo de vida. Como consecuencia de esto, la Organización Mudial de la Salud (OMS) en conjunto con la Administración de Alimentos y Medicamentos (FDA, por sus siglas en inglés), la cual es una agencia gubernamental responsable de regular y garantizar la seguridad de los alimentos, dieron a conocer 4 factores epidemiológicos: dieta pobre, inactividad física, alto consumo de tabaco y alcohol; como algunas de las principales causas del incremento de este tipo de enfermedades. Es por ello que, existió un sector tanto académico como de industriales interesados en el desarrollo de alimentos y dietas saludables para la prevención de enfermedades relacionadas con la alimentación, lo que llevó al desarrollo de la industria de los alimentos funcionales (Verhagen, Heinonen y Loveren, 2010).

Introducción En la actualidad los consumidores están cada vez más conscientes de su alimentación prestando especial atención a las propiedades saludables de los alimentos que consumen. Además, el consumidor busca información acerca de la acción y/o beneficios que ejercen los ingredientes de los alimentos sobre algunos procesos fisiológicos. Un alimento funcional (AF) se define, como aquel alimento que además de nutrir brinda beneficios para la salud y tiene la particularidad de reducir el riesgo de padecer alguna enfermedad. El concepto de AF surgió en Japón a principios de la década de los 80’s , ya que el ministerio de salud se mostró preocupado por los elevados gastos en salud de la población japonesa con larga expectativa de vida; creando así un marco regulatorio que actualmente se conoce como alimentos para uso específico en salud (FOSHU, Foods for Specified Health Use) favoreciendo el desarrollo de este tipo de alimentos. A partir de entonces existe una variedad de definiciones al concepto de AF que son generadas por distintos organismos gubernamentales en los diferentes países; como es el caso de la Administración de Alimentos y Medicamentos (FDA, Food and Drug Administration) de Estados Unidos o la Comisión de Acción Concertada Europea en Ciencia de los Alimentos Funcionales (FUFESA, European Concerted Action Commission on Functional Food Science in Europe) en la Unión Europea, sin considerar otras agencias reguladoras de otros países. De tal manera que, la definición de AF emitidas por cada organismo es generada a partir de las leyes sanitarias por las que dichos organismos se rigen, lo que permite que, en general, que diversos alimentos puedan cumplir con las condiciones de la definición y lo que permite que cada país maneje su propio concepto de AF, es por ello que el término AF deja de ser específico (Olagnero, Genevois, Irei, Marcenado y Bendersky, 2007) y se vuelve un término global. Hoy en día, no se tiene una definición universal lo suficientemente clara para el concepto de AF por lo que, dichas agencias en los diferentes países han implementado declaraciones en salud (Health Claims) para referirse a este tipo de alimentos. En el caso específico de México, el estado actual del término AF no se encuentra definido por lo que la regulación para su desarrollo es considerada endeble ya que organismos como la Comisión Federal para Protección contra Riesgos Sanitarios (COFEPRIS) la cual depende de la Secretaria de Salud (SSA) son consideradas como las dependencias competentes, tampoco manejan un término para AF. En el ámbito académico, existe una gran cantidad de trabajos que se centran en este concepto con diversos enfoques, por lo que puntualizar el panorama de cuál es el estado actual del concepto de AF en México, se considera de interés hoy en día ya que representa un atractivo campo de análisis fomentando a su vez el reconocimiento del concepto y sus nichos de aplicación a nivel regional. El objetivo de este trabajo fue presentar un punto de vista acerca de la

Origen del concepto de alimento funcional (AF)

Durante la década de los 80’s en Japón surgió el concepto de AF, debido a la necesidad de conocer la relación entre nutrición y salud. Este concepto se utilizó para referirse a los alimentos enriquecidos que brindaban efectos fisiológicos saludables (Valenzuela, Valenzuela, Sanhueza y Morales, 2014). La definición de AF fue promovida por científicos japoneses que estudiaron la relación entre nutrición, aceptación sensorial, fortificación y expresión de marcadores biológicos en humanos. En 1991, se introdujeron Normas para la aprobación de una categoría de alimentos relacionados con la salud, llamada Alimentos de Uso Específicos a la Salud (FOSHU, por sus siglas en inglés) que indicaban la implementación de alegaciones en salud (Health Claims) para referirse a ese tipo de alimentos (Verhagen, Heinonen y Loveren, 2010). Sin embargo; hasta esa fecha no se había desarrollado una definición clara para el concepto de AF (Meléndez, González y Álvarez-Dardet, 2013). De igual manera, este tipo de declaraciones fueron introducidas en Estados Unidos, Unión Europea y el resto del mundo, sin embargo; éstas no eran una definición oficial para el concepto de AF. Por lo tanto el proyecto de la Unión Europea (EU-project) desarrolló una adecuada definición para referirse a estos alimentos como: “Un alimento que puede considerarse funcional si se demuestra científica y satisfactoriamente que beneficia una o más funciones objetivas en el cuerpo, más allá de los efectos nutricionales adecuados, de manera que sea relevante un bienestar y mejora a la salud o la reducción del riesgo de una enfermedad” (CODEX Alimentarius, 1979). El crecimiento significativo de los alimentos procesados funcionales replanteó el papel de los organismos reguladores de su comercialización a nivel internacional. Por tanto, fue urgente definir normas específicas que permitieran un óptimo desarrollo de este mercado, en función de las regulaciones del etiquetado nutricional y la educación al consumidor. En respuesta a esto, se creó la “Comisión de Acción Concertada Europea en Ciencia de los Alimentos Funcionales en Europa” (FUFESA, siglas en inglés), coordinada por el Instituto Europeo de Ciencias de la Vida (ILSI,

Revista Científica

63


siglas en inglés). Uno de los mayores aciertos de FUFESA fue establecer una red europea multidisciplinaria que proporcionara evidencia científica de la presencia de nutrientes que afectan positivamente las funciones fisiológicas y reducen el riesgo de ciertas enfermedades (Howlett, 2008). En 2002 la creación de la FUFESA representó la solución lógica de continuidad de comités científicos precursores de los AF, los cuales deben contar con las siguientes características: formar parte de la dieta diaria, estar presente en la composición del alimento de manera natural, y deben ser probados científicamente sus efectos fisiológicos en el alimento considerado como funcional (Juárez-Barroso, 2014). En el caso de Estados Unidos, la FDA, no posee una definición formal para AF. Las regulación de este tipo de alimentos dependen de cómo el fabricante decida comercializar el producto alimenticio para el consumidor (FDA, 2000) quedando sin específicar de manera detallada cuales son los requisitos necesarios para considerar que un alimento pueda ser llamado AF.

Estado actual de los alimentos funcionales (AF) en Europa, Estados Unidos y México En diciembre de 2006, la Unión Europea publicó su Reglamento 1924/2006 sobre las declaraciones nutricionales y sanitarias para alimentos elaborados. En lo que se refiere a la evaluación científica, el proyecto EU-PASSCLAIM dio lugar a un conjunto de criterios para la fundamentación científica de las declaraciones en salud sobre los alimentos. La autoridad europea de seguridad alimentaria proporciona el asesoramiento científico a la Comisión Europea en este ámbito sometidas al Reglamento 1924/2006 (Verhagen, Heinonen y Loveren, 2010). Los principios generales de la Regulación 1924/2006 son que las declaraciones: (1) no sean falsas, ambiguas ni engañosas; (2) que no den lugar a dudas en cuanto a la seguridad de la suficiencia nutricional de otros alimentos; (3) no alientan o limitan el consumo en exceso de un alimento; (4) no indiquen ni sugieren que una dieta balanceada y variada no puede proveer cantidades apropiadas de nutrientes en general; (5) no se referirán a cambios en las funciones corporales que podrían crear o explotar el miedo en los consumidores (ILSI Europe, 2006). En el caso de Estados Unidos, la Ley Federal de Alimentos, Medicamentos y Cosméticos (FFDCA, por sus siglas en inglés) requiere que el fabricante, empaquetador o distribuidor que desee comercializar un suplemento dietético, notifique a la FDA la declaración en la etiqueta o en el etiquetado de su producto, de acuerdo con la Sección 403 (r) (6) de la Ley. Establece que un suplemento dietético puede contener ciertas indicaciones en su etiqueta o en su etiquetado. Las entidades que formulan las declaraciones deberán tener la prueba de que tal declaración es veraz, no engañosa y contará con la advertencia estándar (403 (r) (6) (C)) (FDA, 2016). El Acta Suplementaria en Salud y Educación Dietaria (DSHEA por sus siglas en inglés), permite sin necesidad de pasar por aprobación 3 tipos de declaraciones, que deben cumplir con los siguientes requisitos: 1) la declaración debe ser verdadera, no debe ser tendenciosa y pueda ser documentada; 2) una declaración seguida de un comentario, donde se especifique que la FDA “no respalda la declaración”; 3) que la substancia no es un medicamento. Estas declaraciones deben estar relacionadas únicamente con la comprobación de la función fisiológica y la estructura.

64

Revista Científica

Los alimentos pueden poseer declaraciones sobre estructura/función, pero estas declaraciones deben estar hechas en base al nutriente que contienen y en base a la Dosis Diaria Recomendada ejemplo: Calcio en leche, potasio en jugo de naranja. Es importante hacer notar en una declaración nutrimental de un alimento funcional, que: a) la declaración nutrimental puede ser una declaración escrita o una figura que implique una declaración, como un corazón; b) está prohibido hacer declaraciones en relación a que cura únicamente, que puede haber relación o ser preventivo; c) en caso de suplementos, se marca un porcentaje (%) de suplemento mínimo recomendado, que debe ser por arriba del 10 % de la ingesta diaria recomendada (IDR) (NCCIH, 2016). En el caso de la legislación de alimentos funcionales en México, primeramente; cabe mencionar que la Comisión Federal para Protección contra Riesgos Sanitarios (COFEPRIS), dependencia encargada en la normatividad en alimentos, sostiene que, no existe un término para el concepto de AF, ya que, estos productos que ofrecen algún beneficio a la salud, se clasifican en la categoría de “Producto Milagro”, los cuales no pueden ser distribuidos por no contar con sustento científico ni clínico suficiente, sólo existe normatividad para alimentos procesados los cuales se definen como: “aquellos productos con valor agregado en su proceso de producción, que cumple con los requerimientos de sanidad, empacado y etiquetado para su comercialización libre en el país”. En ese sentido, existe un vacío legal para el concepto de AF, donde además de clasificarlos en un concepto para el cual no existe una definición. En contraparte, en el ámbito académico, muchos grupos de investigación en México, tienen especial interés en el desarrollo, estudio y análisis de alimentos con propiedades funcionales. Por su lado, la Secretaria de Salud (SSA), quien depende de la COFEPRIS, tampoco maneja un término para AF y prueba de ello es el artículo 215 de la Ley General de Salud que define como (SSA, 2017):

a) Alimento: a cualquier substancia o producto, sólido o semisólido, natural o transformado, que proporcione al organismo elementos para su nutrición. b) Bebida no alcohólica: cualquier líquido, natural o transformado, que proporcione al organismo elementos para su nutrición. c) Materia prima: Substancia o producto de cualquier origen, que se use en la elaboración de alimentos y bebidas no alcohólicas y alcohólicas. d) Aditivo: cualquier substancia permitida que, sin tener propiedades nutritivas, se incluya en la formulación de los productos y que actúe como estabilizante, conservador o modificador de sus características organolépticas, para favorecer ya sea su estabilidad, conservación, apariencia o aceptabilidad. e) Suplementos alimenticios: Productos a base de hierbas, extractos vegetales, alimentos tradicionales, deshidratados o concentrados de frutas, adicionados o no, de vitaminas o minerales, que se puedan presentar en forma farmacéutica y cuya finalidad de uso sea incrementar la ingesta dietética total, complementarla o suplir alguno de sus componentes. El Artículo 216 de la Ley General de Salud (SSA, 2017) señala que la SSA, con base en la composición de los alimentos y bebidas, determinará los productos a los que puedan atribuírseles propiedades nutritivas parti-


culares, incluyendo los que se destinen a un régimen especial de alimentación. Cuando la misma Secretaría les reconozca propiedades terapéuticas, se considerarán como medicamentos. Los alimentos o bebidas que se pretendan expender o suministrar al público en presentaciones que sugieran al consumidor que se trate de productos o substancias con características o propiedades terapéuticas, deberán en las etiquetas de los empaques o envases incluir la siguiente Leyenda: “Este producto no es un medicamento”, escrito con letra fácilmente legible y en colores contrastantes. Sin embargo, estos productos pueden estar regidos legalmente por medio de la SSA utilizando normas oficiales como la Normal Oficial Mexicana NOM-086-SSA1-1994, elaborada en colaboración con otros Organismos e Instituciones: Instituto Politécnico Nacional, Universidad Nacional Autónoma de México, Coca Cola de México, S.A. de C.V., Compañía Nestlé, S.A. de C.V., entre otros. De esta manera y en función a lo anteriormente mencionado, en la actualidad no existe en México una definición oficial o legal para los AF ni un reglamento específico para los alimentos/ingredientes funcionales; generalmente la declaración del contenido de nutrientes básicos/función se permiten referenciados bajo algunas normas oficiales como es el caso de la NOM-051-SCFI/SSA1-2010 quien regula el etiquetado y algunas declaraciones de propiedades referentes a las cualidades especiales por su origen, propiedades nutrimentales, naturaleza, elaboración, composición u otra cualidad cualquiera de un alimento o bebida no alcohólica preenvasada (Flores, Ordaz y López, 2007). Sin embargo, es importante dado el interés del consumidor y de la comunidad científica, hacer un mayor hincapié con las autoridades correspondientes acerca del concepto de AF.

Desarrollo y validación de los alimentos funcionales (AF) En el desarrollo de los AF, es necesario aplicar una serie de ensayos científicos que permitan asegurar que las propiedades beneficiosas que pueden llegar a aportar este tipo de alimentos no son únicamente por azar y menos aún para clasificarse como un “Producto Milagro”. Las evidencias que deben existir a favor de las propiedades funcionales, deben ser estudiadas con todo el rigor científico. En la Figura 1, se presenta un esquema general de los pasos que mínimamente deben considerarse para poder nombrar un alimento como funcional. Primeramente, se requiere la caracterización del compuesto bioactivo, del ingrediente considerado con propiedades funcionales, desarrollo del alimento y evaluación del mismo. Posteriormente, se requieren ensayos de laboratorio tanto in vitro para garantizar que el ingrediente en función se encuentra bioaccesible y biodisponible en el organismo, como ensayos con líneas celulares que brindan información importante al respecto y ensayos in vivo, con animales de experimentación que demuestren el efecto beneficioso que se espera, para finalmente; llevar a cabo ensayos clínicos que permitan evaluar los efectos esperados. Nunca un solo ensayo podrá determinar que el efecto beneficioso de un ingrediente considerado como funcional lo es, hasta que existan los suficientes elementos científicos que puedan sustentar dichos hallazgos. Por tanto, aunque es un área de mucho interés en la comunidad académica, es necesario que se puedan ejercer acciones conjuntas por parte de la academia, empresas y organismos gubernamentales encargados de la legislación, que brinden certidumbre al consumidor y que permitan que este grupo de alimentos pueda ser considerado en la legislación.

Figura 1. Validación de las propiedades saludables de un AlimentoFuncional.

El concepto de Alimento Funcional (AF) en buscadores científicos y ámbito académico: un caso de estudio El concepto de AF en la comunidad científica es muy conocido, tanto es así, que, al realizar una búsqueda en plataformas científicas, como el portal de Science Direct, el cual es ampliamente utilizado por contar con revistas de alto impacto; mostró un total de 401,158 resultados del término en inglés “Functional Food”, refinando la búsqueda para México se encontraron 3,817 resultados. Para la plataforma de Web of Science que también alberga revistas científicas de alto impacto, resultaron 35,172 documentos de los cuales 631 (1.79%) le pertenecen a México; Estados Unidos se ubica en el primer lugar con 8,349 resultados (23.74 %) y en 3, 4 y 5° lugar países de Europa como Alemania (6.31 %), España (5.74 %) e Inglaterra (5.7 %) respectivamente. En el buscador redalyc.org (Red de Revista Científicas de América Latina y el Caribe, España y Portugal) se buscó “alimento funcional” y hubo 187,513 documentos. El SCIELO arrojó 177 resultados de la búsqueda de “Alimento Funcional”. De tal manera, que surgió la inquietud de conocer cuál es el estado actual de dicho término, en un grupo de 200 personas de la Ciudad de Tepic, Nayarit; las cuales se encuentran relacionadas y familiarizadas con el área de las Ciencias de los Alimentos y Nutrición, con el objetivo de conocer cuál es el concepto que tienen acerca del concepto de AF. Las personas entrevistadas pertenecen a instituciones educativas (nivel licenciatura y posgrado) y se aplicó una encuesta de 10 preguntas de opción múltiple tomando en cuenta el concepto que se tiene actualmente de un AF en Europa para la formulación de dichas preguntas. Primeramente, se les preguntó si conocían el término de AF, donde se observó que el 87.5 % de la población han escuchado el término, sin embargo; de este porcentaje, solo el 27 % describe un AF como aquel que sólo nutre o que esta fortificado. No obstante, el porcentaje restante (73%) lo concibe como un alimento que además de su composición nutricional brinda un beneficio a la salud, lo que nos indica que quienes conocen el término la mayor parte conoce la definición. Diplock, Aggot y Ashwell (1999) describen como AF a un alimento que forma parte de la dieta diaria que además de su

Revista Científica

65


aporte nutricional proporciona sustancias biológicamente activas. Partiendo de la población que conoce y relaciona el término, el 48% considera que la función principal de un AF está relacionada con la prevención de enfermedades y el l 52 % restante piensan que dichos alimentos pueden curar enfermedades, como se observa no existe una definición clara de la función que pueden tener los AF en el organismo. El 58.6% considera que en un AF no se podría conocer sin previo estudio si aporta el mismo beneficio para todo tipo de consumidores, implicando su edad, estilo de vida y actividad física, el resto (41.4%) supone que sí lo aportaría. Martínez, Ros, Penago y López (1999), describen la existencia de factores intrínsecos (fisiológicos) y extrínsecos (dietéticos) que influyen en la biodisponibilidad de los nutrientes ingeridos en la dieta diaria, e incluso la edad, anatomía genética, estados fisiológicos (lactancia y embarazo) y los estados patológicos eventuales. Dentro de la población que conoce sobre el término, el 61.7 % consideran como AF algunos productos en el mercado como: yogur, queso, leche de soya, frutos secos, cereales, aguacate, leche deslactosada y guanábana, entre otros. Mientras que el 83.6 % mencionan conocer un ingrediente funcional como la fibra dietética, pero sólo el 25 % relacionan los beneficios de la FD con las propiedades fisiológicas que puede ejercer. Como menciona Laparra y Sanz (2010) los posibles efectos benéficos de los prebióticos incluyen el control del tránsito intestinal, reducción de riesgo de asteroclerosis, osteoporosis, diabetes de tipo 2, cáncer, infecciones y alergias, los cuales dependen de la influencia del compuesto del prebiótico en la microbiota intestinal. La fermentación de FD en el colon produce ácidos grasos de cadena corta, principalmente ácido acético > ácido propiónico > ácido butírico, los cuales presentan propiedades beneficiosas para la salud (O’Keefe, 2016). Otro ingrediente que se considera que posee propiedades funcionales son los probióticos; microorganismos incluidos en productos alimenticios que contribuyen al balance microbiano intestinal (López-Brea y Domingo, 2007), sin embargo; sólo el 17 % relaciona los microorganismos benéficos (Lactobacillus casei Shirota) presentes en yogur y bebidas lácteas fermentadas con los efectos saludables de los AF. El 79.7 % suelen leer de las etiquetas el contenido nutrimental, ingredientes, aditivos y porciones recomendadas de los productos que adquieren. Sin embargo, dentro de una etiqueta, parte fundamental son las declaraciones en salud (Health Claims), donde tan sólo el 1.5 % de la población entrevistada tiene conocimiento a que se refiere una declaración en salud de lo que es. No obstante, el 1 % afirma que un “Health Claim” es un certificado que fundamenta el beneficio nutricional del alimento, mientras que sólo el 0.5 % consideran que es parte de la etiqueta y que genera un aviso sobre la función saludable del alimento. En Europa, las declaraciones en productos alimenticios son de ayuda potencial para apoyar a los consumidores en la toma de decisiones informadas, de una alimentación más sana y de consolidar la competitividad de la industria alimentaria europea. Es por ello que es de importancia que exista un instrumento de política pública destinado a promover la salud pública y que sea una herramienta para que la industria alimentaria que permita diferenciar mejor los productos en el mercado y con ello se construya y mantenga las ventajas competitivas relacionadas con la salud, por lo que se considera que los “Health Claim” juegan un papel importante en los mercados de alimentos europeos (Hieke, Kuljanic, Wills, Pravst, Kaur, Raats, Trijp, Verbeke y Gruner, 2015).

66

Revista Científica

Perspectivas a futuro de los alimentos funcionales (AF) en México A pesar de que existe un gran interés en el área científica en cuanto al estudio de ingredientes funcionales, la difusión de estas publicaciones, no ha tenido un impacto a nivel social, cultural y empresarial, al menos en nuestro país, ya que se le ha dado poca importancia por parte de las autoridades correspondientes al desarrollo y comercialización de nuevos alimentos que puedan brindar beneficios a la salud. Los alimentos que brindan beneficios a la salud, pueden fácilmente ser confundidos con “Productos Milagro”, a pesar de que no se encuentran en dicha categoría. Por otro lado, en el ámbito académico existen diversos grupos de investigación que publican a nivel internacional trabajos en el área de AF. Existe presencia a nivel internacional de trabajos publicados bajo el concepto de AF, lo que resalta el interés de la Academia por el estudio en esta área. En México no existe una regulación ni definición oficial para el concepto AF que sea reconocida por los organismos gubernamentales lo que deja un vacío en relación a este concepto comparado con otros países que han desarrollado su propio término para AF y cuentan organismos encargados de la regulación, validación y legalización de estos productos. Por lo cual es necesario establecer en primera instancia, una colaboración entre academia, empresas y organismos gubernamentales que definan el concepto de AF que sea capaz de regular y validarlo. Esto definitivamente permitirá ampliar el conocimiento motivando la investigación y divulgación de un área de estudio en nuestro país que requiere un importante impulso: el campo de los Alimentos Funcionales.


Bibliografía + Codex Alimentarius. (1979). Codex General Guidelines on Claims. Disponible en: http:// www. codexalimentarius.net/download/standards/33/ CXG_001e.pdf + Diplock A. T., Aggott P. J., Ashwell M. (1999). Scientific concepts of functional foods in Europe: consensus document. Britain Journal Nutrition. 81: 1-27. + Food and Drug Administration. (2000). Discussion of a Conceptual Framework for Structure and Function Claims for Conventional Foods. Recuperado de: https://www.fda.gov/Food/IngredientsPackagingLabeling/LabelingNutrition/ ucm109603.htm consultado el 19/05/2017. + Food and Drug Administration. (2016). Structure/Function Claim Notification for Dietary Supplements. Recuperado de: https://www. fda.gov/Food/DietarySupplements/IndustryInfo/ ucm485532.htm consultado el 19/05/2017. + Flores, J. G. P., Ordaz, J. J., y López, E. C. (2007). ¿ Qué es un alimento funcional?. PÄDI Boletín Científico de Ciencias Básicas e Ingenierías del ICBI, 5(8). + Hieke, S., Kuljanic, N., Wills, J. M., Pravst, I., Kaur, A., Raats, M. M., van Trijp, H. C. M., Verbeke, W., Gruner, K. G. (2015). The role of health-related claims and health-related symbols in consumer behaviour: Design and conceptual framework of the CLYMBOL Project and initial results. Nutrition Bulletin. 40: 66-72. + Howlett, J. (2008). Functional food froom science to health and claims. ILSE Europe. + International Life Sciences Institute, Europe. (2006). Regulation (EC) No. 1924/2006 of the European Parliament and of the council of 20 December 2006 on nutrition and health claims made on foods . Official Journal of the

European Union. Disponible: http://eur-lex. europa.eu/LexUriServ/LexUriServ.do?uri=OJ:L:2006:404:0009:0025:EN:PDF/ + Juárez -Barroso, L., A. (2014). Estudio sobre la legislación y normatividad de alimentos funcionales. Facultad de Química. Universidad Nacional Autónoma de México. pp 48. + Laparra, J., M. y Sanz, Y. (2010). Interactions of gut microbiota with functional foods components and nutraceuticals. Pharmacological Research. 61: 219-225. + López-Brea, M. y Domingo, D. (2007). Antibioticoterapia con probióticos. Revista Española de Quimioterapia. 20 (2): 170-181. + Martínez, C., Ros, G., Periago, M. J., López, G. (1999). Biodisponibilidad del hierro de los alimentos. Archivos Latinoamericanos de Nutrición. 49 (2): 106-113.

+ Olagnero, G., Genevois, C., Irei, V., Marcenado, J. y Bendersky, S. (2007). Alimentos Funcionales: conceptos, definiciones y marco legal global. Diaeta. 25(119): 33-41. + Secretaría de Salud. (2017). Ley General de Salud. Diario Oficial de la Federación. Disponible en: http://www.diputados.gob.mx/LeyesBiblio/ pdf/142_270117.pdf + Valenzuela, A., Valenzuela, R., Sanhueza, J. y Morales, G. (2014). Funtional Foods, Nutraceuticals and FOSHU: are we going to a novel food concept?. Revista Chilena de Nutrición. 41(2): 198-204. + Verhagen, H., Vos, E., Francl, S., Heinonen, M., van Loveren, H. (2010). Status of nutrition and health claims in Europe. Archives of Biochemistry and Biophysics. 501: 6-15.

+ Meléndez, I. L., González, D. C., y Alvarez-Dardet, C. (2013). Functional foods: For the health service or new business for the food industry?. Atencion primaria, 45(6): 287. + National Center for Complementary and Integrative Health. (2016). Uso adecuado de los suplementos dietéticos. Rescatado de : https://nccih. nih.gov/node/3869 consultado el 25/05/2017. + NORMA OFICIAL MEXICANA NOM-051SCFI/SSA1-2010. Especificaciones generales de etiquetado para alimentos y bebidas no alcohólicas preenvasados. Información comercial y sanitaria. + NORMA OFICIAL MEXICANA NOM-086SSA1-1994. Bienes y servicios. Alimentos y bebidas no alcohólicas con modificaciones en su composición. Especificaciones nutrimentales. + O’Keefe, S. J. (2016). Diet, microorganisms and their metabolites, and colon cancer. Nature Reviews. 13: 691-706.

Revista Científica

67


Brenda Marcela Salcido Trillo1, Lucio Genaro López Panduro2, María de la Luz Rojas Nevárez 3 y María de los Ángeles López Martínez 4

Universidad Tecnológica de Ciudad Juárez Av. Universidad Tecnológica No. 3051, Col. Lote Bravo II, Ciudad Juárez, Chihuahua, México, C.P. 32695 1,2,3,4

brenda_salcido@utcj.edu.mx

Resumen: Dentro del campo de las Pymes (pequeñas y medianas empresas) de servicios automotrices en Ciudad Juárez Chihuahua, México, se aprecian serios problemas derivados de falta de desarrollo y crecimiento, no obstante su proliferación, por lo que se justifica un estudio que permita el conocimiento de las causas generadoras de tales problemas económicos, proponiendo recomendaciones fundamentadas científicamente para su solución. Partiendo de un estudio mixto, transversal y exploratorio censal, con una población de 434 Pymes, utilizando como herramienta para obtener información un cuestionario y con el apoyo del programa SPSS para analizar los datos. De acuerdo a los resultados obtenidos se determinó que tanto la competitividad y resistencia al cambio son dependientes de la sustentabilidad económica, lo cual demuestra que las Pymes si bien representan un gran porcentaje de la economía, es necesario brindar una capacitación constante enfocada a los agentes de cambio para que logren su potencial.

+

Palabras clave: Pequeña y mediana empresa, competitividad empresarial, sustentabilidad económica, resistencia al cambio y capacitación.

Recibido: Agosto 28, 2017. Recibido en forma revisada: Octubre 18, 2017. Aceptado: Julio 3, 2018.

68

Revista Científica

Abstract: Within the field of the Pymes (small and medium companies) of automotive services in Juárez Chihuahua México, it is observed form its investigation serious problems derived form lack of development and expansion notwithstanding their proliferation, therefore it is justified


that a study permits the knowledge of the generating causes of such economic problems providing scientifically funded recommendations for its solution, therefore in this investigation the conditions of competitiveness, economical sustainability and resistance to change will be analyzed. In our city it is observed the growth each time more numerous of this type of services trough the increasing number of shops and auto parts stores related with the automotive services that are required for the increasing number of automobiles that circulate though our city therefore in order to provide support to this economical activity each time more important to our city, in its growth and development this investigation was elaborated.

siones de la empresa y el rumbo de la misma Gómez (2008). Decisiones que incluyen al entorno, como por ejemplo: los cambios ocurridos en el mercado, en la competencia, en la legislación, en la tecnología, el dinamismo del sector y los impuestos, etc., los cuales pueden y deben motivar a la Pyme familiar a definir una visión patrimonial que busque asegurar el bienestar y la estabilidad del colectivo familiar en el tiempo, (Piedad y Vergara, 2011), el dueño debe considerar además de sus intereses, los impactos ambientales, económicos y sociales (la Triple Línea Base) en sus decisiones para poder alcanzar la sustentabilidad de la empresa (Epstein, 2010).

+ Keywords: Small and medium enterprises, business competitiveness, economic sustainability, resistance to change and training.

Dentro del factor externo mencionado anteriormente, la teoría de la adaptabilidad recuerda que de la apropiada combinación de la estrategia, la estructura organizacional y el ambiente, depende relevantemente el éxito de la organización. Y de dicho alineamiento, “derivado de una alta orientación de mercado con decisiones estratégicas relacionadas (tales como una mayor iniciativa o estrategias de producto más agresivas) se desprende la llamada “adaptabilidad recomendada” (Pleshko, 2011).

Introducción En Ciudad Juárez, Chihuahua se observa el crecimiento cada vez más numeroso de esta rama de servicios mediante el incremento del número de talleres y refaccionarias de diversa índole, relacionados con los servicios automotrices que requiere. La tecnología ha cambiado la competitividad en las empresas, el conocimiento se ha incrementado notablemente, el desarrollo de productos y servicios se están dando de manera rápida, la tendencia es un crecimiento económico alto, por una parte, esto, a su vez está ocasionando una gran resistencia al cambio por la falta de capacitación, salarios adecuados, cambios muy rápidos en la tecnología, entorno interno y externo en el ámbito laboral, entre otros.

Marco Teórico Para poder analizar esta problemática, se expondrá la parte teórica de las variables involucradas en la investigación:

a) Sustentabilidad económica

El segundo factor: el interno, se enfoca directamente en relación a quien dirige la empresa, factor que tiene cabida debido a que en muchas Pymes mexicanas, existe un alto grado de centralización del poder de la información y de la toma de decisiones por parte de su dueño, ya que por su personalidad desconfía de la capacidad de los empleados de niveles inferiores para actuar por sí mismos (Rodríguez y Ramírez Buendía, 1992). En México, el esquema de las pequeñas y medianas empresas contribuyen significativamente al producto interno bruto (PIB), pues representan alrededor del 34.7% de las empresas, brindando un empleo a casi el 73% de la población según el Plan Nacional de Desarrollo (2013-2018). En lo que se refiere a la responsabilidad social, es importante señalar que existen diversos autores con aportaciones entorno a este tema, por su parte De Miguel (2011) menciona que la responsabilidad social empresarial debe considerar una visión holística de la empresa involucrando el pensamiento estratégico, la acción y la comunicación.

Actualmente el concepto de sustentabilidad económica ha cobrado gran importancia dentro de las empresas, ya que involucra aspectos tanto internos como externos afectando la manera de llevar a cabo las actividades de las mismas, en aspectos económicos, ambientales y sociales. Es reconocida la creciente importancia de la pequeña y mediana empresa (Pyme), especialmente en los países en vías de desarrollo los cuales aportan hasta 52% del PIB del país, y al bienestar económico. También la Pyme favorece ampliamente en la activación de la economía; ello se manifiesta en su potencialidad para la creación de empleo y fomentar la riqueza. En ese sentido, Cardozo, Velázquez de Nayme (2012), mencionan que los indicadores han demostrado su estabilidad como manifestación económica a nivel de: ingresos, capital de trabajo, infraestructura; así como una mayor flexibilidad para consolidar las tecnologías emergentes. Así mismo se ha llevado a cabo varias investigaciones en las Pymes, incluyendo las familiares, enfocándose a las capacidades directivas del dueño o empresario en cuanto a su pensamiento y decisiones “sustentables”, y en dichas investigaciones se observa como él se convierte en una variable recurrente, puesto que aquí descansan la mayoría de las deci-

Cuadro informativo 1, Proceso que involucra a la Responsabilidad social empresarial en la pequeña y mediana empresa (De Miguel, 2011).

Dicho análisis se debe realizar a través de la valoración de los impactos que la operación genera a nivel local y a nivel global, lo cual permite a su vez identificar los elementos clave en el diseño de estrategias.

Revista Científica

69


b) Competitividad empresarial El Instituto Mexicano para la Competitividad Empresarial, (IMCO, 2016) define a la competitividad como la capacidad que tiene una empresa para operar y crecer rentablemente, generar valor en la empresa y posicionarse del mercado, además de atraer y retener talento e inversión. De acuerdo a IMCO los factores que influyen en la competitividad empresarial son:

tras que los segundos residen en la estructura de las organizaciones en sí mismas.

a) Orígenes individuales

• Hábito • Seguridad • Factores económicos • Miedo a lo desconocido

b) Orígenes Organizacionales

• Inercia estructural • Centro limitado del cambio • Inercia de grupo • Amenaza a la experiencia • Amenaza a las relaciones de poder establecidas • Amenaza a la asignación establecida de los recursos

Agentes de cambio

Cuadro informativo 2. Factores que influyen en la competitividad, elaboración propia.

Al hablar de competitividad empresarial, esta hace referencia a las estrategias y métodos que aplican todas las entidades comerciales para obtener diferentes y mejores resultados, IMCO (2003) realizó y publicó su Análisis de la Competitividad en México, en este documento explica que la competitividad empresarial es la búsqueda de eficacia y efectividad que las diferentes empresas, entidades empresariales y corporaciones realizan en pos de posicionarse como las mejores en sus rubros o áreas, superando a posibles competidoras y para lograrlo acude a la publicidad, calidad del producto o servicio, confianza, tradición, favoreciendo el desarrollo de la empresa y la vida laboral de los empleados. Se debe considerar que la competitividad supone aspectos como la calidad, innovación y diferenciación del producto o servicio en relación con aquel que ofrecen los competidores, para generar la mayor satisfacción en los consumidores a partir de un precio fijado, o la capacidad de poder ofrecer a un menor precio cierto nivel de calidad, siendo estos también factores claves.

c) Resistencia al cambio

Según Stephen P. Robbins (1998), la resistencia al cambio en la organización se puede accionar de dos maneras: 1.- Resistencia abierta o inmediata; ideas innovadoras. 2.- Resistencia implícita o diferida. Dicho autor resume las fuerzas principales de la resistencia al cambio, clasificadas de acuerdo con los orígenes individuales y organizacionales. Las fuerzas individuales de la resistencia residen en las características básicas humanas tales como percepción, personalidad y necesidades. Mien-

70

Revista Científica

Los agentes se consideran según Castañeda (2011), como catalizadores de cambio, en el cual siendo personas que facilitan y asumen la responsabilidad de dirigir las actividades del mismo. Son líderes de las organizaciones que actúan en presente y planean en futuro, siempre con una visión y aptitud vanguardista tomando en cuenta el entorno cambiante. Dentro de una organización es importante determinar o visualizar quien será ese agente de cambio que reestructure las políticas funcionales y estrategias que se adapten a las condiciones cambiantes. La resistencia al cambio se da en las organizaciones y en los individuos, es considerada como positiva porque prevé un crecimiento caótico. Una resistencia al cambio implica realizar un análisis minucioso de todas las variables cambiantes para poder determinar las más factibles y las más viables para implementarlas en la organización.

Materiales y métodos El enfoque de la realización de la investigación es mixta trasversal exploratorio censal y su finalidad es brindar un acercamiento a las pequeñas y medianas empresas (Pymes) en el ámbito de servicios automotrices en Ciudad Juárez, Chihuahua y, así entender la problemática que enfrenta en su competitividad empresarial y sustentabilidad económica contrarrestando la resistencia al cambio, he implementar las estrategias necesarias para fortalecerla. La Secretaría de Economía establece en el diario Oficial de la Federación, publicado el 15 de Diciembre del 2015, que se consideran pequeñas empresas en el sector Industria y servicio del 11 a 30 empleados y a las medianas de 31 hasta 100 personas. Considerando la información anterior se consultaron los resultados obtenidos del Instituto Nacional de Estadística y Geografía (INEGI), en su censo año 2014, en Ciudad Juárez, Chihuahua existen 1652 Pymes (100%) en función y registradas de las cuales 1218 (73.72%) ofrecen diversos servicios y 434 (26.27%) están funcionando como servicios au-


tomotrices, siendo éstas la población estudio, las cuales están dedicadas a la hojalatería y pintura, reparación de forros y asientos, mecánica y mantenimiento, y para obtener resultados medibles y objetivos se realizó una investigación censal, la cual permitió concentrar todos los datos obtenidos en la encuesta aplicada dentro de los límites del territorio a estudiar como lo es la zona urbana de Ciudad Juárez (Hernández, 2014).

Resultados y gráficas estadísticas Para la obtención de la información necesaria para resolver la problemática presentada se aplicó la encuesta a cada uno de los dueños de las 434 Pymes de servicio automotriz funcionando en Ciudad Juárez Chihuahua, para aplicarlas se solicitó el apoyo de los estudiantes de las carreras de Técnico Superior Universitario de Desarrollo de Negocios y Operaciones Comerciales Internacionales de la Universidad Tecnológica de Ciudad Juárez en los niveles de 3o a 5º cuatrimestre y los alumnos de las carreras de Ingeniería en Negocios e Innovación Empresarial y de Logística Internacional en los niveles 1º a 4º cuatrimestre.

Tabla 2. Análisis demográfico, elaborado por el cuerpo académico de Gestión de Negocios y Desarrollo regional e Investigación de Mercado empresarial (2017).

Con el apoyo del programa estadístico SPSS, se realizó el cálculo y análisis del Alfa Cronbach obteniendo como resultado un 0.969, el cual se considera excelente, lo cual indica una consistencia interna entre los ítems, dándole validez y fiabilidad al instrumento. Finalmente, se concentraron los resultados de la encuesta aplicada con la finalidad de conocer estados de opinión, características o hechos específicos y posteriormente, la interpretación numérica la cual nos permitió realizar un análisis minucioso de los resultados, los cuales se presentan a continuación:

a) Análisis descriptivo del comportamiento de las Pymes entorno al personal, ventas y utilidades

Tabla 3. Análisis demográfico, elaborado por el cuerpo académico de Gestión de Negocios y Desarrollo regional e Investigación de Mercado empresarial (2017)

Tabla 4. Análisis demográfico, elaborado por el cuerpo académico de Gestión de Negocios y Desarrollo regional e Investigación de Mercado empresarial (2017). Tabla 1. Análisis demográfico, elaborado por el cuerpo académico de Gestión de Negocios y Desarrollo regional e Investigación de Mercado empresarial (2017).

Revista Científica

71


Tabla 5. Análisis demográfico, elaborado por el cuerpo académico de Gestión de Negocios y Desarrollo regional e Investigación de Mercado empresarial (2017). Tabla 8. Análisis demográfico, elaborado por el cuerpo académico de Gestión de Negocios y Desarrollo regional e Investigación de Mercado empresarial (2017).

b) Análisis estadístico de las variables de Sustentabilidad Económica, Competitividad Empresarial y Resistencia al Cambio. Análisis de conglomerados de K medias El análisis de conglomerados de K medias se considera una técnica multivariable que permite agrupar las variables de un archivo de datos en función de la similitud que existe entre ellos (UCM, 2016). x Tabla 6. Análisis demográfico, elaborado por el cuerpo académico de Gestión de Negocios y Desarrollo regional e Investigación de Mercado empresarial (2017).

Gráfica 1. Centros de conglomerados de Sustentabilidad Económica, elaborado por el cuerpo académico de Gestión de Negocios y Desarrollo regional e Investigación de Mercado empresarial (2017).

La gráfica anterior indica que el conglomerado más alto es el número 1 representado por un 48.73%, demostrando que existe un gran porcentaje de Pymes que cuentan con sustentabilidad económica, lo cual sugiere reforzar dicho elemento con un programa de capacitación.

Tabla 7. Análisis demográfico, elaborado por el cuerpo académico de Gestión de Negocios y Desarrollo regional e Investigación de Mercado empresarial (2017).

Gráfica 2. Centros de conglomerados de competitividad Empresarial, elaborado por el cuerpo académico de Gestión de Negocios y Desarrollo regional e Investigación de Mercado empresarial (2017).

72

Revista Científica


Como resultado de la gráfica anterior, se obtuvo que el conglomerado 3 es el más alto, representado por un 55.04% de la Pymes que consideran tener una gran proyección en cuanto a su competitividad empresarial.

Gráfica 3. Centros de conglomerados de Resistencia al Cambio, elaborado por el cuerpo académico de Gestión de Negocios y Desarrollo regional e Investigación de Mercado empresarial (2017)

En la presente gráfica se muestra que existe el conglomerado 1 con un 53.92%, lo cual muestra que las Pymes presentan un alto índice de resistencia al cambio, lo cual indica que existe un gran área de oportunidad en cuanto a la capacitación de las mismas.

Análisis de Chi Cuadrada (x2)

Gráfica 4: Prueba de Chi Cuadrado para Sustentabilidad Económica-Resistencia al Cambio, elaborada por el cuerpo académico de Gestión de Negocios y Desarrollo regional e Investigación de Mercado empresarial (2017).

De acuerdo a Sáenz (2012) la tabla y gráfica anterior muestran que los indicadores de la variable Sustentabilidad Económica y la resistencia al cambio son dependientes entre sí.

Este estadístico permite analizar la relación de dependencia y/o independencia entre dos variables, indicando a su vez el grado de relación e influencia que existe entre las mismas (Tinoco, 2008). Donde para su comprobación se considera lo siguiente: • Si el valor de p < 0.05 se rechaza la hipótesis nula, demostrando una dependencia entre las variables estudiadas. • Mientras que si el valor de p ≥ 0.05 se considera que la hipótesis nula se acepta, mostrando que no existe una relación entre las variables en cuestión. Se establecieron los siguientes supuestos para la presente investigación:

Tabla 10. Cálculo de la prueba de Chi Cuadrado para Sustentabilidad Económica-Competitividad Empresarial, a. 0 casillas (.0%) tienen una frecuencia esperada inferior a 5. La frecuencia mínima esperada es 9.70, elaborado por el cuerpo académico de Gestión de Negocios y Desarrollo regional e Investigación de Mercado empresarial (2017).

Ho: Los indicadores, competitividad y resistencia al cambio, de la variable Sustentabilidad Económica son independientes entre sí. Ha: Los indicadores, competitividad y resistencia al cambio, de la variable Sustentabilidad Económica son dependientes entre sí.

Tabla 9. Cálculo de la prueba de Chi Cuadrado para Sustentabilidad Económica-Resistencia al Cambio, a. 0 casillas (.0%) tienen una frecuencia esperada inferior a 5. La frecuencia mínima esperada es 13.64, elaborado por el cuerpo académico de Gestión de Negocios y Desarrollo regional e Investigación de Mercado empresarial (2017).

Gráfica 5: prueba de Chi Cuadrado para Sustentabilidad EconómicaCompetitividad Empresarial, elaborado por el cuerpo académico de Gestión de Negocios y Desarrollo regional e Investigación de Mercado empresarial (2017).

Revista Científica

73


La tabla y gráfica anterior indican con un valor de 0.00, que las variables son dependientes entre sí, existiendo una relación entre la Sustentabilidad Económica y la Competitividad Empresarial, rechazándose la hipótesis nula.

Discusión Los resultados obtenidos en este trabajo permiten visualizar a la sustentabilidad económica, la competitividad y la resistencia al cambio como clave para la subsistencia de la pequeña y mediana empresa. Por lo tanto se acepta la Hipótesis alternativa planteada la cual dice: “Los indicadores, competitividad y resistencia al cambio, de la variable Sustentabilidad Económica son dependientes entre sí”.

este analizar el entorno y mucho menos aplicar una mezcla promocional que le dé la oportunidad de tomar medidas pertinentes que detonen el crecimiento, sustentabilidad y competitividad que hace que la pequeña y mediana empresa no se adapte a las nuevas tendencias del entorno y se difiera en tiempo indeterminado. Para lograr un mayor impacto se contempla en un futuro próximo la conformación del plan de capacitación que involucra el análisis de elementos que ayudan a impulsar el desarrollo sostenible de las pequeñas y medianas empresas que en este estudio se han presentado, no solo desde el punto de vista económico, sino dando realce a factores como la preocupación por su entorno. No olvidando que este tipo de empresas a nivel nacional representan alrededor de un 72% (INEGI, 2015), en la generación de empleo.

Mostrando que un 48.73% de las Pymes se perciben como sustentables, ya que a lo largo de un período de 4 años han tenido un crecimiento constante y sostenible en relación con el ingreso de personal, además de que las ventas y utilidades se han incrementado significativamente. Sin embargo aún cuando cifras de INEGI (2015), comentan que cuatro de cada diez negocios mueren durante el primer año de operaciones, tienen una esperanza de vida al nacer de casi siete años, mostrando que entre mayor sea el número de empleados dicha probabilidad crece, siendo el caso de las empresas encuestadas. La competitividad en la búsqueda del desarrollo sustentable de las pequeñas y medianas empresas se concibe como uno de los medios más importantes que posibilita niveles elevados de bienestar, convirtiéndose en el eje, junto con la resistencia al cambio, en la transformación y consolidación de las mismas. Se puede decir que la competitividad consiste en que las pequeñas y medianas empresas tengan éxito en mercados abiertos, siendo capaces de vender sus productos y/o servicios logrando, como resultado gran rentabilidad. Como ya se mencionaron los resultados de esta investigación donde se determinó la dependencia que existe de la competitividad y la resistencia al cambio, para lograr sustentabilidad económica, es necesario implementar estrategias competitivas que aporten conocimiento a través de la capacitación sobre las Pymes para lograr disponibilidad de los recursos humanos, económicos y materiales ya que la gestión de dichas variables puede traducirse en el éxito o fracaso de contacto con el cliente. La mejora de la calidad se desarrollará de manera natural una vez que estas dos mejoras, en los productos y servicios, estén alineadas a satisfacer al cliente. También se pudo comprobar que la mayoría de las Pymes mantienen una resistencia diferida, la cual según Castañeda (2011), implica que antes de realizar un movimiento, estas debe analizar las posibles alternativas y así elegir la más pertinente evitando el cambio caótico. Este proceso debe estar dirigido por un catalizador de cambio, siendo el líder de la empresa que actúa en presente, planeando las actividades y asumiendo la responsabilidad de dirigirla. Sin embargo la falta de capacitación y habilidades gerenciales que requiere tener el agente de cambio para tomar decisiones, no le permiten, a

74

Revista Científica

Bibliografía + Biasca, R., Andriani, C., y Rodriguez, M. (2004). Un nuevo sistema de gestión para lograr PYMES de clase mundial. Obtenido de https://archive.org/details/ UnNuevoSistemaDeGestinParaLograrPymesDeClaseMundial + Cardozo, N (2012).. La Definición de las pequeñas y medianas empresas en América. XVI Congreso de Ingeniería de Organización. + Castañeda, R.. (2011). El proceso de cambio en las organizaciones. Junio 8, 2017, de UNAM Sitio web: http://eprints.uanl.mx/2341/1/1080227417.pdf + Castro, E. (2010). Revista de Ciencias Económicas. Universidad de Costa Rica. Obtenido de Las estrategias competitivas y su importancia en la buena gestión de las empresas: http://revistas.ucr.ac.cr/index.php/economicas/article/viewFile/7073/6758 + Colombiana, F. (2011). Aproximación de los factores que influyen en la Vision del patrimonio de las empresas Familiares. + De la Torre, Portales, Camacho y Aranda . (2010).


REINGENIERIA DE PROCESOS EMPRESARIALES Y SU GESTION. Mayo 2 del 2017, de UNAM Sitio web: https://luismiguelmanene.wordpress. com/2012/01/23/reingenieria-de-procesos-empresariales-y-su-gestion-2/ + De Miguel, M. L. ( 2011). La Responsabilidad social empresarial en la pequeña y mediana empresa. Obtenido de Foro Empresarias: http:// www.foroempresarias.com/userfiles/archivos/ Documentaci%C3%B3n/Gu%C3%ADa%20 RSE%20PYME%20DEFINITIVA.pdf + Epstein, M. W. (2011). Faciliting sustainable develpment decision. Bisiness staregy and the Envoriment, + Foro Económico Mundial (2014-2015). La Competitividad en México. 13 de Noviembre del 2016, de Grupo de Impresores Unidos, SA de CV Sitio web: https://images.search.yahoo.com/ yhs/search?p=an%C3%A1lisis+de+la+competitividad+de+m%C3%A9xico+cierre+2014&fr=yhsadkadk_sbnt&hspart=adk&hsimp=yhsadk_sbnt&imgurl=http%3A%2F%2Fslideplayer. es%2F14%2F4704382%2Fbig_thumb.jpg#id=0&iurl=http%3A%2F%2Fslideplayer.es%2F14%2F4704382%2Fbig_thumb.jpg&action=click + Frías, D. (2014). Universidad de Valencia. Obtenido de Apuntes de SPSS: http://www.uv.es/friasnav/ApuntesSPSS.pdf + García, C., Camacho, G., y Arandia, O. (06 de 2010). Universidad Autónoma de México. Obtenido de Instrumento de evaluación de sustentabilidad y responsabilidad social en Pymes, el sitio Web: http://biblat.unam.mx/pt/revista/administracionorganizaciones/articulo/instrumento-de-evaluacion-de-sustentabilidad-y-responsabilidad-social-en-pymes + Gómez, D. (2008). Identificación de l variables en el proceso de decisión de compra de materiales autoadhesivos. Estudios Gerenciales, + González, C.. (2015). Sustentabilidad organizacional en las pequeñas y medianas empresas familiares.. México; D.F.: UNAM. + Hernández, R.. (2014). Metodología de la Investigación. Estados Unidos: Mac Graw Hill. + IMCO. (29 de 09 de 2016). Instituto Mexicano para la Competitividad, A.C. Obtenido de Índice Global de Competitividad 2016: http://imco.

org.mx/competitividad/indice-global-de-competitividad-2016-via-wef/ + IMCO (2003). Análisis de la Competitividad en México, Evaluación e identificación de áreas de oportunidad 13 Noviembre del 2016, de Instituto Mexicano para la competitividad, (IMCO), Sitio web: http://imco.org.mx/indices/documentos/2003_ICI_Libro_Analisis_de_la_competitividad_de_Mexico.pdf. + Instituto Nacional de Estadística y Geografía (INEGI). (1 de Julio del 2015). Censos económicos 2014, resultados definitivos. 8 de Junio del 2016, de Gobierno Federal de México D.F. Sitio web: http://www.inegi.org.mx/est/contenidos/Proyectos/ce/ce2014/doc/presentacion/pprd_ce2014. pdf + Instituto Nacional de Estadística y Geografía. (18 de Febrero del 2015). NEGOCIO DE VIDA DE LOS NEGOCIOS . 18 de Agosto del 2017, de Comunicación Social, Boletín Informativo 087/15 Aguascalientes, AGC. Sitio web: http://upla.zacatecas.gob.mx/wpcontent/uploads/2014/06/BOLETINES/Esperanza%20de%20vida%20de%20 los%20negocios.pdf

del Mexicano en el Trabajo. México, Df: http:// www.cuatitlan.unam.mx/rudics/ejemplares/0102/ pdf/r05.pdf. + Sáenz, A. (06 de 2012). Universidad de Jaén . Obtenido de Apuntes de Estadística para ingenieros: http://www4.ujaen.es/~ajsaez/recursos/ EstadisticaIngenieros.pdf + Secretaria de Economía del Gobierno Federal; DOF (2015).l Sitio web: https://www.google. com.mx/search?q=diario+oficial+de+la+federaci%C3%B3n+el+tama%C3%B1o+de+las+empresas&oq=diario+oficial+de+la+federaci%C3%B3n+el+tama%C3%B1o+de+las+empresas&aqs=chrome..69i57j0.14978j0j8&sourceid=chrome&ie=UTF-8 + Tapia y Luna, J. (2012). Influencia del capital humano para la competitividad de las pymes en el sector manufacturero, México; D:F: EUMED. + Tapia, B., y Luna, P. (2009). IMEF. Obtenido de Factores clave para lograr la competitividad empresarial: http://www.imef.org.mx/publicaciones/boletinestecnicosorig/BOL_01_09_CTN_ CC.pdf

+ Larrañaga, M. (21 de 10 de 2014). Circulo verde. Obtenido de Desarrollo sustentable y el crecimiento económico en México: http://www.circuloverde.com.mx/desarrollo-sustentable-y-el-crecimiento-economico-en-mexico/

+ Tinoco, O. (04 de 2008). Universidad Nacional Mayor de San Marcos (UNMSM). Obtenido de Una aplicación de la prueba chi cuadrado con SPSS: http://revistasinvestigacion.unmsm.edu.pe/ index.php/idata/article/view/6040/52

+ Pérez, J. y. (2007). Barreras para el aprendizaje organizacional:. Estudio de Casos . Pensamiento y Gestión Revista de la División de Ciencias Administrativas de La Universidad del Norte.

+ Universidad Complutense de Madrid. (2016). Análisis de conglomerados (I): El procedimiento Conglomerados de K medias, recuperado el 10 de Junio del 2017:http://pendientedemigracion.ucm.es/info/socivmyt/paginas/D_departamento/materiales/analisis_datosyMultivariable/ 21conglk_SPSS.pdf

+ Pleshko, L. P. (2011). A Contingency theory approch to market orientation and related marketing strategy concepts. Academy of Banking studies Journal, 119-133 + PND. (2013). Plan Nacional de Desarrollo 2013-2018. Obtenido de http://pnd.gob.mx/ wp-content/uploads/2013/05/PND.pdf + Porter, M.E. (2008). Las 5 fuerzas competitivas que moldean la estrategia de las empresas. Ser Competitivo (Capítulo I). España: edit. DEUSTO + Robbins, S. (1998). Fundamentos de comportamiento organizacional . México D.F.: Porrúa. + Rodríguez Estrada., y. R. (1992). Psicología

+ World Economic Forum. (28 de 09 de 2016). World Economic Forum. Obtenido de The global competittiveness report 2016-2017: https://www. weforum.org/reports/the-global-competitiveness-report-2016-2017+ Zúñiga, M. y Córdova, D.. (2010). La propuestas de mejora, una alternativa de solución para las pequeñas y medianas empresas. Junuio 8, 2017, de UNAM Sitio web: http://www.itson. mx/publicaciones/pacioli/Documents/no70/42blas_propuestas_de_mejora_una_alternativa_de_ solucion_para_las_pequenas_y_medianas_empresas_noviembre_201.pdf

Revista Científica

75


María Cristina Cervantes Franco1, Francisco Javier García Rodríguez2, Luis Gerardo Esparza Díaz3, Hugo Carrillo Rodríguez4, Sayde Atzin Ramírez5 y Miguel Ángel Silva García6 Departamento de Ingeniería Industrial, Tecnológico Nacional de México en Celaya. C.P. 38010 Celaya, Guanajuato, México.

1,2,3,4

Estancia sabática en la División de Estudios de Posgrado, Facultad de Ingeniería, Universidad Autónoma de Querétaro. Cerro de Las Campanas, s/n, Centro Universitario, C.P. 76010 Querétaro, Querétaro. 2

Departamento de Aseguramiento de Calidad, Beta Procesos S.A. de C.V. C.P. 38010 Celaya, Guanajuato, México. 5

Departamento de Metrología, CRODE Celaya. Diego Arenas Guzmán # 901, Fracc. Zona de Oro 1, C.P. 38020 Celaya, Gto. 6

francisco.garcia@itcelaya.edu.mx Recibido: Agosto 28, 2017. Recibido en forma revisada: Octubre 25, 2017. Aceptado: Julio 3, 2018.

76

Revista Científica

Resumen: Se presenta una metodología para el diseño y construcción de una planta piloto industrial con tecnología para limpieza y acondicionamiento de uniformes antiestáticos de acuerdo con la norma ISO 14644-4:2001 “Diseño, construcción y puesta en marcha”: planeación, funcionamiento y cualificación. Los uniformes utilizados en las pruebas de limpieza se emplean en la industria automotriz para el pintado de autopartes. Se determinaron los siguientes parámetros de operación: humedad, flujo del aire, presión diferencial y temperatura ambiental, para regular el nivel de limpieza del área, protegiendo al producto, operador y evitando la contaminación entre ellos. Se realizaron pruebas microbiológicas, evaluación de eficiencia de filtros y conteo de partículas. A partir de los análisis realizados, se ajustaron parámetros para operar dentro del rango permisible que establece la norma, determinando las condiciones de operación de una planta piloto clase ISO 6, i.e., que permite menos de 35,200 partículas/m3, con tamaño no mayor a 0.5µm.

+

Palabras clave: Planta piloto industrial especializada, cuarto limpio, Uniformes antiestáticos, control de partículas, ISO 14644. Abstract: In this work, a methodology for the design and construction of an industrial pilot plant with technology for cleaning and conditioning of antistatic uniforms, according to the standard for cleanrooms and other controlled environments ISO 14644-4:2001 “Design, construction, and


start- up” is presented. The uniforms used for cleaning tests in these facilities, are those used in the automotive industry for painting auto parts. The following operating parameters were determined: humidity, air flow, differential pressure and ambient temperature, to regulate the cleaning level of the area, protecting the product, operator and avoiding contamination between them. Microbiological tests, filter efficiency evaluation and particle counting were performed. From the analyzes performed, parameters were adjusted to operate within the allowable range established by the standard, determining the operating conditions of an ISO 6 class pilot plant, i.e., allowing less than 35,200 particles / m3, with a size no greater than 0.5μm.

+ Keywords: Specialized pilot plant, cleanroom, antistatic uniforms, control of particles, ISO 14644. Introducción En México y otras naciones manufactureras, la industria automotriz es considerada como pilar estratégico-económico, en virtud de diferentes beneficios: generación de empleos a gran escala, recaudaciones fiscales derivadas de las operaciones comerciales, la capacitación del personal, el desarrollo de proveedores locales y la modernización tecnológica relacionada (Vicencio-Miranda, 2007). La industria automotriz se ha consolidado como una de las más dinámicas e importantes del país, situándose como el 4° exportador y 8° productor de vehículos a nivel mundial (AMIA, 2014). Por tanto, México es definitivamente un país atractivo para la inversión extranjera; en el período 1999-2013, la Industria Automotriz, aportó el 8.4% del total de Inversión Extranjera Directa (IED), incluyendo fabricación de vehículos, camiones y partes para vehículos automotores (AMIA, 2014). En los últimos seis años, el estado de Guanajuato se ha convertido en un polo de inversión (Luna, 2004), consolidó inversiones por más de 8,335 millones de dólares, de los cuales el 68% lo concentra la industria automotriz/autopartes, debido a su excelente ubicación geográfica (El Economista, 2013). Esta industria en el estado aceleró y logró rebasar al Estado de México y Puebla, con las plantas armadoras de Mazda en Salamanca y Honda en Celaya, así como la expansión de General Motors y Volkswagen en Silao, esto permitió que el valor de la producción automotriz de Guanajuato creciera 34.8% en el primer trimestre de 2014 (Millán, 2014). Como consecuencia de este crecimiento, Guanajuato pasó al segundo lugar, en el valor de la producción acumulada (AM, 2014), lo que representa oportunidades para la sociedad y la opción de integrarse a una actividad económica altamente remunerada y demandada. Sin embargo, también representa retos para la sociedad en materia de capacitación y certificación, así como convertirse, en proveedor de este importante sector: comercio, manufactura y servicios (CLAUGTO, 2014). Derivado de este auge, sobre el crecimiento económico en el Estado y específicamente en la industria automotriz, se identificó un nicho de mercado que requiere del servicio de limpieza y acondicionamiento de uniformes antiestáticos, utilizados principalmente para el proceso de pintado de autopartes (González, 2012), identificados como fuentes generadoras de contaminación, asociados a fibras, partículas, polen, bacterias, hongos, entre otros, provocando defectos de volumen. La eliminación de estos defectos, junto con las rutinas de control de calidad requeridas, representan una gran proporción de los costos de operación involucrados.

En nuestro ámbito de competencia, como proveedor de la industria automotriz, se responde a esta necesidad, incorporando un nuevo servicio mediante el desarrollo de una planta piloto de lavado con tecnología para el acondicionamiento de uniformes antiestáticos para la industria automotriz, que incluye un cuarto limpio tipo ISO clase 6, cumpliendo con las normas (ISO 14644-4:2001 “Diseño, construcción y puesta en marcha”, ISO 14644-1:1999 “Clasificación de limpieza de aire”, ISO 146442:2000 “Especificaciones para pruebas y seguimiento para demostrar el cumplimiento continuo de la ISO 14644-1” y ISO 14644-5:2004 “Operaciones”), especificaciones y requisitos generales de calidad y presentación (ISO 9001:2008 “Sistemas de gestión de calidad”), reduciendo, de esta forma, costos operativos involucrados. A nivel nacional, en México, existen cuatro empresas que proveen este servicio y están localizadas en los Estados de Jalisco, Oaxaca, Baja California, y el Estado de México (Esensa, 2014; VMG Static; 2014; Lavatel, 2014; Coeli mexicana, 2014). Generando, dada la ubicación geográfica de estas empresas, un aumento en el costo final del servicio por el traslado y tiempo de envío. Debido a esto, una empresa asentada en la región bajío, tiene la ventaja potencial de brindar este servicio a un menor costo y tiempo de entrega. Por otra parte, en las últimas décadas, los cuartos limpios han encontrado crecientes aplicaciones en una amplia gama de industrias, tales como la farmacéutica y la microelectrónica; en ambos casos, son considerados como ambientes críticos en la operación de diversos procesos, por la necesidad de requerir consideraciones técnicas específicas, para controlar la contaminación microbiana, filtración de partículas en el flujo de aire y compuestos orgánicos volátiles al interior de las cámaras (Saidi, 2011; Estevez y Banto, 2013; DiBerardinis et al., 2013). La mayoría de los procesos asociados con la tecnología de cuartos limpios, deben realizarse bajo condiciones estrictas, monitoreadas y ajustadas para estar dentro del rango de operación permisible (Vincent y Matheson, 2005; Whyte, 2010). La detección de una no conformidad en las condiciones ambientales prescritas generaría un proceso de producción con un estándar por debajo de las especificaciones, y, en consecuencia, el rechazo de los lotes afectados (ISO 9001:2008). Por ello, el control de los parámetros ambientales en los cuartos limpios, son aspectos importantes que están relacionados directamente con los beneficios económicos y la productividad (Castaño, 2008). El primer estándar para cuartos limpios llamado Manual Técnico 0025-203, fue publicado en 1961 por orden de la Fuerza Aérea Americana de USA, dos años después, se publicó la reglamentación Federal Standard 209. Este es el primer documento que regula las instalaciones de un cuarto limpio, ahí se determinó la concentración máxima de partículas permitido con un diámetro dado; en nuestro caso es 35,200 partículas/m3, con un diámetro de partícula no mayor a 0.5µm. En 1966 la Federal Standard fue modificada y nombrada 209 A, después, la Organización Internacional de Estándares (ISO), publicó en 1999 la ISO-14644-1, el estándar que oficialmente reemplazó a la Federal Estándar 209 E, la cual específica, entre otras condiciones, la cantidad de partículas que debe tener un cuarto limpio de acuerdo con la clasificación de su clase. Las actividades realizadas durante este proyecto son planeación: logística del proceso, diseño de planos, construcción: instalación de sistemas para el suministro de agua potable y drenaje de aguas residuales, acondicionamiento de sistemas de ventilación, calefacción y aire acondicionado, HVAC (por sus siglas en inglés, Heating, Ventilating and Air

Revista Científica

77


Conditioning), y validación de los sistemas y equipos críticos de la planta piloto: control de la concentración partículas, manejo del aire y equipos de lavado, y, parámetros medioambientales; para la nueva línea de servicios con calidad de acuerdo a la norma. En esta investigación, el reto principal es brindar soporte tecnológico a la empresa Beta procesos, S. A. de C. V., para desarrollar y generar un servicio innovador de calidad en la planta, asociado al proyecto “Desarrollo de una planta piloto para el lavado y acondicionamiento de uniformes antiestáticos utilizados en el proceso de pintado”, que se encuentre a la altura de las exigencias de la industria automotriz (González, 2012; Mundo HVAC&R, 2015). Los parámetros importantes por controlar son: temperatura, humedad, partículas en el ambiente, presión diferencial, flujo y velocidad del aire, sistemas de filtración y filtros.

Planeación Materiales, maquinaria e instrumentos

En el lavado y acondicionamiento de los uniformes, se experimentó con diferentes sustancias químicas biodegradables, así como detergentes y suavizantes de telas fabricados en la empresa Beta procesos S.A. de C. V. (ESD STM2.1-2007). Se adquirió e instalo un sistema de aire, ductos, unidad manejadora de aire (UMA), unidad condensadora (UC); en el área de lavado y secado, una lavadora y secadora industriales, además, del equipo dispensador de detergentes, equipo suavizador de agua, caldera powermatic vertical modelo VT2 de 20 HP. Para el monitoreo de los parámetros ambientales en el interior del cuarto limpio, se adquirió un kit de prueba analógico, para evaluar la resistencia superficial de los uniformes y determinar su funcionalidad de acuerdo a la norma ANSI-ESD STM2.1:1997 “Método de prueba de resistencia para descargas electrostáticas en prendas protectoras”, un anemómetro-termómetro modelo 4330MX, marca Control Company, para medir las velocidades de aire en los difusores y extractores del sistema de aire; y un contador portátil de partículas por m3, Met One AEROCET 531, utilizado como referencia para verificar el cumplimiento de la norma ISO 14644-1:1999 Parte 1, para cuartos limpios clase 6. Adicionalmente, se adquirió un equipo codificador Aser U2 móvil, para clasificar mediante código de barras, los uniformes antiestáticos.

Etapa 2. Funcionamiento. Se asocia a la determinación y análisis de variables presentes en el área: a) parámetros ambientales: flujo y velocidad del aire, humedad, temperatura y presión diferencial, importantes para evitar contaminación por acumulación de partículas no viables y proporcionar comodidad al operador dentro del área de trabajo, b) control del proceso de acondicionamiento del uniforme antiestático mediante procedimientos y protocolos estandarizados de operación: uso de la vestimenta apropiada y comportamiento de los trabajadores en el área, para minimizar la contaminación; programa de limpieza en instalaciones y vestimenta, describiendo los puntos más importantes para mantener las instalaciones en buen estado y así evitar la acumulación de polvo; protocolos para desarrollar pruebas, de resistencia de superficie, de acuerdo a la norma ESD STM 2.1-1997; mantenimiento en el sistema de aire, equipo e instrumentación, y c) sistema de flujo de aire: monitoreo de parámetros que permiten mantener un área ISO clase 6 (tasa de cambio de aire, niveles de presión diferencial y velocidad de flujo de aire), así como el correcto funcionamiento de los filtros, ductos, difusores, extractores y la unidad manejadora de aire, clave para mantener controlado el número de partículas viables. Cada fase incluye consideraciones que deben ser monitoreadas continuamente y permiten una correcta operación dentro de la planta piloto. Etapa 3. Cualificación. Se refiere a la validación del área, incluye también capacitación y cierre del proyecto. Se realiza una validación en instalaciones, funcionamiento y en actividad, logrando que el funcionamiento de la planta piloto se conserve a lo largo del tiempo, asegurando el control de los parámetros ambientales, que intervienen en las operaciones de trabajo. Se capacita al personal en temas de seguridad e higiene, uso de la vestimenta adecuada, aplicación y concientización de la importancia de respetar los lineamientos, para evitar contaminación del producto; con el objeto de garantizar un uniforme limpio, libre de partículas y conservando sus propiedades (Whyte, 2010).

Metodología de diseño

La metodología propuesta se divide en tres etapas: Planeación, Funcionamiento y Cualificación. Cada una de las fases asociadas a las etapas de diseño de la nueva planta piloto, contiene lineamientos a seguir para llevar a cabo una planificación estratégica, fundamental para un esfuerzo efectivo de cualificación (Figura 1). A continuación, se describen de forma general:

Etapa 1. Planeación. Previo al funcionamiento de la planta piloto, se registran tres fases: anteproyecto, diseño y construcción. Se inicia con el anteproyecto, desde la definición de los objetivos, se delegan los responsables para cada actividad y se describe de forma general y especifica el proyecto a realizar. Una vez definido, se procede con el diseño y la posterior construcción de la planta piloto. Iniciando con la búsqueda y selección del proveedor, selección de materiales de construcción, desarrollo de planos, incluyendo las especificaciones del diseño para cumplir con la norma ISO 14644-4:2001. 78

Revista Científica

Figura 1. Metodología para el diseño de una planta piloto de lavado y acondicionamiento de uniformes antiestáticos.

Funcionamiento Se obtuvo un área construida con dimensiones de 12.28 m x 10.59 m x 2.65 m, incluyendo cinco espacios de trabajo, identificados en la figura 2 y descritos a continuación: (a) recepción de prendas, dedicada a contar y clasificar uniformes; (b) área de lavado y secado de los uniformes antiestáticos; (c) aduana/doblado y empacado (cuarto limpio clase ISO 6), se asegura el acondicionamiento de los uniformes antiestáticos, se doblan y empacan individualmente; (d) vestidor, aquí el personal asignado al cuar-


to limpio se coloca la vestimenta apropiada, y finalmente, (e) almacén y administración, para el etiquetado y almacenaje de los uniformes. Se instaló piso y techo epóxico-antiestático en el área de doblado y empacado, piso epóxico en todas las áreas de la lavandería y en todas las esquinas cuenta con acabados sanitarios.

Prueba y monitoreo de instalaciones

Una vez construida la planta piloto para el acondicionamiento de uniformes antiestáticos (Figura 2); se somete a un proceso de validación de edificios e infraestructura, bajo la Norma NOM-001-STPS-2008, aplicado en áreas generales de la lavandería, muebles y utensilios; para obtener evidencia objetiva sobre el cumplimiento de los requisitos especificados. Así mismo, se realiza una evaluación del cuarto limpio bajo la Norma (ISO 14644-2:2000 “Especificaciones para pruebas y seguimiento para demostrar el cumplimiento continuo de la ISO 14644-1” y ISO 146445:2004 “Operaciones”).

Variables presentes en el área

Figura 2. Áreas de la planta piloto: (a) Recepción, (b) Lavado y secado, (c) Aduana/Doblado y empacado, (d) Vestidor y (e) Almacén y Administración.

Sistema de aire

El sistema de aire está diseñado para expulsar las partículas no viables que se encuentran en el interior del cuarto limpio, disminuyendo la contaminación derivada de fuentes externas. En la Figura 3a, se observa el sistema de aire, conformado por UMA y UC, además, de distribución los ductos de aire y la disposición lateral de los filtros HEPA. El sistema de aire se alimenta con aire del exterior, lo pre-filtra, acondiciona y distribuye hacia la parte superior del plafón, donde los filtros ventiladores HEPA de 99.97 % de eficiencia, lo envían al área de trabajo, para posteriormente salir por las rejillas de retorno. Este flujo de aire nunca es expulsado hacia el exterior, se mantiene en continua recirculación, conservando al mínimo el nivel de partículas. En la Figura 3b, se observan los 11 filtros HEPA distribuidos estratégicamente en la parte superior del cuarto limpio, así como la posición de las 6 rejillas y ductos de retorno.

Se identificaron, las posibles fuentes de contaminación y la manera de controlarlos dentro de la planta piloto: a) el aire de suministro, se controla utilizando filtros HEPA de 99.97% de eficiencia (figura 3a); b) la generación interna de partículas en el cuarto limpio u área de procesamiento: doblado y empacado (Figura 3b); provenientes de los elementos de construcción: pisos, plafón; de los equipos y lo más importante, de los operadores, se controlan utilizando superficies duras y no porosas, aplicando un programa que evalué el desempeño del equipo, “Protocolo de calificación de equipos de la planta de lavado y acondicionamiento de uniformes antiestáticos” y especificando el vestuario apropiado de los operadores, “Ingreso y vestido para la planta de lavado y acondicionamiento de uniformes antiestáticos”. Si el personal no utiliza adecuadamente la vestimenta en las áreas de proceso, la integridad del área estaría comprometida, por ello, se debe realizar la calificación del área, y posteriormente su verificación, descrita en el “Protocolo de calificación de área de la planta de lavado y acondicionamiento de uniformes antiestáticos”. Paralelamente, se realizó un monitoreo microbiológico en todas las áreas de la planta piloto, utilizando el procedimiento desarrollado: “Monitoreo microbiológico de la planta de lavado y acondicionamiento de uniformes antiestáticos” y, c) las infiltraciones de espacios adyacentes, se minimiza controlando la dirección del flujo, de tal manera que el aire fluya del cuarto limpio a su espacio adyacente; esto requiere que se presente una cascada de presiones diferenciales. Para controlar la generación de estas partículas, se requiere, por lo tanto, controlar las tres fuentes de contaminación. Realizar pruebas de conteo de partículas permite establecer el grado de limpieza del aire dentro de la planta piloto, según los procedimientos para un área ISO clase 6, que se realizan en el área de doblado y empaque. Estas pruebas se llevaron a cabo con el apoyo del protocolo, “Procedimiento para realización de pruebas de temperatura, humedad, velocidad y caudal de aire, presión diferencial y conteo de partículas de la planta de lavado y acondicionamiento de uniformes antiestáticos”, mediante equipos calibrados, que garanticen la trazabilidad metrológica; para suministrar condiciones estables de operación en materiales, equipos y personal, evitar la generación de partículas por corrosión y eliminar la estática. Aun teniendo establecidas todas las variables mencionadas con anterioridad, existe la posibilidad de que se genere contaminación interna o externa, ya sea por un descuido del personal o por no establecer los requerimientos necesarios, por ello se establece un procedimiento de limpieza para la planta piloto, “Procedimiento de limpieza para la planta de lavado y acondicionamiento de uniformes antiestáticos”, para aplicarse en cada una de las áreas atendiendo sus diferentes grados de limpieza.

Figura 3. Sistema de aire y control de partículas suspendidas: (a) Sistema de aire, ductos de inyección de aire y sistema de recirculación, (b) Distribución de filtros HEPA.

Revista Científica

79


preventivas, teniendo como premisa contemplar las siguientes acciones: a) Identificar las no conformidades potenciales y sus causas; b) Evaluar la necesidad de actuar para prevenir la ocurrencia de no conformidades; c) Determinar y asegurar la implantación de acciones preventivas necesarias; d) Registrar los resultados de las acciones adoptadas; y e) revisar las acciones preventivas adoptadas. Se deberán tomar acciones preventivas apropiadas al impacto de los problemas potenciales para eliminar la causa de no conformidades potenciales, cuando se identifiquen observaciones como resultado de las auditorías internas tomadas del Informe de auditoría. Figura. 4. Esquema de la línea de proceso para proveer el servicio de lavado y acondicionamiento de uniformes antiestáticos.

Proceso de lavado y acondicionamiento de uniformes

En este apartado, se describe el proceso de acondicionamiento de uniformes antiestáticos el cual está ampliamente documentado con los procedimientos, protocolos, reportes y formatos del sistema de control operacional del proceso. En el área de recepción, se separan y clasifican los uniformes por su grado de suciedad y se determina la fórmula óptima de lavado. Se registra cada pieza y se le coloca una etiqueta de identificación para generar el historial de cada prenda, cada documento tiene asignado un código de acuerdo con el “Procedimiento de Elaboración de Documentos” que identifica a cada uno, por el área de aplicación, el tipo de documento y el número consecutivo. El siguiente paso es iniciar el proceso de acondicionamiento de uniformes antiestáticos, trasladando las piezas al área de lavado y secado, después a la Aduana, donde reciben un tratamiento que garantice la eliminación de partículas. Posteriormente, se retiran las prendas y se realiza una prueba de resistencia de superficie, se doblan y empacan, y se envían por una banda transportadora al almacén (Figura 4). Si el producto recibido o servicio prestado por la empresa a sus clientes, no cumple con las disposiciones planificadas y/o con los requisitos previamente establecidos se implementa el “Procedimiento de control de producto o servicio no conforme”. Al identificar una no conformidad en sus diferentes etapas, los responsables del proceso solicitan el “Formato de control de producto, ensayo y/o servicio no conforme” al departamento de aseguramiento de calidad para determinar y registrar la acción correctiva inmediata a tomar. La acción tomada quedará registrada en el “Formato control de producto, ensayo y/o servicio no conforme”, donde se identificará, si es una no conformidad corresponde a “Acciones correctivas”, o bien, se dirige a “Acciones Preventivas”. Las implicaciones de este procedimiento involucran desde la materia prima utilizada hasta el servicio prestado por la misma. Si se rechaza la materia prima, se identifica con la etiqueta roja de aseguramiento de calidad y se separa mientras se entrega al proveedor o se decide su disposición final. En caso de devolución en el tiempo en que se devuelve el material al proveedor, se envía al área de cuarentena y se registra en el “Formato de registro de producto y servicio no conforme”. Este procedimiento se denomina “Control de Producto o servicio no conforme”. Para garantizar la aplicación y mejora del sistema de gestión de la calidad, se requiere realizar auditorías internas para identificar las áreas de oportunidad. En su caso, realizar acciones correctivas, cuando se detecten no conformidades, describiendo las actividades para evaluar y eliminar la causa, con el fin de prevenir que vuelvan a ocurrir. O bien, acciones

80

Revista Científica

Cualificación de instalaciones La aplicación del procedimiento de cualificación en la planta piloto permite demostrar el cumplimiento de las especificaciones de diseño, i. e., que las condiciones adecuadas de operación permanezcan a lo largo del tiempo y se mantengan bajo control. Este procedimiento cubre tres aspectos: a) Equipo e instalaciones, b) Funcionamiento y c) En actividad. En la primera fase, se verificó la calibración de los equipos de medición, se corroboró que los filtros y el equipo del sistema de aire, cumplan con las especificaciones acordadas en el contrato, así como su ubicación y funcionamiento. Se comparó el edificio con los planos iniciales, justificando los cambios, utilizando una tabla de calificación. En la segunda fase, se realizaron ensayos experimentales para determinar los gradientes de presión, temperatura, humedad relativa y la clasificación del aire por concentración de partículas de acuerdo con la norma ISO 14644-1:1999 (figura 5), verificación de la efectividad del procedimiento de limpieza, flujo y taza de cambio de aire, evaluando las condiciones desempeño del sistema de cuarto limpio. Para realizar la cuantificación de los parámetros, se llevó a cabo el siguiente procedimiento: a) Definición del mensurando, estableciendo claramente lo que se desea medir, en este caso, temperatura, humedad relativa, partículas en el ambiente, presión diferencial, flujo y velocidad del aire; b) Selección de instrumentos de medición de acuerdo con el mensurando y exactitud requerida; c) Establecer la estrategia de medición. En el caso del monitoreo y evaluación de la variación de temperatura en el cuarto limpio, se consideró la resolución del termómetro como 1/4 de la estabilidad esperada, siendo esta de 1 °C. Se utilizaron termómetros referencia marca Fluke 1620A “Dewk” thermo-hydrometer, con una resolución de 0.01 °C y un termohigrometro VAISALA HM34C No. serie W3910064 con una resolución de 0.1 °C, con calibración vigente. La estrategia de medición utilizada fue dividir el cuarto en secciones de 1 m3, con el objetivo de detectar de manera puntual las variaciones máximas y mínimas existentes dentro del área de trabajo (Figura 5b), resultando 16 secciones. El número de mediciones determinadas fue 10 por cada sección, las primeras 5 se tomaron cada minuto y después de una hora se tomaron las otras 5. Se obtuvo el promedio de las 10 temperaturas en el cuarto. Para obtener la uniformidad de temperatura se tomó la diferencia máxima respecto al valor medio de la temperatura obtenida en el valor de referencia (sección 15) respecto a cualquier otra sección monitoreada. La temperatura promedio en el cuarto fue 20.62 °C, la temperatura máxima fue 21.5 °C en la sección 6, la temperatura mínima se registró en el bloque 12 con 19.98 °C, por último, la uniformidad en el cuarto fue 0.89 °C. El sistema de temperatura cumple con los parámetros de diseño 22 ± 2 °C.


a

b

Figura 5. (a) Verificación y cualificación de parámetros ambientales. (b) Vista de las divisiones por m3 en el cuarto limpio clase ISO 6.

La medición de la temperatura se realizó de acuerdo con las especificaciones de la norma, seccionando el volumen del cuarto en unidades cubicas, donde fue monitoreada la evolución de la temperatura (figura 5). La humedad relativa promedio en el cuarto limpio es de 55% por lo que cumple con las especificaciones. Se realizaron mediciones de partículas no viables cumpliendo con los parámetros de diseño para el cuarto limpio obteniendo un promedio de 2 789 partículas/m3 de 0.5 µm. El monitoreo microbiológico en la planta piloto de lavado y acondicionamiento de uniformes antiestáticos realizado por exposición de placa durante 2 horas, indica que las unidades formadoras de colonias (UFC) de bacterias, hongos y levaduras se encuentran entre los límites de aceptación. En la cualificación con actividad, tercera fase, se verifican los gradientes de presión entre salas, la temperatura, humedad relativa, contaminación microbiana y la tasa de cambio de flujo de aire. Tomando en cuenta, en la realización de este procedimiento, las siguientes consideraciones: la persona que realice las mediciones deberá estar capacitado en el manejo de instrumentos de medición; antes de su uso, los instrumentos de medición deberán ser calibrados para garantizar la trazabilidad metrológica y la calidad de la medición; antes de realizar las mediciones, el cuarto limpio deberá estar trabajando con los parámetros controlados de manera ininterrumpida por 72 horas como mínimo.

Análisis y discusión de resultados En general, las instalaciones de la planta piloto de lavado y acondicionamiento de uniformes antiestáticos cuentan con lo necesario para operar. Todas las áreas que conforman la planta están separadas físicamente (ver Figura 6). Existen áreas para las operaciones de recepción de prenda (Figura 6a), área de lavado y secado (Figura 6b), cuarto limpio clase ISO 6 para el doblado y empacado (Figura 6c); un vestidor, un almacén y administración (Figura 6d y Figura 6e). La planta también cuenta con una estación de sanitización en el área de recepción de prendas. En el área de doblado y empacado, el piso es epóxico-antiestático y en las demás áreas es piso epóxico, que proporciona un acabado liso entre uniones y cuenta con aca-

En general, la secuencia de ensayos se describe a continuación: 1. Comprobaciones preliminares. Se realizan ensayos de velocidad del aire y caudal, presión diferencial e integridad y/o ausencia de fugas en filtros. 2. Ensayo de conformidad. Conteo de partículas, para verificar que satisface las especificaciones de calificación. 3. Comprobaciones adicionales. Implica la visualización del flujo de aire y el tiempo de recuperación. Finalmente. 4. Otras comprobaciones. Medición de temperatura y humedad relativa. Finalmente, en la tercera fase, cualificación en actividad, se aplicó la misma secuencia de ensayos utilizados en la fase de cualificación de funcionamiento, incluyendo al personal en operación de procesos.

bados sanitarios en las áreas más críticas, lo que facilita su limpieza. El acceso a la planta piloto de lavado y acondicionamiento de uniformes antiestáticos, sólo se le permite al personal debidamente uniformado. El sistema de aire de la planta está diseñado para mantener las presiones diferenciales especificadas en cada una de las áreas y para controlar la temperatura, humedad relativa, presión diferencial y partículas en el cuarto limpio ISO clase 6, además las pruebas realizadas en los ductos garantizan la hermeticidad de los mismos y la calidad del aire en cada área, el cual cumple con la normativa de velocidad de aire (m/s). La operación de la unidad manejadora de aire (UMA) y la unidad condensadora (UC) es sencilla y fácil de operar.

Revista Científica

81


Figura 6. Áreas de la planta piloto. (a) Recepción, (b) Lavado y secado, (c) Aduana/Doblado y empacado, (d) Vestidor y (e) Almacén y Administración.

a) Conclusiones

b)

c)

La metodología utilizada establece los puntos a calificar dentro de las instalaciones: su clasificación de acuerdo con la cantidad de partículas, monitoreo y seguimiento de limpieza. El no cumplir con alguno de los puntos anteriores, significa que la planta piloto de acondicionamiento no está validada para el uso requerido. La calificación de equipos verifica el funcionamiento y rendimiento de la lavadora y secadora, garantizando que las prendas antiestáticas se encuentran libres de cualquier suciedad, además de contribuir con las buenas prácticas de manufactura. Aunque el personal representa una fuente de contaminación interna, durante el monitoreo de limpieza dentro de la planta piloto, se observó la disminución de suciedad, cuando los trabajadores portan correctamente su uniforme, por lo cual, se estableció un procedimiento de ingreso y vestido para los empleados, con la indumentaria necesaria para los requerimientos de limpieza de cada área. El funcionamiento de la lavadora y secadora no excluye a los trajes antiestáticos de un desgaste, con el cual, pierda sus propiedades antiestáticas, para evitar entregar al cliente un traje inservible después del proceso de lavado, se implementó un procedimiento para realizar pruebas de resistencia de superficie a los trajes antiestáticos, basado en la norma de la ANSI-ESD STM: 2.1:1997, ajustándose a las limitaciones del área. Con la finalidad de conocer los cambios que se presenten, en condiciones normales de proceso en el cuarto limpio de la planta piloto, se ha programado realizar un monitoreo continuo de conteo de partículas, velocidad de aire y temperatura, los cuales forman una parte fundamental del control y validación del cuarto limpio. La aplicación y seguimiento de los protocolos y procedimientos desarrollados aportan las herramientas necesarias para obtener la cualificación del cuarto limpio clase ISO 6 y las demás áreas de la planta piloto de acondicionamiento.

Agradecimientos

d)

e) 82

Revista Científica

Los autores agradecen al fondo mixto de fomento a la Investigación Científica y Tecnológica CONACYT-Gobierno de Estado de Guanajuato Convenio No. 211708 por el financiamiento otorgado al proyecto y a la empresa Beta procesos S. A. de C. V. por las facilidades brindadas. Al M. C. Miguel Ángel Silva García, jefe del Departamento de Metrología del Centro Regional de Optimización y Desarrollo de Equipo (CRODE) Celaya, por su apoyo en la realización de ensayos experimentales.


Bibliografía + AM (2014). Acelera la economía [en línea]. Periódico AM. Recuperado de http://www.am. com.mx/leon/valoragregado/acelera-la-economia-143049.html + AMIA (2014). Boletín de prensa de la Asociación Mexicana de la Industria Automotriz. Expectativas de crecimiento en México. Recuperado de http://www.amia.com.mx/boletin/bpr0914.pdf + Beta Procesos, S.A. de C.V. (2015). Recuperado de http://www.betaprocesos.com.mx/index. php/nosotros.

Recuperado de http://eleconomista.com.mx/estados/2013/01/24/sector-automotriz-acelera-crecimiento-guanajuato. + Esensa, Productos para controlar la contaminación en áreas limpias, asépticas, ESD. (2015). Recuperado de http://www.esensa.com. mx/contacto.html. + Esteves, S.C. y Bento, F. C. (2013). Implementation of air quality control in reproductive laboratories in full compliance with the Brazilian Cells and Germinative tissue directive. 26: 9-21. + González A. (2012) Zonas de trabajo en el área de pintura, CVISMAP, 14 (80): 15-19.

+ Castaño, J. y Orozco, C. (2008). Metodología para el diseño de cuartos limpios, Scientia et Technica, 14 (38): 187-192.

+ ISO 9001:2008, International Organization for Standardization (ISO). Sistemas de Gestion de Calidad.

+ CLAUGTO, Cluster Automotriz de Guanajuato A.C. (2014). Visión Industrial, El Encuentro de Negocios más importante de la Industria Automotriz en Guanajuato [en línea]. Recuperado de http://www.visionindustrial.com.mx/vision-industrial/foro-de-proveeduria-automotriz-el-encuentro-de-negocios-mas-importante-de-la-industria-automotriz-en-guanajuato.html.

+ ISO 14644-1: 1999, International Organization for Standardization (ISO). Cleanrooms and Associated Controlled Environment–Part 1: Classification of Air Cleanliness.

+ Coeli mexicana. (2014). Recuperado de https://aseomexico.com/empresa-coeli-mexicana-em-lerma-de-villada-centro-9877. + DiBerardinis, L. J.; Baum, J. S.; First, M. W.; Gatwood, G. T. y Seth, A. K. (2013). Microelectronics and Cleanroom Laboratories, in Guidelines for Laboratory Design: Health, Safety, and Environmental Considerations, Fourth Edition, John Wiley & Sons, Inc., Hoboken, NJ, USA. + EL ECONOMISTA (2013). Sector automotriz acelera crecimiento de Guanajuato [en línea].

+ ISO 14644-2, International Organization for Standardization (ISO). Cleanrooms and Associated Controlled Environment–Part 2: Specifications for testing and monitoring to prove continued compliance with 14644-1. + ISO14644-4: 2001, International Organization for Standardization (ISO). Cleanrooms and Associated Controlled Environments–Part 4: Design, Construction and Startup. + ISO14644-5: 2004, International Organization for Standardization (ISO). Cleanrooms and Associated Controlled Environments–Part 5: Operations. + Lavatel (2014). Recuperado de http://www.

lavatel.com.mx/. + Luna, C. (2014). Crecen inversiones en México [en línea]. CCNEXPANSION. Consultado el 6 de enero del 2015. http://www.cnnexpansion. com/economia/2014/04/18/guanjuato-y-queretaro-atraen-inversiones. + Millán, S. (2014). Industria automotriz de Guanajuato acelera y rebasa [en línea]. AM. Consultado el 17 de enero del 2015. http://am.com. mx/411967/local/industria-automotriz-de-guanajuato-acelera-y-rebasa-121260.html. + MUNDO HVAC&R (2014). Cuartos limpios en la industria automotriz [en línea]. Recuperado de http://www.mundohvacr.com.mx/mundo/2014/11/cuartos-limpios-en-la-industria-automotriz/ + Saidi, M. H.; Sajadi, B. y Molaeimanesh, G. R. (2011). The effect of source motion on contaminant distribution in the cleanrooms, Building and Environment, 43(4): 966-970. + Vincent, D. W. y Matheson, H. (2007). Design, Construction, Commission, and Qualification of Critical Utility Systems: Part III, Journal of Validation Technology, 12(1): 11, Noviembre, 2005. + Vicencio-Miranda A. La industria automotriz en México. Antecedentes, situación actual y perspectivas, Contaduría y Administración, (121): 211-248. + VMG Static (2014). Recuperado de http:// www.vmgstatic.com/index.php/servicios. + Whyte, W. (2010). Cleanroom Technology, Fundamentals of design, testing and operation, John Wiley & Sons, pp. 21-30, 178-182.

Revista Científica

83


Ramón Parra Loera1, Jansel Edmundo Arreola García2 y Víctor Manuel Morales Rocha3

Universidad Autónoma de Ciudad Juárez Av. Del Charro 450 Norte, Ciudad Juárez, Chihuahua, México, C.P. 32310. 1,2,3

rparra@uacj.mx jansel.arreola@hotmail.com, victor.morales@uacj.mx.

Recibido: Agosto 28, 2017. Recibido en forma revisada: Septiembre 29, 2017. Aceptado: Julio 3, 2018.

84

Revista Científica

Resumen: En este trabajo se demuestra la funcionalidad de virtualización anidada en un ambiente práctico, como lo son los laboratorios de cómputo en instituciones educativas. Se describe un caso real de implementación de virtualización anidada en un laboratorio creado con Hyper-V de Microsoft. Se implementaron dos capas de virtualización por encima del nivel físico y se realizaron pruebas de conexión entre las diferentes máquinas virtuales, probando así la correcta configuración de las mismas.

+

Palabras clave: Virtualización anidada, ambiente de prueba, laboratorio de cómputo.

Abstract: This paper demonstrates the functionality of nested virtualization in a practical environment, such as computer laboratories in educational institutions. A real case of nester virtualization implementation in a lab created with Microsoft Hyper-V is described. Two virtualization layers were implemented above the physical layer and communication tests were performed between the different virtual machines, thus proving the correct configuration and implementation of nested virtualization.

+

Keywords: Nested virtualization, testing environment, computing lab.


Antecedentes Hoy en día es muy común encontrar con equipos de cómputo en instituciones educativas destinados para fines didácticos, de manera que los estudiantes de cualquier nivel educativo estén preparados para la utilización de recursos informáticos básicos. En instituciones de nivel superior, usualmente se encuentran salas especializadas para dicho fin, las cuales se conforman de varios equipos de cómputo. Sin embargo, la manera tradicional de desplegar laboratorios de cómputo presenta una serie de inconvenientes, entre los cuales tenemos: adquisición de gran cantidad de equipos de cómputo, instalación y configuración de cada equipo, mantenimiento preventivo y correctivo para cada máquina, licencias costosas de software especializado, espacio ocupado por equipo que pudiera ser destinado para otros propósitos y recursos limitados para el alumnado. Una de las soluciones que ha tenido más crecimiento en los últimos años son las tecnologías de virtualización, las cuales facilitan la accesibilidad y disponibilidad de los recursos educativos, particularmente en aprendizaje a distancia. Las plataformas educativas virtuales son un claro ejemplo de aplicación de dichas tecnologías, ya que los usuarios pueden acceder a los recursos educativos mediante aulas de clases virtuales (Misevicien, Ambrazien, Tuminauskas y Pazereckas, 2012). En diversas universidades a lo largo del mundo se han puesto en marcha proyectos innovadores que involucran virtualización. Un claro ejemplo está en la infraestructura educativa implementada en la Universidad de Tecnología en Kaunas, Lituania. Dicha infraestructura les permite acceder a los estudiantes y staff a escritorios virtuales y aplicaciones vía Web dentro y fuera de las instalaciones de la institución. La particularidad de dicha infraestructura es que cuenta con una interfaz de administración donde es posible ver cuáles y en qué cantidad de recursos están siendo utilizados por los usuarios (Misevicien, Ambrazien, Tuminauskas y Pazereckas, 2012). En el caso de implementación de laboratorios de virtualización, se tiene el caso de la plataforma de ética educacional llamada DoS_VLab, desarrollada en la Universidad de los Emiratos Árabes Unidos. Este laboratorio fue creado para permitir a los estudiantes emular ataques comunes de denegación de servicio (DoS) en un ambiente académico seguro. Dicha plataforma está basada en tecnologías de virtualización y simulación de redes virtuales. la cual ha ayudado a que los estudiantes puedan realizar más prácticas y en menor tiempo que en un laboratorio de cómputo convencional (Al Kaab, Al Kindi Al Fazari y Trabelsi, 2016).

Virtualización anidada

de emplear un método para entrenar correctamente a su personal de TI en materia de virtualización. La virtualización anidada provee la capacidad a los profesionales de TI de simular ambientes de virtualización enteros, sin tener que lidiar con el gasto de equipo de cómputo adicional. Dichos ambientes de prueba virtualizados son sumamente útiles cuando se emplean para fines didácticos. Las universidades se pueden apoyar con dichas plataformas para que sus estudiantes en Sistemas o carreras afines puedan aplicar de manera práctica sus conocimientos sobre virtualización.

b) Contenedores: Los contenedores son un tipo de máquina virtual que se enfoca en proveer un ambiente aislado para una aplicación específica, sin tener que virtualizar y utilizar recursos en un sistema operativo completo (Syrewicze, 2016). A pesar de las inherentes ventajas que nos presenta la virtualización anidada como lo son el ahorro de costos, flexibilidad de uso e implementación, además de ser una plataforma con gran potencial didáctico, también presenta la gran desventaja de una disminución considerable del rendimiento del equipo donde se corra. La virtualización dentro de virtualización tiene una sobrecarga de recursos hasta de un 15%. Las nuevas tecnologías de hardware, así como las actualizaciones de los hipervisores están mejorando esta situación, ya que, con una mejora continua de los equipos de cómputo y la afluencia de controladores para virtualización anidada, esta sobrecarga podría llegar a reducirse hasta un 5% (Stuart, 2012). Debido a lo anterior, no se recomienda utilizar la virtualización anidada en ambientes de producción, ya que algunas funcionalidades siguen en fases de prueba y aún no han sido perfeccionadas por los desarrolladores (Syrewicze, 2016). No obstante, es la herramienta perfecta tanto para estudiantes como para profesionales de tecnologías de la información debido a que los ayuda a capacitarse y entender más a detalle los conceptos de virtualización.

Implementación de virtualización anidada El primer objetivo de este trabajo ha sido demostrar la funcionalidad de la virtualización anidada. Primeramente, se debió determinar cuál sería el hipervisor principal de la solución. Dicho hipervisor sería aquel que estuviera instalado directamente en un servidor físico y que además contendría toda la estructura de virtualización. Para esto se pusieron a prueba tanto Hyper-V de Microsoft como ESXi de VMware, los cuales son de los hipervisores más populares en el mercado en la actualidad, de manera que se pudieran comparar sus características.

La virtualización de cómputo permite crear, mediante hipervisores, un ambiente donde se pueden correr múltiples sistemas operativos dentro de un mismo equipo físico, y así aislar dichos sistemas operativos para utilizarlos como equipos de cómputo independientes. En recientes años se han desarrollado tecnologías que permiten virtualizar dentro de un ambiente ya virtualizado, siendo esto lo que se conoce como virtualización anidada. En términos más sencillos, es la práctica de correr un hipervisor dentro de una máquina virtual, lo que proveería una segunda capa de virtualización. Esto puede ser útil para aplicaciones como:

+ Cuenta con consolas de administración y herramientas para personal de TI familiarizado con interfaces basadas en Windows.

a) Ambientes de prueba: Debido a que la compra de hardware en general no es barata, a las empresas se les dificulta encontrar la manera

+ Debido al convenio de la universidad con Microsoft, se pudieron disponer de las mismas licencias para la activación de Windows Server

• Virtualización anidada en Hyper-V Luego de probar ambos hipervisores, finalmente se optó por hacer el desarrollo a través de Hyper-V, siendo estos algunos de los factores que contribuyeron para elegirlo sobre ESXi:

Revista Científica

85


2016.

+ La virtualización anidada no está soportada oficialmente con VMware. ESXi tiene restricciones tiempo real muy estrictas que no siempre se pueden cumplir en un entorno virtualizado, en donde el hipervisor tiene que compartir el control del hardware físico con el sistema operativo del host (VMware, Support for running ESXi/ESX as a nested virtualization solution, 2017).

las máquinas virtuales contenidas en VMware Server. El rango de direcciones IP estáticas utilizado para todo el ambiente fue del 148.210.68.231 (host físico) al .239. En la Figura 1 se muestra el nivel de virtualización 1 corriendo por encima del nivel físico.

La virtualización anidada en Hyper-V es una funcionalidad que permite correr Hyper-V o algún otro hipervisor dentro de una máquina virtual creada con Hyper-V. En otras palabras, es posible que un hipervisor host pueda ser virtualizado y a su vez poder crear otras máquinas virtuales en este. Correr un contenedor en un host virtualizado, probar escenarios con múltiples maquinas sin contar con hardware dedicado o hasta desplegar un laboratorio de cómputo completo en un ambiente virtualizado son algunos casos de uso para virtualización anidada (Thompson y Cooley, 2016), siendo este último la finalidad de este trabajo. Figura 1. Esquema de virtualización nivel 1 (virtualización sobre host físico).

• Configuración del servidor físico Para poder implementar virtualización anidada sobre Hyper-V, primero se tuvieron que tener en cuenta los siguientes prerrequisitos en el servidor físico donde se harían las pruebas:

+ Procesador(es) que soportara(n) virtualización asistida por hardware. +

Sistema operativo Windows Server 2012 R2 o posterior.

+

Tener habilitado el rol de Hyper-V.

+

Hyper-V debía estar actualizado a la versión 8.0 o posterior.

Posteriormente se crearon las máquinas virtuales donde se crearon los ambientes de prueba (véase siguiente sección), para luego hacer una configuración adicional a cada una de manera que soportaran virtualización anidada. Hecho lo anterior, se deshabilitó la memoria dinámica para cada máquina virtual debido a que no tendría efecto al momento que los hipervisores virtualizados estuvieran corriendo (es necesario apagar la máquina virtual para hacer el ajuste de memoria manual). Luego se habilitó el MAC spoofing en el adaptador virtual de red de cada máquina, de manera que permitiera que los paquetes de red pudieran transferirse entre switches virtuales; esto para que las máquinas virtuales de cada hipervisor pudieran comunicarse con el resto de la red. Por último, se le asignó a cada máquina virtual un mínimo de dos procesadores virtuales por máquina (Thompson y Cooley, 2016).

Implementación de máquinas virtuales estándar: nivel de virtualización 1 Después de haber configurado el servidor físico y creado las dos máquinas virtuales, se instalaron Hyper-V y ESXi en cada máquina respectivamente. Ambas máquinas se conectaron a un mismo switch virtual de tipo externo, de manera que se les pudiera proveer de direccionamiento estático y conectividad a internet. Adicional, se creó una máquina virtual que fungiría como cliente de VMware (Windows 10), para así gestionar

86

Revista Científica

• Máquina virtual con Hyper-V (LC-Hyper-V) Se creó una máquina virtual con las siguientes características:

+

10240 MB (10 GB) de memoria RAM.

+

80 GB de disco duro.

+

Imagen (.iso) montada de Windows Server 2016 (x64).

+

Conectado al switch virtual externo.

En esta máquina virtual se instaló el sistema operativo de Windows Server 2016, de manera que se pudiera habilitar el rol de Hyper-V. Para que la administración del sistema operativo pudiera ser más sencilla, este se instaló en modo estándar con experiencia de escritorio. La única configuración adicional fue asignarle la dirección IP estática 148.210.68.232, de manera que se pudiera comunicar con el exterior. Una vez habilitado Hyper-V, se creó una máquina virtual con Windows 10 que serviría como templete para el resto de las máquinas del laboratorio. Una vez creada la máquina virtual, se instaló y actualizó el sistema operativo para posteriormente preparar la máquina para hacerla templete mediante la herramienta sysprep. La función de esta herramienta es crear una imagen personalizada del Windows, que limpia la información de seguridad del equipo (SIDs) donde está alojado y la prepara para un arranque desde cero, tomando en cuenta las configuraciones y aplicaciones instaladas previamente en este. Luego que se replicara la máquina virtual original, se creó un switch privado para interconectar las máquinas en una red aislada, de manera que se le pudieran asignar direcciones IP de un rango privado.

• Máquina virtual con VMware (LC-ESXi) Se creó una segunda máquina en el hipervisor principal para alojar ESXi, con las siguientes características:


+

10240 MB (10 GB) de memoria RAM.

+

80 GB de disco duro.

Debido a que por default el kernel de ESXi no cuenta con los controladores necesarios para poder correr sobre una NIC virtual (en el caso de Hyper-V los Microsoft Networking Adapters), fue necesario “inyectar” los controladores necesarios en la copia del .iso de ESXi a utilizar en esta máquina virtual. Para ello fue necesario contar con lo siguiente:

+ VMware PowerShell CLI, la cual es una línea de comandos basada en PowerShell, la cual se utiliza para gestionar y automatizar ambientes de VSphere. + ESXi-Customizer-PS, el cual es un script de PowerShell para inyectar los controladores requeridos en un .iso de ESXi 5.x/6.x. Teniendo en cuenta lo anterior, se corrió el siguiente comando en Windows PowerShell sobre la ruta del directorio donde se encontraba almacenado el script: .\ESXi-Customizer-PS-v2.4.ps1 -v60 -vft -load net-tulip. Esto hizo que se descargara una copia de ESXi v6.0 de un repositorio de imágenes a la cual se le inyectaron los controladores necesarios (Scott-Raynsford, 2016). Al haber descargado la imagen, se montó en la máquina virtual para su instalación. Adicional a esta imagen, se le agregó un adaptador de red virtual Legacy en vez de uno convencional, ya que VMware no soporta los adaptadores de red virtuales convencionales. Los adaptadores Legacy emulan un adaptador de red físico (Microsoft, Configure Networking, 2017).

• Máquina virtual con Windows 10 (LC-ESXi Cliente) Por último, se creó una tercera máquina virtual en el hipervisor principal para fungir como el cliente de ESXi, desde el que se haría la administración de las máquinas virtuales, con las siguientes características:

+

4096 MB (4 GB) de memoria RAM.

+

50 GB de disco duro.

+

Imagen (.iso) montada de Windows 10 Education (x64).

+

Imagen (.iso) montada de Windows 10 Education (x86).

Sin embargo, debido a que ESXi no soporta la virtualización anidada de manera nativa, se tuvo que agregar el parámetro vmx.allowNested = TRUE a la máquina virtual, la cual permite la instalación de un sistema operativo (VMware, Installing a nested virtual machine fails with the error, 2015). El sistema operativo se tuvo que instalar en su versión de 32 bits, debido a que Hyper-V no virtualiza las características de virtualización asistida por hardware con las que cuenta el CPU físico (Mattson, 2015). Al igual que en la máquina virtual con Hyper-V, se creó un switch privado para interconectar las máquinas virtuales que se crearan en ESXi en una red aislada.

Resultado de pruebas de máquinas virtuales anidadas: nivel de virtualización 2 Luego de realizar las configuraciones correspondientes en cada hipervisor virtualizado, se procedió a replicar el templete en tres máquinas virtuales por hipervisor. En la Figura 2, se muestra la arquitectura completa, con el nivel de virtualización 2. Inicialmente se hicieron pruebas para ver cuanta memoria había que asignarle a cada máquina, de manera que pudieran correr todas a la vez sin causar conflicto con la memoria necesaria para el funcionamiento de la máquina virtual/ hipervisor que las alojaría. Una vez que se aseguró que todas las máquinas pudieran correr simultáneamente sin problemas, se les asignaron direcciones IP privadas, de manera que se creara una red aislada para cada grupo de máquinas por hipervisor. Direcciones red Hyper-V: Segmento: 10.0.1.0/24 Gateway: 10.0.1.1 Direcciones red ESXi: Segmento: 10.0.2.0/24 Gateway: 10.0.2.

+ Adaptador de red Legacy (para establecer comunicación con el servidor ESXi). Una vez instalado y configurado el sistema operativo, se accedió al servidor ESXi por medio de la aplicación cliente de vSphere, mediante el cual se crearon las máquinas virtuales contenidas en el servidor ESXi. De igual manera que en la máquina con Hyper-V, primero se creó una máquina virtual con Windows 10 que serviría como templete para el resto de las máquinas del laboratorio, con las siguientes características base:

+

2 GB de memoria RAM.

+

20 GB de disco duro.

Figura 2. Esquema de virtualización nivel 2 (virtualización sobre hosts virtuales).

Revista Científica

87


La primera máquina de cada grupo (HV-VM1, ES_VM1) recibió la dirección .1 de su segmento, de manera que fungieran como gateway para interconectar el resto de las máquinas de su red. Posteriormente se hizo ping entre las máquinas para confirmar que hubiera comunicación entre ellas. Finalmente se probó que la conexión de red entre máquinas era correcta (Figura 3 y Figura 4), lo cual pudo proveer un ambiente virtualizado aislado el cual no tuviera salida hacia las otras máquinas hipervisores o hacia el host físico. Cabe resaltar que el desempeño de las máquinas virtuales de segundo nivel no fue óptimo, pero esto se debe a los recursos limitados del servidor físico. En el caso de las máquinas de ESXi el desempeño fue aún más pobre que en Hyper-V; esto debido a la naturaleza del hipervisor, el cual no está diseñado para funcionar correctamente en modo anidado.

Figura 3. Confirmando comunicación mediante pings en Hyper-V.

Figura 4. Confirmando comunicación mediante pings en ESXi.

Conclusiones Con este trabajo se probó que la virtualización anidada funciona de manera efectiva como un medio viable para crear ambientes de prueba. En dichos ambientes, los alumnos pueden disponer de su propio hipervisor de manera que puedan experimentar y comprender los conceptos de virtualización. Cabe resaltar que la robustez del equipo físico determinará cuántos ambientes de prueba se pueden crear a la vez, así como el desempeño que tendrán estos. Es importante destacar que la implementación de la virtualización anidada representa un importante ahorro de recursos y por lo tanto de dinero, lo cual convierte a este tipo de tecnología en la solución ideal no solo para laboratorios de cómputo, sino para todo tipo de organizaciones que requieren dar servicio a una cantidad grande de usuarios.

88

Revista Científica


Bibliografía + Al Kaab, S.; Al Kindi, N.; Al Fazari, S. y Trabelsi, Z. (2016). Virtualization based Ethical Educational Platform for Hands-on Lab Activities on DoS Attacks . IEEE Global Engineering Education Conference. + ESXi 6 install stuck on “Relocating modules and starting up the kernel…” (2016). Obtenido de Tales from the Datacenter: http://talesfromthedatacenter.com/ archives/582 + IBM (2010). IBM Developer Works. (Biblioteca Tecnica) Obtenido de https:// www.ibm.com/developerworks/ssa/websphere/library/ws-vcl/ + Mattson, J. (2015). Failed to start the virtual machine. Obtenido de VMware Communities: https://communities.vmware.com/thread/511199 + Microsoft (2017). ¿Qué es Sysprep? Obtenido de Technet: https://technet. microsoft.com/es-es/library/cc721940(v=ws.10).aspx + Microsoft. (2017). Configure Networking. Obtenido de Technet. + Misevicien, R.; Ambrazien, D.; Tuminauskas, R. y Pazereckas, N. (2012). Educational Infrastructure Using Virtualization Technologies: Experience at Kaunas University of Technology. Informatics in Education, 11(2), 227–240. + Murphy, M. C. y McClelland, M. K. (2009). My Personal Computer Lab: Operating in the “Cloud”. Information Systems Education Journal, 7(93), 1-11.

E50245_01/E50249/html/vmcon-hypervisor.html + Scott-Raynsford, D. (2016). Install a VMWare ESXi 6.0 Hypervisor in a Hyper-V VM. Obtenido de PowerShell, Programming and DevOps: https://dscottraynsford.wordpress.com/2016/04/22/ install-a-vmware-esxi-6-0-hypervisor-in-ahyper-v-vm + Stuart (2012). Second Edge. Obtenido de The Impact of Nested Virtualization: https://www.second-edge.com/?p=101 + Syrewicze, A. (2016). How to enable Nested Virtualization on Hyper-V y Windows Server 2016. Obtenido de Hyper-V Hub by Altaro: http://www.altaro.com/ hyper-v/nested-virtualization-hyper-v-windows-server-2016/ + Thompson, T. y Cooley, S. (2016). Run Hyper-V in a Virtual Machine with Nested Virtualization. Obtenido de Microsoft Docs: https://docs.microsoft.com/ en-us/virtualization/hyper-v-on-windows/ user-guide/nested-virtualization + VMware. (2015). Installing a nested virtual machine fails with the error. Obtenido de VMware Knowledge Base: https:// kb.vmware.com/selfservice/microsites/ search.do?language=en_US&cmd=displayKC&externalId=2108724 + VMware (2017). Support for running ESXi/ESX as a nested virtualization solution. Obtenido de VMware Knowledge Base: https://kb.vmware.com/selfservice/ search.do?cmd=displayKC&docType=kc&docTypeID=DT_KB_1_1&externalId=2009916

+ Oracle® (2014). What are Hypervisors? Obtenido de Concepts Guide for Release 3.3: https://docs.oracle.com/cd/

Revista Científica

89


Gustavo Rodríguez Miranda1, Irma Gabriela Orozco González2, Lucila Villa Pérez3 e Imelda Yáñez Ruiz4

Universidad Tecnológica de Tijuana. Carretera libre Tijuana –Tecate Km 10 S/N El Refugio Quintas Campestre Tijuana, Baja California, México, C.P. 84824 1,2,3,4

gustavo.rodriguez@uttijuana.edu.mx

Resumen: Este trabajo de investigación tiene como propósito presentar la manera en que se han direccionado los talentos y capacidades de los alumnos de la Universidad Tecnológica de Tijuana para facilitar el encuentro entre la Responsabilidad Social Universitaria y la Responsabilidad Social Empresarial. La forma de lograrlo es mediante el acercamiento de información de educación ambiental a microempresarios de la ciudad. Para ello se ha diseñado un taller presencial dirigido a este público. El taller contiene 23 módulos que ya se encuentran disponibles para su aplicación en forma total o parcial, ya sea en grupo o individualmente. Con la participación de los alumnos se tiene la posibilidad de formar comunidades de aprendizaje en el tema ambiental, que en la actualidad ocasiona un alto impacto en la sociedad y acerca del cual nadie debiera ser ajeno.

+

Palabras clave: Responsabilidad social, comunidades de aprendizaje, educación ambiental.

Recibido: Mayo 7, 2018. Recibido en forma revisada: Junio 5, 2018. Aceptado: Julio 3, 2018.

90

Revista Científica

Abstract: This research paper has the objective of showing the way the students of Universidad Tecnológica de Tijuana designed a modular workshop oriented to entrepreneurs. The subject is environmental education and was considered for making a vortex between Social Responsibility-university and corporate-. By using the concept of learning communities they created 23 modules in order to offer important environmental information to Tijuana entrepreneurs.


+ Keywords: Social responsibility, learning communities, environmental education. Introducción Ante el deterioro del medio ambiente que la sociedad no percibe en sus diferentes dimensiones se encuentran posiciones encontradas que llevan a la reflexión. Para Fullat (2001), cultura, técnica e instituciones sociales son fenómenos históricos y por consiguiente contingentes y variables. Al educar se pasa de la naturaleza a la civilización. Es decir, la educación como aprendizaje permite cambiar el código genético correspondiente al estado naturaleza para transformarlo a ciudadano en el marco de la civilización. La civilización es el fenómeno global humano, mientras que cultura (manera de ver el mundo), técnica (manera de modificar el mundo) e instituciones (manera de instalarse en el mundo) son especificaciones para comprender la totalidad de la civilización. Puesto que cada civilización se planta ante sus educandos como legítima y soberana (Fullat, 2001), el efecto es que se llega a la pretensión de sentirse la única y original a imitar, y se deja a un lado la contingencia y la temporalidad que cada civilización tiene como características. Lipovetsky y Juvin (2011), plantean que la cultura-mundo consagra dos grandes ideologías o corrientes de pensamiento de esencia cosmopolita: la ecología y los derechos humanos. Al productivismo ciego se opone ahora el imperativo de una tecnologización reflexiva y ecológica que debe tener en cuenta la dimensión integral del planeta, en nombre de toda la humanidad y su futuro. Hoy la humanidad tiene dos opciones: seguir formando el capital humano contaminador y consumista que atenta contra la vida o elegir una vida plena, feliz y en armonía con la naturaleza. El ser humano tendrá que aclarar su opción ética para construir la racionalidad ambiental (Cisneros, 2016). Para Cisneros (2016), las reformas educativas recientes plantean una educación con lógica empresarial; promovidas por organizaciones de financiamiento internacional y aceptadas por el gobierno mexicano con el argumento de mejorar la calidad. En este sentido, la escuela no educa para el desarrollo integral del ser humano sino para reproducir las condiciones sociales y económicas, se les concibe como individuos que solamente sean instrumentos del proceso productivo.

sociales y, más profundamente, de sujetos personales. El triunfo del mercado no es solo económico: es cultural, pues se ha convertido en un esquema estructurador de la mayor parte de nuestras organizaciones. Ha conquistado el imaginario colectivo e individual, las formas de pensamiento, los objetivos de la existencia, la relación con la cultura, con el deporte, con el arte, la educación (Lipovetsky y Juvin, 2011). Cisneros (2006), comenta que en este sentido la Ecopedagogía aporta el cuestionamiento a la racionalidad económica para concretar acciones inmediatas, a mediano y largo plazo que reparen/curen los ecosistemas. La Ecopedagogía según reporta Mallart (2007), es educación para una actuación responsable hacia el ambiente y, a la vez, es una educación por el ambiente. No trata solamente de educación ambiental, sino de una interacción entre la educación para el entorno, el desarrollo económico y el progreso social. No se trata de conservar el paisaje, sino la Vida y las mejores Condiciones de Vida para todos. Por otra parte, Alcalde, Buitago, Castanys, Falces, y Flecha (2006), indican que las comunidades de aprendizaje dan una respuesta a la sociedad del conocimiento, potenciando la comunicación y sus distintos lenguajes, promoviendo la integración de lo que ocurre en el entorno, fuera del aula, en el proceso de enseñanza-aprendizaje, fomentando la búsqueda del interés por enseñar y aprender, favoreciendo la participación de todos los integrantes en el proceso de aprendizaje y buscando la innovación y la experimentación como estrategias para aprender. Son por tanto, una forma alterna que se puede utilizar para contribuir a elevar la sensibilización en los temas de tipo ambiental. Ante esta perspectiva, y considerando que la educación ambiental enfrenta actualmente:

Los protocolos burocráticos para la modificación de los planes de estudio de las escuelas.

La percepción de que la educación ambiental no representa un valor económico inmediato.

• El condicionamiento de la sociedad en general. •

El papel de los medios de comunicación, con una marcada tendencia a dar importancia a lo trivial y a lo superficial.

La tarea ignorada por la educación vigente es no resolver la problemática ambiental fundamentalmente porque no cuenta en su currículo con un programa actual integral para concientizar a los estudiantes del desastre ecológico; por el contrario, reproduce la desvalorización y destrucción de los ecosistemas (Cisneros, 2016).

Se plantea explorar un camino alternativo que consiste en incorporar la educación ambiental como educación no formal en las universidades. Es el establecimiento de la relación de los estudiantes con pequeños empresarios de la comunidad para que se unan los conceptos de responsabilidad social - universitaria y empresarial -con el servicio social que los estudiantes deben prestar a la comunidad. Es la creación de comunidades de aprendizaje que acerquen información pertinente del medio ambiente a los empresarios interesados en ampliar sus conocimientos. Ello implica además la creación de una campaña de difusión y, en su caso, establecerlo como una red que permita el acceso a toda la comunidad.

Por su parte Touraine (2005), señala que la escuela no debe poner al niño al servicio de la sociedad y tampoco debe ser un mero lugar de aprendizaje. Debe ser, por el contrario, un lugar de formación de actores

De igual forma, en algún momento se tendrá que considerar la opción de que en esta época la tecnología permite un acercamiento a la información ya que el concepto de comunidad virtual de aprendizaje no se cierne

Y es que en todas partes reina ya el sistema de capitalismo globalizado y financierizado, un hipercapitalismo desbocado cuyo precio estamos pagando cruelmente (Lipovestsky y Juvin, 2011).

Revista Científica

91


únicamente a las que se conforman de miembros de una única escuela, sino que existen múltiples experiencias de comunidades supra institucionales, que reúnen a los miembros de distintos colectivos, cercanos o físicamente distantes entre ellos. Ésas son verdaderas redes de aprendizaje, con referentes y entornos distintos, con potenciales de intercambio y de impacto y con potentes reflexiones como consecuencia de esos intercambios (Alcalde Buitago, Castanys, Falces y Flecha, 2006). Esta posibilidad se encuentra ya al alcance de las escuelas que deseen realizar una tarea de acercamiento entre sus estudiantes y la comunidad, como es el caso de pequeños empresarios. El futuro de la sociedad podría beneficiarse con estas redes, utilizando la tecnología no solamente como un medio de entretenimiento, sino para acciones que tengan un impacto mayor en la vida cotidiana.

El taller

Así, el diseño de este taller permite la creación de un vértice donde convergen las dos responsabilidades sociales mencionadas. Los temas del taller, conceptualizados en términos de módulos de una hora de duración, son los siguientes:

1. Introducción: la contaminación ambiental y el calentamiento global somos todos. Los orígenes. 2.

Responsabilidad social empresarial: Lo que se puede hacer.

Ante el deterioro del medio ambiente que la sociedad no percibe en sus diferentes dimensiones se encuentran posiciones encontradas que llevan a la reflexión. En este sentido, se cuenta con la iniciativa reciente de un grupo de alumnos y profesores de la Universidad Tecnológica de Tijuana, consistente en el diseño de un taller de educación ambiental orientado a microempresarios. Desde el año 2017 fue creado un taller de educación ambiental en línea dirigido a alumnos de la universidad. El taller ya está disponible y en uso por parte de la licenciatura de Tecnología ambiental. Con base en este primer taller, otros alumnos de la licenciatura de Desarrollo de Negocios han preparado un segundo taller, ahora presencial, orientado a microempresarios como usuarios. La razón de este esfuerzo descansa en la siguiente fundamentación: las microempresas representan sin duda la mayoría de las empresas del país y son las que cuentan con menos recursos para capacitación y actualización. Una parte importante que se reconoce en esta época es que deben cubrir los aspectos relacionados con la responsabilidad social empresarial según lo señalan Carrillo, Chávez, González, Juárez y Mendieta (2009), como un término que hace referencia al conjunto de obligaciones y compromisos, legales y éticos, tanto nacionales como internacionales que se derivan de los impactos que la actividad empresarial produce en el ámbito social, laboral, medioambiental y de los derechos humanos. Por su parte, las instituciones de educación superior también están sujetas a su propia responsabilidad universitaria que según Vallaeys (2009) propone además transformar a la universidad y su entorno social en laboratorios para aprender, enseñar, investigar e innovar, por un lado, y por otro, un campus responsable representa un excelente laboratorio interno para desarrollar investigaciones socialmente responsables, al mismo tiempo que constituye un modelo ejemplar de coherencia institucional para la formación ética de los estudiantes. Para la Universidad Tecnológica de Tijuana representa la oportunidad de trabajar con la comunidad empresarial y dar sentido a su misión:

92

“Somos una universidad pública que transforma la calidad de vida de nuestros estudiantes y su entorno”

Revista Científica

3. Agua: Impacto de la disposición de desechos líquidos y sólidos, tóxicos y no tóxicos. 4. Aire: Impacto de la disposición de desechos gaseosos y sólidos, tóxicos y no tóxicos. 5. Suelo: Impacto de la disposición de desechos líquidos y sólidos, tóxicos y no tóxicos. 6. Las tres R: Reducir, Reciclar, Reutilizar. 7. Manejo de líquidos: aceites, detergentes, ácidos. 8. Manejo de impresos: papel, cartón. 9. Manejo de plásticos: PVC, polietileno, poliestireno, PET, flejes. 10.

Manejo de equipo electrónico: baterías, teléfonos, pantallas.

11. Uso de extintores. 12. Manejo de gas LP. 13. Combustibles líquidos: gasolina; sólidos: carbón. 14. Metales: aluminio, alambre. 15. Forestación. 16. Logística inversa. 17. Organizaciones internacionales.


18. Instituciones de educación superior. 19. Organizaciones gubernamentales. 20. Leyes, reglamentos. 21. Días alusivos al medio ambiente: Calendario de eventos en la comunidad. 22. Campañas de acopio: impresos, electrónicos, baterías. 23. ISO 26000.

Bibliografía + Alcalde, A.; Buitago, M.; Castanys, M.; Falces, M. y Flecha, R. (2006). Transformando la escuela:comunidades de aprendizaje. Barcelona: GRAO. ISBN: 9788478274314. + Carrillo, G.; Chávez, M.; González, O.; Juárez, M. y Mendieta, E. (2009). La responsabilidad ambiental en las instituciones de educación superior. El caso PIHASU-UAM. Revista Administración y organizaciones. Volumen 12 No 23,9-22. ISSN 1665014X.

Conclusiones El resultado es que ya se cuenta con un grupo de 23 módulos para su oferta a empresarios de empresas pequeñas, dependiendo de sus intereses específicos y su actividad económica. Cabe mencionar que los alumnos hicieron pruebas con microempresarios con el objeto de afinar sus módulos en términos de tiempo y contenido. Otro grupo de alumnos prepararon en forma simultánea una campaña de difusión para acompañar al taller que se comenta, ya que no es suficiente contar con la información sino que también se debe comunicar eficientemente al público objetivo señalado. Finalmente, se considera que con este esfuerzo conjunto se pone a disposición de la comunidad empresarial información que se encuentra en la red, pero que tiende a la dispersión. El acercamiento entre alumnos y empresarios da también elementos de fortalecimiento en la preparación de los estudiantes para su desarrollo como individuos y ciudadanos.

+ Cisneros, L. (2016). Las alternativas educativas desde la Pedagogía Critica y la educación popular. México: Ediciones michoacanas. + Fullat, O. (2001). Antropología y educación. Puebla: Universidad Iberoamericana. ISBN: 978607-7901-17-4. + Lipovetsky, G. y Juvin, H. (2011). El occidente globalizado. Un debate sobre la cultura planetaria. Barcelona: Anagrama. ISBN 978-84-339-6334-5. + Mallart, J. (2007). Es la hora de la Ecopedagogía.La década de la educación para un futuro sustentable. Obtenido de http://www.encuentros-multidisciplinares.org/Revistan%BA25/Joan%20Mallart%20 Navarra.pdf + Touraine, A. (2005). Un nuevo paradigma para comprender el mundo de hoy. Barcelona: Paidós. ISBN 84-493-1819-X. + Universidad Tecnológica de Tijuana (24 de abril de 2018). Obtenido de UTT: http://www.uttijuana.edu.mx/quienes-somos/ + Vallaeys, F.; De la Cruz, C. y Sasia, P. (2009). Responsabilidad Social Universitaria, Manual de primeros pasos. México: McGraw-Hill Interamericana Editores, S.A. de C.V. ISBN 978-1-59782-0820.

Revista Científica

93


Yolanda Flores Ramírez1, Germán Espino Olivas2, José Ángel Pendones Fernández3 y Saúl García Andazola4

Instituto Tecnológico Superior de Nuevo Casas Grandes Ave. Tecnológico No. 7100 Nuevo Casas Grandes, Chihuahua, México, C.P. 31700. 1,2,3,4

yflores@itsncg.edu.mx

Resumen: En el ámbito gubernamental se carece de herramientas administrativas y tecnológicas que permitan el manejo y control presupuestal distribuido en los departamentos encargados de aplicar y ejecutar el gasto. El objetivo de este trabajo es diseñar una aplicación de escritorio basada en un modelo de operación que permita distribuir y controlar el presupuesto de egresos asignados por cuenta contable y departamento en cada una de las etapas que marca la Ley General de Contabilidad Gubernamental. Se realizó en dos fases: la primera fue de análisis del procedimiento que lleva el ayuntamiento actualmente y del propuesto, de recolección de información presupuestal asignado por área, se estableció un instrumento administrativo controlador, diseño del procedimiento. En la segunda etapa se creó la aplicación que genere información sobre saldos para la toma de decisiones. Con esta propuesta se reducirán sobregiros en el presupuesto público.

+

Palabras clave: Control presupuestal de egresos, información, toma de decisiones.

Recibido: Mayo 7, 2017. Recibido en forma revisada: Junio 5, 2018. Aceptado: Julio 3, 2018.

94

Revista Científica

Abstract: In the governmental sphere, there is a lack of administrative and technological tools that allow the management and budget control distributed in the departments responsible for applying and executing the expense. The objective of this work is to design a desktop application based on an operation model that allows to distribute and control the budget


of expenditures assigned by account and department in each of the stages established by the General Law of Government Accounting. It was carried out in two phases: the first stage was an analysis of the procedure currently carried out by the municipality and the proposed one, the collection of budgetary information assigned by area, an administrative controlling instrument was established, and the procedure was designed. In the second stage, the application was created to generate information on balances for decision making. With this proposal, overdrafts in the public budget will be reduced.

+ Keywords: Budgetary control of expenditures, information, decision

making.

Introducción El presupuesto es un instrumento de planeación a corto plazo, a través del cual se distribuyen los recursos del municipio, mediante cálculos y estimaciones que muestran la forma de cómo se obtienen y se aplican los recursos públicos. Antes de iniciar cualquier acción administrativa según Münch Galindo (2005), es imprescindible fijar objetivos e identificar los recursos con los que se cuenta. Carecer de estos fundamentos implica correr riesgos sobre una administración improvisada. Los presupuestos desempeñan un papel relevante afirma Ramírez Padilla (2002), ya que estos nos ayudan a determinar las acciones que deben llevarse a cabo para cumplir con los objetivos y al mismo tiempo asignarles cantidades o traducirlas en pesos. La elaboración del presupuesto gubernamental se conforma por unidades programáticas presupuestarias, unidades responsables, por programas y subprogramas, y se desprende una nueva estructura programática, con la que se pretende definir, dirigir y transparentar los planes de acción durante la aplicación de los recursos públicos, buscando la mejoraría no solamente en la aplicación del recurso sino también en el rendimiento del mismo (CONAC, 2010).

La Cámara de Diputados del Congreso de la Unión, (2008), en la Ley General de Contabilidad Gubernamental definen como cuentas presupuestarias de egresos el gasto comprometido, gasto ejercido y gasto pagado como cada una de las etapas que deben registrarse presupuestalmente. El objeto de estudio del presupuesto, es prever las fuentes y montos de los recursos monetarios y asignarlos anualmente para financiar los planes, programas y proyectos gubernamentales. El proceso del sistema del presupuesto comprende las etapas de: formulación, aprobación, ejecución, control y evaluación. Las normas de control interno para el área de presupuestos, están orientadas a regular los aspectos clave del presupuesto (SHCP, 2016). El control interno, cuyo principal propósito persigue el logro de los objetivos institucionales, es también un proceso de auto-vigilancia que debe proporcionar eficacia y eficiencia de las operaciones; confiabilidad de la información financiera y operativa, y cumplimiento de las leyes y normatividad aplicable (Secretaría de la Función Pública, 2012).

Por este motivo, es importante contar con un adecuado control interno para el eficiente manejo del presupuesto; ya que la mayor parte de los hallazgos encontrados en las auditorías o revisiones a las administraciones públicas de los diferentes estados y municipios del país, se relacionan con deficiencias del control interno, el municipio de Nuevo Casas Grandes no es la excepción.

Por lo antes expuesto, se realizó la aplicación basada en un modelo de operación para Control Interno del Presupuesto de Egresos que identifique y afecte cada una de las etapas presupuestales que marca la Ley General de Contabilidad Gubernamental y el CONAC ( Consejo Nacional de Armonización Contable) logrando así la homologación de los departamentos encargados de controlar y ejercer el gasto, para beneficio del municipio de Nuevo Casas Grandes ya que se logra la correcta aplicación, manejo y control del presupuesto de egresos. El proceso de elaboración del modelo consistió en una serie de actividades, desde el momento en que se compromete el gasto hasta que se paga, alimentando en una hoja de Excel los datos recabados en los distintos departamentos (Oficialía Mayor, Obras Públicas y Tesorería), creando una base de datos y posteriormente una macro, cuyo conjunto de comandos que se almacena en Excel conformará el modelo para su posterior programación.

Metodología El tipo de la investigación es aplicada, ya que con procedimientos teóricos se desarrolló una aplicación que resolviera el problema de falta de control presupuestal. El alcance de la investigación es descriptivo ya que está basada en la determinación del comportamiento y las características del presupuesto de egresos. El diseño es no experimental porque analiza cada una de las variables del gasto público aplicando la normatividad que influye en el control del mismo. Este trabajo se elaboró siguiendo la metodología para registrar las operaciones que afectan al presupuesto tanto en cuentas contables, como presupuestales que establece el CONAC (2009), en su acuerdo por el que se emiten las normas y metodología para la determinación de los momentos contables publicado en el Diario Oficial de la Federación (DOF) el 20 de agosto del 2009, que proporciona la información que permite controlar el presupuesto a través de su normatividad.

Descripción Lo primero que se realizó fue cargar el presupuesto asignado publicado en el DOF el 31 de diciembre del 2016, para el ejercicio correspondiente del 2017 por cuentas contables del sector gubernamental y por áreas específicas en una hoja de cálculo Excel, diseñando la plantilla con fórmulas que determinen los saldos correspondientes en las etapas de presupuesto de egresos: comprometido, devengado, ejercido y pagado, permitiendo que se puedan filtrar datos para generar información que sea útil para el

Revista Científica

95


encargado de autorizar el gasto y pueda conocer los montos disponibles para cada departamento y tome decisiones. Este diseño servirá de base como plantillas para la aplicación de escritorio.

Figura 3. Modelo entidad relación.

Diseño de la aplicación

Se creó el diseño de las pantallas de inicio de sesión, la página principal en la que se mostrará la información general que tiene como contenido unas gráficas de anillos que muestran el porcentaje del presupuesto comprometido, devengado, pagado y disponible para ejercer.

Creación de opciones

Figura 1. Diseño del modelo de control presupuestal en Excel.

Instrumento administrativo controlador

Se estableció la orden de compra como instrumento controlador, al ser un documento que todos los departamentos deben elaborar para que el proveedor pueda autorizar el crédito y el departamento de Tesorería ejecute el pago, además que lleva un número consecutivo. Se capturaron todas las órdenes que correspondían al periodo del 2017 para ir afectando y clasificando en su cuenta y departamento. Después de haber sido capturados los datos extraídos de las órdenes de compra generadas durante los meses de enero, febrero y marzo, se procedió a identificar los momentos contables del gasto que define la Ley de Contabilidad Gubernamental y Gasto Público del Estado de Chihuahua en sus fracciones de la XIII a la XVI, siendo necesario para esto, trasladarse a los archivos de Tesorería, donde se revisaron los archivos 2017 de pólizas de egresos y de diario con sus respectivos soportes documentales como son: órdenes de compra, facturas, oficios, transferencias, etc.; para identificar el estatus en que se encuentra cada orden de compra, pudiendo corroborar que algunas solamente están comprometidas, otras devengadas, otras ejercidas y pagadas.

Se continúa con la página de las órdenes de compra donde se crean las opciones: consultar, generar, devengar o pagar ahí mismo, ver, editar o eliminar en caso de eliminar aparece en color rojo ya que los números son consecutivos y debe aparecer así como el historial e imprimir. Se inserta un buscador para ubicar las órdenes registradas. Esta sección es la encargada de afectar el presupuesto al momento de registrar la orden. Se configuró de manera que cada usuario tenga permisos según corresponda su facultad, estos son: generar órdenes (comprometer) devengar o pagar.

Figura 4. Página inicio.

Diseño de pantallas

Figura 2. Modelo de control presupuestal con órdenes de compra capturadas y clasificadas.

Diseño de aplicación

Se inicia la segunda etapa donde se trabajó con el diseño de la aplicación retomando la base de datos creada en Excel separando las tablas para dividir la información, la normalización de la base de datos y con el modelo entidad relación.

96

Revista Científica

Se realiza el diseño de las pantallas para el registro de cuentas, proveedores y departamentos así como la programación de los enlaces de la barra del menú, la validación de las cantidades para que no excedan los montos asignados y las fórmulas necesarias para las transacciones de los montos con las órdenes registradas, se asignan contraseñas por medio de algoritmos para cada usuario. Finalmente se configura la computadora que trabaja como servidor para el registro de la información para que cualquiera que esté dentro de la misma red pueda acceder por medio de la IP.


Resultados El resultado de este estudio es el Modelo de Operación de control presupuestal que permite solucionar el problema existente en el presupuesto, que se da al no tener un control sobre las órdenes expedidas por cada departamento ni sus montos, que deriva en falta de información para tomar la decisión de autorizar o no determinado gasto convirtiéndose así en sobregiros. Este modelo soluciona el problema de falta de información de los departamentos encargados de comprometer, devengar, ejercer y pagar. Con la aplicación de escritorio que permite por medio del registro de la orden de compra ir afectando el presupuesto de egresos en cada una de sus etapas y se puedan ir generando reportes por cuentas, por departamentos de los saldos pendientes por ejercer. De esta manera el Oficial Mayor quien es el encargado de autorizar todas las órdenes del ayuntamiento podrá tener la información necesaria de manera oportuna, Tesorería podrá darle seguimiento al estatus de cada orden para identificar las que estén pendientes de pago y ejercer el gasto. El departamento de Obras Públicas podrá ir consultando sus saldos por comprometer en cada uno de los programas u obras ya que este departamento solo genera órdenes afectando la etapa de comprometido. Se capacitará al personal designado para alimentar y operar esta aplicación.

Conclusión El ayuntamiento de Nuevo Casas Grandes donde se implementó esta aplicación está en periodo de prueba. Visualizan un gran beneficio ya que los presupuestos son anuales, con esta aplicación podrán dar de alta nuevos ejercicios para llevar el control desde el mes de enero a diciembre y tener un correcto control. Esta aplicación puede ser útil a cualquier organismo gubernamental y a todos los ayuntamientos de la República Mexicana.

Bibliografía + Cámara de Diputados del Congreso de la Unión (2008). Ley General de Contabilidad Gubernamental. Ley General de Contabilidad Gubernamental. + CONAC (2009). www.conac.gob.mx. Obtenido de http://www.conac.gob.mx/work/models/CONAC/ normatividad/NOR_01_04_003.pdf + CONAC (2010). Clasificador por tipo de gasto. acuerdo por el que se emite el clasificador por tipo de gasto. México. + Münch Galindo, L. (2005). Fundamentos de administración. En L. Münch Galindo, Fundamentos de administración (pág. 5). México: Trillas. + Ramírez Padilla, D. (2002). Contabilidad administrativa (sexta ed.). México: McGraw-Hill. + Secretaría de la Función Pública (2012). www. Chihuahua. gob.mx. Obtenido de http://20062012.funcionpublica.gob.mx/index.php/cem-deuorcs/526.html. + SHCP (2016). GOB.MX. Obtenido de http:// www.pef.hacienda.gob.mx/es/PEF.

La novedad u originalidad de este proyecto respecto a otros procedimientos de llevar el control del presupuesto consiste en que se establece la orden de compra como instrumento controlador, en el que no es necesario pasar por los registros contables y el soporte documental de las transacciones. Se puede sencillamente tener los montos disponibles al capturar la orden de compra con el artículo a adquirir, clasificando ese artículo en la cuenta que le corresponde y registrando el departamento que está solicitando el producto. Además genera información a las personas que autorizan el gasto, de esta manera pueden tomar decisiones que permitan una eficiente y adecuada administración presupuestal.

Revista Científica

97


María Monserrath Yam Che1 y Cecilia Aguilar Ortega2

Universidad Autónoma de Yucatán Km. 1 Carretera Mérida Tizimín, Cholul Mérida, Yucatán, México, C.P. 97305 1,2

monseyam@hotmail.com cecilag@correo.uady.mx

Resumen: Para una cultura de seguridad exitosa en las empresas, es necesario promover ambientes, valores y conductas seguras en los trabajadores. Es muy importante la percepción que los empleados tienen acerca de la seguridad en su trabajo, ya que estas influyen fuertemente en sus conductas seguras. El presente trabajo tiene como objetivo el conocer el nivel de percepción del clima de seguridad laboral y las conductas seguras del trabajador, así como su relación en un grupo de trabajadores del sector de servicios. Participaron 71 trabajadores, cuya edad promedio fue de 46.23 años. Se utilizaron dos escalas tipo Likert: Clima de Seguridad Laboral y Conducta Segura del Trabajador. Se encontró que existe una relación estadísticamente positiva entre las variables ya mencionadas, es decir, que mientras más perciban los trabajadores que la empresa y los directivos se interesan por su seguridad, existen carteles y señalamientos, estos se interesan más por su propia conducta segura.

+

Recibido: Mayo 07, 2018. Recibido en forma revisada: Junio 21, 2018. Aceptado: Julio 03, 2018.

98

Revista Científica

Palabras clave: Seguridad, clima, organizaciones.

Abstract: For a successful safety culture in organizations, it is necessary to promote environments, values and safe behaviors for workers. The perception that employees have about safety in their work is very important, as they strongly influence their safe behaviors. The objective of this work is to know the level of perception of the occupational safety climate and the safe behaviors of the worker, as well as their relations-


hip in a group of workers in the service sector. 71 workers participated, whose average age was 46.23. Two Likert-type scales were used: Labor Safety and Safe Worker’s Conduct. It was found that there is a statistically positive relationship between the variables already mentioned, that is, the more workers perceive that the company and the managers are interested in their safety, there are signs and signs, they are more interested in their own safe behavior.

+

Keywords: Security, climate, organizations.

Introducción El trabajo es una actividad que las personas realizan para satisfacer necesidades básicas y tener condiciones de vida dignas. Por ello, es fundamental no solo para el trabajador sino también para sus familias, la seguridad y bienestar en el trabajo, así como para la productividad, la competitividad y la sostenibilidad de las empresas, y por ende para la economía de los países (OMS, 2010). Desafortunadamente, el trabajador muchas veces interactúa en condiciones de trabajo que pueden repercutir de forma negativa. De acuerdo con la Secretaría del Trabajo y Previsión Social (STPS), en México durante el 2016 se registraron 394,202 accidentes de trabajo de los cuales 28,425 resultaron en incapacidades y 1,009 en defunciones. Tan solo en el estado de Yucatán, en este mismo año, ocurrieron 6,915 accidentes, de los cuales 10 de ellos resultaron en defunción. En muchos países la mayoría de los trabajadores son empleados informalmente en fábricas y negocios no registrados, de los cuales no se lleva un registro de las enfermedades y accidentes de trabajo (OMS, 2010). La seguridad significa un estado en el que se preserva la salud y bienestar de los individuos mediante el control de los riesgos y condiciones que generan un daño físico, psicológico o material. Es un recurso esencial para la vida diaria y para que los individuos alcancen sus aspiraciones y expectativas. Implica un proceso dinámico y no solo la ausencia de lesiones y amenazas. Conlleva dos dimensiones: una objetiva, que es apreciada en función de parámetros conductuales y del medio ambiente; y la otra subjetiva, que es apreciada en función del sentimiento de seguridad o inseguridad de los trabajadores (Jara y Cuevas, 2015). Para esto, la cultura de seguridad es un componente importante en la cultura organizacional y esta a su vez, es un elemento crítico en el éxito o fracaso de las organizaciones. La ausencia de una cultura de seguridad se identifica frecuentemente con la generación de desastres e incidentes (Aguilar, Ramírez y De Lille, 2017). Por lo tanto, es importante preguntarse ¿por qué es necesario hacer promoción de la seguridad? Analizándolo desde un punto de visto ético, uno de los supuestos esenciales es el de “no hacer daño a los demás”, por lo que en el trabajo significa garantizar la seguridad de los empleados. Mucho antes de que se establecieran normas laborales y sanitarias, los buenos empresarios comprendieron que era importante respetar esto, ya que a largo plazo pre-

miaba el esfuerzo de los trabajadores y los beneficiaba. Por otro lado, desde un interés empresarial, las empresas tendrían mayores tasas de retención de empleados ya que se reduciría los costos derivados de accidentes innecesarios, aumentaría la productividad a largo plazo, la calidad de los productos y servicios (OMS, 2010). De igual forma, en la mayoría de los países existen leyes que exigen a los empresarios garantizar un mínimo de protección a los trabajadores contra los riesgos laborales que pudieran derivar en accidentes. Por ejemplo, en Colombia es obligatoria la implementación de un sistema de gestión de la seguridad, que garantice el control a la exposición de los trabajadores a factores de riesgo que atenten a su integridad física, mental y social. Con esto, se busca brindar un lugar de trabajo donde se minimicen los accidentes laborales y enfermedades (Jara y Cuevas, 2015). Según Hernández y García (2013), la promoción de la seguridad es el proceso en el que se desarrolla y mantiene la seguridad aplicado por los individuos, comunidades, gobiernos y organizaciones. Incluye los esfuerzos realizados para la modificación de las estructuras, los ambientes (físico, social, tecnológico, político, económico y organizacional), las actitudes y los comportamientos relacionados con la seguridad. Esta promoción es necesaria para descubrir, crear y reafirmar la cultura preventiva y para que genere actitudes positivas ante el riesgo. Para que se desarrollen actitudes positivas de seguridad en la empresa, es necesario el compromiso personal y colectivo de los trabajadores, apreciando la seguridad como un valor. Será difícil que existan actitudes de prevención en el trabajo si el trabajador no valora la seguridad (Foncillas, 2002). La eficacia de la gestión dependerá de la valoración de la seguridad en el trabajo y esta a su vez depende de la valoración que se tiene de la seguridad en general en la vida del trabajador. Se considera más a la seguridad desde un aspecto legal e impositivo que como un valor cultural individual. Por lo tanto, el trabajo de promoción de la seguridad es necesario para enseñar y mostrar las ventajas de un entorno adecuado. El receptor tiene la última palabra y su decisión estará basada en su propio criterio y valor de interés (Foncillas, 2002). El trabajo del psicólogo ha tenido un gran impacto con respecto a la conceptualización del manejo del riesgo en las organizaciones por medio del desarrollo del concepto de “Cultura de Seguridad”. Se trata de fomentar una cultura no solo preventiva para reducir accidentes, sino una cultura de seguridad que promueva ambientes, valores y conductas seguras en los trabajadores de una organización para que estos alcancen una mejor calidad de vida laboral. Según Aguilar, Ramírez y De Lille (2017), la cultura de seguridad es el conjunto de valores, actitudes, creencias, percepciones y patrones de conducta que comparten directivos y empleados en relación con la seguridad; y que determina el compromiso, responsabilidad y modelo de gestión de la salud y seguridad de la organización. Para Fernández, Montes y Vázquez (2017), existen cuatro componentes de la cultura de seguridad laboral: 1) Sistemas de gestión de seguridad de las organizaciones (políticas, practicas, planes y medios para eliminar o reducir los riesgos del trabajo basados en normas o estándares internacio-

Revista Científica

99


nales); 2) Comportamientos de seguridad dentro de la organización (conducta de los empleados influenciada por la gestión y clima de seguridad); 3) Resultados de seguridad e indicadores de seguridad de la organización; 4) Clima de seguridad percibido por los trabajadores (actitudes, creencias y percepciones de los empleados sobre la seguridad de la organización). Es importante señalar que la cultura de seguridad abarca valores, creencias y asunciones fundamentales, mientras que el clima de seguridad es una medida descriptiva de las percepciones de los trabajadores sobre la atmosfera de la organización (Aguilar, Ramírez y De Lille, 2017). Según Leyva (2012), el clima de seguridad es el conjunto de creencias o percepciones que posee una persona o grupo de personas sobre una entidad particular. Este es importante ya que se considera como un marco de referencia para las expectativas acerca del comportamiento seguro de los empleados y el nivel de involucramiento de la alta dirección. Cuando hay un alto nivel de clima de seguridad, los empleados se pueden sentir animados a mantener buenas prácticas de seguridad a pesar de la demanda y presión de trabajo. Muchas empresas tienden a tomar índices de cero o incluso toman niveles muy bajos de accidentes o incidentes, pero para mejorar la cultura de seguridad de una organización es necesario que se evalúen los aspectos culturales, estudiar los comportamientos y sus causas, así como poner en marcha programas de liderazgo en seguridad y salud (Carmona, 2012 en Aguilar, Ramírez y De Lille, 2017). Las intervenciones en los procesos de prevención en riesgo laboral deben realizarse desde la cultura de la organización para que esta prevención sea parte de la identidad de la organización. Por lo tanto, el objetivo del siguiente trabajo fue conocer el nivel de percepción de las variables Clima de Seguridad Laboral y Conducta Segura del Trabajador, así como su relación en un grupo de trabajadores de una empresa del sector servicio de la Ciudad de Mérida, Yucatán.

Método Participantes

En el estudio participaron un total de 71 trabajadores, siendo el 97% hombres y 3% mujeres; dentro de los mismos, un 20% fueron empleados administrativos, el 69% fueron operativos y un 11% fueron jefes. La edad promedio fue de 46.23 con desviación estándar de 8.086. La nuestra fue probabilística y accidental.

y procedimientos para la prevención de riesgos en la empresa, su alfa de Cronbach es de 0.81 La forma de respuesta es una escala tipo Likert, que va desde 1=nunca hasta 5=siempre. Para medir la conducta segura del trabajador se utilizó la Escala de Conducta Segura del trabajador (Aguilar, Ramírez y De Lille, 2017). La escala consta 11 reactivos cuya forma de respuesta es tipo Likert que va de 1= nunca a 5=siempre. La escala consta de dos factores: 1) Autocuidado, que mide la percepción que tiene el trabajador sobre su propia conducta segura al realizar su trabajo, siendo su alfa de Cronbach de 0.81; y 2) Cuidado colectivo, que mide la percepción sobre las acciones que se realizan para proteger la seguridad de los compañeros o prevenirlos de un accidente, su alfa de Cronbach es de 0.81.

Tipo de estudio

El estudio fue de tipo exploratorio, descriptivo, de campo y relacional. Descriptivo porque se reseñan las características del fenómeno de estudio, de campo porque el estudio se realizó en sus centros de trabajo y relacional debido a que se investiga la relación entre variables para conocer cómo se puede comportar una variable conociendo el comportamiento de la otra variable relacionada (Hernández, Fernández y Baptista, 2010).

Procedimiento

Las escalas fueron aplicadas de forma individual y grupal en el centro de trabajo. Posteriormente, se realizó un análisis descriptivo a través de la medida de tendencia central media para conocer el nivel de percepción de las variables y la prueba Pearson para conocer la relación entre las variables.

Resultados Se realizó un análisis descriptivo a través de la medida de tendencia central media para conocer la percepción que tienen los trabajadores en cuanto al clima de seguridad laboral y la conducta segura del trabajador. Se encontró, con respecto al Clima de Seguridad Laboral, que los trabajadores perciben que con mayor frecuencia existen en la empresa carteles y señalamientos para la prevención de riesgos (M=4.12). Sin embargo, perciben que con menor frecuencia la empresa muestra interés por la seguridad y los directivos por promoverla (M=3.62); así también con menor frecuencia se promueve la participación en las comisiones de seguridad e higiene y se realizan reuniones y talleres sobre seguridad (M=3.89) (Ver Tabla 1).

Instrumentos

Se utilizó la Escala de Clima de Seguridad Laboral (Aguilar, Ramírez y De Lille, 2017), la cual consta de 18 reactivos distribuidos en tres factores: 1) Comisiones o Reuniones sobre Seguridad, que mide la percepción sobre la constitución en la empresa de la comisión de seguridad e higiene, su promoción y participación en ella, así como la participación del trabajador en las reuniones y talleres sobre seguridad en el trabajo, cuyo alfa de Cronbach es de 0.82; 2) Prioridad y Acciones de Seguridad, que mide la percepción sobre el interés que tiene la empresa en la seguridad en el trabajo y las acciones que realizan los directivos para promoverla, su alfa de Cronbach es de 0.74; y 3) Cumplimiento del Marco Legal en Seguridad, que mide a percepción sobre la existencia de carteles, señalamientos

100

Revista Científica

Bibliografía + Aguilar, C.; Ramírez, E. y De Lille, M. (2017). Conducta segura del trabajador: una aproximación a su estudio e intervención en las organizaciones. En E. Rentería Pérez (Comp.), Entre lo disciplinar y lo profesional. Panorama y experiencias en psicología organizacional y del trabajo en Iberoamérica (pp145-156). Colombia: Editorial Universidad del Valle. + Fernández, B.; Montes, J. y Vázquez, C. (2017). Liderazgo y cultura de seguridad laboral:


Tabla 1. Clima de seguridad laboral.

En cuanto a la Conducta Segura del Trabajador, los trabajadores perciben que se comportan de forma segura al realizar su trabajo (M=4.60) y que realizan acciones para proteger la seguridad de los sus compañeros y prevenirlos de accidentes (M=4.01) (Ver Tabla 2). Tabla 2. Conducta segura del trabajador.

Por otro lado, se realizó un análisis relacional a través de la prueba de Pearson para conocer la relación entre las dimensiones de Clima de Seguridad laboral y las dimensiones de Conducta Segura del Trabajador. Se encontró que existe una relación estadísticamente positiva entre la dimensión Prioridad y Acciones en Seguridad y el autocuidado r (59)=0.458, p=.000; así como entre la dimensión Cumplimiento del marco legal en Seguridad y el autocuidado r (60)=0.450, p=.000 Esto significa que mientras más perciban los trabajadores que la empresa y los directivos se interesan en la promoción de la seguridad y que existen en la empresa carteles y señalamientos para la prevención de riesgos, estos se interesan más en su propia conducta segura al realizar su trabajo. De la misma forma, se encontró una relación estadísticamente positiva entre las dimensiones Comisiones o Reuniones Sobre Seguridad r (63) = 0.396, p=.001; Prioridades y Acciones en Seguridad r (62) = 0.546, p=.000 y Cumplimiento del Marco Legal en Seguridad r (64) = 0.394, p=.009 con respecto a la dimensión Cuidado Colectivo. Esto significa que mientras más sea la percepción de los trabajadores acerca de la constitución de comisiones de seguridad en la empresa, su participación en reuniones y talleres sobre seguridad en el trabajo y el interés de la empresa y directivos por promover la seguridad, los trabajadores mostraran comportamientos para proteger la seguridad de sus compañeros para prevenirlos de un accidente.

Conclusiones Con este trabajo, se muestra el papel que juegan las percepciones de los trabajadores acerca de las prácticas de seguridad de la empresa, ya que, con base en estas, los empleados construyen una realidad que se ve reflejada en su comportamiento seguro.

revisión del estado en cuestión. DYNA – Ingeniería e Industria, 92 (1), 39-42. DOI: http://dx.doi. org/10.6036/7942. + Foncillas Aragón, J. (2002). Otras formas de promoción de la seguridad: Fraga por la seguridad. Prevención, Trabajo y Salud: Revista del Instituto Nacional de Seguridad e Higiene en el Trabajo, 21, 29-37. ISSN # 1575-1392. + Hernández Sánchez, M. y García Roche, R. (2013). Comunidades seguras, un modelo mundial para la prevención de lesiones y la promoción de

Así mismo, se demuestra la importancia del trabajo del psicólogo dentro de las organizaciones. Ya que es necesario fomentar una cultura en la que se promuevan los valores y conductas seguras en los trabajadores, más allá de solo prevenir para reducir accidentes. Una cultura de seguridad dentro de la cultura de la empresa es un elemento fundamental para el éxito o fracaso de las organizaciones. De acuerdo con las correlaciones encontradas entre el Clima de Seguridad laboral y Conducta Segura del Trabajador, es necesario promover un ambiente de seguridad en las empresas donde los trabajadores perciban que los directivos se preocupan por crear y promover espacios seguros dentro de las áreas de trabajo, para que así, los colaboradores se vean motivados a realizar conductas que no solo velen por su propia seguridad, sino que también por la seguridad de otros. Como se mencionaba anteriormente, es responsabilidad de la empresa, por un lado, de forma ética, garantizar el bienestar y seguridad de sus empleados; de forma empresarial, ya que los accidentes aumentan la improductividad, pero también es una responsabilidad legal, ya que las leyes exigen que se garantice un mínimo de protección a sus trabajadores minimizando los accidentes laborales y enfermedades tanto físicas como mentales. Es por esto por lo que la seguridad dentro de las organizaciones es uno de los aspectos más importantes de la actividad laboral. Para esto, es importante que se muestre el compromiso de los altos mandos por la gestión de la seguridad en la organización, interesándose por implementar programas que promuevan ambientes seguros y saludables, ya que estos son los líderes de las organizaciones y es su responsabilidad el velar por el bienestar de sus empleados, ya que esto no solo repercute en ellos mismos, sino en la calidad de vida de su familia y comunidad.

seguridad. Revista Cubana de Higiene y Epidemiología, 51 (2), 214-225. ISSN # 0253-1751. + Hernández, S.; Fernández, C. y Baptista, L. (2010). Metodología de la investigación. México: McGraw-Hill. + Jara, J. C. y Cuevas Triana, M. A. (2015). Modelo de promoción y prevención de riesgos laborales a través de un sistema de gestión de la seguridad y salud en el trabajo SG –SST para la empresa Bucheli Moncayo S.A. S. Recuperado de http://hdl.handle.net/11349/2829

+ Leyva, J. (2012). El efecto del Clima de Seguridad en la percepción de Riesgos Laborales en una fábrica textil. Recuperado de https://biblioteca.cicese.mx/catalogo/tesis/ficha.php?id=19066 + Organización Mundial de la Salud (2010). Ambientes de Trabajo Saludables: un modelo para la acción: para empleadores, trabajadores, autoridades normativas y profesionales. Recuperado de http://apps.who.int/iris/bitstream/handle/10665/44317/9789243599311_spa.pdf?sequence=1&isAllowed=y Revista Científica

101


Francisco Alexander Rincón Molina1, Luis Alberto Vázquez Robles2, Karla Lizzet Esquivel Guillén3 y Reiner Rincón Rosales4

Departamento de Posgrado. Universidad Valle de México. Blvd. Los Castillos No. 375, Frac. Montes Azules.Tuxtla Gutiérrez, Chiapas, México, C.P. 29050. 1

Departamento de Licenciaturas de Negocios. Blvd. Los Castillos No. 375, Frac. Montes Azules.Tuxtla Gutiérrez, Chiapas, México, C.P. 29050. 2,3

División de Estudios de Posgrado e Investigación. Instituto Tecnológico de Tuxtla Gutiérrez. Carretera Panamericana Km. 1080. Tuxtla Gutiérrez, Chiapas. C.P. 29050. 4

francisco.rincon@uvmnet.edu

Recibido: Mayo 07, 2018. Recibido en forma revisada: Junio 08, 2018. Aceptado: Julio 03, 2018.

102

Revista Científica

Resumen: La administración estratégica juega un papel importante en el desarrollo de ventajas competitivas, sobre todo en ambientes dinámicos y complejos, de ahí la importancia de la aplicación de las herramientas de análisis estratégicos, por tal motivo la presente investigación demuestra claramente cómo realizar un diagnóstico y análisis industrial para desarrollar estrategias que permitan a las empresas, en este caso la Universidad del Valle de México (UVM), campus Tuxtla, generar ventajas competitivas que le permitan adquirir y transferir conocimientos y modificar su comportamiento para reflejar nuevos conocimientos e ideas para asegurar la mejora continua, y ser una universidad de calidad.

+

Palabras clave: Estrategia, análisis y competitividad.

Abstract: Strategic management plays an important role in the development of competitive advantages, especially in dynamic and complex environments, hence the importance of the application of strategic analysis tools, for this reason this research clearly demonstrates how to perform a diagnosis and analysis to develop strategies that allow companies, in this case the University of the Valley of Mexico (UVM), campus Tuxtla, generate competitive advantages that allow you to acquire and transfer knowledge and modify their behavior to reflect new knowledge and ideas to ensure improvement continue, and be a quality university.


+ Keywords: Strategy, analysis and competitiveness. Introducción En los últimos años, la economía se ha caracterizado por el desarrollo acelerado de la globalización, que ha traído como consecuencia una mayor competencia para las empresas, ya que no solo compiten con empresas locales, sino que ahora con empresas transnacionales, actualmente se requiere menos tiempo para que un producto o servicio reemplace a otro, las empresas actualmente se han percatado y preocupado, porque ya no existe una ventaja competitiva permanente, el ambiente empresarial cada vez es más dinámico y es donde el aprendizaje organizacional juega un papel importante y decisivo en la competitividad, y particularmente en la innovación y el desarrollo de nuevos productos, de ahí la importancia del análisis estratégico, el cual tiene el objetivo principal de ayudar a las empresas a operar con éxito en los ambientes dinámicos y complejos, a través de provocar la flexibilidad estratégica en las empresas, transformándolas en sistemas que aprenden, es decir, que tengan la capacidad de crear, adquirir y trasferir conocimientos y modificar sus comportamientos para reflejar nuevos conocimientos e ideas, por lo tanto el objetivo de este trabajo fue realizar un análisis estratégico en la empresa privada: Universidad del Valle de México, campus Tuxtla, que le permita tomar mejores decisiones, determinar sus debilidades, fortalezas, oportunidades y amenazas, y de esta manera contar con un marco de referencia, que pueda saber exactamente lo que debe hacer y en forma específica, en donde debe enfocar sus esfuerzos para solucionar sus falencias, problemas y alcanzar con éxito sus metas educativas.

Estrategia Empresarial y Ventaja Competitiva Según Hill y Jones (2009), indican “que la competencia es un proceso de muchas caídas en el que solo los más eficientes y eficaces vencen. Es una carrera interminable. Para maximizar el valor de los accionistas, los administradores deben formular estrategias que permitan a su compañía superar a los rivales”. La Estrategia empresarial es vital para el cumplimiento de los distintos objetivos comunes de una empresa: sobre los negocios, los recursos y las actividades más en contacto con la ejecución operativa, todas encaminadas al logro de la ventaja competitiva. “Un negocio tendrá ventaja competitiva cuando posea cualesquiera elementos diferenciales (o peculiaridades) respecto a su competencia que le otorguen algún tipo de situación favorable en los mercados frente a dichos competidores” (Freije Uriarte y Freije Obregón, 2009). En pocas palabras la empresa tendrá una mayor estabilidad reflejada en su rentabilidad desde el punto de vista de la oferta. Además, a largo plazo, un negocio sin ventajas competitivas tiende al fracaso y a su desaparición. El tema es claro, si la actividad es rentable y fácilmente imitable, se producirá entrada de nuevos competidores hasta que el incremento de la nueva competencia conduzca a una disminución de la rentabilidad. Queda claro, por tanto, que la ventaja competitiva deberá considerarse tanto respecto a la competencia actual como en relación con la posible entrada de nuevos competidores que podrían alterar la situación de los diferentes oferentes en el mercado (Freije Uriarte y Freije Obregón, 2009).

Análisis Integral: Fortaleza y Debilidades El primer paso para el desarrollo de una ventaja competitiva es un análisis integral que abarque el ambiente externo y su situación interna; es decir, iniciar con una investigación estratégica, una ponderación de estrategias y, por último, la elección de estrategias. Diagnosticar correctamente la situación de la empresa es una base necesaria para definir un enfoque administrativo a mediano y largo plazo, creando una estrategia sólida y triunfadora. La investigación interna de la empresa consiste en identificar “lo que puede hacerse”, puesto que se identifican sus fortalezas; también debe identificarse “lo que no puede hacerse” es decir, sus debilidades. Por esta razón, es importante analizar la cadena de valor de la empresa y su composición competitiva en relación a sus rivales, estos aspectos son elementales al realizar el análisis interno de la empresa, con un enfoque de fortalezas y debilidades. En conclusión, para desarrollar una estrategia efectiva que logre que la empresa sea competitiva es fundamental que en este proceso se realice un estudio total de la empresa, que se conoce como análisis interno y externo de la empresa.

Análisis Interno de la Empresa El análisis de las fortalezas y debilidades de la empresa, permite ver con lo que contamos, en que somos fuertes y donde tenemos que trabajar para eliminar nuestras debilidades o contrarrestar esta fuerza, se tiene que realizar una investigación que abarque el análisis de la cadena de valor, la cual según, Luna-González (2014), se refiere al conjunto de actividades físicas y tecnológicas que se llevan a cabo en una empresa, como las actividades que interactúan para la elaboración de un producto o servicio, su venta y la colocación para el cliente, así como también el valor agregado posterior a la venta. El otro grupo lo representa las actividades que dan soporte y apoyo a las actividades primarias, tales como: adquisiciones o compras que se encargan de ofrecer insumos, tecnología, recursos humanos y diversas funciones globales. El análisis de la cadena de valor es fundamental en la evaluación interna de la empresa puesto que las funciones básicas de apoyo son elementales para trabajar con las fortalezas de la empresa y aprovechar sus oportunidades.

Análisis Externo de la Empresa Las organizaciones al ser sistemas abiertos se ven afectadas por su entorno ya que funcionan en un ambiente global, el cual está integrado por el ámbito económico, demográfico, político, jurídico y la regulación gubernamental, además del aspecto tecnológico, las fuerzas competitivas, los grupos estratégicos, movimientos estratégicos de la competencia y factores clave de éxito de la competencia. Si no se comprenden y ponderan las fuerzas estratégicas de los ambientes internos y externos de la empresa, existe una mayor posibilidad de generar un plan estratégico erróneo y no competitivo. Por otra parte, la ubicación efectiva de las oportunidades y amenazas son la base, dado que deben aplicarse a cada uno de los sectores del ambiente global competitivo. Una oportunidad es la circunstancia favorable del ambiente global que, si la empresa la sabe explotar, puede ser competitiva y alcanzar la mejora continua. La amenaza o riesgo es una circunstancia desfavorable del ambiente global que puede perjudicar los esfuerzos de la empresa para ser competitiva y no alcanzar la mejora continua (Luna-González, 2014).

Revista Científica

103


Situación actual de las Universidades en México Las Universidades en México presentan en general un alto índice de deserción de los estudios superiores. De acuerdo con la información de la Organización para la Cooperación y el Desarrollo Económicos (OCDE), en México solo se gradúa 25% de quienes cursan este nivel, así mismo en los últimos cinco años el número de universidades privadas en Chiapas, México, han aumentado significativamente. En estas instituciones se imparten una diversidad de Licenciaturas, Posgrados y Doctorados, pero en casi la mitad de ellas no existe una evaluación que avale la calidad del servicio que brindan. Ante esta situación, la única manera que tiene la Universidad Valle de México, campus Tuxtla, para poder competir en este mercado cada vez más competitivo y abaratado, es a través de mejorar su calidad, eficiencia y productividad para poder sobresalir de entre las demás universidades privadas en Chiapas. Actualmente, las universidades privadas en Chiapas se enfrentan a problemas muy fuertes, tales como:

1. Personal académico deficiente y con muy poca experiencia docente e

Instrumentos de Investigación Para la realización de esta investigación se utilizaron varios instrumentos, uno de los primeros es la aplicación de la matriz de evaluación de los factores internos (Tabla 1). Torres Hernández (2014) indica que este instrumento de investigación permite formular estrategias, resumir y evaluar las fuerzas y debilidades más importantes dentro de las áreas funcionales de un negocio y además ofrece una base para identificar y evaluar las relaciones entre dichas áreas. En la columna de valor, se asigna un peso entre 0.0 (no importante) a 1.0 (absolutamente importante) a cada uno de los factores. El peso adjudicado a un factor indica la importancia relativa del mismo para alcanzar el éxito de la empresa, su total debe sumar 1.0 En la columna de calificación se asigna un valor entre 1 y 4 en donde la (calificación = 1) representa una debilidad mayor y la (calificación=2) una debilidad menor, una fuerza menor (calificación=3) o una fuerza mayor (calificación=4). Así, las calificaciones se refieren a la compañía, mientras que los pesos se refieren a la industria. El resultado total de las calificaciones ponderadas representa que tan bien se encuentra la posición estratégica de la empresa, la calificación estándar es: >=2.5, la cual indica que la empresa puede contrarrestar sus debilidades aprovechando las fortalezas que tiene.

investigación.

2. Poca o nula vinculación entre acciones de docencia e investigación. 3. Enfoque deficiente hacia la Mejora Continua. 4. Falta de correspondencia entre la oferta educativa y las necesidades sociales. 5. Problemas en la difusión cultural y en la extensión de servicios. Tabla 1. Ejemplo de matriz de análisis de factores internos.

6. Crisis económica. De ahí la importancia de generar estrategias que permitan lograr ventajas competitivas para la mejora continua y rentabilidad de las universidades.

Hipótesis

La siguiente tabla a utilizar es la matriz de evaluación de los factores externos (Tabla 2) la cual permite resumir y evaluar información económica, social, cultural, demográfica, ambiental, política, gubernamental, jurídica, tecnológica y competitiva, se sigue prácticamente la misma metodología de la tabla anterior, únicamente cambia la forma de asignar la calificación, puesto que en esta tabla se asigna una calificación de 1 a 4, donde 4= una respuesta superior, 3= una respuesta superior a la media, 2= una respuesta media y 1= una respuesta mala. Las calificaciones se basan en la eficacia de las estrategias de la empresa.

“La aplicación de un análisis estratégico en la Universidad del Valle de México, campus Tuxtla permitirá conocer cuáles son las debilidades, fortalezas, oportunidades y amenazas, para poder desarrollar y formular la planeación de estrategias efectivas”. VARIABLE DEPENDIENTE: Desarrollo, formulación y planeación de estrategias efectivas. VARIABLE INDEPENDIENTE: Análisis estratégico.

Tabla 2. Ejemplo de matriz de análisis de factores externos.

104

Revista Científica


Una vez que se aplican estas dos tablas (EFI y EFE), se procede a resumir los resultados obtenidos en la Matriz Resumen de Análisis de Factores Estratégicos (Tabla 3), en la cual se seleccionan únicamente los factores estratégicos más importantes analizados en las tablas anteriores y se aplica el mismo procedimiento que la Tabla 2, (EFE), lo único diferente, es la asignación del horizonte de tiempo (a corto, mediano y largo plazo) de la duración de cada uno de los factores estratégicos seleccionados.

Tabla 3. Ejemplo de matriz resumen de análisis de factores estratégicos.

De la Tabla 3, se obtiene la Matriz FODA (Tabla 4), de donde desarrollamos la formulación de nuestras estrategias obtenidas del cruce de nuestros factores internos y externos, desarrollando así estrategias del tipo: ofensivas, reactivas, adaptativas y defensivas.

Tabla 4. Ejemplo de matriz FODA.

Análisis de Resultados A través de la aplicación de la Matriz de Análisis de Factores Internos se obtuvo un valor de 2.34 puntos (Tabla 5), que está por debajo del valor estándar que es de 2.50, esto indica, que la UVM, campus

Revista Científica

105


Tuxtla se ve superada por sus debilidades internas y de acuerdo a este diagnĂłstico no puede contrarrestarlas con sus fortalezas.

106

Tabla 5. Matriz de anĂĄlisis de factores internos UVM, campus Tuxtla.

Revista CientĂ­fica


En el caso de la Matriz de Análisis de Factores Externos (Tabla 6), genero un valor de 3.33 puntos. Este valor fue más significativo, que el obtenido en el análisis interno, lo que indica que la empresa (UVM campus Tuxtla) puede aprovechar de manera muy efectiva las oportunidades que tiene en su entorno para poder minimizar los posibles efectos negativos de las amenazas externas.

Tabla 6. Matriz de análisis de factores Externos UVM, campus Tuxtla.

Una vez realizados los resultados en el Análisis de Factores Internos y Externos, se procedió a resumir los elementos más importantes con base en las calificaciones obtenidas de su nivel de importancia, lo cual genero la Matriz de Análisis de Factores Estratégicos (Tabla 7) de la UVM, campus Tuxtla.

Revista Científica

107


108

Tabla 7. Matriz resumen del análisis de Factores Estratégicos de la UVM, campus Tuxtla.

Revista Científica


Este estudio finaliza con la Matriz FODA (Tabla 8), relacionada con las fortalezas y debilidades, estos resultados permiten desarrollan las estrategias con los respectivos cruces de los elementos de la Matriz Resumen.

Tabla 8. Matriz FODA.

Revista CientĂ­fica

109


Posteriormente, de la Matriz FODA (Tabla 8) se formularon las estrategias para la UVM campus Tuxtla, quedando las propuestas de la siguiente manera: 1. Nombre de la estrategia: Incubadora de empresas Estrategia del tipo Ofensiva, para aprovechar la O1: “Impulsar a acciones de apoyo a emprendedores a través de la incubadora de empresas para promover el desarrollo regional a través de la activación de la economía generada por microempresas” y aumentar la F2: “Ser una Universidad de prestigio con reconocimiento a nivel internacional”. Línea estratégica: funcional y de negocios. Descripción de la estrategia: Desarrollar una incubadora de empresas, con el objetivo de vincular a la Universidad con su entorno, contribuir a la pertinencia de la institución, conformar un ámbito de construcción de conocimientos, de abrir nuevos campos temáticos e hipótesis de trabajo, generar recursos propios y aportar al desarrollo socioeconómico-cultural del entorno, mediante un sistema de evaluación y seguimiento de los proyectos a ser incubados, favoreciendo su inserción en el mercado. 2. Nombre de la estrategia: Catálogo de servicios Estrategia del tipo Ofensiva, para aprovechar la O5: “Mejorar la atención al estudiante” y aumentar las F2, F5 y F6: “Ser una Universidad de prestigio con reconocimiento a nivel internacional, talleres y laboratorios equipados para poder aplicar y lograe el provecho a los conocimientos teóricos y se cuenta con infraestructura física moderna y con espacios educativos de calidad y en cantidad suficiente para el desarrollo en forma apropiada de actividades académicas”. Línea estratégica: funcional y de negocios. Descripción de la estrategia: Desarrollar un catálogo de servicios universitarios para difundir las capacidades de infraestructura que la UVM campus Tuxtla puede ofertar hacia las organizaciones y la comunidad en general, presentando diversas opciones disponibles de vinculación con el entorno, en el rubro de Servicios. Aprovechando el prestigio, laboratorios y talleres, y al mismo tiempo vincular la profesionalización de los estudiantes y generar recursos económicos mediante el cobro de una cuota mínima por los distintos servicios que la Universidad brinde. 3. Nombre de la estrategia: Certificación CENEVAL Estrategia del tipo Adaptativa, para aprovechar la O10: “Mejorar resultados del EGEL” y para corregir la D6: “Bajo índice de aprobación del EGEL”. Línea estratégica: funcional y corporativa. Descripción de la estrategia: Certificar a los docentes de planta y coordinadores de carreras en la elaboración de reactivos CENEVAL, para que ellos capaciten a los maestros de asignatura y definir como regla la elaboración y aplicación de exámenes en toda la Universidad con un estricto apego a reactivos tipo CENEVAL, siendo el área de Psicopedagogía apoyada con otros miembros en revisar y asegurar que se aplique exámenes en los niveles de LX y LS.

110

Revista Científica

4. Nombre de la estrategia: Banco de reactivos Estrategia del tipo Adaptativa, para aprovechar la O10: “Mejorar resultados del EGEL” y para corregir la D6: “Bajo índice de aprobación del EGEL”. Línea estratégica: funcional y corporativa. Descripción de la estrategia: Instituir el banco de reactivos tipo CENEVAL de manera obligatoria en todas las modalidades de las verticales profesionales en LS y LX, por medio de la entrega de 10 reactivos estructurados de manera longitudinal a lo largo de todo un periodo, como un trámite de cierre académico para su liberación docente y próxima contratación, agregando el incentivo de puntos complementarios en el Sistema de Evaluación Docente (SIEDA). 5. Nombre de la estrategia: Clubes estudiantiles Estrategia del tipo Adaptativa, para aprovechar la O5: “Mejorar la atención al estudiante” y para corregir la D7: “Bajo índice de recomendación (NPS 30%)”. Línea estratégica: funcional. Descripción de la estrategia: Inversión directa para el desarrollo de actividades extracurriculares y de fomento recreativo, como medida de integración y mejoramiento de la percepción, a través de la creación de clubes patrocinados y gestionados por el área de experiencia estudiantil con base a la plataforma de su propia vertical (teatrales, gastronómicos, musicales, ciencias, debates y belleza). 6. Nombre de la estrategia: Laboratorio de Negocios Estrategia del tipo Reactiva, para responder a la A6: “Oferta de servicios educativos a bajo costo por parte de otras instituciones educativas privadas” empleando la F2: “Ser una Universidad de prestigio con reconocimiento a nivel internacional”. Línea estratégica: funcional y negocios. Descripción de la estrategia: Desarrollar un laboratorio de negocios a través de la compra de un simulador de vanguardia, para fortalecer el aprendizaje y capacidad de comprensión, toma de decisiones y trabajo en equipo a través de la integración de los conceptos administrativos, para mejorar el desarrollo académico de los estudiantes del área de negocios, ya que les permite comprender de una manera más clara su papel como futuros profesionistas a diferencia de la competencia que no cuentan con laboratorios de negocios. Siendo esta una plataforma de diagnóstico previo a la gestión de negocios. 7. Nombre de la estrategia: Titulación automática Estrategia del tipo Defensiva, para eludir los efectos de la A1 y A3: “Alta competencia con instituciones del sector privado y crecimiento acelerado de Instituciones privadas a nivel local” que tiene sobre la D9: “Nula o mínima identificación con la universidad”. Línea estratégica: funcional y negocios. Descripción de la estrategia: Acentuar la ventaja competitiva de la obtención del grado automático y la internacionalización, por medio del marketing digital con el uso de las plataformas digitales UVM y las redes


sociales y profesionales.

Conclusión El análisis estratégico de una compañía es una búsqueda sin fin, porque constantemente las compañías enfrentan cambios en su entorno, de ahí la importancia de estar aplicando estas herramientas para mantenerse en el mundo de los negocios. Esta Investigación demuestra la importancia de la aplicación del enfoque del Análisis Estratégico que permiten formular y desarrollar estrategias sólidas para la Universidad del Valle de México (UVM). Por lo anterior se puede concluir que la ponderación obtenida en el análisis interno), ubica a la Universidad del Valle de México (UVM) en una situación competitiva a nivel industrial y en el análisis externo, la empresa se ubica en una posición sólida a nivel industrial, esto permitió tener un marco de referencia para el desarrollo de siete estrategias que permitirán generar ventajas competitivas en el mercado de oportunidades. Por este motivo, es necesario un plan de acción para su puesta en marcha. Una decisión clave por parte de la dirección es analizar el ajuste, aceptabilidad y factibilidad para su aplicación. En relación a la hipótesis planteada se argumenta que la aplicación del análisis estratégico en el campus Tuxtla, permitió desarrollar y formular la planeación de distintas estrategias a aplicar. Este objetivo no se hubiera logrado sin el análisis de las debilidades, fortalezas, oportunidades y amenazas de la Universidad, de ahí la importancia de recomendar siempre un análisis estratégico antes del desarrollo de estrategias.

Bibliografía + Freije Uriarte, A. y Freije Obregón, I. (2009). La Estrategia Empresarial con Método. España: DESCLÉE DE BROWER, S.A. ISBN # 9788433017284. + Luna González, A. C. (2014). Administración Estratégica. México: Patria. ISBN # 9786074388893.

+ Torres Hernández, Z. (2014). Administración Estratégica. México: Patria. ISBN # 9786074388688. + Hill,W.L. y Jones, R. (2009). Administración Estratégica. México: Mc Graw Hill. ISBN # 9789701072691.

Revista Científica

111


Salvador Trujillo Ordoñez1, Carlos Felipe Ramírez Espinoza2, Karla Gabriela Gómez Bull3, Luis Asunción Pérez Domínguez4y Carlos Ponce Corral5

1,2,3,4 y 5

Universidad Autónoma de Ciudad Juárez. Av. del desierto S/N. Ciudad Juárez Chihuahua, México C.P. 181000.

luis.dominguez@uacj.mx

Recibido: Mayo 7, 2018. Recibido en forma revisada: Junio 22, 2018. Aceptado: Julio 3, 2018.

112

Revista Científica

Resumen: El presente trabajo contiene una evaluación del equipo de sujeción para el manejo manual de materiales, al efectuar un trabajo de levantamiento, empuje arrastre y sujeción de una carga. El objetivo general de este trabajo es determinar si el equipo de sujeción ayuda a disminuir el índice de levantamiento y el esfuerzo ejercido por las personas que se encuentran involucradas en actividades de MMC. La investigación está orientada a un diseño descriptivo, no-experimental y transversal. Entre los materiales utilizados, se encuentra el equipo para el levantamiento de carga, el cual funciona a base de tensionar correas manipuladas entre dos personas del cual está fabricado de un material resistente de nylon para uso industrial con una capacidad de carga máxima de 270 kg. El total de los participantes fueron hombres con una edad de 25 ± 0.707. Donde se observó que el índice de levantamiento más alto sin el equipo de sujeción es de 4.29 y con el equipo de sujeción es de 3.57, con una disminución del IL de 0.72, esto representa una mejora al momento de estar realizando la actividad. Indicando que el IL es disminuido al usar el equipo de sujeción, al igual que el esfuerzo para levantar la carga. Al usar el equipo de sujeción se recomienda tener en cuenta las medidas de seguridad adecuadas como son: las botas de seguridad, faja para evitar flexionar el tronco y capacitar al personal. Estudios futuros deben considerar la inclusión de nuevas variables, como ampliar la muestra para obtener mejores resultados, e incluir población mixta, hombres y mujeres de diferentes edades y complexión e incluyan diferentes tipos de carga para evaluar el compor-


tamiento del equipo de sujeción.

+ Palabras NIOSH.

clave: Evaluación, Esfuerzo, Manejo manual de cargas,

Abstract: The present project deals with the evaluation of the clamping equipment for the manual handling of loads, when performing a lifting work, pushing drag and holding a load. The general objective of the evaluation of the clamping equipment, is to evaluate the operation of the equipment, through field tests that involve the manual handling of load. to conclude if the team helps to reduce the lifting index and the effort exerted by the people who are involved in MMC activities, as well as their specific objective of testing and evaluating the restraint equipment in a work area, through of the simulation of manual cargo handling. Analyze the viability of the team, through the NIOSH methodology, using the survey equation for simple tasks.

population, men and women of different ages and build, and include different types of loads to evaluate the behavior of the restraint equipment.

+ Keywords: Evaluation, effort, manual handling of loads, NIOSH. Introducción La carga se define como cualquier objeto susceptible de ser movido de lugar, incluyendo personas y animales que se puedan mover por medio de algún aparato mecánico o a base de poleas, requiriendo un esfuerzo físico humano. La manipulación de cargas, es una actividad frecuente en la mayoría de áreas de trabajo tales como bodega, supermercado, mueblería, taller mecánico, maquiladoras y almacenes. En todas estas áreas de trabajo existe el posible riesgo de lesiones al manipular cargas de forma manual, como se muestra en la Figura 1 (Instituto Nacional de Seguridad e Higiene en el Trabajo, 2009).

Check if it is safe to use through the realization of the evaluation and observation of the activity. Identify the possible application areas of the equipment according to the results obtained. When doing work, where manual handling of load is used, the worker is exposed to suffer an injury, such as a sprain or strain, in case of not having a previous training or that the activity is not evaluated, it was asked if Through the tests carried out on the load securing equipment, can it be determined if its use reduces the lifting index during MMC activities? The research is oriented to a descriptive, non-experimental and transversal design. It is considered descriptive since it has the purpose of observing, analyzing and evaluating a device for securing loads. Among the materials used, is the equipment for the lifting of load, which works by tensioning straps manipulated between two people of which it is made of a resistant nylon material for industrial use with a maximum load capacity of 270 kg. There are different options in the market. The activity to be simulated as well as its location was selected, all the automotive workshop personnel, who were working or providing social service, were invited to participate in the present study. The available resources and time to carry out the work were taken into account. When the tests were performed with and without the clamping equipment for the manual handling of load in the area of the automotive workshop, a sample consisting of eight students of the social service was taken, who at that moment were available to perform their service, of the which the total of the participants were men with an age of 25 +/- 0.707. Where it is observed that the highest lifting index without the clamping equipment is 4.29 and with the clamping equipment it is 3.57, with a decrease of the IL of .72, this represents an improvement at the time of carrying out the activity. Indicating that the IL is decreased when using the restraint equipment, as well as the effort to lift the load, it was observed that the students who had the highest IL lift index, was due to having a greater degree of angle of asymmetry ( trunk rotation) and the students who obtained a lower IL lift index, were the ones who performed the test and obtained a smaller horizontal distance and an asymmetry angle equal to zero degrees. When using the restraint equipment I recommend taking into account the appropriate safety measures such as: safety boots, sash to avoid flexing the trunk and training staff. New variables should be considered, such as expanding the sample to obtain better results, and include mixed

Figura 1. Levantamiento manual de carga. Fuente: Agita (2016).

El manejo manual de cargas, como sus siglas lo indican MMC, se define como el movimiento o transporte de algún material realizado por una sola persona o varias al mismo tiempo, efectuando el esfuerzo de empujar, jalar, levantar o bajar la carga. De forma directa (levantar) o indirecta (empujar), se considera MMC al transportar o mantener la carga levantada. Incluyendo sujetarla con las manos o con cualquier otra parte del cuerpo (espalda), así como lanzar objetos. No será manipulación de cargas cuando una persona aplique una fuerza al mover una palanca de mandos o una manivela (Instituto Nacional de Seguridad e Higiene en el Trabajo, 2009). El MMC es una tarea frecuente en cualquier ámbito laboral que requiera esfuerzo por parte del personal, son las operaciones de transporte-movimiento o de sujeción de carga de uno o varios trabajadores. Es peligroso dependiendo de lo que se esté manipulando, afecta el tipo de tarea y de las condiciones del lugar de trabajo, es la causa más habitual de fatiga, lesiones y dolor en la parte baja de la espalda, para disminuir los riesgos al manipular carga, se deben de considerar las condiciones de la carga y trabajo que pueden ser factores de riesgo (Mutual de Seguridad, 2016). Las actividades que se realizan en la mayoría de los trabajos, que es necesario manejar cargas, lo que es habitual y aparentemente inofensivo, puede ser un riesgo a la salud. Ocasionando diferentes tipos de riesgos y problemas especialmente de tipo dorso lumbar, generados por mantener malas posturas y sobre esfuerzo. Desarrollando en el trabajador lumbalgia, inflamación del nervio ciático y hernia discal. Son factores que añaden más riesgo al sufrir una lesión en el trabajo al tener condiciones ergonómicas inadecuadas, caídas del objeto por la inestabilidad de

Revista Científica

113


la carga, irregularidades del terreno, falta de visión durante el trasporte, obstáculos en el camino, quemaduras, cortes, golpes por no usar el equipo de protección, peso excesivo y fatiga por largos periodos de trabajo al estar manipulando la carga, de acuerdo al sistema de gestión basado en las NORMAS OHSAS 18001:2004, el peso máximo que debe mover por una sola persona no debe de sobrepasar los 25 Kg., para evitar el sobre esfuerzo o lesiones (Seguridad y Salud en el Trabajo, 2007). En España durante el 2009, se presentaron 232,287 accidentes por realizar sobresfuerzo, representando el 37.6% del total de los accidentes con baja en la jornada de trabajo, las jornadas perdidas debido a los accidentes por sobresfuerzo en el mismo año fue de 4,886,095 días. Ocasionando 21 jornadas no trabajadas. El 74,2% de los trabajadores declara tener alguna lesión en el cuerpo, debido a la postura o sobresfuerzo debido a su trabajo. Dependiendo de la actividad que realizan al manipular carga, las áreas del cuerpo que son afectadas son: cuello 27%, zona lumbar de la espalda 40,1%, piernas 14,1%, zona alta de la espalda 26,6% y pies-tobillos 6,2%. Las lesiones y accidentes son causadas por la manipulación manual de cargas, según el área y actividad, al no poder evitar interactuar con la carga (Universidad de la Rioja, 2015). En México durante el 2014, se confirmaron en el ámbito nacional 409,248 accidentes de trabajo de todo tipo, 1.5% menor que el año pasado, en el 2013 se registraron 415,660 accidentes mientras que en el 2014 se dio una cifra de 409,248. Los Estados que ayudaron a la disminución de accidentes en un 55.3% fueron: estado de México, Sonora, Chihuahua y Michoacán. El 82,6% de la cifra total afectaron 6 regiones anatómicas: mano y muñeca 27.6%, cabeza y cuello 11.7%, pie y tobillo 14.3%, miembro inferior 11.0%, miembro superior 9.7%, región lumbar, columna y pelvis 8.3%. En México se ha reflejado que las lesiones de espalda, son menores a años previos (Prevencionar lo Primero, tu Seguridad, 2014).

Materiales Entre los materiales utilizados para el desarrollo del proyecto, para la evaluación del equipo de sujeción para la manipulación manual de carga, se encuentra el equipo para el levantamiento de carga, el cual funciona a base de tensionar correas manipuladas entre dos personas, el empaque cuenta con dos unidades uno para cada persona, del cual está fabricado de un material resistente de nylon para uso industrial con una capacidad de carga máxima de 270 kg. Se utilizó una caja aproximadamente de 1.24 x 1.11 x .89 m, con un peso de 50 Kg., que se encuentran en el taller de automotriz con materiales diversos como piezas hechas en fresadora y torno. Una mesa de metal y madera de 63 cm de alto, fue empleada para la simulación del levantamiento de carga, en esta misma se subía la caja para su respectivo almacenamiento, entre los materiales también se encuentran una regla de metro, ya que se midió y marco el área de trabajo donde se llevaron a cabo las pruebas del equipo, una báscula para pesar el material, un trasportador con el cual se midió el ángulo de simetría en la posición del alumno, tape de color para marcar la línea sagital y la línea de asimetría, cinta métrica para medir la distancia el punto medio de la línea que une los tobillos a la distancia horizontal al punto de proyección que se encuentra en la línea sagital. Como se muestra en la Figura 2.

Metodología Diseño de la investigación Esta investigación está orientada a un diseño descriptivo, no-experimental y transversal. Se considera de tipo descriptivo ya que tiene la finalidad de observar, analizar y evaluar un dispositivo de sujeción de cargas, este tipo de estudios se caracterizan por señalar un hecho o situación para determinar una hipótesis, tienen como objetivos definir, evaluar, catalogar o representar la actividad en el uso de este tipo de mecanismos de estudio. Se considera como un diseño no-experimental ya que se basa fundamentalmente en la observación de actividades tal y como se dan normalmente en un área de trabajo, para poder analizar la información de un suceso que ya ocurrió o se dio sin intervenir directamente el investigador. En la actividad realizada, las personas seleccionadas serán observadas en su ambiente natural. Este tipo de estudios se caracterizan por que no modifican variables, solo se observa el fenómeno tal y como se da en su contexto natural, para de esta forma analizarlo. La evaluación del trabajo consta de observar y realizar mediciones a un grupo de individuos más de una ocasión, por lo que también se considera de tipo transversal, los estudios de este tipo son utilizados con el objetivo de analizar datos, por medio de la observación de una actividad efectuada por un grupo de personas y el tiempo para la recopilación de datos es con un tiempo limitado (Kerlinger, 1979).

114

Revista Científica

Figura 2. Área marcada y material de medición. Fuente: Taller de automotriz DMCU.

Método Se seleccionó la actividad a simular así como su ubicación, Se invitó a todo el personal del taller automotriz, que se encontrara trabajando o prestando servicio social, a participar en el presente estudio. Se tomaron en cuenta los recursos disponibles y tiempo para efectuar el trabajo. Se dio una descripción del propósito del proyecto al personal antes mencionado, explicándoles en que consiste la actividad, así como la duración de la prueba. Se les entregó una hoja de consentimiento a los participantes, antes de efectuar la actividad, con el motivo de informarles acerca de las posibles lesiones que se podían ocasionar al momento de realizar estas pruebas, para hacerlo consiente de estos riesgos. Una vez que es informado, si deseaba participar firmaba dicha hoja, aceptando ser parte del proyecto. Se les enseñó el equipo de sujeción de carga para la actividad, se les dio una capacitación de la forma de utilizar el equipo para la manipulación manual de carga, que consta de explicar cómo sujetar la carga con el equipo.


Una vez ya realizada la capacitación de como levantar la caja sin el equipo de sujeción y con el equipo de sujeción. Se les proporcionaron en seguida, una serie de instrucciones de trabajo a simular en el taller de automotriz, primero se realizaron las prueba sin el equipo de sujeción, entre el total de los participantes que en este caso fueron ocho alumnos del servicio social. De los ocho participantes pasaron los primeros dos a efectuar la prueba. Se les especificó tomar las posiciones marcadas en el área de trabajo como se muestra en la Figura 3 lado A, que corresponde al plano sagital. Se les explicó que cada movimiento realizado seria pausado para poder realizar las mediciones correspondientes, al efectuar el primer movimiento se colocaron en posición inicial, a punto de levantar el material lado (A), en esa posición se tomaron los primeros datos en la hoja de registro. Figura 4. Uso del equipo de sujeción en la actividad. Fuente: Taller de automotriz DMCU.

Resultados Se tomó una muestra conformada por ocho alumnos del servicio social, que en ese momento se encontraban disponibles realizando su servicio, de los cuales el total de los participantes fueron hombres con una edad de 25 ± 0.707, de condiciones físicas adecuadas para la simulación de las actividades de la MMC, no participaron mujeres en dicha actividad.

Figura 3. Posición inicial y final sin el equipo de sujeción manual. Fuente: Taller de automotriz DMCU.

Cuando se realizó el segundo movimiento, se cargó entre dos personas una caja de 50 Kg., la cual fue levantada desde el suelo (punto inicial) hacia la mesa (punto final) sin detenerse. donde se posicionó y soltó la carga, lado (B), al terminar el segundo movimiento los alumnos se quedaron en posición estática con las manos en la carga y el tronco girado, para realizar nuevamente las mediciones, al momento de estarse realizando la actividad, se observó el fenómeno y se registraron los datos en la hoja de registro. De esa manera se repitió el proceso del levantamiento de la carga sin el equipo hasta terminar con los ocho alumnos del servicio social, Ya registrada la información de la primera actividad sin el equipo de sujeción, el proceso se repitió con los mismos alumnos, pero ahora con una variable nueva que fue introduciendo el equipo de sujeción. Los alumnos usaron el equipo de sujeción para levantar la carga hacia la mesa, efectuando las pausas y mediciones correspondientes por el evaluador como se muestra en la Figura 4, este proceso se repitió hasta completar el estudio con todos los alumnos participantes del taller de automotriz. Una vez recolectada la información en las hojas de registro, se procedió a introducir los datos en la presente aplicación de Excel, ecuación NIOSH para tareas simples. Para determinar el índice de levantamiento y nivel de riesgo generado por dichas cargas. Efectuadas las actividades, con el apoyo del personal del área del taller de automotriz, utilizando el equipo de sujeción para la manipulación manual de carga, los datos fueron registraron por el evaluador.

En este sentido, los resultados de las primeras pruebas sin el equipo de sujeción, se encuentran en la Tabla 1, donde se utilizó solo una caja mediana de 1.24 x 1.11 x .89 m, con un peso de 50 kg., La cual fue levantada del piso y colocada en una mesa de 63 cm de alto. En donde se muestran los resultados de las cuatro pruebas realizadas por los ocho participantes. Se observa que los alumnos levantaron un peso de 25 kg., cada uno, indicando que se solo se efectuó un levantamiento por minuto, considerando la tarea de corta duración menos de una hora, se estableció el control de la carga al destino ya que la actividad requería precisión al colocar la carga, el tipo de población es general ya que todos los participantes de la evaluación fueron hombres mayores, se muestran las distancias horizontales y verticales que obtuvieron los participantes y de igual manera se obtuvieron los ángulos de asimetría, se registró que los alumnos tuvieron un agarre malo respecto a la carga ya que carecía de algún tipo de agarre la caja.

Tabla 1. Datos de los 8 alumnos, sin el equipo de sujeción. Fuente: Taller de automotriz DMCU.

Revista Científica

115


Una vez realizados los levantamientos a la caja mediana de 1.24 x 1.11 x .89 m y 50 kg., con los ocho alumnos del servicio social sin el equipo de sujeción, se prosiguió a efectuar la evaluación con el equipo de sujeción, con los mismos ocho alumnos participantes del proyecto. Con la misma mecánica de hacer cuatro levantamientos entre los ocho participantes, un levantamiento por dos personas. Las instrucciones que se les dieron a los alumnos fueron exactamente las mismas, se les indico que usarían el equipo de sujeción en la prueba, realizando las posiciones indicadas y pausas correspondientes para efectuar las mediciones. Al proceder a la evaluación con el equipo de sujeción, la realizaron los mismos alumnos que efectuaron la actividad anterior sin el equipo, Los datos obtenidos con el equipo de sujeción para la manipulación manual de cargas se muestran en la Tabla 2. Cuando se revisaron los datos obtenidos de la evaluación, se pudo ver que las mediciones que sufrieron un cambio significativo fueron: la distancia horizontal que se mantuvo en un rango de 53 a 59 cm, levantado de forma normal y con el equipo de sujeción se observó que disminuyó la distancia entre el punto central de la carga y el punto medio de los tobillos con un rango de 52 a 55 cm, los datos indicaron que la carga esta mas pegada al cuerpo reduciendo el esfuerzo de la espalda. El tipo de agarre mejoro de malo a regular, ya que con el equipo de sujeción se sujetó la carga más firmemente, indicando menos esfuerzo al sujetar la carga. La distancia vertical se mantuvo igual ya que la distancia entre el punto inicial y final de la carga es el mismo con o sin el equipo de sujeción, el ángulo de asimetría fue el dato que más sufrió un cambio, se mantuvo en 0 grados en todo momento con el equipo de sujeción, a comparación de la tabla actividad anterior, el ángulo de asimetría se mantuvo entre 30 a 60 grados, se observó mediante los datos que con el equipo de sujeción se conservó la espalda recta en cada uno de los levantamientos, previniendo la torsión del tronco en el alumno.

Tabla 2. Datos de los 8 alumnos, con el equipo de sujeción. Fuente: Taller de automotriz DMCU.

Por lo que, para determinar el riesgo por la actividad, se obtuvieron los índices de levantamiento de cada alumno por separado que participó en la evaluación con y sin el equipo de sujeción, la información sobre la evaluación se ingresó en la aplicación de Excel, ecuación NIOSH para tareas simples, diseñada por la (Comunidad Autónoma de la Región de Murcia, 2011). Los índices de levantamiento de cada alumno participantes de la evaluación se muestran en la Tabla 3. Donde se observa que el índice de levantamiento más alto sin el equipo de sujeción es de 4.29 y con el equipo de sujeción es de 3.57, con una disminución del IL de .72, esto representa una mejora al momento de estar realizando la actividad,

116

Revista Científica

La ecuación de NIOSH indico que la actividad debe de ser modificada según sea el límite de peso recomendado LPR origen, el límite de peso recomendado LPR, sin el equipo de sujeción, En el evaluado A, debe de ser modificado a 7 kg., y en el evaluado B, debe de ser modificado a 6 kg. El peso de la caja es el mismo en el punto de origen y en el destino, En el caso del índice de levantamiento IL, con el equipo de sujeción en el evaluado A, debe de ser modificado a 7 kg., y en el evaluado B, debe de ser modificado a 7 kg. Se observó en el evaluado A, que el LPR origen en igual a 7 kg. Con y sin el equipo de sujeción, la única diferencia es que el IL es menor con el equipo de sujeción.

Tabla 2. Índices de Levantamiento con y sin el equipo de sujeción. Fuente: Taller de automotriz DMCU.

En la ecuación de NIOSH el Índice de Levantamiento (IL), proporciona una estimación según el nivel de riesgo que hay en una actividad de manipulación manual de carga, concretando que el (IL), es el peso de la carga (L) y el límite de peso que se recomienda a levantar (LPR). Según la información obtenida de las pruebas se encontró que el índice de levantamiento fue menor con el equipo de sujeción, se obtuvo una media del índice de levantamiento con el equipo de sujeción de 3.48 y de 4.00 sin el equipo, reduciendo el riesgo causado muy significativamente el IL en .72. Al determinar el riesgo por la actividad se consideró que un riesgo limitado en cualquier actividad relacionada con la manipulación manual de cargas, debe de ser menor a uno y puede ser realizada sin problemas (1< IL < 1), una tarea moderada representaría un riesgo relativo al personal (1 < IL < 1,6), una tarea mayor a uno es inaceptable ya que es un riesgo causado (1 < IL> 1,6), la evaluación previa cae en la categoría de riesgo causado, porque el índice de levantamiento IL, con el equipo de sujeción es de 3.48, esto es considerado inaceptable. Por otro lado, se obtuvo que el índice de levantamiento IL, mayor obtenido en las pruebas sin equipo de sujeción, fue de 4.29, en promedio los participantes tuvieron un índice de levantamiento de 4.00. Mientras que con el equipo de sujeción se obtuvieron un índice de levantamiento mayor de 3.57, con un promedio de 3.48, como se muestra en la Figura 5, indicando que el IL es disminuido al usar el equipo de sujeción, al igual que el esfuerzo para levantar la carga, se observó que los alumnos que tuvieron el mayor índice de levantamiento IL, fue a causa de tener un grado mayor de ángulo de asimetría (giro del tronco) y los alumnos que obtuvieron un índice de levantamiento IL menor, son los que efectuaron la prueba y obtuvieron una distancia horizontal menor y un ángulo de asimetría igual a 0 grados, según la ecuación de NIOSH se observó que el límite de peso recomendado LPR, para la actividad previa, debe de ser modificada de 25 kg a 7kg por cada individuo, determinado por el LPR origen ya que es el de menor peso recomendado.


unos soportes de 6 cm de alto en las orillas del material, realizando la función de tarimas, para así desplazar el equipo de sujeción fácilmente por debajo del material. El equipo de sujeción para la manipulación manual de carga si cumple con su función de disminuir el índice de levantamiento, de una manera muy significativa: el índice de levantamiento más alto sin el equipo de sujeción es de 4.29 y con el equipo de sujeción es de 3.57, con una disminución del índice de levantamiento de 0.72, esto representa una mejora al momento de estar realizando la actividad. Figura 5. índices de levantamiento mayor y menor. Fuente: Elaboración propia a partir de datos obtenidos.

Por lo que, al término de la evaluación del equipo de sujeción, a los alumnos participantes del proyecto se les entregó un cuestionario de percepción, con la finalidad de conocer la situación con respecto al equipo de sujeción. Según la encuesta estos fueron los datos obtenidos como se muestra en la Tabla 4, en la evaluación los participantes, señalaron que la prueba fue confusa al momento de usar el equipo de sujeción, la mitad de los alumnos consideraron su esfuerzo físico moderado, la otra mitad de los participantes, catalogaron su esfuerzo físico mucho menor, siete de los ocho alumnos no percibieron alguna molestia en los brazos, al usar el equipo de sujeción, el 100% de los encuestados afirmaron mantener la espalda recta durante la evaluación, solo un encuestado sintió poco dolor en la espalda.

Igualmente, al usar el equipo de sujeción se recomienda tener en cuenta las medidas de seguridad adecuadas como son: las botas de seguridad, faja para evitar flexionar el tronco y capacitar al personal. No se debe de utilizar el equipo de sujeción en una actividad donde se realicen más de un levantamiento por minuto, ya que para usar el equipo de sujeción se requiere precisión al levantar la carga, es necesario usar el equipo de sujeción, en una actividad de poca duración, como en un almacén donde se requiera mover una caja grande o algún inmueble periódicamente, y señalo, si se tiene en mente analizar el equipo de sujeción, nuevamente con otra actividad, igual o diferente, se debe de tomar en cuenta las limitaciones de espacio, tiempo, personal disponible y recursos. Se deben considerar nuevas variables, como ampliar la muestra para obtener mejores resultados, e incluir población mixta, hombres y mujeres de diferentes edades y complexión e incluyan diferentes tipos de carga para evaluar el comportamiento del equipo de sujeción. Es importante, realizar este tipo de estudio y evaluación, a los equipos para la manipulación manual de carga, para así poder determinar el funcionamiento y los beneficios, al usar los equipos que estén disponibles en el mercado. Al ser analizados los equipos manuales, en ciertas actividades o áreas de trabajo específicas, se pretende minimizar o prevenir, las lesiones profesionales del personal que este manipulando la carga, como el dolor lumbar, ciática, torceduras, estiramientos del cartílago y movimientos mal efectuados. Para que el personal involucrado con la manipulación manual de carga, siga efectuando sus labores, de una manera segura y con una calidad de vida aceptable.

Tabla 4. Cuestionario de percepción. Fuente: Elaboración propia a partir de datos obtenidos.

Por otra parte, como trabajo futuro, en una segunda etapa, se pretende introducir el equipo de sujeción de carga, en una empresa maquiladora, que sea necesario usar la manipulación manual de carga, para posteriormente efectuar la evaluación de la actividad, en el área de trabajo del operador e identificar en que área de la empresa, puede tener una mejor aplicación.

Conclusiones La evaluación del equipo se efectuó satisfactoriamente en el taller de automotriz con la ayuda de los alumnos del servicio social. Se aplicó la metodología de NIOSH, para evaluar los datos de la evaluación a través de la ecuación de levantamiento para tares simples, con la ayuda de una aplicación en Excel. Se observaron fallos técnicos al momento de realizar las operaciones de manipulación manual de carga. El equipo de sujeción cumple con la tarea de sujetar y mover una carga, pero al momento de introducir las correas por debajo del material de 50 kg. Se dio la necesidad de efectuar un esfuerzo físico adicional para así introducir las correas por debajo de la carga y de igual manera para retirar el equipo ya desplazado y colocado en la meza. Para solucionar el problema se dio por introducir

Revista Científica

117


118

Revista CientĂ­fica


Bibliografía + Instituto Nacional de Seguridad e Higiene en el Trabajo (2009). Ministerio de Empleo y Seguridad Social. Obtenido de Manipulación Manual de Cargas : http://www.insht.es/ portal/site/Insht/menuitem.cfcbb9e77253bfa0f42feb10060961ca/?vgnextoid=1d19bf04b6a03110VgnVCM100000dc0ca8c0RCRD&do=Search&x=0&text=manipulacion+manual+de+cargas&y=0 + Kerlinger, F. (1979). Enfoque Conseptual de la Investigación del Comportamiento. México D.F.: Nueva Editorial Interamericana Cap. 8 (Investigación Experimental y no Experimental). + Mutual de Seguridad. (2016). Mutual de Seguridad Somos CCHC. Obtenido de Material para el Control de Riesgos Ergonómicos Asociados al Manejo Manual de Cargas: https://manejocarga.blogspot.mx/2016/08/informacion-necesaria-con-medidas-de.html + Prevencionar lo Primero, tu Seguridad (2014). Estadísticas sobre accidentes y enfermedades de trabajo. Obtenido de http://prevencionar.com.mx/2015/09/27/estadisticas-sobre-accidentes-y-enfermedades-de-trabajo-del-2014/# + Seguridad y Salud en el Trabajo (2007). Sistema de Gestión Basado en la Norma OHSAS 18001:2007. Obtenido de Manipulación de Cargas: https://norma-ohsas18001.blogspot.mx/ + Universidad de la Rioja (2015). Manipulación Manual de Cargas. Obtenido de Servicio de Prevención de Riesgos Laborales: https://www. unirioja.es/servicios/sprl/pdf/cargas.pdf

Revista Científica

119


Glenis Masiel Ochoa Márquez1, Oscar Delgado Landeros2, Adair Jaquez Mora3 y Pablo Meléndez Lucero4

Universidad Tecnológica de Ciudad Juárez Av. Universidad Tecnológica No. 3051, Col. Lote Bravo II, Ciudad Juárez, Chihuahua, México, C.P. 32695 1,2,3,4

glenis_ochoa@utcj.edu.mx oscar_delgado@utcj.edu.mx adairmora76@gmail.com pabloerm11-@hotmail.com

Resumen: El uso de la tecnología es de vital importancia en todos los campos del desarrollo humano. Debido al incremento de la demanda alimenticia a nivel global es requerido generar alternativas para la producción acelerada de alimentos, es el caso de la agricultura protegida que no siendo suficiente la instalación y operación de un invernadero convencional, es de gran utilidad aplicar un sistema de automatización. En el caso de la presente investigación se ha construido un prototipo de invernadero para comprobar la importancia que tiene la aplicación de tecnología, en la cual se han implementado actuadores y sensores para controlar variables esenciales para el desarrollo de una planta tales como humedad, riego y temperatura. Se sembraron plantas que soportan rangos similares de temperatura de entre 18°C y 25°C, obteniendo como resultado una germinación más rápida versus la muestra blanco que no se sometió al ambiente controlado.

+

Recibido: Agosto 28, 2017. Recibido en forma revisada: Mayo 4, 2018. Aceptado: Julio 3, 2018.

120

Revista Científica

Palabras clave: Invernadero, automatización y control, tecnología.

Abstract: The use of technology is of vital importance in all fields of human development. Due to the increase in food demand at the global level it’s necessary to generate alternatives to increase the production of food, it is the case of protected agriculture that the installation and operation of a conventional greenhouse is not enough, it is very useful to apply an automation system. In the case of the present investigation, a prototype


of greenhouse has been constructed to verify the importance of the application of technology, in which actuators and sensors have been implemented to control variables essential for the development of a plant such as humidity, irrigation and temperature. Plants bearing similar temperature ranges of 18 to 25 ° C were sown, resulting in faster germination versus the blank sample which was not subjected to the controlled environment.

+ Keywords: Greenhouse, automation and control, technology. Introducción La producción de alimentos ha sido rebasada por la explosión demográfica, en pocas décadas la capacidad de carga del planeta se ha sobrepasado, según la ONU (Organización de las Naciones Unidas) la población es más de 7,000 millones, dando una demanda significativamente mayor provocando escases del sustento básico para la sobrevivencia [7]. Para satisfacer dicha demanda se han diseñado y puesto en marcha infinidad de proyectos, desde elaboración de alimentos sintéticos, aplicación de la biotecnología en los AGM [1] o la aceleración de producción por medio del control de parámetros esenciales para las plantas, esto en estructuras especiales, siendo este último uno de los más importante ya que se manipulan los ambientes logrando subsanar un poco la problemática. Existen varios sistemas para la automatización y el control desde un PLC (Programmable Logic Controller), hasta los micro-controladores, sin embargo, esto dependerá de lo robusto del sistema, es decir la cantidad de variables a controlar, además de la disponibilidad de recurso financiero. Independientemente de lo anterior la aplicación de estos sistemas ofrece menos esfuerzo humano, y la dosificación de los parámetros necesarios para el crecimiento de las plantas [8]. El PLC utilizado para la satisfacer las necesidades fue un Micro 850 2080-LC50-48QWB Fabricado por Allen-Bradlley, es cual por ser de capacidad industrial presenta las capacidades necesarias, que al ser comparado con un microcontrolador nos da la fiabilidad y robustez necesaria por cuestiones de inclemencias climatológicas, así como de durabilidad, dándonos la pauta para programar en diagrama de escalera, código C++ e inclusive diagrama de bloques. En el presente documento se pretende demostrar la importancia que tienen los invernaderos, y no solo eso sino la intervención de la tecnología y la ingeniería en este tema, logrando automatizar el proceso dentro de estas estructuras.

Marco de referencia La producción de alimentos se ha visto severamente impactada por los cambios climáticos, ejemplo de esto es, la perturbación de los suelos por salinización o desertificación, las pérdidas de los recursos disponibles (nutrientes, microorganismos) por mencionar algunos; esto provocando que la calidad y cantidad de alimento sea cada vez más deplorable [12]. Por lo anterior se han tenido que buscar alternativas viables para la generación de alimentos cumpliendo con los requerimientos ya establecidos por las organizaciones internacionales en materia de seguridad alimentaria como son la ONU o la FAO [13]. Una de ellas es la agricultura contro-

lada en invernaderos. El programa especial para la seguridad alimentaria PESA- MEXICO, resalta varias técnicas de cultivo como lo son: a) Cultivo en camas biointensivas, b) Aplicación de riego por goteo. c) Fertilización con enmiendas orgánicas como abonos de compostas. d) Control agroecológico de plagas y enfermedades. e) Protección de cultivos con túneles de plásticos y mallas. f) Construcción y manejo de invernaderos. Siendo esta última una de las alternativas más utilizadas, también se les conoce como agricultura controlada o protegida [1]. Según la SAGARPA en México éste tipo de agricultura ocupa una superficie mayor a 20,000 hectáreas; 12,000 hectáreas son destinadas para la construcción de invernaderos y las 8,000 restantes corresponden la instalación de malla de sombra, acolchados y macro túneles [10]. La agricultura protegida presenta varias ventajas respecto a lo tradicional o cielo abierto, ya que en un invernadero se puede limitar la influencia del medio ambiente sobre el cultivo, además brinda la facultad de intervenir en la regulación de ciertos parámetros, es decir crear el microclima adecuado para proteger los cultivos de factores externos. Al automatizar un invernadero garantiza el control de variables como temperatura, humedad, dióxido de carbono (CO2), entre otras, que no se logran con una interacción manual [11]. En relación al nivel de tecnificación de invernaderos en México, la mayoría de éstos se consideran de baja y media tecnología, en función de lo siguiente: 1) Tecnología baja: es 100% dependiente del ambiente, al hacer uso de tecnologías simples similares a las utilizadas en cultivo a intemperie. 2) Tecnología media: corresponde a estructuras modulares o en batería que están semi-climatizadas, con riegos programados, y pueden ser en suelo o hidroponía. Por lo general la productividad y calidad es mayor que en el nivel anterior. 3) Tecnología alta: en este nivel se incluyen instalaciones que cuentan con control climático automatizado (mayor independencia del clima externo), riegos,computarizados y de precisión, inyecciones de CO2, para ello cuentan con sensores y dispositivos que operan los sistemas de riego y ventilación, pantallas térmicas para el control de la iluminación y cultivo en sustratos [4]. Se considera invernadero de baja tecnología a aquel con costo promedio de $70 pesos/m2, construido de elementos sencillos o que responde a una casa-sombra. Los invernaderos de tecnología media cuestan unos $250 pesos/m2 y son en muchos de casos estructuras semiautomatizadas. Un invernadero de alta tecnología cuesta unos $1,500 pesos/m2 y está totalmente automatizado. El precio del proyecto ofertado está ligado al nivel de tecnología incorporado en el invernadero. Partiendo de un precio base, el invernadero se irá encareciendo a medida que se incorporen sistemas, tales como calefacción, humidificación, control de clima, por mencionar algunos [9]. En el caso de México para construir este tipo de estructuras debe de obedecer a la normatividad vigente, la cual es la NMX-E-255-CNCP-2008, en esta se describen las especificaciones mínimas necesarias respecto a la estructura háblese de cimientos, medidas y tipos de cubierta, en esta misma define a un invernadero como “Es una construcción agrícola de estructura metálica, usada para el cultivo y/o protección de plantas, con cubierta de película plástica traslucida que no permite el paso

Revista Científica

121


de la lluvia al interior y que tiene por objetivo reproducir o simular las condiciones climáticas más adecuadas para el crecimiento y desarrollo de las plantas cultivadas en su interior, con cierta independencia del medio exterior y cuyas dimensiones posibilitan el trabajo de las personas en el interior. Los invernaderos pueden contar con una cubierta total de plástico en la parte superior y malla en los laterales, o cubierta total de polietileno [5], una consideración importante es la económica, ya que implementar estos sistemas son costosos, aunque garantice una mayor producción aún existe cierta resistencia por parte de los agricultores o inversionistas [6]. El 76% de los productores de invernadero no invierte en asesoría técnica, por considerarlo innecesario o porque no confía en los asesores. Por otra parte, México no cuenta con suficiente personal técnico capacitado en la producción en invernaderos [9].

analógico 2080-IF4, dado que por sí solo el controlador no cuenta con entradas variables. Fungiendo como los ojos y manos del sistema se cuenta con un sensor de humedad y temperatura modelo DHTM-02s así como una bomba hidráulica la cual proveerá en conjunto con los aspersores un roció con amplitud de 180°. La programación del PLC se desarrolló en un diagrama de escalera con comparadores lógicos, así como accionadores físicos y lógicos. Los cuales nos permiten manipular cada uno de los instrumentos tales como abanicos, lámparas y el extractor. El software utilizado para desarrollar el programa fue Rockwell Automation Connected Components Workbench.

Desarrollo Diseño: Dadas las particulares condiciones climatológicas así como geológicas de la región y para satisfacer completamente las necesidades de un invernadero fue necesario el diseño de un prototipo a base de una estructura metálica en variante de micro túnel, cubierta completa de plástico especial para invernadero (Figura 1), la cual brinda una resistencia a vientos que oscilan los 110km/h. la estructura está realizada a base de perfil tubular C100.

Figura 2. Diagrama de escalera.

Para poder manipular de manera manual los actuadores se utiliza un Panel View 800, denominado HMI (Human Machine Interface), el cual consiste en una pantalla táctil con botones graficas interconectados mediante una interface ethernet al PLC. Figura 1. Prototipo de invernadero tipo microtunel.

Programación: Para poder generar un control adecuado de un microclima que oscile entre los 12°C y 25°C y la humedad relativa dentro de la estructura no sea menor al 50%, se utilizó un PLC Micro 850 y un módulo

122

Revista Científica


Figura 3. HMI del panel view.

La interface nos permite visualizar la temperatura actual dentro del invernadero si como un historial de esta para poder interpretar las variaciones de esta. El programa tiene un modo de función automático con parámetros los cuales, accionados a base de sensores, así como el modo manual accionado por el usuario en la pantalla. Los parámetros de programación se establecieron de acuerdo a los requerimientos de algunas especies que fueran similares, siendo estas: Perejil (Petroselinum crispum), Cilantro (Coriandrum sativum), Tomate cereza (Solanum lycopersicum), Chile (Capsicum annuum). Y para cada caso se sembro una muestra blanco para realizar comparaciones.

Resultados Con base en el histograma de temperatura y humedad recabado por el sensor al interior del invernadero así como el instalado al exterior se pudo obtener una notable diferencia como se muestra en la Figura 3 y la Figura 4, donde se observa que la temperatura al interior se mantuvo en un rango entre los 20 a 25 grados centígrados cuando en el exterior se alcanzaron temperaturas oscilando los 34 grados centígrados, de igual manera la humedad al interior se mantuvo siempre mayor a 45%. Estos aspectos en conjunto brindan parte de las necesidades climatológicas para que una planta se pueda desarrollar de manera óptima.

Figura 5. Gráfica de humedad.

Respecto al crecimiento se pudo notar que en el invernadero los días de germinación fueron menores (entre 10 y 15 días) que la muestra blanco (más de 20 días).

Conclusión Si bien, un invernadero por si solo supone una mejora considerable para el cultivo de plantas enfocado en el punto de calidad, seguridad e insumos necesarios, el contar con un invernadero automatizado da la pauta para un control prácticamente total de los parámetros necesarios a controlar para el desarrollo necesario de una planta, tales como humedad, temperatura e inclusive más aspectos tales como inyección de nutrientes, pH, etc. Hablando específicamente del invernadero desarrollado supone una mejora considerable y necesaria, dado que el sistema por si solo mantendrá los parámetros requeridos para garantizar el desarrollo de las plantas, sin la supervisión continúa de un operador humano, además de contar con precisión de operación dado la programación realizada. Con una prueba como esta se demuestra el impacto que tiene el control de variables por medio de la tecnología.

Figura 4. Gráfica de temperatura.

Revista Científica

123


124

Revista CientĂ­fica


Bibliografía [1] Dos Santos D. et al. (2012). Biotechnology applied to food and human health. Rev Chil Nutr Vol. 39, Nº3, Septiembre 2012. [2] http://www.hortalizas.com/horticultura-protegida/panorama-mexicano-revision-de-datos-de-la-industria-de-invernadero-en-mexico. Consultado: Mayo 2017. [3] Portillo Marco Antonio, (2012). Manual protegida los 5 pilares. [4] Juárez, Porfirio et al. (2011). Estructuras utilizadas en la agricultura protegida. Revista fuente. ISSN 2007 – 0713. [5] NMX-E-255-CNCP-2008. Resumen. Consultado 21 de agosto 2017. [6] Borbón Carlos Gabriel y Arvizu Marisol. (2015). Empirical contrast of technology transfer models: the case of three companies of protected agriculture in Mexico. Revista Electrónica Nova Scientia, Nº 15 Vol. 7 (3), 2015. ISSN 2007 - 0705. pp: 364 – 388.

[8] Prashik Satish Dhakne; Vivek Dattu Aldar; Sandip Jayavantrao Patil; Chetan Laxman Ghuge y Kiran P. Varade, (2017). PLC based Greenhouse Automation. International Journal for Research in Applied Science & Engineering Technology. Volume 5 Issue IV, April 2017 IC Value: 45.98 ISSN: 2321-9653 (IJRASET). [9] http://www.hortalizas.com/horticultura-protegida/panorama-mexicano-revision-de-datos-de-la-industria-de-invernadero-en-mexico. Consultado 22 de agosto 2017. [10] http://hidroponia.mx/agricultura-protegida-en-mexico. Consultado 22 de agosto 2017. [11] Cobos Carlos; Timaná Jimena y Valencia Rene, (2012). Decision support systems in germination and cultivation rocesses in greenhouse crops. Facultad de ciencias agropecuarias Colombia. [12] www.fao.org/Biodiversity, Consultado: 27 de Febrero 2017. [13] http://www.fao.org/cfs/es/. Consultado: 20 de octubre 2017.

[7] http://actualidad.rt.com/actualidad/ view/97314-poblacion-mundial-crecimiento-onu. Consultado Enero 2017.

Revista Científica

125


Javier Damián Simón1

Universidad del Papaloapan, Campus Tuxtepec, Departamento de Ciencias Empresariales. Circuito Central No. 200, Col. Parque Industrial San Juan Bautista Tuxtepec, Oaxaca, México, C.P. 68301.

1

damian_ce@hotmail.com jdamian@unpa.edu.mx

Resumen: Los estudios sobre emprendimiento se centran en el sector terciario (comercio y servicios) y escasamente abordan otros sectores, el objetivo del trabajo es describir a través de un estado del arte la situación que afrontan los emprendimientos del sector primario en el estado de Oaxaca. Se recuperó y analizó la producción académica sobre el tema generado en el periodo 2005-2011, analizando las problemáticas, objetivos, marco teórico y los hallazgos obtenidos. La investigación sobre emprendimiento en el sector primario se ha efectuado con un enfoque agropecuario y biológico limitándose al estudio de la forma de organización y caracterización de los sistemas de producción avícola, porcina, bovina y piscícola como actividades para el autoconsumo, pero no abordan la viabilidad mercadológica, económica y financiera lo que muestra la necesidad de incorporar especialistas en estos temas para entender mejor a la problemática y generar alternativas para la comercialización de los productos del sector primario.

+

Palabras clave: Emprendimiento, sector agropecuario, investigación, Oaxaca.

Recibido: Mayo 07, 2018. Recibido en forma revisada: Junio 08, 2018. Aceptado: Julio 04, 2018.

126

Revista Científica

Abstract: The studies on entrepreneurship focus on the tertiary sector (trade and services) and scarcely address other sectors, the objective of the work is to describe through a state of the art the situation faced by the enterprises of the primary sector in the state of Oaxaca. The aca-


demic production on the subject generated in the period 2005-2011 was recovered and analyzed, analyzing the problems, objectives, theoretical framework and the obtained findings. Research on entrepreneurship in the primary sector has been carried out with an agricultural and biological approach, limited to the study of the organization and characterization of poultry, swine, bovine and fish production systems as activities for self-consumption, but they do not address viability marketing, economic and financial which shows the need to incorporate specialists in these issues to better understand the problem and generate alternatives for the marketing of products in the primary sector.

+ Keywords: Entrepreneurship, agricultural sector, research, Oaxaca. Introducción La revisión de los estados del arte de la investigación sobre el tema de emprendimiento nos muestran un marcado interés de los investigadores por estudiar la situación en el sector terciario (comercios y servicios) y escasamente los hacen en el sector primario (Damián, J; López, B; Peralta, G; Garza, F. y García, R., 2015), mismo que comprende todas las actividades basadas en la extracción de bienes y recursos procedentes del medio natural tales como la agricultura, ganadería, pesca, caza, explotación forestal, minería, entre otros; así a lo largo de este texto se utilizará el término “emprendimiento del sector primario” para referirnos a la diversidad de actividades agropecuarios, rurales y agrícolas que generen ingresos para quienes los lleven a cabo pues es de reconocerse que los emprendimientos que surgen en el sector primario abonan de manera directa en mejorar las condiciones socioeconómicas de las comunidades y los agentes que participan en ellas al generar el autoempleo, la producción de bienes y productos para el autoconsumo y la ocupación de otras personas de las comunidades (Manrrique, 2011). En los países desarrollados estos emprendimientos ocupan una proporción pequeña de la población activa (menor al 10%), pero en los países subdesarrollados como la mayoría de Latinoamérica, pueden emplear hasta el 50% de la población establecida en zonas rurales (UNICEF, 2015). El sector primario en América Latina y el Caribe es el sector con mayor potencial para generar bienestar, reducir la pobreza y presenta mayores posibilidades de crecimiento y competitividad, además de fortalecer la seguridad alimentaria por lo cual los emprendedores deben volver su mirada a este sector a fin de aprovechar integralmente los diversos productos que se generan en las actividades de este sector (Chiriboga y Caliva, 2011). Puesto que en este trabajo se analiza a los emprendimientos del sector primario resulta importante definir al “emprendedor agrícola” quien es un individuo o grupo de éstos que tiene derechos de uso y explotación de tierras u otros elementos asociados para llevar a cabo actividades agropecuarias, forestales o mixtas a su nombre (Suárez, 1972). Este término es reciente y de extraño uso en relación con territorios rurales por lo cual se afirma que el “emprendimiento rural no solo es un término nuevo sino que ha sido mal utilizado ya que su definición comprende la creación de nuevas organizaciones que introducen nuevos productos, crean nuevos mercados o utilizan nuevas tecnologías desde las zonas rurales” (Wortman 1990:330). Al igual que los otros tipos de emprendimientos los del sector primario enfrentan diversos obstáculos para desarrollar sus actividades, mismos que se pueden clasificar de la siguiente manera (Lichtensein, Lyons y Kutzhanova, 2004; Dabson, 2002): a) el tamaño y la densidad de los territorios rurales, pues de estos dependerá la cantidad de productos y bienes que

se demandarán y que habrá que satisfacerlos; b) la composición social y económica de las comunidades, factores importantes que confluyen para conformar la capacidad adquisitiva de los habitantes de los territorios rurales y; c) los débiles enlaces o uniones de estos territorios con el mundo exterior, ya que esto no les permite integrar redes de colaboración para generar cadenas de valor agropecuarias, es decir, este tipo de emprendedores muestran una falta de integración entre los agentes productivos, los cuales compiten entre sí por diversos insumos e implementos (Manrrique, 2011). Si bien se reconoce que este tipo de emprendimientos tiene problemas para su desarrollo, también se han identificado algunas condiciones óptimas para su impulso y desarrollo (Sancho, 2010), entre las más destacadas se encuentran las siguientes:

1. Un territorio muy competitivo, lo que implica el que diversos organismos públicos y privados desarrollen programas de capacitación, información y asistencia dirigida a empresarios, emprendedores o potenciales emprendedores del sector primario, todo lo anterior debe incluir orientación sobre las fuentes de financiamiento e infraestructura adecuada y una gran apertura hacia la existencia de recursos limitados existentes en el territorio rural, pero explotables sosteniblemente. 2. Un mercado activo que ofrezca un gran abanico de opciones de servicios y obtención de insumos y comercialización de productos terminados. Lo anterior debe estar acompañado de fuentes y acceso a información no solo de precios, sino también de oportunidades comerciales disponibles para poder colocar los bienes y productos en el mercado. 3. Diversidad de proyectos de negocios, es decir, atender mercados específicos lo que implica diseñar planes con estrategias adecuadas en organización, producción y comercialización de emprendimientos agrícolas, pecuarios, forestales, mineros, entre otros, a fin de aprovechar las oportunidades de negocio y las vocaciones productivas de los territorios rurales. En el caso que nos ocupa por todos es conocido que Oaxaca es uno de los estados del país que muestra los mayores índices de atraso en diversos indicadores económicos y educativos, así surge el interés por conocer e indagar la situación o problemáticas que afrontan los emprendimientos del sector primario pues no existen a la fecha estudios que reporten dicha situación a fin de poder generar propuestas de solución en el futuro desde el ámbito de la academia (Damián, 2018). En este trabajo se reportan algunos resultados del proyecto financiado por PRODEP denominado “Estado del arte de la investigación sobre educación, derecho, género y emprendurismo, efectuada en las IES públicas y otras instituciones de la sociedad en el estado de Oaxaca, periodo 2005-2011. Análisis, perspectivas y propuestas”. El objetivo del trabajo es describir a través de un estado del arte sobre la investigación en emprendimiento, la situación que afrontan los emprendimientos del sector primario en el estado de Oaxaca. Para lograr el objetivo anterior mediante el análisis de la producción académica se indaga sobre las problemáticas abordadas en la investigación llevada a cabo por colegas de las IES públicas del estado de Oaxaca, los objetivos que se persiguieron, el marco teórico que sustentó a la investigación y, los principales hallazgos o resultados obtenidos.

Revista Científica

127


Metodología empleada La investigación fue descriptiva y exploratoria y pretende hacer una caracterización de la situación del emprendimiento del sector primario en el estado de Oaxaca. El universo de estudio fue la producción académica generada sobre el tema por investigadores adscritos en IPES (Instituciones Públicas de Educación Superior) del estado durante el periodo 20052011; se recuperaron 60 trabajos sobre el tema de emprendimiento de los cuales solo once (19%) abordaron el tipo de emprendimiento que fue de nuestro interés. La producción académica se obtuvo de la siguiente forma: a) se revisaron las memorias escritas del 11º, 12º y 13º Foro Estatal de Investigación e Innovación organizados por el Consejo Oaxaqueño de Ciencia y Tecnología (COCyT) en 2006, 2010 y 2011; b) se consultaron las páginas web de las universidades pertenecientes al Sistema de Universidades Estatales del Estado de Oaxaca (SUNEO), pues en éstas aparecen los nombres y un breve Currículum Vitae (CV) de los profesores con sus últimas producciones; c) se hizo lo mismos con otras IES públicas, obteniendo solo información del CIIDIR-IPN Oaxaca y del Instituto Tecnológico de Oaxaca; d) se revisaron las únicas tres revistas de divulgación científica editadas en IPES del estado: Temas de Ciencia y Tecnología (Universidad Tecnológica de la Mixteca) , Ciencia y Mar (Universidad del Mar), y Naturaleza y Desarrollo (CIIDIR-IPN Oaxaca) y; e) con el nombre del investigador y títulos de su producción, se utilizó el motor de búsqueda de Google académico y el buscador Biblat. Obtenidos los trabajos, se procedió a su lectura, organización y sistematización a fin de poder caracterizar la situación del emprendimiento del sector primario.

Figura 1. Aprovechamiento de PFNM (frutos).

Figura 2. Aprovechamiento de PFNM (hiervas).

Principales resultados obtenidos A continuación y por razones de espacio presentamos los resultados organizados en cuatro apartados que nos permiten tener un acercamiento a las diversas situaciones del emprendimiento del sector primario según la investigación reportada en producción académica generada en el periodo que se estudia. Problemáticas de la investigación en emprendimiento del sector primario

Figura 3. Aprovechamiento de PFNM (ornatos).

Las problemáticas encontradas en la producción académica analizada se refieren a diversas situaciones que afrontan los emprendedores del sector primario tales como la producción de aves de corral, cerdos, bovinos, piscicultura, meleagricultura, aprovechamiento de Productos Forestales No Maderables (PFNM), agregados pétreos y diversos minerales; además de su situación también se describen sus sistemas de producción y aprovechamiento, su forma de organización y su contribución en la generación de ingresos para los productores y sus familias (Imagen 1 a Imagen 4).

Figura 4. La producción agricola. Figura 1 a 4. Ejemplo de emprendimientos del sector primario abordados en las investigaciones.

128

Revista Científica


Así tenemos investigaciones que abordan la problemática de los emprendedores rurales dedicados a la producción de diversos tipos de animales para obtener ingresos tales como gallinas y pollos criollos (Jerez, Carrillo, Castañeda, Díaz y Reyes, 2006; Camacho, Lira, Ramírez, López y Arcos, 2006; Segura, Jerez, Sarmiento y Santos, 2007); la demanda insatisfecha de productos porcinos lo que requiere orientar la producción en este ramo (Zárate, Pérez, Leyva y Rendón, 2006); la difícil situación de los sistemas de producción de bovinos (Ruiz, Hernández, Palacios y Sosa, 2010); la precaria situación de la piscicultura rural sustentable como generadora de ingresos (Ramírez, 2006); la situación de la meleagricultura de traspatio (crianza y explotación del guajolote) y su importancia económica para las familias rurales (Reyes, Rodríguez, Ramírez, Franco y Camacho, 2009); la detección de oportunidades de negocios en los abundantes Productos Forestales No Maderables (PFNM) en el estado de Oaxaca para generar ingresos económicos (Acosta y Martínez, 2011); el mercado potencial no atendido y la demanda insatisfecha de agregados pétreos en el sector de la industria de la construcción (Aguilar, Gallegos y Santamaría, 2010); la producción y comercialización de árboles de navidad como fuentes de ingreso en las comunidades forestales (Jiménez, Rodríguez y Pérez, 2009) y; la minería no aprovechada eficientemente para producir artesanías de piedra de mármol o cantera como actividad económica generadora de ingresos (Aguilar, 2010).

Objetivos de la investigación en emprendimiento del sector primario En cuanto a los objetivos de las investigaciones sobre emprendimiento del sector primario, éstos se centraron en estudiar, analizar, describir y caracterizar los sistemas tradicionales de producción avícola, porcina, bovina, piscícola, así como la práctica de la meleagricultura, el aprovechamiento de los PFNM, los recursos pétreos y diversos minerales para elaborar artesanías; en todos los casos se buscó evaluar su potencial para la generación de ingresos de las familias de los productores. Los objetivos guardaron una fuerte relación con las problemáticas abordadas, así tenemos que buscaron el caracterizar los procesos de producción tradicional de avicultura familiar (Camacho, Lira, Ramírez, López y Arcos, 2006); estudiar la producción de gallinas criollas para el autoconsumo y como fuente para obtener ingresos (Jerez, Carrillo, Castañeda, Díaz y Reyes, 2006); estimar el comportamiento productivo de gallinas criollas criadas bajo condiciones semi-intensivas y determinar el efecto del gen cuello desnudo en esas características (Segura, Jerez, Sarmiento y Santos, 2007); describir, analizar y organizar la crianza de porcinos en unidades familiares como estrategia para obtener ingresos (Zárate, Pérez, Leyva y Rendón, 2006); caracterizar los gustos y preferencias de los consumidores meta para que los meleagricultores agreguen valor en sus procesos productivos (Reyes, Rodríguez, Ramírez, Franco y Camacho, 2009); implementar un modelo de producción piscícola acorde a las condiciones socioeconómicas, culturales y ecológicas de cada comunidad rural (Ramírez, 2006); determinar los parámetros productivos y la rentabilidad de la producción de bovinos en corral (Ruiz, Hernández, Palacios y Sosa, 2010); estudiar el mercado potencial de los agregados pétreos en la industria de la construcción (Aguilar, Gallegos y Santamaría, 2010); el aprovechamiento de los recursos forestales no maderables como fuente de ingresos (Acosta y Martínez, 2011); estudiar la producción y comercialización de árboles de navidad naturales en comunidades rurales (Jiménez, Rodríguez y Pérez, 2009) y; provechar el mármol en la elaboración de artículos artesanales y transferir conocimientos tecnológicos para avanzar a la etapa de industrialización y contribuir en la generación de ingresos en las comunidades rurales (Aguilar, 2010).

Marco teórico que sustenta a la investigación en emprendimiento del sector primario Como ya se ha comentado el concepto de emprendimiento en el sector primario llamado también emprendimiento rural o emprendimiento agrícola (Suarez, 1972; Wortman, 1990), es de reciente aparición en el ámbito académico por lo cual no existe un referente teórico sólido sobre este tema que fundamentara los trabajos de los investigadores; además resulta de interés mencionar que las investigaciones sobre emprendimiento del sector primario fueron llevadas a cabo por profesores que no tienen un perfil profesional en el área de negocios o administración de empresas, sino del área agropecuaria: agrónomos, biólogos (enfoque en zootecnia y fitotecnia) y de economía agrícola, lo que bien puede explicar el tipo de teoría que usaron para sustentar sus trabajos. Así tenemos que utilizaron material teórico sobre modelos y sistemas tradicionales de producción avícola y de gallinas criollas (Jerez, Carrillo, Castañeda, Díaz y Reyes, 2006; Segura, Jerez, Sarmiento y Santos, 2007); sobre producción porcina (Zárate, Pérez, Leyva y Rendón, 2006); sobre producción piscícola (Ramírez, 2006); sobre avicultura de traspatio.(Camacho, Lira, Ramírez, López y Arcos, 2006); informes y reportes de dependencias gubernamentales sobre la situación actual y perspectiva de la producción de carne de guajolote en México (Reyes, Rodríguez, Ramírez, Franco y Camacho, 2009); importancia e impacto del aprovechamiento de Productos Forestales No Maderables (Acosta y Martínez, 2011); estadísticas varias del INEGI (Aguilar, Gallegos y Santamaría, 2010); datos e informes de la Secretaría de Economía, SEMARNAT Y CONAFOR (Jiménez, Rodríguez y Pérez, 2009) y; estadísticas de INEGI y del Plan Nacional de Desarrollo (Aguilar, 2010).

Resultados de la investigación en emprendimiento del sector primario Los resultados que se reportaron en las investigaciones fueron de diversa índole contribuyendo sin duda en la descripción y caracterización del emprendimiento del sector primario en el estado de Oaxaca. Así tenemos que se logró la caracterización de los sistemas de producción de aves, cerdos y peces y se encontró que son altamente tradicionales con instalaciones rústicas carentes de equipo, es decir, en su mayoría son explotaciones de traspatio para autoconsumo que escasamente los excedentes generan ingresos (Jerez, Carrillo, Castañeda, Díaz y Reyes, 2006; Zárate, Pérez, Leyva y Rendón, 2006; Ramírez, 2006); mediante pruebas experimentales se encontró que las gallinas criollas representan un germoplasma avícola que debe investigarse como una alternativa en las regiones tropicales para producciones extensivas en las comunidades rurales (Segura, Jerez, Sarmiento y Santos, 2007); la caracterización del destino que se le otorga a las actividades avícolas encontrando que solo el 8% de los avicultores venden la producción, el 80% es para autoconsumo y el 12% para regalos en celebraciones sociales (Camacho, Lira, Ramírez, López y Arcos, 2006); se encontró que la producción de bovinos es una actividad económicamente rentable que se incrementaría si se finalizaran toretes pues mejoran los índices productivos y económicos (Ruiz, Hernández, Palacios y Sosa, 2010); se efectuaron estimaciones numéricas de la demanda de agregados pétreos tomando en cuenta el crecimiento de la industria de la construcción pues el potencial de rocas calizas en la región de la mixteca se encuentra medianamente aprovechado (Aguilar, Gallegos y Santamaría, 2010); en la misma tónica se encontró una demanda insatisfecha de árboles de navidad de origen natural que representa un mercado potencial que se puede convertir en una compra real mediante estrategias

Revista Científica

129


de mercadotecnia (Jiménez, Rodríguez y Pérez, 2009); de igual manera se identificó un mercado potencial de artesanías de mármol y desarrollar nuevos canales de distribución (Aguilar 2010) y; se logró la clasificación de los Productos Forestales No Maderables en abonos, bebidas e infusiones, condimentos, frutos silvestres, ornamentales, plantas medicinales y resinas (Acosta y Martínez, 2011).

Conclusiones El análisis exploratorio y teórico de la producción académica generada por los investigadores adscritos a las IES Públicas del estado de Oaxaca nos permite llegar a las siguientes conclusiones:

1) Falta mucho por hacer desde la academia para que la línea de investigación sobre emprendimiento en el sector primario llegue a consolidarse pues se encontró que durante el periodo analizado solo 19% de los reportes de investigación la toman como objeto de estudio. 2) Los investigadores que trabajan la línea de emprendimiento en el sector primario carecen de formación profesional en áreas económico administrativas por lo cual sus trabajos se han limitado al estudio de la forma de organización y caracterización de los sistemas de producción avícola, porcina, bovina y piscícola como actividades para el autoconsumo y como posibles fuentes de generación de ingresos en comunidades rurales, pero no abundan sobre evaluaciones de viabilidad mercadológica, económica y financiera de dichas actividades, lo que muestra la necesidad de incorporar especialistas en estos temas para un mejor entendimiento de la problemática así como para generar alternativas para la comercialización de los diversos productos que se generen en el sector primario. 3) Desde su formación en áreas agropecuarias los investigadores generaron diversas propuestas para eficientar los sistemas productivos agropecuarios de tipo avícola, porcícola, bovina, piscícola, entre otros a fin de incrementar su valor económico y generar ingresos e impactar en la calidad de vida de los pobladores de las comunidades. 4) Se identificó que los sistemas de producción avícola, porcina, bovina y piscícola son generalmente explotaciones de traspatio caracterizadas por ser altamente tradicionales y para autoconsumo, no obstante dichas actividades tienen potencial para generar ingresos adicionales a los productores si estos pudieran identificar canales de comercialización adecuados, lo anterior una vez más hace patente la necesidad de involucrar en las investigaciones a especialistas en temas de comercialización, mercadeo, fuentes de financiamiento, entre otros, a fin de que los emprendedores del sector primario cuenten con asesoría para hacer crecer y desarrollar de manera eficiente a sus emprendimientos.

130

Revista Científica


Bibliografía + Acosta, A. y Martínez, J. (2011). “Los productos forestales no maderables en Yuvila, Ixtepeji, Oaxaca, México”, en COCyT (Comp.), Memorias del 13º Foro Estatal de Investigación e Innovación Oaxaca 2011 (pp. 464468). México: Consejo Oaxaqueño de Ciencia y Tecnología. + Aguilar, C. (2010). “Aprovechamiento del mármol en Santa María Yucuhiti”. Temas de Ciencia y Tecnología, 14(40), pp. 47-54. + Aguilar, C; Gallegos, P. y Santamaría, A. (2010). “Economía de los agregados pétreos en la mixteca oaxaqueña”, en COCyT (Comp.), Memorias del 12º Foro Estatal de Investigación e Innovación Oaxaca 2010 (pp. 153-156). México: Consejo Oaxaqueño de Ciencia y Tecnología. + Chiriboga, H. y Caliva, J. (2011). Formando agrolideres: Metodología para el fortalecimiento del liderazgo agropecuario. San José de Costa Rica. Instituto Interamericano de Cooperación para la Agricultura (IICA). + Dabson, B. 2005. Entrepreneurship as a Core Economic Development Strategy for Rural America. US, RUPRI. + Damián, J. (2018). “Problemáticas de las Pymes en el estado de Oaxaca. Análisis desde el ámbito de la investigación educativa”. Ponencia presentada en el V Congreso Nacional de Contaduría y Administración. Universidad Autónoma de Chiapas. + Damián, J; López, B; Peralta, G; Garza, F. y García, R. (2015). Investigación sobre emprendurismo, 2005-2011. México: Universidad del Papaloapan. + García, J. (1992). “Recursos metodológicos en la evaluación de programas”. Bordón, 43, 461-476.

+ Camacho, M; Lira, I; Ramírez, L; López, R. y Arcos, J. (2006). “La avicultura de traspatio en la costa de Oaxaca, México”. Ciencia y Mar, X (28), 3-11. + Jerez, M., Carrillo, J., Castañeda, E., Díaz, G. y Reyes, M. (2006). “Caracterización del proceso de producción tradicional de gallinas criollas en comunidades de Oaxaca”, en COCyT (Comp.), Memorias del 10º Foro Estatal de Investigación e Innovación Oaxaca 2006 (pp. 33-34). México: Consejo Oaxaqueño de Ciencia y Tecnología. + Jiménez, G; Rodríguez, R. y Pérez, M. (2009). “El mercado potencial de árboles de navidad naturales”. Naturaleza y Desarrollo, 7(2), 23-32. + Lichtensein, G; Lyons, T, y Kutzhanova, N. (2004). “Building Entrepreneurial Communities: the appropriate role of enterprise development activities”. Journal of the Community Development Society. 35(1), 01-20. + Manrrique, G. (2011). Manual de cadenas de valor agropecuario. Colombia. Banco Interamericano para el Desarrollo (BID). + Ramírez, M. (2006). “La piscicultura rural sustentable en Oaxaca”, en COCyT (Comp.), Memorias del 10º Foro Estatal de Investigación e Innovación Oaxaca 2006 (pp. 164-166). México: Consejo Oaxaqueño de Ciencia y Tecnología. + Reyes, V; Rodríguez, M; Ramírez, E; Franco, D. y Camacho, M. (2009). “Smartketing sensorial, elemento estratégico para generar valor agregado a la meleagricultura de traspatio”. Ciencias Agrícolas INFORMA, 19(1), 62-65.

en Oaxaca”, en COCyT (Comp.), Memorias del 12º Foro Estatal de Investigación e Innovación Oaxaca 2010 (pp. 19-22). México: Consejo Oaxaqueño de Ciencia y Tecnología. + Sancho, F. (2010). “La empresariedad agrícola y rural: conceptos para modelar el desarrollo”. COMUNIICA, No. 5, 64-78. + Segura, J; Jerez, M; Sarmiento, L. y Santos, R. (2007). “Indicadores de producción de huevo de gallinas Criollas en el trópico de México”. Archivos de Zootecnia, 56(215), 309-317. + Suárez, M. (1981). “Campesino communitarian enterprises in Latin America”, en Araujo, José (coord.). En The community enterprise. A model for the reform process in Latin America, 296-335. US, IICA. + UNICEF. (2015). Línea de base de la provincia del Azuay en el marco del programa conjunto “juventud, empleo y migración para reducir la inequidad en el Ecuador”, disponible en https://www.unicef.org/ecuador/LIBRO_DEL_AZUAY_Parte1.pdf + Wortman, M. (1990). “Rural Entrepreneutrship Research: An Integration into Entrepreneurship Field”. Agribusiness, 6(4), 329-344. + Zárate, S., Pérez, G., Leyva F. y Rendón, J. (2006). “Crianza de porcinos en las unidades familiares de Juchitán de Zaragoza, Oaxaca”, en COCyT (Comp.), Memorias del 10º Foro Estatal de Investigación e Innovación Oaxaca 2006 (pp. 47-51). México: Consejo Oaxaqueño de Ciencia y Tecnología.

+ Ruiz, J; Hernández, J; Palacios, A. y Sosa, G. (2010). “Comportamiento productivo y rentabilidad del sistema de producción de bovinos en corral

Revista Científica

131


José Sergio Magdaleno-Palencia1, Bogart Yail Marquez-Lobato2, María Eugenia Bermúdez Jimenez3 y Arnulfo Alanis-Garza4

Instituto Tecnológico de Tijuana Calzada Tecnológico s/n, Fracc. Tomás Aquino. Tijuana, Baja California, México, C.P. 22435. 1,2,3,4

jmagdaleno@tectijuana.edu.mx

Recibido: Mayo 7, 2018. Recibido en forma revisada: Julio 2, 2018. Aceptado: Julio 4, 2018.

132

Revista Científica

Resumen: En nuestros días, las lecturas de la actividad cerebral como encefalografías, y el uso de técnicas de inteligencia artificial han proporcionado una base sólida para la investigación que apoya a personas con o sin discapacidades en sus actividades diarias. La presente investigación utiliza técnicas de inteligencia artificial para crear un sistema difuso para detectar el grado de concentración, cuyos valores de entrada son los resultados del valor de análisis estadístico de las medidas de la curtosis, asimetría, así como su valor máximo y mínimo de las lecturas cerebrales de la señal en la letra “A” a un grupo de personas con discapacidades motrices.

+

Palabras clave: Encefalografía, inteligencia artificial, sistemas difusos, asimetría, discapacidad motriz.

Abstract: Nowadays, readings of brain activity like encephalography and the use of artificial intelligence techniques have provided a solid foundation for research that supports people with or without disabilities in their daily activities. The present investigation uses artificial intelligence techniques to create a fuzzy system to detect de concentration’s degree, whose input values are the statistical analysis value results of the measures of the kurtosis, skewness, as well as its maximum and minimum, of the brain readings of the signal on letter “A” to a group of persons with motor disabilities.


+ Keywords: Encephalography, artificial intelligence, fuzzy systems, skewness, motor disabilities. Introducción Hoy en día el uso de la tecnología es muy importante ya que apoyan y facilitan la vida de las personas; y en el caso de esta investigación a las personas con discapacidad motriz; con la electroencefalografía, la cual estudia el sistema nervioso central (SNC) mediante el electroencefalograma (EEG) [1]; se han realizado diagnósticos clínicos de algunas patologías, como la epilepsia, encefalopatías, alteraciones del estado de conciencia, entre otras.

La hipótesis de esta investigación fue: con el uso de un EEG, análisis estadístico y técnicas de inteligencia artificial se podrá determinar la mayor concentración por parte de las personas con discapacidad motriz. El objetivo general de la misma fue: desarrollar una interfaz que permita la lectura de la señal del EEG sobre la concentración de las vocales para poder ser analizadas y con técnicas de inteligencia artificial crear un sistema que indique si la persona se está o no concentrando en un lapso de tiempo. Los objetivos específicos fueron:

• Documentar el estado del arte en dispositivos EEG. En México existen personas con discapacidades; específicamente motrices; para las cuales está enfocado este proyecto; la Convención de los Derechos de las Personas con Discapacidad, promueve: “proteger y asegurar el goce pleno y en condiciones de igualdad de todos los derechos humanos y libertades fundamentales por todas las personas con discapacidad, y promover el respeto de su dignidad inherente” [2]. Así mismo las estadísticas del Censo de Población y Vivienda 2010 (INEGI) México, muestran la distribución porcentual de la población con limitación en la actividad según sexo para cada grupo de edad, 2010. Grupos quinquenales de edad Total Hombres Mujeres. (Tabla 1). Como puede observarse, más de 560 mil personas en rango de edad de 15 a 29 sufren en México una discapacidad; en esta edad las personas están familiarizados con las tics, esto debido al uso extendido de las tecnologías. De acuerdo al INEGI, en Baja California, más de 122 mil personas sufren de una incapacidad motriz; la falta de programas de computación especializado para apoyo de las personas con discapacidad motriz, es un factor importante para poder ofrecer la posibilidad de utilizar los desarrollos tecnológicos que les permitan utilizarlas en su beneficio. Es por ello que la pregunta de investigación sería: utilizando una diadema EEG, que les permitan concentrarse en las vocales, podrá ser capaz de determinar si se está concentrando en las mismas. En la actualidad existen algunas aplicaciones tecnológicas que permiten soluciones por medio de la voz, pero son para aplicaciones tecnológicas, como encender o apagar el televisor, las luces de una casa; pero no para la detección de las señales para el reconocimiento de texto [3]. Actualmente algunas de las aplicaciones realizadas permiten el reconocimiento de las letras del alfabeto ingles [4, 5]; así como el movimiento de objetos, movimiento del cursor del mouse [6, 7]. Al igual de aplicaciones clínicas, como el caso de la “técnica de electroencefalografía en la evaluación de la actividad cortical motora” [8, 9].

• Investigar estadísticas en México de personas con discapacidad motriz. • Investigar lo referente a ondas cerebrales y zonas y/o regiones del cerebro. • Buscar aplicaciones actuales con los EGG y sus costos. • Investigar sobre análisis estadístico de los datos. • Generar base de datos con las lecturas de las señales de las ondas cerebrales de la detección de las pruebas de las vocales. • Analizar los datos de las lecturas con análisis estadístico y técnicas de I.A.

Marco teórico Encefalografía La electroencefalografía es el estudio médico sobre el SNC mediante el uso de un EEG [10]; recoge la actividad eléctrica del cerebro, expide un gráfico [11]; ésta es utilizada para diagnóstico clínico de algunas lesiones o patologías, como son: epilepsia, encefalopatías, alteraciones del estado de conciencia, entre otras [11]. El EEG permite registrar las diferencias de potencial eléctrico producidas en el cerebro; permite observar el funcionamiento eléctrico cerebral, la cual ayuda a detectar alteraciones de todo el cerebro o de algunas áreas. El inventor del EEG fue el Alemán Hans Berger, quien en 1924 registró la actividad eléctrica cerebral; en los años 50-60 del siglo XX fue cuando se generalizó la electroencefalografía, con el perfeccionamiento tecnológico [11, 12].

Cerebro humano Tabla 1. Distribución de la población con discapacidad en México.

Para realizar los estudios sobre el cerebro se utiliza un EEG [10]; se utiliza para diagnóstico clínico de algunas lesiones o patologías, como

Revista Científica

133


son: epilepsia, encefalopatías, alteraciones del estado de conciencia, entre otras [13]. El registro de la actividad del cerebro se realiza por medio de ondas, que son producidas por la activación de las neuronas del cerebro, el número de ondas por segundo se denomina frecuencia, la cual vara según los diferentes niveles de alerta, es rápida cuanto más alerta se este´ y es más lenta en los estadios del sueño. Estas ondas se clasifican según su amplitud y frecuencia y se miden en os hertzios (HZ), se dividen cuatro grupos:

1. Base de reglas, con un número de reglas difusas if-then. 2. Base de datos, define las funciones de membresía de los conjuntos difusos utilizados en las reglas. 3. Tomador de decisiones, ejecuta las operaciones de inferencia sobre las reglas. 4. Inferencia de Fusificación, transforma las entradas duras (crisp) en una grado de armonización con valores lingüisticos.

• Alfa: de 8-13 Hz. Despiertos normales, recostados, tranquilos con los ojos cerrados.

5. La interface de Defuzzification, transforma los resultados difusos de los sistemas de inferencia en una salida dura (crisp).

• Beta: 13 Hz. Estado de alerta, al abrir los ojos pasa de las alfas a beta. • Theta: 4-7 Hz. Sueño ligero. • Delta: <4 Hz Sueño profundo.

Tipos de electrodos. Existen diferentes tipos de electrodos que son usados para captar la señal, los cuales pueden ser: superficiales, los que se aplican sobre el cuero cabelludo; los basales, que se aplican en la base del cráneo (sin cirugía); los quirúrgicos, se aplica cirugía (corticales o intracerebrales) [14]. Es importante seguir los estándares aceptados para su colocación; los montajes han sido clasificados por la Federación Internacional de EEG y Neurofisiología en Longitudinales y Transversales [14]. En la medición de las ondas cerebrales se consideran la frecuencia y el tamaño de la onda (amplitud), la cual oscilan en microvoltios (V) hasta 500 V o 1 mili voltio (mV).

Sistemas difusos McCullock y Pitss, introducen la neurona simplificada, de aquí surgen las redes neuronales artificiales ANN por sus siglas en inglés [15]. Al principio, estas neuronas eran el modelo de neuronas biológicas como un componente conceptual para circuitos que podían ejecutar conceptual para circuitos que podían ejecutar tareas computacionales. “Una ANN consiste en un número de neuronas artificiales las cuales están conectadas unas con otras vía pesos sinápticos” [16], las cuales están organizadas en capas: la capa de entrada (input), donde se introducen los datos a la red; la capa o capas escondida(s) (hidden), donde los datos son procesados; y la capa de salida (output), donde se dan los resultados producidos por las entradas (input). Jang en su trabajo, indica que los FIS son conocidos también como sistemas difusos basados en reglas, modelo difusos, memoria difusa asociativa o controladores difusos cuando estos son utilizados como controladores. Un FIS se compone de cinco bloques funcionales [17]:

Metodología En la Figura 1 se establece la metodología utilizada por esta investigación

Figura 1. Metodología utilizada en esta investigación.

La metodología que se utilizó para este estudio fue experimental, con elementos estadísticos y técnicas de inteligencia artificial, como son las redes neuronales y lógica difusa. La población muestra fueron personas con discapacidad motriz, a las cuales se les realizó las lecturas de la señal con un EEG. Las condiciones para el experimento; se les pidió que se relajaran, se realizaron en un ambiente adecuado, esto es confortables y sin distractores; y a los cuales se les mostró una presentación con las vocales; para las lecturas se utilizó una diadema EEG la cual estaba conectada vía bluetooth a una tarjeta ARDUINO UNO®. Con las lecturas se creó una base de datos y a la cual se le aplicaron los métodos estadísticos y de inteligencia artificial para su análisis y posteriormente mostrar los resultados; con los con los cuales se creó un sistema difuso. Se estableció la ruta crítica, los instrumentos de trabajo, la selección y la muestra de trabajo, la validez y confiabilidad de los instrumentos, el procedimiento para la recolección de datos y las limitaciones del trabajo de investigación.

Caso de estudio Para el caso de estudio, los dispositivos utilizados en la investigación, tanto para la extracción de datos y para el análisis de los mismos, fueron: diadema NeuroSky MindWave Mobile2® , Bluetooth HC-053® conectado a un Arduino UNO4®, IBM SPSS® para el análisis estadístico y Mat-

134

Revista Científica


lab® para las técnicas de inteligencia artificial. En la Figura 2 se muestra el diagrama eléctrico para logar la conectividad para la transferencia de los datos.

Tabla 2. – Datos de la Vocal A por la mañana.

Figura 2. Diagrama eléctrico para la obtención de los datos.

Diseño de la interconectividad entre diadema y el Arduino Como primer proceso es necesario hacer la configuración del bluetooth y el arduino uno® para poder realizar las lecturas de las señales; para ello es necesario realizar los siguientes pasos: Conectar físicamente el dispositivo al Arduino UNO® y Utilizar los comandos AT para su configuración. Condiciones necesarias para el experimento. Descripción y tamaño de la muestra: Para este caso fueron: ocho personas con discapacidad motriz (7 hombres, 1 mujer), edades de entre 18 y 23 años y conocimiento en el uso de la tecnología. Condiciones para la toma de muestras. Se debe contar con un lugar sin ruido, el usuario tiene que estar relajado, contar con mobiliario adecuado “escritorio y silla confortable”. Las muestras se tomaron tres veces al día por vocal, entre cada vocal existió al menos 2 minutos de relajación. Las muestras fueron tomadas por la mañana (6:0012:00 Hrs.), por la tarde (13:00-18:00 Hrs.) y por la noche (19:00-21:00 Hrs). Se limpiaron los artefactos que podían inferir en las lecturas como lo fueron: el sudor y el polvo principalmente. Con las lecturas tomadas, cada una de ellas por 5 segundos, se creó una base de datos con 1100 datos.

Resultados y análisis de los resultados Una vez que se obtuvo la base de datos con las lecturas de la señal, se procedió a realizar el análisis de los mismos.

Diseño de la interconectividad entre diadema y el Arduino Una vez que se dio lectura a las señales de las ondas cerebrales de las personas, se creó una base de datos con esta información; en la Tabla 2 se muestran las lecturas separadas de las vocales por la mañana. Se cuenta con una base de datos de las lecturas por la tarde y por la noche.

A continuación, se describe los encabezados de la Tabla 2: Ejemplo P1VAH1RIM. Los primeros 2 caracteres (P1), se refieren a la persona numero 1; los caracteres 3 y 4 (VA) se refieren a la vocal que se estaba censando, en este caso la A; los caracteres 5 y 6 (H1), son la hora 1 de la lectura (se hicieron tres lecturas); los caracteres 7 y 8, son las iniciales del nombre de la persona; y el carácter 9 se refiere al censado por la mañana. La tabla muestra los resultados de las personas de las lecturas de la vocal A, cada columna representa a una persona; para efectos de despliegue solo se muestran 3 datos de las lecturas, pero cada lectura tiene 1100 datos.

Diseño de la interconectividad entre diadema y el Arduino Análisis estadístico. Para este análisis se utilizó un software para estadística; laTabla 3, muestra los resultados por la mañana.

Tabla 3. Resultados estadísticos de la Vocal A por la mañana.

A las lecturas realizadas se le calcularon las medidas: media, desviación estándar, asimetría, curtosis y máximo. La Tabla 3, muestra los resultados estadísticos de las personas de las lecturas de la vocal A por la mañana; para este estudio participaron 8 personas. Para realizar el análisis de los datos se utilizaron las mediciones de la mañana; tomándose como datos de entrada los 5 primeros resultados y como salidas los últimos 3. La red neuronal se creó con 200 neuronas, data división aleatoria, entrenamiento Levenberg-Marquardt, Performance Mean Squared Error. Con los datos estadísticos, específicamente con el curtosis y la asimetría se creó un sistema difuso con funciones de membresía baja, media y alta. Las salidas del sistema difuso incluyeron 3, la función de salida llamada Roja para cuando la persona no se logra concentrar, la verde para cuando la persona se concentra y amarilla cuando la persona tiene una concentración alta en el tiempo de los 5 segundos. Figura 3. Las medidas de: media, desviación estándar, asimetría, curtosis y valor máximo. Los anteriores proporcionados por el análisis estadístico de [18].

Revista Científica

135


Figura 3. FIS con las funciones de membresía de entrada y salida.

El lado izquierdo de la figura muestra la variable de entrada en color rojo y el lado derecho las funciones de salida en color azul. La parte de en medio muestra las funciones de membresía del curtosis en color amarillo. Estas funciones asignan los valores del grado de concentración de la siguiente forma: el rojo para las personas que no se concentran, el verde para aquellas que se concentran y amarillo para las que tienen un alto grado de concentración.

Conclusión Con respecto a la propuesta, se cumplió, ya que se realizaron las lecturas de las señales de las ondas cerebrales de personas con discapacidad motriz con una di- adema EEG, se analizaron los resultados mediante análisis estadístico, incluyendo la propuesta de Wahed y técnicas de inteligencia artificial mediante redes neuronales; se compararon los resultados entre estos dos métodos y se creó como resultado de este análisis un sistema difuso. La hipótesis establecida “con el uso de un EEG, análisis estadístico y técnicas de inteligencia artificial se podrá determinar la mayor concentración por parte de las personas con discapacidad motriz”, se cumplió ya que se realizó el análisis y se determinó la mayor concentración de las personas censadas, de igual forma el objetivo general se cumplió al desarrollar la interfaz que permitió la lectura de la señal del EEG sobre la concentración de las vocales y fueron analizadas con las técnicas indicadas en esta investigación. Así mismo con lo que respecto a los objetivos específicos, se documentó sobre los dispositivos EEG, se investigaron las estadísticas en México de personas con capacidades diferentes, especialmente motrices (IN- EGI), se documentó sobre las ondas cerebrales, se investigó información sobre las técnicas tanto estadísticas como de inteligencia artificial para el análisis de los resultados; se creó una base de datos con las lecturas de las señales de las ondas cerebrales. Se concluye que con el uso de un EEG y el análisis estadístico se logró una mejor detección del nivel de concentración que con el uso de redes neuronales para el caso de la diadema utilizada. Para fines de obtener mejores resultados en la investigación, es necesario hacer pruebas con otras diademas y realizar una tabla comparativa y de esta forma poder conocer cuál de las diademas sería la más óptima de ser utilizada

136

Revista Científica


Bibliografía [1] Ramos-Argüelles, F.; Morales, G.; Egozcue, S.; Pabón, R.M. y Alonso, M.T. (2009). La técnica de electroencefalografía en la evaluación de la actividad cortical motora. Técnicas básicas de electroenefalografia: principios y aplicaciones clínicas. Técnicas de electroencefalografía: principios y aplicaciones clínicas. An. Sist. Sanit. Navar. 2009. 32 (Supl. 3): 69-82 [2] UNESCO (2017). Educación. Educación inclusiva. Personas con discapacidad. Consultado el 5 de Febrero de 2017 de http:// www.unesco.org/new/es/education/themes/strengthening-education-systems/inclusive-education/ [3] Duarte-Perez, E. y Maykel, B. (2014). Sistema de reconocimiento de voz para aplicaciones de control en una vivienda. 17 Convención científica de ingeniería y arquitectura. [4] Wahed, S.; Islam, M.; Biswas, P.; Rana, M.; Nath, D. y Ahmad, M. (2015). An approach for letter recognition system modeling based on prominent features of EEG. Pages 5-8. Doi 10.1109/CEEE.2015.7428293. [5] Wahed, S.; Rana, M.; Hasan, S. y Ahmad, M. (2016). Toward letter recognition system: Determination of best wavelet and best rhythm using EEG. Pages 1-4. doi 10.1109/CEEICT.2016.7873099. [6] De la O Chávez, J. (2013). Interfaz Cerebro Computadora para el Control de un Cursor Basada en Ondas Cerebrales. Master Thesis. Universidad Autónoma de Azcapotzalco. [7] Mahecha, D.; Lozano, F. y García, E. (2008). Control del mouse a través de señales EOG y algoritmos de Bossting. Memorias STSIVA 2008 TOMO II 57-60. [8] Ferreira, E. (2009). La técnica de electroencefalografa en la evaluación de la actividad cortical motora. Master Thesis. Universidad de Salamanca. Salamanca.

[9] Grant, M. (2016). Bioengineering Institute Center for Neuroprosthetics, Estados Unidos de América.Bioengineering Institute Center for Neuroprosthetics, Estados Unidos de América. [10] Alegre, R. (2013). Interfaz Mental Para El Control de Aplicaciones. Master Thesis. Universidad Politécnica de Valencia. Escola Técnica Superior de Enginyeria Informática. [11] Kandel, A. (1988). Fuzzy Expert Systems. publisher=Reading MA: Addison-Wesley. [12] Kandel, A. (1992). Fuzzy Expert Systems. publisher=CRC Press, Inc.. isbn #0-8493-4297X. [13] Marnet (2017). Qué es un electroencefalograma (EEG) y para qué se emplea. Consultado el 5 de Febrero de 2017 de http://salud.ccm. net/faq/22029-que-es-un-electroencefalogramaeeg-y-para-que-se-empleaque-es-un-electroence falograma. [14] Barea, R. (2016). Instrumentación Biomedica. Electroencefalografía Departamento Electrónica. Universidad Alcalá Biomedica. [15] Kröse, B. y Van der Smagt, P. (1996). An introduction to neural networks. publisher The University of Amsterdam. edition 8. [16] Kenji, S. (2013). Artificial Neural Networks - Architecture and applications. publisher InTech. isbn #978-953-51-0935-8. [17] Jang, J. (1993). ANFIS: Adaptive-Network-Based Fuzzy Inference System. journal IEEE Transactions on systems, man, and cybernetics. pages 665-685. [18] Fernández, S.; Córdoba, A y Cordero, J. (2002). Estadística descriptiva. 2ª. Edción. Ed. ESIC. Madrid, España. ISBN #84-7356-306-9.

Revista Científica

137


Bogart Yail Márquez Lobato4

Instituto Tecnológico de Tijuana Calzada Tecnológico s/n, Fracc. Tomás Aquino Tijuana, Baja California, México, C.P. 22435. 1

Resumen: La elaboración de este proyecto de simulación, consiste en el desarrollo de la investigación acerca del flujo en el incremento variable que ha tenido el precio del petróleo durante los años transcurridos en la última década; el fin de la misma es poder analizar los datos obtenidos de INEGI para poder comparar los precios y saber el comportamiento de su incremento, teniendo como finalidad generar proyecciones estadísticas sobre el precio de los distintos combustibles a nivel estatal.

+

Palabras clave: Simulación, modelos discretos-continuos, combustibles.

bogart@tectijuana.edu.mx

Recibido: Mayo 7, 2018. Recibido en forma revisada: Junio 13, 2018. Aceptado: Julio 4, 2018.

138

Revista Científica

+

Keywords: Simulation, discrete, continuos models, fuels.


Introducción En México, el aumento del precio de los combustibles al inicio del año 2017, provocó que los ciudadanos desarrollarán manifestaciones por la indignación y enojo de la subida de precio de hasta un 20% comparado con las tasas más altas del año anterior. El desarrollo de este modelo ayudará a predecir los costos de los próximos meses o años, dando una idea del aumento que podría tener. Así mismo, conocer las razones y variables que pueden influir en la alza o en cualquier cambio de precio del combustible [1].

Formulación del problema El proyecto consiste en la elaboración de un modelo simulado [2] que proyecte a años futuros cifras cercanas con cierto margen de error a los precios de los diferentes combustibles en Baja California, es decir, combustible diésel, magna y premium. El marco del proyecto más allá de solventar algún problema, se centra en desarrollar una proyección; aunque, se podría intuir que poder conocer y prever estos valores ayudaría a establecer planes por parte de individuos y empresas con base al precio pronosticado [3]. Hoy en día, en el año 2017, en la república mexicana estamos pasando por un alza bastante considerable sobre el precio del combustible; en parte, esto tiene relación con las distintas reformas energéticas que ha promulgado el gobierno, al igual que los impuestos como el IEPS que es el Impuesto Especial sobre Producción y Servicios, que fue añadido al precio de algunos productos para compensar los “desequilibrios en las finanzas públicas” [4], entre otras más, como el precio del costo bruto del petróleo [5]. Poder prever de alguna manera el costo de algo tan valioso como el combustible sería de gran ayuda para la población que normalmente necesita tener un control sobre sus planes futuros, ya que es una de las variables que se debe considerar [4].

Objetivos Desarrollar un sistema modelado de proyecciones sobre el precio de los diferentes combustibles en Baja California, a partir de valores deterministas y estocásticos. Conocer la probabilidad del precio del diésel, magna y premium; así como la diferencia entre los años previos.

● Diseño de la interfaz del sistema. ● Recolección de datos a partir de un repositorio del SAT en Baja California [4]. ● Crear el algoritmo de simulación en ARENA [6]. ● Desarrollo de gráficas estadísticas sobre los precios de los tres combustibles, la probabilidad del mismo y la diferencia entre precios al pasar los años.

Índices de medición Se utilizan distintos datos otorgados por repositorios de precios del combustible en años previos y a partir de ahí se harán proyecciones de prueba para corroborar los costos de los años próximos ya cometidos, es

decir, se comparan los precios obtenidos en la simulación con los que ya se encuentran en los repositorios. A partir de esos resultados se corrobora que el sistema es apto para proyectar los precios futuros y cumple su funcionamiento.

Análisis y recolección de datos La recolección de datos será obtenida de la base de datos del INEGI, se tomará en cuenta el tiempo que llevan dentro de ella los datos, y para este proyecto se va considerar el flujo del precio del petróleo en el periodo comprendido por los últimos 10 años. En México, cerca del 88% de la energía primaria que se consume proviene del petróleo. Llega a nosotros cada día en una gran variedad de formas. Es la principal fuente de insumos para generar energía eléctrica, permite la producción de combustibles para los sectores de transporte e industrial.

Desarrollo del modelo Un modelo es la abstracción de un sistema, en términos más generales en un modelo se establece el funcionamiento del sistema, así como el comportamiento futuro que éste pueda tener. Para su realización es necesario determinar las variables que juegan un papel importante dentro del mismo, algunas de las siguientes variables se obtuvieron de [7], donde se explica por qué aumenta la gasolina. En el presente proyecto se modelará el comportamiento futuro de la gasolina en Baja California, por ello tomamos en consideración las siguientes variables: Variables endógenas: Estas variables se utilizan para almacenar la información de salida, en ellas se encuentra el costo de las diferentes gasolinas (magna, premium y diésel) que se venden en Baja California, así como el aumento o decremento anual de la misma. Estas variables se presentan de salida, ya que el modelo de simulación consiste en mostrar una predicción de los precios futuros de la gasolina. Variables exógenas: Estas variables se consideran de entrada y juegan un rol importante dentro del modelo; ya que son fundamentales para la determinación de las variables endógenas, en ellas se encuentra el Impuesto Especial sobre Producción y Servicio (IEPS), el Impuesto al Valor Agregado (IVA) y el cargo fiscal. De estos se tomarán cifras de los últimos 10 años, y nos permiten determinar un patrón para asignar una salida. Variables de control: Estas variables son las asignadas por el medio ambiente, y en ellas se encuentra la carga fiscal. Variables no controlables: Estas variables son las asignadas en una toma de decisión, y en ellas se encuentran el IEPS y el IVA.

Revista Científica

139


Variables estocásticas: Estas variables son las que cambian muy rara vez, en estas variables se encuentran el IEPS y el IVA; ya que su cambio se da por reformas que son muy raramente modificadas. Variables de estado: Estas variables son las que muestran el estado del sistema en cualquier instante, en estas variables se encuentra la fecha; ya que nos presenta el precio que alcanza la gasolina en un momento específico [8].

Relaciones lógicas y fundamentales

El aumento de gasolina viene directamente del gobierno de la república. El principal causante de estos incrementos, refieren los detractores de la política económica implementada por el gobierno federal, es el Impuesto Especial sobre Producción y Servicios (IEPS), que en el caso de las gasolinas representa 6.49 pesos por litro de la tipo Magna, como se menciona en [4]. Particularmente por el impacto inflacionario que tiene el combustible, son afectados evidentemente no sólo los propietarios de automóviles, sino la totalidad de la cadena de suministro y por ende los precios generales de la economía [9]. En el caso de los combustibles en México, la ineficiencia para aprovechar la enorme cantidad de recursos que sean canalizados para inversión en el sector energético, (3% del Producto Interno Bruto en los últimos años), sumado a la falta de definiciones y de decisiones políticas de las últimas administraciones ha llevado a un sistema en el que la producción de crudo se deteriora de manera consistente, y simultáneamente la dependencia a la importación de gasolina, provoca una mayor vulnerabilidad [10].

Procedimientos

Definir las variables endógenas, exógenas, de control, no controlables como el IVA y el IEPS. Llevar los algoritmos y procedimientos necesarios para la recolección de tablas de datos que satisfagan la problemática que buscamos. Y por último mostrar la predicción obtenida.

Verificación y validación del modelo Los siguientes parámetros están basados en el desarrollo del modelo en ARENA, algunas variables se cambiaron, ya que no son posibles de implementar tal cual en el sistema de simulación [11].

Parámetros de entrada

● Fecha actual. Se refiere a la fecha en que empezará la simulación. ● Fecha de simulación. Fecha final de la simulación, donde se terminará. ● Precio del combustible/s requerido/s. Combustible que se requiere saber su precio, podrán seleccionarse los tres, dos o solo uno.

Variables globales

● 3 entidades: un cambio al día, distribución constante (1 por cada tipo de combustible). Variables de entrada que no se modificarán, son la base para la simulación y los cambios.

140

Revista Científica

● Precio de combustible/s actual/es. Precio del combustible/s en la fecha actual del parámetro de entrada, en vista de que no hay manera de que ARENA lea un repositorio de información.

Parámetros de salida

Precio del combustible/s requerido/s en fecha requerida. Dato/s de salida, a través de esto se realizarán histogramas con los aumentos de precio de la fecha actual a la fecha de simulación (fecha final).

Relaciones con variables de estudio

Las siguientes relaciones de variables están basadas en el desarrollo del modelo en Arena. Por esta razón se omiten algunos parámetros que no son posibles implementar como la utilización de una base de datos para los precios de combustibles de años previos.

Relación de parámetros

Fecha actual → Fecha de simulación → Combustible/s requerido/s. La fecha actual y el combustible son requeridos para inicializar la simulación, el usuario tendrá que ingresar esos datos, los cuales indican la posición en que se empezará la simulación; el tipo de combustible de salida y la fecha de simulación indica en qué tiempo se detendrá.

Variables Globales

3 entidades: un cambio al día, distribución constante (1 por cada tipo de combustible)→ precio de combustible/s actual/es.

Las entidades son módulos de Arena los cuales se utilizarán de una forma diferente a como típicamente se utilizan en otros modelos, se utilizarán simplemente como interruptores constantes, los cuales una vez cada “día” de simulación harán que el sistema funcione, y dentro del modelo se harán los respectivos cálculos para ir acumulando el precio de acuerdo a las distintas condiciones. El precio del combustible se puede considerar también como las variables de entrada; ya que el usuario introducirá el precio de estos de acuerdo a la fecha actual.

Parámetros concluyentes

Precio del combustible/s requerido/s en fecha requerida. Al final de la simulación se arrojará el precio/s de los combustibles de acuerdo a la fecha simulada y también un histograma con el cambio de precio a lo largo del tiempo. Cálculo de probabilidades en las decisiones con la información de repositorios. El repositorio principal utilizado para obtener la información y poder calcular cada una de las constantes fue el portal del Instituto Nacional de Estadística y Geografía (INEGI) [1].

Constante de aumento de precio de cada uno de los combustibles El promedio del precio de la gasolina por año se calculó a partir de registros mensuales del cambio de la gasolina en México. Cada registro representa un promedio de los datos obtenidos del INEGI, los datos fueron obtenidos de [1], en donde se presenta los datos en promedio por año; así como el aumento mensual de cada año presente en la siguiente Tabla 1.


Tabla 1. Muestra el precio promedio por año de la gasolina desde el año 2010 a los 2017 datos obtenidos de INEGI, elaboración propia.

Aumento del combustible Magna al mes: En el año 2010 el costo promedio fue de 8.32 y el del 2011 fue de 9.28, por lo cual obtenemos un aumento de 0.96 pesos; mientras, el aumento mensual fue de 0.08 pesos por litro. Observamos que puede utilizarse una distribución lineal, ya que va aumentando cada año unos cuantos decimales, pero no representan un aumento considerable así que se dejará como una constante de 0.085 pesos por mes. Aumento del combustible Premium al mes: En el año 2010 el costo promedio fue de 9.88 y el del 2011 fue de 10.36, por lo cual obtenemos un aumento de 0.48 pesos; mientras, el aumento mensual fue de 0.04 pesos por litro. Se dejará como una constante de 0.045 pesos por mes. Aumento del combustible Diésel al mes: En el año 2010 el costo promedio fue de 8.41 y el del 2011 fue de 9.37, por lo cual obtenemos un aumento de 0.96 pesos; mientras, el aumento mensual fue de 0.08 pesos por litro. Se dejará como una constante de 0.085 pesos por mes al igual que Magna. Consideración: En México, dentro del precio de la gasolina, está incluido el IEPS que corresponde al 40% de lo que pagamos por cada litro, este precio lo determina la Secretaría de Hacienda y Crédito Público y no el mercado, por lo que no refleja costos reales de producción, distribución y capital. A partir de este dato las constantes se reducirán un 40%, quedando de la siguiente manera. ● Aumento Magna al mes (0.085 - 40%) = 0.051 ● Aumente Premium al mes (0.045 - 40%) = 0.027 ● Aumento Diésel al mes (0.085 - 40%) = 0.051 Probabilidad de la llegada de una reforma energética: Como ya lo sabemos, las reformas energéticas han afectado directamente al precio del combustible en México, tal es el caso de la reforma ocurrida en 2013 y que fue promulgada durante la presidencia de Enrique Peña Nieto. Además de esta reforma han ocurrido otros eventos que han afectado al precio de los energéticos, como lo fue el tratado de libre comercio a finales de los ochenta, durante la presidencia de Carlos Salinas de Gortari. La probabilidad se puede dividir en varios casos o situaciones: ● Durante un sexenio: Esto se da cuando una reforma se promulgó durante el mandato de un presidente. La probabilidad de que ocurra una reforma durante el sexenio es de 15% [12]. ● Durante el cambio de presidente: Esto se da cuando una reforma es promulgada durante la llegada de un presidente, en este caso la reforma es uno de sus primeros mandatos. La probabilidad de que ocurra una reforma durante el cambio de presidente es de 20%.

Desarrollo del modelo ARENA: El siguiente modelo está desarrollado con los componentes y elementos mencionados anteriormente, el modo de inicializar la simulación es un tanto complejo, ya que ARENA no permite la introducción de cajas de texto para una mejor interacción con los usuarios que no conocen la plataforma. Las instrucciones están colocadas dentro del panel del modelo y en la Figura 2, se muestran estas instrucciones. La estructura del modelo de vista completa quedó de la siguiente manera. En la parte izquierda se muestra el cuadro de instrucciones mencionado anteriormente, en la derecha muestra los resultados de la simulación, con valores de los precios de los combustibles y una gráfica de puntos que representa los cambios al pasar los días. Funcionamiento: Después de que el usuario haya introducido los datos de entrada, las variables exógenas del modelo. El sistema empieza resolviendo una serie de condiciones, las cuales indican los resultados que se obtendrán al final, es decir, qué precios de combustible se seleccionaron para realizar la simulación. De acuerdo con esos términos entrará a una extensión u otra. Al entrar a una extensión se acumulará el aumento diario de ese combustible más el impuesto IEPS, el cual es de un 15%, una vez hecho esto entrará a un sistema de condiciones sobre las reformas y el tipo de cambio, funcionando a través de probabilidades de aparición de un 15% y 10% respectivamente, al final llegará a la extensión inicial y revisará las condiciones de entrada para calcular o no los precios de los otros combustibles. El valor de los precios se muestra de forma real en los datos endógenos a la derecha del modelo.

Experimentación y optimización Comprobar datos obtenidos con información real. Para esta prueba vamos a comprobar los precios de los combustibles de agosto del 2014, empezando la simulación un año antes, es decir agosto del 2013. En esta prueba de simulación únicamente se realizará sobre los combustibles premium y diésel con la finalidad de probar que las condiciones funcionan perfectamente, para eso es necesario cambiar las variables PRECIO_PREMIUM Y PRECIO_DIESEL de acuerdo a la fecha inicial de simulación. También se cambiarán las variables DIESEL_COND, PREMIUM_COND y MAGNA_COND.

Figura 1. Datos obtenidos al iniciar la simulación.

Revista Científica

141


Comparando con los datos del registro del INEGI en el caso del precio del combustible Premium 0.04 unidades y en el caso del combustible Diésel hay una diferencia de 0.09 unidades. Segunda prueba se muestra en la Figura 8 la configuración. Parámetros: Duración: 60 días. Datos de salida: PRECIO MAGNA, PRECIO_PREMIUM, PRECIO_ DIESEL.

Figura 2. Muestra los datos obtenidos comparados con los reales.

Comparando con los datos del registro del INEGI en el caso del precio del combustible Premium 0.01 unidades y en el caso del combustible Premium hay una diferencia de 0.06 unidades, en el caso del combustible Diésel 0.05 unidades.

Interpretación de resultados Con base a los datos obtenidos en la fase de experimentación y optimización, la simulación tiene un porcentaje de error de 5% y éste aumenta entre más grande es la distancia a calcular.

Figura 3. Muestra la simulación del precio de la gasolina en el año 2021.

142

Revista Científica

Conclusión El aumento de los combustibles ha sido causa de varios factores en los últimos años, sin duda estos se seguirán presentando en años posteriores e incluso es posible que con mayor frecuencia, ya que son demasiados los que influyen en este fenómeno, y no es sorpresa porque todas las personas hacen uso de estos tres tipos de combustibles al ser una de las principales fuentes de energía en el mundo. Por parte de la simulación podemos decir que el precio de la gasolina seguirá en aumento por las razones antes mencionadas, así como por su inevitable desabasto, este hecho no cambiará a menos que se encuentre una fuente de energía alternativa que sustituya parcial o totalmente a la gasolina.


Bibliografía [1] INEGI (2018). Índices de Precios 2018; Available from: http://www.inegi.org.mx/sistemas/indiceprecios/Estructura.aspxl. [2] An, L., et al. (2015), Space-Time Analysis: Concepts, Quantitative Methods, and Future Directions. Annals of the Association of American Geographers, 105(5): p. 891-914. [3] Jimenez Vazquez, R. (2013). La reforma energetica ni convence ni persuade: cambio paradigmatico poco reflexionado: los precios internos de las gasolinas y la electricidad no podran ser subsidiados. Siempre, 60(3148): pp. 49. [4] SAT (2018). S.d.A.T. Impuesto Especial sobre Producción y Servicios.Available from: http://www.sat.gob.mx/informacion_fiscal/preguntas_frecuentes/Paginas/ieps.aspx. [5] Acosta Cordova, C. y J.C. Cruz Vargas (2016). La trampa de la gasolina, CISA Comunicacion e Informacion, S.A. de C.V. pp. 16. [6] Giubergia, A., et al. (2014). UML Profile for Mining Process: Supporting Modeling and Simulation Based on Metamodels of Activity Diagram. Modelling and Simulation in Engineering, 2014. (Journal Article): pp. 1-10.

[7] Ahumada-Rojas, O. (2018). Las cuatro causas del incremento en la gasolina. [8] Noé, A.F.F., et al. (2016). Exploración de los impactos de la homologación del IVA en la región y franja fronteriza, con particular referencia al caso de Baja California. El Cotidiano. 31(195): pp. 63-74. [9] Ortiz, I. (2013). IVA en zona fronteriza, recesivo e inflacionario: Noe Aron Fuentes/Colegio de la Frontera Norte--Tijuana. Siempre. 60(3144): pp. 6. [10] José Antonio Murillo, G. (2014). Evaluación Del Poder De Predicción De Las Expectativas De Inflación De Los Consumidores En México. El Trimestre Económico.81(2): pp. 311-355. [11] Cho, I.K. y K. Kasa (2015). Learning and Model Validation. The Review of Economic Studies, 82(1): pp. 45-82. [12] Hope, A.(2017). En tiempos de Pena Nieto. Nexos: Sociedad, Ciencia, Literatura. 39(469): pp. 68.

Revista Científica

143


Daniel Barragán de Santiago1, Mónica Galicia Garcia2, Elsa G. Ordoñez Casanova3 y Manuel Lira Martinez4

Universidad Autónoma de Ciudad Juárez Av. Plutarco Elías Calles #1210. Fovissste Chamizal. Ciudad Juárez, Chihuahua, México C.P. 32310. 1,2,3,4

monica.galicia@uacj.mx

Resumen: Recientemente la aleación Ti-6Al-4V se constituye con una gran versatilidad para diversas aplicaciones, principalmente en el área de los implantes biomédicos. Sin embargo, en el área aeronáutica se consolidó desde hace un lustro, cuando reemplazó al aluminio, acero y superaleaciones sobre todo por su excelente resistencia a la corrosión. En este trabajo, se realiza el monitoreo electroquímico del proceso de corrosión y de formación de película pasivante sobre la aleación en ambientes corrosivos de cloruro de sodio al 3% en peso y de ácido sulfúrico al 20% en peso. Se presenta a la polarización potenciodinámica como la técnica electroquímica por excelencia para realizar estudios sobre la cinética de corrosión de metales y sus aleaciones. De esta forma, se determinó también la pérdida de peso de la aleación en condiciones aceleradas, traducidas en un estimado de la velocidad de corrosión en estos medios corrosivos, en unidades de milipulgadas por año.

+

Palabras clave: Ti4AlV6; polarización potenciodinámica; pendientes de Tafel; resistencia a la corrosión; pasivación.

Recibido: Mayo 7, 2018. Recibido en forma revisada: Julio 1, 2018. Aceptado: Julio 4, 2018.

144

Revista Científica

Abstract: Recently, the Ti-6A-4V alloy has a great versatility for various applications, mainly in the area of biomedical implants. However, in the aeronautical area it was established since five years ago, when it replaced aluminum, steel and superalloys, mainly due to its excellent resistance to corrosion. In this work, the electrochemical monitoring of the


corrosion process and passivating film formation on this alloy in corrosive environments of 3% w/w of sodium chloride and 20% w/w of sulfuric acid is performed. Potentiodynamic polarization is introduced as the electrochemical technique for studies on the corrosion kinetics of metals and their alloys. In this way, the weight loss of the alloy under accelerated conditions was determined too, translated into an estimate of the corrosion rate in these corrosive media, in units of mils per year. Keywords: Ti4AlV6; potentiodynamic polarization; Tafel plots; corrosion resistance; passivation.

Introducción El titanio presenta una excelente resistencia a la corrosión [1-3], lo que se atribuye a la película de óxido fino y capa protectora que se forma espontáneamente en su superficie cuando se expone al aire [4]. Este metal y sus aleaciones se utilizan generalmente en condiciones severas [5], por ejemplo, en ambientes ácidos, o en presencia de altas concentraciones de agentes corrosivos como cloruros, sulfuros, sulfatos y fluoruros, entre otros [6]. Una de las aleaciones principales y más importantes del titanio es la Ti-6Al-4V, ya que es muy versátil y por ello, de las más aplicada industrialmente [7], por lo que a ella se le dedica la mitad de la producción de titanio metálico. Sus imponentes propiedades se deben al excelente balance entre sus propiedades mecánicas, resistencia a la corrosión, su buen comportamiento a temperaturas elevadas, destacándose también su capacidad para ser trabajado mecánicamente y de modificar sus propiedades mediante tratamientos térmicos [8-9]. Es por ello, el incesante interés de realizar estudios electroquímicos a la aleación Ti-6Al-4V bajo condiciones establecidas, permitiendo a los investigadores comparar el comportamiento del material en diferentes medios para especificar posibles mejoras a futuros diseños de aleaciones y sus aplicaciones [10]. El presente trabajo presenta la técnica electroquímica de polarización potenciodinámica que expone el proceso de corrosión de la aleación Ti6Al-4V, y su ulterior formación de película pasiva. La aleación estuvo en contacto de dos medios (cloruro de sodio, NaCl al 3% en peso, y ácido sulfúrico, H2SO4 al 20% en peso). El estudio se llevó a cabo en una celda electroquímica convencional de tres electrodos, siendo el electrodo de trabajo la aleación en estudio (Ti-6Al-4V), el electrodo de referencia de calomel saturado, y una barra de grafito como contraelectrodo. El análisis se realizó en torno al potencial de equilibrio a circuito abierto, OCP. El análisis estructural de las muestras se caracterizó por la técnica de microscopía metalográfica, observando en la zona activa algunas alteraciones superficiales, como picaduras en el caso de cloruro de sodio y una capa de oxidación en el caso de ácido sulfúrico. Esta investigación presenta como opción una técnica electroquímica para contribuir y enriquecer los estudios de resistencia a la corrosión en el ámbito de aeronáutica para aleaciones metálicas como la realizada aquí para Titanio.

Metodología Estudio electroquímico Para el estudio se utilizaron tres muestras de la aleación cortadas con cortadora de alambre (Sodick VL 400Q) con dimensiones de: 1cm x 1cm x 0.63cm, que fueron pulidas con lijas de carburo de silicio desde grado 400, 600, 800 hasta un acabado de 1200, apoyándose para ello con polvo de alúmina y un paño para obtener un acabado espejo en la cara expuesta a la solución. Se utilizó un encapsulado cilíndrico denominado probeta a base de una mezcla resina comercial/endurecedor para dejar expuesta únicamente un área geométrica cuadrada de 1cm2. Para el análisis electroquímico se utilizó un potenciostato VSP de BioLogic Science Instruments. El montaje de la celda electroquímica se muestra en la Figura 1 y los análisis se realizaron empleando el software EC-Lab v.11.12 Se utilizó una barra de grafito como contraelectrodo y un electrodo de referencia de calomel saturado (ECS) con un valor constante de -0.242 V. Se empezó el estudio con medición del potencial a circuito abierto (OCP) con un intervalo de 1mV con respecto al tiempo. Finalmente, se aplicó la técnica de polarización potenciodinámica en un intervalo -0.5 V a +1.6 V versus OCP con una velocidad de barrido de 0.1667 mV/s. De esta forma se obtuvieron las curvas de polarización, y se determinaron las pendientes de Tafel para la obtención de los parámetros cinéticos como lo fueron las constantes de Stern-Geary y la velocidad de corrosión de la aleación en ambos medios, mediante la aplicación de las siguientes ecuaciones (1) a (4):

Donde ba y bc son las pendientes de Tafel anódica y catódica, respectivamente. Aplicando el concepto de las pendientes de Tafel se puede obtener la velocidad corrosión:

(2) Si se divide la Icorr por unidad de área se obtiene la densidad de corriente de corrosión la cual es directamente proporcional a la velocidad de:

La velocidad de corrosión puede calcularse entonces mediante la siguiente ecuación:

Donde Vcorr = Velocidad de corrosión en mm/año; p.eq = peso equivalente en gramos; icorr = Densidad de corriente A/cm2 y ρ = Densidad del material en gramos/cm2. La ecuación de Stern y Geary (Ecuación 1) establece la relación entre la densidad de corriente de corrosión icorr, esto es, la velocidad de corrosión, con la resistencia a la polarización, la constante B se utiliza para pasar a la proporcionalidad de la igualdad y presenta una relación indispensable en la existencia del comportamiento de las pendientes de Tafel en el sistema electroquímico, para que la ecuación sea aplicable [11].

Revista Científica

145


Figura 1. Montaje de la celda electroquímica acoplada al potenciostato/galvanostato.

Figura 2. OCP de aleación de Ti-6Al-4V sumergido en NaCl al 3% en peso.

Caracterización por microscopía electrónica de barrido, SEM Las probetas se observaron en un microscopio electrónico de barrido para ambos medios antes y después de las pruebas electroquímicas de polarización potenciodinámica con la finalidad de evidenciar la morfología de las superficies antes del estudio y posterior al proceso de corrosión y/o pasivación. Las probetas se observaron en un microscopio de barrido marca Hitachi SU5000.

Resultados Potencial a circuito abierto, OCP (Open Circuit Potential) En primera instancia se midió el OCP de la aleación sumergida en una solución de NaCl al 3% y en H2SO4 al 20%. Para el caso del NaCl, el sistema se estabilizó a las 23 horas y media después de haber empezado la prueba como se muestra en la Figura 2, a comparación de las 3.5 horas que tardó en la solución de H2SO4, como lo indica la Figura 4. El potencial de corrosión inicial del Ti-6Al-4V sumergido en NaCl tuvo un valor de -0.375 V vs. ECS y avanzó positivamente, alcanzando su estabilidad a -0.105 V vs. ECS. Este comportamiento indica inicios de pasivación del material y formación de la capa de óxido protectora. Un resultado similar se observa en la Figura 3 ya que el potencial se incrementa paulatinamente, y al igual que el primer análisis, el material se pasiva y se comienza a formar una capa de óxido protectora que va creciendo hasta que logra estabilizarse, lo que retarda el proceso de corrosión. Sin embargo, la diferencia en este segundo análisis es la velocidad de formación de la capa de óxido, el proceso de pasivación se muestra mucho más acelerado cuando la aleación se sumerge en la solución de H2SO4.

146

Revista Científica

Figura 3. OCP de aleación de Ti-6Al-4V sumergido en H2SO4 al 20%.

Polarización Potenciodinámica, LP (Linear Polarization) Las curvas de polarización de la aleación sumergida en NaCl al 3% y H2SO4 al 20% se muestra en la Figura 5(a) y 5(b) respectivamente. En la curva de polarización en la solución de NaCl, se observa que el potencial inicial es de -800 mV con respecto al electrodo de referencia de calomel, y se incrementa a un valor de -125 mV, y la intensidad de corriente disminuye de -2.4 mA a -6.9 mA. Esta primera etapa es la zona catódica, lo que indica que el material está reaccionando con la solución; sin embargo, la intensidad de corriente comienza a incrementarse rápidamente al igual que el potencial, pero este último a menor velocidad. Este cambio indica un comportamiento anódico del material, lo cual significa que en ese punto el material comienza el proceso de oxidación, resultados similares se encontraron en investigaciones anteriores [2-3]. Aquí se observa una diferencia entre las curvas en las Figuras 4(a) y 5(b). En la curva de H2SO4 de la Figura 4(b) se aprecia una alta densidad de corriente, esto implica que el material sumergido en ácido sulfúrico alcanza una etapa de pasivación a un valor de intensidad de corriente menor que el que se presenta en la so-


lución de NaCl lo cual coincide con la gráfica de OCP inicial, en donde se encontraba un comportamiento pasivo del material desde el inicio de la prueba. Resultados similares se registraron en investigaciones previas [12]. Una observación importante es que el valor de potencial de corrosión de la aleación sumergida en NaCl es de -123.25 mV vs. ECS, mientras que en H2SO4 -139.60 mV vs. ECS. Debido a la diferencia entre potenciales de corrosión de ambas gráficas se infiere que la velocidad de corrosión de la aleación Ti-6Al-4V es mayor cuando este es expuesto a una solución de H2SO4 a temperatura ambiente, ya que el potencial necesario para destruir la capa pasiva de la aleación es menor provocando sé que destruya y presenten inicios de corrosión por picadura. Utilizando el programa Software EC-Lab v.11.12, se calcularon las pendientes de Tafel y los parámetros cinéticos que permiten cuantificar la velocidad de corrosión en ambos medios conforme las ecuaciones mostradas anteriormente. En la Tabla 1, se presentan estos resultados.

Figura 4. Polarización potenciodinámica de aleación de Ti-6Al-4V sumergido en a)NaCl al 3% y b) H2SO4 al 20%.

Tabla 1. Parámetros de la aleación Ti-6Al-4V en ambas soluciones.

Microscopia electrónica de barrido Para confirmar el mecanismo de degradación de la aleación Ti-6Al-4V, después de ser corroído en NaCl (3%) y H2SO4 (20%) solución. Para el caso NaCl, Figura 5, se observaron varios poros o picaduras (indicados por las flechas) concluyendo que la aleación en este medio se degrada debido a corrosión por picadura. Para el caso de H2SO4, Figura 6, se observa una corrosión no uniforme y el crecimiento de una capa (capa pasiva), rompiéndose en ciertas zonas, generando un ataque más directo al material alcanzando con ello una degradación más rápida a la aleación para esta solución.

Figura 5. Análisis estructural, por microscopia metalográfica para la muestra de NaCl. Las flechas indican la presencia de poros.

Revista Científica

147


Fig. 6. Análisis estructural, por microscopia metalográfica para la muestra de H2SO4.

Conclusión El comportamiento pasivo de la aleación Ti-6Al-4V se presenta en ambos casos como era de esperarse. Para el caso de NaCl la capa formada es más adherente y resiste mejor el ataque de esta solución comparada con la capa formada en el proceso que involucra al H2SO4. Para la muestra expuesta en ácido se puede determinar que existe una rápida disolución de la capa pasiva. Los datos obtenidos en la curva de polarización y los cálculos cinéticos indican una mayor velocidad de corrosión del material para la muestra expuesta en H2SO4 y gracias a las imágenes obtenidas se encontró que la capa de óxido protectora está compuesta mayoritariamente de óxido de titano, TiO2, la que, a su vez, se degrada y permite el ataque directo del material por la actividad registrada entre el Titanio y el Azufre. Estos resultados electroquímicos fueron verificados en el análisis obtenido por microscopia electrónica de barrido.

Símbolos

E Potencial I Corriente Log I Densidad de corriente βa Constante de Stern Geary anódica Vcorr Velocidad de corrosión ρ Densidad del material

148

Revista Científica

(V) (µA) Log (µA) (mV) (mV) (g/cm2)


Bibliografía

biomedical materials, 2(1), 20-32. ISSN: 17516161.

[1] Lario-Femenía, J.; Amigó-Mata, A.; Vicente-Escuder, Á.; Segovia-López, F. y Amigó-Borrás, V. (2016). Desarrollo de las aleaciones de titanio y tratamientos superficiales para incrementar la vida útil de los implantes. Revista de Metalurgia, 52(4), 084. ISSN: 0034-8570.

[8] Almanza, E.; Pérez, M. J.; Rodríguez, N. A. y Murr, L. E. (2017). Corrosion resistance of Ti-6Al-4V and ASTM F75 alloys processed by electron beam melting. Journal of Materials Research and Technology, 6(3), 251-257. ISSN: 2238-7854.

[2] Zhao, B.; Wang, H.; Qiao, N.; Wang, C. y Hu, M. (2017). Corrosion resistance characteristics of a Ti-6Al-4V alloy scaffold that is fabricated by electron beam melting and selective laser melting for implantation in vivo. Materials Science and Engineering: C, 70, 832-841. ISSN: 0928-4931

[9] Sanz, A. y De, A. V. (2017). U.S. Patent No. 9,732,408. Washington, DC: U.S. Patent and Trademark Office.

[3] Dai, N.; Zhang, L. C.; Zhang, J.; Chen, Q. y Wu, M. (2016). Corrosion behavior of selective laser melted Ti-6Al-4 V alloy in NaCl solution. Corrosion Science, 102, 484-489. ISSN: 09284931 [4] Rodríguez, D.; Sevilla, P. y Gil, J. (2010). Anodización del titanio para la mejora ante la degradación química de material quirúrgico. MATERIALES, 212, 212. [5] Dumas, P. y John, C. S. (1976). NaCl-induced accelerated oxidation of a titanium alloy. Oxidation of Metals, 10(2), 127-134. ISSN: 0030770X (Print) 1573-4889 (Online). [6] Abdulmageed, Majid H. y Ibrahim, Slafa I.(2018), Corrosion Behavior of Ti-6Al-4V Alloy in Different Media. Al-Khwarizmi Engineering Journal, [S.l.], v. 6, n. 3, p. 77-84, jan. 2018. ISSN: 2312-0789.

[10] Mower, T. M. y Long, M. J. (2016). Mechanical behavior of additive manufactured, powder-bed laser-fused materials. Materials Science and Engineering: A, 651, 198-213. ISSN: 0921-5093. [11] Reyes Castillo, R. (2011). Evaluación Electroquímica de Extractos Vegetales como Inhibidores de Corrosión; Universidad Veracruzana; Poza Rica de Hidalgo, Veracruz; Págs. 9 - 14, 17 – 18, 40 – 42, 63 – 66. [12] Dai, N.; Zhang, L.; Zhang, J.; Chen, Q. y Wu, M. (2016). Corrosion behavior of selective laser melted Ti-6Al-4 V alloy in NaCl solution. Corrosion Science, 102, 484–489. ISSN: 09284931. [13] Alves, K. y Robin, A. (2007). Influence of conentration and temperature on the corrosion behaviour of titanium, titanium-20 and 40% tantalum alloys and tantalum in sulfuric acid solutions. Materials Chemistry and Physics, 103, 351-360. ISSN: 0254-0584.

[7] Murr, L. E.; Quinones, S. A.; Gaytan, S. M.; Lopez, M. I.; Rodela, A.; Martinez, E. Y. y Wicker, R. B. (2009). Microstructure and mechanical behavior of Ti–6Al–4V produced by rapid-layer manufacturing, for biomedical applications. Journal of the mechanical behavior of

Revista Científica

149


Rosa María de Anda López1 y Agripín Sánchez Salinas2

Universidad Tecnológica del Sur del Estado de México, Carretera Tejupilco-Amatepec km 12 Tejupilco , Estado de México, México, C.P. 51426. 1,2

rossyanda@gmail.com

Recibido: Mayo 7, 2018. Recibido en forma revisada: Julio 1, 2018. Aceptado: Julio 4, 2018.

150

Revista Científica

Resumen: Este trabajo plantea el desarrollo de un sistema de visión artificial por captura y en tiempo real, como primera etapa de un macroproyecto para la inspección visual automática de cultivos de jitomate. El sistema consta principalmente de cuatro etapas las cuales son: Ambiente controlado, adquisición, procesamiento de imágenes y reconocimiento de patrones. La etapa del ambiente controlado busca fijar una tasa de luz constante, el cual sería el entorno de trabajo ideal, el cual cuenta con limitadas plantas para el experimento, sin elementos extras en un cultivo como lo serían las piedras, insectos, basuras entre otros elementos, resaltando así los elementos de más interés como la tierra, la planta de jitomate y las enfermedades causadas por plagas. La integración del sistema se encuentra basado en el uso del software Matlab. Este interactúa con una cámara web para la obtención de imágenes en la etapa de adquisición, con la alternativa de importar imágenes guardadas en el sistema. En Matlab también se realizan las otras dos etapas, siendo el procesamiento de imágenes el verdadero plus del proyecto, pues integra las funciones más importantes para el procesamiento de imágenes en una interfaz gráfica, integrando en ella un modo automático y un modo manual. Esta interfaz facilitaría el trabajo para futuros proyectos de visión artificial en Matlab sea cual sea el proyecto a realizar, utilizando arduino como herramienta de comunicación cámara-PC. La última etapa de reconocimiento de patrones se realizara por método heurístico, el cual obtiene las características de los elementos de una imagen BW, para luego realizar un proceso


de discriminación.

+ Palabras clave: Adquisición de imágenes, procesamiento de imágenes, plagas.

Abstract: This work proposes the development of a system of artificial vision by captures and in real time, as the first stage of a macroproject for the automatic visual inspection of tomato crops. The system consists mainly of four stages which are: Controlled environment, acquisition, image processing and pattern recognition. The stage of the controlled environment seeks to establish a constant light rate, which would be the ideal working environment, which has limited plants for the experiment, without extra elements in a crop such as stones, insects, garbage, among other elements, highlighting the most interesting elements such as the earth, the tomato plant and the diseases caused by pests. The integration of the system is based on the use of Matlab software. This interacts with connects a web camera to obtain images in the acquisition stage, with the option of importing images stored in the system. In Matlab, the other two stages are also carried out, with image processing being the real plus of the project, since it integrates the most important functions for image processing in a graphic interface, integrating an automatic mode and a manual mode in it. This interface would facilitate the work for future projects of artificial vision in Matlab whatever the project to be done, using Arduino as a PC-camera communication tool. The last stage of pattern recognition will be carried out by a heuristic method, which obtains the characteristics of the elements of a BW image, to then carry out a discrimination process.

+ Keywords: Acquisition of images, image processing, pests. Introducción Las plagas afectan la producción de los cultivos alimenticios en América Central y los agricultores se ven afectados por la reducción en el rendimiento. En los Estados Unidos se pierden el treinta y siete por ciento de la producción potencial de los cultivos debido a plagas (Horn, 1988). Para minimizar las pérdidas y hacer el menor daño posible al ambiente con el menor costo, las plagas deben de ser correctamente diagnosticadas, reconocer alternativas de manejo y tomar decisiones de acción apropiadas (Saunders, King y Vargas, 1983). Como plaga se entiende cualquier animal, planta o microorganismo que compita con el hombre por los alimentos que él produce (Saunders, King y Vargas, 1983); (Horn, 1988). Las plagas insectiles pueden ser divididos en: constantes; de invasión; de bajo nivel, intermitentes o auxiliares; y de vectores (Saunders, King y Vargas, 1983). Las decisiones sobre el manejo de plagas por el hombre puede ser mejorado con el uso de sistemas computarizados que utilizan inteligencia artificial, donde un gran desafío es combinar los modelos de simulación con esquemas de recomendaciones basados en sistemas expertos (Horn, 1988). El campo de procesamiento de imágenes está continuamente evolucionando. Durante los últimos años hubo un incremento significativo de interés en campos como morfología de imágenes, redes neuronales artificiales, procesamiento de imágenes en color y/o en escala de grises, comprensión de datos de imágenes, reconocimiento de imágenes y sistemas de análisis basados en conocimiento.

Se puede encontrar una gran cantidad de aplicaciones de reconocimiento de imágenes en el mercado, por destacar algunas como: detección de rostros, de gestos, de huellas dactilares, de caracteres, de enfermedades, de plantas, etc. Trabajos de procesamiento de imágenes son muy utilizados por los ingenieros hoy en día, esto se ve sobre todo en ingenierías como la electrónica y la ingeniería de sistemas, debido a los niveles de programación que se requiere para trabajar con este tipo de procedimientos, además de la muy necesaria convergencia con la robótica para mejorar su utilidad. Sistemas de visión artificial es un tema con un campo de acción muy amplio, y resulta fácil encontrar documentos relacionados con este tema. Desde el área de las ciencias de la computación como propuesta técnica aplicable a la ciencia agrícola y que tiene una gran perspectiva sobre todo en el campo de la proyección fitosanitaria, que últimamente conduce a la gestión de cultivos, se encuentra el procesamiento digital de imágenes, el cual engloba un conjunto de procedimientos que se aplican a las imágenes digitales con el objetivo de mejorar la calidad o facilitar la búsqueda de información (Proakis, 1999), El análisis de imágenes puede ser empleado para los siguientes fines:

1. Para detectar enfermedades en la hoja, tallos y frutos. 2. Para cuantificar el área afectada por la enfermedad. 3. Para encontrar los límites del área afectada. 4. Para determinar el color del área afectada. 5. Para determinar el tamaño y forma de las frutas. 6. Para identificar el objeto correctamente.

El procesamiento de imágenes y la visión artificial resultan cada vez más útiles y necesarios en diversas aplicaciones agromóticas de gestión de cultivos y procesos agroalimentarios. Las imágenes ofrecen información muy valiosa sobre el estado de crecimiento de las plantas, las enfermedades carenciales, la maduración de los frutales, la aparición de plagas y malas hierbas, etc. Las técnicas basadas en análisis de color son fundamentales en este dominio, al permitir clasificar y caracterizar de forma precisa, robusta y eficiente las distintas regiones de las imágenes. El procesamiento digital de imágenes es una herramienta ampliamente utilizada para automatizar procesos industriales, ya que es confiable, eficiente y rápido en el procesamiento. La industria agrícola ha comenzado a utilizar este tipo de tecnología para vigilar los aspectos pertinentes de los cultivos (Noda, Ezaki, Takisawa, Misuno y Yamamoto, 2006) y (Husin, Shakaff, Aziz y Farook, 2012). El análisis automático de imágenes digitales de cultivos es un campo de investigación muy activo y atractivo en el que confluyen la visión por computador y la agromótica (Cubero, Aleixos, Moltó, Gómez-Sanchis y Blasco, 2011). El color es una característica esencial en muchos problemas de este dominio, aunque no toda la visión artificial se basa en el uso de color; de hecho, existe una amplia variedad de técnicas alternativas que han sido usadas en aplicaciones agromóticas, como el análisis de bordes, formas, texturas, etc. Sin embargo, el manejo de color presenta grandes ventajas en los problemas que nos ocupan por su baja dimensionalidad, alta expresividad y facilidad de procesamiento.

Revista Científica

151


En los últimos años los investigadores han estudiado sistemas de visión para detectar y cuantificar floraciones. Uno de esos trabajos es el de Gebbers (2013) (citado por Schuetz, Pfaff, Baur, Buschmann y Ulbrich, 2014), quien mapeó la densidad floral en manzanos a fin de realizar el control de sistemas de cosecha automatizadas. Sin embargo, este enfoque no es adecuado para la detección de otros brotes y/o la variación del producto durante la maduración. En este sentido trabajos anteriores han demostrado que las imágenes multiespectrales se pueden aplicar con éxito para el reconocimiento de objetos en muchas aplicaciones agrícolas (Wijensingha, 2011).

arrojaron que es la más común en los cultivos. Además de cuantificar el número de insectos llamados mosca blanca, la cual proporcionó un estadístico que permitirá emitir una señal de alarma para iniciar el proceso de desinfección. Utilizando el software de matlab, diseñar el programa de reconocimiento de imágenes, que permita conectar la cámara a la PC y pueda discernir entre una planta sana y una enferma. En esta etapa del proyecto se desarrolló los programas que permiten identificar, por medio de la utilización de reconocimiento por colores, en donde la cenicilla está comprobado que cambia el color natural de la hoja a un color más amarilloso. Mientras que el reconocimiento de la plaga se hará por reconocimiento de patrones y de color, ya que la forma y el color de la mosca blanca son singulares y tiene puntos muy específicos de identificación. En esta etapa lo que se deberá de cuidar es el juego de luces, para evitar que se confunda o no se llegue a detectar.

Figura 1. Procesamiento de imagen de frutos. CROpS. EU FP7 Project. Fuente (http://www.crops-robots.eu).

Metodología El estudio se llevó a cabo dentro de las instalaciones de la Universidad Tecnológica del Sur del Estado de México, situado en la parte sur del Estado de México, en el Municipio de Tejupilco San Miguel Ixtapan, Km. 12 Carretera Tejupilco - Amatepec. Actualmente se cuenta con un invernadero de 250 m2, en el cual se ha sembrado jitomate saladet para poder realizar la prueba, es importante hacer mención que este cultivo se selecciona en base a que es el más utilizado en la zona. Además de que la muestra de selección, que serán 10 plantas, a las cuales se les monitoreará la presencia de enfermedades o plagas, causadas por insectos principalmente se tratará la presencia de la llamada mosquita blanca (Bemisia tabaci) y como enfermedad a la llamada cenicilla del jitomate (Leveillula taurica), pudiendo en un futuro extenderlo a otros insectos y enfermedades.

El desarrollo del proyecto se encuentra dividido de la siguiente manera: Selección del cultivo a estudiar. Esta etapa del proyecto se encuentra desarrollada, ya que se sembraron 1000 plantas de jitomate, de las cuales se seleccionó una muestra de 10 para poder monitorear la presencia de los insectos y la enfermedad seleccionada. Recolección de imágenes del cultivo seleccionado cuando se encuentra en las primeras etapas de enfermedad o plaga. En esta etapa del proyecto se desarrolló una base de datos de fotografías, en donde se generará la etapa temprana de enfermedad causada por la cenicilla, en donde la investigación y la consulta a expertos nos

152

Revista Científica

Desarrollo del sistema de alarma que permita al productor detectar que existen problemas de salud en su cultivo, para tomar las acciones necesarias. Una vez identificado y realizado el estadístico, que demuestre que ya es una señal de alarma la presencia de enfermedad o plaga, o ambas, se generó un sistema de control que detone una señal de alarma, en donde se indique que se debe de aplicar algún método de control, principalmente el de desinfección. Este sistema a un futuro se podría automatizar, para que aun no estando el productor presente el proceso se brinde cuidando las cantidades adecuadas de desinfectante. Montaje de la cámara en el sistema. Se analizó qué sistema mecánico conviene más, por la localización del cultivo, su distribución y estudiando la funcionabilidad y eficacia del prototipo. Una vez definido el diseño del sistema mecánico, se procedió a montar la cámara, de forma tal que arroje las mejores tomas de las plantas, en este apartado se definió que es importante que la cámara pueda tener movimiento arriba, abajo, y con giros, de tal forma que evite que la luz ocasione que no se detecte el problema. Realizar la interfaz de comunicación cámara-arduino-PC. En esta parte del proyecto se realizó la comunicación que se tiene entre el sistema de visión artificial, se concluye que es importante que se cuente con una comunicación bluetooth, para evitar que el cableado llegue a dañar las plantas y sus frutos. Programación del sistema de inspección (mecánico) para su rutina de inspección sobre el cultivo dentro del invernadero. En este apartado se generó una rutina diaria de inspección del cultivo, generando un programa bajo la plataforma arduino, para asegurar que de manera diaria se dará seguimiento al control de la enfermedad o la plaga. Pruebas y corrección de errores. En esta etapa se realizaron las pruebas del prototipo construido, así mismo se corregirán las fallas que se lleguen a presentar.


Resultados Se cuenta con un invernadero de prueba con dimensiones de 250m2, en el cual se sembró semilla de jitomate Saladett (Lycopersicum sculentum), actualmente se cuenta con 100 plantas de jitomate, de las cuales se seleccionaron 10 para darle seguimiento al control de la plaga y la enfermedad. En la Figura 2 se muestra la imagen de la enfermedad de la cenicilla, se puede observar que ésta va cambiando el color de la hoja, en la figura se contrasta la hoja sana y la hoja enferma.

Figura 3. Tratamiento a las hojas con cenicilla(a), y sin cenicilla (b).

Con lo que respecta a la detección de la mosca blanca, se genera un programa de reconocimiento de regiones, además de uno que cuente objetos, ya que se determinó, de acuerdo al tamaño de la mosca blanca que oscila entre los 1 y 1.5 mm, identificarlas por regiones, en donde se propone la dimensión que ocuparía en la foto, y se señalan con rectángulos en color verde, como se muestra en la Figura 4, posteriormente se desarrolló el programa que realiza el conteo de objetos, limitando según expertos, a un máximo de 10, con lo cual se toma la decisión de enviar una señal al productor para iniciar el proceso de desinfección del cultivo.

Figura 4. Detección de la mosca blanca en la hoja de jitomate.

Figura 2. Arriba se muestra la hoja enferma por cenicilla, abajo la hoja sana.

Se puede notar que aún quedan algunas moscas fuera de la región, pero considera una eficiencia del sistema de 90%, por lo que el sistema es muy confiable, se está trabajando en la segunda parte del programa, en donde se realice el conteo de figuras, para que de esta manera el sistema pueda tomar la decisión de desinfectar o no desinfectar.

En la Figura 3, se muestra el primer tratamiento dado a la hoja que muestra cenicilla, en donde por múltiples pruebas se pudo generar que el aplicar un filtro en la región del color verde, arroja más datos del deterioro de la hoja, asimismo con el histrograma podemos comparar las diferencias de regiones entre la hoja sana y la hoja enferma.

Revista Científica

153


La técnica utilizada para detectar a la mosca blanca fue: Captura. Se obtiene una imagen de la cámara en la configuración establecida la cual se utiliza para buscar la marca de los cuadrados.

En la Tabla 1, se muestra la efectividad de la cámara en la toma de las imágenes. Se tomaron 10 imágenes a 10 plantas, colocadas cada 30 cm de distancia. Es importante mencionar que se colocaron en fila, ya que esa es la distribución con que se cuenta en el invernadero. El cálculo se realizó tomando en consideración la razón entre el método de análisis seleccionado y el valor obtenido del número de insectos detectados.

Pre-procesamiento. Se aplican filtros, el primero es convertir la imagen a escala de grises, el segundo reduce la resolución de la imagen a la mitad y se vuelve a ampliar a la resolución original para eliminar ruido, y el tercero aplica el filtro Gaussiano (González, 1992), para suavizar la imagen y eliminar el mayor ruido posible. Segmentación. La imagen filtrada es segmentada mediante el algoritmo de Canny (González, 1992), buscando reducir los datos de la imagen de interés con la información que nos interesa, para nuestro caso lograr una imagen binaria que muestra todos los bordes encontrados en color blanco y el fondo negro, preservando la información estructural importante en la imagen. Este algoritmo halla bordes con base a buscar máximos locales del gradiente de la imagen, calculándolo usando la derivada de un filtro Gaussiano, usa dos valores de umbral para localizar bordes fuerte o débilmente marcados en la imagen, y en esto está la ventaja de usar Canny en lugar de otros métodos ya que tiene buena detección ante ruido. Extracción de características. En la imagen binaria se buscan contornos, ya que los cuadrados de la marca son figuras cerradas. De este proceso se obtiene un conjunto de coordenadas que representan cada uno de los contornos encontrados en la imagen. Este arreglo se procesa para encontrar figuras geométricas, que en este caso son cuadrados. Identificación de objetos. Se compara con el contorno del objeto a buscar por medio de sus momentos invariantes, obteniendo un valor numérico de dicha comparación. Se coloca una señal en la imagen original, utilizando las coordenadas de su ubicación y el número obtenido de la comparación de contornos. El número representa el número de elementos encontrados (mosca blanca). Si encuentra un objeto similar, entonces el mecanismo inicia movimientos laterales para centrar la imagen y colocarse frente al objeto y así dejar de moverse. En este momento se da por encontrado el objeto, y el dato es enviado al procesador para que compare los valores máximos y mínimos permitidos, siendo el máximo de 5 moscas blancas, ya que los expertos aseguran que con una sola que llegue al cultivo se reproducirá de manera exponencial, por lo que en menos de una semana el cultivo se ve gravemente amenazado por la plaga. En la Figura 5, se muestra la imagen binarizada y filtrada, en donde el programa realizado en Matlab realizando el conteo de formas y patrones.

Tabla 1. Efectividad de la cámara.

Conclusiones Se ha podido observar que el sistema de detección de plagas es eficiente, solamente que se debe de generar la programación que permita hacerlo de manera automática, ya que se considera que los resultados de eficiencia del sistema medido, resulta altamente aceptable. A pesar de que la mosca blanca, en ocasiones pasa desapercibida por su color y tamaño, se ha notado que la cámara llega a captar su presencia, la identifica y la segrega, lo que permite realizar un conteo de ellas y permite aplicar acciones para la desinfección del cultivo. Hasta este momento ha resultado más simple medir la cantidad de insectos, mosca blanca, existentes en el cultivo, ya que la cámara lo detecta de una manera más simple, y con el cálculo de regiones se puede determinar que el insecto cumple con el tamaño establecido para el rectángulo y lo contabiliza. Por otra parte el proceso de identificación de la cenicilla ha llevado más tiempo, ya que por el color que adquiere la hoja y por su ubicación no es tan simple su detección, pero se ha determinado que se deberá de posicionar a la cámara en ángulos distintos dependiendo de la ubicación en la hilera. Se está trabajando actualmente en el diseño del mecanismo que asegure que la cámara se vuelva autónoma, se está desarrollando de manera paralela la programación para poder determinar una rutina de inspección diaria del cultivo, ya que se ha detectado que posiblemente hoy no se tenga la presencia de plaga, pero el día de mañana ya se encuentre en proceso de infección y propagación, por lo que se considera que se deberá de dar una rutina diaria de inspección al cultivo para asegurar que se está en control del problema mencionado. En general se cumplió de manera satisfactoria con el proyecto, ya que al enviar un mensaje a la bomba indicada, se realiza un proceso de nebulización, en donde se colocó desinfectante, que ha permitido disminuir la presencia de insectos y mejorar el desarrollo de la planta.

Figura 5. Filtrado de imagen para conteo de patrones.

154

Revista Científica


Bibliografía + Cubero, S.; Aleixos, N.; Moltó, E.; Gómez-Sanchis, J. y Blasco. J. (2011). Advances in machine vision applications for automatic inspection and quality evaluation of fruits and vegetables. Food and Bioprocess Technology, Vol. 4 (4):487-504. + Horn. D.J. (1988). Ecological approach topest management. Edited by David Pimentel. New York, E.E.U.U. The Guilford Press. pp. 285. + Husin, Z. B.; Shakaff, A.; Aziz, A. y Farook, R. (2012). Feasibility study on plant chili disease detection using image processing techniques. Third Int. Conf. Intelligent Syst. Modelling and Simulation (ISMS). pp. 291 - 296. + Noda, K.; Ezaki, N.; Takizawa, H.; Mizuno, S. y Yamamoto, S. (2006). Detection of plant saplessness with image processing. International Joint Conference SICE-ICASE. pp. 4856 - 4860. + Proakis, J. (1999). Tratamiento Digital de Señales. España: Prentice Hall. 3ra Edición. ISBN: 848322-000-8. + Saunders, J..L.; King, A.B.S. y Vargas S., C.L. (1983). Plagas de los cultivos en América Central. Una lista de referencia. Turrialba. C.R. Centro Agronómico Tropical de Investigación y Enseñanza. (Serie Técnica. Boletín técnico / Centro Agronómico Tropical de Investigación y Enseñanza; No. 9) pp. 92. + Schuetz, C.; Pfaff, J.; Baur, J.; Buschmann, T. y Ulbrich, H. (2014). A Modular Robot System for Agricultural Applications. Proceedings International Conference of Agricultural Engineering, Zürich, Switzerland. + Wijesingha (2011). Automatic Detection System for the Identification of Plants Using Herbarium Specimen Images. Tropical Agricultural Research, Noviembre-diciembre, vol. 23 no. 1, p. 42-50.

Revista Científica

155


María Karla Flores López1, Rosa Cristina Ávila Peña2, Suhei Lizette Cabrera Gregoire3, Sandra Díaz Montes4, Katia Nayely Ramos Santoyo5, Del Rosario Villanueva Macías6 y Carlos Vidal Díaz7

Universidad Tecnológica de Nayarit, Carretera Federal 200 Km 9, Xalisco, Nayarit. México. C.P. 63780.

1,2,3,4,5,6,7

maria.flores@utnay.edu.mx

Resumen: La guayaba es un fruto conocido por sus diversas propiedades funcionales entre las que se encuentran la actividad antioxidante asociada a los compuestos polifenólicos por lo que la obtención de productos con un alto contenido de estos compuestos pudiera incluso englobarlos dentro de los llamados alimentos funcionales. Por lo anterior, el objetivo de este trabajo fue determinar la cantidad de compuestos fenólicos y la actividad antioxidante en este fruto para valorar su utilización en alimentos funcionales. Para la extracción de compuestos fenólicos se siguió el método Folin-Ciocalteu de Stintzing, Herbach, Mosshammer, Carle, Yi y Sellappan (2005) y la actividad antioxidante fue evaluada siguiendo el método DPPH reportado por Morales, Pérez y Salvio (2001). Se encontró que los frutos que presentaban un índice de madurez mayor mostraron un contenido más elevado de compuestos fenólicos. La guayaba en estado maduro posee una destacada capacidad antioxidante con una concentración promedio de 57.5 ± 3.58 μmol Trolox/g.

+

Recibido: Mayo 7, 2018. Recibido en forma revisada: Julio 2, 2018. Aceptado: Julio 4, 2018.

156

Revista Científica

Palabras clave: Guayaba, compuestos fenólicos, actividad antioxidante.

Abstract: Guava is a fruit known for its various functional properties among which are the antioxidant activity associated with polyphenolic compounds so that obtaining products with a high content of these compounds could even encompass them within the so-called functional foods.


Therefore, the objective of this work was to determine the amount of phenolic compounds and antioxidant activity in this fruit to assess its use in functional foods. For the extraction of phenolic compounds the Folin-Ciocalteu method of Stintzing, Herbach, Mosshammer, Carle, Yi y Sellappan (2005) was followed and the antioxidant activity was evaluated following the DPPH method reported by Morales, Pérez and Salvio (2001). It was found that the fruits that presented a higher maturity index showed a higher content of phenolic compounds. The guava in the mature state has an outstanding antioxidant capacity with an average concentration of 57.5 ± 3.58 μmol Trolox/g.

+ Keywords: Guava, phenolic compounds, antioxidant activity. Introducción La tendencia mundial actual de la alimentación indica un interés de los consumidores hacia los alimentos funcionales o nutracéuticos, productos alimenticios naturales o industrializados que forman parte de la dieta diaria y que además de aportar nutrientes, tienen otros componentes bioactivos que proporcionan un efecto benéfico para la salud. Este tipo de alimentos incluyen alimentos con antioxidantes considerados como compuestos funcionales capaces de reducir el desarrollo de enfermedades cardiovasculares, tumorales y neuro-degenerativas. En el país la guayaba durante el periodo enero–octubre del año 2016, alcanzó una producción de 224 mil 841 toneladas (SAGARPA, 2016), ocupando Nayarit uno de los primeros diez lugares en producción a nivel nacional, de ahí la importancia del estudio de este cultivo ya que se considera, a la guayaba, un fruto con alto contenido de antioxidantes pero carece de un aprovechamiento mediante su posible uso para la fabricación de alimentos funcionales. Tiene un alto y reconocido valor nutricional y funcional debido a esta capacidad antioxidante, contenidos de fibra dietaria, carbohidratos, minerales y vitaminas (Espinal, 2010). Es por esto que en el presente proyecto de investigación se determinó por espectrofotometría, el contenido de antioxidantes tipo fenólicos y se evaluó la actividad antioxidante DPPH que presenta la guayaba cultivada en Nayarit, con el fin de cuantificar la concentración de estos componentes y así valorar su posible uso en alimentos funcionales.

Materiales y métodos Recolección de la materia prima

Los frutos de guayaba utilizados fue tipo Regional Blanca cultivada en el estado de Nayarit en estado de madurez de consumo, de color amarillo característico con escaso pardeamiento en la superficie y con una consistencia ligeramente blanda. La fruta recolectada fue sanitizada por inmersión en solución de cloro a 200 ppm durante 20 minutos, posteriormente le fue eliminado el pedúnculo manualmente, se cortó la fruta de manera transversal y se extrajeron las semillas, se homogenizó la muestra en una licuadora durante 2 minutos a una velocidad de 2000 rpm.

Caracterización del estado de madurez de la materia prima

Se realizaron análisis fisicoquímicos a la pulpa obtenida, analizando sólidos solubles totales (ºBx), los cuales fueron determinados mediante lectura en un refractómetro tipo Abbe marca ATAGO modelo

NAR-1TLiquid, este método se basa en la propiedad de los productos de refractar la luz en proporción a su contenido de sólidos solubles totales (NMX-F-103-1982); pH siguiendo la metodología de la NMX-F317-S-1978, el método se fundamenta en la medición electrométrica de la actividad de los iones hidrógeno presentes en una muestra de producto mediante un aparato medidor de pH, potenciómetro (marca Orion Star modelo A211) y porcentaje de acidez titulable expresada como porcentaje de ácido cítrico de acuerdo a la NMX-FF-011-1982, este método se basa en la neutralización de los iones H+ con solución valorada de hidróxido de sodio, en presencia de una sustancia indicadora, para lo cual se utilizó fenolftaleína. Estos análisis se llevaron a cabo en 3 ensayos con lotes diferentes de fruta y cada análisis a su vez se ejecutó por triplicado. A través de la prueba de Tukey se efectuó un análisis de medias utilizando un nivel de confianza de 95% para determinar diferencia estadística entre los promedios de los parámetros de cada uno de los ensayos realizados.

Obtención de la muestra

Para la extracción de compuestos fenólicos en la guayaba se siguió la metodología propuesta por Restrepo, Narváez y Restrepo (2009) y Espinal, Olaya, Restrepo, Kelly y Paranda (2010). La extracción se realizó a temperatura ambiente (23 ± 2 ºC) y evitando la exposición a la luz. Se utilizó una relación 1:9 (p/v) de muestra/extractante (etanol/agua 50:50) y se agitó con agitador magnético por 1 hora. Posteriormente la mezcla se centrifugó en una centrifuga marca HERMLE modelo Z323, a una velocidad de 3000 rpm por 10 minutos y se extrajo el sobrenadante. El residuo fue diluido en 9 ml de una solución de acetona 70:30 (acetona:agua) y se agitó nuevamente durante 1 hora. Una vez más la mezcla se centrifugó bajo las mismas condiciones y se extrajo el sobrenadante. Los sobrenadantes fueron mezclados, siendo esta la muestra para analizar los compuestos fenólicos y actividad antioxidante.

Compuestos fenólicos: Curva de calibración y análisis de la muestra

Se elaboró una curva de calibración de ácido gálico (AG) siguiendo el método Folin-Ciocalteu de Stintzing, Herbach, Mosshammer, Carle, Yi y Sellappan (2005), el ensayo se basa en que los compuestos fenólicos reaccionan con el reactivo de Folin-Ciocalteu, a pH básico, dando lugar a una coloración azul susceptible de ser determinada espectrofotométricamente. Se partió de una solución madre de ácido gálico a una concentración de 40 mg/100 ml diluida en agua destilada. Se realizaron diluciones con concentraciones de 0, 5, 10, 20, 30 y 40 mg/100 ml (utilizando como blanco y diluyente agua destilada). Se tomaron 100 μL de cada una de las diluciones, se agregaron 500 μL del reactivo Folin-Ciocalteu y 400 μL de carbonato de sodio al 7.5%, se agitó en un Vortex Genie2 marca Scientifc Industries modelo G560 por 1 minuto en velocidad 6, se dejaron reposar a temperatura ambiente (23 ± 2 ºC) durante 30 minutos. Se midió la absorbancia a una longitud de onda de 765 nm en un espectrofotómetro Termo Fisher Scientific modelo G1OS UV-Vis. Para el análisis de la muestra de guayaba se tomaron 100 μL y se procedió de igual manera. La concentración de compuestos fenólicos se expresaron como mg de ácido gálico/100 g de fruta (mg AG/100 g).

Actividad antioxidante DPPH: Curva de calibración y análisis de la muestra

Se siguió el método DPPH (2,2-difenil-1-picrilhidrazilo) de acuerdo al procedimiento reportado por Morales y Jiménez (2001), en el cual el radical libre conocido por las siglas DPPH es susceptible de reaccionar con compuestos antioxidantes a través de un proceso caracterizado por la ce-

Revista Científica

157


sión de un átomo de hidrógeno proporcionado por el agente antioxidante. Se elaboró una curva de calibración, para lo cual se preparó una solución madre de Trolox a una concentración de 400 μmol/L diluida en etanol. De igual manera se preparó una solución madre de DPPH a una concentración de 7.4 mg/100 ml diluida en etanol. Se realizaron diluciones con concentraciones de 0, 50, 100, 200, 300 y 400 μmol/L (utilizando como blanco y diluyente etanol). Se tomaron 100 μL de cada una de las diluciones y se colocaron en viales Eppendorf, se agregaron 500 μL de la solución DPPH y se sometió a agitación en el vortex en velocidad 6 por 1 minuto. Se dejaron reposar a temperatura ambiente (23 ± 2 ºC) durante 1 hora. Se midió la absorbancia a una longitud de onda de 520 nm en el espectrofotómetro. Para el análisis de la muestra de guayaba se tomaron 100 μL y se procedió de igual manera. La actividad antioxidante para cada muestra fue expresada en μmol de equivalente de Trolox / gramo de fruta (μmol ET / g).

Resultados y discusión Caracterización fisicoquímica del estado de madurez de la guayaba

Los parámetros fisicoquímicos obtenidos indicativos del estado de madurez de la pulpa de Guayaba variedad Regional Blanca se reportan en la Tabla 1.

Tabla 1. Parámetros fisicoquímicos de la guayaba.

Los valores están expresados en base húmeda y se muestran como el promedio ± 1 SD. Letras iguales dentro de una fila indican que no hay diferencias significativas de acuerdo a la prueba de Tukey (P ≤ 0.05). Las concentraciones mostradas son el promedio de 3 repeticiones por ensayo. Como se observa, el índice de madurez del lote del ensayo 1 resultó estadísticamente diferente al lote del ensayo 3 indicando que estos últimos frutos se encontraban en estado de madurez más avanzado.

Los valores están expresados en base húmeda y se muestran como el promedio ± 1 SD. Letras iguales dentro de una columna indican que no hay diferencias significativas de acuerdo a la prueba de Tukey (P ≤ 0.05). Las concentraciones mostradas son el promedio de 3 repeticiones por ensayo. Por medio del análisis de medias utilizando la prueba de Tukey con un nivel de confianza de 95% se encontró diferencia significativa entre los valores del ensayo 1 contra los valores del ensayo 2 y 3. De acuerdo a lo reportado por Espinal, Olaya, restrepo, Kelly y Parada (2010) en general el contenido de fenoles presenta tendencia a aumentar con la maduración de la fruta, mientras que en el estado sobremaduro o fase de senescencia se nota una disminución en dicho contenido; este fenómeno podría explicarse por el alto metabolismo oxidativo que en la senescencia favorece la aparición de especies reactivas de oxígeno (ROS), donde los fenoles actúan como antioxidantes primarios produciéndose la disminución de las ROS. Tomando en cuenta esta información se observa que los frutos de guayaba correspondiente al ensayo 3 que presentaban un índice de madurez mayor con respecto a los frutos del ensayo 1, mostraron un contenido más elevado de compuestos fenólicos, por lo que sus características favorecen la preservación de estos compuestos. Espinal, Olaya, restrepo, Kelly y Parada (2010) reportan la concentración (mg AG/ 100 gr de fruta total) de estos compuestos en guayaba Regional Blanca en diferentes estados de madurez, presentando una concentración de 198.62 ± 3.5 verde; 230.87 ± 26.8 fisiológica; 300.67 ± 12.3 madura y 254.08 ± 6.9 sobremadura donde el dato a comparar es el estado de madurez “madura”, el cual resulta ser bajo en comparación con los obtenidos en este proyecto. Ramírez y Pacheco, 2011 reportan un concentración de 56.93 ±0.134 mg de ácido gálico/100 gr de pulpa, un valor que está muy por debajo de los valores de las guayabas analizadas, pudiéndose deber a las condiciones fisicoquímicas de la guayaba que el autor analizó. Rojas y Narváez, 2009 reporta en guayaba Regional Blanca una concentración de 496 ± 99 mg AG/100 gr fruta en base húmeda y 2494 ± 1341 mg AG/100 gr fruta en base seca, teniendo relación con los valores obtenidos en este trabajo.

Actividad antioxidante DPPH

Los resultados obtenidos se presentan en la Tabla 3, no se encontró diferencia significativa entre los promedios de los ensayos 1 y 2, sin embargo si hubo diferencia entre los ensayos 1 y 3 y los ensayos 2 y 3. Espinal et al., 2010, reportan valores obtenidos en guayabas de diferente variedad y en diferentes estados de madurez una concentración (μmol Trolox / g de fruta total) de 14.60 ± 0.42 verde; 17.53 ± 0.76 pintona; 20.20 ± 0.68 madura y 19.43 ± 0.22 sobremadura.

Contenido de compuestos fenólicos

De acuerdo al método utilizado para determinar compuestos fenólicos se obtuvieron los resultados que se observan en la Tabla 2.

Tabla 3. Concentración de actividad antioxidante DPPH.

Tabla 2. Concentración de compuestos fenólicos.

158

Revista Científica

Los valores están expresados en base húmeda y se muestran como el promedio ± 1 SD. Letras iguales dentro de una columna indican que no hay diferencias significativas de acuerdo a la prueba de Tukey (P ≤ 0.05). Las concentraciones mostradas son el promedio de 3 repeticiones


por ensayo. Comparando la concentración que presenta el estado de madurez “madura” resulta ser una concentración más baja con los valores obtenidos en la guayaba de Nayarit. El autor Espinal, Olaya, restrepo, Kelly y Parada (2010), menciona: “Mediante el ensayo de DPPH se observó que a medida que la fruta madura se presenta una mayor capacidad de bloqueo de radicales libres. En general, la variedad Regional Blanca presentó la mayor actividad antioxidante”. Rojas y Narváez (2009), presentan en guayaba de la misma variedad valores de concentración de 32.5 ± 6.2 μmol Trolox/g en base húmeda y 221 ± 40 μmol Trolox/g en base seca. El valor obtenido en base húmeda resulta ser un poco bajo a los presentados en este proyecto, sin embargo tiene relación con el método empleado ya que se extrajeron los compuestos antioxidantes en base húmeda. Olaya y Restrepo (2012), encontraron diferentes valores de concentración (μmol Trolox/g de fruta) en guayaba Regional Blanca en sus respectivos estados de madurez, los cuales presentaron 14.60 ± 0.42 verde; 17.53 ± 0.76 pintona; 20.20 ± 0,68 madura y 19.43 ± 0.22 sobremadura, valores que incluso en el estado de madurez “madura” presentan una concentración menor con una diferencia de hasta 40 μmol Trolox/g de fruta con los valores que se obtuvieron en este análisis. La guayaba regional blanca de Nayarit presenta capacidad antioxidante en estado de madurez de consumo con un índice de madurez de 19.69.

Conclusiones Se cuantificó el contenido de compuestos fenólicos por espectrofotometría, pudiendo establecer que en promedio presenta 514.38 ± 72 mg AG/100 g de fruta, concentración alta en comparación con lo reportado de diferentes autores, por lo que la guayaba cultivada en Nayarit contiene una importante concentración de estos compuestos funcionales, los cuales podrían ser utilizados para la elaboración de alimentos funcionales.

Bibliografía + Espinal, Mauricio; Olaya, Julio; Restrepo, Patricia; Silva, Kelly y Parada, Fabián (2010). Capítulo 7: La guayaba. Fuente de fenoles con actividad antioxidante. En Morales, A. L. y Melgarejo, L. M. (Comps.), Proyecto: Caracterización ecofisiológica de variedades de guayaba por función de uso. Colombia: Universidad Nacional de Colombia. + Espinal, R. M. (2010). Capacidad antioxidante y ablandamiento de la guayaba Palmira ICA I (Psidium guajava). Tesis de Maestría, Universidad Nacional de Colombia, Bogotá, Colombia. + Morales, Francisco J. y Jiménez Pérez, Salvio (2001). Free radical scavenging capacity of Maillard reaction products as related to colour and fluorescence. Journal Food Chemistry, 72, 119-125. ISSN #0308-8146. + NMX-F-103-1982. Normas Mexicanas. Alimentos. Frutas y derivados. Determinación de grados brix. + NMX-F-317-S-1978. Normas Mexicanas. Determinación de pH en alimentos. + NMX-FF-011-1982. Normas Mexicanas. Productos alimenticios no industrializados, para uso humano. Fruta fresca. Determinación de acidez titulable. Método de titulación. + Olaya Zea, J. A. y Restrepo Sánchez, L. P. (2012). Estudio del contenido de fenoles y actividad antioxidante de guayaba en diferentes estados de madurez. Acta Biológica Colombiana, 17, 611-624. ISSN #0120-548X.

Se encontró que los frutos de guayaba que presentaban un índice de madurez mayor, mostraron un contenido más elevado de compuestos fenólicos.

+ Ramírez, Alejandra y Pacheco de Delahaye, Emperatriz (2011). Composición química y compuestos bioactivos presentes en pulpas de piña, guayaba y guanábana. INTERCIENCIA, 36, 71-75. ISSN #0378-1844.

Se determinó la actividad antioxidante DPPH por espectrofotometría, en donde los resultados encontrados muestran que la guayaba en estado maduro poseen una destacada capacidad antioxidante con una concentración promedio de 57.5 ± 3.58 μmol Trolox/g, por tanto el consumo del fruto fresco o su transformación en alimentos funcionales, podría constituir una fuente natural de compuestos funcionales que ayuden a prevenir el deterioro oxidativo de la salud del consumidor.

+ Restrepo Sánchez, D. C, Narváez Cuenca, C. E. y Restrepo Sánchez, L. P. (2009). Extracción de compuestos con actividad antioxidante de frutos de guayaba cultivada en Vélez-Santander, Colombia. Química Nova, 32, 1517-1522. ISSN #0100-4042.

Símbolos Micromol Gramo Revoluciones por minuto Partes por millón Microlitro Miligramo Mililitro Nanómetros

(µmol) (g) (rpm) (ppm) (μL) (mg) (ml) (nm)

+ Rojas Barquera, D. y Narváez Cuenca, C. E. (2009). Determinación de vitamina C, compuestos fenólicos totales y actividad antioxidante de frutas de guayaba (Psidium guajava L.) cultivadas en Colombia. Química Nova, 32, 2336-2340. ISSN #0100-4042. + Stintzing Florian, C.; Herbach, Kirsten. M.; Mosshammer, Markus R.; Carle, Reinhoild; Yi, Weiguang y Sellappan, Subramani (2005). Color, betalain pattern, and antioxidant properties of cactus pear (Opuntia spp) clones. Journal of Agriculture and Food Chemistry, 53, 442-451. ISSN #0021-8561.

Revista Científica

159


Ramírez Bonifacio Marlene1, González Torres Arturo2, Ramírez Castañeda Armando3, Rivas Mendoza Luis F.4 y Arrendo Berrocal Federico5

Instituto Tecnológico de Tláhuac II Camino Real 625, Tláhuac, Jardines del Llano, Ciudad de México, México

1,2,3,4,5

cann_azteca@hotmail.com

Resumen: El presente proyecto tiene como objetivo el mejoramiento de la gestión del almacén aplicando herramientas de mejora continua, aplicadas a una empresa industrial. Para el desarrollo del estudio se empleó una metodología exploratoria – descriptiva, en la cual se utilizó una confiabilidad del 90% y un margen de error del 10%. Los beneficios que se obtuvieron al implementar el proyecto fue una reducción de 9 minutos al momento de surtir un pedido; así mismo, se obtuvo una reducción de perdida de dinero de 21,554.35 pesos mexicanos.

+

Palabras clave: Almacenamiento, gestión y mejora continua.

Abstract: The objective of this project is to improve warehouse management by applying continuous improvement tools applied to an industrial company. For the development of the study, an exploratory-descriptive methodology was used, in which a reliability of 90% and a margin of error of 10% was used. The benefits that were obtained when implementing the project was a reduction of 9 minutes at the time of filling an order; likewise, a reduction in the loss of money of 21,554.35 Mexican pesos was obtained. Recibido: Mayo 7, 2018. Recibido en forma revisada: Julio 2, 2018. Aceptado: Julio 4, 2018.

160

Revista Científica

+

Keywords: Storage, management and continuous improvement.


Introducción Las herramientas de mejora continua buscan lograr la eficiencia y eficacia en las empresas, por lo cual existen diversas, que se aplican dependiendo los objetivos de la organización y el área de la empresa, donde se aplican. Grütter, Field y Faull (2002), mencionan que la mejora continua puede definirse como pequeños cambios incrementales en los procesos productivos o en las prácticas de trabajo que permiten mejorar algún indicador de rendimiento. Camisón, Cruz y González (2006), definen a la mejora continua como un proceso que permite la consecución de la mejora de la calidad en cualquier proceso de la organización, supone una metodología para mejorar continuamente y su aplicación resulta muy útil en la gestión de los procesos. Suárez (2008), señala que con su aplicación se puede contribuir a mejorar las debilidades y afianzar las fortalezas de la organización, logrando ser más productivos y competitivos en el mercado al que pertenece esa organización. La empresa de estudio muestra una problemática principalmente en el almacén donde se encuentran los trabajos en stock, que estos son desde cosas pequeñas como, tarjetas de presentación o hasta lonas, los cuales se acomodan simplemente en anaqueles donde exista espacio y algunos trabajos hasta en el piso, eso provoca que se dañen, pues cabe mencionar que la mayoría de los trabajos están elaborados con papel y algunos tipos de papel llegan a ser muy delicados, y con facilidad se rompen, maltratan o se humedecen. Esto provocando la pérdida de alguna cantidad del trabajo. También al no contar con un control sobre la cantidad que se tiene de trabajo de ese cliente, a la hora que el realiza un pedido, la persona encargada de las ventas tarde en darle respuesta de cuál es la cantidad que le podrá mandar de manera inmediata, pues la persona tiene que ir al almacén, buscar en todos los anaqueles a ver si se cuenta con el trabajo que el cliente solicita y posteriormente contar las unidades que se tienen, esto provoca una gran pérdida de tiempo, y posteriormente se le regresa la llamada al cliente para decirle en cuanto tiempo se le entrega el pedido. Es por ello la propuesta de aplicar herramientas de mejora continua, que le permitan un cambio a favor, minimizando los recursos y hacer de manera eficiente y eficaz, las actividades realizadas en el almacén.

Definición de mejora continua

Harrington (1991), define a la mejora continua como una metodología sistemática desarrollada para ayudar a una organización a tener avances significativos en la manera que operan sus procesos. García (2008), define a un almacén como una unidad de servicio en la estructura orgánica y funcional de una empresa comercial o industrial con objetivos bien definidos de resguardo, custodia, control y abastecimiento de materiales y productos. La mejora continua está basada en el ciclo de Deming, compuesto por cuatro fases: estudiar la situación actual, recoger los datos necesarios para proponer las sugerencias de mejora; poner en marcha las propuestas seleccionadas a modo de prueba; comprobar que si la propuesta ensayada está proporcionando los resultados esperados; implantación y estandarización de la propuesta con las modificaciones necesarias (Bond, 1999; Bushell, 1992; Deming, 1993; Terziovski y Sohal, 2000). Salazar (2015), menciona que una meta cualquier organización es la de poder efectuar una mejora continua de su capacidad y resultados, siendo este uno de sus objetivos y ello se basa en primer lugar en planificar, es decir, establecer una organización lógica del trabajo; para ello se procede a la identificación del problema, al efectuar análisis, objetivos e indicadores de control. Por su parte

Esquivel, León y Castellanos (2017), mencionan que la mejora continua comprende tanto una filosofía como un sistema destinado a mejorar día a día el quehacer en materia: de niveles de calidad, productividad, costos, niveles de satisfacción, niveles de seguridad, tiempos totales de los diversos ciclos, tiempos de respuesta y grado de fiabilidad de los procesos.

Relación de la mejora continua con el almacén

Trejos (2004), menciona que la manera de organizar y administrar el almacén depende de varios factores: el tamaño y el plano de organización de la empresa; el grado de descentralización deseado, la variedad de productos fabricados, la flexibilidad relativa de los equipos y facilidades de manufactura y de la programación de la producción. Por su parte Arrieta (2010), señala que el almacén es el espacio físico de una empresa en el que se almacenan productos terminados, materias primas o productos en proceso. La palabra almacén se define como el edifico o lugar donde se guardan o depositan mercancías o materiales y donde, en algunas ocasiones, se vende artículos al por mayor (Escudero, 2014). De la Rosa y Dovale (2008), establecen las funciones del almacén: Recepción de materiales, registro de entradas y salidas del almacén, almacenamiento de materiales, mantenimiento de materiales y del almacén y despacho de materiales. Asimismo, Albornoz (2004), agrega que el garantizar la disponibilidad de los productos en el momento en que se requieren, la utilización eficiente del espacio físico disponible, el adecuado control y manejo de los productos también son funciones de un almacén. Poirier y Reiter (1996), mencionan que la gestión de los almacenes es un elemento clave para lograr el uso óptimo de los recursos y capacidades del almacén dependiendo de las características y el volumen de los productos a almacenar. Lozano (2005), señala que una buena gestión en el almacén hará que el acondicionamiento de los productos tenga mayor facilidad en su manipulación y almacenamiento. Por su parte Brent y Travis (2008), señalan en su artículo que la gestión de almacenes controla y mantiene todos los artículos inventariados, debe establecer resguardo físico adecuado para proteger los artículos de robos y de cualquier daño por obsolescencia, caducidad y manipulación. Avila y Malagon (2012), señalan que el uso adecuado y organizado del almacén es el principio de las operaciones y por lo tanto es parte fundamental del progreso de cualquier compañía para clasificar sus materias primas e insumos de acuerdo al inventario, esto facilitara su ubicación y accesibilidad. Los beneficios de una correcta gestión de almacenes según De Haro (2012), son: Reducción de inventarios, disminución de anomalías y desperfectos, no obsolescencia de productos, aumento de la productividad, clasificación de los productos, localización exacta de los productos, rápido recuento de inventarios, gestión informatizada de albaranes y facturas, menor número de errores en la gestión de almacén y logística, gestión en tiempo real y ayuda a la toma de decisiones. Stebbing (1997), señala que la mejora continua hace a la cultura, ética y disciplina de toda sociedad que piense avanzar y participar en los avances y adelantos de la humanidad. Por su parte Yarto (2010), menciona en su trabajo que la mejora continua representa un esfuerzo por aplicar prácticas efectivas en cada área de la organización y trasciende a lo que se entrega a los clientes. Por tal motivo, se ha elegido la aplicación en este proyecto de la mejora continua dentro del almacén, ya que se desea no solo mejorar sino crear una cultura de trabajo basada en valores y sustentanda en la disciplina de las personas.

Revista Científica

161


áreas

Estudios previos

Aguilar y González (2003), desarrollaron un proyecto para mejorar la gestión de almacenes e inventarios en una empresa industrial. El impacto que tuvo este proyecto fue que se lograron reducir los costos, se aumentó el retorno sobre la inversión, se aumentaron las órdenes de compra realizadas sin reclamo. Tinoco (2013), aplicó una herramienta moderna de administración total de la calidad: Six Sigma en una empresa minera, el estudio ayudó a identificar las variables en las que la organización debe centrar sus esfuerzos para reducir el defecto definido inicialmente. Avila y Magalon (2012), realizaron un estudio de mejoramiento del área de almacén de una empresa de muebles metálicos, logrando un ahorro en la ubicación y acceso a las materias primas e insumos por la reducción de tiempos. Mamani (2015), desarrolló un trabajo de incidencia del control interno en la gestión del área de almacén de una dependencia de gobierno, la finalidad del estudio fue la de analizar y determinar la incidencia del control interno en la gestión de almacén. Los resultados fueron que la aplicación del control interno en los procesos de almacén no es eficaz ni eficiente lo cual según los resultados se califica su funcionamiento como ineficaz. Rosales (2015), elaboró un estudio que permitiera conocer las áreas de oportunidad de los procesos dentro de un almacén de bienes de consumo, logrando el objetivo planteado, se llegó a al resultado de que uno de los factores más importantes dentro de la aplicación de la mejora continua es el enfoque hacia el personal operativo. Figueroa (2017), desarrollo la implementación de las 5s para la mejora en la gestión de almacén dentro de una empresa industrial logrando aumentar las entregas a tiempo y aumentando la gestión de almacén en un 19.83%.

evaluación

Figura 1. Ejemplo de metodología empleada. Fuente: Román, Gisbert y Blaya (2010).

1. Detección de áreas de mejora. Se empleó un muestro de trabajo utilizando la fórmula propuesta por Aguilar (2005). (1)

Objetivo General

Mejorar la gestión del almacén aplicando herramientas de mejora continua en una empresa industrial.

Metodología

Donde: p = proporción aproximada del fenómeno en estudio en la población

El tipo de investigación utilizado para el estudio fue de tipo exploratorio, ya que Jiménez (1998), menciona que los resultados de estos estudios incluyen generalmente la delimitación de uno o varios problemas científicos en el área que se investiga y que requieren de estudio posterior. Por tal motivo es que se eligió este tipo, debido a que se realizaron estudios previos para poder sustentar la idea de la investigación. Así mismo, se empleó la investigación descriptiva ya que está siempre en la base de la explicativa (Jiménez, 1998). Por tal motivo se utilizó este tipo, ya que el alcance del proyecto contempla describir las características propias del problema objeto del estudio tal y como se observan en la planta de producción de la empresa.

de referencia q = proporción de la población de referencia que no presenta el fenómeno en estudio (1 -p). La suma de la p y la q siempre debe dar 1. n = tamaño de la muestra Z = valor de Z crítico, calculado en las tablas del área de la curva normal. Llamado también nivel de confianza. d = nivel de precisión absoluta. Referido a la amplitud del intervalo de confianza deseado en la determinación del valor promedio de la variable en estudio.

Se tomó como referencia los pasos sugeridos por Román, Gisbert y Blaya (2010), pero se juntaron las actividades 2 y 3 en una sola. La Figura 1, muestra los pasos que se emplearon en el proyecto.

(2)

El resultado de la formula anterior, muestra que para una confiabilidad del 90% y un margen de error del 10%, para el muestreo se llevaron a cabo 68 visitas al almacén. Para el análisis de las causas del problema, se empleó una lista de ve-

162

Revista Científica


rificación. Bichachi (s/f) menciona que una lista de verificación correctamente diseñada y utilizada de manera responsable, sirve para controlar el nivel de calidad y evita que contengan errores atribuibles a simple descuidos. La tabla1 representa la información obtenida del muestreo de trabajo y de la información encontrada en la lista de verificación.

de forma oral como escrita. El grupo de trabajo decidió las siguientes acciones (Tabla 2).

Número de defectos

Tabla 2. Acciones recomendadas por el grupo de trabajo. Tabla 1. Lista de verificación (Checklist) de las causas por las que existen problemas en el almacén. Fuente: Elaboración propia (2018).

Como puede observarse en la Tabla 1, la causa principal encontrada en el muestreo de trabajo fue el desorden, dicha causa representa el 32% del total del problema en el almacén. Por otro lado, se desarrolló el diagrama de Pareto. Zamudio y Camilo (2004), mencionan en su trabajo que esta herramienta ayuda a detectar los problemas o causas que tienen más relevancia, por tal motivo, con el fin de conocer las causas y su impacto, se utilizó dicho diagrama, la Figura 2 representa lo antes mencionado.

Puesta en marcha del plan de mejora Aplicación de las 5`s. Para la aplicación de esta metodología fue necesario la exposición de la misma a las personas involucradas. Juárez (2009) menciona en su trabajo que para la implementación de la metodología 5´s, debe existir un fuerte compromiso del subdelegado quien toma decisiones y gestiona los recursos necesarios. Para lo cual se hizo uso de un tríptico como material de apoyo, que podrá ver en la Figura 3, con la finalidad de una mayor comprensión del tema.

Figura 3. Platica de sensibilización de las 5`s. Fuente: Elaboración propia (2018).

Para la auditoría de 5`s se utilizó y adaptaron los párrafos más relevantes propuestos por Reyes (s/f). La Figura 4 muestra en ejemplo de los resultados de la auditoria 5`s. Figura 2. Representación gráfica de los factores de la problemática. Fuente: Elaboración propia (2018).

En la Figura 2, se observa el desorden, la falta de inventario y el espacio físico, son las causas que están generando el 80% de los factores que provocan la problemática en el almacén, por lo cual son a los que se tiene que poner mayor atención y aplicar las mejoras.

Acciones de mejora y programación de acciones Se utilizó la técnica grupo nominal para determinar las acciones a seguir. Huerta (2005), señala que es una estrategia para conseguir información de una manera estructurada, en la cual las ideas son generadas en un ambiente exento de tensión, donde las personas exponen sus ideas tanto

Figura 4. Ejemplo de resultado de auditoria 5`s. Fuente: Elaboración propia (2018).

Revista Científica

163


Seguimiento y evaluación del plan de mejora Se implementó la técnica 5`s con el fin en primer lugar ordenar el área de trabajo.

Figura 7. Ejemplo de comparativo de pérdida en el almacén. Fuente: Elaboración propia (2018).

Se puede observar paulatinamente la reducción de la perdida de dinero. Del mes de septiembre al mes de Diciembre redujeron 21,554.35 pesos. Figura 5. Ejemplo de implementación de las 5`s. Fuente: Elaboración propia (2018).

Asímismo, se evaluó el resultado de la implantación de las 5`s. Se encontraron mejoras significativas, sobretodo en el ahorro de tiempos al surtir un pedido. La Figura 6 muestra un ejemplo de lo antes mencionado.

Conclusión Como primer comentario, se logró el objetivo del proyecto al 100%. Se obtuvieron beneficios para la organización como son: • Redución de tiempos para el surtido de pedidos. • Control y administración de los trabajos en inventario. • Seguridad y limpieza en la planta. • Menor trabajo físico. • Disminución en el tiempo de entrega de pedidos a los clientes. • Minimización de pérdidas. La aplicación de herramientas de mejora continua y las estrategias para modificar el almacén se fueron aplicando, conforme fue la necesidad de utilización, desde enfocar, cuáles eran las causas del problema hasta herramientas que perduraran después del término del proyecto, con la finalidad de que el cambio no fuera momentáneo.

Figura 6. Ejemplo de comparativo de tiempo al surtir un pedido. Fuente: Elaboración propia (2018).

Se puede observar que antes el surtir un pedido tardaban en promedio 14 minutos con la implementación de las proyecto, ahora se tardan 5 minutos. Hubo una reducción de 9 minutos. Otro impacto positivo al implementar las 5`s fue la reducción de perdida de dinero en el almacén. La Figura 7 muestra un ejemplo de lo antes mencionado.

164

Revista Científica

Las causas principales del problema era el desorden, el cual provocaba con ello pérdidas de tiempo y trabajos, por materiales dañados dígase polveados, doblados, sucios, rotos, etc. Por otro lado la falta de inventario incitaba a la existencia de trabajos repetidos sin saber que ya contaban con ellos y los mandaban a realizar nuevamente, retrasando la entrega del pedido, el ejemplo más notorio se daba en los trabajos con folio. Para ello fue necesario hacer uso de diversas estrategias. En otro aspecto fue posible percibir un cambio positivo en el ambiente laboral y comunicación, además al mejorar en el almacén, que se encuentra en la planta media de la empresa, contagio de manera positiva a las demás áreas, para ser más organizados y mejorar.


Bibliografía + Aguilar Pomares, C. I. y González V., M. del S. (2003). Análisis y mejoramiento en la gestión de almacenes e inventarios en Fervill LTDA. Programa Administración Industrial. Facultad de Ciencias Económicas. Universidad de Cartagena. Cartagena de Indias D. T. Y C. + Aguilar Barojas, S. (2005). Fórmulas para el cálculo de la muestra en investigaciones de salud. Salud en Tabasco, vol. 11, núm. 1-2, pp. 333-338. Secretaría de Salud del Estado de Tabasco. Villahermosa, México. + Albornoz M., R. C. (2004). Análisis, re-diseño e implantación de un sistema de gestión de inventarios y almacenes de materiales, suministros y repuestos. Coordinación de ingeniería de producción. Universidad Simón Bolívar. + Arrieta, J. (2010). Aspectos a considerar para una buena gestión en los almacenes de las empresas (Centros de Distribución, CEDIS). + Avila Suarez, G. y Malagon, W. (2012). Proyecto de mejoramiento del área de almacén en una fábrica de muebles metálicos. Corporación Universitaria Minuto de Dios. Centro Regional Soacha. Tecnología en Logística. Soacha. + Bichachi, D. S. (s/f). El uso de las Listas de Chequeo (CheskList) como herramienta para controlar la calidad de la ley. Instituto Internacional de Estudio y Formación sobre Gobierno y Sociedad (IIEFGS). Universidad

del Salvador. + Brent, Williams y Travis, Tokar (2008). A review of inventory management research in major logistics journals. Themes and future directions. International Journal of Production Economics. Volumen 19. Estados Unidos. + Bond, T. C. (1999). The role of performance measurement in continuous improvement. International Journal of Operations & Production Management, v. 19, n. 12, p. 1318. + Bushell, S. (1992). Implementing plan, do, check and act. The Journal for Quality and Participation, v. 15, n. 5, p. 58-62. + Camisón, C.; Cruz, S. y González, T. (2006). Gestión de la calidad: conceptos, enfoques, modelos y sistemas. España. Editorial Pearson Educación S.A. + De Haro Martínez, V. M. (2012). Estudio e implementación de un sistema de gestión de almacén y logística en una PYME Española. Universidad Politécnica de Cartagena. + De la Rosa Mercado, A. C. y Dovale Castaño, P. (2008). Optimización de los procesos de almacenamiento: diseño de un sistema de gestión y control de inventarios para la empresa ECA LTDA. Universidad de Cartagena. Facultad de Ciencias Económicas. Programa de Administración Industrial. Cartagena D.T Y C. + Deming, W. E. (1993). The New Economics: For Industry, Government, Education. Cambridge: MIT Center for Advanced Engineering Study. + Escudero Serrano, M. J. (2014). Logís-

tica de Almacenamiento. Ediciones Paraninfo S.A. España. + Esquivel Valverde, A. F.; León Robaina, R. y Castellanos Pallerols, G. M. (2017). Mejora continua de los procesos de gestión del conocimiento en instituciones de educación superior ecuatorianas. Retos de la Dirección. + Figueroa Tribeños, L. Z. (2017). Implementación de las 5s para la mejora en la gestión de almacén en Balu General Imports S.A.C., Ate Vitarte, 2016. Escuela Académico Profesional de Ingeniería Industrial. Facultad de Ingeniería. Universidad Cesar Vallejo. Lima, Perú. + García C. (2008). Almacenes, Planeación, Organización y Control, México. + Grütter, A. W.; Field, J. M. y Faull, N. H. B. (2002). Work team performance over time: three case studies of South African manufacturers. Journal of Operations Management, v. 20, n. 5, p. 641-657. + Jiménez Paneque, R. (1998). Metodología de la investigación. Elementos básicos para la investigación clínica. Editorial Ciencias Médicas. La Habana. Cuba. + Harrington, H. J., (1991). Business Process Improvement; The breakthrough strategy for Total Quality, Productivity and Competitiveness. Mc Graw-Hill, New York, N.Y. + Huerta, J. M. (2005). Grupo Nominal. Recinto Universitario de Mayagüez. + Juárez Gómez, K. V. (2009). Propuesta para implementar metodología 5s´s en el departamento de cobros de la subdelegación

Revista Científica

165


Veracruz Norte IMSS. Maestría en Gestión de la Calidad. Sede: Facultad de Estadística e Informática, Xalapa. Universidad Veracruzana. Xalapa. Veracruz. + Lozano Rojo, J. R. (2005). como reducir los costos logísticos. Madrid: fundación comfemetal. + Mamani Mamani, D. L. (2015). Incidencia del control interno en la gestión del área de almacén en la Municipalidad Provincial de Puno, 2012-201. Escuela Profesional de Ciencias Contables. Facultad de Ciencias Contables y Administrativas. Escuela Profesional de Ciencias Contables. Puno. Perú. + Poirier, C. y Reiter, S. (1996). Supply Chain Optimization: Building the strongest total business. San Francisco, CA: BerrettKoheler. + Reyes, P. (s/f). Control de las 5`s. Servicios de consultoría.

+ Terziovski, M. y Sohal, A. S. (2000). The adoption of continuous improvement and innovation strategies in Australian manufacturing firms. Technovation, v. 20, n. 10, p. 539-550. + Tinoco Ángeles, F. E. (2013). Six sigma en logística: aplicación en el almacén de una unidad minera. Industrial Data, vol. 16, núm. 2, julio-diciembre, pp. 67-74. Universidad Nacional Mayor de San Marcos Lima, Perú. + Trejos Noreña, A. (2004). Gestión Logística. Stocks, Almacenes y Bodega. Bogotá: Editorial Seminarios Andinos Publicaciones.

+ Román Sánchez, A. I.; Gisbert López, M. C. y Blaya Salvador, I. (2010). Implantación de un proceso de mejora continua (PDCA) en la enseñanza universitaria. El caso de la titulación de ciencias actuariales y financieras en la UMH. Facultad de Ciencias Sociales y Jurídicas. Universidad Miguel Hernández de Elche. Alicante. España.

+ Yarto Chávez, M. A. (2010). Modelo de mejora continua en la productividad de empresas de cartón corrugado del área metropolitana de la Ciudad de México. Escuela Superior de Comercio y Administración. Unidad de Santo Tomas. Sección de Estudios de Posgrado e Investigación. Instituto Politécnico Nacional.

+ Rosales Espejel, E. A. (2015). Mejora continua de procesos: instrumentación y aplicación en un almacén de logística. Facultad de Ingeniería. Universidad Nacional Autónoma de México. Distrito Federal. México.

+ Zamudio Piñeros, L. C. y Camilo Hernández, J. (2004). Aplicación de herramientas estadísticas para mejorar la calidad del proceso de mezcla de empaques de caucho para tubería en la empresa Eterna S.A. Carrera de Ingeniería Industrial. Facultad de Ingeniería. Pontificia Universidad Javeriana. Bogotá, D.C.

+ Salazar Posada, A. M. (2015). Desarrollo de un plan de mejoramiento para almacén “X-Treme Shop” de la Ciudad de Cali. Trabajo de Grado Emprendimiento Real. Facultad de Ciencias Económicas. Universidad de San Buenaventura Cali. Santiago de Cali. + Stebbing, L. (1997). Aseguramiento de la Calidad. Editorial CECSA, México.

166

+ Suárez MR, J. (2008). Aplicación y Evolución de la Mejora Continua de Procesos en la Administración Pública. Revista Georgetown University. ISSN: 1988-7116.

Revista Científica


Revista CientĂ­fica

167


J. Rubén Morones Ibarra1

1

Facultad de Ciencias Físico-Matemáticas, Universidad Autónoma de Nuevo León.

rubenmorones@yahoo.com.mx

Resumen: La teoría del Big Bang establece como hipótesis fundamental que el Universo surgió como consecuencia de la explosión de una singularidad, lo que se identifica con un punto de enorme densidad de materia y energía a temperatura muy elevada, hace trece mil ochocientos millones de años. La teoría del Big Bang está soportada por una serie de observaciones astronómicas y cosmológicas como la expansión del universo, la radiación cósmica de fondo de micro-ondas, la nucleo-síntesis y otras más. Como consecuencia de la expansión del universo ocurre también el proceso de enfriamiento del mismo, un fenómeno que ha estado ocurriendo desde el Big Bang. Tomando como origen del tiempo el Big Bang, en este artículo se calcula el radio del Universo como función del tiempo para los tres modelos de universo obtenidos de la ecuación de Friedmann. También se calcula la temperatura del Universo como función del tiempo.

+

Palabras clave: Enfriamiento del universo; expansión del universo; radiación cósmica de fondo.

Recibido: Noviembre 2, 2016. Recibido en forma revisada: Junio 20, 2018. Aceptado: Julio 3, 2018.

168

Revista Científica

Abstract: The Big Bang theory states as a fundamental hypothesis that the Universe began from a singularity 13.8 billions of years ago. The whole Universe occupied a very small region of enormous density and


temperature. This theory has a strong support of experimental evidence like the expansion of the Universe, the Cosmic Microwave Background radiation, the nucleo-synthesis and others. As a consequence of the expansion of the Universe a cooling process has been taken place since the Big Bang. Taking the Big Bang as the origen of time, in this paper it is calculated the radius of the universe as a function of time for the three Universe models obtained from the Friedmann equations. Also the temperature of the Universe as a function of time is calculated.

+ Keywords: Universe cooling; the expansion of the universe; cosmic microwave background radiation. Introducción La curiosidad del hombre ha impulsado en él el deseo de conocerlo todo, de tratar de entender y explicar lo que ocurre a nuestro alrededor, así como a la búsqueda de respuestas para todas sus preguntas. Entre las cosas que el ser humano desea entender o explicar está nuestro propio origen y el del Universo mismo así como también el futuro de este. La antigua pregunta de cómo se originó el universo tuvo inicialmente muchas respuestas. Todas ellas ancladas en la filosofía, la teología o la metafísica. La característica de todas estas respuestas es que se apoyan en la especulación, es decir, sin soporte de ninguna especie. La ciencia como tal no se manifestó sobre este asunto ya que no había elementos para dar una respuesta científica. Como se sabe, las ciencias naturales se apoyan en el método científico, en hechos experimentales u observaciones para después establecer sus hipótesis o teorías que expliquen lo que se observa. El método científico requiere para su aplicación, primeramente, que se observe un fenómeno y que pueda reproducirse u observarse repetidamente. En el caso del origen del Universo no existía una observación que permitiera emitir una hipótesis sobre su origen. Esta situación cambió a finales de la década de 1920 cuando tuvo lugar una de las más importantes observaciones en la historia de la astronomía: la expansión del Universo. En el año de 1929 el astrónomo norteamericano Edwin Hubble observó desde el telescopio de Mount Wilson, cerca de Los Angeles California, el telescopio más grande del mundo en ese entonces, que las galaxias más lejanas que podía observar, se alejaban de nosotros, a grandes velocidades. Apoyado en la hipótesis de la astronomía de que nosotros no estamos en ningún lugar privilegiado del Universo, Hubble concluyó que debe observarse lo mismo desde cualquier otro punto del mismo. La generalización de la hipótesis Copernicana de que la Tierra no es el centro del sistema solar, es el Principio Cosmológico que establece que el Universo a gran escala es homogéneo e isótropo. Basados en este Principio se puede asegurar que el Universo como un todo se está expandiendo. Partiendo de estas observaciones podemos extrapolar e ir hacia atrás en el tiempo para llegar a la conclusión de que en sus orígenes el Universo ocupaba una región muy pequeña del espacio en un estado de gran densidad y temperatura. Estaríamos hablando de Un Huevo Cósmico como lo llamó el sacerdote belga Georges Lemaitre en el año de 1927, antes del descubrimiento de Hubble. Este huevo cósmico explotó dando origen al Universo presente. Es así como nace la teoría del Big Bang dando lugar al nacimiento también de la cosmología como una teoría científica.

Después de permanecer durante miles de años la creencia de que el Universo era estático y los cielos inmutables, el desarrollo de grandes telescopios desencadenó una serie de descubrimientos que mostraban que el universo se está expandiendo y que en el cielo ocurren violentísimos procesos donde nacen y mueren estrellas. En el año de 1915 Einstein publica su Teoría General de la Relatividad. Esta teoría es considerada como uno de los logros científicos más notables de todos los tiempos. Es una teoría de la gravitación con una importante diferencia respecto a la teoría de Newton. La diferencia fundamental entre ambas teorías está en que la explicación de Newton de la gravitación está basada en una fuerza. Mientras que en la teoría de Einstein no existe el concepto de fuerza y este se sustituye por el concepto de curvatura del espacio tiempo. En el año de 1917 Einstein encuentra que las ecuaciones de su teoría general de la relatividad conducen a un Universo que se contrae debido a la acción de la gravedad. Puesto que Einstein pensaba, como todos en su época, que el Universo es estático “buscó estabilizar al universo”. Para lograr esto introduce en la teoría una constante a la que llamó Constante Cosmológica. Para ser congruente con su creencia, introdujo esta constante que es una especie de anti-gravedad o una fuerza repulsiva. Con ella se evitaba el colapso del Universo. Años después, cuando Einstein se entera del descubrimiento de Hubble, con lo que prueba que el Universo es dinámico, afirmó que la introducción de la constante cosmológica fue el más grande de sus errores. Desechó entonces la constante cosmológica de sus ecuaciones. Sin embargo, observaciones más modernas indican que el Universo se está expandiendo aceleradamente. Esto ha traído de nuevo a la cosmología la constante cosmológica de Einstein asociándola a la energía oscura lo que involucra una fuerza repulsiva que acelera la expansión del Universo. Actualmente la constante cosmológica resulta ser un parámetro conveniente que se incluye en las ecuaciones de Einstein y que permite ajustar los cálculos a las observaciones. Debido a la expansión del Universo, encontramos que al observar la radiación (luz) que nos llega de los lugares más alejados del Universo, lo que estamos viendo es el pasado del universo. Luz que ha viajado por miles de millones de años por el espacio para llegar a nosotros es la luz más antigua que existe en el universo. Esta luz contiene información sobre la época del Universo cuando este se volvió transparente. Esta radiación permea todo el espacio y se conoce como Radiación Cósmica de Fondo. Debido a la expansión, la energía de esta radiación ha ido disminuyendo. Uno de los logros más impresionantes de la astronomía y la cosmología ha sido el descubrimiento de esta radiación que invade todo el universo y cuya temperatura, calculada usando el modelo matemático del Big Bang, corresponde a las observaciones. Este resultado experimental y otros más han fortalecido la hipótesis del Big Bang. La radiación de fondo del Universo es lo más antiguo que podemos observar en el Universo. No podemos ir más atrás en el tiempo que lo más alejado que podemos observar, que es la radiación que nos llega de las regiones más distantes de nosotros. En este artículo nos ocuparemos de dos problemas de la cosmología: la expansión del Universo y el fenómeno de su enfriamiento.

Revista Científica

169


La Cosmología La cosmología surgió como una rama de la astronomía después de las observaciones de Hubble. Su objeto de estudio es el del Universo como un todo, teniendo como principales objetivos determinar su origen, estructura y evolución. Con la información que se tiene actualmente, la cosmología moderna posee elementos científicos suficientes para responder a las preguntas sobre ¿cómo se originó el Universo?, ¿Cuándo se originó? Es decir qué edad tiene el Universo. ¿Cuál ha sido la evolución del universo? Todas estas preguntas tienen sentido debido a que el Universo resulta ser un sistema dinámico, esto es, que cambia con el tiempo y es posible estudiar su evolución. En un Universo en expansión se pueden hacer las preguntas mencionadas. Empero, en un Universo estático como se pensaba que este era antes de las observaciones de Hubble, estas preguntas no se pueden responder. El Universo es la totalidad del espacio físico y todo lo que en él se encuentra. El estudio del Universo está basado fundamentalmente en observaciones astronómicas, las cuales, con el apoyo de las leyes de la física permiten establecer hipótesis y teorías sobre las características del Universo. La teoría del Big Bang es la teoría actualmente aceptada como origen del Universo. El hecho de que no podamos hacer experimentos a niveles cosmológicos o interactuar con el Universo como un todo estableciendo condiciones controladas, imponen fuertes restricciones sobre lo que podemos obtener de información en cosmología. Estas restricciones conducen al planteamiento de la hipótesis llamada Principio Cosmológico que se establece más adelante.

Origen del Universo De acuerdo con la teoría del Big Bang, el universo inició de la expansión de un estado de enorme densidad de energía y una temperatura del orden de 1019 GeV. A partir de entonces el Universo ha continuado expendiéndose y enfriándose permanentemente. Durante los primeros instantes del Universo todo era radiación electromagnética. La materia se fue formando a partir de la radiación mediante la creación de pares de partícula -antipartícula. Debido a la enorme densidad el Universo temprano era totalmente oscuro ya que la radiación no podía propagarse ni siquiera distancias pequeñas como un milímetro. La creación de pares de partículas es una especie de fenómeno de absorción de la radiación que impide que esta se propague. A medida que el Universo se fue expandiendo la densidad de energía fue disminuyendo. Llegó un momento en la evolución del Universo en el que este se volvió transparente y la luz pudo viajar grandes distancias sin que fuera absorbida por la materia. Esta radiación vestigial ha viajado por el universo desde ese entonces. Actualmente se ha podido calcular su temperatura y su existencia ha sido observada experimentalmente. El modelo del Big Bang se ha convertido en una teoría matemática bien establecida, que permite determinar la edad que tenía el universo cuando este se volvió transparente, así como también determinar la temperatura actual de la radiación vestigial, que es actualmente llamada Radiación

170

Revista Científica

Cósmica de Fondo del Universo (RCFU). Debido a que las predicciones del modelo concuerdan asombrosamente con las observaciones la teoría del Big Bang se considera firmemente establecida como la explicación del origen del Universo. Entre las observaciones que sustentan la teoría del Big Bang están la de la expansión actual del Universo y la de la confirmación de la existencia y del valor de la temperatura de la radiación de fondo de micro-ondas. Resumiendo estas ideas establecemos que el modelo cosmológico estándar conocido como el modelo del Big Bang, está apoyado en tres observaciones fundamentales:

1 La observación de la expansión del Universo que realizó Edwin Hubble en el año de 1929.

2 El descubrimiento, en el año de 1965, de la radiación de fondo

del Universo, llamada radiación cósmica de fondo de micro-ondas en completa concordancia con las características predichas por la teoría del Big Bang.

3 La determinación de la abundancia cósmica relativa de los elementos químicos ligeros, como el hidrógeno, el helio y el litio, calculada mediante la teoría del Big Bang. Esto se conoce como nucleo-síntesis del Big Bang y su predicción corresponde a las observaciones.

Con estos hechos experimentales podemos decir que el modelo cosmológico del Big Bang ha quedado bien establecido en la ciencia moderna, alcanzando la categoría de teoría.

Teoría general de la relatividad Las inquietudes de Einstein para desarrollar la Teoría General de la Relatividad (TGR) fueron fundamentalmente de naturaleza filosófica. La Teoría Especial de la Relatividad (TER) que él mismo desarrolló y que también se conoce como Teoría Restringida de la Relatividad, tiene como su nombre lo indica, ciertas restricciones. Einstein buscaba eliminar estas restricciones lo cual lo condujo a explorar una generalización de esta teoría. Esta es la razón por la cual a la teoría desarrollada en el año de 1915 le llamó Teoría General de la Relatividad (TGR) en contraposición con la primera teoría de la relatividad publicada en 1905 a la que llamó Teoría Especial de la Relatividad (TER). La (TER) es una teoría que establece cómo deben relacionarse las observaciones realizadas en dos marcos de referencia inerciales, Estos marcos de referencia son aquellos donde tiene validez la segunda ley de Newton. El movimiento relativo entre dos marcos de referencia inerciales debe ser con velocidad constante. La primera pregunta que se hizo Einstein es ¿por qué su teoría debería limitarse a marcos de referencia inerciales? Su idea era que debería ser posible una generalización de su TER a marcos de referencia acelerados. Buscando esta generalización encontró que era necesario involucrar en la teoría a la gravitación. Según lo establece Einstein en sus memorias la idea más feliz de su


vida se le ocurrió cuando trabajaba en la oficina de patentes en Berna, Suiza. Esta idea apareció como una pregunta. ¿Qué pasa con mi peso si estoy dentro de un elevador y este se desploma cayendo libremente?. Su respuesta fue que no siente su peso, es decir una báscula sobre la cual estuviera parado indicaría cero peso. Tratando de explicar esto desarrolló la teoría general de la relatividad que es una teoría de la gravitación [1]. La idea fundamental de Einstein para desarrollar la TGR fue que la descripción del movimiento de cualquier cuerpo en un campo gravitacional homogéneo (o, en el caso más general, un análisis local del movimiento en cualquier campo gravitacional) puede realizarse de manera equivalente utilizando un marco de referencia acelerado donde no existe campo gravitacional. En otros términos, un campo gravitacional uniforme puede sustituirse por un marco de referencia acelerado. Con este resultado se llega a la conclusión de que el efecto de un campo gravitacional se puede sustituir completamente por la estructura geométrica del espacio [2]. Es aquí donde se observa que el concepto de fuerza gravitacional puede reemplazarse por las propiedades geométricas del espacio, en este caso, por la curvatura del espacio. La teoría resultó ser de una gran complejidad matemática pues para establecerla requería el uso de geometrías no-euclidianas y recursos matemáticos no conocidos por los físicos en ese tiempo. La interacción gravitacional la explicó Einstein en su teoría en términos geométricos, estableciendo que el espacio-tiempo es curvo. Como ya se dijo, el concepto de fuerza no aparece en su teoría.

Figura 1. Representación esquemática de cómo la presencia de un cuerpo con masa deforma el espacio.

Geometría Euclidiana La geometría que aprendemos en la escuela elemental es la geometría Euclidiana o de espacio plano. Existen otras geometrías que llevan el nombre general de geometrías geometrías no-Euclidianas. También son llamadas geometrías de espacios curvos o geometrías de Riemann. Una geometría describe las propiedades del espacio. Cualquier espacio geométrico queda determinado por la forma de medir distancias en ese espacio. La regla de medir distancias se da mediante la métrica. En la geometría Euclidiana la métrica está dada por:

Esto no es otra cosa que el teorema de Pitágoras en tres dimensiones. Podríamos generalizar la definición de geometría Euclidiana a cual-

quier número de dimensiones. Para un espacio Euclidiano de N dimensiones, escribimos:

donde las coordenadas las hemos designado como x1 x2,…,xN En forma compacta la expresión anterior la escribimos como:

Definiendo la cantidad δij como uno si i=j y como cero si i≠j. Enfatizamos que en general, la geometría de un espacio queda determinada por la métrica ds2.

El espacio de Minkowski En las teorías compatibles con la TER, las teorías se formulan de tal manera que sean invariantes ante las transformaciones de Lorentz. La mecánica y el electromagnetismo son construidas de tal manera que sus ecuaciones satisfagan el principio de relatividad especial de Einstein. En esta teoría todos los sistemas inerciales son equivalentes y las transformaciones de Lorentz conectan las observaciones realizadas en cualquier par de sistemas inerciales. El espacio donde se formula la TER es el espacio-tiempo de cuatro dimensiones llamado espacio de Minkowski. El espacio de Minkowski es un ejemplo de geometría no euclidiana. Es un espacio de cuatro dimensiones, con el tiempo como cuarta dimensión. En la teorìa de la relatividad la velocidad de la luz, usualmente denominada con la letra c , es constante y puede utilizarse como factor para que las cuatro coordenadas (x,y,z,t) tengan las dimensiones de longitud si la cuarta coordenada la tomamos como ct. Un punto en el espacio de Minkowski queda determinado por la tétrada (x,y,z,ct). La regla para medir distancias en el espacio de la TER está dada por la métrica de Minkowski definida como:

Como es evidente de la forma de esta métrica, ésta no corresponde a un espacio Euclidiano.

Geometría de espacios curvos En la teoría de la gravitación de Einstein, que es la TGR, el espacio el tiempo y la materia están estrechamente conectados, el uno no existe sin el otro. El tiempo, por ejemplo, depende de las coordenadas espaciales. El espacio donde se formula la TGR es un espacio curvo de cuatro dimensiones. Para simplificar la notación tomaremos la velocidad de la luz c=1. La geometría que describe el espacio-tiempo de la TGR es la geome-

Revista Científica

171


4

4

ds 2 = ∑∑ gµν dx µ dxν

µ =1 ν =1 tría Riemanniana, cuya métrica está dada siendo ds2 el cuadrado de la distancia entre dos puntos con coordenadas en el espacio-tiempo dadas por: (x,y,z,t) y (x+dx,y+dy,z+dz,t+dt). Aquí se ha usado xμ con μ=1,2,3 y 4 para x,y,z y t respectivamente. Las cantidades gμv se conocen como las componentes del tensor métrico y dependen de cómo está distribuida la materia y la energía en el espacio. De la forma de esta métrica se aprecia inmediatamente la interrelación espacio-tiempo-materia [3].

Notemos que la palabra observador se aplica a cualquier ser, no necesariamente humano, capaz de hacer mediciones. Si no se cumple el Principio Cosmológico (PC) estamos aceptando que existen irregularidades en la estructura del universo que hagan que este no sea motivo de estudio como un todo, pues observadores distintos tendrían diferentes descripciones del mismo. Esto contradice la hipótesis de unicidad del Universo y de su cognoscibilidad. En síntesis, sin el Principio Cosmológico, no podemos suponer que es posible conocer el universo ya que siendo este único, observadores diferentes darían diferentes descripciones. Apoyándonos en la TGR y la simetría que exigimos para estudiar el Universo (el Principio Cosmológico), la métrica más general compatible con este modelo está dada por [2]:

El principio fundamental de la TGR es el Principio de Equivalencia, el cual puede enunciarse de la siguiente manera: Una partícula que está sujeta solamente a una fuerza gravitacional, se mueve describiendo una trayectoria geodésica del espacio-tiempo determinado por el campo. Puesto que las líneas geodésicas son curvas características de la geometría del espacio, encontramos que la descripción del movimiento de una partícula en un campo gravitacional resulta ser un problema de la geometría del espacio-tiempo.

donde R(t) esta asociado con el radio del universo. Esta métrica recibe el nombre de Friedmann-Robertson-Walker. En la ecuación anterior se han usado coordenadas esféricas para la parte espacial.

Las geodésicas de un espacio quedan determinadas por el elemento de longitud o métrica de este espacio. La información de las características del campo gravitacional las determina la distribución de materia y energía gravitacional, quedando esta información contenida en las componentes del tensor métrico gμv Estas cantidades resultan ser funciones de la distribución de materia y energía en el espacio-tiempo.

Es costumbre escribir, en lugar de R2(t) una expresión como R2(t)= R0a(t) para el cuadrado del radio del Universo, donde R0 es una constante y a(t) es un factor de expansión que aumenta de valor con el tiempo. En lo que sigue, para evitar complicaciones innecesarias, tomaremos R(t) como el radio del Universo al tiempo t. Siendo la función R(t) proporcional al radio del Universo.

Para estudiar la evolución del Universo es necesario establecer ciertas hipótesis sobre su estructura. La hipótesis fundamental como base para estudiar al Universo como un todo es el Principio Cosmológico.

Principio Cosmológico La hipótesis fundamental para estudiar el universo es el Principio Cosmológico. Este Principio establece que a gran escala, es decir, a escalas mayores que la del más grande de los cúmulos de galaxias que exista, el universo es homogéneo e isótropo. Otra manera de decirlo es la siguiente: a gran escala, la distribución de materia y radiación en el Universo es la misma en todas partes y en todas direcciones. De esto se desprende que cualesquier dos observadores en el universo son equivalentes, ambos obtendrían las mismas conclusiones físicas del estudio del Universo y de sus observaciones. Sin este Principio no podemos obtener resultados confiables sobre el estudio del Universo. Interpretamos esto considerando que la “muestra” del Universo que nosotros observamos es una muestra fidedigna y es equivalente a cualquier otra muestra que considere cualquier otro observador dondequiera que se encuentre en el Universo.

La expansión del Universo La dinámica del Universo, es decir, su expansión, está gobernada por las ecuaciones de Friedmann. Estas ecuaciones son obtenidas a partir de la TGR y las hipótesis de homogeneidad e isotropía del espacio cósmico. Este es el tratamiento adecuado para estudiar la expansión del universo. Sin embargo, es posible obtener resultados interesantes partiendo de consideraciones no relativistas (Teoría de Newton de la Gravitación). Aplicaremos aquí esta simplificación para obtener una de las Ecuaciones de Friedmann. Las ecuaciones de Friedmann son las que rigen la expansión del Universo de acuerdo con la TGR y con la imposición del PC. En la sección Correcciones relativistas a la ecuación de Friedmann de este artículo se establecerá cual es la diferencia entre el cálculo realizado aquí y el obtenido usando la TGR. Para realizar los cálculos que siguen partiremos de un modelo de Universo esférico con una densidad de masa homogénea ρ. Tomemos un cascarón esférico de espesor dr, con un radio r a partir de algún centro, y el cual contiene una masa dm. Ver la Figura 2.

El Principio Cosmológico se establece a partir de tres hipótesis fundamentales:

1. El Universo es cognoscible, es decir, podemos entender al Universo. 2. El Universo es único, es decir, no hay otro y este que nosotros observamos es el mismo que observa cualquier otro observador. 3. Las leyes de la física son las mismas para todos los observadores.

172

Revista Científica

Figura 2. Cascarón esférico de radio r y espesor dr con una masa dm.


Partiendo de la hipótesis de homogeneidad e isotropía del Universo a gran escala, encontramos que la energía cinética dEk de este cascarón de masa dm , estará dada por dEk= ½ (dm)v2.

Sustituyendo (3) en (2) obtenemos:

La energía total dE del cascarón consiste en dos partes, la energía cinética, y su energía potencial dEp. Por lo tanto dE=dEk+dEp. Dado que la única fuerza que actúa sobre el cascarón es del tipo gravitacional y esta fuerza es conservativa, tenemos que su energía total es constante: dE=dEk+dEp=cte Donde: dEp= - G

Mdm r

Siendo G la constante gravitacional y M la masa total dentro del cascarón, encerrada por una esfera de radio r. Esta masa puede corresponder a la masa total del Universo si el cascarón se toma en los confines de este. Por lo tanto: Esta ecuación se conoce como Ecuación de Friedmann. De aquí se obtiene que:

La energía por unidad de masa se obtiene dividiendo (1) por dm, con lo cual se obtiene que: Definimos la cantidad:

Por conveniencia definimos la constante como cte = -½ kc2 siendo c la velocidad de la luz. La constante k determinará el signo de la energía total del Universo lo que definirá si tenemos un universo abierto o cerrado.

con lo que la Ecuación de Friedmann toma la forma:

Con esto obtenemos:

Por otra parte, la densidad de masa ρ se escribe como:

De la teoría de la relatividad general es posible probar que solo hay tres soluciones que satisfacen el Principio Cosmológico, es decir, que son físicamente aceptables en nuestro modelo. Estas soluciones están determinadas por los valores de la constante k. Se puede probar que es suficiente considerar solo los valores valores k=0,1 y -1 para incluir todas las posibilidades compatibles con el Principio Cosmológico [2]. Consideremos separadamente cada uno de estos casos.

Geometrías del Universo obtenidas a partir de la hipótesis del principio cosmológico Primer Caso: k = 0 De la Ecuación (4):

Revista Científica

173


Tomando la derivada obtenemos: Si para r = 0, tomamos t = 0

Este resultado corresponde a un Universo plano abierto como lo podemos ver del análisis del comportamiento de r(t) para cuando t→∞.

usando la identidad:

Si t→∞; r→∞. Para obtener el valor del tiempo al cual se detendrá la expansión, tomamos la variación del radio del Universo respecto al tiempo:

De aquí obtenemos los resultados:

La expansiòn se detendra cuando ṙ(t)=0, lo cual ocurre para t→∞ . Esto significa que la expansión nunca se detendrá.

Estas son las ecuaciones paramétricas de la cicloide.

Segundo caso: k = +1 Esta situación conduce a que el Universo es un espacio finito, cerrado, pero ilimitado y con curvatura positiva. Para simplificar los cálculos tomemos c = 1, lo cual no afectará los resultados.

El resultado anterior corresponde a un Universo cerrado y cíclico con curvatura positiva. El Universo en este caso es finito pero ilimitado. Esto lo podemos entender pensando en la geometría de una esfera, la cual tiene un volumen finito pero nos podemos mover sobre ella sin encontrar ningún límite. El radio de este Universo oscila entre los valores mínimo (r=0) y un valor máximo. Al llegar a su valor máximo se detiene la expansión y empieza un período de contracción. Tenemos un universo oscilante de volumen variable, eterno en el tiempo pero siempre finito en su volumen.

Resolviendo la Ecuación (4):

Tercer caso: k = -1 Obtendremos un Universo abierto, infinito, que corresponde a un modelo hiperbólico. Resolviendo nuevamente la Ecuación (4):

Introduciendo el cambio de variable:

174

Revista Científica


Introduciendo el cambio de variable:

Si t→∞; r→∞.

Este resultado corresponde a un Universo abierto, infinito, hiperbólico de curvatura negativa.

Como observamos de esta ultima ecuación, la velocidad de expansión del Universo nunca es cero y tiende a uno para un tiempo infinito. Esto es debido a que para cuando θ→∞ entonces t→∞.

Realizando esta substitución se obtiene que:

Los resultados que hemos obtenido aquí corresponden a tres tipos de universos en expansión. Los casos con k=0,-1, corresponden a modelos de universos abiertos que se expanden continuamente. Para el caso K=1 tenemos un Universo cíclico u oscilante. Cerrado en el espacio y si lo queremos ver así, también cerrado en el tiempo. El tiempo oscilaría entre t=0 correspondiente a máxima contracción (r=0), y un valor máximo del tiempo correspondiente al valor máximo del radio del Universo. Estos tres modelos se conocen como Modelos de Friedmann del Universo [10].

El Destino del Universo Las observaciones de Hubble sobre la expansión del Universo establecieron los fundamentos para estudiar el Universo como un sistema dinámico. Se puede probar actualmente que el destino del Universo depende de la densidad de materia y energía de este. En los cálculos que hemos realizado aquí no se incluyen las observaciones modernas sobre la existencia de materia oscura y energía oscura [7, 8]. La inclusión de estas nuevas formas de materia y energía llevan a un estado de muerte del Universo. Si θ→∞, obtenemos:

¿Qué significa que el Universo muera? La muerte del Universo significa que en él terminarán todos los procesos que involucran cambios. Un proceso químico, biológico o físico está relacionado con un cambio, en el que existe un estado inicial y un estado final, los cuales son diferentes. Este concepto implica también la existencia del tiempo. Al decir que tenemos un estado inicial ya estamos hablando del tiempo, al compararlo con

Revista Científica

175


un estado final. La historia del Universo es la historia del tiempo, donde éste inició con el Big Bang. Las observaciones actuales donde la materia y energía oscuras están presentes, conducen a una expansión eterna del Universo. Esta expansión implica un enfriamiento permanente y la terminación de todos los procesos en el Universo, fenómeno al que se le ha llamado Muerte Térmica del Universo. La muerte del Universo significa también la muerte del tiempo. Así como el origen del Universo es el principio del tiempo, el fin del Universo es también el fin del tiempo. La materia oscura y la energía oscura son conceptos que se han introducido recientemente para explicar la expansión acelerada del Universo, la cual fue primeramente observada en la década de 1990. Estas observaciones cambiarían las hipótesis sobre el destino final del Universo, pero no lo que se tiene establecido hasta ahora sobre su evolución hasta el momento actual, la cual ha sido firmemente confirmado por las observaciones. En la última sección de este artículo se hacen algunos comentarios sobre este asunto.

Enfriamiento del Universo Debido al fenómeno de expansión, ocurre que el Universo se ha estado enfriando desde su inicio. Analizaremos este fenómeno en general y después nos concentraremos especialmente en lo que le ocurre a la radiación electromagnética total del Universo.

Notemos que solamente hemos agregado en la Ecuación de Friedmann para la densidad de energía, el término correspondiente a la densidad de energía de la radiación. La densidad de energía del Universo asociada con la masa es:

En esta parte de los cálculos nos interesará solamente la densidad de energía de la radiación.

El corrimiento hacia el rojo Para obtener como cambia la longitud de onda de la radiación con la expansión del Universo, obtendremos primeramente que para la propagación de la luz [11] ds2=0.

En la métrica del espacio de Minkowski podemos ver esto directamente:

Partimos de la ecuación de Friedmann dada por:

En este caso es más conveniente usar la densidad de energía en lugar de la densidad de masa usando la ecuación de Einstein:

De esta última ecuación observamos que para dos puntos conectados por un rayo de luz:

y por lo tanto obtenemos que La energía del Universo tiene dos componentes, la energía de la radiación electromagnética y la energía asociada a la materia. Podemos entonces expresar esto como: Para obtener el corrimiento hacia el rojo, que es el resultado que nos interesa es conveniente usar coordenadas esféricas. Tenemos entonces para el elemento de longitud [9],

Sustituyendo esto en la Ecuación de Friedmann, obtenemos:

176

Revista Científica


Para el espacio curvo la métrica más general compatible con el principio cosmológico es la métrica de Friedmann-Robertson-Walker, la cual está dada por [5]:

Donde las coordenadas de un punto arbitrario del espacio-tiempo las escribiremos como (t,r,θ,ϕ). . Consideremos una onda electromagnética que se genera en el punto r1,θ1,φ1 al tiempo t1. Este punto lo escribimos como (t1,r1,θ1,φ1). Tomemos este punto sobre la cresta de la onda de luz [6]. Si este punto de la onda de luz nos llega a nosotros al tiempo t0, y la onda se dirige radialmente hacia nosotros que permanecemos en el origen, entonces, dado que el elemento de longitud ds=0 ya que corresponde a la propagación de la luz en el espacio-tiempo, tenemos que:

Al sustituir esta expresión en la Ecuación (9) se obtiene:

Esta expresión se puede escribir como:

La cual se puede escribir como

Sustituyendo la Ecuación (10) en esta expresión obtenemos:

En este desarrollo hemos hecho la identificación dt=δt Integrando en ambos miembros de la ecuación: Para mostrar explícitamente el corrimiento hacia el rojo de las ondas electromagnéticas introducimos la relación entre la longitud de onda y el intervalo de tiempo entre crestas sucesivas. Esto está dado por λ=cδt. Sustituyendo esta expresión en la Ecuación (11) obtenemos que:

Consideramos ahora un punto en la siguiente cresta de la misma onda, pasando por el mismo punto (r1,θ1,φ1) pero en el tiempo t1+δt1 Este otro punto de la onda nos llegará a nosotros en el tiempo t0+δt0 . Integrando nuevamente en ambos miembros de la ecuación para la propagación de la luz, entre los nuevos intervalos de tiempo obtenemos:

Dado que el tiempo t0 es posterior al tiempo t1 , es decir t0>t1 , si el Universo se está expandiendo entonces R(t0)> R(t1) y por lo tanto tenemos, de la Ecuación (10) que λ0>λ1 y por lo tanto la luz emitida de cualquier parte lejana del universo tendrá un corrimiento hacia el rojo. Es conveniente expresar la Ecuación (12) en términos de la frecuencia ν=c/λ. Tendremos que la Ecuación (12) toma la forma:

Restando miembro a miembro las ecuaciones (7) y (8) se obtiene:

El resultado que nos interesa es que: Definamos:

Lo que significa que la frecuencia de la radiación disminuye linealmente con el radio del Universo.

Revista Científica

177


Energía total del Universo

La Ecuación (17) toma la forma:

Para los propósitos de este artículo, podemos considerar que la energía total del Universo contiene dos contribuciones: la energía de la radiación y la energía de la materia. La energía total E la podemos escribir como: E=Emateria+Eradiación

Resolviendo esta ecuación diferencial, obtenemos:

En el caso de la energía de la materia, tenemos que su energía está asociada a la masa, de acuerdo a la relación de Einstein E=mc2 y a la energía cinética. Sin embargo, esta última es muy pequeña comparada con su energía asociada a la masa. En cuanto a la energía asociada a la masa, suponiendo una masa constante del Universo, tenemos que:

De le Ecuación (20) se obtiene que:

Combinando las Ecuaciones (18), (19) y (21) se obtiene: Considerando que la energía del Universo consiste fundamentalmente de energía de radiación y energía asociada a la masa, tenemos que las densidades respectivas de energía son:

De esta ecuaciòn observamos que para cuando t→0 (en el origen del Universo) la densidad de energía de radiación tiende a infinito, lo cual está de acuerdo con el modelo del Big Bang. Finalmente, para obtener la ley de enfriamiento del Universo necesitamos conectar la densidad de energía de radiación dada por la Ecuación (22) con la ley de Stefan -Boltzmann. Esta ley relaciona la temperatura T con la densidad de energía de radiación ρrediación . La ley de Stefan-Boltzmann se escribe como:

En lo que sigue nos interesa solamente la energía de la radiación. Usando la Ecuación (14) en la Ecuación (15) obtenemos que:

Sustituyendo la Ecuación (21) en la Ecuación (23) obtenemos la dependencia funcional de la temperatura T del universo su edad t. La relación está dada por Obteniendo que

La Ec. (23) es conocida como ley de enfriamiento del Universo. Sustituyendo los valores de las constantes obtenemos Al sustituir ésta en la Ecuación de Friedmann obtenemos:

Usando la Ecuación (16) podemos escribir:

En esta ecuación la temperatura T està en Kelvins y el tiempo t en segundos [7]. Observamos que al aumentar t la temperatura disminuye. De la Ecuación (24) observamos también que para cuando t→0 la temperatura del universo tiende a infinito, lo cual tambièn es consistente con el modelo del Big Bang. A partir de la ley de enfriamiento del Universo podemos determinar la temperatura del mismo cuando se introduce el tiempo como un dato

178

Revista Científica


y viceversa, conocida la temperatura se puede determinar la edad del Universo. Con esta ecuación podemos estimar la edad que tenía el Universo cuando este se volvió transparente a la radiación. Esto se logra al considerar el tiempo para el cual la energía de los fotones Efoton=hν=kT. Puesto que la mayoría de los átomos del Universo eran, y siguen siendo en la actualidad, de hidrógeno, tendremos que para una energía Efoton=0.3 eV la radiación no produce ionización de los átomos. Esto implica que el Universo es transparente a esta radiación. Con esta energía podemos determinar la temperatura T, para posteriormente usar la Ecuación (25) para calculamos el tiempo t. Obtenemos que esto corresponde aproximadamente a la edad de 700, 000 años. Esta es la ley de enfriamiento para el Universo temprano, en una etapa de la evolución del Universo conocida como era de la radiación. Aquí se ha considerado solo la energía del Universo correspondiente a la radiación, así que los cálculos realizados representan solo una estimación de las cantidades calculadas. Como se probó en las ecuaciones que siguen a la Ecuación (14), la densidad de energía de la radiación disminuye más rápidamente que la asociada con la masa, debido al corrimiento hacia el rojo de la radiación durante la expansión del Universo. Cuando el Universo se volvió transparente la radiación se desacopló de la materia y quedó viajando en el espacio. A esta radiación antigua o vestigial se le llama radiación cósmica de fondo. Cuando la energía de los fotones (en promedio) fue lo suficientemente baja para no producir ionización de los átomos el Universo se volvió transparente a la radiación. Esa radiación ha estado viajando libremente por el espacio desde aquella época. Esta es la Radiación Cósmica de Fondo de micro-ondas. Ya estimamos la edad del Universo cuando este se volvió transparente usando la relación E=kT tomando la energìa con un valor estimado de 0.3 eV, que ya no produce ionizaciòn atònica. Se volviò transparente a la radiación. Podemos también, con esta información, obtener la temperatura actual de la Radiación Cósmica de Fondo de micro-ondas. Esta temperatura se ha obtenido dando un valor de 2.7 K, la cual concuerda con el valor medido experimentalmente.

radiación y del vacío.

Nuevos hallazgos sobre la energía total del Universo Hasta hace alrededor de cuarenta años se pensaba que toda la materia del universo estaba formada por protones neutrones y electrones. Sin embargo, en la década de los años setenta del siglo pasado, la astrónoma Vera Cooper Rubin descubrió que existe en el Universo un tipo de materia cuya composición permanece hasta hoy completamente desconocida. Esta materia que representa el 24 % de la materia total del Universo es conocida como materia oscura [12]. Más recientemente, en la década de 1990 las observaciones astronómicas arrojaron un resultado sorprendente: que el Universo se está expandiendo aceleradamente, es decir, su velocidad de expansión aumenta con el tiempo. Lo esperado era que, de acuerdo a lo conocido hasta ahora, el proceso de expansión estuviera desacelerándose debido a la fuerza gravitacional, que es atractiva. El fenómeno de expansión acelerada del Universo conduce a la hipótesis de que algo está empujando hacia el exterior al universo, dominando la atracción gravitacional. Para explicar esto los astrónomos introdujeron el concepto de Energía Oscura. Actualmente se ha calculado la contribución de esta energía oscura a la energía total del universo y se ha encontrado que represente el 71.4 % de la energía total [13]. No se conoce hasta ahora la naturaleza de la energía oscura. Aun cuando la energía oscura es una especie de fuerza repulsiva (anti-gravedad) y la materia oscura un tipo de materia, desconocida hasta ahora pero de naturaleza material, podemos sumarlas debido al principio de equivalencia de Einstein, encontrando que más del 95 % de la composición del Universo es actualmente desconocida. A la energía oscura se le asocia actualmente con el fenómeno cuántico de la energía del vacío. Tenemos entonces que la energía total del Universo contiene tres contribuciones: La energía del vacío, la energía de la radiación y la energía de la materia. La energía total E la podemos escribir como:

Correcciones relativistas a la Ecuación de Friedmann En los cálculos realizados hasta aquí, la Ecuación de Friedmann fue obtenida siguiendo métodos no relativistas. Utilizando técnicas relativistas se obtiene para la Ecuación de Friedmann la expresión [4]:

Comparando ambos resultados observamos que la diferencia es siendo Ʌ/3 la constante cosmológica introducida por Einstein mencionada en la introducción de este artículo. Esta constante cosmológica está asociada a la energía del vacío. La energía del vacío tiene su origen en las teorías cuánticas y su existencia ha sido probada repetidamente. Un ejemplo de esto es la existencia del campo de Higgs que permea todo el Universo dando masa a las partículas que interaccionan con él. En este sentido, la corrección relativista que haríamos a la energía es en realidad una corrección cuántica que incluye a la energía del vacío. La energía total del Universo consiste entonces de tres partes: Energía de la materia, de la

Como ya se dijo energía del vacío es un concepto complejo que está asociada con la energía del punto cero encontrada en las teorìas cuánticas. Hasta el momento no parece que haya manera de evitar la presencia de esta energía que predice la teoría cuántica, representando una importante contribución a la energía del Universo [14]. La energía oscura tiene una contribución positiva a la energía total del Universo correspondiente a una anti-gravedad o gravedad repulsiva [15]. Esta sería la explicación de su efecto sobre la expansión acelerada del Universo. Mientras que la materia fermiónica daría contribuciones negativas a la energía potencial gravitacional debido al efecto atractivo. Retomando la idea de Einstein existe la idea de asociar la energía oscura o del vacío con la constante cosmológica. Esta forma de ver e introducir la constante cosmológica como energía del vacío resulta ser de una gran utilidad práctica, pues se puede ajustar su valor para hacer corresponder las predicciones de la teoría con las observaciones.

Revista Científica

179


Comentario final El estudio de la evolución del Universo hasta el momento actual, se ha separado en dos etapas. La primera etapa duró 700 mil años a partir del Big Bang y en ella todos los procesos que ocurrieron en el Universo fueron dominados por la radiación electromagnética. En esta primera etapa la densidad de energía del Universo consistía principalmente de radiación electromagnética. Posteriormente el Universo se enfrió y la radiación electromagnética no tenía, en promedio, la suficiente energía para ionizar los átomos de hidrógeno. A partir de este momento empieza la segunda etapa en la evolución del Universo. Es entonces cuando la densidad de energía dominante es la de la materia bariónica, la que conocemos actualmente. En esta segunda etapa, los procesos son dominados por la materia. La atracción gravitacional condujo a la formación de estrellas, galaxias y cúmulos de galaxias. Los procesos en las estrellas son dominados por las fuerzas nuclear y gravitacional. En esta historia del Universo determinada por la teoría del Big Bang, es notable la confirmación experimental de las predicciones de la teoría. Por esto decimos que la materia bariónica ha sido la principal protagonista en la segunda etapa de la evolución del Universo. La materia oscura y la energía oscura no han participado de manera importante en este proceso. Sin embargo, el destino final del Universo puede ser que sí sea gobernado por los efectos de la materia y la energía oscuras. Estas observaciones cambiarían las hipótesis sobre el destino final del Universo, pero no lo que se ha establecido hasta ahora sobre su evolución hasta el momento actual, lo cual ha sido fuertemente confirmado por las observaciones.

180

Revista Científica


BibliografĂ­a [1] Ryden, Barbara, Introduction to Cosmology, Ohio State University, (2006). [2] Schutz, Bernard F. A First Course in General Relativity, Cambridge University Press, (2002). [3] Ohanian, Hans C. and Ruffini, Remo, Gravitation and Spacetime, W. W. and Company, (1996). [4] Hughes, I. S,. Elementary particles, Cambridge University Press, (1996). [5] Peebles, P. J. E., Principles of physical Cosmology, Princeton University Press, (1993). [6] Weinberg, Steven, Gravitation and Cosmology, John Wiley and Sons, (1992). [7] Close, Frank, Particle Physics, Oxford University Press, (2004). [8] Thomson, Mark, Modern Particle Physics, Cambridge University Press, (2013). [9] Liddle, Andrew, An introduction to Modern Cosmology, 2nd. Edition, Wiley, (2003). [10] Foster, J. and Nightingale, A Short Course in General Relativity, Springer, (1998). [11] Ross, Matt, introduction to Cosmology, 3rd. Edition, Wiley, (2003). [12] https://www.learner.org/courses/physics/unit/ text.html?unit=10&secNum=2 [13] ter.html

http://map.gsfc.nasa.gov/universe/uni_mat-

[14] Peebles, P. J. E., Phenomenology of the invisible universe, AIP Conf.Proc. 1241 (2010) 175-182. [15] Peebles, P. J. E. and Ratra, B., The Cosmological Constant and Dark Energy, Rev.Mod. Phys.75:559-606, (2003).

Revista CientĂ­fica

181


Edwin Esau Cen Lara1, Andrés Miguel Pereyra Chan2, Hermila Andrea Ulibarri3 y María Guadalupe Guzmán Gomez4

Tecnológico Nacional de México. Instituto Tecnológico de Mérida. Av. Tecnológico S/N, Km 4.5 C.P. 91118. Mérida, Yucatán. México 1,2,3,4

eecl9325@hotmail.com pereyraandres@hotmail.com hermilaulibarri@yahoo.com.mx lupitaguzman_89@hotmail.com

Resumen: La calidad en el servicio se ha convertido en un aspecto fundamental para mejorar la competitividad de los hoteles. El objetivo de esta investigación es determinar la relación de las variables sociodemográficas de los huéspedes y de la calidad en el servicio que se ofrece en un hotel de la ciudad de Mérida, Yucatán. Su enfoque es cuantitativo, con un alcance descriptivo y diseño no experimental, de corte transversal; con una muestra no probabilística de 366 huéspedes. El modelo utilizado fue el HOTELQUAL que mide la calidad del servicio desde las percepciones de los huéspedes (instalaciones, personal y funcionamiento y organización de los servicios), en el que se encontraron como resultado que la relación entre el género, edad, escolaridad y ocupación con la calidad en el servicio obtuvieron la mayor calificación con la variable organización de los servicios y la calificación más baja la obtuvo la variable instalaciones.

+

Palabras clave: Variables sociodemográficas, calidad en el servicio, HOTELQUAL, hotel.

Recibido: Mayo 7, 2018. Recibido en forma revisada: Junio 21, 2018. Aceptado: Julio 4, 2018.

182

Revista Científica

Abstract: Quality of service has become a fundamental aspect to improve the competitiveness of hotels. The objective of this research is to determine the relationship between the sociodemographic variables of the guests and the quality of the service offered in a hotel in the city of Mérida, Yucatán. This is a research with a quantitative approach, a


descriptive scope and a non-experimental and cross-sectional design, and a non-probabilistic sample of 366 hosts. The model used was HOTELQUAL wich measures the quality of the service from the perceptions of the guests (facilities, personnel and operation and organization of the services), the results found shows that the relationship between gender, age, schooling and occupation with the quality of service obtained the highest score regarding to the organization of the services and the lowest score was obtained by regarding facilities.

+ Keywords: Sociodemographic variables, quality in service, HOTELQUAL, hotel

Introducción A mediados de los años ochenta el concepto “calidad” era utilizado para productos y no para servicios; sin embargo, su estudio y aplicación ha cobrado importancia en los últimos años debido a que la calidad, junto con el precio son factores que conducen a la satisfacción del cliente (Trujillo, Carrete, Vera y García, 2011). Parasuraman, Zeithaml y Benrry (1990) comentan que las empresas dedicadas a la generación de productos, cada vez, prestan más atención a los servicios que ofrecen, porque se requiere de manera intermedia, el vínculo con la oferta del producto, y el servicio, esto es, cuando se ofrece y quién lo ofrece, con la cantidad de personas que trabaja en servicios dentro de la empresa como es el caso del área financiera, recursos humanos, de investigación, etc.

la relación de las variables sociodemográficas y la calidad del servicio de un hotel de la ciudad de Mérida, Yucatán? Teniendo como objetivo principal: Determinar una relación de las variables sociodemográficas y la calidad del servicio de un hotel de la ciudad de Mérida, Yucatán.

Marco teórico Con respecto a la revisión literaria el primer concepto que se define es, el de calidad en el servicio, con base en los autores Horvitz y Jurgen (1993), Larrea (1994), Zeithaml y Bitner (2008), Hoffman y Baeston (2011), Diago (2005), Aguirre, Sáenz y Villaruel (2006), se puede concluir que la calidad en el servicio, es la comparación entre lo que el cliente espera del servicio que una organización brinda (expectativas) con respecto al servicio real que recibe de dicha organización (percepciones). La calidad en el servicio busca como mínimo satisfacer al cliente, y como máximo el retorno y la recomendación del negocio hacia otras personas. Por otra parte, existen diferentes escuelas enfocadas en el estudio de la calidad en el servicio, entre ellas se encuentran la escuela Nórdica y la escuela Norteamericana. En la escuela Nórdica se encuentra el modelo de Grönroos (1994), este modelo de calidad de servicio, en el que los consumidores evalúan la misma comparando el servicio esperado con el servicio recibido. Este autor distingue en la calidad de servicio dos componentes o dimensiones:

Sin embargo, las empresas que no puedan ofrecer en la misma proporcion servicios, precios y calidad que otras con las que compiten, tendrán dificultades para seguir en operación, debido a que los clientes tienden a abandonarlas en búsqueda de mejores servicios o productos (Pickle, 1995).

La calidad Técnica: que se centra en lo que el cliente recibe, es decir, el resultado del proceso.

Al competir con grandes corporaciones y consorcios, las microempresas necesitan tener una imagen e identidad para diferenciarse y satisfacer un determinado nicho de mercado ya que de no hacerlo no lograrán la diferenciación y sus posibilidades de superviviencia en el mercado son limitadas (Carrasco, 2005).

La escuela Norteamericana con el modelo SERVQUAL de Zeithmal, Parasuraman y Berry (1990), que mide lo que el cliente espera de la organización que presta el servicio en las cinco dimensiones: Elementos tangibles, Fiabilidad, Capacidad de respuesta, Seguridad y Empatía, contrastando esa medida con la estimación de lo que el cliente percibe de ese servicio en esas cada una de estas dimensiones.

Ante los requerimientos de las personas que demandan hospitalidad en determinados establecimientos de hospedaje y frente a la apertura de cadenas hoteleras y aumento de sitios de hospedaje en el estado de Yucatán, los empresarios se ven en la necesidad de ofrecer cada vez un nivel más superior de calidad en sus servicios. Tener claro que ofrecer un servicio de calidad es fundamental, ya que, a través de este pueden mejorar e incrementar sus utilidades creando clientes incondicionales o clientes frecuentes. Asimismo, tienen presente que los clientes que se hospedan en dichos lugares, además de descansar después de un largo paseo u otra actividad que realizan durante el día, también buscan comodidad y buen trato, por lo tanto, es valioso conocer las percepciones de los clientes en cuanto a la calidad del servicio en las dimensiones del personal, instalaciones y organización del servicio y compararlo con el perfil sociodemográfico de los huéspedes. Por lo que se planteó la siguiente pregunta de investigación: ¿Cuál es

La calidad Funcional: que se centra en cómo el servicio es entregado, es decir, en el propio proceso.

Derivado del modelo SERVQUAL se encuentra el modelo SERVPERF propuesto por Cronin y Taylor (1992), quienes mediante estudios empíricos realizados en distintas organizaciones de servicios, llegaron a la conclusión de que el modelo SERVQUAL de Calidad en el Servicio, de Zeithaml, Parasuraman y Berry no es el más adecuado para evaluar la Calidad del Servicio. Por tanto la escala SERVPERF se fundamenta únicamente en las percepciones, eliminando las expectativas y reduciendo entonces a la mitad las preguntas planteadas. El razonamiento que fundamenta el SERVPERF está relacionado con los problemas de interpretación del concepto de expectativa, en su variabilidad en el transcurso de la prestación del servicio, y en su redundancia respecto a las percepciones. La escala es la misma de SERVQUAL pero variando el enfoque de evaluación y las preguntas en los instrumentos. Derivado del modelo SERVPERF se encuentra el modelo HOTELQUAL, el cual este modelo permite medir las percepciones de los clientes

Revista Científica

183


en los hoteles sobre la base de tres dimensiones: personal, instalaciones y funcionamiento, y la organización del servicio. Es considerada una de las herramientas para la medición de la satisfacción del cliente de los establecimientos de hospedaje. Su objetivo se encuentra orientado a obtener una escala de calidad percibida por los clientes. Para el desarrollo del instrumento, se tomó como base la escala SERVQUAL y a partir de sus limitaciones se diseñó un cuestionario dividido en tres apartados: descripción del perfil socioeconómico, valoración general de los servicios ofrecidos por los establecimientos evaluados y medida de la calidad percibida. Respecto a las modificaciones que se realizaron en la escala, se eliminaron tres ítems del cuestionario original y se añadieron siete ítems que no se encontraban en el mismo. La idea central del trabajo fue obtener del huésped sólo información sobre el desempeño real del servicio (percepciones), (Castillejos, 2009); (Ulacia, 2012); (Labarcés, Ruiz y Gutiérrez, 2012).

Materiales y métodos Esta investigación es de un enfoque cuantitativo, y de alcance descriptivo, ya que se evaluó la percepción de la calidad del servicio que tienen los huéspedes y su relación con el perfil sociodemográfico de los mismos. De acuerdo con Hernández, Fernández y Baptista. (2014), el diseño de investigación para este caso es no experimental de corte transversal. Ya que, se realizó sin la manipulación de las variables; es decir sólo se observaron los fenómenos en su ambiente natural para después analizarlos. La unidad de análisis fue un hotel de la ciudad de Mérida, Yucatán ubicado en el centro histórico y se tomó como elementos de estudio a los huéspedes de dicho hotel. La población estuvo conformada 7,663 huéspedes anuales. Para seleccionar el tamaño de la muestra se aplicó la fórmula proporcionada por Castañeda, De la Torre, Morán y Lara (2002), cuando se conoce el tamaño de la población, con el cual se determinó que para evaluar la percepción de los huéspedes sobre la calidad del servicio que se ofrece en el hotel se tenía que abarcar una muestra de 366 huéspedes. La fórmula, de acuerdo con estos autores es la siguiente:

Se utilizó un nivel de confianza de 1.96 una variabilidad de 0.5 y un error estimado de 5%. El modelo utilizado en la investigación para medir la percepción de los huéspedes es el HOTELQUAL, propuesto por Falces, Sierra, Becerra y Briñola (1999), el cual tiene como fin medir la calidad del servicio desde las percepciones de los huéspedes, tomando en cuenta tres dimensiones que los autores consideraron ser los determinantes de la calidad del servicio: Instalaciones: hace referencia a la apariencia y funcionalidad del establecimiento. Por lo tanto, mide la calidad de los equipamientos, limpieza, seguridad del hotel (Falces, Sierra, Becerra y Briñol, 1999). Personal: refleja la medida en que los empleados prestan un servicio

184

Revista Científica

de forma correcta y consistente. De tal manera, mide la competencia y profesionalidad, aspecto físico, disponibilidad y fiabilidad del personal (Falces, Sierra, Becerra y Briñol, 1999). Funcionamiento y organización del servicio: este aspecto se refiere a la habilidad de los empleados para proporcionar un servicio que responda de manera rápida y eficiente (Falces, Sierra, Becerra y Briñol, 1999). Para este análisis las variables sociodemográficas utilizadas fueron las siguientes: Género de los huéspedes (Hombre o Mujer), edad de los huéspedes, ocupación de los huéspedes (Empleado, Estudiante, Desempleado, Empresario, Jubilado, Otro) y nivel de estudios (Primaria, Secundaria, Bachillerato, Universitario, Posgrado). Como ya se había mencionado, el instrumento utilizado para la recolección de datos en esta investigación consiste en una adaptación del instrumento del modelo de evaluación de la calidad HOTELQUAL, que permite medir la calidad del servicio en los hoteles desde la percepción de los huéspedes, mediante la aplicación de un instrumento conformado por 20 ítems divididos en 3 dimensiones: instalaciones, personal y funcionamiento y organización de los servicios. El instrumento está basado en el modelo HOTELQUAL y fue adaptado utilizando palabras para que los huéspedes del hotel de estudio fueran entendibles. El primer apartado, está dirigido a conocer e identificar el perfil de las personas que se alojan en el hotel, seguidamente se evalúa la calidad del servicio en relación a las dimensiones mencionadas con anterioridad. Para medir el puntaje se utilizó una escala Likert de 5 calificaciones que refleja el grado de concordancia de la opinión del cliente con los ítems planteados.

Resultados En la Tabla 1, se presenta el resultado general de la evaluación de calidad en el servicio del hotel, y se observa que la variable funcionamiento y organización del servicio fue la mejor calificada lo que significa que los clientes se sienten satisfechos con la habilidad del personal de brindar un servicio rápido y eficiente, seguida de la variable del personal en la que se encontró que los huéspedes no se sienten totalmente satisfechos con la eficiencia y profesionalidad del personal, aspecto físico, disponibilidad y fiabilidad del personal, y por último se obtuvo la calificación más baja al aspecto de las instalaciones lo que nos muestra que el aspecto y funcionalidad de las instalaciones no son adecuadas y del agrado de los huéspedes.

Tabla1. Resultados generales de la calidad en el servicio.

A continuación se presentan los resultados obtenidos de la relación de las variables sociodemográficas y la calidad del servicio. Con respecto al género se encontró que el 57% de los entrevistados corresponden al masculino y el 47% a las mujeres. En cuanto a cómo se relacionan esta variables con la calidad en el servicio, se encontró que tanto


los hombres como las mujeres le dieron la calificación más alta a la variable organización del servicio, es decir, que de los tres aspectos evaluados los clientes tienen una mejor percepción de la habilidad de los empleados para proporcionar un servicio que responda de manera rápida y eficiente y le brindaron la calificación más baja a las instalaciones (Tabla 2).

La relación con la variable de nivel escolar de los clientes, se encontró que el 3.55% el solamente tiene educación primaria, el 9.29 tiene educación secundaria, el 16.94 tiene educación de nivel bachillerato, el 51.19 tiene nivel de educación universitario y el 18.31 cuenta con un posgrado, sin embargo, sin importar su nivel de escolaridad todos los clientes, le dieron la calificación más alta a la variable organización del servicio y la más baja a la variable de las instalaciones (Figura 3).

Tabla 2. Relación entre las variables de estudio y el género de los clientes.

Con relación a la edad de los clientes se obtuvieron los siguientes resultados: los clientes de 16 a 22 años le dieron la mayor calificación a las variables de personal y organización del servicio, asociado a esto, para los clientes entre 23 a 29, 37 a 43 y 51 a 85 años la evaluaron con la calificación más alta a la variable de organización del servicio y para los clientes entre 30 a 36 y 44 a 50 años de edad la variable con mejor calificación es la del personal que refleja la medida en que los empleados prestan un servicio de forma correcta y consistente, sin embargo, todos los clientes sin importar su rango de edad le dieron a la variable de las instalaciones la calificación más baja lo que quiere decir que la percepción de los clientes con respecto a la apariencia y funcionalidad del establecimiento, no es de su agrado (Figura 1).

Figura 3. Relación de las variables con la escolaridad de los clientes.

Figura 1. Relación de las variables de estudio con la edad de los clientes.

Al analizar la relación que existe entre las variables del estudio y la ocupación de los clientes se encontró que, el 52.9% son empleados, el 13.39% son jubilados, el 12.7 % son empresarios, el 8.74 % son estudiantes, el 1.91% es desempleado y el 11.2% tienen otra ocupación. Los clientes que son empleados, empresarios, jubilados y otros le dieron la calificación más alta a la variable organización del servicio y la más baja a la variable de las instalaciones, en el caso de los clientes desempleados fue al contrario siendo la variable organización del servicio la más baja y la variable de las instalaciones la más alta como se puede observar en la Figura 2.

Figura 2. Relación de las variables con respecto a la edad de los clientes.

Revista Científica

185


Discusión De acuerdo con los resultados obtenidos, se concluye que el perfil de los huéspedes que se hospedaron en el hotel se conformó por las siguientes características (Figura 4). El género predominante de los huéspedes es el masculino con el 57.38% de los encuestados en el cual la variable organización del servicio obtuvo la calificación mas alta y la mas baja la obtuvieron las instalaciones. Mientras que el rango de edad con mayor frecuencia osciló entre los 23 a 29 años con el 19.40% de los encuestados y en menor cantidad se encontró el rango de 79 a 85 años de edad representado por el 1%, de igual manera la variable con mejor calificación es la de organización del servicio y la peor calificada es la de las instalaciones. Con respecto a las ocupaciones laborales de los huéspedes el 52.19% de ellos dijeron desempeñarse como empleados entre los que se destacan: maestros, abogados, ingenieros, administradores, técnicos, etc. Estos huespedes le dieron la mayor calificación de nueva cuenta a la organización del servicio y la peor a las instalaciones. Por lo que se refiere al nivel de estudio de los huéspedes, el 51.91% de ellos dijeron tener el nivel universitario seguido por el nivel posgrado representado por el 18. 31%, estos tambien le dieron la calificación más alta a la variable de organización del servicio y la más baja a las intalaciones.

Figura 4. Relación del perfil del cliente con la calidad en el servicio.

Se encontró que en la relación del perfil de los huéspedes con la calidad en el servicio, todos ellos le dieron la calificación más alta a la variable de organización del servicio y la menor calificación al servicio, lo que quiere decir que los clientes percibieron una mejor calidad en el servicio en aspectos como: • Disponibilidad de la información. • Respeto de la intimidad del cliente. • Disponibilidad para resolver los problemas de los huéspedes.

186

Revista Científica

• El personal es rápido. • Ausencia de errores. • Interés en la solución de los problemas. • El cliente es primero. • Cumplimiento del servicio contratado. Sin embargo, se requiere mejorar en los aspectos de las instalaciones tales como: • Mantener las instalaciones agradables. • Conservar las áreas y equipamientos en buen estado. • Que la decoración interna del hotel sea acogedora y agradable. • Mantener las instalaciones seguras. • Conservar limpias las instalaciones . Para concluir, parece pertinente tomar en cuenta las siguientes recomendaciones para el mejoramiento del servicio del hotel, se deben conocer y analizar las verdaderas razones de las deficiencias de desempeño de los empleados o de los resultados obtenidos, para saber cuál será la mejor forma de solucionarlos. El problema puede estar en los sistemas, equipo de trabajo, falta de apoyo a los directores, malas o nulas recompensas, limitaciones de sus acciones y de permisos para innovar o mejorar procesos, etc. Por eso, primero se debe conocer la razón del problema y después buscar la solución. Así mismo, sugieren tener un libro de quejas y sugerencias (las quejas son oportunidades para mejorar, no hay que verlos como agresión). Pero no sólo debe conocerse los problemas y quejas, sino que además deben darle seguimiento y solución.


Bibliografía + Aguirre, M.; Sáenz, B. y Villaruel, A. (2006). La calidad en el servicio como estrategia empresarial. Nivel de la calidad en el servicio (p.36). México D.F.: Instituto Politécnico Nacional. + Carrasco, A. F. (2005). El micro y pequeña empresa Mexicana. Málaga, España: observatorio de la economía latino americana. + Castillejos, B. (2009). Análisis de la calidad del servicio en hoteles resort de bahías de Huatulco, Oaxaca. (Tesis de maestría), Universidad Veracruzana. Veracruz, México. + Castañeda J.; De la Torre, M.; Morán, J. y Lara, L. (2005). Metodología de la investigación. . México, D. F., México: Mc Graw Hill. + Cronin, J. y Taylor, S. A. (1992). Measuring Service Quality: A Reecamination and Extension. Estados Unidos: Journal of Marketing- American Marketing Association. + Diago Franco, F. (2005). Fundamentos del servicio al cliente de la aviación Comercial. Valor diferencial del éxito empresarial. Bogotá Colombia: Fundación politécnico Grancolombiano. + Falces, C.; Sierra, B.; Becerra, A. y Briñol, P. (1999). HOTELQUAL: una escala para medir calidad percibida en servicios de alojamiento. Estudios Turísticos, n.° 139. Instituto de Estudios Turísticos. Madrid, España. + Grönroos, I. (1994). Marketing y gestión de servicios. Madrid: Ediciones Díaz de san-

tos S.A.

de La Habana. Cuba.

+ Hernández, R.; Fernández, C. y Baptista, M. (2014). Metodología de la investigación. 6ta. Edición. Mc Graw Hill. México.

+ Zeithaml, V. y Bitner, M. (2008). Marketing de servicios. Un enfoque de integración del cliente a la empresa. México: Mc Graw Hill.

+ Hoffman, K. y Bateson, J. (2011). Marketing de servicios. Conceptos estrategias y casos. (G. Meza, Trad). Querétaro, Qro.: GENGAGE Learning. + Horvitz, J. y Jurgen, M. (1993). La satisfacción total del cliente. México: McGraw-Hill + Parasuraman, A.; Zeithaml, V. A. & Berry, L. L. (1990). Calidad Total en la Gestión en el Servicios. Madrid: Díaz de Santos. + Pickle, H. (1995). La modernización de la industria en América Latina y La Herencia de la sustitución de importaciones. Comercio exterior, 46 (5), 347-363. + Labarcés, C.; Ruiz, E. y Gutiérrez, W. (2012). Percepción de calidad como factor de competitividad de la infraestructura de hoteles en Santa Marta y Barranquilla. Clío América. Año 6 No. 12. Universidad del Magdalena. Colombia. + Larrea Angulo, P. (1994). Calidad en el servicio. Del marketing a la estrategia. Madrid España: Ediciones Díaz de Santos. + Trujillo A.; Carrete L.; Vera J. y García S. (2011). Servir con calidad en México. México, LDI Editorial Mexicana. + Ulacia, Z. (2012). Determinación de factores para la medición y evaluación de la calidad del servicio hotelero. Revista de la Escuela Jacobea de Posgrado. Nº 3. Universidad

Resumen de autores

+ Edwin Esau Cen Lara, Estudiante de la Maestría en Planificación de Empresas y Desarrollo Regional, Ingeniero industrial, eecl9325@hotmail.com, Tecnm. Instituto Tecnológico de Mérida, Av. Tecnológico km. 4.5 S/N C.P. 97118, Tel. 9645000 Ext. 11203. + Andrés Pereyra Chan, Docente Investigador Maestría en Planificación de Empresas y Desarrollo Regional, Maestro en Ciencias, pereyraandres@hotmail.com, Tecnm. Instituto Tecnológico de Mérida, Av. Tecnológico km. 4.5 S/N C.P. 97118, Tel. 9645000 Ext. 11203. + Hermila Andrea Ulibarri Benítez, Docente Investigador Maestría en Planificación de Empresas y Desarrollo Regional, Maestro en Ciencias, hermilaulibarri@yahoo. com, Tecnm. Instituto Tecnológico de Mérida, Av. Tecnológico km. 4.5 S/N C.P. 97118, Tel. 9645000 Ext. 11203. + María Guadalupe Guzmán Gómez Egresada de la Maestría en Planificación de Empresas y Desarrollo Regional, Maestro en Ciencias, lupitaguzman_89@hotmail.comTecnm. Instituto Tecnológico de Mérida, Av. Tecnológico km. 4.5 S/N C.P. 97118, Tel. 9645000 Ext. 11203.

Revista Científica

187


Helga Heise González1, María del Pilar Azamar Vilchis2, Edwin Flores Ortiz3 y Dania Elba Villaseñor Padilla4

Universidad del Valle de Toluca Carretera del Departamento del D.F. km 7.5, Santa María Atarasquillo, Lerma, México, México, C.P 52044. 1,2,3,4

helga.heise@utvtol.edu.mx

Resumen: Hoy el mundo es altamente competitivo, por lo que las empresas buscan permanecer en los mercados globales; la nueva forma de comercializar productos es el e-commerce, en México ha tenido aceptación, pero siguen existiendo barreras que impiden el desarrollo completo de esté, muchas grandes empresas están adoptando esta forma de distribuir sus bienes o servicios, pero pequeñas y medianas empresas se han detenido debido a que el costo de venta en línea es alto y otras simplemente no tienen la facilidad de cubrir este gasto. El mercado para los productos agroalimentarios es pequeño, sin embargo para el nicho de chocolate fino, gourmet o artesanal se tiene un gran potencial de crecimiento; es por ello, que los productores de chocolate fino se ven en la necesidad de introducir sus ventas en el e-commerce; aunque para ello deberán trabajar en las diversas variables que implican generar mayores costos.

+

Palabras clave: Comercio electrónico, comercialización, productos agroalimentarios.

Recibido: Mayo 07, 2018. Recibido en forma revisada: Junio 08, 2018. Aceptado: Julio 04, 2018.

188

Revista Científica

Abstract: Today the world is highly competitive, so companies seek to remain in global markets; the new way of marketing products is e-commerce, in Mexico it has had acceptance, but there are still barriers that


prevent the full development of this, many large companies are adopting this way of distributing their goods or services, but small and medium enterprises are They have stopped because the cost of online sales is high and others simply do not have the facility to cover this expense.

La Asociación Mexicana de Internet analizó que la penetración del e-commerce para finales del 2016 alcanzó el 63% y casi el 50% de los internautas realizaron alguna compra en línea, a partir de observar publicidad en línea. (AMIPCI, 2016)

The market for agri-food products is small, however for the niche of fine, gourmet or artisanal chocolate there is a great potential for growth; that is why, the producers of fine chocolate are in need of introducing their sales in the e-commerce; although for it they will have to work in the diverse variables that they imply to generate greater costs.

La venta de productos del sector alimenticio aun no representa algún lugar en las tablas de los bienes y servicios que son comercializados en e-commerce; sin embargo, de acuerdo a una investigación publicada por el periódico Independiente se dice que el consumo del chocolate lleva estancado cinco años, estas estadísticas abarcan a todo el mundo. (El Independiente, 2017), conforme a este estancamiento los precios en el mercado de materias primas se han desplomado. Es decir, se considera que por casi una década el cacao ha empezado el 2017 cotizando en su nivel más bajo y su valor se ha reducido más de un 40% a comparación del 2016. (Gutiérrez, 2017).

+ Keywords: E-commerce, chocolate, electronic commerce, marketing, agri-food products, Introducción En la actualidad la mayoría de los países han adoptado una nueva forma de adquirir productos, las compras on-line en México aún no son un estilo de vida, pero no cabe duda de que al pasar los años esto sea la forma más utilizada para la adquisición de los productos. International Business Machines define los negocios electrónicos como “La transformación de los procesos empresariales esenciales por medio del uso de las tecnologías de internet. (IBM, 1997), Wigand define e-commerce como “La aplicación de tecnología de información y comunicaciones a la cadena de valor desde su punto de origen hasta su punto final, sobre procesos conducidos electrónicamente y diseñados para el cumplimiento de objetivos del negocio. (WIGAND, 1997), esta definición destaca entre muchas por el gran hincapié que se hace sobre la cadena de valor, pero por lo general habla de las tecnologías empleadas dentro de sus procesos de los cuales estas mismas pueden ser parciales o completos y pueden abarcar transacciones negocio-a-negocio, así como negocio-a-consumidor y consumidor-a-negocio. En México el 29 de mayo del 2000 fue publicado en el Diario Oficial de la Federación el decreto de reformas sobre comercio electrónico, mismo que partió de los principios de la Ley Modelo de la Comisión de Naciones Unidas sobre Derecho Mercantil aprobada en 1996. (Federación, 2000); dicha ley (CNUDMI, 1996) refiere el comercio electrónico como “las transacciones comerciales que se realizan por medio del intercambio electrónico de datos y por otros medios de comunicación en los que se usan medios de comunicación y almacenamiento de información sustitutivos de los que utilizan papel”. (CNUDMI, 1996). El tema de e-commerce ha modificado totalmente la dinámica de las relaciones cliente-empresa en cuanto al marketing, es la estructura de la empresa la que cambia, pero estos cambios traen consigo una variedad de ventajas (Tanta, 2013):

• Creación de unidades de negocio y nuevas formas de distribución de

los productos o servicios. • Acceso a clientes de cualquier zona geográfica, sin limitación, apertura y expansión hacia nuevos mercados. • Aumento de la competitividad y calidad de servicio • Respuesta rápida a las necesidades y cadenas de entregas más cortas o inexistentes o que puede dar lugar a una reducción de precios finales • Control de pedidos y clientes.

Es por eso que Focus Economics considera que “es la peor racha para este mercado en más de 17 años” (García, 2017); de acuerdo a esta afirmación Carlos Mera analista de materias primas de Rabobank opina que “los precios más bajos incentivarán la demanda en algún momento dentro de los próximos meses”. (Mera, 2017) Sin embargo esta creencia también se ve afectada por una variable sumamente interesante, si los consumidores cambian de hábitos la demanda puede que no vuelva a remontar, aun cuando los precios bajen. (Schneider M., 2017). A medida que las preferencias de los consumidores se están orientando hacia opciones más saludables, se prevé riesgo para la categoría de chocolate en los mercados desarrollados. Con base a este contexto, también existe un tipo de chocolate que se ve beneficiado con el cambio que se tienen en la sociedad y en sus costumbres, A medida que las ventas de los sucedáneos caen, el chocolate negro creció un 5,1% y un 3,3% en el 2016 en América y Europa occidental, respectivamente, según Euromonitor. (Monzón, 2017). Esta situación apuesta por que exista una mayor penetración en el mercado de los chocolates de alta calidad. Esto es gracias a que este tipo de chocolate presenta una composición más saludable, sumado a que el crecimiento de las clases medias que cuentan con capacidad para adquirir chocolates más caros. El impacto que ha tenido el e-commerce en México favorece a la mayoría de las empresas ya muchos de los mexicanos están interactuando con este tipo de comercialización; al mismo tiempo la cultura del consumidor está adoptando estos nuevos cambios y los han vuelto parte de su vida cotidiana, por lo tanto, las empresas productoras para expandir su mercado tienen que abrirse camino en esta nueva práctica de comercialización.

Materiales y métodos El presente estudio se considera como exploratorio – descriptivo; de carácter transversal simple y de tipo cuantitativo mixto, ello mediante el apoyo de un instrumento aplicado a propietarios y directivos de la empresa productora de chocolate en relación con la forma actual de comercialización de sus productos. Dicho instrumento consta de 68 preguntas que miden la posibilidad de incursión en las ventas en línea de sus productos. Así como investigación documental de las tendencias del e.commerce en relación al giro comer-

Revista Científica

189


cial objeto de estudio; por ejemplo la Asociación Mexicana de Internet (AMIPCI), que genera estudios sobre el comercio electrónico dentro del país y los datos son actualizados cada año.

Resultados Situación actual del producto

Los resultados muestran que la empresa, produce conservas en presentaciones de 250 a 350 gramos, licores en litro al igual que el rompope y chocolates en 250 gramos. Para la producción de chocolates principalmente se utiliza el cacao y la nuez, de origen nacional y esto permite que los productos estén presentes todo el año en el mercado. El ciclo de vida de la materia prima es de 1 a 12 meses y del producto terminado es de 6 a 12 meses, estos son empacados en cajas de cartón, tanto materia prima como producto terminado llegado el tiempo de caducidad simplemente se desechan, generan pérdidas a la empresa (Ver en figura 1 los cuadros en gris).

Figura 2. Evolución del e-commerce en México. (Creación propia, información obtenida de AMIPCI, 2017)

A pesar de que las ventas por internet han tenido un buen impacto en México aún existen barreras que impiden el comercio electrónico; los mexicanos prefieren comprar algo que ven de forma tangible, es por eso por lo que esta barrera representa un 17 %. Así también, la falta de información y la escasez de ofertas generan barreras para la adquisición de productos en internet. La falta de publicidad representa un 15 %, debido a que la gente no conoce lo que se ofrece. (Ver figura 3)

Figura 3 Barreras que impiden la compra en línea. Creación propia, información obtenida de AMIPCI, 2017 Figura 1. Resultados arrojados del cuestionario. Creación propia 2018, información obtenida del cuestionario.

Actualmente no se cuenta con el registro de marca, no tiene eslogan, maneja una gama de productos que son distribuidos únicamente en la región de Jilotepec, razón por la que se registra un bajo nivel en ventas, aunado a que no cuenta con una presentación en su empaque (bolsa de celofán); otra debilidad es la falta de certificaciones de los productos, la escasez de promociones y publicidad de esta. (Ver en la figura 1 los cuadros rojos y amarillos).

En el caso de la venta del chocolate por medio de plataformas digitales, aumenta las barreras debido a que es un producto que se compra por impulso, por la presentación y por lo que promete el chocolate, esto es una barrera grande para su venta en línea. A continuación, se muestra en la figura 4 la categoría de productos que más se vendieron en línea en el 2017 son los siguientes:

De acuerdo con un artículo publicado por la Asociación Mexicana de Internet, del año 2015 al 2016 hubo un incremento en las ganancias del 28.3%, lo que denota que las ventas en línea en México han tenido un gran impacto. Como se puede observar en la figura 2 a partir del 2009 representaron ganancias para el país. Las compras en línea han aumentado año con año, para el 2017 tres de cuatro mexicanos en línea realizaron una compra. (AMIPCI, 2016).

Figura 4. Bienes y servicios que fueron vendidos en línea. Creación propia, información obtenida de AMIPCI, 2017

190

Revista Científica


En este análisis se puede ver en la figura 4 que la categoría a la que pertenece el chocolate es a la de bienes de consumo empaquetado, que en el 2016 representaba el 12% de las ventas realizadas en línea, pero para el año 2017 está bajo al 4%. Esto revela que la comercialización en línea de este tipo de productos fue en descenso y que existen muchas variables por las cuales ocurrió este suceso: el empaque, la publicidad, la calidad, la presentación u otros factores que influyeron a que bajara el nivel de ventas de esta categoría.

Análisis demográfico del mercado

Como base a la investigación las personas que tienen entre los 18 a 34 años representan un 51% de las compras realizadas en internet, posterior a este rango de edad siguen con un 38% las personas de 35 a 54 años y los de 55 en adelante representan un 11% (Ver figura 5). De toda la población el 54% de los consumidores que han comprado en línea son hombres dejando a esto a las mujeres en tan solo 46% (Ver figura 6). El nivel socioeconómico AB representa el 42% de las personas que compran en internet, esta sección del mercado deja a la clase C+ con el 34%, C (14%), C- (6%), D (2%) y D/E tan solo el 1% (Ver figura 7).

Figura 6. Mujeres vs hombres en compras en línea. Creación propia, información obtenida de AMIPCI, 2017

Los consumidores que más compran por este medio habitan en la ciudad de México acaparando el 22% de este consumo, México residen 13%, Jalisco el 9%, Nuevo León 7%, Veracruz y Puebla 4%, Guanajuato, Baja California, Querétaro, Chihuahua y Sonora 3%, Michoacán, Guerrero, San Luis Potosí, Morelos y Tamaulipas 2% y Quintana Roo y otros estados representan tan solo el 1% (Ver figura 8). El 67% de las compras para consumo de chocolate en México lo representan las mujeres y para los hombres el porcentaje es del 53% (Ver figura 10), esto es una desventaja si se compara con la estadística de las compras en línea en dónde los hombres tienen un mayor nivel 54% y las mujeres 46% (Ver figura 6). Esta variable tiene gran peso debido a que quienes realizan compras en línea no son las personas que más consumen chocolate.

Figura 7. Nivel socio económico de los compradores. Creación propia, información obtenida de AMIPCI, 2017

Otro factor importante es la edad, el rango de edad que más consume chocolate en el último año fue representado por consumidores entre 10 y 17 años (Ver figura 9), pero en los datos anteriores las personas que más compran en línea están entre los 18 y 34 años y este rango dentro de los que consumen este producto representan el 53% (Ver figura 5).

Figura 8. Compradores en línea por estados. Creación propia, información obtenida de AMIPCI, 2017

Figura 5. Edad del consumidor en línea. Creación propia, información obtenida de AMIPCI, 2017.

Revista Científica

191


más que determina la compra. Al mismo tiempo es importante que la empresa ofrezca a los consumidores un espacio que genere confianza a los mismos, que sientan que tienen contacto directo con ella, pero sobre todo que los usuarios sin importar la edad, el sexo pueda interactuar de forma clara con la empresa sin olvidar que lo que buscan los consumidores actuales es que la entrega rápida del producto y que el precio sea el mejor del mercado.

Figura 9 Edad de consumo de chocolate. Creación propia, información obtenida de Kantarworldpanel, 2017.

Figura 10 Consumo de chocolate mujeres vs hombres. Creación propia, información obtenida de Kantarworldpanel, 2017.

Conclusión Existe un problema latente en las pequeñas empresas de alimentos, sus productos están siendo comercializados en tianguis dentro de su localidad y no tienen puntos de venta establecidos limitando su desarrollo comercial. Actualmente las ventas en línea de la categoría a la que pertenece el chocolate no han tenido un incremento en las tabulaciones, al contrario, en el 2017 bajaron al 4%, lo que representa una gran barrera para la empresa y anudado a esto la poca o nula promoción que se tiene actualmente y el hecho de que solo recibe pagos en efectivo. Existen una cantidad importante de variables que la empresa debe atender al momento de incursionar en el e-commerce, algunas de ellas son empaque de los productos, la imagen es un aspecto importante debido a que los clientes ya no ven físicamente el producto, es entonces donde el producto debe venderse por sí solo factor importante para lograr convencer al consumidor. La información detallada del producto es una razón

192

Revista Científica


Bibliografía + AMIPCI. (18 de Mayo de 2016). AMIPCI. Obtenido de Asociación Mexicana de Internet: https://www.asociaciondeinternet.mx/es/noticiasx/2241-alcanza-internet-el-51-de-penetracion-entre-los-usuarios-potenciales-de-mexico-amipci + ANDREWS, W. (17 de Diciembre de 2002). Gartner . Obtenido de E-Commerce, real strategies, real benefits: https://www.gartner.com/ doc/370856/ecommerce-real-strategies-real-benefits + CNUDMI. (1996). Ley modelo de la CNUDMI sobre comercio electró-nico y guía para su incorporación al derecho interno. España: Comisión de Naciones Unidas sobre el DerechoMercantil Internacional. + Cuellar, R. G. (2005). Comercio electrónico en México: Propuesta de un modelo conceptual aplicado a las PyMES. Redalyc.org, 79-116.

El Universal. + IBM. (1997). INTERNATIONAL BUSINESS MACHINES. Obtenido de IBM: https:// www.ibm.com/us-en/ + Jones, D. (2006). The Essence of Chocolate. Scharffen Berge. + Mera, C. (Febrero de 2017). Rebobank. Obtenido de https://www.elindependiente.com/ economia/2017/02/25/el-chocolate-esta-en-crisis/ + Monzón, A. (25 de Febrero de 2017). El chocolate está en crisis. El independiente. + Murgich, V. (13 de Noviembre de 2015). Merca 2.0. Obtenido de Los 10 países cuyos habitantes consumen más chocolate en el mundo: https://www.merca20.com/los-10-paises-cuyos-habitantes-consumen-mas-chocolate-en-el-mundo/

+ El Independiente. (25 de Febrero de 2017). El chocolate esta en crisis. El Independiente. + Federación, D. O. (2000). Reforma 29: Código de Comercio. México. + García, M. (25 de Febrero de 2017). Focus Economics. Obtenido de https://www.focus-economics.com/press/focuseconomics-news-archive + Geographic, R. N. (2016). El origen del chocolate. National Geographic en Español. + Gutiérrez, F. (16 de Octubre de 2017). Solo 7% de los mexicanos hacen compras en internet.

Revista Científica

193


Jorge Luis Estrada Perea1, Olinda Ornelas Benítez2 y Elsy Denisse Martínez Torres3.

Centro Universitario Parral UACH. General Jesús Lozoya Solís s|n Kilometro 1 C.P. 33825, Col. Almanceña Tels. (627)52 27744 Hgo. del Parral, Chihuahua, México. 1,2,3

jlestrada@uach.mx oornelas@uach.mx edmartinez@uach.mx

Recibido: Mayo 7, 2018.

Resumen: Desde que aparecen los métodos de la Ingeniería de Calidad del Dr. Genichi Taguchi utilizando las herramientas estadísticas de control de calidad en los procesos industriales denominados diseños de experimentos, orientados al diseño de alta calidad a un costo reducido, optimizando el rendimiento, la calidad y los costos. Japón y Estados Unidos han utilizado estos métodos con un gran éxito en el diseño de productos confiables de alta calidad en bajo costo principalmente en áreas productivas como automóviles y productos electrónicos, y actualmente han incursionado en la industria aeroespacial. Ahora bien, es importante indicar que la finalidad de este trabajo, consiste en analizar las consecuencias en el medio ambiente; cuando el método de Taguchi especifica, el minimizar los desperdicios en el proceso de producción, así como el costo oculto de colocar el producto, en manos del consumidor. Dentro de esta investigación podremos encontrar en la primera sección un análisis de la información acerca de los fundamentos básicos de empresas de calidad clase mundial, así como la descripción científica del método Taguchi, utilizado como herramienta para desarrollar dicha investigación.

Recibido en forma revisada: Junio 8, 2018. Aceptado: Julio 4, 2018.

194

Revista Científica

En la segunda sección se describe y se resuelve la función de perdida


de la calidad mediante una regresión lineal, tomando la base de datos del departamento de calidad de una compañía, específicamente, en la línea de ensamble de un conector, y el impacto que tiene al presentar una falla de este conector, como riesgo para el cliente, con la finalidad de dar respuesta a las hipótesis que pueden surgir dentro de las diferentes organizaciones de clase mundial acerca de su rendimiento financiero en relación a los procesos de producción, y poder así verificar el comportamiento de los métodos de control de calidad implementados e identificar las variaciones de cantidad de material de desperdicio para la mejor toma de decisiones en la implementación de planes ambientales estratégicos. En la tercera sección se encuentran las conclusiones obtenidas de esta investigación, en donde se proporciona una serie de afirmaciones derivadas de la comprobación científica del método de Taguchi, fundamentales para su implementación en aquellas organizaciones que cuyo objetivo es desarrollarse como empresas de clase mundial, reduciendo la minimización de costos por pérdida de calidad y a la vez realizando actividades sustentables que contribuyen a las mejoras del bienestar social.

+ Palabras clave:

Control de calidad, calidad clase mundial, costos ocultos, toma de desiciones, impacto del medio ambiente, sostenibilidad.

Abstract: Quality Engineering Methods of Dr. Genichi Taguchi have included quality control statistical tools in industrial processes known as Experimental Design, oriented to a high quality design with a low cost, optimizing output, quality and costs. Japan and the United States have successfully implemented these methods in designing high quality, low cost and reliable products such as automobiles, electronic products and now ventured into the aerospace industry. Therefore, the purpose of this essay is to analyze the impact in the environment, considering that Taguchi method specifies the importance of minimizing waste during production, as well as hidden costs – reduce customer dissatisfaction and retain them. The first part of this essay provides a scientific overview of the Taguchi method. The second part of the essay not only describes but also solves, thru linear regression the function of quality loss, using data from a company, specifically the assembly line of a manufactured item and shows how a mistake in production becomes a risk for the customer. Thru this, it is possible to analyze the behavior of the quality control methods and have a positive impact in decision making for strategic environmental plans. Finally, the third section of this essay provides the conclusions, which include a list of affirmative statements derived from the scientific verification of the Taguchi method. This will allow organizations to develop world class companies reducing costs related with quality loss and as well as developing sustainable activities that contribute to positive environmental impact that will allow improvement in social welfare.

+ Keywords: Quality control, world class quality, hidden costs, decision making, environment impact, sustainability

Introducción ¿Qué es calidad? Calidad la define el Dr. Genichi Taguchi en los términos: “La mínima pérdida que se concede a la sociedad, desde el momento de embarcar el producto”. Un análisis de este concepto realizado con alumnos de Maestría en Economía Empresarial en la Facultad de Economía Internacional, se concluyó en los siguientes puntos:

1. Es una nueva definición con un punto de vista Económico, envolviendo dentro de ella las definiciones anteriores.

2. Con esta definición aparecen términos como retrabajo, rediseño, reutilización, reproceso, entre otros.

3. Revoluciona los métodos estadísticos apareciendo el diseño de

experimentos, la ingeniería de la calidad con su función de pérdida.

4. Aparece como una nueva filosofía empresarial. 5. Beneficia el valor agregado del producto, optimizando costos. 6. Al minimizar los desperdicios de materiales, influye considerablemente en reducir la contaminación por desperdicios en el medio ambiente. 7. El método Taguchi establece un soporte más, a la norma ISO 14000.

Hacer negocios en el mercado hoy en día, supone un gran desafío, pero también es apasionante. Se sabe que el éxito de hoy y en el futuro de una empresa, esta requiere conocer, comprender y utilizar todas las estrategias de mejora continua que se adapten a las necesidades individuales. De ahí que las empresas requieran buscar la calidad clase mundial, desde las fases de: reconocer el cambio, el compromiso gerencial, la comunicación organizacional en un proceso de mejora continua, implantar el deseo de adquirir la calidad clase mundial y definir metas y objetivos claros. Para llegar a la “calidad clase mundial” se deben buscar las herramientas que en términos sencillos se pueden expresar como; las herramientas que forman el camino para llegar al objetivo empresarial y una de ellas se denomina: Método Taguchi se describe como la herramienta más poderosa para lograr el mejoramiento de la calidad. La herramienta utilizada para cumplir el objetivo empresarial, es la ingeniería de calidad de Taguchi, propone reducir los costos disminuyendo la variación en la producción, lo que propicia como resultado, una calidad mejorada y permite perfeccionar los diseños y procesos de la empresa, de manera que sean insensibles a factores fuera de control del proceso; estos son los aspectos técnicos de esta herramienta, su aplicación y práctica, ayuda a mejorar la calidad, a la vez reducir los costos asociados a desperdicios, inspecciones y retrabajo. Desemboca en resultados muy rápidos y con una inversión muy reducida. Su filosofía es el control de calidad, que le llamó diseño robusto; el cual consiste en que cada vez que se diseña un producto, se hace pensando en que va a cumplir con las necesidades de los clientes, pero siempre

Revista Científica

195


dentro de un cierto estándar; a esto se le llama “calidad aceptable”. El tipo de diseño que propone Taguchi es que se haga mayor énfasis en las necesidades que le interesan al consumidor y que a su vez, se ahorre dinero en las que no le interesen.

5. La gestión de la empresa responde eficientemente a las decisiones de alto valor estratégico.

6. Tienen referentes de desempeño superior a nivel individual y organizacional.

Taguchi establece que es más barato trabajar en el rediseño de los productos y sus procesos de fabricación, que en el control de calidad de los mismos, porque las acciones de mejora de calidad son más económicas, en cuanto más cercanas estén a la etapa de diseño. Es más económico un diseño robusto del producto en las características importantes para el cliente, que pagar los costos del control de procesos y las reclamaciones por fallas. En el diseño robusto de un producto se minimiza su posibilidad de falla, buscando que tenga mínima variación en las características de calidad importantes para el cliente y en consecuencia se minimiza el costo de calidad. El método Taguchi implica diseñar un producto que sobrepase las expectativas del cliente en sus características más importantes y ahorrar dinero en las que al cliente no le interesan. Así, como el diseñar un proceso de producción capaz de fabricar el producto en todo su rango de variación normal, dentro de las especificaciones del proceso, ayudando a la sustentabilidad empresarial y de ahí a la calidad clase mundial. El concepto de clase mundial viene siendo utilizado de manera más o menos masiva, tal vez como parte de un discurso novedoso e interesante, pero sin entrar en detalle de su significado de fondo y de las implicaciones para la vida de las organizaciones y su gestión. En un primer acercamiento al concepto, se puede decir de manera amplia, que las organizaciones de clase mundial deben balancear y optimizar la creación de riqueza (generación de valor) con la generación de prosperidad colectiva, como condición para un verdadero desarrollo sostenible y sustentable. Para ser sostenibles y desarrollarse como empresas de clase mundial, además de una estrategia retadora, se requiere intervenir el estilo de liderazgo y la cultura de la organización para que apalanquen efectivamente la generación de valor a los grupos de interés, dado que, no basta con la generación de riqueza en términos económicos, las empresas deben generar prosperidad colectiva para ser competitivas y sostenibles en un entorno tan cambiante como el actual. Es importante profundizar al respecto y mostrar claramente los caminos que se deben recorrer para tomar esa ruta. Desde nuestra perspectiva, las empresas de clase mundial cumplen con las siguientes características fundamentales:

1. Son empresas socialmente sanas, sustentables y económicamen-

te exitosas.

2. Crean valor de manera sostenible a sus grupos de interés. 3. Tienen un entendimiento sistémico de la gestión y la organización.

4. Desarrollan inteligencia estratégica superior. 196

Revista Científica

7. Están concebidas como redes de conversaciones, con interacciones efectivas para construir acuerdos y lograr los mejores resultados.

La manera de concebir la gerencia es el camino para que todas las organizaciones sin importar su tamaño ni el sector en el que se desempeñen, se conviertan en empresas de clase mundial. Las empresas deben reflexionar constantemente acerca de las condiciones básicas para que la actividad empresarial continua, o a emprender el alcance en la supervivencia, o la generación de ganancias, o el éxito; es decir, tener la capacidad de satisfacer a los clientes en precio, calidad, costo, servicios y diseños sustentables de clase mundial buscando desarrollar un mercado de nivel superior. Entonces, son las organizaciones flexibles e innovadoras las que ofrecerán seguridad ante las probables variaciones del entorno, porque si una empresa depende para sus beneficios de procedimientos de operación estándar, decidido en las altas esferas y ejecutadas sin descanso por los trabajadores, éstas empresas ya no tiene ningún sentido en un entorno mundial en el cual es necesario tener flexibilidad empresarial y una gran capacidad de respuesta a las necesidades individuales y cambiantes del cliente. La primacía del cliente, junto con la intensa competencia actual y el constante cambio tecnológico y contextual que se está llevando a cabo a nuestro alrededor ya no sirve para el modelo centralizado de mando y control propio de la organización tradicional; esta se verá sentenciada a una situación muy comprometida, por no decir desesperada, ya que es muy difícil desarrollar nuevas estrategias de negocios si la empresa está absorbida por problemas de costo, calidad, manejo del tiempo, precio, diseño y de su incapacidad organizacional para defender sus mercados. Las empresas de clase mundial que son parte de un sistema económico de un país, antes que productoras de riqueza, deben ser generadoras de bienestar social, salud ambiental y salud económica de una región o nación, estimular las actividades sustentadoras de la tierra para impedir la sobrecarga y la degradación de los sistemas que mantienen la vida.

Subsección Función de pérdida de la calidad. Es conocida como QLF por sus siglas en inglés quality loss function, Taguchi utiliza una ecuación cuadrática a la cual denomina función de pérdida, que se ajusta con los datos de la historia de costos y desempeño del producto. No toma en cuenta los límites de especificación, ya que la función de pérdida de calidad solo se minimiza cuando la calidad del producto es igual al valor objetivo de la calidad, el valor ideal. Esta pérdida puede ser estimada desde el momento en que un producto es despachado hasta el final de su vida útil. La pérdida se calcula en unidades monetarias, y eso permite a los ingenieros comunicar su magnitud en un valor común, reconocible. Esto a veces se


comunica de un modo bilingüe, lo cual significa que se puede hablar a los gerentes de alto nivel en términos de unidades monetarias y a los ingenieros, quienes trabajan con el producto o servicio en términos de objetos, horas, kilogramos, etcétera. Con la “función de pérdida”, el ingeniero está en condiciones de comunicarse en el lenguaje del dinero y en el lenguaje de las cosas. La clave para la reducción de la pérdida no consiste en cumplir con las especificaciones, sino en reducir la varianza con respecto al valor objetivo. Conforme el desempeño del producto o proceso se aleje del valor objetivo (aún, hallándose en los límites de especificación), la ecuación aumenta de valor y se incrementa el costo de calidad para la sociedad. Establece el comportamiento de los costos asociados a las desviaciones de calidad respecto a la meta. De manera que el producto, en términos de calidad deja de ser simplemente catalogado como conforme o no conforme, para ser medido mediante una función que establece el costo de alejarse de las especificaciones exactas del cliente. En ese orden de ideas, el costo de alejarse de las especificaciones exactas del cliente puede comprender los siguientes rubros: Costos de reparación, costos asociados a la falla en el funcionamiento, costos de mantenimiento, costos logísticos, costos asociados a las lesiones provocadas por un producto defectuoso. Según la hipótesis de Taguchi, mientras menor sea la variación en relación con el valor objetivo, mejor será la calidad; de manera que las pérdidas aumentan a una tasa creciente conforme crece la desviación respecto al valor objetivo de la especificación. Del mismo modo, existe una pérdida de la calidad desde el punto de vista del cliente cuando el producto se aleja de la especificación deseada, aun cuando se encuentre entre los límites de especificación, lo cual contrasta con los métodos de control de variación tradicionales. En la Figura1, se puede observar la función de la pérdida de la calidad contrastada con la curva normal de los métodos tradicionales. Nótese que la cantidad de material de desperdicio mientras se encuentre alrededor del valor promedio y entre los límites de confianza, la pérdida de calidad (L($)) va aumentando y pasa de mejor, por buena y regular y al tomar valores fuera de los límites de confianza, se vuelve inaceptable dicha pérdida de calidad.

Se puede observar que la función de la pérdida de la calidad es una curva en forma de U, la cual se encuentra determinada por la siguiente función cuadrática simple:

L(x)= Función de pérdida de la calidad. x = Valor de la característica de calidad (observado). N = Valor nominal de la característica de calidad (Valor objetivo - meta). k = Constante de proporcionalidad.

La proporcionalidad es un factor que indica la relación constante entre las magnitudes costo de pérdida y desviación de la característica de calidad. De manera que para efectos de aplicación se hace necesario que la organización registre las pérdidas en función del costo de la calidad de las unidades según su desviación del valor objetivo. Así entonces, la función puede expresarse de la siguiente manera:

C = Costo de la desviación en el límite de la especificación (Pérdida por una unidad producida en el límite de especificación). LES = Límite de especificación superior. La función pérdida incluye:

1. Los costos incurridos por no cumplir el producto con las expectativas del cliente. 2. Los costos por no cumplir el producto con las características de funcionamiento. 3. Los costos causados por los efectos peligrosos secundarios causados por el producto. Reducir variaciones no deseables en productos y procesos a fin de:

• Reducir costos. • Mejorar la productividad y fiabilidad de los procesos. • Aumentar la satisfacción de los clientes. Según registros de la compañía, aun cuando han sido unidades conformes en los límites de especificación, se han presentado casos en los cuales las unidades deben ser reparadas o pasar al desperdicio, según el departamento de calidad, en la línea de ensamble de un conector, y el impacto que tiene al presentar una falla de este conector, como riesgo para el cliente.

Figura 1. Correlación de la función de pérdida con la curva de distribución normal.

Para el análisis, se usó el software MINITAB, con una base de datos de 25 muestras del historial de la empresa, se organizó, se ordenó, utilizando promedios de la base de datos disponible de la empresa, como se muestra en la Tabla 1.

Revista Científica

197


Tabla 1. Base de datos de cantidad de desperdicio de un conector en una línea de ensamble.

¿Cuál es la función de pérdida de la calidad para el ensamble del conector en un arnés, en una línea de producción? Puede tabularse una relación de pérdida en función de las características de calidad observadas, de la siguiente manera: Al graficar esta información, se obtiene la curva de la pérdida de la calidad de la Figura 2.

Polynomial Regression Analysis: Y versus X

Respuesta de MINITAB.

The regression equation is Y = 60,81 - 20,95 X + 1,938 X**2 S = 3,62400 R-Sq = 98,6% R-Sq(adj) = 98,5% Analysis of Variance Source DF SS MS F P Regression 2 20638,2 10319,1 785,72 0,000 Error 22 288,9 13,1 Total 24 20927,1 Sequential Analysis of Variance Source DF SS F P Linear 1 16793,1 93,43 0,000 Quadratic 1 3845,1 292,78 0,000

Fitted Line: Y versus X

Figura 2. Gráfica por MINITAB, de la función de pérdida.

198

Revista Científica

El análisis de la curva de Taguchi, orienta a deducir que, es importante contrastar con las especificaciones del conector ensamblado en esta línea de producción, y mas importante en este momento es inducir y deducir el impacto ambiental medido con esta herramienta estadística en mención.


Para concluir, recuerde que si bien la hipótesis de la función de pérdida de la calidad QLF, dista en esencia de los métodos de control de la variación tradicional, no quiere decir que se opongan en la práctica. De hecho es común que muchas compañías opten por implementar un modelo de control de la variación basado en la conformidad con relación a los límites de especificación; y luego, implementen la función de pérdida de la calidad como filosofía de mejoramiento continuo, con el propósito de enfocarse en el producto perfecto para el cliente. Avanzar hacia la incorporación de un paradigma de Evaluación Ambiental Estratégico que se incorpore en todos los instrumentos de evaluación.

Conclusión 1. Se identifica a la calidad con la satisfacción; entonces aparece la

necesidad de cambiar las estructuras de pensamiento y se insta a los líderes empresariales, a plantearse y trabajar para hacer realidad los propósitos y metas alcanzables, en bien del consumidor y del cuidado ambiental.

2. La Ingeniería de Calidad está diseñada para generar procesos de alta calidad. Taguchi desarrolló una aproximación, al diseño de experimentos con el objetivo de reducir los costos emanados de la experimentación, esta aproximación es más práctica que teórica y se interesa más por la productividad y los costos de producción que por las reglas estadísticas. 3. Los conceptos de estas técnicas están basados en las relaciones de costos y ahorros. Existen algunos factores de ruido que afectan los procesos, y son aquellos que causan que una característica funcional se desvíe de un valor objetivo, estos son causantes de variabilidad y pérdida de calidad y por consecuencia aumentar el desperdicio, generando el problema de contaminación ambiental. 4. De acuerdo con Taguchi, esta pérdida de calidad constituye a largo plazo, una pérdida de tiempo y dinero tanto para el consumidor como para el fabricante. 5. Dentro de las actividades del control de la calidad, la Ingeniería de la calidad consta de las actividades dirigidas a la reducción de la variabilidad y de las pérdidas, de tal forma que estas pérdidas relacionadas con el desperdicio, marcan una guía en el cuidado del medio ambiente. 6. Las actividades productivas, encaminadas a minimizar los costos por pérdida de calidad van directos del control de desperdicios, y esta minimización provoca que salgan productos de alta calidad del proceso de producción, encaminando a la organización al objetivo calidad clase mundial, se puede concluir que los métodos de Taguchi no solo minimizan los costos por la pérdida de calidad sino que impactan sobre la contaminación ambiental al disminuir estos desperdicios en el medio.

Bibliografía + Arias, Nava, Elías, Heriberto. Ríos, Lira, Moisés, Tapia. (2015). Diseño de Experimentos: Taguchi y Tradicional. España: Editorial Académica Española. ISBN-13 # 9783659086007, ISBN-10 # 3659086002 + Cruz, Trejos, Eduardo, Arturo, Medina, Varela, Pedro, Daniel, Silva, Díaz, Carlos, Andrés, (2012). Una Revisión Crítica de la Razón Señal Ruido usada por Taguchi. Scientia et Technica, español, Vol. 2, No. 50, 52-56. ISSN # 0122-1701. + Día, Jean-der, (1993) Un modelo de costes de diseño de parámetros. Revista Internacional de Gestión de Calidad y Confiabilidad, Vol. 10 Edición: 5, https:// doi.org/10.1108/02656719310040132 + Gutiérrez, F. (16 de Octubre de 2017). Solo 7% de los mexicanos hacen compras en internet. El Universal. + IBM. (1997). INTERNATIONAL BUSINESS MACHINES. Obtenido de IBM: https://www.ibm. com/us-en/ + Jones, D. (2006). The Essence of Chocolate. Scharffen Berge. + Mera, C. (Febrero de 2017). Rebobank. Obtenido de https://www.elindependiente.com/economia/2017/02/25/el-chocolate-esta-en-crisis/ + Montgomery, Douglas, C.,(2004). Control Estadístico de la Calidad. México: Limusa. ISBN #9789681862343 + Yuin, Wu. Alan, Wu. (1997). Diseño Robusto Utilizando los Métodos de Taguchi. España, Ediciones Díaz de Santos, ISBN # 8479783052 + Urieta, Sofia, Claudia. Córdoba, Elida, (2016). Sostenibilidad Empresarial a través de la Manufactura de clase Mundial. Volumen 2, 19-30. ISSN# 24120464. + Monzón, A. (25 de Febrero de 2017). El chocolate está en crisis. El independiente. + Murgich, V. (13 de Noviembre de 2015). Merca 2.0. Obtenido de Los 10 países cuyos habitantes consumen más chocolate en el mundo: https://www. merca20.com/los-10-paises-cuyos-habitantes-consumen-mas-chocolate-en-el-mundo/ + PDCA HOME. El portal de la gestión, calidad, producción y mejora continua. https://www.pdcahome.com/funcion-de-perdida-taguchi/

Revista Científica

199


MANUAL DE ESTILO CONSEJO EDITORIAL

FORMATOS DE ENTREGA

MISIÓN

El material tiene que ser entregado en procesador de texto WORD, con letra tipo Arial, a 12 puntos, con espacio sencillo y alineación a la izquierda.

El objetivo principal del Consejo Editorial es divulgar mediante una revista de corte científico, de publicación semestral, todos aquellos logros realizados por los investigadores de nuestra Universidad y sus aportaciones a beneficio de la sociedad.

VISIÓN

Formato carta, extensión mínima 3 cuartillas y un máximo de 10, incluyendo notas y bibliografía.

Con la difusión de estos avances obtendremos el reconocimiento de la comunidad y lograremos el posicionamiento de la Universidad Tecnológica de Ciudad Juárez, en áreas de desarrollo científico.

Utilizar sangría francesa al inicio de cada párrafo.

ATRIBUCIONES

Todas las páginas deberán estar enumeradas en secuencia, comenzando por la portada.

1. El Consejo Editorial tiene como objetivo cuidar y promover la imagen y prestigio de la UTCJ.

Las siglas deben venir en su forma destacada (p. ej. UTCJ, Universidad Tecnológica de Ciudad Juárez).

2. Realizar la corrección de estilo y todos los cambios ortográficos y de

Señalar la naturaleza del trabajo: artículo de investigación, avance, etc.

redacción que sean necesarios para mejorar la calidad de los artículos a publicar.

3. Verificar que todas las obras cuenten con los requisitos editoriales que marca nuestro Manual de Estilo y Normas de Publicación. 4. Contribuir en la difusión y distribución de nuestra revista científica.

Márgenes de 3 cm. superior y 2.5 cm. de derecha e izquierda.

El título de la obra debe ser colocado en la parte superior del documento, en forma centrada, destacado con negritas. Todos los textos deben incluir nombre completo del autor y/o colaboradores, grado académico y área de especialización, así como también un correo electrónico. Los nombres de los autores deben de aparecer en el orden de sus contribuciones.

5. Evaluar y supervisar el proceso editorial. 6. Vigilar la calidad de las obras que lleven el sello editorial.

LINEAMIENTOS I. Los artículos que se publiquen serán responsabilidad del autor. II. Cada artículo deberá contar con las siguientes características y lineamientos editoriales:

a. Tener como base los resultados de una investigación científica, original y relevante. b. Una vez publicado el artículo, los derechos de autor pasan a la Universidad Tecnológica de Ciudad Juárez. c. Cubrir parte del estado de conocimiento vigente. d. Estar escritos con un lenguaje adecuado y que atiendan la serie de condiciones formales y de contenido propio de un texto científico. Es importante que cada trabajo de investigación cuente con crédito de autor y/o colaboradores, crédito de fotografías (si las hay) y un correo electrónico.

200

Revista Científica

Anexar en el trabajo de investigación un currículum de autor (es). El solicitante y/o autor se compromete a estar disponible para atender cualquier asunto relacionado con su obra. En todos los casos, los manuscritos entregados no serán devueltos. La fecha de entrega del material será determinado por el editor y este a su vez se lo hará del conocimiento al autor. El autor debe incluir un resumen breve de los contenidos del artículo.

Los trabajos deberán enviarse al correo electrónico:

editorial@utcj.edu.mx Para mayor información comunicarse al Tel. +52 1 656 649 0604


THEOREMA No. 8

ENERO-JUNIO

2018

deben de ser claras y fáciles de leer. Figuras numeradas, en número arábigo seguido de pie de figura para la parte inferior de cada una de ellas e insertadas dentro del cuerpo del artículo y no al final de este.

ESTRUCTURA DEL ARTÍCULO TÍTULO EN INGLÉS Y ESPAÑOL

No debe ser mayor a 15 palabras y describir el contenido del artículo de una forma clara, exacta y concisa.

ABSTRACTOS

Incluir los resúmenes en español y en inglés (abstract), de 150 palabras, cada uno. Debe de indicar clara y brevemente el propósito de la investigación, de los procedimientos básicos, de los resultados y de las conclusiones principales. Evite el uso de abreviaturas y de términos altamente especializados en el extracto.

PALABRAS CLAVE

Presentar cinco palabras clave, en inglés y en español, estos términos deben de aparecer debajo del resumen, en la misma página. Se pueden utilizar palabras solas o términos compuestos.

ABREVIATURAS

Las abreviaturas deben de ser definidas la primera vez que se mencionan. Si fuera esto en el resumen, entonces debe de definirse de nuevo en el cuerpo principal del texto.

INTRODUCCIÓN

Este apartado plantea el propósito del artículo sin un despliegue extensivo del tema, utilizando solo las referencias más pertinentes. Indique las razones que motivaron a la investigación y cuando corresponda, dé cuenta de la hipótesis postulada.

MATERIALES Y MÉTODOS

Se describe el diseño de la investigación y se explica cómo se llevó a la práctica, justificando la elección de métodos, técnicas e instrumentos, si los hubiera, teniendo en cuenta la secuencia que siguió la investigación.

RESULTADOS

Se describen los resultados del estudio, resaltando los hallazgos relevantes (incluso los resultados contrarios a los objetivos propuestos, si es el caso). Los resultados se presentarán utilizando texto, tablas e ilustraciones.

DISCUSIÓN

Interpretación de los resultados y su significado sobre el trabajo de otros autores.

AGRADECIMIENTOS

Al patrocinio o proyecto son lo más breve posible.

LAS TABLAS Y FIGURAS

A fin de garantizar los más altos estándares para la calidad de las ilustraciones, estás deben de ir a una resolución de 300 dpi´s. Las figuras

Las tablas tienen que ser menores de 17 cm. x 20 cm., enlistadas en números arábigos y tener un título, y/o leyenda en la parte superior para explicar cualquier abreviatura utilizada en ella, del mismo modo estar insertas dentro del cuerpo del artículo.

FOTOGRAFÍAS E ILUSTRACIONES

Todo material de foto e ilustraciones deben de enviarse en un archivo del artículo. Como también en formato aparte JPG o PSD, con una resolución mínima de 300 dpi´s, en tamaño real. Tanto las tablas, figuras, fotografías e ilustraciones se entregarán en procesador Excel.

CITACIÓN

Para la citación textual larga, de 40 palabras o más, es necesario separar el texto citado y disminuir el tamaño de la tipografía un punto. Del mismo modo, se deben aumentar los márgenes laterales 1 cm. y colocar inmediatamente después (autor, año), al que se cita.

FECHA

Se cita al final del trabajo, precedido del lugar donde se redactó el original.

BIBLIOGRAFÍA

La exactitud de las referencias es responsabilidad de los autores. Se incorpora al final del artículo, numeradas, incluyendo en orden alfabético todas las obras citadas en el texto y en los pies de página. El autor debe revisar cuidadosamente que no hay omisiones e inconsistencias entre las obras citadas y la bibliografía. La redacción se presenta de la siguiente manera: Nombre del autor y colaboradores (en su caso), comenzando con el apellido paterno, seguido de los nombres. Año de la publicación entre paréntesis. Título del libro en itálicas (cursivas). Edición (de la segunda en adelante). Casa editorial, ciudad de publicación, país y páginas totales.

EJEMPLO DE REFERENCIAS LIBRO

Wiener, Norbert, Cibernética: o el control y la comunicación en animales y máquinas, Barcelona, Tusquets, 2003.

ARTÍCULO DE REVISTA

Ádem, José, 1991, ´Algunas consideraciones de la prensa en México´, Avances y Perspectiva, vol. 10, abril-junio pp. 168-170

PÁGINAS WEB

Ramírez, E., 2012, Economía futura en América Latina. Recuperado de http://www.economico-online.com.

Revista Científica

201


202

Revista CientĂ­fica


Turn static files into dynamic content formats.

Create a flipbook
Issuu converts static files into: digital portfolios, online yearbooks, online catalogs, digital photo albums and more. Sign up and create your flipbook.