Contenido Pág PROCESAMIENTO DE IMÁGENES DETECCIÓN DE LA ESTEATOSIS HEPÁTICA EN IMÁGENES MÉDICAS POR MEDIO DE LA MATRIZ DE CO-OCURRENCIA Elymar Rivas N 1, Alimar Benitez2, Franklin Moreno1, Rubén Medina1
2
ESTIMACIÓN DEL MOVIMIENTO CARDIACO EN IMÁGENES DE RESONANCIA MAGNÉTICA USANDO UN ALGORITMO BASADO EN FLUJO ÓPTICO Emiro Ibarra1, Robert Salas1, Rubén Medina2, Mireille Garreau3
6
MEDICIÓN AUTOMÁTICA DE GRADO DE FLEXIÓN DE EXTREMIDAD SUPERIOR POR ANÁLISIS DE VIDEO MONOCULAR G. A. Ceballos, J. D. Ávila
10
TISSUE CLASSIFICATION BASED ON SEMANTIC ANNOTATIONS FROM CT-IMAGES Alexander Baranya1;2, Luis Landaeta1;2, Alexandra La Cruz 1, Maria-Esther Vidal 2
14
VALORACIÓN DE ESTRATEGIAS DE FILTRAJE PARA LA SEGMENTACIÓN DEL VENTRÍCULO IZQUIERDO EN TOMOGRAFÍA CARDIACA Miguel Vera1, Antonio Bravo2, Rubén Medina1, Jesus Arellano1, Oscar Acosta3, Mireille Garreau3
18
CALIBRACION DEL LOCALIZADOR ELECTROMAGNÉTICO MINIBIRD PARA LA ADQUISICIÓN DE IMÁGENES 3D EN NEUROCIRUGÍAS A. Bosnjak1, R. Carmona1, L. Rios1, G. Montilla1, I. Jara 2
22
REALCE Y DETECCION DE MICROCALCIFICACIONES EN MAMOGRAFIAS DE MAMA DENSA Crissel V. Ariza M 1, Francisco Durán1, Rubén Medina1, Franklin Moreno1 SEGMENTACIÓN DEL VENTRÍCULO IZQUIERDO EN IMÁGENES CARDIACAS USANDO MEDIAS DESLIZANTES Y CRECIMIENTO DE REGIONES Edwin Velázquez1, Antonio Bravo1, Miguel Vera2, Oscar Acosta3 RESTAURACIÓN DE IMÁGENES DE CÉLULAS DE PURKINJE Francisco Durán1;2, Rubén Medina2, José Balza1, Nelly García1, Emilitza Labarca 1, Leisalba Zavala 1, Aldeni Viloria1, Zulma Peña1
26
30 34
BIOMECÁNICA DISEÑO DE MOLDES PARA LA FABRICACIÓN POR ROTOMOLDEO DE DISPOSITIVO DE ENTRENAMIENTO ODONTOLÓGICO PARA TOMAS DE IMPRESIÓN DE HENDIDURAS LABIO PALATINAS K Arzola 1, MCandal2, O Pelliccioni1, T Pannaci3 DISEÑO DE UN PRIMER PROTOTIPO DE PLANTILLA PARA PIE DIABÉTICO I García1, O Pelliccioni1, M Candal2
39 43
DISEÑO DE UN PROTOCOLO MULTIFACTORIAL DE EVALUACIÓN DE ATLETAS DE ALTO RENDIMIENTO EN FASE DE SOBREENTRENAMIENTO Gabriela Ávila1*, Erika Severeyn2*, Héctor Herrera1, Sara Wong2
47
DISEÑO Y FABRICACIÓN DE UN PRIMER PROTOTIPO DE PRÓTESIS PARA AMPUTACIÓN TRANSMETATARSIANA M Vallejo1, O Pelliccioni1, M Candal2
51
Pág HERRAMIENTA PARA EL MODELADO COMPUTACIONAL PROBABILÍSTICO DE ESTRUCTURAS ÓSEAS Marco Ciaccia1,2 , Carmen Müller-Karger1, Euro Casanova1, Thalía San Antonio1,2
55
MANIPULACIÓN DE ALGORITMO GENÉTICO PARA OBTENCIÓN DE DIMENSIONES ÓPTIMAS DE MECANISMO DE CUATRO BARRAS PARA UNA PRÓTESIS DE RODILLA Belkys T. Amador 1,2, Rafael R. Torrealba1, Carmen M. Müller-Karger1
59
PROTOCOLO PARA LA RECONSTRUCCIÓN DIGITAL DE TOMAS EN PACIENTES CON HENDIDURA DE LABIO Y PALADAR ASISTIDOS CON ORTOPEDIA FUNCIONAL DE LOS MAXILARES L Bandres 1, O Pelliccioni 1, T Pannaci 2, M Candal 1
63
REVISIÓN DE LAS VARIABLES CINEMÁTICAS DE LA PELVIS EN PACIENTES ESCOLARES Y ADOLESCENTES CON ARTRODESIS DE CADERA M. Rupcich1, R. Bravo2
67
PROPUESTA PRELIMINAR DE UN ÍNDICE DE CONSISTENCIA PARA PATRONES DE CINEMÁTICA DE MARCHA HUMANA R. Bravo1, A. Salazar1,2, D. M. Basso2, C. Borges1,2
71
DISEÑO, CONSTRUCCIÓN Y CONTROL DE UN EXOESQUELETO ORIENTADO A LA REHABILITACIÓN DEL DEDO ÍNDICE DE LA MANO. Fannia Pacheco, Mariela Cerrada
75
PROCESAMIENTO DE SEÑALES ANÁLISIS DE LA VARIABILIDAD DEL RITMO CARDÍACO Y RESIDUO DE LA ONDA T EN PACIENTES CHAGÁSICOS Jhosmary Cuadros1, Rubén Medina2, Antonio Bravo1, Tulio Nuñez3 BÚSQUEDA DE INDICADORES DE ENFERMEDADES CARDIOVASCULARES MEDIANTE EL PROCESAMIENTO DE LA SEÑAL ECGAR Nelson Dugarte Jerez 1,2, Rubén Medina Molina1, Rubén Rojas Sulbarán1, Edinson Dugarte Dugarte1, Antonio Álvarez Abril2, Alexander Olivares3
79
84
CONTROL DE LA GLUCOSA POR MEDIO DEL MÉTODO DE MODO DESLIZANTE EN PACIENTES ADMITIDOS EN LA UNIDAD DE CUIDADOS INTENSIVOS. M. Coronel, R. Rojas
88
DETECCIÓN DE FOCOS EPILÉPTICOS MEDIANTE LA COMBINACIÓN DE TRANSFORMADA WAVELET Y MEDIDA DE DISIMILARIDAD BASADA EN COMPRESIÓN E. Zambrano1, G. Paredes2, E. Marchán 1,3,P. Guillén1
92
IMPLEMENTACIÓN DE UN SISTEMA DE EXTRACCIÓN DE CARACTERÍSTICAS PARA LA CLASIFICACIÓN DE ARRITMIAS L. Mora1,J. Amaya2
96
MÉTODOS DE ACELERACIÓN DEL ALGORITMO DE MEDIANA PONDERADA REGRESIVA A. Becerra, J. Ordenes, J. Paredes
100
REDES NEURONALES PARA RECONSTRUIR SEÑALES ADQUIRIDAS EN UNA UNIDAD DE CUIDADOS INTENSIVOS Alexander Hoyo1, Carlos Lollett1, Miguel Vera2, Sara Wong1, Miguel Altuve1
104
SENSIBILIDAD AL PRE-PROCESAMIENTO DE LOS DATOS DE UN DETECTOR DE APNEABRADICARDIA BASADO EN MODELOS SEMI-MARKOVIANOS OCULTOS Miguel Altuve1, Guy Carrault 2;3;4, Alain Beuchée 2;3;4;5, Patrick Pladys 2;3;4;5, Alfredo I. Hernández 2;3;4
108
Pág
UNA NUEVA FAMILIA DE FILTROS NO LINEALES RECURSIVOS BASADOS EN EL OPERADOR DE MYRIAD Y SU APLICACIÓN AL PROCESAMIENTO DE BIOSEÑALES Miguel Gómez, José L. Paredes
112
DETECCIÓN DE ACTIVACIONES EN FMRI BASADA EN MODELOS LAPLACIANOS TEMPORALESPACIAL DE LA SEÑAL BOLD Blanca Guillén1, José Luis Paredes2, Rubén Medina2
116
BIOMATERIALES DESARROLLO DE MEMBRANAS DE QUITOSANO BIOCOMPATIBLES PARA DIVERSAS APLICACIONES EN INGENIERÍA DE TEJIDOS Rojas, L.1, Bello A.1, González, G.2 y Noris-Suárez, K.1
121
ESTUDIO DE LA DEGRADACIÓN HIDROLÍTICA IN VITRO DE GUÍAS NERVIOSAS POROSAS Y NO POROSAS FABRICADAS CON POLIÉSTERES BIODEGRADABLES Romero, M.1, Sabino M.2, González, G.3 y Noris-Suarez, K.1,*
125
E VA L U A C I Ó N D E B I O C O M PATA B I L I D A D D E M AT R I C E S C O M P U E S TA S D E POLIACRILAMIDAEMPLEANDO CÉLULAS OSTEOPROGENITORAS Contreras, L.1, Pirela M.2, González, G.2 y Noris-Suarez, K.1
129
EVALUACIÓN DE BIOCOMPATIBILIDAD DE MATRICES DE POLIETILENO DE ALTA DENSIDAD CON CONTENIDOS DIFERENTES DE HIDROXIAPATITA (PEAD-HA). Yndriago L.1, Herman V.2, Romero K. 2, Albano C.2,3, Arquimedes K2, Gonzalez G.4, Noris-Suárez K.1
133
INFORMÁTICA MÉDICA ADQUISICIÓN DE TECNOLOGÍAS MÉDICAS EN ESTABLECIMIENTOS DE ATENCIÓN A LA SALUD Jesús Arellano 1, Luis Lara Estrella2
138
DISEÑO E IMPLEMENTACIÓN DE UN SISTEMA DE GESTIÓN TECNOLÓGICA EN EL DEPARTAMENTO DE ONCOLOGÍA EN EL I.A.H.U.L.A Jessica Osorio 1, Diego Jugo1, Jesús Arellano1
142
UNA NUEVA ESTACIÓN DE MONITOREO NEONATAL CENTRALIZADA PARA LA ADQUISICIÓN DE DATOS MULTIVARIABLES EN TIEMPO REAL Aníbal Carpio D1, Romain Billois 2,3, Miguel Altuve1, Alfredo Hernández 2,3
146
INGENIERÍA CLÍNICA DESARROLLO DEL POSTGRADO VIRTUAL EN INGENIERIA CLÍNICA DE LA UNIVERSIDAD SIMÓN BOLÍVAR, CARACAS, VENEZUELA Lara, L.L., Mijares R., Silva R., Hernández L., Maturi R., Sierra Z., Lugo R.
151
INSTRUMENTO PARA EVALUAR LA CALIDAD EN LOS SERVICIOS DE RADIOLOGÍA DE HOSPITALES PÚBLICOS Y PRIVADOS J. Amed 1, C. Delgado2, N. Ruiz 3
154
MODELO DE GESTIÓN DE HOTELERÍA CLÍNICA EN HOSPITAL TIPO I. CASO: HOSPITAL DEL JUNQUITO Medina Z.1, Delgado C.2 , Ruiz N. 3
158
Pág MÓDULO DEL SERVICIO DE ENDOSCOPIA DIGESTIVA SUPERIOR PARA EL CENTRO DE CONTROL DE CÁNCER GASTROINTESTINAL “DR. LUIS E. ANDERSON”
162
W. Verde , J. Mantilla MORTALIDAD, DETERMINANTES E INFRAESTRUCTURA EN SALUD EN UN MUNICIPIO PETROLERO: CASO VENEZUELA. R. Mijares-Seminario, L. Hernández
166
PROPUESTA DE PROCEDIMIENTO PARA LA MEJORA DE LA EFICACIA DE LA GESTIÓN EN EL DIRECCIONAMIENTO DE MANTENIMIENTOS A REALIZAR POR EMPRESAS PROVEEDORAS Y LA SECCIÓN DE ELECTROMEDICINA DEL CENTRO MÉDICO MARACAY C.A. E. Quintero1
170
REHABILITACIÓN OPERATIVA DE UN SISTEMA MÓVIL DE ARCO EN C PARA FLUOROSCOPÍA Ricardo Villegas, Ángel Villegas DISEÑO DE UN INSTRUMENTO PARA EVALUAR EL SISTEMA DE GASES MEDICINALES EN UN HOSPITAL B. Souquett1, N. Ruiz2, C. Delgado3
174
178
INSTRUMENTACIÓN BIOMÉDICA BOBINA DE RECEPCIÓN SUPERFICIAL EN CUADRATURA DE FASES PARA IMÁGENES POR RESONANCIA MAGNÉTICA A 0.14T George E. Figueras Benítez1,Alejandro Bordelois Cayamo2
183
DETECCIÓN DE CÁNCER DE MAMA UTILIZANDO RADIACIÓN CERCANA AL INFRARROJO Ana Arraiz 1, Rubén Medina2
187
DISEÑO DE BOMBA DE INFUSIÓN PROGRAMABLE PARA APLICACIONES EN BIOMEDICINA Edinson del Carmen Dugarte Dugarte 1, Nelson Dugarte Jerez 2, Gerardo Grabiec 3
191
EXPERIENCIAS EN TECNOLOGÍA PORTABLE PARA COMUNICACIÓN Y MONITOREO PERSONAL DE BAJO COSTO Ana S. Silva 1,2, Oscar E. Casanova3, Andreina Zambrano1, Carla M. Borges2, Antonio J. Salazar 1,2
195
SISTEMA DE CONTROL DE TEMPERATURA DISEÑADO PARA AMBIENTES DE INCUBACIÓN EN BIOINGENIERÍA Sabino Montes Alvarez 2, Nelson Dugarte1, German Altuve2, Luis Ruiz2, Edinson Dugarte1
199
CONTROL DE UNA SILLA ROBÓTICA A TRAVÉS DE COMANDOS DE VOZ Juan Valero 1, Yedith Bonilla1, Cecilia Sandoval 1, Camilo Duque1
203
MODELADO MATEMÁTICO MODELADO DE LA INFLUENZA A(H1N1) EN EL ESTADO NUEVA ESPARTA UTILIZANDO REDES ESTOCASTICAS Gilberto González-Parra1, Javier Ruiz-Baragaño2, R.J.Villanueva2 Jose Querales1
208
CONTROL MULTIVARIABLE POR MODO DESLIZANTE DE LA PRESIÓN SANGUINEA DE PACIENTES EN POSTOPERATORIO R. Orellana, R. Rojas
212
MODELO DE CONTROL PI PARA LA REGULACIÓN DE PRESION ARTERIAL B. Sánchez 1, R. Rojas2
216
PROCESAMIENTO DE IMÁGENES
El procesamiento digital de imágenes, es una disciplina que desarrolla las bases teóricas y algorítmicas para extraer información del mundo real, a partir de una imagen observada, de un conjunto de imágenes o de una secuencia. Tal información pudiera relacionarse con el reconocimiento de objetos genéricos, descripciones tridimensionales del mismo, posición y orientación del objetos ó la medición de cualquier propiedad espacial, tal como la distancia entre dos puntos bien definidos o la sección transversal del objeto. El espectro de aplicaciones es bastante amplio e incluye desde las aplicaciones industriales, imágenes áreas y médicas. El uso de la computación en diferentes dominios, ha permitido sofisticar la naturaleza del procesamiento de las imágenes, con el propósito de extraer al máximo, cualquier información disponible en las mismas que pueda ser de utilidad como herramienta. El estudio de las técnicas avanzadas de procesamiento digital de imágenes representa un pre-requisito importante a objeto de desarrollar cualquier investigación en esta área, que pueda ser significativa dentro de un contexto global. En la siguiente sección, se presenta una recopilación de los trabajos desarrollados en los grupos de investigación en Bioingeniería del país.
1
PROCESAMIENTO DE IMÁGENES MÉDICAS
DETECCIÓN DE LA ESTEATOSIS HEPÁTICA EN IMÁGENES MÉDICAS POR MEDIO DE LA MATRIZ DE CO-OCURRENCIA Elymar Rivas N1, Alimar Benitez2, Franklin Moreno1, Rubén Medina1 1
Centro de Ingeniería Biomédica y Telemedicina (CIByTEL). Universidad de Los Andes. Mérida – Venezuela. 2 Centro de Investigaciones Psicológicas. Universidad de Los Andes. Mérida – Venezuela. e-mail: elymar.newman@gmail.com, abenitez@ula.ve, fmoreno@ula.ve, rmedina@ula.ve
RESUMEN La esteatosis hepática es la acumulación de lípidos en el citoplasma de los hepatocitos. El objetivo del presente trabajo es detectar esta patología aplicando técnicas de procesamiento digital de imágenes, mediante el uso de imágenes médicas obtenidas a través de: tomografía computarizada y ultrasonido. La técnica aplicada es la extracción de características de textura, con la obtención de matrices de co-ocurrencia de niveles de gris y algunas estadísticas descriptivas de interés. Los atributos extraídos de imágenes de pacientes con esteatosis hepática se comparan con los atributos extraídos de sujetos de control (sanos) utilizando el modelo estadístico de regresión logística binaria. Como resultado se obtuvo una clasificación correcta del 85.1% para las imágenes de tomografía computarizada y 89.1% para las imágenes de ultrasonido, con niveles de sensibilidad y especificidad cercanos al 90%. Palabras Claves: Esteatosis Hepática, Imágenes Médicas, Matriz de Co-ocurrencia, Regresión Logística Binaria.
grasa en el hígado en la investigación y en el ámbito clínico. Lupsor et al [3]. Establece que la esteatosis hepática es una enfermedad frecuente en la práctica médica y tiene una gran importancia debido a la posible evolución hacia la cirrosis. La evaluación clínica y de laboratorio tiene el valor predictivo positivo muy reducido. Por otra parte, una serie de técnicas de imágenes se pueden utilizar para el diagnóstico y cuantificación de la esteatosis: resonancia magnética (RM), tomografía computarizada (TC), y no menos importante, la ecografía. Los métodos por imágenes descritos representan una alternativa válida para el diagnóstico no invasivo de la esteatosis hepática con un grado razonable de sensibilidad y especificidad. De estos la RM puede ser el método cuantitativo más seguro, sin embargo es caro y no está fácilmente disponible. La TC permite un diagnóstico significativo para la detección de esteatosis hepática. El estudio por ultrasonido puede ser muy preciso, aunque tiene algunos límites ya que va a depender de las técnicas de procesamiento de imágenes que se le aplique. Chun Yeh et al, [4]. Clasificó la esteatosis hepática usando ultrasonido de alta frecuencia, para esto utilizaron características de imágenes derivadas de la co-ocurrencia de niveles de gris, Transformada Wavelet y Máquinas de Soporte Vectorial. Los resultados de la clasificación se correlacionaron con muestras histológicas indicando que la esteatosis hepática puede ser caracterizada con más precisión usando ultrasonido de alta frecuencia. En el presente trabajo se desarrolló un algoritmo para la detección de esteatosis hepática para esto se utilizaron imágenes médicas de tomografía computarizada y de ultrasonido. La técnica aplicada fue la extracción de
INTRODUCCIÓN La esteatosis hepática ó hígado graso, es una entidad patológica que se caracteriza por la acumulación de glóbulos de grasa dentro de los hepatocitos (células hepáticas), es una condición muy frecuente que se asocia principalmente a obesidad, diabetes mellitus, dislipidemia, entre otras. La esteatosis hepática es un problema de salud pública. La Organización Mundial de la Salud (OMS), estima que el 80% de las personas con obesidad padecen hígado graso, y el 90% de las personas con síndrome metabólico también. Se presenta en el 70% de las personas con diabetes mellitus y en el 20% de las personas con alteración en colesterol y triglicéridos. Es la tercera enfermedad hepática más frecuente y requiere tratamiento para evitar complicaciones graves, ya que puede llevar a inflamación hepática, con la posibilidad de desarrollar fibrosis, hepatocarcinoma y finalmente terminar en un daño hepático crónico. Algunos trabajos relacionados con este tema son los siguientes: Qayyum et al, [1]. Proponen medir la esteatosis hepática en imágenes de TC en base a las densidades de Hounsfield en regiones del hígado y del bazo. Como resultado se logra correlación con respecto a cortes histológicos. Davidson et al, [2]. Desarrollaron un protocolo para la medición de grasa en el hígado mediante tomografía computarizada. Se llevó a cabo un estudio preliminar con 118 hombres y 76 mujeres para determinar un punto de referencia vertebral fácilmente identificables en la que la imagen de TC muestra tanto el hígado como el bazo. La adquisición de una imagen de TC a nivel de T12-L1 es un método práctico y confiable para la medición rutinaria de la
2
Memorias_BIOVEN_2012
distancia d y una dirección θ ocurren en la imagen, uno con nivel de gris i y el otro con nivel de gris j. La matriz de coocurrencia considera la relación espacial entre dos pixeles, llamados pixel de referencia o de interÊs y su pixel vecino. Cada elemento de la matriz de co-ocurrencia Cij es el número de veces que en toda la matriz de entrada pasamos del nivel de gris i al nivel de gris j para una distancia y ångulo determinados. La matriz de co-ocurrencia normalizada se define como [6]:
caracterĂsticas de textura por medio de la matriz de coocurrencia de los niveles de gris; a los parĂĄmetros obtenidos (contraste, correlaciĂłn, energĂa y homogeneidad) se le aplicĂł el anĂĄlisis de regresiĂłn logĂstica binaria, ademĂĄs se extrajeron algunas estadĂsticas descriptivas como la media, varianza, desviaciĂłn estĂĄndar, mĂnimo y mĂĄximo valor de pixel. El artĂculo estĂĄ conformado por una secciĂłn de MetodologĂa que describe la base de datos utilizada para el estudio, la misma estĂĄ compuesta por subsecciones que describen los pasos que se aplicaron hasta obtener los resultados y las respectivas conclusiones.
,
, ∑
(1)
, ,
B. ParĂĄmetros de Textura
METODOLOGĂ?A La base de datos que se utilizĂł estĂĄ conformada por dos tipos de imĂĄgenes mĂŠdicas provenientes de un equipo de tomografĂa computarizada y un equipo de ultrasonido. Los estudios tomogrĂĄficos utilizados fueron provenientes de un tomĂłgrafo General Electric light speed II de 64 cortes. Las imĂĄgenes fueron adquiridas en formato DICOM con una resoluciĂłn de 512x512. Las imĂĄgenes de ecografĂa fueron adquiridas en un equipo de ultrasonido Maylab 50 esaote, en formato bmp y con una resoluciĂłn de 800x600.
• Contraste: Proporciona informaciĂłn acerca de las variaciones bruscas del nivel de gris de la imagen. ∑ , | |2P(i, j) (2) • CorrelaciĂłn: Proporciona una medida de la probabilidad de la relaciĂłn entre los diferentes niveles de gris de los pixeles.
∑ ,
,
Donde:
(3)
Îź ∑ ∑ P(i,j) es el valor medio de los niveles de
A. Pre-procesamiento Se desarrollĂł un algoritmo de segmentaciĂłn manual para trazar un polĂgono o regiĂłn de interĂŠs que representa el hĂgado en las imĂĄgenes tomogrĂĄficas de pacientes sanos y enfermos (Figura 1-A); en las imĂĄgenes de ultrasonido se traza dicho polĂgono en un pequeĂąa porciĂłn del lĂłbulo derecho (Figura 1-B); en imĂĄgenes provenientes de pacientes sanos y enfermos. Dichas regiones se subdividen en una cuadrĂcula con ventanas de tamaĂąo 4x4. Posteriormente se calcula la matriz de co-ocurrencia y estadĂsticas descriptivas de interĂŠs.
gris.
∑ ∑ Îź 2P(i,j)
es la varianza de los niveles de gris. • EnergĂa: Proporciona una idea de la suavidad de la textura. ∑ , (i,j)2 (4) • Homogeneidad: Proporciona informaciĂłn sobre la regularidad local de la textura. ,
! " ∑ , #$| |
(5)
C. AnĂĄlisis de RegresiĂłn LogĂstica Binaria Son modelos estadĂsticos que buscan la relaciĂłn entre 1) una variable dependiente cualitativa dicotĂłmica (dos categorĂas) y 2) la o las variables explicativas independientes que pueden ser continuas o categĂłricas. Para esta investigaciĂłn, la variable dependiente es el diagnĂłstico de Esteatosis HepĂĄtica, el cual toma dos posibles alternativas: enfermo o sano codificadas con 1 y 0 respectivamente. SegĂşn Carrasco y HernĂĄn [7], este tipo de anĂĄlisis permite: 1) Cuantificar la importancia entre cada covariable y la variable dependiente, lo que lleva implĂcito clarificar relaciones confusas entre covariables y la variable dependiente a travĂŠs de la detecciĂłn de interacciones. 2) Clasificar individuos dentro de las categorĂas de la variable dependiente (enfermo/sano), segĂşn la probabilidad que tenga de pertenecer a una de ellas en funciĂłn de las covariables que tengan efecto significativo.
Figura 1. A). Imagen tomogrĂĄfica, regiĂłn de interĂŠs. B). Imagen de ultrasonido, regiĂłn de interĂŠs. Matriz de Co-ocurrencia La matriz de co-ocurrencia fue introducida por Haralick (Haralick y otros, 1973). Los resultados de muchos trabajos demuestran la eficacia de este mĂŠtodo para caracterizar las texturas, y por ello es la referencia para cualquier estudio de textura. La matriz de co-ocurrencia es la forma natural de estimar la estadĂstica de segundo orden del nivel de intensidad. La base de este mĂŠtodo es el modelo Markoviano que limita la dependencia espacial interpixel a un vecindario local [5]. La co-ocurrencia de los niveles de gris de una imagen digital se pueden especificar mediante una matriz de frecuencias relativas con elementos Pij en la que dos pixeles vecinos separados por una
3
PROCESAMIENTO DE IMà GENES MÉDICAS
*+ ,
Finalmente, la curva CaracterĂstica de Operaciones del Receptor (COR), permite evaluar grĂĄficamente la capacidad del modelo para discriminar. En este caso, Y=1 significa presentar EH, entonces el ĂĄrea bajo la curva ROC presenta la probabilidad que tiene un individuo de enfermo elegido al azar tenga mayor probabilidad estimada de padecer la enfermedad que un individuo no enfermo elegido al azar. En la prĂĄctica, esta ĂĄrea es el porcentaje de pares de individuos enfermos y no enfermos en los que el enfermo tiene mayor probabilidad estimada de padecer la enfermedad que ĂŠl no enfermo [8].
-.
# -.
/ 7.28 4 1.8 4 4.82! .158" .0289 4 .499; 4 .0398"9=
(6)
El modelo final tiene asociado un valor del test de bondad de ajuste con 7 grados de libertad Ď&#x2021;2 (g.l=7) = 0.9223; p = 0.3368, afirmando que no hay evidencia suficiente para rechazar el modelo planteado, con un nivel de significaciĂłn de 0.01, de igual forma los estadĂsticos Likelihood Ratio, Score y Wald presentan niveles de significaciĂłn p<0.0001, lo cual rechaza la hipĂłtesis > â&#x20AC;&#x2122;s, confirmando planteada por estos test de nulidad de los % asĂ la significaciĂłn del modelo estimado. Lo observado en el ajuste global del modelo se confirma con el contraste individual de los parĂĄmetros, en donde todos los % estimados son significativamente distintos de cero (|?@AB| C 1.96 , esto significa que todas las variables introducidas en el modelo tienen un efecto significativo en la probabilidad de padecer EH, incrementĂĄndola o disminuyĂŠndola segĂşn sea el caso. En este estudio, el interĂŠs radica en estimar un modelo de clasificaciĂłn de los individuos en enfermos y sanos. Hasta este momento estudiamos la adecuaciĂłn del modelo a los datos en base a contrastes de bondad de ajuste, quedando claro que es adecuado, pero es muy importante mencionar que los Ăndices de clasificaciĂłn correcta y ĂĄrea bajo la curva COR tambiĂŠn indican la calidad de clasificaciĂłn, la cual es satisfactoria.
RESULTADOS Se trabajĂł con 6 pacientes sanos y 8 con Esteatosis HepĂĄtica (EH) a los cuales se les tomaron imĂĄgenes de tomografĂa computarizada en tres fases: simple, arterial y venosa. Adicionalmente se estudiaron a travĂŠs de ultrasonido a 22 pacientes con EH y 25 sanos. Se generaron matrices de co-ocurrencia de tamaĂąo 4x4, quedando las imĂĄgenes constituidas por arreglos que variaron entre 166 hasta 336 matrices en el caso de tomografĂa computarizada y entre 116 y 694 para imĂĄgenes de ultrasonido, a los cuales se les extrajeron las siguientes caracterĂsticas: contraste (CON), correlaciĂłn (CORR), energĂa(EN), homogeneidad(HO), entropĂa(ENT), media(M), varianza(VAR), desviaciĂłn estĂĄndar(DE), mĂnimo(MIN) y mĂĄximo(MAX) pixel. Con el fin de establecer si la probabilidad de presentar EH puede ser determinada efectivamente por las caracterĂsticas evaluadas en las imĂĄgenes, se ajustĂł un modelos de regresiĂłn logĂstica binario, considerando como variable dependiente la presencia o ausencia de la enfermedad (enfermo = 1, sano = 0) y como variables predictoras las caracterĂsticas extraĂdas de las imĂĄgenes. El ajuste del modelo se hizo utilizando en mĂŠtodo stepwise para la selecciĂłn de las variables significativas, con probabilidad de entrada 0.1 y probabilidad de salida de 0.01, lo cual implica que los resultados aquĂ presentados son vĂĄlidos con un 99% de confianza.
Pronosticado Enfer.
Observado Enfermos Sanos % Global
Sanos
%
85,4% 24.6%
Concordancia=85
24.4% 61,9%
Discordancia=14.8 85,0%
Tabla I. Tasa de ClasificaciĂłn Correcta del modelo de regresiĂłn logĂstica estimado con cut-point Ăłptimo = 0.42. El poder discriminante que tiene el modelo es de 85.1%, evaluado con el ĂĄrea bajo la curva ROC. En la validaciĂłn del modelo, se encontraron 5 (de 3456) observaciones con residuos atĂpicos (>3), dos presentaron simultĂĄneamente medidas de influencia elevadas, razĂłn por la cual fueron eliminados y reajustados los valores estimados, para garantizar la reproducibilidad del modelo presentado en este trabajo. Finalmente, la ecuaciĂłn para la estimaciĂłn de la probabilidad de presentar EH, viene dada por:
1. ImĂĄgenes TomogrĂĄficas El primer conjunto de imĂĄgenes analizadas fueron tomadas en las fases simple, arterial y venosa, lo que requiriĂł estudiar su influencia en las caracterĂsticas extraĂdas, encontrando pequeĂąas diferencias de la fase venosa con las demĂĄs, por esto se ajustaron modelos logĂsticos en cada una de las fases. El mejor ajuste del modelo a los datos se evidenciĂł en la fase venosa, y son los resultados que se muestran a continuaciĂłn.
@E F+GF ! 7.28 4 1.8 4 4.82! .158" .0289 J/J 4 .499; 4 .0398"9=
A travĂŠs del mĂŠtodo de stepwise, se excluyeron del modelo las variables CORR, ENT y MIN por presentar un efecto no significativo (%& %' %( 0 en la predicciĂłn del riesgo de presencia de la enfermedad.
1KH1 4 = ,â&#x20AC;&#x201C; H
(7)
Una vez estimada la probabilidad, se clasifica al individuo como pertenecer al grupo de pacientes con EH si p > cut-point, de lo contrario es poco probable que tenga
Luego de excluidas las variables no significativas, el modelo ajustado es:
4
Memorias_BIOVEN_2012
EH y es descartada la enfermedad. En la tabla I se presentĂł el punto Ăłptimo, es decir, donde la sensibilidad (Se =85,4%) y la especificidad (Sp =61.9%) grĂĄficamente se cruzan, pero es posible fijarlo segĂşn el interĂŠs de cada investigador, cuidando siempre que tanto Se y Sp sean superiores al 50% de clasificaciĂłn correcta.
La informaciĂłn proveniente de las imĂĄgenes de ultrasonido, permitiĂł ajustar un modelo con mejores niveles de clasificaciĂłn de los individuos en enfermos (EH) y sanos, con niveles de sensibilidad y especificidad cercanos al 90%, lo que afirma que los resultados son confiables para diagnosticar la presencia o ausencia de la Esteatosis HepĂĄtica, a diferencia del modelo para imĂĄgenes de tomografĂa, que es mĂĄs eficiente para descartar la EH que para detectarla.
2. ImĂĄgenes de Ultrasonido Al estudiar las variables significativas en la predicciĂłn de EH usando regresiĂłn logĂstica binaria, se incorporaron inicialmente las mismas variables introducidas en el modelo para imĂĄgenes de tomografĂa computarizada. A travĂŠs del mĂŠtodo de selecciĂłn stepwise, se excluyeron la correlaciĂłn, energĂa y desviaciĂłn estĂĄndar. El modelo estimado resultante se muestra a continuaciĂłn: *+ ,
-.
# -.
AGRADECIMIENTOS Se agradece al CDCHT y al CEP de la Universidad de Los Andes por el apoyo brindado a este proyecto. Se agradece tambiĂŠn a los Doctores Javic GonzĂĄlez y JosĂŠ Rivas por proporcionar las imĂĄgenes utilizadas en este trabajo.
/ 12.21 1.62 1.52! 4 2.75 L 4 .071" .003189 4 .028"M 4 .029"9=
(8)
REFERENCIAS
La prueba de bondad de ajuste Chi-cuadrado indica que no hay evidencia suficiente para rechazar el modelo planteado (Ď&#x2021;2 (gl=3)=0.4241; p = 0.935), lo cual se afirma con una confianza del 99%. Las pruebas Score, Wald y Likelihood Ratio muestran valores de significaciĂłn asociados al estadĂstico de prueba <0.0001, indicando que
[1]. Qayyma A. et al (2009). Evaluation of diffuse liver steatosis by ultrasound, computed tomography, and magnetic resonance imaging: Which modality is best. Clinical Imaging, 33: pp 110-115. [2]. Davidson L. et al (2006). Protocol for measurement of liver fat by computed tomography. School of Physical and Health Education and Division of Endocrinology and Metabolism, Department of Medicine, Queenâ&#x20AC;&#x2122;s University, Kingston, Ontario, Canada. The Cooper Institute, Dallas, Texas, 100: pp 864-868. [3]. Lupsor M. et al (2005). Imaging diagnosis and quantification of hepatic steatosis: Is it an accepted alternative to needle biopsy. Clinical Imaging. Department of Ultrasonography, University of Medicine and Pharmacy, Cluj-Napoca, Romania, 4: pp 419-425. [4]. Chun Y. et al (2005). Liver steatosis classification using high frequency ultrasound. Ultrasound in Med and Biol, 31: pp 599-605. [5]. Passariello, G. et al (1995). ImĂĄgenes MĂŠdicas. AdquisiciĂłn AnĂĄlisis Procesamiento InterpretaciĂłn. Ediciones Equinoccio de la Universidad SimĂłn BolĂvar, Venezuela. [6]. Pino, A. et al (2009). DeterminaciĂłn de propiedades superficiales del papel utilizando el anĂĄlisis de la textura del patrĂłn de speckle. Universidad PolitĂŠcnica de CataluĂąa. Barcelona, EspaĂąa. [7]. Carrasco J. et al (1993). EstadĂstica multivariante en las ciencias de la vida. Editorial Ciencia 3. Madrid, EspaĂąa. [8]. Hosmer D. et al (2000). Applied Logistic regression. Inc. 2ÂŞ Ed. John Willey & Sons.
la hipĂłtesis de nulidad global de los %N OP es rechazada, al nivel 0.01. El test Ď&#x2021;2 de Wald para verificar individualmente el efecto de las variables sobre el riesgo a favor de presentar la EH, indica que para todas las variables incluidas en el modelo el riesgo estimado difiere del valor uno, aumentando o disminuyendo la probabilidad de presentar la enfermedad si el signo del parĂĄmetro estimado es positivo o negativo respectivamente. En este caso se incluye en intercepto del modelo. Para el cut-point 0.44, la TCC es de 89.1%, con sensibilidad de 88.0% y especificidad de 89.8%. El ĂĄrea bajo la curva COR es 0.96. La ecuaciĂłn de estimaciĂłn para la probabilidad de presentar EH estĂĄ dada por:
@E F+GF ! 1KH1 4 = , H
12.21 1.62! 1.52! 4 .071" J/J .00389 4 .028"M 4 .029"9= 4 2.75 L
(9)
CONCLUSIONES Los modelos ajustados para estimar la probabilidad de pertenecer a pacientes con EH, para imĂĄgenes de tomografĂa computarizada en fase venosa y ultrasonido, presentaron medidas de ajuste global satisfactorias, con TCC altas en ambos casos y niveles de sensibilidad y especificidad superiores al 50% en ambos modelos. Se observĂł que el contraste, la homogeneidad, la media, la varianza y el mĂĄximo valor del pixel, resultaron parĂĄmetros significativos en las ecuaciones ajustadas para imĂĄgenes tomogrĂĄficas en la fase venosa y en las imĂĄgenes por ultrasonido.
5
PROCESAMIENTO DE IMÁGENES MÉDICAS
ESTIMACIÓN DEL MOVIMIENTO CARDIACO EN IMÁGENES DE RESONANCIA MAGNÉTICA USANDO UN ALGORITMO BASADO EN FLUJO ÓPTICO Emiro Ibarra1, Robert Salas1, Rubén Medina2, Mireille Garreau3 1
Centro de Ingeniería Biomédica y Telemedicina (CIBYTEL) de La Universidad de Los Andes 2 Postgrado de Ingeniería Biomédica de La Universidad de los Andes 3 Laboratoire de Traitement de Signal et de L’Image, Université de Rennes 1, France e-mail: emiroji@gmail.com,
RESUMEN En este trabajo se estudia el algoritmo de flujo óptico propuesto por Horn y Shunck y una versión modificada del mismo propuesto por Barron, con el objetivo de identificar el método que presente un mejor rendimiento en la estimación del movimiento del ventrículo izquierdo. En este sentido, se busca optimizar el valor del parámetro de restricción de suavidad empleando diferentes secuencias de imágenes sintéticas, en las que previamente se conoce la velocidad de desplazamiento, para validar y comparar cuantitativamente mediante el cálculo de errores de magnitud y ángulo, los algoritmos en estudio. Posteriormente la técnica más precisa se aplica a una secuencia de imágenes 4D (3D + tiempo) de resonancia magnética cardiaca, con el fin de estimar el movimiento del ventrículo izquierdo durante el intervalo comprendido entre sístole y diástole de un ciclo cardiaco. Los resultados obtenidos se contrastan cualitativamente en base al conocimiento a priori del movimiento cardiaco. Palabras Clave: Flujo Óptico, Imágenes de Resonancia Magnética, Movimiento Cardiaco, Ventrículo Izquierdo. aplicaciones no han sido rigurosamente validadas desde el punto de vista clínico. Entre las diversas alternativas expuestas en la literatura, destaca la estimación de flujo óptico basado en la propuesta de Horn y Shunck [7]. Este enfoque es simple y permite calcular los vectores de velocidad con errores muy similares o incluso menores a los obtenidos por otros algoritmos de estimación de flujo óptico [8, 9], además existen estudios en donde se muestran buenos resultados en la estimación del movimiento cardiaco a partir de imágenes de ecocardiografía [5] y en tomografía computarizada [6]. Debido a esto, surge la necesidad de estudiar la técnica propuesta por Horn y Shunck, compararla con la versión modificación realizada por Barron (en donde se propone una nueva forma de calcular las derivadas parciales requeridas por el algoritmo [8]), y adicionalmente seleccionar el valor óptimo del parámetro de restricción de suavidad; con el fin de aprovechar la simplicidad que presenta la técnica y obtener una estimación cualitativa del movimiento del ventrículo izquierdo a partir de una secuencia de imágenes 4D (3D + tiempo) de resonancia magnética cardiaca. Finalmente, se establece una comparación con respecto a los resultados mostrados en [3, 4] y se derivan algunas conclusiones.
INTRODUCCIÓN La estimación y análisis del movimiento a nivel del miocardio es una etapa esencial de procesamiento para la comprensión de la función cardiaca a partir de imágenes médicas. Se ha evidenciado que los desórdenes en el movimiento de las paredes ventriculares representan indicadores sensitivos del daño cardiovascular, por ejemplo, la disminución del esfuerzo transmural (entre paredes) y la disminución de la torsión del ventrículo izquierdo son indicadores importantes de la presencia de daño isquémico sobre determinada región del miocardio [1]. Desde el punto de vista de la aplicación clínica, la estimación del movimiento cardiaco considera dos imágenes del ventrículo izquierdo adquiridas usando modalidades 2D tales como angiografía por rayos X o la ecocardiografía, mediante las cuales se analiza cualitativamente y cuantitativamente la contractibilidad segmentaria, para identificar alteraciones en la cinética del ventrículo izquierdo [2]. Sin embargo, estas técnicas, no consideran el movimiento en todos los puntos de las paredes del ventrículo ni en todos los instantes del ciclo cardiaco. Como respuesta a esta necesidad, se han aplicado un gran número de algoritmos computacionales en diferentes modalidades imagenológicas, con el fin de obtener una representación adecuada al movimiento real del ventrículo izquierdo [3, 4, 5, 6]. No obstante, muchas de estas
FLUJO ÓPTICO Dada una secuencia de imágenes donde
E ( x, y , t ) representa el brillo de la imagen en un punto ( x, y ) para
6
Memorias_BIOVEN_2012
un tiempo t ; y bajo la hipótesis que la iluminación permanece constante y el cambio del tono de gris se debe al movimiento aparente de los objetos, se tiene que en un punto particular el brillo de la imagen no varía [7], es decir: dE (1) =0 dt Por lo tanto, si se considera que el patrón de brillo se desplaza debido al movimiento del objeto en la imagen, una distancia δ x en la dirección x y δ y en la dirección
considerando que las secuencias de imágenes, generalmente son muestreadas en una cuadricula a intervalos regulares, las laplacianas deben estimarse como se muestra en (6) y (7)
( ∇ v ≈ k (v
∇ 2 u ≈ k u i , j ,k − u i , j ,k 2
30
1 (ui−1, j ,k + ui, j +1,k + ui+1, j ,k + ui, j −1,k ) 6 1 + (u i −1, j −1,k + u i −1, j +1,k + u i +1, j +1,k + u i +1, j −1,k ) 12 1 v i , j ,k = (vi −1, j ,k + vi , j +1,k + vi +1, j ,k + vi , j −1,k ) 6 1 + (vi −1, j −1,k + vi −1, j +1,k + vi +1, j +1,k + vi +1, j −1,k ) 12 i : indica la fila, j : la columna y k : el cuadro.
seg ) la variación del brillo en la imagen
será pequeña; lo que permite la expansión de (2) en series de Taylor sobre el punto ( x, y, t ) , obteniendo:
E(x, y, t) = E(x, y, t) + δ x
∂E ∂E ∂E +δ y +δt +ε ∂x ∂y ∂t
(3)
La ecuación de restricción de flujo óptico (5) y las ecuaciones de restricción de suavidad (6) y (7), serán cero en el caso ideal, pero en la práctica existen errores debido a la tasa de cambio del brillo en la imagen y a la medida de la desviación de la suavidad en la velocidad de flujo. Por lo que en [7] el error total a minimizar es:
donde: ε = Derivadas de orden superior. Si se asume ε despreciable, y reordenando (3) :
∂E dx ∂E dy ∂E + + =0 ∂x dt ∂y dt ∂t
(4)
ξ
Que también puede escribirse como:
E x u + E y v + Et = 0
donde:
(u, v ) =
=
∫∫ (α
2
)
⋅ ξ c2 + ξ b dxdy 2
(8)
ξ b = E x u + E y v + Et 2
∂u ∂u ∂v ∂v ξ = + + + ∂x ∂y ∂x ∂y 2
.
2
2
2 c
La Ecuación (5) es conocida como la ecuación de restricción del Flujo Óptico, y podría ser aplicada a cada píxel ( x, y ) de la imagen, en el tiempo t , sin embargo no existe una solución única para resolver esta expresión. En consecuencia se hace necesario imponer restricciones adicionales que permitan estimar el flujo óptico de la imagen.
α = Parámetro de peso de la restricción de suavidad. Mediante un cálculo variacional se obtiene un sistema de ecuaciones que puede ser resuelto por el método iterativo de Gauss-Seidel, del que se obtiene: u
Restricción de Suavidad (Horn & Schunck) En la literatura se han registrado diferentes restricciones para estimar el flujo óptico en la imagen partiendo de (5). Una de ellas es la presentada por Horn & Schunck [7] quienes proponen la restricción de suavidad, basándose en el hecho que en un objeto opaco de tamaño finito que experimenta un movimiento rígido o deformación, los puntos vecinos a éste tendrán velocidades similares, haciendo que el campo de velocidad de los patrones de brillo de la imagen varíe suavemente en casi todas partes. Esta limitación de suavidad se expresa mediante la suma de las laplacianas en las componentes
2
donde:
(5)
Vector de velocidad o flujo óptico,
u = dx dt , v = dy dt
(7)
u i , j ,k =
Bajo la premisa de que la transición δ t es pequeña, (por ejemplo, el valor típico del periodo de muestreo en un
1
− vi , j , k
(6)
donde:
y en un tiempo δ t , el brillo se mantiene constante así: E ( x, y , t ) = E ( x + δ x , y + δ y , t + δ t ) (2)
video es de
i , j ,k
) )
v
n +1
n +1
n
=u − n
=v −
[
n
n
E x E x u + E y v + Et
(α
[
2
+E +E 2 x
n
2 y
)
n
E y E x u + E y v + Et
(α
2
+ E x2 + E y2
)
]
]
(9)
(10)
donde: n representa el número de iteraciones.
Estimación de las derivadas parciales. El cálculo de las derivadas parciales E x , E y y E t , utilizado por Horn & Schunck, consiste en una aproximación que considera un punto en el centro de un cubo formado por 8 muestras de la secuencia de imágenes, muestreadas en una cuadricula a intervalos regulares. La
(x, y ) del flujo [7],
7
PROCESAMIENTO DE IMÁGENES MÉDICAS
derivada se estima en base al promedio de cuatro de las primeras diferencias tomadas sobre muestras adyacentes en el cubo [7]. De acuerdo a [8] usar diferencias de primer orden para estimar las derivadas de intensidad de brillo, puede considerarse una fuente de error, debido a que esta es una forma de diferenciación numérica relativamente cruda. En consecuencia, propone la estimación del gradiente de intensidad mediante la diferencia de cuatro puntos, usando un kernel con coeficientes: 1 [−1 8 0 − 8 1]
secuencia de imágenes 4D (3D + tiempo) de resonancia magnética cardiaca, disponibles en [12], las cuales se obtuvieron con un resonador 1.5T de GE Signa MRI, MR durante 10-15 segundos con la respiración suspendida. Las secuencias tienen una resolución temporal de 20 fases cardíacas durante un ciclo cardíaco. Tabla I. Cuantificación y comparación de errores en secuencias de imágenes sintéticas para ambas aplicaciones.
12
VALIDACIÓN Y COMPARACIÓN ALGORITMO EN IMÁGENES SINTÉTICAS
Secuencia
DEL
mysineB mysineC square 1 square 2 Secuencia
En la implementación de este trabajo, se utilizó el algoritmo diseñado por Mohd Kharbat disponible en [10], el cual fue realizado en MATLAB 7.4 ®. Es importante destacar que a la técnica se le adiciona una etapa de preprocesamiento en donde las imágenes a color se convierten en imágenes a niveles de grises y se aplica un filtro Gausiano con una desviación estándar de 1, este filtrado permite suavizar la imagen para que cumpla en mayor proporción con la restricción de suavidad. Para verificar el desempeño del algoritmo y comparar las mejoras obtenidas con la nueva estimación de las derivadas parciales, se aplican ambas técnicas a un conjunto de imágenes sintéticas (disponibles en [11]), en las que se conoce su velocidad de movimiento. La eficiencia de ambas versiones del algoritmo se cuantifica mediante el cálculo de la magnitud promedio normalizada de la diferencia entre el vector de velocidad correcto y el estimado. Adicionalmente se estima el error angular entre los vectores normalizados de velocidad real y estimada. En ambos casos se varía el parámetro de restricción de suavidad en un rango de 10 hasta 100 con pasos de 10, y se selecciona la estimación con menor error. Por otra parte, el número de iteraciones se fija en 100 para todas las pruebas tal como se recomienda en [8]. Los resultados se muestran en la Tabla I, en donde se observa como la modificación en la estimación de las derivadas parciales mejoran la precisión del algoritmo de Horn y Shunck; además el valor óptimo de α permanece constante para diferentes secuencias. Por estas razones se puede aseverar que en la versión modificada el valor óptimo de α oscila entre 10 y 20, lo cual sería difícil de predecir con la aplicación original.
mysineB mysineC square 1 square 2
Algoritmo de Horn y Shunck original Error de α Magnitud (%) 100 11,14 20 0,12 10 16,47 40 20,78 Error del α Angulo (º) 100 3,79 20 0,23 10 8,00 40 8,23
Algoritmo de Horn y Shunck modificado Error de α Magnitud (%) 20 7,17 20 0,11 10 16,62 10 14,82 Error del α Angulo (º) 20 2,43 20 0,26 10 7,66 10 5,81
En primer lugar, la aplicación del algoritmo se realizó sobre una capa ecuatorial (5) de una secuencia volumétrica formada por nueve capas, con un tamaño de 66x91 pixeles que incluye la región del ventrículo izquierdo, de esta manera, se logra disminuir el ruido debido al movimiento de los órganos adyacentes. El parámetro de suavidad y el número de iteraciones se fija en 15 y 100 respectivamente en base a los resultados obtenidos con datos sintéticos. Por otra parte, en la figura 1 se muestra el movimiento del endocardio tomado de una capa cerca de la base (capa 2), desde la primera fase temporal hasta la octava fase temporal, lo que corresponde a la sístole, y luego desde la novena fase temporal hasta la diecisieteava fase temporal, correspondiente a la diástole. Esta representación permite una mejor visualización del movimiento del endocardio hacia el interior de la cavidad ventricular durante sístole y hacia el exterior en diástole, y al mismo tiempo refleja poco movimiento en el septum inter-ventricular, lo que de acuerdo a [1] corresponde al movimiento real de la estructura 3D del corazón. CONCLUSIONES La aplicación de la versión original y modificada del algoritmo de flujo óptico de Horn y Shunck, a la secuencia de imágenes sintéticas, demuestra como la estimación de las derivadas parciales sugerido en [8] mejora significativamente la estimación de los vectores de velocidad. Los resultados obtenidos con esta modificación, se pueden considerar aceptables, pues concuerdan, con la fisiología
ESTIMACIÓN DEL MOVIMIENTO CARDIACO Como se muestra en la sección anterior, la modificación del algoritmo de estimación de flujo óptico, produce mejores resultados que su versión original, por esta razón se utiliza para estimar el movimiento cardiaco en una
8
Memorias_BIOVEN_2012
del movimiento de las paredes del ventrículo, y además generan resultados similares a otras técnicas de estimación de movimiento como los mostrados en [3, 4]. Sin embargo, se requiere una validación clínica completa y la estimación de parámetros asociados a la cinesia ventricular tanto a nivel global como local.
REFERENCIAS [1] Bravo A. (2005): Simulación y Reconstrucción en 4-D del Ventrículo Izquierdo en Imagenología Cardiaca. Tesis Doctoral, Universidad Simón Bolívar, Venezuela. [2] Jadraque L. et al. (1988): Cardiopatía isquémica: Angina de pecho, infarto de miocardio, 2da edición, Editorial Norma. [3] Carranza N. et al. (2006): A New Cardiac Motion Estimation Method Based on a Spatio-Temporal Frequency Approach and Hough Transform, Computers in Cardiology, 33: pp 805−808. [4] Macan T. et al. (2001): 3D cardiac motion estimation by point-constrained optical flow. 2nd International Symposium on Image and Signal Processing and Analysis, Pula, Croacia, pp 255 – 259. [5]Sühling M. et al. (2005): Myocardial Motion Analysis From B-Mode Echocardiograms, IEEE Transactions on Image Processing, 14: pp 525-536. [6] Song S. et al. (1991): Computation of 3-D Velocity Fields from 3-D Cine CT Images of a Human Heart, IEEE Transactions on Medical Imaging, 10: pp. 295-306. [7] Horn B. et al. (1981): Determining Optical Flow, Artificial Intelligence, 17, pp 185-204. [8] Barron J. (1994): Performance of Optical Flow Techniques, IJCV, 12: pp 43-77. [9] McCane B. et al. (2001): On Benchmarking Optical Flow, Computer Vision and Image Understanding, 84: pp 126 -143. [10] Mohd K. Horn-Shunck Optical Flow Method. Página web disponible en línea: http://www.mathworks.com/matlabcentral/fileexchange/22 756-horn-schunck-optical-flow-method. Último acceso: Mayo, 2012. [11] Barron J. Secuencia de Imágenes Sintéticas. Página web disponible en línea: ftp://ftp.csd.uwo.ca/pub/vision. Último acceso: Mayo, 2012 [12] R. Perry, Cardiac MR Left Ventricle Segmentation Challenge. Página web disponible en línea: http://smial.sri.utoronto.ca/LV_Challenge/Home.html. Último acceso: Mayo, 2012. [13] Bravo A. et al. (2009): Left Ventricle Segmentation and Motion Analysis in MultiSlice Computerized Tomography, In Biomedical Image Analysis and Machine Learning Technologies: Applications and Techniques. Editor González F. et a1., pp 307-365. [14] A. Simon et al. (2004): Cardiac motion extraction using 3D surface matching in multislice computed tomography, In Proceeding of the Medical Image Computing and Computer Assisted Intervention, Berlin, Germany, pp. 1057-1059.
(a)
(b) Figura 1. Movimiento del endocardio (a) Sístole (b) Diástole Finalmente, el aporte que busca generar este estudio, es demostrar que optimizando el algoritmo de Horn y Shunck se obtienen mejores resultados. Adicionalmente, su aplicación a la estimación del movimiento cardiaco es factible pues el campo de velocidad estimado es coherente con respecto al conocimiento a priori que se tiene acerca de la cavidad ventricular. El método es simple e implica un bajo costo computacional. Como trabajo futuro se propone comparar con respecto a otras técnicas como las propuestas por A. Bravo et al. [13] y A. Simon et al. [14]. AGRADECIMIENTOS Este trabajo cuenta con el apoyo del CDCHT, DAP y CEP de la Universidad de Los Andes, así como del Proyecto ECOS-NORD-FONACIT PI-20100000299.
9
PROCESAMIENTO DE IMÁGENES MÉDICAS
MEDICIÓN AUTOMÁTICA DE GRADO DE FLEXIÓN DE EXTREMIDAD SUPERIOR POR ANÁLISIS DE VIDEO MONOCULAR G. A. Ceballos, J. D. Ávila Centro de ingeniería biomédica y telemedicina, Universidad de Los Andes, Mérida-Venezuela. e-mail: ceballos@ula.ve
RESUMEN Se presenta un método para obtener información del movimiento de una extremidad superior humana en base al análisis automático de video. Se usan técnicas básicas de segmentación de imágenes, cálculo de la curvatura del contorno de la extremidad segmentada y se utiliza Alineamiento Dinámico Temporal para hacer seguimiento de dos puntos críticos que marcan el codo. Adicionalmente se calculan los ejes medios del brazo y antebrazo para luego obtener curvas del ángulo de flexión de la extremidad en el tiempo. Se aplica esta metodología en siete personas y se compara la medición automática propuesta con la medición semiasistida en la que un fisiatra realiza las mediciones en imágenes haciendo uso de un computador. Los resultados sugieren que esta metodología pudiera servir de herramienta de apoyo en la medicina para la evaluación de distintas enfermedades que afectan la movilidad de las extremidades. Palabras Clave: Alineamiento dinámico temporal, ángulo flexo-extensión, Seguimiento por video, Cinemática articular.
El seguimiento del contorno cuadro a cuadro en el video se realiza por medio del Alineamiento Dinámico Temporal de la curvatura del contorno del cuadro anterior con la del presente. Se detectan dos puntos claves que marcan la articulación del codo y que sirven para dividir la extremidad superior en brazo y antebrazo. A cada segmento, brazo y antebrazo, se le extrae el eje medial. El ángulo entre los ejes mediales será el ángulo de flexoextensión de la extremidad. Luego de este proceso se dispone de una curva de ángulos cuya información es utilizada para hacer los cálculos respectivos del rango de movimiento de la extremidad y las velocidades medias con las que se ejecutan los movimientos de flexión y extensión de la extremidad.
INTRODUCCIÓN Los sistemas visuales de seguimiento de extremidades humanas en vídeo se pueden clasificar en dos categorías a partir del uso o no de marcadores anatómicos. El uso de marcadores para indicar la región de interés simplifica en gran medida el problema de seguimiento del movimiento humano, por tanto, han sido muy utilizados con éxito en ambientes de análisis deportivo y en la captura de movimiento para crear animaciones. Sin embargo, este tipo de tecnología es muy costosa y sólo se ejecuta en ambientes supervisados. Son más prácticos los sistemas de análisis de video sin marcadores ya que son más económicos, simples y rápidos en cuanto a la preparación del paciente. Los métodos basados en modelos son popularmente los más empleados, los cuales varían desde un simple modelo 2D hasta otros más sofisticados en 3D. Este tipo de seguimiento se realiza haciendo coincidir características de la imagen con el modelo de forma aprovechando el conocimiento de las características del cuerpo humano y de su movimiento. La mayoría de estos sistemas de seguimiento requieren ser inicializados manualmente de acuerdo a parámetros específicos para cada sujeto bajo estudio [1], lo que pudiera representar una desventaja para aplicaciones clínicas como la valoración de pacientes con problemas motores en una consulta médica. Este trabajo consiste en un sistema de seguimiento visual en tiempo real sin marcadores anatómicos. El sistema utiliza para la captura una cámara web de baja resolución (1,3 MP). Cada cuadro de video adquirido es segmentado y se extrae la curvatura del contorno de la región de interés (extremidad superior).
METODOLOGÍA La metodología propuesta para obtener el rango de movimiento de flexión (RMflex), rango de movimiento de extensión (RMext), la velocidad de flexión (Vflex) y la velocidad de extensión (Vext) consta de los siguientes procesos aplicados a cada cuadro (352x288 píxeles) de video: Segmentación: Se aplica el método de segmentación por umbralización de imágenes de escala de grises de Otsu [2], y se selecciona el objeto con el centroide mas cercano al centro de la imagen, el cual debe corresponder a la extremidad humana bajo estudio. Es de notar que el uso de una iluminación controlada, colores claros en la ropa de los pacientes y color blanco de fondo redujo considerablemente los problemas ocasionados por
10
Memorias_BIOVEN_2012
iluminación no balanceada en el proceso de segmentación. Ver Figura 1.
representan los vectores unitarios en dirección de las coordenadas x y y de los píxeles del contorno. Usamos un valor de δ=15 y la función sgn{x} representa el signo de x. En la Figura 1 se puede observar la señal de curvatura correspondiente a la extremidad segmentada. Alineamiento de la curvatura: aplicando Alineamiento Dinámico Temporal se alinea la curvatura del contorno actual con la del contorno del cuadro de video anterior. El algoritmo de alineamiento dinámico temporal de dos señales de curvaturas a=[a1,a2,…,an] y b=[b1,b2,…,bm] se basa en la construcción de una matriz de programación dinámica, en la que cada elemento [i,j] de la matriz representa una medida de similitud entre a=[a1,a2,…,ai] y b=[b1,b2,…,bj]. La matriz de programación dinámica M se construye de la siguiente manera:
P1
P0
Inicialización:
M (i,0) = 0,
0 ≤ i ≤ n
M (0, j ) = 0, 0 ≤ j ≤ m
M (i-1,j-1) + score(ai ,b j ) 1≤ i ≤ n M (i,j-1) + d M (i,j ) = max ∀ M ( i1 ,j ) + d 1 ≤ j≤m 0 Donde:
P1
score(ai ,b j ) =
1 1 + ai − b j
(2)
(3)
(4)
representa la similitud entre el valor de la curvatura ai y el valor de la curvatura bj. Como se puede observar en Ec. (3), el valor de un elemento de la matriz proviene de considerar el máximo entre cuatro elementos, se trata del caso 1, 2, 3, 4 cuando el máximo resulte ser el primero, segundo, tercero o cuarto de los argumentos de la función. d tiene un valor de 0.4 (llamado penalización por inserción de espacio) si el sumando con d en la Ec. (3) proviene de un caso 1 y tiene un valor de -0.05 (llamado penalización por extensión de espacio) en otro caso. Es necesaria la construcción de una matriz Ptr de punteros donde cada elemento Ptr(i,j) apunta a un elemento de la matriz M dependiendo de qué caso provino el valor de M(i,j):
P0 Figura 1. Segmentación, curvatura, esqueleto, puntos clave del codo. Curvatura del contorno: Del objeto segmentado se selecciona el píxel más cercano a la esquina superior izquierda de la imagen y de allí se hace el seguimiento del contorno del objeto [3]. Para obtener un contorno más suave se aplicó un filtro promediador a las coordenadas del contorno. De esta manera se obtiene el contorno cerrado c(n)=[x(n), y(n)] como se puede observar en la Figura 1. La curvatura del contorno se calcula según la fórmula siguiente:
& M (i-1,j-1) & M (i,j-1) Ptr (i,j ) = & M (i-1,j ) nulo
(1) Donde:
si caso1 si caso 2
(5)
si caso 3 si M (i, j ) = 0
& “significa dirección en memoria de“. La construcción de cada alineamiento entre las dos señales se realiza buscando el máximo en la matriz de programación M. Desde la posición del máximo local se hace un seguimiento de los apuntadores hasta conseguir un apuntador nulo. Cada
11
PROCESAMIENTO DE IMÁGENES MÉDICAS
posición [k,g] apuntada en ese seguimiento representa el correspondiente apareamiento entre ak y bg. Para una descripción detallada de este procedimiento ver [4]. La señal de curvatura correspondiente al primer cuadro de video se alinea con una plantilla de curvatura perteneciente a un diccionario prestablecido de curvaturas de contornos de extremidades humanas. En las plantillas se han etiquetado los dos valores de curvatura que corresponden al codo (ver P0 y P1 en Fig. 1 y Fig. 2) por lo que en los alineamientos subsiguientes se puede hacer seguimiento a estos puntos característicos del codo. Un ejemplo de alineamiento entre dos señales de curvatura, la del primer cuadro del video con una plantilla de la base de datos se puede observar en la Figura 2. Se puede apreciar como el algoritmo de alineamiento inserta espacios para maximizar el alineamiento de valores de curvatura similar. Este alineamiento, el de una curvatura plantilla con la del primer cuadro de video es el más crítico, del segundo cuadro de video en adelante los alineamientos son más exactos pues se espera poca variación en las formas de los contornos en cuadros consecutivos. El hecho de que en un cuadro de video el punto de inicio de seguimiento del contorno esté en una posición anatómica distinta a la del cuadro anterior pudiera considerarse como un problema, ya que ondas de la curvatura que aparecen al comienzo de una de las señales tendrán su correspondiente al final de la otra señal de curvatura. Esto puede solventarse si, antes de aplicar el proceso de Alineamiento Dinámico Temporal, a una de las señales de curvatura (la del cuadro actual o la del anterior) se le concatena una versión exacta de ella misma produciendo el efecto de recorrer el contorno cerrado dos veces. Si el algoritmo siempre hace el seguimiento del contorno en el mismo sentido este artilugio asegura que la curvatura del cuadro anterior consiga su patrón similar en el cuadro actual.
extremidad segmentada. El esqueleto es una primera aproximación al eje medial del contorno (ver Figura 1). Separación de brazo y antebrazo: al alinear la curvatura del cuadro actual con la del anterior se obtienen los dos puntos críticos del codo del cuadro actual. Trazando una recta entre ellos se divide el objeto segmentado en dos partes una perteneciente al brazo y otra al antebrazo. Cálculo de los ejes medios de los dos segmentos de la extremidad: la línea que divide al brazo en dos partes corta también el esqueleto obtenido de la extremidad completa. En cada segmento de esqueleto obtenido (el del brazo y el del antebrazo) se selecciona la rama de esqueleto más cercana al centroide del segmento. Para cada segmento de la extremidad, el eje medial se construye prolongando una línea desde el extremo distal (respecto al codo) de la rama del esqueleto seleccionada hacia el punto medio entre los dos puntos característicos del codo. En el caso del antebrazo la rama del esqueleto seleccionada se trunca seleccionando sólo el 70% de sus píxeles proximales al codo para evitar que la parte del esqueleto que viene dada por la forma de la mano influya en la inclinación del eje medial del antebrazo. Al obtener el ángulo entre los ejes mediales para cada cuadro de video se puede construir una curva de ángulo de flexo-extensión en el tiempo. A partir del análisis de las curvas de ángulo de flexoextensión en el tiempo se puede obtener el rango de movimiento en flexión y en extensión y la velocidad de flexión y de extensión de la siguiente manera. Rango de movimiento: la medición del ángulo entre los ejes medios cuadro a cuadro produce una señal ondulante para varias acciones de flexión y extensión de la extremidad, donde cada ascenso representa un movimiento de flexión y cada descenso un movimiento de extensión, ver Figura 3. Promediando el valor de los picos de esta señal oscilante se obtiene el rango de movimiento de flexión y promediando los valores de los valles se obtiene el rango de movimiento de extensión. Velocidad de flexo-extensión: la diferencia de ángulo medido entre cuadro y cuadro dividida entre el período de muestreo de la cámara (30fps) determina la velocidad angular de movimiento del antebrazo respecto al brazo. Si se promedia dicho cálculo para cada uno de los puntos de los segmentos ascendentes de la curva oscilante (grados vs tiempo) se obtiene la velocidad de flexión y si se hace para los segmentos descendentes se obtiene la velocidad media de extensión.
P1
RESULTADOS
P0
La metodología propuesta fue evaluada en cuatro pacientes del servicio de Neurología del Hospital de la Universidad de Los Andes y en tres personas sanas. La tabla I muestra el rango de flexión, rango de extensión, la velocidad media de flexión y la velocidad media de extensión medida de manera automática en los siete sujetos.
Figura 2. Alineamiento de dos contornos del brazo usando alineamiento dinámico temporal. Esqueletonización: usando algoritmos ya conocidos en análisis de imágenes [5], se obtiene el esqueleto de la
12
Memorias_BIOVEN_2012
una mejor ubicación de los puntos clave a usar para la medida por parte del fisiatra. Un factor que pudiera influenciar la medida automática de esa manera y que será digno de tratar en futuras investigaciones es el efecto que producen los pliegues entre brazo y antebrazo que se forman en la cara anterior del codo, los cuales pueden desviar los ejes medios de su ubicación ideal en el proceso de esquelotonización. La orientación ideal de los ejes medios debería ser siguiendo las estructuras óseas.
Tabla I. Ejemplo de medición de parámetros dinámicos de la extremidad superior RMflex Vext (º/s) Vflex (º/s) Sujeto Enfermedad RMext (º) (º) p1 Parkinson 4 134 9 10 p2 Parkinson 15 134 17 15 p3 Corea 13 123 10 12 p4 Tic -3 117 14 14 p5 Ninguna 2 130 9 9 p6 Ninguna 6 120 4 3 p7 Ninguna 6 129 4 5
CONCLUSIONES Los resultados obtenidos sugieren que la implementación de un sistema basado en nuestra metodología pudiera servir de ayuda en la valoración de pacientes con enfermedades neurológicas ya que brindaría la posibilidad de hacer un seguimiento objetivo de la evolución de la enfermedad o el mejoramiento ante el tratamiento. Sería posible llevar un registro en días y meses de la evolución del paciente en cuanto al rango de movilidad en flexión y extensión, de la velocidad de flexión y extensión y de otras variables extraíbles de la curva grados de flexión versus tiempo. El hecho de no usar marcadores para el reconocimiento de puntos clave en la imagen representa una ventaja al reducir el tiempo de preparación del paciente para tomar el video. Sin embargo, se requiere de un estudio más específico para contrastar el método propuesto con otros que si usan marcadores, o con las metodologías clínicas historicamente aceptadas y así analizar en detalle las ventajas y desventajas de una modalidad sobre la otra. Sería muy interesante realizar un análisis morfológico de la curva grados versus tiempo y tratar de detectar y clasificar patologías neuromusculares. Una evolución de este trabajo podría ser el estudio de las imágenes morfológicas del brazo usando métodos de aprendizaje en máquinas y entrenar la máquina para que pueda reconocer de mejor manera la ubicación de los huesos en el plano y de esta manera tener una mejor referencia de los ejes mediales de los segmentos del brazo.
En la Tabla I, Parkinson, Corea y Tic son nombres de patologías que afectan el control motor de las extremidades. Se puede apreciar una limitación en el rango de movimiento de extensión del brazo de p2 y p3. Además llama la atención que las velocidades de flexión y extensión medidas en pacientes con problemas neurológicos sean mayores que en sujetos normales. De todas maneras, estas observaciones sólo pretenden ilustrar la utilidad que pudiera ofrecer la implementación de este tipo de mediciones automáticas. Para hacer clasificación de patologías y correlacionar los datos haría falta un estudio más exhaustivo y específico.
Figura 3. Curvas grados de flexión versus tiempo con el método propuesto y el semiasistido.
REFERENCIAS
En la Figura 3 se puede observar un ejemplo de un segmento de la curva de grados de flexión versus tiempo obtenida por el método automático propuesto y una curva de la medición con el método semiasistido. El método semiasistido consiste en el uso de un computador por parte de un fisiatra quien marca en cada imagen los puntos clave de la extremidad y realiza la medición del ángulo de flexión de la extremidad de acuerdo a sus conocimientos anatómicos y procedimentales. En el ejemplo de la Figura 3 se aprecia que la curva resultado del proceso automático presenta una tendencia a representar grados de flexión menores a los medidos por el método semiasistido. Los autores suponen que esta diferencia puede ser resultado de
[1] Hu H., Tao Y. et al (2005): Integration de Vision and Inertial Sensors for Homebased Rehabilitation, 2nd Workshop on Integration of Vision and Inertial Sensors IEEE International Conference on Robotics and Automation, Barcelona, España. [2] Otsu N. (1979): A Threshold Selection Method from Gray Level Histograms, IEEE Trans. Syst, pp 62–66. [3] Fontoura R. et al (2001): Shape Analysis and Classification: Theory and Practice, CRC Press. [4] Ceballos G. et al (2008): Pattern recognition in capillary electrophoresis data using dynamic programming in the wavelet domain, Electrophoresis, 29: pp 2828-2840. [5] Pratt. W. (2007): Digital Image Processing, 3rd edition, Wiley-Interscience.
13
PROCESAMIENTO DE IMĂ GENES MĂ&#x2030;DICAS
Tissue Classification based on Semantic Annotations from CT-Images Alexander Baranya1,2 , Luis Landaeta1,2 , Alexandra La Cruz 1 , Maria-Esther Vidal 2 1
Biophysic and Bioengeneering Applyed Group 2 Semantic Web Group
(abaranya,llandaeta,alacruz,mvidal)@usb.ve
Abstract We present a new approach for accuracy volume rendering of medical images. Nowadays, medical ontologies such as RadLex and Foundational Model of Anatomy (FMA) are being recently used to annotate image content. They comprise controlled vocabularies of terms and relationships to model Anatomic and Image characteristics. These ontologies allow users to define medical terms for anatomical and non-anatomical elements that may be found in medical images, independently of the modality (CT, MR, US, etc). In this work we present the result of combining different ontologies and image characteristics to define a Transfer Function based on semantic annotations and used to generate an improved rendered image from a volume. Reasoning tasks are executed to improve the preclasification of different tissues and the effectiveness of applying a Transfer Function. Keywords: Semantic Visualization, Transfer Function, Volume Rendering, Tissue Classification.
Introduction
multiples visual style available to be applied depending on the fuzzy set and rules specifications from user without special knowledge about the rendering technique. Gerl et al. [7] propose semantic shader augmentation to automatically add rule-based rendering functionality to static visualization mappings in a shader program, this is an extension of [3]. Both rely on a rule based system to characterize the TF that will be applied, however, they are not exploiting knowledge encoded in ontologies to improve the quality of the process. MĂśller et al. [4] present a technique for annotating and searching medical images using ontological semantic concepts for retrieving images from a PACS system. Ontologies as FMA and RadLex, are used to retrieve data; however, they are not used to improve the visualization or classify different tissues from the image data itself. Although applications of the annotations have been illustrated, nothing is said about the benefits of using these annotations and the semantic encoded in the corresponding ontologies during the definition of TFs or the process of data visu-
A transfer function (TF) maps density values from a voxel in a volumetric data into optical properties, e.g., opacity and color. A TF allow pre-classifying different tissues. However, specifying a TF is not an easy task, and normally a robust segmentation technique needs to be applied. Traditionally, TFs are based on existing characterizations of the organs that relate medical image modality, e.g., Computed Tomography (CT), Magnetic Resonance(MR) and Ultra Sound (US), a tissue, and a density range [1]. However, some tissues belonging to different organs may have overlapped densities; thus, considering only density values is not enough to produce a precise tissue classification, and a specialized segmentation processes are required. Recently, the problem of semantically annotating volumetric data has gained attention in the literature [3, 5, 6, 7]. Rautek et al. [3] present a semantic layer that allow defining the mapping of volumetric attributes to one visual style. They define 14
Memorias_BIOVEN_2012
these ontologies that can be used for annotating non-anatomical elements, e.g., bounding boxes around particular anatomical organs or some particular points of interest.
alization. We present a framework for specifying TFs based on semantic annotations; this is named ANISE (an ANatomIc SEmantic annotator). ANISE TFs are based on pre-elaborated semantic annotations of volumetric data, which are validated against existing medical ontologies, e.g., RadLex1 , and FMA[2]. ANISE is comprised of a reasoner component able to infer the bounding box that contains the organs or tissues of a given organ or sub-volume area, as well as its main properties, i.e., density, opacity, and so on. Also, knowledge encoded in the ontologies is used to infer the location of an organ as well as the organs that should be around it; thus, voxels that are not part of the organ of interest are not considered during the classification process. Additionally to locating different tissues, semantic annotations can be used for defining meaningful TFs which support fast exploring and visualization of medical data.
• RadLex: RadLex is an ontology defined for radiologist; it is composed of terms required to annotate medical images. ANISE relies on RadLex terms to describe characteristic from the image itself, like modality (CT, MRI, US, etc), acquisition related characteristics that may alter the interpretation and visualization of an image, orientation and so on.
2
Architecture
Achieving best image rendering requires interpreting each intensity value according to best tissue representation. In consequence, a good representation of informa1 Ontologies tion through semantic annotations should ensure: i) minControlled vocabularies has been used to avoid ambigu- imal error tissue classification due reasoning and inferous interpretations of referential terms during resource ence, and ii) accuracy on visual representation. Rule-Based System description and analysis. Most of vocabularies are limited to particular and very specific subject domains. Ontology Medical has widely adopted such practices from long Annotator time to create universal descriptions of knowledge do- Volumetric data ANISE main. Several ontologies has been defined to describe relations among controlled terms of different domain and Ontology e.g., RadLex, FMA have provided the basis to the Web of Data. Volume Rendering TF Annotating image volumes using controlled terms allows information search and retrieval, classification or comparisons among different visual representations Figure 1: ANISE Architecture. of medical data. Different (semi-)automatic techniques have been defined to exploit knowledge encoded on onFigure 1 shows main components of ANISE. Those tologies to gather and process information, or to infer new knowledge. Biomedical ontologies such as, are described by its function, starting with the Annotator SNOMED2 , MesH3 , NCI Thesaurus4 , have been used which read existing annotations and extends them with for authoring and annotating resources, e.g., scientific new ones. Next, the ruled-based system relies on dedicated Inference processes to process annotations, exepublications and images; in this work we focus on: cute rules and using truth results to produce extended • Foundational Model of Anatomy: FMA allows image annotations. Annotations regarding to visualdescribing membership and spacial relationships ization methods and anatomic parts are inferred using which may be used for defining rules and infer Ontology relations (e.g., Subclass relation) for specific new knowledge. Furthermore, there are terms in classes (e.g Anatomical Set). Finally, the Visualization ANNOTATED IMAGE
s2
s1
v b
s3
a
RULES
r1(c1,o1) ->p1(c1, o1) r2(c1,o1) , r3(c1,v3)->p2(c2, v3) r1(c1,01), ¬r2(c1,02)->p3(c1,03)
VISUALIZATION
FACTS
Density Values (range) Estimated location (boundingbox) Seep point inside the organ
1
http://www.rsna.org/radlex/ http://www.nlm.nih.gov/research/umls/Snomed/snomed_main.html 3 http://www.nlm.nih.gov/mesh/ 4 http://ncit.nci.nih.gov/ 2
15
PROCESAMIENTO DE IMĂ GENES MĂ&#x2030;DICAS
module executes visualization algorithms on the volu- Head5 , which consists of 3D data of 184x256x170 voxels; Fig. 3(a) illustrates the rendering of the image when metric data. only densities are used by the TF; note that tissues of interest are colored with green. Even when properly pre2.1 Annotations classified, it is not possible to discriminate certain tisImages are annotated to describe the following informa- sues by just considering the corresponding densities, in tion which may be contained in an image volume: i) re- this case we wanted to classify Dentition tissue, however source authoring, type and identification, ii) annotation some other tissue were painted, and it was not possible information itself, iii) acquisition source e.g., CT, MR, tuning the TF. and US, iv) acquisition characteristics like patient oriWhen semantic annotations are used in conjuncentation, v) the structural and anatomic elements present tion with knowledge encoded in the FMA and RadLex and identified in the image, vi) regions and points of par- ontologies. ANISE can determine that only the teeth ticular interest, and vii) how the information should be should be colored different than the rest (green in our processed and displayed during final render. example). ANISE just considers the most likely localization of a given tissue. First, an initial and basic TF is defined to a normalized model. Then, this normal2.2 Inference ized model is used for further inferences. Thus, the rules Considering the information annotated, the inference are applied independently of the acquisition method by process should be performed. First, it analyses the im- selecting when a density value for a given point in the age acquisition characteristics and correlates body struc- space, falls between an appropriate interval defined. tures of particular interest in order to normalize informaAs previously stated, simple density classification is tion for further processing. A bounding box method is not enough to properly determinate matching between used to model anatomic information [6]. Then, comvoxels of a same tissue or anatomical organ. Additional bining this information with tissue pre-classification, an inference process are conducted; it would depend on the inference process is performed by using fuzzy logic; this annotation. In this example, the interest region that deprocess determines the likeness for a given tissue to be scribes the tissue to be analyzed, is presented. A first included in a particular region. Closely located tissues approach consists of selecting the most likely location with similar intensity values trends to be treated as the of region of interest (bounding box covering the organ same values, hence spatial and anatomic information is of interest), and considering fuzzy predicates as a posused to discriminate by annotating specific points; segsible better approximation of this region with non-zero mental based on voxels neighborhood represent these probability. This is done considering the neighborhood tissues considering the associated semantic. around the region of interest and knowing that Dentition for example should not be located around eyes or upper 2.3 Visualization areas of the head, voxels belonging to Dentition should be closer around an area, and distance between dentition Based on inference process, tissues that determined revoxels should not be longer than certain threshold. gions are considered by rendering algorithms; partial Another inference process to adjust the probabilpiece-wise transfer functions are used to select appropriity for points is performed by considering knowledge ate color and opacity value and represent the newly semantic annotated tissue. Finally, a default transfer func- derived from ontology relationships, i.e., the transition is only applied on non-annotated voxels and regions. tive relation subClass of the class Dentition deriving of Anatomical Set. Considering the subClass transitive property (see Figure 2), a seed point is annotated to identify a set element. Then, voxel neighborhood detection 3 Demonstration of Use Cases algorithm are performed using fuzzy predicates; thus, We study the quality of our proposed approach in a chances of a particular point to represent tissue when volume data sample of a Computed Tomography (CT) considered among others, are better estimated. 5
http://www.cg.tuwien.ac.at/courses/Visualisierung/data/skewed_head.zip
16
Memorias_BIOVEN_2012
be improved to allow different method ). In the future, we plan to enhance the rule base system to normalize a wider range of conditions, and include different sets of image modalities (MR, US, PET) as well as tissues, e.g., blood vessels. Further, we plan to extend tissue identification algorithms and corresponding rules to detect and properly annotate anomalies and special conditions on tissues inside the region of interest. Improve visualization algorithms to consider not only transfer function Figure 2: Relations between anatomical term in the definitions but different interpretations of semantic annotations of particular tissues of interest and its correFMA ontology sponding representation on rendered image, is also part Finally combining all inferred facts and probabilities of our future work. for given points, likelihood of points that represent a particular tissue are estimated. Further, appropriate TFs for Acknowledgement each region are defined and performed. This is done just using the same TF (Fig. 3(c)) but performing a reason- This work has been funded by Decanato de Investigaci贸n ing task that allows to detect the voxels that semantically y Desarrollo from Sim贸n Bol铆var University. do not correspond to the tooth tissue and that should not be included in the final volume rendering (see Fig. 3(b)).
References
[1] Preim B. et al (2007): Visualization in Medicine: Theory, Algorithms, and Applications. The Morgan Kaufmann Series in Computer Graphics.
(a)
(b)
[2] Rosse C. et al. (2007): The Foundational Model of Anatomy Ontology. Burger A, Davidson D, Baldock R, editors. Anatomy Ontologies for Bioinformatics: Principles and Practice. Springer
(c)
[3] Rautek et al. (2007): Semantic Layers for Illustrative Volume Rendering. IEEE Transactions on Visualization and Computer Graphics, 13(6):1336-1343, October. [4] M枚ller et al. (2008): Context-Driven Ontological Annotations in DICOM Images: Towards SemanConclusions and Future Work tic PACS. Proceedings of International Joint Conference on Biomedical Engineering Systems and Technologies, Porto, Portugal. We present a framework which is able to exploit knowledge encoded in ontologies used to annotate 3D medical [5] Criminisi A. et al. (2009): Decision Forests with Long-Range Spatial Context for Organ Localization images, and enhance the rendering process of the images in CT Volumes. MICCAI workshop on Probabilis(ANISE). Quality of ANISE renderings have been studtic Models for Medical Image Analysis (MICCAIied in different images, and we have observed that they PMMIA. Springer). can allow accurate location of the organs that comprised [6] Criminisi et. al. (2012): Decision Forests: A a medical image. Annotations allow identifying or valUnified Framework for Classification, Regression, idating patterns on images, achieving accuracy during Density Estimation, Manifold Learning and SemiSupervised Learning. In Foundations and Trends in image retrieval and applying the Visualization process Computer Graphics and Vision: Vol. 7: No 2-3, pp on Region of Interest efficiently. Methods employed 81-227 to select the way information should be displayed have been developed at high abstraction level, allowing ex- [7] Gerl at al. (2012): Semantics by Analogy for Illustrative Volume Visualization. Computers & Graphtension of the inference process to perform particular ics, 36(3):201-213, May. algorithms, (i.e., voxel neighborhood predicates could Figure 3: CT Head Images rendered (a) without Annotations, (b) with Semantic Annotations and (c) the piecewise Transfer Function applied
17
PROCESAMIENTO DE IMÁGENES MÉDICAS
VALORACIÓN DE ESTRATEGIAS DE FILTRAJE PARA LA SEGMENTACIÓN DEL VENTRÍCULO IZQUIERDO EN TOMOGRAFÍA CARDIACA Miguel Vera1 , Antonio Bravo2 , Rubén Medina1 , Jesus Arellano1 , Oscar Acosta3 , Mireille Garreau3 1 Centro 2 Grupo
de Ingeniería Biomédica y Telemedicina, Universidad de los Andes, Mérida, Venezuela de Bioingeniería, Universidad Nacional Experimental del Táchira, Táchira, Venezuela
3 Laboratoire
Traitement du Signal et de l’Image, Université de Rennes 1, Rennes 35042, France
veramig@gmail.com, abravo@unet.edu.ve, rmedina@ula.ve, jesusar@ula.ve, oscar.acosta@gmail.com, mireille.garreau@univ-rennes1.fr
Resumen Este trabajo evalúa el desempeño intra–sujeto de 2 estrategias de filtraje aplicadas sobre 20 imágenes cardiacas 3–D adquiridas mediante tomografía computarizada multi–corte. El trabajo se desarrolló mediante tres fases: en la primera, cada volumen fue suavizado aplicando ambas estrategias. En la segunda, se utilizaron máquinas de soporte vectorial de mínimos cuadrados (LSSVM) para generar, automáticamente, dos planos que separan el ventrículo izquierdo (VI) de otras estructuras cardiacas. En la tercera, se usó crecimiento de regiones (CR) para segmentar el VI. El algoritmo de CR fue inicializado usando voxeles semillas detectados mediante LSSVM. Para determinar cuál de las dos estrategias exhibió el mejor comportamiento se compararon las segmentaciones automáticas y las manuales, generadas por un cardiólogo, utilizando las métricas: coeficiente de Dice, error de volumen y de superficie. Palabras Clave: Estrategias de filtraje, Ventrículo izquierdo, Tomografía Computarizada, Segmentación.
1.
Introducción
Zhuang et al. [3], usaron técnicas de registro para segmentar las cavidades cardiacas en IRM. Estas técnicas se aplicaron sobre 37 bases de datos, obteniéndo un CD de 0.84 ± 0.05 para la segmentación del VI. Uzunbas et al. [4] combinan el método de cortes gráficos y modelos deformables para delinear los contornos del VI en 15 secuencias de IRM y reportan un CD promedio de 0.82 ± 0.06 para el endocardio. Por otra parte, la presente investigación es una extensión del trabajo desarrollado en [5]. Los aportes son: a) Ubicación automática de planos separadores de estructuras cardiacas. b) Detección automática del voxel semilla requerido para segmentar el VI. c) Evaluación de la robustez de las técnicas de filtraje consideradas ante la variabilidad intra–sujeto.
El monitoreo y la cuantificación de la función cardiovascular es de vital importancia en el diagnóstico y tratamiento de las enfermedades cardiacas, las cuales son consideradas como la primera causa de muerte en el mundo [1]. Adicionalmente, la segmentación del VI es requerida cuando se pretende determinar la referida cuantificación. En este sentido, diversos investigadores han propuesto algoritmos para segmentar el VI. Así, Lu et al. [2], proponen un método de segmentación del VI basado en morfología matemática y convex hull. Este método fue aplicado a 15 bases de imágenes de resonancia magnética (IRM) cardiaca y logró un coeficiente de Dice (CD) promedio de 0.89 ± 0.03. 18
Memorias_BIOVEN_2012
2. 2.1.
Metodología
• Volumen Top hat (Ith). Cada volumen de entrada es procesado usando los filtros: Gausiano multi–escala (Ig), dilatación (⊕) y erosión ( ). El volumen Top hat se obtiene de acuerdo con la ecuación 2. En ella B es un elemento estructurante esférico.
Descripción de la base de datos utilizada
La base de datos considerada es de tomografia computarizada multi–corte (MSCT), está conformada por 20 volúmenes que contienen información anatómica 4–D (3–D + tiempo) para un ciclo cardiaco completo y fue adquirida en sincronización con la onda R de la señal electrocardiográfica. Cada volumen tiene una resolución espacial de de 512×512×325 con voxeles de tamaño: 0.4882 mm × 0.4882 mm × 0.3999 mm.
2.2.
Ith = (Ig ⊕ B) B − Ig (2) El filtro Gausiano multi–escala suaviza un volumen de entrada usando distintos valores para la desviación estándar (σ) de un kernel Gausiano isotrópico [9]. Esto genera tantas versiones suavizadas del volumen de entrada como valores se elijan para σ. El algoritmo para la aplicación de este filtro consiste en: a) Filtrar, paralelamente, el volumen original con desviaciones estándar de 1, 3 y 5. b) Sumar los 3 volúmenes generados en a). c) Rescalar el volumen obtenido en b) para que el rango de intensidad sea el original.
Estrategias de filtraje implementadas
Con el propósito de minimizar el ruido Poison [6] y los artefactos streaks y stairstep reportados en [7], la base de datos descrita fue procesada, de manera independiente, mediante 2 estrategias de filtraje. A continuación se describe cada una de ellas.
• Volumen de similaridad. Para la función de similaridad se considera el volumen Ith y el derivado del filtro promediador. Esta función genera un volumen de similaridad (S), mediante la suma de las diferencias cuadráticas, intra e inter volumétrica, de los niveles de gris de los vecinos directos del voxel sometido a estudio. En S se preservan los bordes del volumen original y se realza la información presente dentro de sus contornos.
Estrategia uno (E1): se preprocesó cada volumen de entrada mediante la técnica denominada realce por similaridad presentada en la figura 1 (a). Estrategia dos (E2): esta estrategia es una variante de E1 como lo indica la figura 1 (b). En E2, el filtro promediador es sustituido por el volumen original; mientras que el Top hat se reemplaza por el filtro denominado Magnitud del Gradiente [8].
2.3. (a)
Ubicación automática de planos cortantes
La alta similitud de los niveles de gris presentes en estructuras cardiacas, muy próximas entre si, introduce dificultades al intentar segmentar el VI usando crecimiento de regiones. Para abordar esta situación se recurrió a la detección automática de puntos de referencia, ubicados en las bases de datos filtradas, los cuales permitieron separar el VI del resto de estructuras anatómicas mediante la construcción de 2 superficies denominadas planos cortantes. Cada plano cortante requiere de dos puntos de referencia para su construcción y localización. Para la referida detección, se utilizó una estrategia de aprendizaje compuesta por dos técnicas. Ellas fueron: a) Transformada Wavelet (TW): la TW permitió reducir el tamaño de las imágenes filtradas en un factor de 8 unidades, generando imágenes de aproximación de
(b)
Figura 1: (a) Estrategia E1. (b) Estrategia E2. El banco de filtros en los que se basa la estrategia E1 fue aplicado de la siguiente manera: • Volumen resultante del filtro promediador. En cada volumen de entrada el nivel de gris del voxel actual [f(i, j, k)] se sustituye, de acuerdo con la ecuación 1, por el nivel de gris promedio (µ) de una vecindad 3–D del voxel actual. En (1), σ es la desviación estándar del referido volumen. |f (i, j, k) − µ| > σ. (1) 19
PROCESAMIENTO DE IMÁGENES MÉDICAS
tamaño 64 × 64. Sobre éstas imágenes se hizo la selección manual de los puntos de referencia. La figura 2 muestra los puntos seleccionados etiquetados como P1, P2 y P3. Así, para la dirección normal al plano 1 se seleccionó la unión de la aurícula con el VI (P1) y el ápex del VI (P2); mientras que para la normal al plano 2 se consideró P2 y la unión de la válvula aortica con el VI (P3).
(a)
(b)
(c)
Figura 3: (a) Unión aurícula-VI. (b) Ápex del VI. (c) Unión aorta-VI. Las LSSVM generaron un conjunto de coordenadas que fueron mapeadas a las imágenes de tamaño original. Esto permitió colocar los planos en las bases de datos y generar volúmenes en los que el VI quedó separado de otras estructuras, como se muestra en la figura 4.
Figura 2: Puntos de referencia para los planos cortantes. b) Máquinas de soporte vectorial de mínimos cuadrados (LSSVM): el conjunto de entrenamiento de las LSSVM se constituyó eligiendo, por cada punto de referencia, una única imagen en cada volumen procesado por TW. Para cada volumen se crearon 3 LSSVM cuya función fue reconocer, de manera independiente, los referidos puntos. Para ello, se generaron dos clases denominadas marcadores y no marcadores. Los marcadores se obtienen haciendo coincidir el centroide de los puntos seleccionados con el centro de una vecindad circular con 10 píxeles de radio que luego es convertida en un vector. Para cada vector se calculan como atributos: la media (µ), la varianza (σ 2 ), la desviación estándar (σ) y la mediana (me). Así, cada marcador se describe mediante un vector de atributos (Va) dado por: Va = [µ, σ 2 , σ, me]. Los no marcadores son representados por vectores Va extraídos de vecindades circulares que no contienen información acerca de los puntos de referencia considerados. Por otra parte, la fase de detección ejecutada por las LSSVM se llevó a cabo de la siguiente forma:
(a)
(b)
(c)
(d)
Figura 4: Imagen: (a) Original. (b) Cortada vista axial. (c) Cortada vista coronal. (d) Cortada vista sagital.
2.4.
Segmentación
Para segmentar el VI, presente en los volúmenes filtrados, se seleccionó como método de clasificación el crecimiento de regiones (CR) el cual se describe en [5]. El CR requiere de un voxel semilla inicial cuya posición fue calculada mediante un proceso análogo al descrito para los planos cortantes.
Resultados Los resultados cuantitativos para la validación de las segmentaciones automáticas del VI fueron calculados considerando las segmentaciones manuales generadas por un cardiólogo. El Cuadro 1 presenta una síntesis de los promedios calculados para las métricas y las desviaciones estándar para cada una de las estrategias. Los valores presentados en ese Cuadro permiten afirmar que la estrategia que exhibió el mejor desempeño fue la E1 ya que fue la estrategia que obtuvo el mayor coefiente de Dice y los menores errores de volumen y superficie. En la figura 5 se presentan las segmentaciones generadas luego de aplicar E1 a la base de datos descrita. En esta figura se aprecia una buena representación 3D del VI segmentado. Cuadro 1: Métricas derivadas del proceso de segmentación del VI.
Detección de la unión válvula aortica–VI: una LSSVM entrenada busca este punto de referencia desde la primera imagen hasta la imagen que representa la mitad del volumen considerado. Este mismo proceso se aplica para reconocer la unión aurícula-VI.
Reconocimiento del ápex: una LSSVM entrenada M étricas Error de Volumen ( %) Error de Superficie ( %) Coeficiente de Dice empieza a buscar el ápex desde la imagen que represenEstrategias µ±σ µ±σ µ±σ E1 9.70 ± 9.45 23.71 ± 4.63 88.72 ± 3.99 ta la mitad de la base de datos hasta la última imagen E2 13.95 ± 12.69 26.97 ± 9.56 88.03 ± 5.26 que conforma dicha base. La figura 3 muestran un ejemplo del proceso de detección automática de los puntos de En cuanto al costo computacional la estrategia E1 referencia. emplea un total de 2.07 minutos para filtrar un volumen; 20
Memorias_BIOVEN_2012
mientras que la estrategia E2 procesa un volumen en 33 segundos. El menor costo computacional de E2 se sustenta, por una parte, en la eliminación del filtro promediador y por la otra, en haber incorporado el filtro de magnitud del gradiente el cual es mas eficiente que el filtro Top hat presente en la estrategia E1.
suministrar las bases de MSCT, así como al Decanato de Investigación de la Universidad Nacional Experimental del Táchira en Venezuela y al proyecto ECOS-NORDFONACIT PI-20100000299 por el apoyo financiero.
Referencias [1] Allender S., Scarborough P., Peto V., Rayner M., Leal J., Luengo-Fernandez R., Gray A. (2008): European cardiovascular disease statistics, Tech. Rep. Brussels, European Heart Network. [2] Lu Y., Radau P., Connelly K., Dick A., Wright G. (2009): Segmentation of left ventricle in cardiac cine mri: An automatic image-driven method, in: Ayache N., Delingette H., Sermesant M. (Eds.), Functional Imaging and Modeling of the Heart, Springer Berlin / Heidelberg, pp 339–347. [3] Zhuang X., Rhode K., Razavi R., Hawkes D., Ourselin S. (2010): Registration-based propagation framework for automatic whole heart segmentation of cardiac mri, IEEE Trans. Med. Imag. 29(9): pp 1612–1625.
Figura 5:
Representación volumétrica, para un ciclo cardiaco completo, del VI segmentado luego de aplicar E1 .
[4] M. Uzunbas, S. Zhang, K. Pohl, D. Metaxas, L. Axel (2012): Segmentation of myocardium using deformable regions and graph cuts, in: The IEEE International Symposium on Biomedical Imaging (ISEl uso de la transformada wavelet y de atribuBI), Spain. tos estadísticos permitió un desempeño eficiente de las LSSVM en la detección de los marcadores necesarios [5] Bravo A., Clemente J., Vera M., Avila J., Medina R. (2010): An hybrid boundary–region left ventricle para la exacta ubicación de los planos cortantes y de segmentation in computed tomography, in: 5th VISlos voxeles semilla que inicializan el proceso de segAPP, Angers, France, pp 107–114. mentación. La estrategia E1 fue la que exhibió el mejor desempeño global, generando un coeficiente de Dice lig- [6] Primak A., McCollough C., Bruesewitz M., Zhang eramente inferior al presentado en [2] y superior a los J., Fletcher J. (2006): Relationship between noise, dose, and pitch in cardiac multi–detector row CT, reportado en [3] y [4]. Sin embargo el bajo costo comRadiograph. 26(6): pp 1785–1794. putacional de E2 sugiere que esta estrategia no debería ser descartada. Se tiene previsto realizar una valoración [7] Barrett J., Keat N. (2004): Artifacts in ct: mas completa de ambas estrategias, que incluya la variRecognition and avoidance, Radiograph. 24(6): pp 1679–1691. abilidad inter–sujetos e inter-tomógrafos, empleando un número importante de bases de datos. [8] Pratt W. (2007): Digital Image Processing, John Wiley Sons, Inc., Los Altos, California,USA.
3.
Conclusiones
Agradecimientos
[9] Changlong J., Hakil K. (2009): High-resolution orientation field estimation based on multi-scale gausLos autores agradecen a H. Le Breton y D. Boulmier sian filter, IEICE Electronics Express 6(24): pp 1781–1787. del centro CardioPneumologico, en Rennes-Francia, por
21
PROCESAMIENTO DE IMÁGENES MÉDICAS
CALIBRACION DEL LOCALIZADOR ELECTROMAGNÉTICO MINIBIRD PARA LA ADQUISICIÓN DE IMÁGENES 3D EN NEUROCIRUGÍAS A. Bosnjak1, R. Carmona1, L. Rios1, G. Montilla1, I. Jara 2 1
Centro de Procesamiento de Imágenes. Universidad de Carabobo. Venezuela 2 Hospital Metropolitano del Norte, Valencia, Estado Carabobo. Venezuela e-mail: antoniobosnjak@yahoo.fr
RESUMEN La calibración del localizador electromagnético MiniBirdTM es una tarea compleja. Realizar la calibración de este equipo es un procedimiento necesario para obtener importantes puntos en el espacio 3D para Neurocirugía Asistida por Computadora utilizando imágenes. Así como también para realizar una reconstrucción de objetos 3D en ambientes de Realidad Virtual. Una vez realizada la calibración cualquier movimiento es seguido por el sensor en tiempo Real. El objetivo del trabajo es calcular la parte inferior de una punta de prueba. Obtenerla, requiere del cálculo de una matriz de transformadas homogéneas. Para ello hemos investigado dos métodos de minimización: (1) El algoritmo de Levenberg-Marquardt y (2) El algoritmo de Descomposición en Valores Singulares (SVD). Se escogió el método SVD ya que este posee un error cuadrático medio más pequeño que el algoritmo de Levenberg-Marquardt cuando usamos un gran número de muestras. El programa de calibración fue instalado dentro del Software de Neuropanacea. Palabras Clave: Calibración, Localizador Electromagnético, MiniBird , Neurocirugía. ángulos de orientación [α, β, θ]. Para obtener estos valores se representa la punta con una matriz de transformada homogénea, la cual está compuesta por 12 valores, 3 valores para la posición y 9 valores para la orientación; ellos corresponden a 3 vectores de orientación.
INTRODUCCIÓN La calibración de un localizador electromagnético es una fase esencial del Neuro Navegador. El Neuro Navegador es un sistema que consiste de un computador con un Software de procesamiento de Imágenes, y un localizador espacial que usa un campo electromagnético para medir la posición y orientación de cada uno de los instrumentos quirúrgicos en el espacio. En este caso particular, el instrumental quirúrgico a localizar es una cánula para cirugía endoscópica. Las imágenes de tomografía y las imágenes de Resonancia Magnética son fusionadas para formar mapas que serán usados para decidir cual es la mejor ruta de abordaje en una cirugía mínimamente invasiva utilizando una reconstrucción 3D del cerebro. La tarea inicial consiste en la calibración del localizador electromagnético para obtener las imágenes 3D usando los puntos adquiridos con este dispositivo. Después se realiza la correspondencia entre los movimientos del localizador electromagnético con los movimientos de la imagen en la pantalla de la computadora. Este dispositivo de localización es calibrado para poner en correspondencia el mundo Real con el Mundo Virtual [1]. La figura 1 muestra la punta usada para la calibración del localizador electromagnético. Se coloca el sensor en la parte de atrás del instrumental quirúrgico. Sin embargo, la clave es encontrar la posición de la punta del instrumental quirúrgico. Así, nuestro problema se enfoca en encontrar la parte inferior de la punta de prueba mostrada en la figura 1. Este punto esta representado por seis parámetros, de los cuales: 3 son parámetros de posición [x, y, z] y 3 son
Colocación del sensor Electromagnético del MiniBird
Punta del Instrumental Quirúrgico
Figura 1. Calibración de la punta de prueba. METODOLOGÍA A. Método de Calibración La metodología utilizada para la realización de este trabajo esta dividida en cuatro fases, las cuales son, determinación de: 1) método de adquisición. 2) método de calibración. 3) Características del Objeto y adquisición de trayectorias, y 4) Desarrollo de la interface con el usuario. La figura 2 muestra un esquema completo del método de calibración. De acuerdo a este esquema, adquirimos la
22
Memorias_BIOVEN_2012
data a partir del mundo real usando el equipo MiniBirdTM. Todos los datos son usados en el proceso de calibración, usando el método del pivote. Si el error de calibración es menor que un umbral, se calcula la matriz de calibración, sino, se regresa al principio. Una vez que se obtiene la matriz de calibración, todas las coordenadas son transformadas usando la matriz de calibración para llevarlas al mundo virtual.
clínicas. Se añade un dispositivo sensor para obtener de la posición y orientación del transductor de ultrasonido convencional, permitiendo que el B-scan sea insertado dentro de un arreglo de vóxeles 3D [3]. C. Calibración utilizando el Método IGSTK El Toolkit de Cirugía Guiada por Imágenes (IGSTK) tiene definidas algunas clases en C++. Así IGSTK permite desarrollar aplicaciones de cirugía guiadas por imágenes [4]. Este conjunto de librerías permite trabajar con el localizador magnético “Aurora”, sin embargo, no se han desarrollado clases en C++ para calibrar el localizador magnético Minibird. Por lo tanto, nosotros desarrollamos una aplicación para la calibración del Minibird utilizando el método del pivoteo. Para el seguimiento de una cánula, la punta de la herramienta así como el extremo posterior de su mango son puntos importantes para el cirujano ya que proveen de una visualización intuitiva y de la localización de la herramienta en el espacio. En aplicaciones de cirugía guiada por imágenes, se utiliza un punto en la punta de la herramienta para localizar la posición espacial de los puntos de referencia, tales como los fiduciales sobre la piel [4].
Figura 2. Esquema del método de calibración. Fase I: Determinación del Método de Adquisición – Un localizador Magnético es utilizado para adquirir las coordenadas de un punto. Se investigó el formato apropiado de los datos para realizar la lectura y el procesamiento de las coordenadas. Fase II: Determinación del Método de Calibración – Para esta fase, se estudiaron dos métodos de minimización: El algoritmo de Levenberg–Marquardt, recomendado en [3], y el algoritmo SVD (Descomposición en Valores Singulares) implementado por los desarrolladores de IGSTK [4]. El algoritmo de Levenberg-Marquardt fue desechado ya que se necesitaba una inicialización muy cerca de la solución para obtener la calibración del MiniBird. Mientras que el algoritmo SVD presentó el menor error de localización. Fase III. Determinación de las características del Objeto – Una vez obtenida la solución que satisface nuestras condiciones procedemos a la adquisición de objetos tridimensionales simples. Fase IV. Desarrollo de la interface de usuario – Para mostrar toda la información, construimos una escena virtual donde las imágenes 3D son mostradas a partir de la data 3D adquirida con el localizador electromagnético.
Figura 3. Este sistema utiliza tres sistemas de Coordenadas. La figura 3 muestra un procedimiento típico de calibración, la punta del instrumental es colocada en un pequeño agujero C y el instrumento es balanceado de atrás hacia delante y luego es rotado con un movimiento circular, mientras que los datos son adquiridos con una adecuada frecuencia de muestreo. La transformación desde la punta del sensor de localización hasta el punto del pivoteo es calculada utilizando la matriz homogénea de la ecuación (1), [4]. La figura 3 muestra tres sistemas de coordenadas para la calibración. R es el sistema de coordenadas de la posición del sensor electromagnético. T es el sistema de coordenadas del transmisor. C es el sistema de coordenadas de la punta de la herramienta. Este corresponde al origen de nuestro sistema mundo. Cada punto de localización de la punta de prueba es transformado al sistema de coordenadas del Receptor R, luego es transformado al sistema de coordenadas del transmisor T y finalmente al origen del
B. Calibración Automática para la Adquisición de Ultrasonido 3D. Algunos centros de investigación así como también Universidades han dedicado esfuerzos de investigación utilizando dispositivos similares al localizador magnético Minibird. En la fase de calibración, los investigadores de la Universidad de Cambridge [3] presentaron un trabajo para la calibración automática de un sistema de adquisición de ultrasonido 3D. El ultrasonido 3D manos libres, es una nueva técnica que ha encontrado muchas aplicaciones
23
PROCESAMIENTO DE IMÁGENES MÉDICAS
sistema mundo. El sistema de ecuaciones que satisface la figura 3 es: T TC C TR =T TR (1) Donde la matriz de transformación del Receptor al Transmisor es conocida, ya que es adquirida utilizando el localizador electromagnético. Esta es la siguiente: a x s x nx t x a s n t y y y T TR = y (2) a z s z nz t z 0 0 0 1 La matriz C TR contiene variables desconocidas que deberán ser calculadas y expresarlas en función de los ángulos de rotación ( α , β , θ ): C
Figura 4. Esquema de calibración utilizando el método de pivoteo. La ecuación (6) se puede reescribir en forma matricial como:
TR
CθCβ SθCβ = − Sβ 0
CθSβSα − SθCα SθSβSα + CθCα
CθSβ Cα + SθSα SθSβ Cα − CθSα
CβSα
Cβ Cα
0
0
a x a y a z
offset x offset y offset z 1
sx
nx
sy sz
ny nz
offset x offset y −1 0 0 − t x offset z 0 −1 0 × = − t y x0 − t z 0 0 − 1 3m×6 3m×1 y 0 z 0 6×1
(7) offset x offset y offset z M × =N x0 y 0 z 0
Finalmente la matriz T TC es una matriz de conveniencia para realizar la correspondencia entre los ejes de coordenadas del localizador magnético, con los ejes de coordenadas de la pantalla de OpenGL. 0 − 1 0 x0 0 0 − 1 y 0 T (4) TC = 1 0 0 z 0 0 0 0 1 Se utilizó el método SVD propuesto en [4] para calcular los valores de traslación ( xo , y o , z o ) entre la punta de la herramienta y el Transmisor Electromagnético. A partir de la figura 4, la transformación de un punto de la herramienta al sistema de coordenadas del localizador está representado por: offset x a x s x n x t x offset x x0 offset a s y n y t y offset y y0 y T TR × = y × = (5) offset z a z s z n z t z offset z z 0 1 0 0 0 1 1 1 La ecuación (5) se puede re-escribir como sigue, donde las restricciones de offset y ( xo , y o , z o ) son arregladas como:
(8)
Ya que M no es una matriz cuadrada, las variables desconocidas se obtienen utilizando una Descomposición en Valores Singulares (SVD) ó la inversa de MoorePenrose [5]. Adicionalmente, el error cuadrático medio se calcula como: RMS =
[
M ⋅ offset x
offset y
offset z
x0
y0
z0
]
T
2
−N /m
(9) Donde m es el número de muestras obtenidas utilizando el localizador magnético. Y el vector ( offset x, offset y , offset z , xo , y o , z o ) es la solución del sistema. Una vez obtenidos los valores ( xo , y o , z o ) y ( offset x , offset y , offset z ), debemos calcular la matriz C TR (3), y los ángulos ( α , β ,θ ), los cuales pueden ser obtenidos a partir de: β = − arcsin(u z ) ; α = arcsin(v z cos β ) y θ = arcsin(u y cos β ) . Por lo tanto la matriz del sistema (1) es:
a x offset x + s x offset y + n x offset z − 1 ⋅ x 0 + 0 ⋅ y 0 + 0 ⋅ z 0 = −t x a y offset x + s y offset y + n y offset z + 0 ⋅ x 0 − 1 ⋅ y 0 + 0 ⋅ z 0 = −t y a z offset x + s z offset y + n z offset z + 0 ⋅ x 0 + 0 ⋅ y 0 − 1 ⋅ z 0 = −t z
0 −1 0 x 0 u x − y u 0 0 1 0 × y 1 0 0 z 0 u z 1 4 m×4 0 0 0 0
(6)
24
vx
wx
vy vz
wy wz
0
0
offset x offset y = offset z 1 4×4
Memorias_BIOVEN_2012
a x a y az 0
sx
nx
sy sz
ny nz
0
0
tx ty tz 1 4m×4
utilizando la minimización de Levenverg-Mardquart propuesto por Prager et al. [3]. Actualmente, el método de pivoteo ya es usado en el localizador electromagnético Aurora, y en la localización óptica del Polaris. Por lo tanto, nuestro aporte fundamental consiste en trasladar esta tecnología al localizador MiniBird de Ascensión Technology, y haberlo probado varias neurocirugías con pacientes reales en el Hospital Metropolitano del Norte. Finalmente, este método obtiene la solución de un sistema de m ecuaciones con 6 incógnitas, sin utilizar valores cercanos a la solución para la inicialización del cálculo. En conclusión el método SVD fue utilizado para la calibración del localizador electromagnético MiniBird. Con esta técnica el error disminuye desde los 2 milímetros a entre 0,3 y 0,9 mm, y además se disminuye el tiempo de la cirugía en más del 60%.
(10)
Donde m es el número de muestras, y la matriz (3) corresponde a la solución del sistema. RESULTADOS La figura 5 muestra una intervención de neurocirugía, la cual fue monitoreada con un computador que recibe la información espacial desde el localizador magnético. La figura 5(a) muestra una vista virtual de la cánula con un sensor electromagnético localizado en la parte superior de la herramienta quirúrgica. Utilizando la matriz de transformación homogénea podemos obtener la punta de la herramienta. Adicionalmente, la cánula indica el lugar donde está localizado el tumor.
AGRADECIMIENTO Este trabajo fue financiado por la empresa SUR AMÉRICA INTERNACIONAL S.A. (SAISA), Valencia, Venezuela, a través del proyecto #3.21. LOCTI “Ley Orgánica de Ciencia, Tecnología e Innovación”. Universidad de Carabobo. REFERENCIAS [1] Erica C.P., Delgado J.J., Castañeda S., (2000) “Tecnologías de Realidad Virtual: Modelo Edificio Inteligente,” Centro de Investigación Científica y de Educación Superior de Ensenada, Ensenada, México.
Figura 5. Ejemplo de Neurocirugía utilizando el Localizador Electromagnético.
http://telematica.cicese.mx/computo/super/cicese2000/realvirtual/
[2] Day J., Dumas G., Murdoch D.J., (1998) “Calibration of a Magnetic Tracking Device Using Locally Linear Fits” Proc. of the North American Congress on Biomechanics, nº. 25, pp. 483–502. [3] Prager R., Rohling R., Gee A., Bernan L., (1997) “Automatic Calibration for 3-D free-hand Ultrasound,” CUED/F-INFENG/TR 303. Cambridge University Engineering Department, Tech. Rep. Sept. 1997,
Cuando utilizamos este software [7, 8], el instrumental quirúrgico (la cánula) navega dentro del paciente en el mundo real del quirófano, mientras que un clon de este instrumental navega dentro del paciente virtual creado por el computador. En cirugías guiadas por imágenes, la punta de la cánula es utilizada para localizar los fiduciarios colocados sobre la piel del cráneo del paciente. Luego, se realiza un procedimiento de registro, el cual permite que el neurocirujano siga este instrumental a través de las imágenes de resonancia magnética reconstruidas en el computador. La neuro-navegación puede asistir al neurocirujano en muchos procedimientos quirúrgicos intracraneales, especialmente aquellos que requieren llegar a estructuras profundas dentro del tejido cerebral. Esta técnica se ha aplicado en biopsias, (hematomas, abscesos, cistitis aracnoidales ó tumores).
http://mi.eng.cam.ac.uk/rwp/prettypubs.pdf
[4] Kevin C., (2007) IGSTK: The Book. Gaithersburg, Maryland: Signature Book Printing. [5] Thomas B., (2007) “The Moore-Penrose Inverse of a Free Matrix,” Electronic Journal of Linear Algebra., vol.16, pp. 208–215, August. [6] The VXL (2012) package documentation, VXL (the Vision - Libraries), http://public.kitware.com/vxl/doc/release/core/vnl/html/index.html
[7] Montilla G. (2007) “Virtual Vision Machine”, Centro de Procesamiento de Imágenes de la Universidad de Carabobo, Naguanagua, Venezuela, Tech. Rep. http://cpi.ing.uc.edu.ve/vvm/index.htm [8] Montilla G., Bosnjak A., Villegas H. (2003) “Visualización de Mundos Virtuales en la Medicina”, Bioingeniería en Iberoamérica: Avances y Desarrollos. Capítulo 20, Editores: pp. 519-545.
CONCLUSIONES Se escogió e implementó el método de calibración del localizador magnético basado en la SVD (Descomposición en Valores Singulares), ya que este método presentó algunas ventajas con respecto al método de calibración
25
PROCESAMIENTO DE IMÁGENES MÉDICAS
REALCE Y DETECCION DE MICROCALCIFICACIONES EN MAMOGRAFIAS DE MAMA DENSA Crissel V. Ariza M1, Francisco Durán1, Rubén Medina1, Franklin Moreno1 1
Centro de Ingeniería Biomédica y Telemedicina (CIByTEL). Universidad de Los Andes. Mérida – Venezuela. e-mail: Crissel.ariza@gmail.com, fduran@gmail.com, rmedina@ula.ve, fmoreno@ula.ve
RESUMEN El objetivo de este trabajo es realzar, visualizar y clasificar las microcalcificaciones en mamas de tejido denso usando maquinas de soporte vectorial (SVM) a partir de mamografías. Las microcalcificaciones son depósitos de calcio que aparecen en la mama, se detectan en la mamografía como pequeños puntos radiopacos y son muy pequeñas para sentirlas al tacto. La mamografía es una modalidad imagenológica basada en rayos X que permite visualizar la mama, siendo este el método más específico para la detección temprana de lesiones. Las imágenes mamográficas, fueron procesadas con diversas técnicas de realce como son: Ecualización del Histograma, Negativo del Laplaciano, Ecualización Local del Histograma, Transformada Wavelet, Erosión, obteniendo como resultado un realce significativo de las microcalcificaciones facilitando un mejor diagnóstico al médico especialista en Radiología. Estas imágenes resultantes son la entrada de la SVM para realizar la clasificación de las Microcalcificaciones. Palabras Clave: Ecualización del Histograma, Erosión, SVM, Transformada Wavelet.
realizaron un sistema para la detección de microcalcificaciones basado en la transformada wavelet. Barba, L. et al. [7], usaron técnicas de segmentación, filtrado de imágenes, así como la aplicación de diferentes familias wavelets. Oporto [8], presenta un modelo para la detección automática de microcalcificaciones, la cual consta de 5 etapas: preprocesamiento, detección de señales, clasificación de las calcificaciones, detección de agrupamientos y clasificación de agrupamientos usando redes neuronales. Heinlein P. et al. [9] desarrollaron una técnica de mejora de contraste para el realce de microcalcificaciones mediante la aplicación de wavelets y Wei, et al. [10] realizaron un estudio sobre los diferentes métodos de maquinas de aprendizajes para la detección de agrupamientos de microcalcificaciones. El problema que se pretende tocar con esta investigación es la siguiente: dada una base de datos de imágenes mamográficas digitales, conteniendo alguna de ellas microcalcificaciones y otras normales, ambas con tejido denso, hacer comparaciones necesarias, de tal forma que se logre minimizar el numero de falsos negativos; es decir, casos en los que existiendo microcalcificaciones el sistema no lo detecte y por otro lado minimizar el numero de falsos positivos, casos en los que no existiendo microcalcificaciones el sistema las detecte. Para resolver este problema se aplicaran una serie de técnicas de procesamiento digital aplicadas a las imágenes seleccionadas de la Base de Datos MIAS.
INTRODUCCIÓN El Cáncer de Mama es una lesión maligna del epitelio mamario, de etiología aún desconocida siendo el más común en las mujeres de los Estados Unidos y Europa Occidental. En Venezuela, se ha observado un aumento progresivo de su incidencia, superado solo por el cáncer de Cuello Uterino. En nuestro país la tasa estimada para la incidencia estandarizada es aproximadamente 25 de cada 100.000 mujeres; es decir, la tasa acumulativa que mide el porcentaje de riesgo de tener cáncer de mama para una mujer que llega a los 74 años de edad se estima en un 3.5 a 3% lo cual indica que una de cada 33 mujeres en Venezuela tendría cáncer de glándula mamaria en el curso de su vida [1]. La Imagenología médica se refiere al estudio de imágenes obtenidas del cuerpo humano y la tecnología para su obtención y procesamiento. La mamografía constituye el método más confiable y de mayor precisión para la detección del cáncer de mama. El propósito de la mamografía es detectar anormalidades que no son clínicamente perceptibles [2]. Desafortunadamente, cuando el tejido es denso resulta más difícil para los médicos Radiólogos identificar microcalcificaciones en los mamogramas. Las microcalcificaciones son depósitos de calcio que aparecen en la mama, se detectan en la mamografía como pequeños puntos radiopacos y son muy pequeñas para sentirlas al tacto. Para lograr un mejor realce de las microcalcificaciones en mamografías digitales algunos autores aplican diferentes técnicas de procesamiento de imágenes como son: uso de transformada de contourlet [3], transformada wavelet discreta [4], aplicación de filtros adaptativos [5], entre otros. Por otro lado, autores como: Prabhu et al. [6],
METODOLOGÍA A. Base de datos MIAS Este estudio se lleva a cabo con la Base de Datos (MIAS) (Mammographic Image Analysis Society) [11],
26
Memorias_BIOVEN_2012
consta de 322 imágenes mamográficas con diferentes tipos de tejido mamario, la cual presentan distintas patologías clasificadas en Benignas y Malignas. El tamaño de las imágenes es de 1024x1024 con 8 bits de profundidad en formato PGM. Las imágenes usadas para esta investigación son las que presentan tejido denso normal (20 imágenes) y tejido denso con calcificaciones (30 imágenes).
proceso se lleva a cabo a través de la Transformada Wavelet Inversa.
B. Preprocesamiento A las imágenes provenientes de la Base de Datos se le aplican diferentes técnicas de procesamiento digital de imágenes como son: Ecualización del Histograma [12], Mascara de Unsharp (Negativo del Laplaciano) [13], Ecualización Local del Histograma [14], Erosión [14], Transformada Wavelet (TW) [15]. Estas técnicas permiten realzar las microcalcificaciones para una mejor visualización. Para el desarrollo de la herramienta de clasificación de las microcalcificaciones, se utilizan máquinas de soporte vectorial de mínimos cuadrados, el algoritmo de clasificación se somete a un conjunto de pruebas utilizando datos sintéticos. Posteriormente, la técnica de clasificación se le aplicará a las imágenes que contienen Microcalcificaciones obtenidas de la Base de Datos MIAS. La primera técnica que se le aplica a la imagen de entrada es la ecualización del histograma, esta transformación pretende obtener para una imagen un histograma con una distribución uniforme como se muestra en la ecuación 1. Esta transformación no lineal, mejora el contraste de la imagen (Figura 1). h=
Figura 1. Imagen aplicando Ecualización del Histograma.
Figura 2. Imagen Segmentada y realzada. Con respecto al procesamiento usando la TW, primero se procede a realizar la descomposición de la imagen, usando una Wavelet Daubechies (db1) con un nivel de descomposición. Se obtuvieron imágenes correspondientes a la aproximación, coeficientes horizontales, verticales y diagonales; esta familia de wavelets es la que permitió obtener mejores resultados. Para mejorar la visualización de la Microcalcificaciones, se aplicó un realce de contraste logarítmico a la imagen de aproximación, de acuerdo a la expresión siguiente (ecuación 2):
(1)
C. Segmentación El resultado de la imagen ecualizada se binariza a través de la estimación de un umbral global de la imagen usando el método de Otsu. Posteriormente la imagen binarizada se etiqueta y se calcula un conjunto de atributos de forma, tales como, el área, el centroide y el boundingbox, estos atributos permiten determinar la región de interés. Dicha región de interés se procesa con el negativo del laplaciano para realzar los bordes. Luego se aplica un realce por ecualización local del histograma con una distribución rayleigh [13], el resultado con la imagen segmentada y realzada se muestra en la Figura 2.
RL=log(1+abs(A))
(2)
donde A es la imagen de aproximación y RL es la imagen realzada. Mientras que para cada uno de los detalles se procesó con un umbral para separar los objetos de interés con respecto al resto de la imagen, este umbral se busca de forma heurística seleccionando zonas de tejido denso en la imagen que no correspondan a Microcalcificaciones buscando un promedio de los pixeles. El umbral es el promedio incrementado en 30%. A continuación se calcula la transformada wavelet inversa (TWI), este proceso de reconstrucción se realiza con las cuatros imágenes
D. Transformada Wavelet Discreta La transformada wavelet discreta se computa empleando un banco de filtros separables a la imagen. Se implementa aplicando estos filtros a las filas y luego a las columnas (o viceversa). El proceso de reconstrucción también denominado síntesis, se encarga de la obtención de la imagen a partir de los detalles y aproximaciones. Este
27
PROCESAMIENTO DE IMÁGENES MÉDICAS
resultantes de la descomposición luego del realce y procesamiento por umbral. Seguidamente, a la imagen resultante de la reconstrucción se le sustrae el nivel del fondo y se aplica una transformación lineal ajustando la escala de grises de la imagen, dicha transformación lineal se aplica para los valores de los pixeles comprendidos entre el 2% y el 20% del rango dinámico de la imagen. Se aplica una erosión a la máscara que define la región de interés, con un elemento estructurante, formado por un disco de radio 2. De esta manera se excluye del análisis los bordes de la región. El resultado de la máscara erosionada se superpone con la imagen a la cual se le ajustó la escala de gris, logrando así visualizar el contenido de la imagen realzada. El lenguaje de programación usado para la aplicación de las técnicas de preprocesamiento es Matlab (LS-SVM Versión 7.12, 64bits).
para la identificación de los Marcadores, de las cuales las maquinas no tiene información exacta, solo que provienen de la misma base de datos. El objetivo del entrenamiento de la LSSVM es construir una superficie de decisión que permita la clasificación de los patrones de entrada estos son los Marcadores y los No Marcadores, utilizando un kernel gaussiano y los hiperparámetros sigma y gamma. Donde sigma representa la varianza del kernel y gamma es un parámetro de regularización. Estos hiperparámetros se consiguen de manera heurística hasta lograr un entrenamiento que clasifique los patrones. La LSSVM fue aplicada a imágenes reales, obteniendo resultados promisorios como los que se muestran Figura 5. En la actualidad se está buscando conseguir valores óptimos de los hiperparámetros que permitan clasificar de manera satisfactoria las Microcalcificaciones.
E. Maquinas de Soporte Vectorial de Mínimos Cuadrados (LSSVM) Para la detección automatica de las Microcalcificaciones se usan Maquinas de Soporte Vectorial (SVM). Existe una variante de las SVM, denominada Maquina de Soporte Vectorial de Mínimos Cuadrados (LSSVM) [16], las cuales resuelven un sistema equivalente de ecuaciones en un tiempo considerablemente menor comparado con las SVM. RESULTADOS Las imágenes resultantes obtenidas de la aplicación de las técnicas de realce, fueron evaluadas por un experto médico (médico especialista en Radiología y Diagnóstico por Imagen), para clasificar los tipos de calcificaciones observadas. El experto verificó así la presencia de Microcalcificaciones y Macrocalcificaciones en las mismas (Figura 3) y (Figura 4).
Figura 3. Imagen con Microcalcificaciones.
Con el propósito de realizar la detección automática de las Microcalcificaciones, se construye un clasificador LSSVM con un Kernel Gaussiano de base radial, utilizando el toolbox de Matlab (LS-SVM Versión 7.12, 64bits). El clasificador toma como atributo, información de la densitometría (niveles de grises) de las microcalcificaciones. Para validar este algoritmo se usaron un grupo de imágenes sintéticas, que contienen letras (A, B, C, D, E, F, G, H) con diferentes niveles de grises, las cuales fueron divididas en 2 grupos. El primer grupo formado por 13 imágenes denominado conjunto de Entrenamiento, del cual se seleccionan los Marcadores (A,F,G) las cuales presentan mayor intensidad y representarían las Microcalcificaciones y de una de las imágenes se seleccionan los No Marcadores como aquello que no son las letras A, F, G. El segundo grupo de 12 imágenes, se denomina conjunto de Validación, se utiliza
Figura 4. Imagen con Macrocalcificaciones.
28
Memorias_BIOVEN_2012
utilizando la Transformada Contourlet”. Congreso de Métodos Numéricos en Ingeniería. España, 2005. [4] Prabhushetty K. et al (2009): “Wavelet based microcalcification detection on mammographic images”. IJCSNS International Journal of Computer Science and Network Security India. Vol.9, n.7. [5] Martinez A. et al (2004): “Detección automática de lesiones en la mama”. Memorias de las XXV Jornadas de Automática. España. [6] Prabhu K. et al (2009): “Wavelet based microcalcification detection on mammographic images”. IJCSNS International Journal of Computer Science and Network Security, vol.9, No7. [7] Barba L. et al (2008): “Análisis de Imágenes Mamográficas a través de Técnicas de Mejoramiento de Contraste y Transformada Wavelet”. III Congreso Colombiano de Computación, Colombia. [8] Oporto S. et al (2004): “Detección Automática de Agrupamientos de Microcalcificaciones en Mamografías Digitalizadas”. Tecnológico de Monterrey, México. [9] Heinlein P. et al (2003): “Integrated Wavelets for Enhancement of Microcalcifications in Digital Mammography”, IEEE TRANSACTIONS ON MEDICAL IMAGING, vol.22, No3. [10] Wei L. et al (2005): “A study on several machinelearning methods for classification of malignant and benign clustered microcalcifications”, IEEE TRANSACTIONS ON MEDICAL IMAGING, vol. 24, No3. [11] Base de Datos MIAS. Disponible en: http://peipa.essex.ac.uk/info/mias.html. (Consulta en Enero, 2011). [12] Medina R. (1995): “Técnicas Básicas de Procesamiento de Imágenes Médicas: Adquisición, Análisis, Procesamiento, Interpretación”. Editores: Gianfranco Passariello, Fernando Mora, Equinoccio, Ediciones de la Universidad Simón Bolívar, pp: 65 -72. [13] Pratt W. (1991): “Digital Image Processing”. Ed. New York: John Wiley & Sons. Third Edition, pp. 29. [14] González R. et al (1996): “Tratamiento Digital de Imágenes”. Ed. Estados Unidos: Addison-Wesley/Diaz de Santos, pp 560-561. [15] Fernández A. et al (2007): “Estudio de Técnicas Basadas en la Transformada Wavelet y Optimización de sus Parámetros para la Clasificación por Texturas de Imágenes Digitales”, España, Valencia. [16] Durán F. (2011): “Visualización y Cuantificación de Espinas Déndricas en Imágenes por Microscopía de Luz”. Tesis de Maestría, Dpt. de Ingeniería, Universidad de los Andes, Mérida, Venezuela.
Figura 5. Resultados de la Aplicación de la LSSVM a imágenes mamográficas. CONCLUSIONES
El realce de microcalcificaciones en mamas de tejido denso con las técnicas de procesamiento de imágenes aplicadas, permite una mejor visualización de las microcalcificaciones. Los resultados obtenidos indican que las técnicas aplicadas serian una importante herramienta en base a la cual se podría realizar la detección automatica de microcalcificaciones en este tipo de imágenes. Hasta ahora, el porcentaje total de detección de microcalcificaciones usando las LSSVM es del 60%. Sin embargo, se continúa trabajando para mejorar dichos resultados. Los resultados obtenidos utilizando los modelos de aprendizaje, como las LSSVM sugieren que la técnica estudiada podría ser una importante herramienta para la detección de las Microcalcificaciones.
AGRADECIMIENTOS Los autores agradecen a la Dra. María Eugenia Márquez (Radiólogo-Mastólogo) adscrita a la Clínica de Mamas Barquisimeto, C.A. por su colaboración en la adquisición de la base de datos para llevar a cabo el desarrollo de este trabajo. REFERENCIAS [1] Contreras A. (2011): “Pesquisa del Cáncer de Mama. Sociedad Venezolana de Mastología”. Disponible en: http://svmastologia.org/portal/index.php?option=com_cont ent&view=article&id=16:pesquisa-del-cancer-de-mama&catid=6:al-publico&Itemid=19. [2] Patiño J. (2000): “Lecciones de Cirugía”. Ed. Colombia. Médica Panamericana. [3] Manzano J. et al (2005): “Sistema CAD de Detección de Microcalcificaciones en Mamografías Digitalizadas
29
PROCESAMIENTO DE IMÁGENES MÉDICAS
SEGMENTACIÓN DEL VENTRÍCULO IZQUIERDO EN IMÁGENES CARDIACAS USANDO MEDIAS DESLIZANTES Y CRECIMIENTO DE REGIONES Edwin Velázquez1, Antonio Bravo1, Miguel Vera2, Oscar Acosta3 1
Grupo de Bioingeniería, Decanato de Investigación, Universidad Nacional Experimental del Táchira, San Cristóbal 5001, Venezuela. 2 Centro de Ingeniería Biomédica y Telemedicina (CIByTEL), Facultad de Ingeniería, Universidad de Los Andes, Mérida 5101, Venezuela. 3 Laboratoire du Traitement du Signal et de l'Image, Rennes, France e-mail: evelazquez@unet.edu.ve, abravo@unet.edu.ve, veramig@gmail.com
RESUMEN En este trabajo se propone un algoritmo para la segmentación del ventrículo izquierdo (LV) en imágenes cardiacas de tomografía computarizada. Para ello, se desarrollaron dos etapas. Durante la primera etapa se efectúa el filtrado de la imagen, en los dominios 2D y 3D, utilizando la técnica de medias deslizante. Luego se construye el vector de medias deslizante conformado por los centros de masa de vecindades circulares circunscritas a una región que contiene el LV. En la segunda etapa, el centro de masa que exhibe el mayor nivel de gris se hace corresponder con la semilla que inicializa la segmentación del LV mediante crecimiento de regiones. Posteriormente, se comparan las segmentaciones del LV generadas por el algoritmo propuesto y las obtenidas manualmente por un cardiólogo. Para ello, se calculan el coeficiente de Dice (CD) y los errores de volumen y de contorno. El CD promedio superó ligeramente el valor de 0.81, en ambos dominios. Palabras Clave: Ventrículo izquierdo, Medias deslizantes, Crecimiento de regiones, Coeficiente de Dice.
implementación de dos etapas: a. Etapa de filtrado: basada en el procedimiento estadístico conocido como medias deslizantes. b. Etapa de segmentación: basada en la aplicación de la técnica de crecimiento de regiones. El resto del artículo se utiliza para desarrollar todos los aspectos relacionados con la metodología del trabajo realizado, los resultados generados y las respectivas conclusiones.
INTRODUCCIÓN El proceso de segmentación de imágenes consiste en la delimitación de objetos agrupados de acuerdo con la similitud de los entes que las integran [1]. La segmentación de las estructuras cardiacas es un prerrequisito para el análisis de la función cardiovascular a partir de imágenes adquiridas mediante diversas modalidades de imagenología médica. La complejidad y variabilidad de la morfología cardiaca, el bajo contraste, el ruido y la presencia de artefactos son algunas de las dificultades que caracterizan el proceso de segmentación del corazón como un problema abierto. Diversos investigadores han abordado este problema. Zhou [2] propone un método para segmentar estructuras cardiacas basado en la combinación de medias deslizantes y campos aleatorios de Markov para guiar el proceso de extracción de las estructuras. Adicionalmente, Zhuang et. al. [3] propusieron un método basado en técnicas de registro y deformación adaptativa para segmentar las cuatro cavidades cardiacas en imágenes de resonancia magnética, reportando, para el miocardio, un coeficiente de Dice promedio de 0.77±0.06. Por otra parte, mediante el presente trabajo se propone un algoritmo para la segmentación del LV en imágenes cardiacas de tomografía computarizada multicapa (MSCT). El referido algoritmo se desarrolla mediante la
1.
METODOLOGÍA
1.1 Descripción de la base de datos. La base de MSCT utilizada está conformada por 20 volúmenes que contienen información anatómica cardiaca 4D, 3D + tiempo, para un ciclo cardiaco completo y fue adquirida en sincronización con la onda R de la señal electrocardiográfica. Cada volumen está constituido por 326 imágenes con voxeles de tamaño: 0.4882 mm x 0.4882 mm x 0.3999 mm. Cada imagen tiene una resolución espacial de 512x512 pixeles, muestreada a 12 bits por pixel. 1.2 Etapa de filtrado. Las imágenes de tomografía computarizada consideradas presentan un nivel de ruido importante y bajo
30
Memorias_BIOVEN_2012
p (i , j ) − p k < u
contraste por lo que antes de hacer la segmentación es necesario realizar una etapa de filtrado. Para ello se utiliza una técnica no paramétrica denominada medias deslizantes. Esta técnica fue seleccionada debido a que posee, entre sus características, dos aspectos muy interesantes. Ellos son: a.No requiere de suposiciones acerca del modelo geométrico del conjunto de datos a analizar [4] y b.- Permite la localización del centro de masa del objeto o región a segmentar [5]. Este último aspecto permitió ubicar la posición de la semilla requerida para inicializar la técnica de segmentación considerada. En esta investigación la técnica de medias deslizantes fue implementada en los dominios 2D y 3D. Por razones de simplicidad se presenta a continuación el conjunto de pasos aplicados al caso 2D. Ellos son: 1.
2.
donde: u es un número natural arbitrario denominado umbral el cual se establece, generalmente, de forma heurística. En la ecuación (3) el índice k viene dado por la ecuación (4), en la que L es el lado de la vecindad construida. k = {1, 2, … , LxL-1} 4.
Se construye una vecindad cuadrada cuyo lado L viene dado por la ecuación (1).
L = 2n
6 6 12 56 23 2 10 15
8 9 17 3 6 8 12 16
1 11 20 12 7 9 15 18
3 13 22 2 9 3 8 9
12 9 7 5 9 10 11 1
0 8 15 7 9 11 12 3
Una vez realizado el proceso de filtrado se selecciona una imagen en la cual el LV se encuentra altamente contrastado. Luego se aplica el siguiente procedimiento: 1.
7 12 14 8 7 9 9 7
En la imagen seleccionada se elige una región rectangular que contenga la mayor porción posible de LV (ROI), como se muestra mediante la figura 2.
Figura 2. Selección de la región de interés (ROI). 2. 3.
4. 5.
Se compara el nivel de gris de p (i , j ) con el de sus vecinos
Se halla la media aritmética de los niveles de gris de los pixeles que cumplan con la condición establecida en la ecuación (3). El nuevo nivel de gris de p (i , j ) viene dado por esta media aritmética.
1.3 Selección de la semilla para inicializar el método de segmentación
Figura 1. Posición de p (i , j ) dentro de una vecindad cuadrada de 64 elementos. 3.
(4)
Con el propósito de obtener los parámetros óptimos del filtro implementado se realizó un proceso de entonación de los escalares u y n los cuales controlan el desempeño de la técnica medias deslizantes.
(1)
donde: n es un número natural arbitrario. En esta ecuación, con el propósito de evitar un costo computacional excesivo durante el proceso de entonación de parámetros, el rango de valores que le fue asignado a n estuvo restringido a los números naturales 2, 3 y 4. Se recorre cada imagen, en su totalidad, usando la vecindad construida anteriormente. En este recorrido la posición, dentro de la referida vecindad, del píxel objeto de estudio [ p (i , j ) ] se establece mediante la ecuación (2). (2) p ( i , j ) = ( L / 2, L / 2 ) A manera de ejemplo, la figura 1 muestra la posición de p (i , j ) en una vecindad cuadrada de lado L = 8. Los valores presentes en la referida vecindad representan los niveles de gris hipotéticos tanto del pixel objeto de estudio (nivel de gris igual a 12) como de sus pixeles vecinos. 3 5 10 10 10 5 5 11
(3)
6.
pk de acuerdo a la ecuación (3),
31
Se construye una vecindad circular ( Vc ) cuyo radio se fijo, heurísticamente, en 9 pixeles. La ubicación inicial del centro de la Vc se elige arbitrariamente. Sin embargo se deben implementar restricciones que garanticen la permanencia de Vc dentro de la ROI. Se calcula el centro de masa [5] de los pixeles contenidos en la Vc ubicada en la posición actual. A cada centro de masa se le asocia un nivel de gris o intensidad extraido de la ROI. El centro de masa permite construir un vector desde el origen de la posición actual de Vc hasta
PROCESAMIENTO DE IMÁGENES MÉDICAS
7.
8.
9.
el centro de masa calculado anteriormente ( este vector se denomina vector de medias deslizante ). La Vc se desplaza haciendo que su centro coincida con el extremo del vector de medias deslizante construido. Se repiten los pasos 4, 5, 6 y 7, iterativamente, hasta que se obtenga un vector de medias deslizante nulo [5]. Considerando todos los centros de masa calculados se selecciona como semilla, para inicializar el proceso de segmentación, aquel centro de masa con el máximo nivel de gris asociado.
por un cardiólogo. Las métricas utilizadas para generar la referida cuantificación fueron el coeficiente de Dice, error de área y de contorno. Las ecuaciones que rigen estas métricas son presentadas en [6] y [7]. Los valores para los parámetros óptimos fueron aquellos para los cuales se obtuvo el mayor coeficiente de Dice sobre el instante diástole final. Estos valores se usaron para segmentar los 19 instantes restantes, del ciclo cardiaco. RESULTADOS Los resultados cualitativos derivados de la etapa de filtrado 2D se pueden apreciar en la figura 2. En ella, se observa la imagen filtrada que se obtiene con los valores de parámetros óptimos, se aprecia un agrupamiento adecuado de las zonas correspondientes al LV.
1.4 Etapa de segmentación.
Para desarrollar la segmentación 3D del LV, en la presente investigación, se considera la técnica denominada crecimiento de regiones (CR). En el CR implementado un voxel es agregado a una región si y solo si su intensidad pertenece al intervalo obtenido mediante la ecuación (6).
[µ − mσ , µ + mσ ]
(6) donde: m es un escalar arbitrario, µ y σ son la media y la desviación estándar de los niveles de gris, respectivamente, calculadas sobre cierta vecindad inicial 3D del voxel objeto de estudio. Esta vecindad inicial 3D se construye a partir del voxel semilla, tiene forma de caja rectangular y su tamaño (tamVecIni ) depende del parámetro r de acuerdo a la ecuación (7). tamVecIni = 2r + 1 (7) donde: r es un escalar arbitrario. Para entonar el crecimiento de regiones se consideran los parámetros m y r. Al parámetro r se le asignaron todos los valores comprendidos entre 0.5 y 9.5 con un tamaño de paso 0.5; mientras que m tomo los valores comprendidos entre 0.1 y 10 con un paso de 0.1. La selección de estos valores requiere de la realización de una prueba piloto. Esta prueba consiste en hacer algunos ensayos de segmentación de bases filtradas tomando como referencia la semilla ya establecida. En cada base se hicieron experimentos no exhaustivos conducentes a obtener los rangos que permiten segmentar el ventrículo izquierdo en el mayor número de capas de cada volumen teniendo la precaución de que la segmentación no incluya otras estructuras. Para codificar el proceso de segmentación se utiliza el lenguaje de Programación C++ debido a su versatilidad para generar una programación modular.
(a) (b) Figura 2. Vista axial del instante diástole antes del filtrado (a) y después del filtrado (b). En la figura 3(a) se muestra la semilla ubicada en el ventrículo izquierdo (punto blanco), en la figura 3 (b) se muestra la vista axial del ventrículo izquierdo segmentado.
(a) (b) Figura 3. Vista axial del instante diástole. Ubicación de semilla (a), segmentación de LV (b). En la figura 4 (a) se muestra el volumen segmentado del ventrículo izquierdo en el instante sístole; mientras que en la figura 4(b) se presenta la segmentación del LV en el instante diástole.
1.4 Etapa de validación.
Luego de efectuado el proceso de segmentación del LV se cuantifica la calidad de dicho proceso. Para ello, se compararon las segmentaciones obtenidas mediante el algoritmo propuesto y la segmentación manual realizada
(a)
32
(b)
Memorias_BIOVEN_2012
Figura 4. Volumen del ventrículo izquierdo segmentado en el instante sístole (a) y diástole (b). Los valores óptimos derivados del proceso de entonación de parámetros y los valores de las métricas para el instante diástole se presentan en la tabla I.
Tomando como referencia el índice de Dice, los resultados obtenidos en el presente trabajo son superiores a los reportados en [3].
Tabla I. Métricas medidas con los valores de parámetros óptimos.
El algoritmo propuesto logra segmentar de manera aceptable el ventrículo izquierdo a lo largo de un ciclo cardiaco completo. Se pudo evidenciar la necesidad de realizar un proceso de entonación de los parámetros de las técnicas que conforman el algoritmo propuesto. Esto permitió generar los valores óptimos para desarrollar todo el proceso de segmentación. Como trabajo a futuro se pretende explorar el uso de diversas técnicas de filtrado y cotejar los resultados con los obtenidos mediante el presente trabajo.
Dominios 2D 3D
CONCLUSIONES
Parámetros Error Error de Coeficiente n u de Área Contorno de Dice (%) (%) 11,45 4 550 1,27 0,9424 9,64 3 550 2,39 0,9512
El valor de n para calcular el tamaño de ventana en 2D es mayor que en 3D, debido a que en 3D posee una mayor cantidad de píxeles vecinos al píxel estudio. En la tabla II se indican los valores promedios generados para las métricas luego de la segmentación de los 20 instantes del ciclo cardiaco. En ella se puede apreciar que en el dominio 2D las métricas generaron resultados ligeramente superiores a los obtenidos para el dominio 3D.
AGRADECIMIENTO Los autores quieren agradecer al Grupo de Bioingeniería perteneciente al Decanato de Investigación de la Universidad Nacional Experimental del Táchira por permitir usar el laboratorio para realizar las pruebas. Al Laboratoire Traitement du Signal et de l'Image (LTSI)Université de Rennes 1 – Francia, por proporcionar la base de datos de MSCT.
Tabla III. Promedios de las métricas en los dominios 2D y 3D.
REFERENCIAS
Error Error de Coeficiente Dominios de Área Contorno de Dice (%) (%) 2D 32,42 46,79 0,8138 3D 42,81 52,31 0,8128
[1] Jain A. et al. (1999): “Data clustering: a review,” ACM Comp. Surv, 31 (3), pp. 264–323. [2] Zhou H. et al. (2009): “Bayesian image segmentation with mean shift”. Image Processing (ICIP), 16th IEEE International Conference on, pp. 2405 – 2408. [3] Zhuang X. et al. (2010): “Registration based on Propagation Framework for Automatic whole hart segmentation of Cardiac MRI” IEEE Trans. Med. Imag. 29 (9), pp. 1612-1625. [4] Yang Ch. et al. (2005): “Efficient Mean-Shift Tracking via a New Similarity Measure” IEEE Computer Society Conference on Computer Vision and Pattern Recognition, pp. 1063-6919. [5] Comaniciu D. et al. (2002): “Mean shift: A robust approach toward feature space analysis,” IEEE Trans. Pattern Anal. Machine Intell, 24 (5), pp. 603–619. [6] Dice L. (1945), Measures of the amount of ecologic association between species, Ecology, 26 (3), pp. 297302. [7] Suzuki K. et al. (2004), Extraction of left ventricular contours from left ventriculograms by means of a neural edge detector, IEEE Trans. Med. Imag., 23 (3), pp. 330-339.
En el gráfico 1 se presentan los coeficientes de Dice discriminados para cada uno de los 20 instantes del ciclo cardiaco en los dominios 2D y 3D.
Gráfico 1. Coeficiente de Dice de los instantes del ciclo cardiaco en los dominios 2D y 3D.
33
PROCESAMIENTO DE IMÁGENES MÉDICAS
RESTAURACIÓN DE IMÁGENES DE CÉLULAS DE PURKINJE Francisco Durán1,2 , Rubén Medina2 , José Balza1 , Nelly García1 , Emilitza Labarca 1 , Leisalba Zavala 1 , Aldeni Viloria 1 , Zulma Peña1 1
Centro de Microscopía Electrónica "Dr. Ernesto Palacios Prü ", Universidad de Los Andes, Mérida, Venezuela 2 Centro de Ingeniería Biomédica y Telemedicina, Universidad de Los Andes, Mérida, Venezuela fduran@ula.ve, rmedina@ula.ve
RESUMEN Las Células de Purkinje (CP) se encuentran en la corteza del cerebelo y constituyen una línea de investigación para el Centro de Microscopía Electrónica “Dr. Ernesto Palacios Prü”. Su estudio se justifica por la diversidad de enfermedades que afectan la estructura y funcionalidad del cerebelo. Para la realización del estudio es importante el realce de las imágenes de CP y la cuantificación de espinas dendríticas. Para ello se aplicaron técnicas de restauración de imágenes (deconvolución a ciegas, Lucy-Richarson y regularización) que permitieron realzar las espinas dendríticas de CP, mejorando la apreciación de detalles en las imágenes para que el experto pueda identificar un mayor número de espinas dendríticas. Las técnicas también fueron validadas usando imágenes sintéticas que incorporan borrosidad obtenida mediante un filtro gausiano. Las técnicas de realce que generaron excelentes resultados fueron los algoritmos de deconvolución a ciegas y Lucy-Richarson tanto en imágenes de CP como en imagenes sintéticas. Palabras Clave: Células de Purkinje, Espinas Dendríticas, Convolución, Deconvolución.
técnicas de restauración que faciliten este proceso. La adquisición de imágenes en microscopía a menudo puede causar borrosidad, debido a que ciertas secciones pueden estar más allá del plano de enfoque que se haya fijado. En microscopía de luz, al realizar la adquisición de imágenes en estructuras celulares esta borrosidad debe ser corregida utilizando herramientas de deconvolución. La deconvolución en la microscopía es un proceso que se basa en la utilización de técnicas de restauración, para ello se debe estimar la función del sistema de dispersión puntual (PSF: Point Spread Function) [1]. Para el procesamiento de las imágenes de CP, se utilizaron técnicas de restauración, tales como: deconvolución a ciegas, LucyRicharson y regularización, que realzan las espinas dendríticas de CP. Esto permite adicionalmente implementar técnicas de reconocimiento automático de espinas dendríticas de las CP. El uso de técnicas de restauración en microscopía ha sido abordado por otros investigadores. Asi según Boutet y otros [2], los algoritmos de deconvolución son ampliamente utilizados en microscopía de fluorescencia convencional pero siguen siendo difíciles de aplicar a los sistemas de imágenes por microscopía confocal, debido a la dificultad de medir la PSF,
INTRODUCCIÓN Las Células de Purkinje (CP) constituyen una de las neuronas más grandes del tejido nervioso. Tales células envían proyecciones inhibidoras hacia los núcleos cerebelosos, constituyendo la única salida de toda la coordinación motriz de la corteza cerebelar. El cuerpo de las CP es de forma piriforme y sus ramificaciones dendríticas son complejas, presentando, en toda la extensión de la superficie dendrítica estructuras conocidas como espinas dendríticas; estas son protrusiones de la membrana y del citoplasma celular que tienen longitudes diferentes y están distribuidas irregularmente en las dendritas. Este tipo de espinas son estructuras especializadas a las cuales se les ha dedicado particular atención debido a que su aspecto morfológico, su número y su distribución espacial, representan la expresión anatómica del funcionamiento del cerebelo. En este estudio se enfoca el interés en poder realzar las espinas dendríticas, ya que la identificación y cuantificación de estas es realizada por un experto mediante un análisis manual de las imágenes, convirtiéndose en un proceso tedioso y subjetivo. Debido a esto, es importante la implementación de 34
Memorias_BIOVEN_2012
especialmente en los experimentos biológicos. La medición de la PSF bajo las condiciones de diseño del microscopio óp˜ ∗ (u, v) G(u, v)H k−1 tico no pueden reproducirse; la solución más natural para re˜ k (u, v) = F (4) 2 ˜ |Hk−1 (u, v)| + α|F˜k−1 (u, v)|2 solver el problema es extraer la PSF de las imágenes adquiridas, aprovechando la presencia de pequeñas estructuras dentro de las imágenes en estudio. Esta metodología se aplicó a imágenes de prueba artificialmente borrosas y en imágenes donde (.)∗ denota el conjugado complejo (.) y α reprereales tomadas con microscopía confocal de una preparación senta la energía del ruido. in vitro del órgano de la audición del ratón. Filtro de Lucy–Richardson: Consiste en la aplicación de una técnica basada en métodos probabilísticos para la restau´ FUNDAMENTACIÓN TEORICA ración de imágenes degradadas por ruido. En el desarrollo de la técnica se asume que la imagen G fue degradada de la forma La técnica de restauración utilizada en imágenes de CP G=F*H, donde F es la imagen original, H es la PSF que mofue la deconvolución [3],[4]. dela la borrosidad y otras distorsiones. Se considera que F,H y G son una medida de la frecuencia de ocurrencias de un evenConvolución y deconvolución: La convolución es una to probabilístico. Dada la imagen degradada G y la función de operación matemática que corresponde al filtrado de una ima- dispersión de puntos H, para obtener la imagen original F, se gen con un kernel (PSF) para producir otra imagen, como lo puede recurrir al teorema de Bayes. Dicho teorema establece la probabilidad condicional del evento Fi dado el evento Gk indica las ecuaciones 1 y 2. y se puede estimar utilizando la ecuación 5. g(x, y) = f (x, y) ∗ h(x, y) =
N M X X
h(m, n)f (x − m, y − n)
(1)
P (Gk /Fi )P (Fi ) P (F ) = P j P (Gk /Fi )P (Fi )
(2)
(5)
A partir de la ecuación de Bayes, el algoritmo de LucyRichardson representa un procedimiento iterativo que converge hacia la restauración de los valores de la imagen sin degradar, representados por P (Fi ). La inicialización se realiza considerando una distribución de probabilidad uniforme (el algoritmo se muestra en la ecuación 6).
m=1 n=1
Donde x,y representan las coordenadas de los píxeles en la imagen de tamaño M,N; m,n es el tamaño de la ventana de convolución. El proceso de deconvolución puede visualizarse, como el proceso inverso de la convolución. La operación de deconvolución presenta algunas dificultades al momento de implementarla. Una de ellas, es que las imágenes digitales son X P (Gk /Fi )P (Fi )P (Gi ) representaciones discretas. Todo proceso de muestreo, neceP Pr+1 (F ) = Pr (Fi ) (6) j P (Gk /Fj )P r(Fj ) sariamente, se realiza para un rango finito de frecuencias, k con lo cual una parte de la información se pierde de forma Filtros de regularización: El algoritmo de restauración irreversible. Otra razón, es que en realidad no se conoce con por regularización se basa en la aproximación de un problema exactitud la PSF. También se debe tener en cuenta durante la mal condicionado, por medio de problemas bien condicionaadquisición de imágenes la presencia del ruido, que represendos similares. Suponga que se tiene una imagen borrosa con ta una componente aditiva que complica la deconvolución. la cual se construye un vector g, por otro lado se tiene la imaFiltro de deconvolución a ciegas: Es un método de de- gen f que se quiere recuperar y el instrumento con el que se convolución que intenta obtener el objeto f(x,y) y la PSF adquirió la imagen es representado por una matriz h (PSF), (h(x,y)) simultáneamente a partir de la imagen g(x,y). Por de tamaño m,n que modela la borrosidad como h.f = g. El lo tanto, en principio no requiere conocer a priori la PSF. problema de restauración se reduce a encontrar un estimado ˜ El método iterativo de deconvolución a ciegas propuesto por de f denotado f. Desafortunadamente, resolver el sistema de Ayers y Dinty [5] es el más utilizado y hace uso del algorit- ecuaciones por cualquier método numérico, no resulta factible mo de la Trasformada Rápida de Fourier (FFT). La imagen debido al mal condicionamiento de la matriz, conduciendo ˜ ˜ estimada es denotada F(u,v) la PSF se denota por H(u,v) y la a la propagación de errores numéricos que al final produce degradación lineal de la imagen por G(u,v) (ver ecuación 3 y una imagen de mala calidad. Debido a ello se utilizan técnicas de restauración mediante regularización, que consisten en 4). resolver el problema mal condicionado h. f = g para obtener ˜f que minimiza el siguiente funcional (ver ecuación 7): ∗ G(u, v)F˜k−1 (u, v) ˜ k (u, v) = (3) H ˜f = minf {kh.f − gk + α|f|2 } (7) ˜ k−1 (u, v)|2 |F˜k−1 (u, v)|2 + α|H 35
PROCESAMIENTO DE IMÁGENES MÉDICAS
RESULTADOS
METODOLOGÍA
Para validar los filtros de deconvolución se utilizó la imagen de Lena a la cual se le agregó borrosidad con un filtro gausiano y se proceso con los filtros de deconvolucion. (ver figura 1). Los resultados que se obtuvieron al medir el PSNR mientras se varía el σ se muestran en la figura 2. En la figura 3, se muestran detalles de una sección de una imagen de CP, donde se aplicó el realce utilizando las técnicas de deconvolución, permitiendo, asi observar las espinas dendriticas en la ramificación. En la figura 4a se muestra una imagen de una CP sin aplicarle ningún típo de preprocesamiento. Allí el experto logra identificar 29 espinas mediante conteo manual. La figura 4b muestra la imagen de CP procesada con el filtro de deconvolución a ciegas en donde el experto identifica 54 espinas. En la figura 4c se aplicó el filtro de Lucy–Richardson, logrando identificar 44 espinas dendríticas. Y por último, se utilizó el filtro de regularización (figura 4c) en donde el experto identifica 18 espinas. El cuadro 1 muestra los resultados obtenidos al aplicar cada una de las técnicas de deconvolución mencionadas a la base datos de 31 imágenes de CP.
Base de datos de Microscopía: La base de datos empleada en el desarrollo de la presente investigación, estuvo constituida por 31 imágenes de CP, con una resolución de 3072 × 3072 píxeles y 8 bits de profundidad. Las imágenes de CP representan cortes de cerebelo de un ratón adulto joven, adquiridas utilizando un Microscopio Fotónico Polyvar Reichert-Jung con un objetivo de 100X y una cámara fotográfica digital marca Infinity. Al cerebelo se le aplicó el método de Golgi modificado por Palacios [6]. Se visualizaron cortes de 90 micras de espesor adquiridas a diferentes planos focales.
Validación de los algoritmos de restauración: En la validación de los filtros se utilizó una imagen sintética de Lena, a la cual se le agregó borrosidad de tipo gausiana, con una máscara de 25 × 25 y varianza de 2,5. Luego se generó una PSF, donde se mantuvo constante la máscara de 25 × 25 y se varía el σ desde 0,1 hasta 5 con incrementos de 0,1 obteniéndose una PSF diferente para cada varianza. Dichas PSFs se utilizaron como parámetro de entrada en los filtros de deconvolución ( a ciegas, Lucy–Richardson y regularización). Se midió la relación señal a ruido de pico (PSNR:P eakSignal − to − N oiseRatio), comparando la imagen restaurada con respecto a la imagen original sin borrosidad.
Restauración de las imágenes de CP: Inicialmente en la aplicación de los filtros de deconvolución se trabajó con el filtro de deconvolución a ciegas el cual permite obtener una imagen óptima y su PSF, debido a que este filtro es iterativo necesita una PSF de inicialización, para ello se utilizó una matriz identidad cuadrada de tamaño n,n. En nuestro caso el tamaño fue seleccionado de manera heurística al variar n entre 2 y 100, con la ayuda de un experto en conteo de espinas dendríticas, la mayor cantidad de espinas fueron identificadas por el experto considerando una PSF de 45 × 45. El experto reconoce las ramificaciones dendríticas y sobre ella identifica las protusiones que se encuentran sobre estas ramificaciones las cuales están conectadas con las dendritas por un fino cuello y termina en una cabeza mas bulbosa. Durante este procedimiento de selección heurística se almacenan cada una de las PSF generadas al variar n. Dichas PSFs se utilizan como parámetro de entrada en los algoritmos de deconvolución de Lucy–Richardson y de regularización. Generando excelentes resultados en el algoritmo de Lucy–Richardson cuando se inicializa con la PSF de 35 × 35 obtenida por la deconvolución a ciegas. Igualmente se procede con el filtro de regularización y los mejores resultados se obtienen al inicializar el algoritmo con la PSF de tamaño 2 × 2.
Figura 1: Imagen sintética de Lena a) borrosidad gausiana b) filtro de deconvolución a ciegas c) filtro de Lucy–Richardson d) Filtros de regularización.
Figura 2: Gráfico del PSNR de la imagen sintética restaurada en función de la varianza 36
Memorias_BIOVEN_2012
Cuadro 1: Resultados del conteo manual en la base de datos de CP. Variables Imagen sin preprocesamiento Filtro de deconvolución ciegas Filtro de Lucy–Richardson Filtro de regularización
Promedio ± σ 19±07 30±13 31±16 15±07
CONCLUSIONES De las técnicas utilizadas en este trabajo las que presentaron mejores resultados en la restauración de imágenes de CP e imagenes sintéticas, fueron el filtro deconvolución a ciegas, seguido por el filtro de Lucy–Richardson. Los resultados obtenidos nos permiten afirmar que la utilización de métodos numéricos iterativos de deconvolución permiten el realce de las imágenes de CP, lo cual ayuda en la identificación de una mayor cantidad de espinas dendríticas facilitando la tarea del experto. Debemos considerar, que al aplicar la deconvolución Figura 3: Imagen que muestra una sección en detalle las eslas zonas que aparecían borrosas se restauran y se reconocen pinas dendriticas de CP a) sin preprocesamiento; b) filtro espinas dendríticas, sin embargo, como el desenfoque no es de deconvolución a ciegas; c) filtro de Lucy–Richardson; uniforme, podríamos tener regiones de la imagen donde las d) filtros de regularización. espinas no se aprecian claramente luego de la restauración y podrían ser ignoradas por el experto.
AGRADECIMIENTOS Al Personal del Centro de Microscopía Electrónica “Dr. Ernesto Palacios Prü” por la colaboración en el desarrollo de los experimentos para adquirir las imágenes.
Referencias [1] Michael J. et al (2010): Realistic modeling of the illumination point spread function in confocal scanning optical microscopy, J. Opt. Soc. Am. A , 27: pp 295-302. [2] Boutet E. et al (2005): Image-adaptive deconvolution for three-dimensional deep biological imaging, Biophysical Journal, 85: pp 3991-4001. [3] Richardson W. (1972): Bayesian-based iterative method of image restoration, Journal of the optical society of America, 62: pp 55–59. [4] Gonzalez R. et al (2009): Digital Image Processing Using MATLAB, Gatesmark Publishing.
Figura 4: Imagen de CP y conteo manual de espinas dendríticas a) imagen sin preprocesamiento (29 espinas den- [5] Ayers G. et al (1988): Iterative blind deconvolution method and its applications, Opt. Lett., 13: pp 547-549. dríticas); b) filtro de deconvolución a ciegas (54 espinas dendríticas); c) filtro de Lucy–Richardson (44 espinas [6] Palacios E. et al (1970): Two useful variations of the golgi dendríticas); d) filtros de regularización (18 espinas densilver-chromate method, Acta Científica Venezolana, 21: pp 105–106. dríticas).
37
BIOMECÁNICA
La biomecánica es la parte de la bioingeniería que estudia el efecto de las fuerzas internas y externas en el ser humano y en el animal, ya sea en estado de reposo ó de movimiento. Las primeras observaciones sistemáticas de los movimientos humanos fueron realizadas por Leonardo da Vinci (1952-1519) y aparecieron en sus “Notas Sobre el Cuerpo Humano”. En los últimos noventa años hubo progresos genuinos en biomecánica, cuando se introdujo el registro de fuerzas y movimientos (con medios neumáticos y ópticos) por científicos de la escuela francesa, quienes estudiaron la locomoción humana y animal y el vuelo de los pájaros e insectos. La escuela alemana mejoró las técnicas de registro y análisis teórico de los movimientos, habiendo publicado trabajos que deben considerarse como clásicos en biomecánica. Durante la Primera Guerra Mundial se iniciaron en Francia y Alemania estudios para tratar de mejorar las prótesis, utilizados como miembros artificiales. Es aquí, donde se introduce realmente una concepción de la biomecánica, realizando aplicaciones en actividades laborales, de deporte y medicina. En Venezuela, grupos de investigación en la Universidad Central de Venezuela, la Universidad de los Andes, la Universidad Simón Bolívar y la Universidad Nacional Experimental del Táchira realizan proyectos desarrollando prótesis, fijadores externos y otros dispositivos utilizando herramientas de modelado matemático para la fase de diseño. Los artículos que se presentan a continuación muestran algunos trabajos que se llevan a cabo en la actualidad en el área de biomecánica.
38
BIOMECÁNICA
DISEÑO DE MOLDES PARA LA FABRICACIÓN POR ROTOMOLDEO DE DISPOSITIVO DE ENTRENAMIENTO ODONTOLÓGICO PARA TOMAS DE IMPRESIÓN DE HENDIDURAS LABIO PALATINAS K Arzola1, MCandal2, O Pelliccioni1, T Pannaci3 1 Grupo de Biomecánica USB, Departamento de Mecánica, Universidad Simón Bolívar, Apartado 89000, Caracas 1080-A, Venezuela. 2Grupo de Polímeros USB, Departamento de Mecánica, Universidad Simón Bolívar, Apartado 89000, Caracas 1080-A, Venezuela 3Fundación Operación Sonrisa Venezuela, Av San Juan Bosco, Ed Excelsior, piso 5, No55, Altamira - Caracas 1080-A, Venezuela e-mail: mcandal@usb.ve
RESUMEN En el siguiente trabajo se propone la fabricación de un dispositivo de entrenamiento médico para la toma de impresiones de paladar en niños con hendidura de labio y paladar. La propuesta parte de un simulador con las facciones de un infante de 0 a 6 meses de edad que presente la malformación maxilofacial, las dimensiones y contextura de un bebé real. El trabajo describe la metodología empleada tanto para el diseño como la fabricación de las principales componentes del dispositivo de entrenamiento médico. Palabras Clave: Paladar hendido, Rotomoldeo, simulador mecánico, maxilofacial.
del paladar duro, con la finalidad de obtener una correcta función oral. Esta técnica también permite disminuir el número de cirugías y evitar desplazamientos grandes de tejidos blandos, que creen zonas de fibrosis que puedan impedir o limitar la realización de estímulos de crecimiento óseo adecuados [5,6]. En vista que el odontólogo general en muchas oportunidades de su ejercicio clínico, especialmente a nivel asistencial, se ve en la necesidad de atender a pacientes con HLP, ya que generalmente esta población es de bajos recursos económicos y acude a las instituciones públicas, deberá tener un nivel de capacitación mínima que le permita abordar con mayor eficiencia a estos pacientes e instaurar un programa de rehabilitación ortopédico maxilar adecuado [7]. El paso inicial crucial en la fabricación de cualquier placa oclusora, es el procedimiento de la impresión [8]. Diferentes procedimientos para la toma de la impresión han sido reportados en la literatura del HLP en niños. La posición del paciente, la selección del porta muestra y del material de impresión, son factores importantes a considerar en cualquier procedimiento para la toma de la huella (ver Figura 1). Se han adoptado diversas posiciones del niño para la impresión del paladar hendido, incluyendo: boca abajo [9], parados [10], de manera horizontal y levantándolo cuando la impresión se fragua [11] y hasta invertido boca abajo [12].
INTRODUCCIÓN La Hendidura Labio Palatina (HLP) es una de las malformaciones más comunes y de mayor dificultad en su manejo, ya que debido a la complejidad de las deformaciones maxilofaciales que presentan muchos pacientes, pueden comprometerse funciones básicas como la respiración y la deglución, sin contar otras alteraciones como los trastornos del habla y el lenguaje. Tiene causas tanto genéticas como de factores ambientales [1], y su incidencia es de 1 niño cada 2500 nacimientos, con mayor frecuencia en el sexo femenino [2]. En las formas de hendidura labio palatina bilateral completa, con gran protrusión de premaxila, es absolutamente necesario colocar la premaxila en posición normal, con anterioridad al acto quirúrgico [3,4]. El Odontólogo es el personal responsable de aplicar la Ortopedia Funcional de los Maxilares. Su finalidad es corregir la hendidura de manera artificial utilizando placas oclusoras de acrílico, permitiendo que tanto el acto de la deglución y sobretodo la lactancia materna se puedan realizar de la mejor manera posible. La atención odontológica eficiente permitirá en el paciente una alimentación oral en primer término, y también le ayudará para el adecuado crecimiento y desarrollo maxilofacial que facilitará a los cirujanos plásticos o maxilofaciales hacer un correcto cierre del labio en primer lugar y luego el cierre
39
Memorias_BIOVEN_2012
DISEÑO DEL MODELO DE ENTRENAMIENTO El modelo fundamentalmente debe representar en talla, contextura y peso a un bebé entre los 0 y 6 meses de edad, con la movilidad suficiente para posicionarlo en posición supina sobre las piernas de un adulto. El equipo debe permitir su fácil limpieza y señalar de alguna manera si el procedimiento de toma de muestra sobre el paladar se efectuó correctamente o presentó fallas. Finalmente, debe reproducir la malformación labio palatina en diferentes grados de complejidad. Se propone un primer prototipo de maniquí conformado principalmente de piezas plásticas para la cabeza y extremidades, dejando el tronco y las articulaciones en tela y relleno de arena y guata para ajustar su flexibilidad, talla y peso. La figura 3 ejemplifica la propuesta armada con componentes adquiridos en el mercado.
Figura 1. Toma de impresión del paladar en paciente con HLP bilateral[8] La huella es tomada, cuando el niño está totalmente despierto sin ningún tipo de anestesia o premedicación. Los niños tienen que ser capaces de llorar durante el procedimiento de la impresión y la ausencia del llanto puede indicar el bloqueo de las vías aéreas. Los padres se sientan en un banco de altura ajustable, se coloca al niño en una posición supina en las piernas del padre con la cabeza en las rodillas, en un nivel más inferior. El clínico se posiciona en una postura cómoda de las 10 en punto a la cabeza del niño. Un portamuestra cubierto de masilla de fraguado rápido (usualmente, alginato) se adapta intra oralmente usando el dedo pulgar y el índice. Luego que se retira el porta impresiones, se examina la cavidad bucal por cualquier fragmento de material suelto de la impresión, y finalmente, una vez solidificado se procede a preparar sobre él la huella en yeso [8].
Figura 3. Modelo para el entrenamiento médico propuesto (Foto cortesía de Everyest’sDollWorld[14]) Para el diseño de la cabeza, se propone su fabricación en policloruro de vinilo (PVC) plastificado utilizando la técnica de rotomoldeo. El moldeo rotacional o rotomoldeoes un proceso de transformación de plásticos, en donde se obtienen artículos huecos. En este proceso una cantidad de plástico frío, en polvo o líquido, se introduce en el molde abierto. El molde se cierra y se hace rotar biaxialmente al mismo tiempo que se aplica calor; cuando el molde se calienta lo suficiente el plástico en el interior se comienza a fundir, adhiriéndose a las paredes del molde apoyándose en la fuerza centrífuga proporcionada por el movimiento de giro. Luego que las paredes estén completamente recubiertas de material y se haya producido la coalescencia de las partículas comienza la etapa de enfriamiento, sin dejar de girar el molde en ningún momento, se comienza a enfriar el molde, bien sea con aire, aire forzado o rocío de agua. Por último, cuando el material haya solidificado por completo se procede a abrir el molde y sacar la pieza ya conformada [15,16]. El presente trabajo propone construir por fundición de aluminio un molde para la cabeza del maniquí considerando los detalles fisiológicos de un bebé con la boca completamente abierta, e incorporando en detalle la malformación labio palatina. Se construirán tantos moldes
Figura 2. Imagen comparativa del paladar de un paciente con HLP bilateral y su respectiva impresión de yeso (Fotos cortesía de Fundación Operación Sonrisa Venezuela[13]) Los procedimientos en niños con hendiduras plantea un sistema único de desafíos en ellos: incluyendo las restricciones del tamaño impuestas por la cavidad bucal del niño, las variaciones anatómicas asociadas a la severidad de las hendiduras (ver Figura 2) y la falta de cooperación/respuesta del niño a las instrucciones. En vista de todos estos requerimientos tan específicos, el presente trabajo propone el diseño y fabricación de un modelo mecánico para el entrenamiento de odontólogos en la técnica de toma de impresiones en pacientes bebés que presentan HLP. El documento describe los aspectos generales del diseño conceptual, materiales y procedimientos de manufactura.
40
BIOMECÁNICA
como modelos de patología se deseen reproducir (ver Figura 4).
donde la reconstrucción digital haya producido alguna perturbación innecesaria en la pieza e incorporarle las marcas de evaluación en relieve [18]. El archivo resultante está listo para ser incorporado en el modelo del molde de aluminio.
Figura 4. Propuesta de diseño de una cabeza de bebé en PVC con las variantes correspondientes de modelos de malformación labio palatina (Fotos cortesía de Everyest’sDollWorld[14] y Fundación Operación Sonrisa Venezuela[13])
Figura 5. Modelo tridimensional de una cabeza reconstruida en MIMICS a partir de imágenes TAC y modificada posteriormente en el programa CAD Solidworks 2011[19]
METODOLOGÍA DE FABRICACIÓN DEL MOLDE Y EQUIPO DE ROTOMOLDEO Diseño del molde para rotomoldeo. Este consta de dos partes, la primera es una cavidad donde se encuentra por completo (en negativo) la cabeza del bebé con HLP y la otra parte es la tapa del molde. Se propone su fabricación bajo la técnica de fundición de aluminio en molde de arena de sílice. Se seleccionó el aluminio, ya que este material puede fundirse más fácilmente que otros metales y permite ser procesado en yeso. También la transmisión de calor del aluminio es excelente y la capacidad de copiar detalles en la superficie lo hace la opción ideal para crear un molde de cabeza que requiere tantos detalles superficiales, en especial en la parte del paladar hendido. Para que el molde de aluminio adopte la geometría de la cabeza, el diseño plantea la construcción de un prototipo (en positivo) de yeso; luego sería incorporado en la caja de arena para completar el modelado del molde. Diseño del prototipo de yeso. Se requiere un nivel alto de detalle para la construcción del prototipo, sobretodo a nivel del labio y paladar, y en las dimensiones naturales de la cabeza de un bebé de pocos meses de nacido. Siendo un equipo de entrenamiento, se propone la incorporación de marcas en relieve en puntos específicos del paladar para que la captura de la impresión en alginato por parte del estudiante refleje si procedió de manera correcta, o presentó errores durante el procedimiento. Con el uso de herramientas de diseño asistido por computador (CAD) debe construirse un modelo tridimensional de la cabeza a partir de imágenes médicas de tomografías axiales computarizadas (TAC), y manipularse para la incorporación de las marcas de evaluación en relieve. La Figura 5 ejemplifica un modelo sólido de cabeza humana dibujado en Solidworks 2011 a partir de un estudio tomográfico. Con el apoyo de la herramienta MIMICS Materialise© se procesan los archivos DICOM generados por el tomógrafo y se genera un modelo tridimensional de alta definición en formato STL [15]. Posteriormente el archivo es llevado al programa 3-MATICTM de Materialise© para ser suavizado en zonas
Para llevar la geometría obtenida de forma digital a una pieza sólida de yeso, se propone la fabricación mediante prototipado rápido de una cáscara de la cabeza recientemente creada. Así, mediante la técnica de vaciado de yeso se lograría cumplir el objetivo trazado. Se le llama prototipado rápido a la fabricación capa por capa de modelos físicos tridimensionales directamente desde un software tipo CAD [20]. El equipo utilizado en este proyecto fue un FDM2000 de Stratasys©, el cual opera por deposición de hilo fundido de polímero, específicamente Acrilonitrilo Butadieno Estireno (ABS) [21]. La Figura 6 muestra parte del procedimiento simulado en el computador a través del programa controlador de la máquina de prototipado.
Figura 6. Simulación del proceso de prototipado de ABS en el softwareInsigth de Stratasys©[21]. Diseño del equipo de rotomoldeo. Por su simplicidad, se propone la construcción de una máquina tipo giroscopio en donde dos ejes cuadrados, adaptados a las medidas del molde, giren cada uno en un eje en específico para otorgarle al molde el movimiento biaxial necesario para que el polímero cubra por completo toda la superficie interior del molde mientras se encuentra fundido. Este movimiento puede ser otorgado por una manivela que transmita la fuerza a un eje, y luego con un sistema de correa y engranajes se transmita la fuerza al segundo eje para forzarlo a girar. Por su parte, el calor se incorporaría al
41
Memorias_BIOVEN_2012
molde a través de unos quemadores en la parte inferior de los marcos. La Figura 7 ejemplifica las características esenciales del marco de la máquina de rotomoldeo.
after this period: development of a new protocol. Int. J. of Oral and MaxillofacialSurgery, 41 (1), pp 28 – 36 [7]Maldonado B (2007): Formación académica del estudiante de la Escuela de Odontología de la Universidad Central de Venezuela en el manejo ortopédico funcional de los maxilares del paciente con Hendidura Labio Palatina. Tesis de Maestría. Universidad Centrooccidental Lisandro Alvarado. Barquisimeto – Venezuela. [8]Sabarinath V, Hazarey P y Sudheer Ch (2008): Impresiones simples en niños con Labio y Paladar Hendido. Página web disponible en línea: http://orthocj.com/2008/08/impresiones-simples-en-nioscon-labio-y-paladar-hendidp/. Últimoacceso: 15 de junio de 2012. [9]Grayson B, Brecht LE, Cutting CB (2000): Nasoalveolar Molding in Early Management of Cleft Lip and Palate. Editorial Taylor TD. Clinical maxillofacial prosthetics. Quintessence, pp 63 – 84. [10] Yang S ,Stelnicki EJ, Lee MN (2003): Use of Nasoalveolar Molding Appliance to Direct Growth in Newborn Patient with Complete Unilateral Cleft Lip and Palate. Pediatric Dentistry 25(3), pp 253 – 256. [11] Jacobson BN, Rosenstein SW (1984): Early maxillary orthopedics for the newborn cleft lip and palate patient. An impression and an appliance. Angle Orthod 54, pp 247 – 263. [12] Grayson B, Shetye P and Cutting C (2005): PresurgicalNasoalveolar molding treatment in cleft lip and palate patients. CleftJournal 1, pp 4 – 7. [13] Fundación Operación Sonrisa Venezuela. Página web disponible en línea: http://www.operacionsonrisa.org.ve/. Último acceso: 15 de junio de 2012. [14] Everyest’sDollWorld. Página web disponible en línea: http://www.everyest.com/. Último acceso: 15 de junio de 2012. [15] Harper C., Petrie E. (2003): Plasticmaterials and processes. A concise encyclopedia. Editorial John Wiley & sons. Primeraedición. [16] Crawford R y Throne J (2002): Rotational Molding Technology. Editorial Elsevier Inc. [17] MIMICS. Página web disponible en línea: http://biomedical.materialise.com/mimics. Último acceso: 15 de junio de 2012. [18] 3-MATICTM. Página web disponible en línea: http://biomedical.materialise.com/3-matic-0. Último acceso: 15 de junio de 2012. [19] Solidworks 2011. Página web disponible en línea: http://www.solidworks.com/. Últimoacceso: 15 de junio de 2012. [20] Cooper K. (2001): Rapid prototyping technology, selection and application. Editorial Marcel Dekker Inc. New York – USA. [21] Stratasys©. Página web disponible en línea: http://www.stratasys.com/. Último acceso: 15 de junio de 2012.
Figura 7. Propuesta de máquina para rotomoldeo tipo giroscopio. CONCLUSIONES Se diseñó un modelo de simulador mecánico para el entrenamiento médico en la toma de impresiones de paladar en un bebé con malformación labio palatina. Para la alta complejidad del modelo geométrico requerido, la reconstrucción de imágenes médicas y su posterior impresión por prototipado rápido resulta ser una solución de alta calidad y bajo coste en el diseño. La técnica de rotomoldeo de plástico ofrece una posibilidad de bajo coste para reproducir a muy baja escala tanto el prototipo que se propone como su versión final. AGRADECIMIENTO Los autores extienden su agradecimiento al equipo de MaterialiseLatinoamérica por el apoyo institucional brindado y su participación en las disposiciones técnicas para el presente proyecto de Investigación. REFERENCIAS [1]Bordoni N, Escobar A y Castillo R (2010): Odontología pediátrica. 1ª edición. Editorial Médica Panamericana. [2]Palomero G, Vázquez M, Vega J, Naves F yRodriguez G (2000): Lecciones de Embriología. Universidad de Oviedo. [3]Tresserra L (1977): Tratamiento Del Labio Leporino y Fisura Palatina. Editorial Jims, Barcelona, España. [4]Garfinkle J y Grayson B (2012): Chapter 84 - Cleft Lip and Palate: Nasoalveolar Molding. Current Therapy In Oral and Maxillofacial Surgery. Editorial Elsevier Inc. [5]Pannaci T (1996): Modificación Pannaci aplicada a pacientes con hendidura labio-palatina que cursan con disfunción lingual. Revista de la Sociedad Médica, Hospital San Juan de Dios. Caracas – Venezuela, (18). [6]Shetty V, Vyas H, Sharma S y Sailer H (2012): A comparison of results using nasoalveolarmoulding in cleft infants treated within 1 month of life versus those treated
42
BIOMECÁNICA
DISEÑO DE UN PRIMER PROTOTIPO DE PLANTILLA PARA PIE DIABÉTICO I García1, O Pelliccioni1, M Candal2 1 Grupo de Biomecánica USB, Departamento de Mecánica, Universidad Simón Bolívar, Apartado 89000, Caracas 1080-A, Venezuela. 2Grupo de Polímeros USB, Departamento de Mecánica, Universidad Simón Bolívar, Apartado 89000, Caracas 1080-A, Venezuela e-mail: orlandop@usb.ve
RESUMEN El siguiente trabajo es el resultado de una investigación extensa realizada con el propósito de obtener una solución viable, económica, nacional y satisfactoria al problema médico y social conocido como la ulceración del pie diabético. Se estudió la incidencia del peso corporal sobre el pie como factor determinante en la formación de las mismas y posteriormente, se realizó un diseño de plantilla con la presencia de tres soportes principales que trabajando bajo el principio de contacto total permiten el alivio de carga y redistribución de la misma de zonas en peligro a zonas de menor susceptibilidad a ulceración. Se seleccionó laespuma de EVA ó EVA para la fabricación del prototipo de plantilla de acuerdo a los requerimientos físicos y mecánicos del dispositivo y la disponibilidad en el mercado nacional y se planteó el método de termoformado para su fabricación. Palabras claves: diabetes,pie, plantilla, espuma.
(1) Diseño:Se analizaron diseños existentes de plantillas en el mercado nacional y se revisaron estudios de investigación sobre la fabricación de plantillas para pie diabético y las características que estas deben tener. Se procedió a realizar un diseño de plantilla con las características necesarias para el cumplimiento de las funciones de descarga y redistribución de carga. (2) Selección de materiales:Se procedió a realizar un análisis de propiedades y características de posibles materiales hasta la selección final de la mejor opción. Se realizó una segunda etapa queconsistió enuna evaluaciónde seismuestras de plantillas de material no identificado. Su caracterización se realizó mediante Espectroscopía Infrarroja por Transformada de Fourier (FT-ir) con la preparación de pastillas en KBr usando un Espectrómetro NICOLET 380. Posteriormente, se realizaron ensayos mecánicos de tracción a las muestras usando una Máquina de Ensayos Universales Lloyd AMETEK Inc. Modelo EZ-20. (3) Proceso de fabricación:Se analizaron y compararon las diferentes características, ventajas y desventajas que ofrecen diferentes procesos de fabricación hasta la selección del considerado más apropiado.
INTRODUCCIÓN La diabetes en Venezuela se ha convertido en un problema de salud pública por su magnitud. Lascomplicaciones en el pie diabético, consecuencia en gran porcentaje del problema de ulceración, son la primera causa de amputación de miembros inferiores en el país (se estiman 15 mil casos en el año), y la segunda causa de invalidez después de los accidentes [1,2]. El riesgo a ulceración es consecuencia de diversos factores entre los cuales se encuentran las presiones anormales o muy elevadas en los pies [2]. Teniendo en cuenta la seriedad del problema planteado y la poca variedad de dispositivos accesibles en el mercado fue objetivo de este trabajo desarrollar una plantilla cuyo diseño redujese la probabilidad de ulceración en las zonas susceptibles del pie mediante descarga y transferencia o redistribución de carga. La plantilla es un instrumento que por sus características presenta pocas limitaciones a las personas y se puede considerar como una mejor propuesta para dispositivo de prevención de ulceración. METODOLOGÍA La metodología del trabajo se dividió en tres secciones diferentes de operación:
43
Memorias_BIOVEN_2012
plantilla con el propósito de crear la forma de la base, la cual es universal para cualquier tipo de plantilla que se quiera fabricar. Se tomaron como referencia y se limitaron las dimensiones del diseño a una plantilla de mujer talla 37-38 (Tabla II).
RESULTADOS Este estudio se condujo principalmente en el análisis y desarrollo de etapas asociadas al proceso de creación de un nuevo producto, evaluándose desde opciones en el mercado nacional hasta las diferentes maneras de mejorar y progresar en el área estudiada. Se obtuvo finalmente un primer diseño del modelo de plantilla destinada a la prevención de ulceración evaluada no sólo por su geometría sino por los materiales que se plantean para su construcción, y finalmente considerando el método de fabricación. El primer resultado obtenido en el trabajo corresponde con el diseño de la plantilla.
Tabla II.Lista de características dimensionales tomadas como referencia para la construcción del diseño conceptual. Dimensión Largo Ancho Espesor
Una vez obtenida la base, el diseño conceptual del prototipo de plantilla se realizó a través de la inserción de ciertos soportes a la figura mediante la modificación de la forma y espesores en zonas específicas de la plantilla y se llevó a cabo en tres etapas: diseño e incorporación del soporte de arco, diseño e incorporación de la almohadilla metatarsiana y diseño e incorporación del soporte de talón. Finalmente se logró la obtención de un modelo de plantilla (figura 2).
Tabla I.Parámetros seleccionados para el estudio del diseño de la plantilla. Variable Pie
Cargas
Estado de movimiento
Valor (mm) 247-248 63-83 No uniforme
Características Se consideró el estudio para morfologías y condiciones normales del pie. No se consideraron en el estudio pacientes con deformidades, como el pie plano, que altera la distribución de cargas al alterar la forma de apoyo de la persona. Se estudió el caso crítico donde la acción de la carga es de forma puntual sobre el pie siguiendo el modelo del trípode plantar (figura 1),el cual se configura con un punto posterior, el talón (hueso calcáneo) y dos puntos anteriores: por dentro, la cabeza del primer metatarsiano y, por fuera, la cabeza del quinto. Se estudió el caso críticocorrespondiente a la fase de apoyo del ciclo de marcha.
Figura 2.Diseño conceptual del prototipo de plantilla para pie diabético.
El uso de estos soportes ha proporcionado resultados satisfactorios en investigaciones previas. La especialista Barnett [5],en un estudio en Inglaterra,encontró que con el diseño de una plantilla con soporte de arco y talón se logra aumentar el contacto total con el pie en un 11% y reducir la presión crítica un 22%. Por su parte, Zequeraet al. [6] en un estudio realizado encontraron que las plantillas especiales logran reducir la presión que incide en la zona del primer metatarsiano y en el talón. Otros estudios más elaborados como el de Bus et al. [7]han combinado los tres tipos de soportes en el diseño de una plantilla y encontrado reducciones del 16% en la presión crítica y una redistribución como la mostrada en la figura3(a). Se puede inferir entonces que la presencia de los tres soportes mencionados asegura el cumplimiento del principio de contacto total, el cual propone que toda la superficie de la planta del pie descansa sobre el soporte obteniéndose una mejor distribución de carga consecuencia del aumento de zonas capaces de soportarla. En consecuencia, se obtieneuna reducción de la misma en
Figura 1.Representación esquemática del trípode plantar: triángulo estático [3,4] Siguiendo la estructura mostrada en la figura del trípode plantar (figura 1),la cual corresponde al estado de apoyo del ciclo de marcha,se realizó el diseño de la plantilla para disminuir la carga que incide precisamente en los puntos que forman el triángulo, en especial en los puntos anteriores. La zona del primer metatarsiano es la zona más susceptible a ulceración porque recibe una gran cantidad de presión para la reducida área que tiene. Lo primero que se realizó en el área de diseño de este trabajo fue establecer las medidas y dimensiones de la
44
BIOMECÁNICA
puntos donde anteriormente superaba valores críticos, zonas críticas (figura 3(b)).
diversas aplicaciones como empaques, protectores para deporte, sellos, juguetes y calzado, no hay empresas actualmente en Venezuela que realmente las fabriquen. Se han realizado breves proyectos al respecto pero no se ha avanzado en este campo. Finalmente, por esta razón, se consideró la sustitución de la espuma por un material cuya posibilidad de adquirirse en el país sea viable pero que cumpla con las propiedades requeridas para la aplicación que en este trabajo se analiza. Se planteó realizar el prototipo de la plantilla con EVA, Polietileno (PE)oPoliuretano (PU). De la etapa de evaluación se obtuvo que los materiales de las muestras resultaran en PU, EVA y PE (Tabla III). Las muestras presentaron valores de resistencias a la tracción similares, incluso superiores, a aquellos encontrados en la bibliografía para espumas utilizadas en la aplicación de plantillas.
(a) (b) Figura 3.Representación del proceso de redistribución de carga en la plantilla (a) resultado de la redistribución de carga del estudio realizado por Bus et al.[7] (b) Representación esquemática del proceso.
Tabla III. Valores de resistencia a la compresión de muestras estudiadas y valores de referencia. Resistencia compresión Promedio. Desv.Est.
El espesor final de la plantilla se estableció posterior a los ensayos mecánicos realizados a muestras de material observándose el mejor comportamiento en una muestra de 7-8 mm de espesor. El material a utilizar también debe considerarse como prioridad. Comercialmente, se encontró que para la fabricación de estos dispositivos el material que mayormente se usa son las espumas de Copolímero de Etileno y Acetato de Vinilo (EVA) o de Polietileno (PE),y el segundo material más usado es el EVA. La primera parte de la selección del material se basó en la investigación, análisis y comparación de propiedades de espumas comerciales de la empresa Zotefoams y la capacidad de éstas para cumplir los requisitos necesarios para asegurar la funcionalidad y vida útil de la plantilla. Teniendo en cuenta la naturaleza de las heridas, la zona y los objetivos que se quieren cumplir en este trabajo, se llegó a la conclusión que el material a ser seleccionado debe cumplir con los siguientes requisitos:debe ser lo suficientemente suave, liviano y flexible para proporcionarle al paciente comodidad en su uso; y debe mantener ciertas propiedades mecánicas que aseguren la estabilidad y durabilidad de la plantilla durante su uso: buena resistencia a la compresión, baja deformación remanente por compresión, elevada capacidad de absorción de impacto, buena resistencia al desgarre y finalmente baja absorción de agua. Considerando todas las propiedades y la elevada resiliencia del material EVA se seleccionóeste como el más apropiado para la aplicación. Actualmente, las espumas de EVA constituyen el material típico y principal en la fabricación de plantillas y entresuelas de zapatos así como en la elaboración de plantillas de todo tipo para pie. A pesar de ser materiales innovadores de mucho auge actualmente, y con un mercado muy amplio por sus
EVA/PE 1,11 0,1
Espumas EVA/PE 0,95 0,4
PU 0,45 0,09
Espuma PU Suave 0,24 -
También se observó un comportamiento elástico lineal en todas las muestras estudiadas y se pudo concluir que los materiales presentan características y propiedades necesarias para cumplir con los requerimientos para la fabricación de la plantilla. Se pudo validar de esta forma el uso de estos materiales. Una vez obtenido el diseño y los posibles materiales se realizaron una serie de simulaciones mediante el uso de un programa de análisis asistido por computador que permitió calcular el comportamiento de la pieza en aspectos como deformaciones y resistencias: SolidworksSimulation 2011. Se encontró que los materiales estudiados presentan la resistencia necesaria para soportar los valores de esfuerzo a compresión obtenidos como resultado de las simulaciones de esfuerzo. Por otro lado se pudo corroborar el hecho que la zona de mayor esfuerzo está localizada en la sección media de la pieza (figura 4).
Figura 4.Análisis de esfuerzo para el modelo de plantilla de pie diabético en Polietileno (PE).
45
Memorias_BIOVEN_2012
A nivel de investigación se han desarrollado comparaciones entres las espumas de estos materiales para determinar cual tiene las mejores propiedades para esta aplicación. Tonget al. [8]en sus estudios reportaron que la espuma de PU es la mejor para funciones de amortiguación pero las espumas de PE y en especial EVA son superiores en cuanto a durabilidad, propiedades de compresión y aseguramiento de reducción de carga en el tiempo por la resiliencia que presentan, observándose valores de reducción de presión crítica con estos materiales de 32 a 48%. En cuanto al proceso de fabricación, la morfología de la pieza determinó los procesos que se tomaron en cuenta inicialmente: inyección, termoformado y mecanizado.Este últimoofrecía en este proyecto la posibilidad de obtener un modelo real y físico del prototipo pero la falta de información sobre el mecanizado de materiales poliméricos complicó la posible selección de este proceso. Por otra parte, la poca disponibilidad de material eliminó la posibilidad de realizar ensayos de reología necesarios para simular el proceso de inyección por lo que el proceso se tuvo que reconsiderar.Sin embargo, factores determinantes como lo son la mayor cantidad de variables que deben controlarseyconsiderando que la pieza no es de consumo masivo ni es necesaria la producción rápida y continua, no justifican la construcción de un molde de inyección; el cual es altamente costoso. Finalmente, se seleccionó el termoformado como único proceso de transformación a ser analizado y evaluado. Este proceso engloba una serie de técnicas que permiten obtener una pieza plástica a partir de una lámina plana de material. Consiste en deformar la lámina caliente temporalmente suave o reblandecida sobre un molde hasta obtener la pieza final [9].Es importante destacar que a nivel comercial el método de termoformado es el más usado para la fabricación de plantillas por ser un proceso sencillo y menos costoso que el proceso de inyección y permite obtener satisfactoriamente piezas con el diseño estudiado. Una vez seleccionado el proceso se dedicó a la escogencia y diseño del molde. Se concluyó que dada la morfología de la pieza en cuanto a la variación de espesores y geometría, el molde que cumple mejor los requisitos es un molde tipo hembra, y consiste en una estructura con una cavidad hueca en forma del negativo de la plantilla (Figura 5).
eficiencia y durabilidad del dispositivo. La búsqueda del material debe estar enfocada en la obtención de un balance satisfactorio entre el método de fabricación, costo, disponibilidad en el mercado y cumplimiento de los requisitos necesarios para el funcionamiento de la plantilla. La creación de estas plantillas a nivel nacional proveerá un servicio necesario a pacientes con diabetes y en su finalidad mejorará la calidad de vida de los mismos. AGRADECIMIENTO
Los autores extienden su agradecimiento al señor Rubén Soffer, Director General de la empresa Tecnoláminas IBG, por establecer el contacto que permitió la donación de dos plantillas elaboradas en Venezuela para el estudio. En la Universidad Simón Bolívar, al Ing. Héctor Rojas por la asistencia y apoyo en la realización de todos los ensayos mecánicos en el estudio en el Laboratorio de Polímeros, y finalmente al Lic. Freddy Rojas por la disponibilidad, asistencia y ayuda en la realización del ensayo de Espectroscopia Infrarroja en el Laboratorio de Materiales. REFERENCIAS [1] Perez H and Varela D (2010): Pie Diabético en Adultos Mayores Consulta de Angiología, R. Electrónica de PortalesMédicos.com, pp 3. [2] Frykberg R, Armstrong D, Giurini J, Edwards A, Kravette M, Kravitz S, Ross, Ch, Stavosky J, Stuck R yVanore J(2006): Diabetic Foot Disorders: a Clinical Practice Guideline, J of Foot and Ankle Surgery, Vol 45, No 5, pp 4-6. [3] Huertas CyMansat C (2003): Le Pied 1ER Partie, L´Observatoire Du Mouvement, Vol 1, pp 1-3. [4] Bähler A (1986): The Biomechanics of The Foot, Clinical Prosthetics and Orthotics, Vol 10, pp 8-9. [5] Barnett S (2005): Advances in Diabetic Foot Management: The Clinical Effectiveness of Foot Orthoses Prescribed to Control and Reduced Diabetic Foot Pathology, Univ. de West England. [6] ZequeraM, Stephan S y Paul J (2007): Effectiveness of Moulded Insoles in Reducing Plantar Pressure in Diabetic Patients, Proceedings of the 29th An. Int. Conf. of the IEEE EMBS, Lyon Francia, pp 4674. [7] Bus S, Ulbrecht J yCavanaqh P (2004): Pressure Relief and Load Redistribution by Custom-Made Insoles in Diabetic Patients with Neuropathy and Foot Deformity, Clinical Biomechanics, Vol 19, pp 629-338. [8] Tong J and Ng E (2009): Preliminary Investigation on the Reduction of Plantar Loading Pressure with Different Insole Materials, The Foot, Vol 20, pp 1-6. [9] Thorne James L (1996): Technology of Thermoforming, N° 1, Hanser/Gardner Publications Inc.
Figura 5.Molde hembra de prototipo de plantilla de pie diabético CONCLUSIONES
Se pudo concluir que el diseño adecuado de una plantilla con los soportes mencionados en este trabajo, promueve la reducción de presiones críticas que inciden en el pie de esta manera y disminuye el riesgo a ulceración a personas que sufren de diabetes. La selección de material es fundamental y debe considerarse una prioridad. El uso de diferentes materiales otorgará propiedades diferentes a la plantilla, obteniéndose variaciones en
46
BIOMECÁNICA
DISEÑO DE UN PROTOCOLO MULTIFACTORIAL DE EVALUACIÓN DE ATLETAS DE ALTO RENDIMIENTO EN FASE DE SOBREENTRENAMIENTO Gabriela Ávila1*, Erika Severeyn2*, Héctor Herrera1, Sara Wong2 *Ávila y Severeyn tienen igual contribución en el trabajo 1
2
Laboratorio de Evaluación Nutricional. Universidad Simón Bolívar Grupo de Bioingeniería y Biofísica Aplicada. Universidad Simón Bolívar e-mail: 0786229@usb.ve; severeynerika@usb.ve
RESUMEN En este estudio se presenta un protocolo clínico que permite la medición de la Sensibilidad a la Insulina (SI), la Variabilidad de la Frecuencia Cardiaca (VFC) y la Valoración del Estado Nutricional (VEN) en atletas de alto rendimiento en período de Sobre-Entrenamiento (SE). Para esto se propone la medición de variables bioquímicas, registros electrocardiográficos y la VEN. Estudios demuestran que la SI aumenta en sujetos sometidos a ejercicio aeróbico y, además el ejercicio moderado genera cambios en los valores de los parámetros de la VFC. Por otro lado, se conoce que el estado nutricional es un determinante crítico en el desempeño deportivo. La determinación del SE se obtendrá mediante la escala de Borg. Estas mediciones serán comparadas en tres etapas: Período de Entrenamiento Rutinario (ER), Período de SE y Período de ER post-SE. Esta propuesta constituye un aporte en el hallazgo de posibles parámetros que sirvan de diagnóstico del SE. Palabras Clave: Sobre-entrenamiento, Valoración Nutricional, Variabilidad de la Frecuencia Cardiaca, Sensibilidad a la Insulina.
no la intensidad del esfuerzo [4]. Es multifactorial en la naturaleza y depende del individuo, del ambiente, de la energía y otros factores nutricionales, así, como de una tarea específica [5]. La detección de la fatiga es complicada por la ausencia de marcadores específicos y/o universales, en la actualidad, los medios más fiables para detectar la fatiga es mediante cuestionarios psicológicos y parámetros bioquímicos séricos tales como: Creatina Fosfoquinasa (CK), Urea (U) y Aspartato Aminotransferasa (ASAT)
INTRODUCCIÓN A pesar de los avances en medicina deportiva, aún existe muchas controversias para establecer la carga de trabajo y el tipo de alimentación necesaria para un atleta de alto rendimiento con el fin de evitar el Sobre-Entrenamiento (SE). El estado nutricional es el resultado del balance entre las necesidades y el gasto de energía alimentaria y otros nutrientes esenciales, así, como el resultado de una gran cantidad de determinantes en un espacio dado representado por factores físicos, genéticos, biológicos, culturales, psicosocio-económicos y ambientales. Estos factores pueden dar lugar a una ingestión insuficiente o excesiva de nutrientes, impidiendo la utilización óptima de los alimentos ingeridos [1]. En los atletas, las altas demandas energéticas que impone el entrenamiento exige considerar ciertos cambios en sus hábitos de alimentación, para obtener o mantener un estado nutricional adecuado, donde las estrategias nutricionales ayudan a los deportistas a mejorar su rendimiento deportivo, reduciendo o retardando la aparición de los factores que de otra forma ocasionan fatiga ocasionando una baja capacidad en el desempeño deportivo [2-3].
La Sensibilidad a la Insulina (SI) está definida como la capacidad de las células para reaccionar ante la presencia de la insulina. Se conoce que la baja SI está fuertemente asociada a la obesidad y a la inactividad física [6]. En estudios realizados, se ha observado una disminución de la glucosa y la insulina basal en sujetos que se han sometido a ejercicio aeróbico, esto se traduce en una mejoría de la sensibilidad a la insulina [7]. La medición de la Variabilidad de la Frecuencia Cardiaca (VFC), es decir la oscilación en el intervalo entre latidos consecutivos del corazón [8]; es un método cuantitativo bien establecido y no invasivo para la evaluación de la actividad autonómica del corazón a través del estudio espectral de la VFC.
La fatiga se puede definir como una disminución de la capacidad para generar fuerza máxima y/o potencia máxima, independientemente de que pueda ser mantenida o
47
Memorias_BIOVEN_2012
La VFC se ha utilizado como herramienta para el análisis de la respuesta cardiaca vinculada al rendimiento deportivo [9]. Estudios realizados revelan que el ejercicio moderado genera cambios en los valores de los parámetros de la VFC [10-11].
Protocolo para hallar SI y parámetros de la VFC (PSIVFC): • Adquisición de la señal ECG en reposo antes de la POTG. • Toma de la muestra de sangre en el estado basal, el sujeto se encontrará en ayunas. • Toma de los 75 gramos de glucosa líquida. • Se obtendrán a partir de ese punto cuatro muestras más de sangre en intervalos de 30 minutos y antes de cada una de éstas se adquirió una señal ECG de quince minutos. La adquisición de las señales electrocardiográficas se realizarán mediante el equipo Cardiosoft [16], el software del Cardiosoft permite el registro del paciente y sus datos, tales como: nombre, sexo, fecha de nacimiento, altura, peso, entre otros. Protocolo de mediciones (PM): Se realizarán mediciones de la Proteína C Reactiva y Perfil 20 de los sujetos en los períodos de entrenamiento y SE. Protocolo de alimentación: Se realizara una entrevista personalizada a cada sujeto, sobre el consumo de alimentos, mediante el instrumento de recolección de: recordatorio de 24 horas, que consiste en determinar la ingesta de alimentos correspondiente al día anterior a la entrevista, con la finalidad de estimar la ingesta calórica del sujeto a evaluar y asociarlo a su requerimiento nutricional, considerando su edad, sexo y actividad física. Protocolo de Sobre-Entrenamiento (PSE): Los sujetos serán sometidos a un entrenamiento que permitirá el desarrollo de un SE en un lapso de dos semanas. La determinación del SE se obtendrá mediante la escala de Borg, la cual mide de manera subjetiva el esfuerzo realizado en determinada actividad. Durante el PSE se realizarán mediciones de glucosa y lactato, antes y después del protocolo. Protocolo de Entrenamiento (PE): Los sujetos seguirán su entrenamiento rutinario en un lapso de dos semanas, durante esta actividad se realizarán mediciones de glucosa y lactato antes y después del entrenamiento.
El objetivo de este trabajo es el diseño de un protocolo clínico que permita el estudio de la SI, la VFC, y el estado nutricional en atletas de alto rendimiento durante el SE. Para esto, se realiza el diseño de un protocolo clínico que permite la valoración de la SI y la VFC, así como también estimación del consumo calórico total, gasto energético y la fuerza muscular en atletas de alto rendimiento durante el entrenamiento rutinario y en la fase de SE.
METODOLOGÍA Selección de los Sujetos: Se trata de un estudio descriptivo, semi-longitudinal (de seguimiento). Los sujetos que se escogerán para este estudio, deben cumplir con los siguientes criterios: Deportistas de alto rendimiento, de ambos sexos, edad comprendida entre 18 y 20 años, no fumadores, fuera de tratamientos medicamentosos, sin impedimentos físicos y sin enfermedad cardiovascular evidente. Se registrará un total de 20 sujetos, divididos en 10 hombres y 10 mujeres; debido a que las comparaciones se realizarán entre etapas del protocolo, no es necesario tener un grupo control. Etapas del Protocolo Clínico: El protocolo clínico se dividirá en tres etapas bien definidas, cada una de las etapas tendrá una duración de dos semanas, las etapas y mediciones se muestran en la figura 1.
Pruebas, mediciones y registros: Variables demográficas: • Edad y sexo. Variables clínicas: • Presión arterial. Variables Bioquímicas: • Hematología completa, glicemia en ayunas, úrea, creatinina, colesterol, triglicéridos, lípidos de alta densidad (HDL, high density lipids), lípidos de baja densidad (LDL, low density lipids), lípidos de muy baja densidad (VLDL, very low density lipids) ácido úrico y alanina transaminasa (ALT), proteína C-Reactiva y lactato.
Figura 1. Etapas del Protocolo Clínico. Protocolos a implementar:
48
BIOMECÁNICA
• Prueba Oral de Tolerancia a la Glucosa (POTG): Consiste en la toma oral de 75 gr. de glucosa pura, para luego extraer muestras de sangre en intervalos equitativos de tiempo, y realizar las mediciones en el laboratorio de insulina y glucosa de cada muestra; la prueba tiene una duración de dos horas, al final de esto se generan dos curvas, una de concentración de insulina y otra de concentración de glucosa, estos datos son utilizados en los diferentes modelos para la cuantificación de la sensibilidad a la insulina. Valoración cardíaca: • Los registros de ECG se realizarán antes de cada una de las tomas de muestra de sangre de la POTG, con una duración de quince minutos cada uno, para un total de cinco registros por sujeto. Valoración Nutricional: • Variables antropométricas: Peso, estatura; circunferencias: media del brazo y abdominal; pliegues de: tríceps, bíceps, subescapular, supraíliaco; diámetro de húmero, siguiendo los lineamientos internacionales de la Sociedad Internacional para el Avance de la Kinantropometría (ISAK). • Indicadores antropométricos: índice de masa corporal, porcentaje de grasa corporal total, masa grasa, masa libre de grasa, área muscular del brazo, masa muscular total y contextura. • Determinación de Consumo Calórico Total: Se aplicará una encuesta de recordatorio de 24 horas de tres días a la semana. • Tasa Metabólica en Reposo: Se estimará la tasa metabólica en reposo mediante calorimetría indirecta, siguiendo los lineamientos de la Asociación Dietética Americana. • Fuerza Muscular: La fuerza muscular se medirá por dinamometría de agarre, realizando tres determinaciones no consecutivas, seleccionando el valor más alto de estas tres determinaciones. la cual mide la fuerza estática como potencia en kilogramos de fuerza aplicada.
Stumvoll, Belfiore, Cederholm, Gutt, HOMA, QUICKI, FGIR, Bennett, Raynaud, Matsuda, McAuley, OGIS y Ecuación Integral [12]. Parámetros de la VFC: La VFC se halla a partir del estudio espectral de la oscilación del intervalo de tiempo entre dos ondas R de la señal electrocardiográfica. Con los parámetros de la VFC se puede evaluar la actividad autonómica del corazón. En general las bajas frecuencias (LF, Low Frecuency por sus siglas en inglés) están relacionadas con el efecto vasomotor mediado por el sistema nervioso simpático, de igual manera las altas frecuencias (HF, High Frecuency, por sus siglas en inglés) están relacionadas con la respiración y mediadas por el sistema nervioso parasimpático. La relación LF/HF es utilizada para mostrar cuál de los dos sistemas es predominante, un alto valor de LF/HF indica predominancia en el sistema simpático, un bajo valor del mismo indica predominancia del parasimpático [3]. Basándonos en los índices de la VFC se puede estudiar el sistema nervioso autónomo y sus fluctuaciones, y con esto también las disfunciones cardiovasculares, diabetes, entre otros. En este estudio se medirán los parámetros de la VFC durante la POTG en los períodos de entrenamiento rutinario y la fase de SE. Gasto Calórico: Se estimará la tasa metabólica en reposo por calorimetría indirecta determinación que refleja el metabolismo energético, ya que realiza la medición del oxígeno consumido para funciones vitales esenciales siguiendo las condiciones básicas de acuerdo a la revisión propuesta por la Asociación Dietética Americana (Grado I a IV) [13]. Fuerza Muscular: La fuerza muscular de la mano se evaluará a través de dinamometría (dinamómetro portátil de agarre marca Lafayette, de 0-100 kg), realizando tres determinaciones en ambos miembros, considerándose como normal el valor más alto de las tres determinaciones [14]. Tabla I. Escalas de Borg. 15 puntos
Parámetros a medir:
6
Sensibilidad a la Insulina: Los métodos que cuantifican la sensibilidad a la insulina se dividen en Métodos Directos (MD) y Métodos Indirectos (MI). Los MD utilizan protocolos largos, complicados, riesgosos y costosos, por ello, estas técnicas quedan relegadas, a la investigación de casos y controles en muestras reducidas, y en pacientes aislados, entre estos métodos se encuentran: Clamp Euglicémico Hiperinsulinémico y el Minimal Model para la Prueba Intravenosa de Tolerancia a la Glucosa de Bergman. Los MI son los más utilizados en estudios epidemiológicos, sin embargo, tienen la desventaja de ser menos precisos que los anteriores. Los MI que se van a utilizar en este protocolo para la determinación de la SI son: Avignon,
7 8 9 10 11 12 13 14 15 16 17
49
0 Muy, muy ligero
Muy ligero Ligero Algo duro Duro Muy duro
0,5 1 2 3 4 5 6 7 8 9 10
10 puntos Nada Muy, muy ligero (justo perceptible) Muy ligero Ligero Moderado Algo fuerte Fuerte
Muy fuerte
Muy, muy fuerte
Memorias_BIOVEN_2012
18 19 20
[5] Nimmo M. et al. (2007): Fatigue and illness in athletes. Journal of Sports Sciences, 25 (S1): pp S93S102. [6] Amati F. et al., (2009): Physical Inactivity and Obesity Underlie the Insulin Resistance of Aging. Diabetes Care, 32, 8: pp 1547-1549. [7] Nishida Y. et al. (2010): Effect of Low-Intensity Aerobic Exercise on Insuline-Like Growth Factor I and Insuline-Like Growth Factor-Binding Proteins in healthy Men. International journal of Endocrinology. ID 452820, pp 1-8. [8] Chan H. et al. (2007): Correlates of the shift in heart rate variability with postures and walking by time– frequency analysis. Computer Methods and Programs in Biomedicine. 86: pp 124–130. [9] Litscher G. et al. (2010): ‘Fire of Life’ analysis of heart rate variability during alpine skiing in Austria Gerhard. North American Journal of Medical Sciences, 2: pp 258-262. [10] Earnest C. et al. (2008): Heart Rate Variability Characteristics in Sedentary Postmenopausal Women Following Six Months of Exercise Training: The DREW Study, Plos One, 3: pp e2288. [11] Bernardi L. et al. (1996): Physical activity influences heart rate variability and very-low-frequency components in Holter electrocardiograms. Cardiovascular Research, 32: pp 234-237. [12] Borrás J. (2008): Métodos para la determinación de la sensibilidad a la insulina basados en la sobrecarga oral de glucosa. Av Diabetol, 24(4): pp 296-304. [13] Compher C. et al. (2006): Evidence Analysis Working Group. Best practice methods to apply to measurement of resting metabolic rate in adults: a systematic review. Journal American Dietetic Association, 106(6): pp 881-903. [14] Schlussel M. et al. (2008): Reference values of handgrip dynamometry of healthy adults: a population-based study. Clinical Nutrition, 27(4): pp 601-607. [15] Alaphilippe A. et al. (2012): Longitudinal follow-up of biochemical markers of fatigue throughout a sporting season in young elite rugby players. The Journal of Strength and Conditioning Research, Jan. 2012. [16] Encardia, Cardiosoft, Página Web disponible en línea: http://www.cardiosoft.com/index.html. Último acceso Junio, 2012.
(casi máximo) Máximo Muy, muy duro
Marcadores de fatiga: Entre los marcadores de fatiga se encuentran: La Escala de clasificación de fatiga de Borg (RPE, percepción subjetiva del esfuerzo o “rating perceived exertion”) para medir sensación de fatiga [15], Lactato, la Proteína C-Reactiva, Glucógeno Muscular, CK, U y ASAP. En la tabla I se pueden observar las escalas de Borg de 15 y 10 puntos.
RESULTADOS En este trabajo se presenta un protocolo clínico que permitirá estudiar la SI, VFC y la valoración nutricional en deportistas de alto rendimiento. Durante el protocolo se podrá observar si existen: i) Cambios en la SI y la VFC durante los períodos de entrenamiento rutinario y SE; ii) Cambios de los marcadores de fatiga durante los períodos de entrenamiento rutinario y SE, así como también los cambios de glucosa y lactato durante las prácticas diarias en cada uno de los períodos (entrenamiento rutinario y SE).
CONCLUSIONES Se espera con este protocolo obtener relaciones entre los parámetros de VFC, SI y valoración nutricional, que permita la determinación del SE y que pueda ser incorporado de forma rutinaria a las selecciones deportivas de alto rendimiento de Venezuela.
REFERENCIAS [1] Figueroa D. (2004): Estado Nutricional como factor y resultado de la seguridad alimentaria y nutricional y sus representaciones en Brasil. Revista de Salud Pública, 6 (2): pp 140-155. [2] Burke L. (2010): Nutrición para el entrenamiento y la competición. En: Burke L, editor. Nutrición en el deporte. Madrid. Editorial Médica Panamericana, pp 1-28. [3] Boullosa E. et al. (2011): Evaluación del estado de nutrición en atletas. En: Peniche C, Boullosa B, editores. Nutrición aplicada al deporte. México. McGraw – Hill, pp 227-241. [4] Calbet J.A. (2008): Fatiga, dolor muscular tardío y sobre-entrenamiento. En López Chicharro J, Fernández A, editores. Fisiología del ejercicio. Buenos Aires. Editorial Médica Panamericana. pp 755-810.
50
BIOMECÁNICA
DISEÑO Y FABRICACIÓN DE UN PRIMER PROTOTIPO DE PRÓTESIS PARA AMPUTACIÓN TRANSMETATARSIANA M Vallejo 1, O Pelliccioni1, M Candal2 1 Grupo de Biomecánica USB, Departamento de Mecánica, Universidad Simón Bolívar, Apartado 89000, Caracas 1080-A, Venezuela. 2Grupo de Polímeros USB, Departamento de Mecánica, Universidad Simón Bolívar, Apartado 89000, Caracas 1080-A, Venezuela e-mail: orlandop@usb.ve
RESUMEN El presente trabajo persigue desarrollar un método asequible para la fabricación de prótesis destinadas a personas con amputación transmetatarsiana,especialmente diseñadas para su implementación en pacientes diabéticos. Para ello se desarrolló un prototipo a ser fabricado en poliuretano, el cual permitiría restituir la fase de despegue del pie amputado durante la marcha,utilizando calzado cerrado. El prototipo desarrollado permitió verificar que efectivamente su geometría se ajusta al interior del calzado, gracias a la utilización de poliuretano flexible en la zona frontal de la prótesis. Además, se constató el correcto ajuste de la zona de contacto entre el prototipo y el pie del paciente. Palabras Clave: Prótesis, Diabetes, Pie diabético, Amputación.
marcha a la utilización de muletas para recorrer sólo trayectos cortos.El paciente presenta además, deformaciones considerables en ambas extremidades inferiores.
INTRODUCCIÓN Un paciente con diabetes presenta pie diabético, cuando existe infección, ulceración y/o destrucción del tejido profundo en el pie, producto de anomalías neurológicas y varios padecimientos arteriales periféricos en sus extremidades inferiores. El riesgo para que el mismo padezca en algún momento de ulceración, alcanza hasta un 15 % de los pacientes con diabetes y cerca del 85% de estos casos, sufren de amputación de alguna parte de sus miembros inferiores [1]. En particular la amputación transmetarsiana del pie, es ejecutada cuando la infección o gangrena, hacen insalvable la parte frontal del pie. Esta amputación, se lleva a cabo porque permite conservar la parte trasera del mismo permitiendo que el paciente pueda soportar su peso corporal, siempre y cuando se eviten presiones distales y de corte sobre el pie [2]. Existe la necesidad palpable para un sector importante de la población venezolana de desarrollar tecnología propia que haga accesible para pacientes con amputación de pie diabético la adquisición de prótesis que regularicen su deambulación y mejoren su calidad de vida. El presente trabajo pretende desarrollar un primer prototipo de prótesis para amputación transmetatarsiana, dirigido específicamente a pacientes con diabetes elaborado con técnicas sencillas, en la búsqueda de una fácil producción como de bajo costo. Para ello, se trabajó con un paciente que presentaba una amputación transmetatarsiana en su pie derecho, típica en pacientes con neuropatía diabética, restringiendo su movilidad y condicionando su
METODOLOGÍA El proyecto constó de cinco etapas que permitieron llevar adelante el desarrollo del prototipo. Ellas fueron: diseño de la prótesis, selección del material, diseño y construcción del molde, fabricación del prototipo, y evaluación de su desempeño en el paciente. En la fase de diseño del prototipo, se tuvo como principal objetivo que el paciente recuperase la movilidad perdida con la amputación utilizando el prototipo junto con cualquier modelo de zapato que cumpliera con unos requisitos básicos. Para ello se ideó un concepto básico que permitía ser fabricado con poco entrenamiento y de forma totalmente manual y artesanal. La propuesta consta de una prótesis, cuyo diseño conceptual se detalla en la Figura 1 y que está compuesta de tres zonas.
51
Memorias_BIOVEN_2012
una vez que se conocen las cantidades exactas a utilizar de poliol, isocianato, surfactante, catalizadores y agentes espumantes, que son los reactivos principales involucrados en su síntesis. LaTabla Imuestra los rangos de reactivos entre los cuales típicamente,se pueden obtener buenas propiedades en las espumas de PU [3].
A B C Figura 1. Diseño conceptual propuesto de prótesis.
Tabla I. Rango de composiciones para síntesis de Poliuretano espumado.
La zona A presenta una alta rigidez para ayudar en la fase de despegue durante la marcha del paciente, sin deformarse permanentemente. La zona B es la que estaría en contacto con la superficie frontal del pie amputado del paciente, por lo cual debía ser de carácter muy suave para reducir la fricción al máximo posible. Y finalmente, una zona C que actuaría como una ortesis ordinaria para pie diabético, con lo cual se reducirían al mínimo posible, los esfuerzos puntuales localizados en la planta del pie del paciente y disminuiría la aparición de nuevas lesiones que empeorasen su situación. Con un corte transversal del prototipo propuesto (Figura 2), se observa también que toda la zona frontal A está rodeada por el mismo material que compondría la zona B. La figura muestra la sección de material que brindaría la rigidez requerida (I) y la parte de material suave que lo rodea (II). Este elemento del diseño resulta clave para que la prótesis se amolde a cualquier geometría interna de zapato, previniendo así los esfuerzos de cizalla que podrían producirse por el desplazamiento libre de la misma dentro del zapato.
Partes por 100 de Poliol Componente Poliol 100 Agente espumante 1,5 - 7,5 Surfactante 0,5 - 2,5 Isocianato 25 - 85 Catalizador de amina 0,1 - 1 0 - 0,5 Catalizador Tin Para la posterior producción del prototipo, se redujo costos al introducir el moldeado por vaciado, en un molde del poliuretano. Se sustituye así, la técnica hasta ahora utilizada de mecanizado de un bloque de EVA como método de fabricación. La fase de diseño y construcción del molde, comienza con la adquisición de la impresión del paciente mediante un método ampliamente utilizado en el área de la ortopedia. El mismo, consiste en utilizar vendas enyesadas para capturar el contorno del pie en el paciente, para posteriormente, fabricar una impresión sólida en yeso (Figura 3).
II III I Figura 2. Corte transversal del prototipo diseñado. El área que está en contacto con el pie amputado del paciente (III), permite entonces reducir los esfuerzos puntuales sobre toda esa zona de contacto. La fase de selección del material consistió entonces, en buscar materiales que cumplieran con los objetivos propuestos en la fase de diseño conceptual. Comúnmente se utiliza para construir este tipo de prótesis, un copolímero de etileno-vinil-acetato (EVA) [1,2]. Este material se mecaniza siguiendo el patrón digitalizado del pie amputado y se adapta a un tipo específico de zapato. Para realizar entonces lo propuesto inicialmente, se eligió trabajar con poliuretano (PU) espumado en distintas formulaciones, con el objetivo de cubrir los requerimientos de cada zona del prototipo. El PU es un material cuyos reactivos necesarios para su síntesis, se pueden conseguir en el mercado nacional. Además, resulta de fácil síntesis
Figura 3. Método de toma de impresión mediante bandas impregnadas en yeso en solución.
Para la construcción del positivo en yeso de la impresión, se utilizó una mezcla de dos partes de yeso por cada parte de agua, mezclada con pulpa de papel para prevenir su agrietamiento al momento de secar. La Figura 4 muestra el estado de la impresión justo al momento de remover la venda. El acabado final se logra al lijar la superficie hasta quitarle todas sus irregularidades. Esta impresión personaliza la zona de contacto del pie con la prótesis.
52
BIOMECÁNICA
Habiendo definido el material y el método de fabricación del prototipo de prótesis para amputación transmetatarsiana, se procedió a la fabricación del mismo, utilizando la formulación de poliuretano más estable volumétricamente obtenida. RESULTADOS Se utilizó como base una formulación intermedia a todos los rangos propuestos en la Tabla . La misma constó de 60 en isocianato, 3 de agua, 1,5 de surfactante y 0,4 de catalizador (Todos estos valores expresados en partes por cien de poliol). En esta formulación base se varió la cantidad de cada uno de sus componentes, para medir la contracción volumétrica sufrida por las probetas y poder determinar las composiciones factibles para la fabricación de los prototipos. Finalmente, se fabricó el primer prototipo que se muestra en la Figura 7.
Figura 4. Impresión solida del pie del paciente. Conceptualmente, el diseño del molde consta de una cavidad que tiene la forma genérica del interior de los zapatos corrientes, y una zona de sujeción, en la cual se coloca la impresión antes fabricada.En la Figura 5 se resaltanlos pines utilizados para fijar la impresión en yeso tomada anteriormente.
Figura 5. Corte transversal del molde para vaciado del prototipo. La Figura 6 muestra el molde terminado y con la impresión sujeta al mismo. En el molde se puede variar la altura a la cual se sujeta la impresión, permitiendo producir prótesis con distintos espesores en la zona C del prototipo. Figura 7. Prototipo sintetizado utilizando la formulación de poliuretano seleccionada. CONCLUSIONES • Es factible la fabricación de prótesis para amputación transmetatarsiana, utilizando poliuretano con distintas formulaciones. • Utilizando una formulación suave de poliuretano para la zona II de la prótesis, se logra una gran adaptabilidad de la prótesis al interior de una variedad bastante amplia de calzado. • Se logró un buen nivel de personalización de la zona III de la prótesis, utilizando la impresión tomada del paciente con vendas enyesadas. • No se logró un buen control de la estabilidad dimensional del poliuretano, en los rangos de
Figura 6. Molde para vaciado del prototipo con la impresión ajustada a su posición.
53
Memorias_BIOVEN_2012
formulacionesque producenlas mejores propiedades mecánicas necesarias para la zona I de la prótesis. AGRADECIMIENTOS Los autores extienden su agradecimiento al Prof. Marcos Sabino del Laboratorio de Química QYP de la Universidad Simón Bolívar, por su apoyo para el estudio de los materiales evaluados para el prototipo de prótesis. Un especial agradecimiento también va dirigido al Ing. Baldo Lerza, de la empresa Feet&Shoes por su colaboración en el estudio de Baropodometría realizado al paciente. REFERENCIAS
[1] Edmonds M, Foster A y Sanders L (2008): A practical manual of Diabetic Foot Care, Editorial Blackwell Publishing. [2] Katsilambros, N, Dounis E, Makrilakis K, Tentolouris N yTsapogas P (2010): Atlas of the diabetic Foot, Editorial Wiley-Blackwell. [3] Fritz, R(2007):Update in Pedorthics and Orthotics Desings; advance in materials, Editorial Williams & Wilkins. [4]Kaushiva, B (1999):Structure-Property Relationships of Flexible Polyrethane Foams, Trabajo especial de grado de Doctorado, Virginia Polytechnic Institute and State University. [5] Prat, J (1999):Guía de uso y prescripción de productos ortoprotésicos a medida, Instituto de Biomecánica de Valencia.
54
BIOMECÁNICA
HERRAMIENTA PARA EL MODELADO COMPUTACIONAL PROBABILÍSTICO DE ESTRUCTURAS ÓSEAS Marco Ciaccia1,2 , Carmen Müller-Karger1, Euro Casanova1, Thalía San Antonio1,2 1
Grupo de Biomecánica, Universidad Simón Bolívar, Venezuela. Centro de Investigaciones en Mecánica, Universidad de Carabobo, Venezuela.
2
Correo electrónico: mciaccia@uc.edu.ve
RESUMEN Las tomografías axiales computarizadas de estructuras óseas permiten obtener la distribución personalizada de densidades para el cálculo de propiedades mecánicas utilizando ecuaciones experimentales. Sin embargo, la dispersión inherente a las ecuaciones puede afectar significativamente el comportamiento de los modelos numéricos. Con la creación de la herramienta presentada en esta investigación se posibilita el muestreo de las variables probabilísticas de entrada y el análisis y visualización de las variables probabilísticas de salida. Para el modelo de fémur simulado en este trabajo, se predice un 100% de probabilidad de que ocurra una falla y que ésta estará ubicada en la parte inferior del cuello. Al comparar estos resultados con trabajos numéricos y experimentales publicados se puede concluir que los programas desarrollados funcionan exitosamente, lográndose integrar programas comerciales y domésticos en una plataforma para el análisis probabilístico de modelos óseos con incertidumbre en las propiedades mecánicas, de manera semi-automatizada, sencilla, flexible y efectiva. Palabras clave: Plataforma computacional, Probabilidad de falla, Elementos finitos, Modelo óseo. Con el fin de validar la metodología desarrollada se incorporan, a un modelo de fémur proximal, las condiciones de contorno establecidas experimentalmente en [2] y el modelo de material y criterio de falla utilizados por [4], de forma que los resultados sean comparables.
INTRODUCCIÓN Los estudios que incluyen métodos de análisis probabilístico aplicados a procedimientos de modelado de estructuras biológicas, tales como la reconstrucción geométrica y la asignación de propiedades mecánicas a modelos personalizados de huesos, son escasos y de reciente publicación. Estos estudios permiten cuantificar las incertidumbres y variabilidades propias de importantes parámetros biológicos al modelarlos numéricamente. Los modelos óseos personalizados que se construyen a partir de imágenes tomográficas se emplean para evaluar distribuciones de esfuerzos y deformaciones, comportamiento de implantes y riesgo de fractura, entre otros. En estos modelos las imágenes permiten obtener la distribución de densidades con la cual se calculan propiedades mecánicas, tales como el módulo de elasticidad y la resistencia a la fractura, utilizando correlaciones determinadas empíricamente [1, 2, 3]. Sin embargo, la dispersión inherente a los resultados experimentales puede afectar significativamente los resultados y conclusiones referentes al comportamiento de los modelos [4, 5]. Esta investigación presenta una herramienta para el análisis probabilístico de modelos óseos con asignación de materiales heterogéneos, y comprende los programas que permiten el muestreo de las variables probabilísticas de entrada, el control de la simulación de Monte Carlo mediante la verificación de varios criterios de parada, y el análisis y visualización de las variables probabilísticas de salida.
METODOLOGÍA El procedimiento para la construcción de la malla de elementos finitos, así como la asignación de densidades con base en la TAC para obtener un modelo heterogéneo de fémur, se detalla en [6]. La malla está compuesta de 99614 tetraedros de 10 nodos, con longitud máxima de arista del elemento de 3,4 mm; el rango de densidades aparentes es de 0,691 a 1,96 g/cm3. Condiciones de contorno Se aplicó una carga de 10 kN en la cabeza del fémur a un ángulo de 20° del eje longitudinal en el plano frontal. En [2] se demostró experimentalmente que esta carga puede producir fractura en el cuello del fémur. La fuerza se distribuyó uniformemente entre los nodos ubicados aproximadamente a 1,5 cm del punto de aplicación. Adicionalmente se restringieron todos los desplazamientos en los nodos del extremo distal del modelo. Análisis probabilístico En la tabla I se presentan las variables probabilísticas de entrada que se utilizaron en este estudio para construir un modelo heterogéneo con un material lineal, frágil e isotrópico. El módulo de elasticidad (E) y el esfuerzo límite
55
Memorias_BIOVEN_2012
Como método probabilístico se utilizó la simulación de Monte Carlo, por su facilidad de implementación y la precisión de sus resultados. Para detener la simulación se utilizan los siguientes criterios de parada: si el muestreo es aleatorio, se aplica el método ASCBR (acceptable shifting convergence band rule) de [8] para determinar si se ha obtenido convergencia, en caso contrario, al llegar a un número máximo de realizaciones se efectúa la parada. Si el muestreo se realiza mediante el método del hipercubo latino, se efectúan tantas realizaciones como muestras existan.
Tabla I. Propiedades mecánicas del tejido óseo [4]. Ecuación
Coeficiente
Exponente
E = aρ S = cρ d
µ = 1,99; σ = 0,30 µ = 26,9; σ = 2,69
µ = 3,46; σ = 0,12 µ = 3,05; σ = 0,09
b
ρ: densidad aparente (g/cm3); E: módulo de elasticidad (GPa); S: esfuerzo límite (MPa); µ, σ : media y desviación estándar, distribución normal. (S) son funciones de la densidad aparente y de las variables probabilísticas de entrada a, b, c, d. Los parámetros estadísticos que definen a las cuatro variables están basadas en los datos obtenidos por [7] a partir de sus ensayos con 297 especímenes, y en las estimaciones de [4]. Como salidas se tomaron tanto el índice de falla (IF), calculado según el criterio del esfuerzo equivalente de von Mises (EVM), como la ubicación de la falla. Ambas variables se seleccionan debido a su importancia en diversas aplicaciones clínicas. El IF se calcula con las ecuaciones (1) y (2):
σvm = σ12 + σ22 + σ32 − σ1σ 2 − σ 2σ3 − σ1σ3
(1)
σvm
(2)
IF =
S
Herramienta computacional En la figura 1 se muestra un diagrama de flujo de la herramienta computacional desarrollada, ilustrándose los pasos necesarios para obtener los resultados deseados. Los cuadros de procesos indican los programas informáticos utilizados; si la aplicación corresponde a un programa doméstico elaborado por los autores, se indica en cursivas la herramienta de programación utilizada. Los procedimientos conducentes a la construcción de la malla y al cálculo de las densidades, ambos con base en una TAC, así como la imposición de las condiciones de contorno, se consideran determinísticos y se efectúan una sola vez. Para flexibilizar el sistema, la generación de muestras se realiza externamente a los programas GVProb y GVPost, de esta manera puede cambiarse el generador de números aleatorios sin modificar los programas antes mencionados. Con este fin se desarrolló el programa GVSamp, el cual puede generar números pseudoaleatorios con distribuciones uniforme y normal, ambas estándares, mediante muestreo aleatorio simple o el método del hipercubo latino. El generador está basado en el algoritmo Mersenne Twister publicado por [9]; el cálculo de la inversa de la función de distribución acumulativa normal estándar se basa en el algoritmo de [10]. Los cuadros numerados corresponden a los pasos que deben repetirse cada vez que se efectúa una realización de Monte Carlo; el diseño de la herramienta permite que el
Donde σvm es el esfuerzo equivalente de von Mises, y σ1 a σ3 son los esfuerzos principales. Se asume falla en el material si se cumple la condición IF ≥ 1. El criterio EVM es ampliamente utilizado en materiales isotrópicos cuya falla es insensible al esfuerzo hidrostático, como los metales. Su utilización en la predicción de falla de huesos es cuestionable debido a la naturaleza ortotrópica y frágil del tejido óseo, pero permitirá la comparación de resultados con [4].
Inicio
SurfDriver, ANSYS
TAC
GVDensity Lenguaje C
ρ
1
Malla
E
GVProb Lenguaje C
Muestras
2
Condiciones de borde σ femProb ANSYS
GVSamp Lenguaje C
ε
3
GVPost Lenguaje C
Muestras
IF
Satisface criterio parada
SI
plotRes/CDF PF MATLAB UF
Fin
NO
Figura 1. Diagrama de flujo de la herramienta computacional, mostrando tanto los programas comerciales como los desarrollados domésticamente. Las herramientas de programación utilizadas se indican en cursivas. Símbolos: TAC, tomografía axial computarizada; ρ, densidad aparente; E, módulo de elasticidad; σ, esfuerzo; ε, deformación; IF, índice de falla; PF, probabilidad de falla, UF, ubicación de la falla.
56
BIOMECÁNICA
frecuencias, indicando la probabilidad de falla. Se efectuaron 1000 realizaciones de Monte Carlo con muestras pertenecientes a la distribución normal y generadas mediante el método del hipercubo latino. A diferencia de [4], quienes para reducir los errores originados por problemas de segmentación reportan, en cada realización, el promedio de los 500 IF más altos del modelo, en este trabajo se reportó directamente el IF más alto puesto que el modelo utilizado no presenta problemas de esa índole.
tedioso proceso de muestreo de propiedades, cálculo de esfuerzos y deformaciones, y verificación de los criterios de parada se efectúe sin la intervención del usuario. Estos pasos se describen a continuación: • Paso 1, GVProb: este programa está diseñado para ser llamado desde ANSYS y generar en cada realización un conjunto de módulos de elasticidad para el modelo. El procedimiento consiste en tomar las muestras de distribución estándar suministradas por GVSamp y aplicar el desplazamiento y escalamiento correspondientes a los parámetros mostrados en la tabla I para obtener las variables a y b. A continuación se utiliza la densidad del elemento para calcular E. Esta información se almacena en un archivo para ser utilizada posteriormente. • Paso 2, femProb: esta rutina para ANSYS lee la malla y las condiciones de contorno para crear el modelo, posteriormente y de forma iterativa interactúa tanto con GVProb como con GVPost. Del primero obtiene un conjunto de módulos de elasticidad que se asigna a los elementos de la malla. Luego se efectúa la simulación y escribe en un archivo los esfuerzos y deformaciones principales. A continuación llama a GVPost, el cual calculará los IF y le indicará a femProb si debe efectuar otra realización de Monte Carlo o detener la simulación. • Paso 3, GVPost: al igual que GVProb, este programa está diseñado para ser llamado desde ANSYS. Toma las muestras generadas por GVSamp y efectúa el desplazamiento y escalamiento correspondientes a los parámetros mostrados en la tabla I para obtener las variables c y d. Utilizando las densidades de los elementos, calcula los esfuerzos límites S utilizando la fórmula correspondiente. Posteriormente lee los esfuerzos y deformaciones calculados por ANSYS y calcula los IF según los criterios de falla deseados. Este programa maneja actualmente los criterios de deformación principal máxima, esfuerzo principal máximo, esfuerzo equivalente de von Mises y el de Tsai-Wu expresado tanto como índice de resistencias como el inverso de la razón de resistencias. A continuación, para cada criterio de falla, calcula el IF máximo y su ubicación, determina si se ha obtenido convergencia con la simulación de MonteCarlo, se ha llegado al número de realizaciones máximas o se han consumido todas las muestras suministradas previamente por GVSamp. En caso afirmativo, le indica a GVPost que debe terminar la simulación; en caso contrario indica que puede continuar. Finalmente, almacena en disco los valores de IF, su ubicación y el estado de la convergencia. Los programas plotRes y CDF se desarrollaron en el ambiente MATLAB. El primero es un posprocesador de uso general para elementos finitos que permite entre otras funciones la visualización de los elementos en los que ocurre la falla, tanto en la parte interna como externa del modelo. El segundo construye el gráfico de la distribución acumulada de
RESULTADOS El proceso que abarca los 3 pasos para efectuar la simulación de Monte Carlo tiene una duración promedio de 70 segundos, aproximadamente 19,5 horas en total para las 1000 realizaciones, utilizando un computador con procesador de triple núcleo a 2,8 GHz, 12 GB de memoria ram y un sistema operativo de 64 bits. El programa ANSYS fue configurado para utilizar los 3 núcleos mediante el modelo de cómputo paralelo con memoria compartida. Durante este tiempo, el proceso fue totalmente autónomo y no requirió la intervención de un operario. En la figura 2(a) se presentan los resultados de una simulación determinística utilizando los valores medios de la tabla I con la finalidad de mostrar, resaltados en gris oscuro, el grupo de elementos que fallan bajo las condiciones de borde aplicadas. En las 1000 realizaciones de Monte Carlo de la simulación probabilística, el valor máximo de IF se ubica en el elemento 33795, el cual se encuentra aproximadamente en el centro de la región de falla. La predicción del inicio de la fractura en la zona baja del cuello del fémur es consistente con los experimentos de [2] y las simulaciones de [4]. El histograma de frecuencias en la figura 2(b) muestra una distribución similar a la Weibull de 3 parámetros, la cual típicamente describe las fallas en materiales. Sin embargo, esta observación no ha sido corroborada debido a que aún no se ha evaluado la bondad de ajuste de los resultados a la mencionada distribución. El gráfico de frecuencias acumuladas del IF indica la probabilidad de que no ocurra la falla. Debido a que el interés es determinar la probabilidad de falla, se graficó el complemento de las frecuencias acumuladas, el cual puede observarse en la figura 2(c). Debido a que en todas las realizaciones de Monte Carlo el IF máximo resultó mayor a 1, la probabilidad de que ocurra la falla es del 100%. Este resultado difiere del obtenido por [4], para quienes la probabilidad de falla es cero, pero está en concordancia con lo reportado por [2], ya que 12 especímenes fallaron con cargas menores a 10 kN y 5 fallaron con cargas mayores. La diferencia con el trabajo de [4] tiene básicamente dos orígenes: el promediado de los IF, lo cual reduce considerablemente dicho parámetro, y la diferencia entre los modelos, ya que están personalizados para distintos individuos.
57
Memorias_BIOVEN_2012
(b)
(a)
(c)
Figura 2. Resultados de las simulaciones, (a) ubicación de la falla; los elementos color gris oscuro tienen valores de IF ≥ 1, (b) histograma de frecuencias, (c) histograma del complemento de la frecuencia acumulada, indicando probabilidad de falla del 100%. [4] Laz P. (2007): Incorporating uncertainty in mechanical properties for finite element-based evaluation of bone mechanics, Journal of Biomechanics, 40: pp 2831-2836. [5] Taddei F. et al. (2006): Finite-element modeling of bones from CT data: sensitivity to geometry and material uncertainties, IEEE Transactions on Biomedical Engineering, 53: pp 2194–2200. [6] San Antonio T. et al. (2011): Orientation of orthotropic material properties in a femur FE model: A method based on the principal stresses directions, Medical Engineering & Physics, Nov 16, http://dx.doi.org/10.1016/j.medengphy.2011.10.008 [7] Keller T. (1994): Predicting the compressive mechanical behavior of bone, Journal of Biomechanics, 27: pp 1159–1168. [8] Ata M. (2007): A convergence criterion for the Monte Carlo estimates, Simulation Modelling - Practice and Theory, 15(3): pp 236-247. [9] Matsumoto M., Nishimura T. (1998): Mersenne Twister: A 623-dimensionally equidistributed uniform pseudorandom number generator, ACM Transactions on Modeling and Computer Simulation, 8(1): pp 3-30 DOI:10.1145/272991.272995 [10] Acklam P.: An algorithm for computing the inverse normal cumulative distribution function, http://home.online.no/~pjacklam/notes/invnorm/index.html Junio de 2012.
CONCLUSIONES
Los resultados obtenidos, tanto de la ubicación como de la probabilidad de falla, sugieren que la plataforma computacional funciona correctamente. La amplia funcionalidad de GVSamp, basada en las distintas funciones y métodos de generación de números seudoaleatorios, y de GVPost, con soporte para múltiples criterios de falla, criterios de parada y cálculo de la convergencia de la simulación de Monte Carlo, aumenta la flexibilidad de la plataforma computacional, facilitando el diseño del experimento probabilístico en estructuras óseas. Adicionalmente, la completa automatización de la simulación de Monte Carlo facilita la ejecución del experimento probabilístico, permitiendo la optimización del tiempo del investigador. REFERENCIAS [1] Carter D., Hayes W. (1977): The compressive behavior of bone as a two-phase porous structure, Journal of Bone and Joint Surgery, 59-A: pp 954–962. [2] Keyak J. (2000): Relationships between femoral fracture loads for two load configurations, Journal of Biomechanics, 33: pp 499–502. [3] Morgan E. et al. (2003): Trabecular bone modulus-density relationships depend on anatomic site, Journal of Biomechanics, 36: pp 897–904.
58
BIOMECÁNICA
MANIPULACIÓN DE ALGORITMO GENÉTICO PARA OBTENCIÓN DE DIMENSIONES ÓPTIMAS DE MECANISMO DE CUATRO BARRAS PARA UNA PRÓTESIS DE RODILLA Belkys T. Amador 1,2, Rafael R. Torrealba1, Carmen M. Müller-Karger1 2
1 Grupo de Biomecánica, Universidad Simón Bolívar Núcleo de Diseño Mecánico, Universidad Nacional Experimental del Táchira e-mail: bamador@unet.edu.ve
RESUMEN El mecanismo policéntrico de una prótesis de rodilla posee un centro instantáneo de rotación (CIR) que varía en función del ángulo de flexión, otorgándole mayor movilidad y estabilidad a la articulación cuando posee las dimensiones adecuadas. En particular, el mecanismo policéntrico de 4 barras involucra 6 parámetros, los cuales fueron dimensionados de manera óptima a través de la manipulación de un algoritmo genético (AG). Se empleó un cromosoma de 6 genes, tasa de mutación variable, población de 100 individuos, aunado a un fitness que cuantifica el error cuadrático medio de las coordenadas del CIR, así como el cumplimiento de las restricciones impuestas al mecanismo. Esto permitió una aproximación a la función que describe el movimiento del CIR, arrojando el dimensionamiento óptimo del mecanismo. Palabras Clave: Mecanismo de cuatro barras, Centro instantáneo de rotación, Algoritmos genéticos, Prótesis de rodilla. problema. El presente trabajo muestra la evolución de dicha búsqueda mostrando cómo las soluciones propuestas por el AG van cambiando hasta llegar a un dimensionamiento óptimo del mecanismo.
INTRODUCCIÓN Las prótesis policéntricas de rodilla para personas con amputación transfemoral se caracterizan porque el eje de la articulación se mueve en función del ángulo de flexoextensión de la rodilla. Es decir, existe un centro instantáneo de rotación (CIR) que se traduce en movimientos de rotación y traslación simultáneos durante la flexión [1]. En la Fig. 1A se muestra un dibujo de uno de estos mecanismos donde se puede apreciar el CIR para un ángulo de flexión cualquiera θR. El CIR se ubica en la intersección de las prolongaciones de los eslabones ‘a’ y ‘c’ del mecanismo en el plano sagital, los otros 2 eslabones son ‘b’ y ‘d’. De acuerdo a [2], se considera el eslabón ‘b’ la entrada de movimiento al mecanismo, específicamente debido al cambio de θR, mientras que el eslabón ‘d’ se considera estacionario a efectos de analizar la estabilidad de la prótesis. El ángulo θ* es el ángulo de diseño del eslabón ‘b’, el ángulo θ1 el de diseño del eslabón ‘d’ y el ángulo θ3 es la entrada del movimiento y es igual a la suma de los ángulos θR y θ* (ver Fig. 1). En un trabajo previo [3], los autores presentaron una plataforma computacional para dimensionar los parámetros que definen el mecanismo utilizando algoritmos genéticos (AGs), técnica apropiada para resolver problemas en los que se trata de realizar una optimización multi-objetivo de una serie de parámetros presentes en un conjunto de ecuaciones no lineales [4]. La plataforma es alimentada con las soluciones propuestas por el AG, el cual es manipulado para orientar su búsqueda hacia una solución plausible que cumpla con las restricciones asociadas al mecanismo y al
Posterior Anterior
Y CIR CIR
Muslo
θ 3=θ θ *+ θ R
XB_CIR
YB_CIR
θ 3=θ θ*
B A
b
θ3 c
A
a
b
B
θ*
θ3 c
OB
θ4
d
a
θ1
θ2
OA
A
Pierna
B
d θ1
OA
OB X
Figura 1. (A) Configuración del mecanismo para θR>0º con ángulo de entrada θ3. (B) Representación geométrica del mecanismo para θR=0°. El trabajo de [5] también aborda el dimensionamiento de mecanismos de 4 barras para rodillas protésicas utilizando AGs, sin embargo allí se hace énfasis en que un punto del eslabón superior es el que debe cumplir una trayectoria predeterminada, así como que el ángulo de entrada de movimiento del mecanismo es el que forma el eslabón ‘a’ con la línea de referencia horizontal (θ2 en la Fig. 1). Éstas son consideraciones para un mecanismo de aplicación general, ya que en una prótesis de rodilla el punto que debe cumplir una trayectoria definida para garantizar su
59
Memorias_BIOVEN_2012
estabilidad es el CIR del mecanismo [6]. Asimismo, el ĂĄngulo de entrada de movimiento del mecanismo es el que forma el eslabĂłn superior con la lĂnea de referencia horizontal (θ3 en la Fig. 1), es decir, el asociado al eslabĂłn donde va montado el encaje de la prĂłtesis, por medio del cual se genera el movimiento de flexo-extensiĂłn [2].
1. Mecanismo de â&#x20AC;&#x2DC;control voluntarioâ&#x20AC;&#x2122;: la longitud del eslabĂłn â&#x20AC;&#x2DC;aâ&#x20AC;&#x2122; (posterior) debe ser mayor que la longitud del eslabĂłn â&#x20AC;&#x2DC;câ&#x20AC;&#x2122; (anterior) [6]. 2. CondiciĂłn de eslabonamiento de Grashof: la suma de las longitudes del eslabĂłn mĂĄs corto y el mĂĄs largo (G1) debe ser menor que la suma de las otras dos longitudes (G2) para garantizar el movimiento continuo del mecanismo (G1 < G2) [7].
METODOLOGĂ?A Para establecer la ubicaciĂłn del CIR del mecanismo en funciĂłn de θR, se parte de las longitudes de los cuatro eslabones, â&#x20AC;&#x2DC;aâ&#x20AC;&#x2122;, â&#x20AC;&#x2DC;bâ&#x20AC;&#x2122;, â&#x20AC;&#x2DC;câ&#x20AC;&#x2122; y â&#x20AC;&#x2DC;dâ&#x20AC;&#x2122;, del ĂĄngulo de entrada θ3 y de los ĂĄngulos θ1 y θ*. Luego, considerando lo mencionado arriba en cuanto a los roles de los eslabones â&#x20AC;&#x2DC;bâ&#x20AC;&#x2122; y â&#x20AC;&#x2DC;dâ&#x20AC;&#x2122; [2] y empleando las ecuaciones matemĂĄticas asociadas al modelo propuesto [7], es posible obtener los valores desconocidos θ2 y θ4 a travĂŠs de las ecuaciones 1 y 2, respectivamente, y con ĂŠstos, las coordenadas del CIR, XB_CIR y YB_CIR, empleando las ecuaciones 3 y 4 (mayores detalles sobre las ecuaciones 1-4 pueden encontrarse en [3]). El origen del sistema de coordenadas se ubica en la articulaciĂłn inferiorposterior del mecanismo (punto OA), tal como se muestra en la Fig. 1B. En dicha figura se pueden apreciar ademĂĄs las coordenadas del CIR referidas al punto B, asĂ como los ĂĄngulos θ2 y θ4, que son los que forman los eslabones â&#x20AC;&#x2DC;aâ&#x20AC;&#x2122; y â&#x20AC;&#x2DC;câ&#x20AC;&#x2122; con la lĂnea de referencia horizontal, respectivamente. 2 2
â&#x2C6;&#x161;
; , , , , , , ,
(1)
4 2
" â&#x2C6;&#x161;" #$
; %, &, ' , , , , ,
(2)
5 cos 5 cos
(3)
#
( _ *+
,-. /01 2 3 4-.
9 _ *+
,-. /01 23 4-. /01 2
/01 23 /01 2
/01 23 /01 2
5 sin 5 sin
Coordenadas X_B_CIR y Y_B_CIR (mm)
160 140 120 100 80 60
X_B_CIR
40
Y_B_CIR
20 0 -20 0 -40
5
10
15
20
25
30
à ngulo de flexión de rodilla (°)
Figura 2. RepresentaciĂłn del CIR deseado en las coordenadas XB_CIR y YB_CIR. Tabla I. Rango dimensional de los parĂĄmetros ParĂĄmetro Eslabones â&#x20AC;&#x2DC;aâ&#x20AC;&#x2122; y â&#x20AC;&#x2DC;câ&#x20AC;&#x2122; EslabĂłn â&#x20AC;&#x2DC;bâ&#x20AC;&#x2122; EslabĂłn â&#x20AC;&#x2DC;dâ&#x20AC;&#x2122; Ă ngulos θ1 y θ*
Valor mĂnimo 15 mm 20 mm 15 mm 0Âş
Valor mĂĄximo 90 mm 45 mm 60 mm 40Âş
ConfiguraciĂłn del AG. El cromosoma estaba compuesto por 6 genes, uno para cada parĂĄmetro, y cada uno compuesto a su vez por 2 bytes para garantizar suficiente resoluciĂłn. La decodificaciĂłn del cromosoma fue lineal con el objeto de que los parĂĄmetros estuvieran definidos entre los valores especificados en la Tabla I. La tĂŠcnica de selecciĂłn utilizada fue el â&#x20AC;&#x2DC;torneoâ&#x20AC;&#x2122;, donde todas las soluciones poseen una probabilidad no nula de generar una descendencia para la siguiente generaciĂłn. Se trabajĂł con una poblaciĂłn de 100 individuos con una tasa de mutaciĂłn (tm) variable en el tiempo: para las primeras 10 generaciones se utilizĂł 0.5 para promover una bĂşsqueda aleatoria al principio, luego, a partir de la generaciĂłn 11 se bajĂł a 0.01 con un incremento de 0.005 cada vez que pasaban 100 generaciones sin que hubiese cambio en el fitness del mejor individuo y finalmente, una vez alcanzadas las 2750 generaciones, se fijĂł en 0.0075 hasta la generaciĂłn 3000, que fue la condiciĂłn de parada. La ecuaciĂłn 5 es la funciĂłn de fitness genĂŠrica utilizada. El primer tĂŠrmino â&#x20AC;&#x2DC;fitxyâ&#x20AC;&#x2122; se relaciona con el cĂĄlculo del error cuadrĂĄtico medio (ecm) para X y Y considerando la curva del CIR obtenida por el AG y la deseada; luego, los demĂĄs tĂŠrminos se refieren a las posibles restricciones aplicadas en las corridas para inducir al AG a encontrar los parĂĄmetros del mecanismo que cumplieran con el desempeĂąo deseado. Los tĂŠrminos â&#x20AC;&#x2DC;fitacâ&#x20AC;&#x2122; y â&#x20AC;&#x2DC;fitgrâ&#x20AC;&#x2122; se refieren a las restricciones 1 y 2 mencionadas
(4)
En [3] se estableció una localización deseada del CIR para cada θR considerando lo seùalado por Radcliffe respecto a la ubicación ideal de Êste para el mecanismo de 4 barras de control voluntario [6, 8]. En la Fig. 2 se observa su comportamiento: la coordenada XB_CIR tiene poca variación para el rango de flexión de rodilla de 0 a 30°, en tanto que la coordenada YB_CIR inicia aproximadamente en 120 mm para 0° de flexión de rodilla y tiende a incrementar durante los primeros 5° de flexión, para luego desplazarse suavemente hacia abajo con el incremento sucesivo del ångulo de flexión. Estos puntos fueron utilizados como la referencia para el AG, que luego al compararlos con las coordenadas XB_CIR y YB_CIR de salida, permitieron evaluar la calidad de la solución propuesta para los 6 paråmetros dimensionales del mecanismo. Para comenzar a inducir la búsqueda del AG, se estableció un rango dimensional para los paråmetros del mecanismo considerando las dimensiones de la pierna humana y referencias de prótesis comerciales [9] (ver Tabla I). Adicionalmente, se incorporaron dos restricciones:
60
BIOMECÁNICA
arriba, estas restricciones se incluyeron en todas las corridas realizadas. Adicionalmente se consideraron los términos ‘fitxcir’ (restricción 3) y ‘fitycir’ (restricción 4), introducidos para acotar las coordenadas X_B_CIR y Y_B_CIR, respectivamente, dentro de una banda de tolerancia determinada. En cuanto al término ‘fitancho’ (restricción 5), se introduce para restringir el ancho del mecanismo, mientras que el término ‘fitdb’ (restricción 6), se introdujo para obligar a que la longitud del eslabón ‘d’ fuese mayor a la del eslabón ‘b’. En la Tabla II se muestra cómo se define cada una de estas contribuciones al fitness. < =it ?@ A =it 0B A =itgr A =itxcir A =itycir A =itan A =itdb (5)
ser mayor a 54 mm. Con esto en mente se procedió a agregar una quinta restricción para forzar que el ancho no excediera dicho límite. En este caso (caso 4), los resultados (ver Fig. 5) muestran una coordenada X_B_CIR prácticamente solapada con la deseada, en tanto que los resultados para Y_B_CIR volvieron a ser inaceptables. Coordenadas X_B_CIR y Y_B_CIR (mm)
160
Tabla II. Cálculo del fitness ex_m y ey_m corresponden al ecm
k_ac = 0 ó k_ac = 2 k_g = 0 ó k_g = 500 k_xcir = k_xcir + 20 k_ycir = k_ycir + 20 k_an = 0 ó k_an = 2 k_db = 0 ó k_db = 2
120
X_B_CIR_obt
100
Y_B_CIR_obt
80
X_B_CIR_des
60
Y_B_CIR_des
40 20 0 -20 0
5
10
15
20
25
30
-40
Ancho=51.21mm
-60
Ángulo de flexión de rodilla (°)
160 Coordenadas X_B_CIR y Y_B_CIR (mm)
fitxy =1/(1 + (ex_m*ey_m)) fitac =0.05/(1-k_ac*(a-c)) fitgr =0.05/(1-k_g*(G2-G1)) fitxcir =0.05/(1+k_xcir) fitycir =0.05/(1+k_ycir) fitancho =0.05/(1+k_an) fitdb =0.05/(1-k_db*(d-b))
140
Nota: los valores de k_ac, k_g, k_xcir, k_ycir, k_an y k_db valen cero (0) si se cumple la condición deseada para cada caso; ex_m, ey_m, k_xcir y k_ycir se evalúan para cada θR.
Para verificar el funcionamiento del AG se utilizaron varios casos de prueba. En cada caso se definió un set de parámetros del mecanismo que cumplieran el rango dimensional establecido en la Tabla I, además de las restricciones 1 y 2. Con estas dimensiones se obtuvo la trayectoria del CIR del mecanismo, la cual a su vez fue empleada como el CIR deseado en el AG. Los resultados mostraron solapamiento entre el CIR deseado y el obtenido.
140 120
X_B_CIR_obt
100
Y_B_CIR_obt
80
X_B_CIR_des
60
Y_B_CIR_des
40 20 0 0
-20
5
10
15
20
25
30 Ancho=47.78mm
-40
Ángulo de flexión de rodilla (°)
Figura 3. Caso 1, restricciones 1 y 2 Coordenadas X_B_CIR y Y_B_CIR (mm)
150
RESULTADOS Inicialmente se trabajó sólo con las restricciones 1 y 2 (caso 1), obteniéndose dos tipos de resultados (ver Fig. 3): uno donde se presenta solapamiento de Y_B_CIR con la referencia pero un comportamiento inaceptable para X_B_CIR, y otro, donde el solapamiento ocurrió con X_B_CIR y el resultado es inaceptable para Y_B_CIR. No fue posible obtener un resultado aceptable para ambas coordenadas simultáneamente. Para el caso 2 se agregaron las restricciones 3 (X_B_CIR deseado > X_B_CIR obtenido) y 4 (Y_B_CIR obtenido > 90 mm). Los resultados mostraron un mejor comportamiento simultáneo para ambas coordenadas (ver Fig. 4), aunque no son satisfactorios para el comportamiento de la prótesis (particularmente el comportamiento de la coordenada Y_B_CIR). En el caso 3, con el objeto de obtener mejores resultados se ajustaron las restricciones 3 (X_B_CIR obtenido ubicado entre -50 y 0 mm) y 4 (Y_B_CIR obtenido > 90 mm sólo para θR de 0 a 10º), obteniendo resultados bastante aceptables para ambas coordenadas, aunque el mecanismo excedió el ancho total en el plano sagital, el cual no debería
X_B_CIR_obt 100
Y_B_CIR_obt X_B_CIR_des
50
Y_B_CIR_des
0 0
5
10
15
20
25
30
-50 Ancho=60.50mm
-100
Ángulo de flexión de rodilla (°)
Figura 4. Caso 2, restricciones 1, 2, 3 y 4. Se siguió trabajando con las 5 restricciones del caso anterior pero se modificó la tercera, eliminando la banda de tolerancia para X_B_CIR y dejando la condición X_B_CIR deseado > X_B_CIR obtenido (caso5). En este caso, si bien se obtiene un ancho reducido dada la restricción impuesta, la longitud del eslabón ‘d’ es menor que la del eslabón ‘b’, lo cual da una configuración indeseada del mecanismo que se traduce en un comportamiento inadecuado del CIR durante la marcha. Esto se evidencia en la Fig. 6, donde la coordenada X_B_CIR se desvía de la referencia conforme el ángulo de flexión aumenta. Partiendo de los resultados del caso anterior, en el caso 6 se mantuvieron las mismas 5 restricciones y se agregó una sexta, que obliga a que el eslabón ‘d’ sea de mayor longitud que el ‘b’. En este caso, si bien las soluciones
61
Memorias_BIOVEN_2012
ofrecidas por el AG siguen cumpliendo con las restricciones impuestas, las dimensiones resultantes para los eslabones ‘a’ y ‘c’ son muy pequeñas, lo cual se traduce en que el mecanismo sea inviable en términos prácticos (el CIR presenta un comportamiento totalmente irregular).
Coordenadas X_B_CIR y Y_B_CIR (mm)
160
Coordenadas X_B_CIR y Y_B_CIR (mm)
160 140 120 X_B_CIR_obt 100
Y_B_CIR_obt
120
X_B_CIR_obt
100
Y_B_CIR_obt
80
X_B_CIR_des
60
Y_B_CIR_des
40 20 0 -20 0
5
10
15
20
25
-40
30 Ancho=53.15mm
-60
80
Ángulo de flexión de rodilla (°)
X_B_CIR_des 60
Figura 7. Caso 3, manipulando restricciones 3 y 4.
Y_B_CIR_des
40 20 0 -20
0
5
10
15
20
25
30 Ancho=35.78mm
-40
Ángulo de flexión de rodilla (°)
Coordenada Y (mm)
Figura 5. Caso 4, restricciones 1, 2, 3, 4 y 5. 150
Coordenadas X_B_CIR y Y_B_CIR (mm)
140
100 X_B_CIR_obt 50
Y_B_CIR_obt X_B_CIR_des
0 0
5
10
15
20
25
30
Ancho=53.15 mm
Y_B_CIR_des
-50 Coordenada X (mm)
-100
Figura 8. Mecanismo y modelo 3D de la prótesis. Ancho=22.20mm
-150
Ángulo de flexión de rodilla (°)
REFERENCIAS
Figura 6. Caso 5, manipulando restricción 3. [1] Viladot, R., Cohi, O. y Clavell, S. (1989): Ortesis y Prótesis del Aparato Locomotor, Masson. [2] Hobson, D.A. y Torfason, L.E. (1975): Computer optimization of polycentric prosthetic knee mechanisms, Bull Prosthet Res, pp 187-201. [3] Amador, B., Torrealba, R., Rojas, M., Cappelletto, J. y Müller-Karger, C.M. (2012): Metodología para dimensionamiento de mecanismo policéntrico de rodilla utilizando análisis de marcha y algoritmos genéticos, Revista Ingeniería Biomédica [en imprenta]. [4] Pham, D.T. y Karaboga, D. (2000): Intelligent Optimizations Techniques, Springer. [5] Lugo, E. (2010): Diseño de mecanismos utilizando algoritmos genéticos con aplicación en prótesis de miembro inferior, Dr. en Ciencias en Ing., IPN, México. [6] Radcliffe, C. W. (1994): Four-bar linkage prosthetic knee mechanisms: kinematics, alignment and prescription criteria, Prosthetics and Orthotics, 18: pp 159-173. [7] Norton, R. (2005): Diseño de maquinaria: síntesis y análisis de máquinas y maquinarias, McGraw-Hill. [8] Radcliffe, C. W. (2003): Biomechanics of knee stability control with four-bar prosthetic knees, ISPO Australia Annual Meeting, Melbourne. [9] Otto Bock Ibérica (2012): Prótesis de pierna, [www.ottobock.es/cps/rde/xchg/ob_es_es/hs.xsl/1943.html]
Finalmente, a partir de los resultados obtenidos hasta aquí, se decidió trabajar con las restricciones asociadas al caso 3. Bajo estas condiciones se hicieron múltiples corridas y se monitoreó el ancho del mecanismo hasta obtener un comportamiento aceptable (ver Fig. 7), además de un ancho dentro de lo requerido (53.15 mm). En la Fig. 8 se puede apreciar la representación gráfica del mecanismo resultante, incluyendo el CIR para θR de 0 a 90º (a intervalos de 5º), además del modelo CAD preliminar de la prótesis en 3D. CONCLUSIONES La manipulación del AG hizo posible inducir su búsqueda para determinar las dimensiones óptimas de los 6 parámetros del mecanismo. En particular, el mecanismo dimensionado permite el movimiento deseado y garantiza la estabilidad de la rodilla después del contacto de talón y durante la respuesta a la carga, así como la flexión voluntaria durante el apoyo terminal y el pre-balanceo, antes del despegue de punta. El establecimiento adecuado de las restricciones en el fitness fue la clave para ir ajustando el AG hasta obtener los resultados deseados.
62
BIOMECÁNICA
PROTOCOLO PARA LA RECONSTRUCCIÓN DIGITAL DE TOMAS EN PACIENTES CON HENDIDURA DE LABIO Y PALADAR ASISTIDOS CON ORTOPEDIA FUNCIONAL DE LOS MAXILARES L Bandres 1, O Pelliccioni 1, T Pannaci2, M Candal 1 1 Grupo de Biomecánica USB, Departamento de Mecánica, Universidad Simón Bolívar, Apartado 89000, Caracas 1080-A, Venezuela. 2Fundación Operación Sonrisa Venezuela, Av San Juan Bosco, Ed Excelsior, piso 5, No55, Altamira - Caracas 1080-A, Venezuela e-mail: orlandop@usb.ve
RESUMEN El presente trabajo describe la metodología de trabajo para la instalación y configuración de un equipo para la digitalización de impresiones de paladar, así como el proceso para su reconstrucción y estudio por imágenes digitales. Mediante técnicas de digitalización tridimensional se pueden obtener representaciones computarizadas de impresiones maxilofaciales y férulas para Ortopedia Funcional en Maxilares que permitirán identificar patrones de zonas de estímulo mecánico que aceleren el remodelado del paladar en un tiempo menor. El procedimiento fue validado a través de la comparación de imágenes reconstruidas de las muestras a partir de tomografías axiales computarizadas. Palabras Clave: Digitalización, superficies, labio hendido, paladar hendido.
patología oral, los trastornos afectivos, emocionales y el rechazo social, entre otros. Requiere un manejo multidisciplinario, y en la mayoría de los casos el tratamiento va desde horas de nacido y puede prolongarse por encima de los 18 años. En Latinoamérica, la frecuencia promedio de malformaciones congénitas mayores presentes al momento del nacimiento es de aproximadamente el 3% considerando sólo a los recién nacidos vivos [3]. La atención odontológica temprana con el uso de la Ortopedia Funcional de los Maxilares (OFM) garantizaría la alimentación oral en primer término, y adicionalmente también ayudaría para el adecuado crecimiento y desarrollo maxilofacial que facilitaría a los cirujanos plásticos o maxilofaciales hacer un correcto cierre del labio y del paladar duro, para lograr una adecuada función oral [4]. Ofreciendo apoyo a las actividades de la Fundación Operación Sonrisa Venezuela, este proyecto pretende recuperar una parte importante del trabajo realizado por su equipo de odontólogos en sus 20 años de experiencia a través de la reconstrucción digital de la topología del paladar del paciente con hendidura en su proceso de remodelado por el uso de la OFM. Se desarrolló un protocolo de digitalización tridimensional de muestras de yeso de impresiones de paladar y de las placas ortopédicas para su posterior estudio demarcado de puntos de reconocimiento, en una población de control de los últimos cinco años.
INTRODUCCIÓN La Fundación Operación Sonrisa Venezuela, asiste desde hace más de 20 años a la población de pacientes con hendidura de labio y paladar, en su mayoría niños. En el país, nacen entre 4000 y 5000 niños con este tipo de malformación y el programa asiste un promedio de 700 niños al año, logrando operar un promedio de poco más de 300 a través de jornadas quirúrgicas. Estas jornadas despliegan toda una compleja red de actividades que cubren las etapas de convocatoria, evaluación, selección de pacientes, hospitalización, operaciones y control/tratamiento post-operatorio que se repite periódicamente en diferentes puntos del país, buscando abarcar todo el territorio nacional de manera eficiente y efectiva [1]. La Hendidura Labio Palatina (HLP) [2], es una malformación congénita que se produce por la alteración del proceso embrionario en la configuración alvéolopalatina entre la quinta y decimosegunda semana de gestación. Constituye una de las malformaciones congénitas más comunes y de mayor dificultad en su manejo, ya que debido a la complejidad de las deformaciones maxilofaciales que presentan muchos pacientes, pueden comprometerse funciones básicas como la respiración y la deglución, sin contar otras alteraciones como los trastornos del habla y el lenguaje, las enfermedades de los senos paranasales y el oído, la
63
Memorias_BIOVEN_2012
A través de un escáner tridimensional, se captura una nube de puntos a partir de muestras geométricas en la superficie del objeto, posteriormente a través de un software especializado, los puntos capturados son utilizados para extrapolar la forma del objeto (reconstrucción).
Digitalización de muestras de impresión labio palatina.La metodología utilizada para la recolección de datos de superficie esta representada en una serie de pasos descritos a continuación: 1. Debe calibrarse la cámara web a través del panel de calibración. El mismo consiste en una hoja impresa con puntos y símbolos de ubicación y orientación conocida para el software, el cual refiere cómo debe acondicionarse el entorno de trabajo, el posicionamiento de la cámara y la hoja de calibración (ver Figura 2). 2. Se regulan las opciones de la cámara web hasta que solamente pueda ser visible el haz de luz del láser a registrar. 3. Con el programa listo, se comienza el movimiento del láser sobre el objeto. Para mayor precisión, el haz emisor fue regulado por el motor de corriente continua, controlando recorrido, dirección y velocidad de desplazamiento. 4. Una vez que el haz de luz ha perdido contacto con el objeto se detiene el registro de la webcam y se detiene el movimiento del láser.Los resultados obtenidos son almacenados en formato .OBJ
METODOLOGÍA Preparación del equipo de digitalización.El proceso de escaneo tridimensional es realizado mediante el software DAVID LASERSCANNER™ v.3.2, que está diseñado bajo la concepción de métodos activos de digitalización 3D [5]. Los métodos activos de digitalización tridimensional para escáneres ópticos son aquellos que necesitan un ambiente con iluminación controlada para llevar a cabo el proceso de adquisición de datos. Mientras que los métodos pasivos no necesitan esta característica presente en el entorno [6]. Este software, basado en la metodología de triangulación tridimensional por láser, crea una representación computarizada de la superficie del objeto, la cual es exportada en formato .OBJ a cualquier programa de modelado asistido por computador (CAD). El escáner láser de triangulación 3D es también un escáner activo que usa la luz del láser para examinar el entorno. El haz de luz láser incide en el objeto y se usa una cámara para buscar la ubicación del punto del láser. Dependiendo de la distancia a la que el haz de luz golpee una superficie, el punto del láser aparece en lugares diferentes en el sensor de la cámara. Para esto, el grupo de trabajo desarrolló un equipo electromecánico el cual, mediante un motor de corriente directa controlado por un operario, realiza la recolección de datos de superficie a través del movimiento uniforme y continuo del láser. Este dispositivo cuenta con tres componentes (ver Figura 1): • Una linterna láser, querecrea un trazo continuo de luz sobre la superficie a digitalizar. • Una cámaraweb de 8 MP, marca Omega, modelo 3631K3, que realiza la recolección de los puntos de la superficie señalados por el láser • Un computador con el software instalado DAVID LASERSCANNER ™ v.3.2, el cual utiliza la data recolectada por la cámara web y a partir de esta reconstruye digitalmente la superficie barrida por el láser.
Figura 2. Calibración del software DAVID con el panel de calibración Procesamiento de los datos registrados. El software utilizado para esta tercera etapa fue 3-MATIC™ de la empresa Materialise© [7]. Esta herramienta CAD se destaca por su alta funcionalidad en la reconstrucción de modelos tridimensionales libres/orgánicos complejos, partiendo de un formato de imágenes tringuladas (STL), como los datos anatómicos resultantes de la segmentación de imágenes médicas. Por medio del software MESHLAB™ los archivos digitalizados .OBJ son llevados a formato .STL [8]. 3-MATIC™ posee una variedad de herramientas que permiten la definición de puntos de control en la topología, así como también diferentes lecturas de dimensiones espaciales. Para la evaluación de la influencia sobre la evolución de los pacientes asistidos por Ortopedia Funcional de los Maxilares, como por ejemplo lo son las cercanías al paladar hendido, se puede destacar el uso de la herramienta “MeasureAnalysisLocally”, que permitió
Figura 1. Componentes del scanner láser
64
BIOMECÁNICA
obtener estudios de desviaciones (entre la parte a validar y la de referencia) más detallados de estas zonas en específico. Validación de los resultados de la reconstrucción digital.Como patrón comparativo de la geometría reconstruida en formato digital con la muestra original de yeso, se combinó la potencialidad de la herramienta 3MATIC™ para la medición y el software MIMICS, especialmente desarrollado también por Materialise© para el procesamiento de imágenes médicas [9]. Procedentes de tomografías computarizadas, resonancia magnética, entre otras, estas imágenes son transformadas en modelos tridimensionales de alta precisión de la anatomía del paciente y pueden ser analizadas luego directamente en MIMICS, o en programas CAD/CAE. Las muestras de impresión fueron registradas utilizando un tomógrafo axial computarizado SIEMENS, modelo SOMATOM Balance, a un paso de captura de 1 mm. Para la validación se utilizó el módulo de medición de distancias relativas (o desviaciones) entre sólidos llamado “PartComparissonAnalysis” del software 3-MATIC™. Este módulo se basa en tres pasos importantes: 1. Ensamblaje pieza-referencia: Se escogen de cuatro a seis puntos comunes entre la pieza digitalizada por la tomografía y por el scanner láser con la herramienta “N Point Registration”. 2. El análisis de comparación de partes: aquí el 3MATIC™ a través del módulo “PartComparissonAnalysis” evalúa las interferencias y las distancias relativas entre ambas piezas ensambladas, permitiéndole al usuario obtener un criterio de desviación de la parte a validar con respecto a su contraparte de referencia. Este módulo permite además observar solamente un rango de desviaciones, de manera de poder despreciar aquellas distancias relativas que puedan ser insignificantes (ver figura 3). 3. Evaluación de zonas más influyentes: Aquí se utilizó la herramienta “MeasureAnalysisLocally” que permite obtener estudios de desviaciones más detallados de zonas con morfología compleja.
RESULTADOS El proyecto, actualmente en su fase inicial, presentó un diseño preliminar del equipo de digitalización, componentes, ubicación, calibración, velocidad de digitalización y número de puntos mínimos a registrar. Como resultado, los mejores registros se alcanzaron a mayor oscuridad del espacio de prueba y con las velocidades más bajas de paso del láser. Las pruebas también reportaron resultados en función de la iluminación del entorno, y las propiedades de los materiales para reflejar y absorber luz, alcanzando la mejor calidad de imagen en cuerpos opacos. En lo que se refiere a la fase de comparación de imágenes reconstruidas por tomografía y láser, se pudo corroborar que se alcanzaron los niveles mínimos de tolerancia para el rango de muestras estudiadas en los puntos indicados por los odontólogos colaboradores del proyecto. Se estudiaron alrededor de 50 muestras de pacientes entre 0 y 5 años de edad con hendidura labio palatina. A manera referencial, la Figura 4 muestra de forma comparativa una imagen fotográfica y su respectiva reconstrucción digital obtenida por el scanner láser de una moldura en yeso del paladar de un paciente, utilizando el procedimiento presentado en este trabajo.
Figura 4. Versión física y computarizada de una impresión maxilo-facial de un paciente con labio y paladar hendido
Figura 3. Módulo “PartComparissonAnalysis” 3Matic™ de Materialise©
65
Memorias_BIOVEN_2012
Página web disponible en [7] 3-MATICTM. línea:http://biomedical.materialise.com/3-matic-0. Último acceso: 15 de junio de 2012. [8] MeshLab. Página web disponible en línea:http://meshlab.sourceforge.net/. Último acceso: 15 de junio de 2012. [9] MIMICS. Página web disponible en línea:http://biomedical.materialise.com/mimics. Último acceso: 15 de junio de 2012.
CONCLUSIONES Se presentó un procedimiento funcional para la reconstrucción digital de impresiones de paciente con hendidura labio palatina, que permite evaluar cuantitativamente su proceso de remodelado por el uso de Ortopedia Funcional de los Maxilares. Sus principales beneficios radican en el costo del equipo, fácil configuración y descarta la necesidad de someter al paciente a estudios tomográficos o de resonancia magnética. La validación mediante la comparación de la reconstrucción obtenida por el scanner láser y por tomografías computarizadas permitió verificar la calidad de los resultados del diseño propuesto y la potencialidad de la herramienta de medición 3-MATIC™ para reportar los datos médicos de forma útil para el estudio evolutivo del paciente. AGRADECIMIENTO Los autores extienden su agradecimiento al Dr. David Sztajnworc del Servicio de Radiodiagnóstico del Hospital Dr. José María Vargas de Caracas por la donación del estudio tomográfico. También se agradece al equipo de Materialise Latinoamérica, por el apoyo institucional brindado y su participación en las disposiciones técnicas para el presente proyecto de Investigación.
REFERENCIAS [1] Fundación Operación Sonrisa Venezuela. Página web disponible en línea:http://www.operacionsonrisa.org.ve/. Último acceso: 15 de junio de 2012. [2] Cohen M (1992): “Crecimiento Maxilofacial”, 3ª edición. Editorial Iteramericana McGraw-Hill, México. [3] Corbo M yMarimon M (2001): “Labio y paladar figurados. Aspectos generales que se deben conocer en la atención primaria de salud”, Revista Cubana de Medicina General Integral, 17 (4), pp 379 – 85. [4] Perdomo L (1983): “Efectos del Uso Temprano de Ortopedia Funcional de los Maxilares sobre el Modelado del Arco Alveolar y la Hendidura Palatina en Lactantes Fisurados”. Trabajo de Ascenso de la Universidad Central de Venezuela, Facultad de Odontología. [5] DAVID® Laser Scanner 3.4. Página web disponible en línea:http://www.david-laserscanner.com/. Últimoacceso: 15 de junio de 2012. [6] Lanman D and TaubinG (2009): “Build Your Own 3D Scanner: 3D Photography For Beginners”, SIGGRAPH 2009, New Orleans, USA, pp 2 – 7.
66
BIOMECÁNICA
REVISIÓN DE LAS VARIABLES CINEMÁTICAS DE LA PELVIS EN PACIENTES ESCOLARES Y ADOLESCENTES CON ARTRODESIS DE CADERA M. Rupcich1, R. Bravo2 1
2
Servicio de Pediatría, Centro Médico Docente La Trinidad, Caracas. Venezuela Centro de Tecnología Asistiva (CETA) Universidad Simón Bolívar, Caracas. Venezuela e-mail: rupcich@gmail.com, rbravo@usb.ve
RESUMEN El propósito del estudio es definir los mecanismos compensatorios de la marcha en pacientes con artrodesis de cadera. Se prestó especial atención al movimiento de la pelvis. Se evaluaron 9 pacientes (5 femeninos – 4 masculinos), haciendo seguimiento de 2 a 6 años posterior a la fusión. El análisis de marcha demostró incremento de los movimientos pélvicos principalmente en los planos sagital y transverso. La posición de fusión de cadera en rotación 0º, permite al paciente incrementar la longitud del paso del lado sano para compensar la incapacidad de extender el miembro fusionado, manteniendo la pelvis de ese lado externa. Palabras Clave: Artrodesis de Cadera, Análisis de Marcha, Cinemática, Pelvis
INTRODUCCIÓN
METODOLOGÍA
La artrodesis de cadera sigue siendo la primera alternativa en el tratamiento quirúrgico de escolares y adolescentes activos con enfermedad degenerativa severa de la cadera. La artroplastia total de cadera es un procedimiento usado en pacientes con artritis reumatoide juvenil, sin embargo, no está recomendado cuando la alteración es unilateral [1,2]. El objetivo del procedimiento es aliviar el dolor al evitar el movimiento y proveer de un punto de apoyo (fulcrum) al miembro afectado. Se ha descrito igualmente que se producen cambios de presión sobre la región lumbar y sobre la rodilla ipsilateral [3,4,5]. Es la alternativa de elección por su funcionalidad y aceptación según Callaghan[1] y Sponseller[2], quienes reportan que la artroplastia de cadera mejora el dolor de espalda (100%) y el dolor de rodillas (50%). En este trabajo se presenta un estudio de la biomecánica de la marcha de pacientes con artrodesis de cadera el cual pretende, por medio del análisis de la cinemática de la cadera, evaluar los rangos articulares y parámetros espacio temporales, y verificar el postulado que afirma que los mecanismos compensatorios provocados por la fusión de la cadera permiten el desplazamiento armónico del paciente, pero aumentan los consumos de energía y el desgaste de otras partes del sistema como son la columna lumbar y la rodilla, los cuales podrían degenerar en dolor.
En este estudio retrospectivo se revisaron las historias médicas de 9 pacientes (5 femeninos y 4 masculinos), a quienes se les practicó artrodesis de cadera (6 del lado izquierdo y 3 del lado derecho). Con edades comprendidas entre los 7 años y 16 años (promedio 11 años). Estudio posterior a la fusión con un promedio de seguimiento de 4 años 3meses (2 – 6 años). Un solo caso tiene seguimiento de 12 años por luxación congénita de caderas. El diagnóstico preoperatorio por orden de incidencia fue: artritis séptica, luxación congénita de cadera, fractura base cervical, enfermedad de Legg-Calvè-Perthes, TBC coxofemoral y epifisiolistesis capital proximal. A cada paciente se le realizó un análisis clínico de la marcha, siguiendo el protocolo establecido para tal fin en el Laboratorio de Marcha del Hospital Ortopédico Infantil (Caracas, Venezuela). El equipo utilizado fue el Sistema Vicon 370E (Oxford Metrics LTD), con 5 cámaras infrarrojas (60Hz) y tres placas de fuerza AMTI OR-600 (Advanced Mechanical Technologies, Inc.). Se registraron variables cinemáticas y cinéticas para tres recorridos con pisadas limpias izquierdas y derechas en las placas de fuerza, caminando a su propia velocidad. Los cómputos de cinemática se generaron con el Vicon Clinical Manager (VCM, Oxford Metrics LTD) incluyendo: consistencias de cinemática y cinética para cada miembro, así como comparación de estas con el patrón normal en el plano sagital, coronal y transverso.
67
Memorias_BIOVEN_2012
El patrón normal fue comparado con la reportado en la literatura, con especial atención en los movimientos de la pelvis [6,7] ya que no se pueden medir directamente los movimientos de la columna lumbar por limitación técnica del modelo biomecánico utilizado. No se hizo verificación de los ángulos de caderas, rodillas y tobillos ya que éstos están suficientemente bien documentados en la literatura[8]. Se realizaron mediciones de los ángulos de inclinación pélvica, máximas y mínimas, ángulos de fusión y rangos de movimiento pélvico en los tres planos del espacio. Los datos se tabularon para obtener la estadística descriptiva utilizando MS-Excel (Microsoft Corp.®) se obtuvo el coeficiente de correlación cruzada () entre los ángulos de flexión de fusión de cadera y los ángulos de inclinación de pelvis.
Tabla II. Rangos de Movimiento de la Pelvis Paciente Lado Sagital (º) Coronal (º) 1 D 13 12 2 D 10 9 3 D 10 8 4 I 16 16 5 I 14 4 6 I 12 6 7 I 18 6 8 I 18 10 9 I 15 5 Media 14,00±3,04 8,44±3,81 Máximo 18 16 Mínimo 10 4 Normal 3±2 7±3
RESULTADOS
En las gráficas se puede observar el incremento de los movimientos pélvicos en el plano sagital de 10º a 15º, máxima antepulsión pélvica inmediatamente antes del despegue y máxima retropulsión simultánea durante el balanceo del lado de la cadera fusionada (figura 1 a y b)[9].
Para los resultados reportados en la tabla I, se obtuvo un coeficiente de correlación entre la máxima inclinación pélvica y el ángulo de flexión de fusión de cadera: = 0•71
Tabla I: Máxima Inclinación Anterior de la Pelvis y ocurrencia en el ciclo de marcha
Ante/retro pulsión Pélvica
30º
Paciente Lado 1 D 2 D 3 D 4 I 5 I 6 I 7 I 8 I 9 I Media Máximo Mínimo
Máx. inclinación Anterior (º) 33 25 30 34 23 25 29 22 20 26,78 ± 4,94 34 20
Transv (º) 15 12 20 8 7 10 14 15 15 12,89±4,08 20 7 10 ± 4
Anterior
% de ciclo de Marcha 47,36 51,70 44,00 50,00 46,00 51,70 48,30 44,00 48,30 47,93 ± 2,91 51,70 44,00
20º
Izq.
10º
Der.
0º Posterior -10º
0
20
40 60 % de ciclo de marcha
80
100
a) Ante/retro pulsión Pélvica
30º Anterior 20º
1er.
10º
El coeficiente de correlación entre la mínima inclinación pélvica y el ángulo de flexión de fusión de cadera: = 0•57. Los rangos de movimiento de pelvis se muestran en la tabla II.
2do.
0º
3er
Posterior -10º
0
20
40 60 80 % de ciclo de marcha
100
b) Figura 1. Ante-retropulsión pélvica. a) Izquierda (contínua) vs. Derecha (a trazos). b) Consistencia.
68
BIOMECÁNICA
No pareciera haber incrementos en el plano frontal (salvo 2 casos) discreta oblicuidad y se verifica una prolongación de la fase de apoyo del lado contra lateral (5 -15%), véase la línea a trazos vertical casi 10% después del despegue de dedos normal (62% del ciclo de marcha) en la figura 2 a).
20º Arriba
lateral e inestabilidad antero posterior de la rodilla ipsilateral en examen clínico[9]. Rotación Pélvica 30º Interna 20º
Oblicuidad Pélvica
Izq.
10º 0º
10º
Izq.
0º
Der.
Der.
-10º -20º Externa -30º
0
20
-10º Abajo -20º 0
20
40 60 % de ciclo de marcha
80
100
Rotación Pélvica
100
30º Interna 20º
1er.
10º
Oblicuidad Pélvica
0º
10º
-20º Externa -30º
2do.
-10º
40 60 % de ciclo de marcha
80
3er
0
20
40 60 % de ciclo de marcha
80
100
b)
3er
20
2do.
-10º
1er.
0º
Abajo -20º 0
80
a)
a)
20º Arriba
40 60 % de ciclo de marcha
Figura 3. Rotación pélvica. a) Izquierda (contínua) vs. Derecha (a trazos, fusionada). b) Consistencia.
100
b)
La artrodesis en flexión excesiva puede causar exagerada lordosis lumbar compensatoria, aumentando los movimientos en el plano sagital. Los resultados de correlación permiten concluir que a mayor flexión en la fusión, mayor inclinación pélvica anterior (antepulsión) = 0•71, comparable con el valor de = 0•81 de Õunpuu (9), pudiendo ser una de las causas de dolor de espalda. Es importante resaltar que en las variables espacio temporales, sobresale la velocidad de marcha la cual representó, en promedio, un 78•2% del valor normal, también comparable con 84% reportado por Õunpuu[9]. La posición ideal de fusión es de 20º a 25º de flexión, rotación 0º a 5º externa, abdución–aducción: 0º a 5º en aducción, por las ventajas biomecánicas durante la marcha[1,10]. Dicha posición busca minimizar el excesivo movimiento de la columna lumbar y de la rodilla. Mas de 10º de abducción o aducción de cadera pudiera conducir a inestabilidad de rodilla en valgo/varo respectivamente.
Figura 2. Oblicuidad pélvica. a) Izquierda (contínua, fusionada) vs. Derecha (a trazos). b) Consistencia. Se evidencia un incremento en el plano transverso mayor a los 10º (10º -15º), tal y como se observa en el 50% del ciclo de marcha de la figura 3. a) así como también una reducción de la fase de apoyo del lado afectado, véase la línea a trazos vertical casi 10% antes del despegue de dedos normal (62% del ciclo de marcha) en la gráfica 3 a). En 2 de 3 casos en los que la flexión de fusión es menor a los 20º, se presenta dificultad con el balanceo observándose un aumento de la oblicuidad pélvica ipsilateral durante el balanceo, fenómeno reportado también por Perry [8]. Otros aspectos importantes incluyen: una velocidad de marcha promedio 80% de la normal, acortamiento de la longitud del paso del lado fusionado con una diferencia entre 0•5 y 6 cm. Todos los sujetos presentan atrofia del muslo, y tres de los nueve casos reportaron laxitud medio
69
Memorias_BIOVEN_2012
Laboratorio de Marcha del Hospital Ortopédico Infantil por la importante colaboración prestada en la realización de este trabajo, y el agradecimiento al Hospital Ortopédico Infantil por su gentileza en el aporte de los datos e información requeridos.
CONCLUSIONES La revisión tiende a demostrar que la posición de fusión de cadera sugerida por otros autores en rotación 0º [1,2,9, 10], permite al paciente incrementar la longitud del paso del lado sano para compensar la incapacidad de extender el miembro fusionado, manteniendo la pelvis de ese lado externa, con respecto a la línea de progresión. Todos los casos presentan una rotación de fusión externa exagerada, mayor de 10º y/o presentan una torsión tibial externa, como sucedió en la serie usada en este estudio, y el patrón pélvico fue contrario, lo que condiciona la posición de la pelvis ipsilateral francamente interna incrementando los movimientos del plano transverso de 10º a 15º (Figura 3). El aumento del movimiento de la pelvis y columna lumbar en el plano sagital y transverso son también respuestas a la falta de movimiento de la cadera. El uso de los abdominales, combinado con la movilidad de la espalda, determina el rango de movimiento hacia adelante del miembro durante el balanceo inicial. La adaptación del tobillo y rodilla maquillan la diferencia de longitud y la falta de movimiento de la cadera[9]. Este aumento del movimiento de la columna lumbar parece estar positivamente relacionado con dolor, como se refleja en estudios previos (Cuestionario oral dolor post- fusión = 0•85 p < 0•05) [1,2]. La diferencia de longitud producida por la interrupción de la epífisis femoral proximal tiene efectos negativos sobre la biomecánica de la marcha. Se debe considerar la epifisiodesis de la epífisis distal del fémur contralateral a la edad apropiada, para lograr corregir la discrepancia entre ambos miembros inferiores, siendo la diferencia ideal que se debe mantener de 2 centímetros. Lo anterior permite el libre paso del pie sin tener que elevar la hemipelvis ipsilateral. Esto se compara con los hallazgos reportados en la literatura. [1,2,9,10]. Rangos de movimiento de 9º en la cadera fusionada fueron aceptados como artefactos[4], producto posiblemente de la vibración de los marcadores de espinas ilíacas anterosuperiores y sacro, movimiento de tejidos blandos y columna lumbar). Se sugiere recalcular el centro de rotación de las caderas por medio de métodos alternativos (por ejemplo usando la longitud entre las espinas ilíacas antero superiores en correlación con la distancia del trocánter mayor a la espina ilíaca antero superior y longitud de los miembros inferiores [11]). Esto debido a que dada las reconfiguraciones a nivel de cadera producto de las patologías [12] y la artrodesis en sí misma, es posible que este centro de rotación este siendo estimado anterior a su posición efectiva, produciendo extensión de caderas no reales (2º-3º).
REFERENCIAS [1] Callaghan J. J et al. (1985): Hip arthrodesis. A longterm follow-up. J Bone and Joint Surg., 67-A: pp 13281335. [2] Sponseller P. D. et al. (1984): Hip arthrodesis in young patients. A long-term follow-up study. J Bone and Joint Surg., 66-A: pp 853-859. [3] Barnhardt T. et al. (1996): Hip fusion in young adults. Orthopedics, 19: pp 303-306. [4] Bennett D. et al (2000): Kinematic gait analysis of hip arthrodesis patients. Gait and Posture, 12, pp 74. [5] Price C. T. et al. (1980): Thompson arthrodesis of the hip in children. J Bone and Joint Surg., 62-A: pp 11181123. [6] Crosbie J. et al. (1997): Patterns of spinal motion during walking. Gait and Posture, 5: pp 6-12. [7] Apley A.G. et al. (1955): Osteotomy as an aid to arthrodesis of the hip. J Bone and Joint Surg., 37-B: pp 185-190. [8] Perry, J. (1992): Libro Gait Analysis: Normal and Pathological Function. 1era edición, McGraw-Hill. [9] Õunpuu S. et al. (1998): Surgical Hip Fusion: Gait Kinematics and Kinetics, Gait and Posture, 7: pp 159-. [10] Karol LA. et al. (2000): Gait and function after intraarticular arthrodesis of the hip in adolescents. J Bone and Joint Surg., 82A: pp 561 – 569. [11] Davis R. B. et al. (1991): A gait analysis data collection and reduction technique. Human Movement Sci., 10: pp 575-587. [12] Tetsuji Y. et al. (2003): Dumbell-Shaped Illiopsoas Bursitis Penetrating the Pelvic Wall: A Rare Complication of Hip Arthrodesis. J Bone and Joint Surg,. 85: pp 343-345.
AGRADECIMIENTO Los autores desean expresar el reconocimiento y gratitud a la Fisioterapeuta Danírida Urbano, de la Unidad de
70
BIOMECÁNICA
PROPUESTA PRELIMINAR DE UN ÍNDICE DE CONSISTENCIA PARA PATRONES DE CINEMÁTICA DE MARCHA HUMANA R. Bravo1, A. Salazar1,2, D. M. Basso2, C. Borges1,2 1 Centro de Tecnología Asistiva - Universidad Simón Bolívar - Caracas, Venezuela Instituto de Engenharia de Sistemas e Computadores do Porto (INESC), Porto, Portugal. rbravo@usb.ve, antonio.salazar@gmail.com, dmbasso@inescporto.pt, carlamborges@gmail.com 2
RESUMEN La variabilidad entre ciclos de marcha (o consistencia) es utilizada para evaluar los patrones de análisis clínico de la marcha, usualmente en base a criterios cualitativos basados en la experiencia del especialista, o numéricos que no permiten evaluar la variabilidad durante el ciclo de marcha. En este trabajo se propone un indicador cuantitativo, el Índice de Consistencia (IC), para evaluar objetivamente la consistencia, basado en las diferencias entre máximos y mínimos sobre la cinemática de un reporte estándar en pacientes con hemiplejia espástica, y su valor promedio durante el ciclo (ICp). Es posible asociar el IC con el grado de desviación reportado por especialistas durante el ciclo de marcha y observar tendencias. Esta primera versión de IC sencilla, asocia un criterio objetivo y numérico a la variabilidad de la marcha y podría ser de utilidad clínica. Es necesario profundizar en los métodos numéricos y su análisis y considerar patrones de cinética. Palabras Clave: consistencia de marcha, cinemática de marcha, marcha humana, biomecánica de marcha.
sin embargo, aún en la normalidad, se verifican casos de moderada variabilidad entre los ciclos de marcha[1], y en algunas patologías como la parálisis cerebral subtipo hemiplejía espástica, casos de muy alta consistencia[1]. Lo que sí es resaltante es que la consistencia de la marcha está asociada[2,3] con la calidad fisiológica de la marcha, como un elemento de su caracterización o pudiendo incluso convertirse en un predictor de caídas en casos como pacientes con enfermedad de Parkinson[2]. Convencionalmente, los estudios de consistencia o variabilidad de marcha, se basan en el estudio en la secuencia de parámetros de zancadas medidos sobre el ciclo de marcha, y en base a lo mencionado en el principio, dichos estudios se centran en técnicas de análisis tanto cualitativas (observacionales y descriptivas) como cuantitativas (estadística, algebraica) sobre indicadores escalares, ya sean los parámetros espacio-temporales, o cualquier otro indicador medido sobre el patrón de marcha que resulta en una cantidad escalar[4]. Índices de correlación, promedios, etc., son ejemplos ampliamente utilizados de este tipo de indicadores. Sin embargo, si se estuviese interesado en evaluar la variabilidad en función del ciclo de marcha (del 0 al 100% del mismo) para obtener información de alguna fase o subfase en específico, y/o, se quisiera definir como parte de un reporte estándar de un análisis clínico de marcha, en donde usualmente se recogen entre 3 a 6 recorridos (pues el grueso de pacientes puede ser pediátrico o con compromiso severo) y no se dispone de un gran número de ciclos, entonces dichos indicadores no son los adecuados para utilizarse en estos casos.
INTRODUCCIÓN La marcha humana, normal o patológica se basa en ciclos que se repiten, los cuales están caracterizados y medidos desde el punto de vista del análisis clínico de la marcha por medio de cantidades escalares tales como los parámetros espacio-temporales, y por conjuntos de variables en función del tiempo tales como las mediciones cinemáticas (ángulos y rotaciones) y cinéticas (fuerzas y potencias) convenidas en la literatura para los análisis clínicos de la marca [1]. Tanto para los parámetros espaciotemporales como para la cinemática y cinética de marcha, se estila calcular indicadores escalares que ofrecen información específica sobre el patrón de marcha que se trabaje. Esto es particularmente práctico cuando se desea simplificar el estudio de la marcha humana dado que se resume en una (o varias) cantidad(es) escalares el resultado de algo tan complejo como es el caminar, sin necesidad de abordar el análisis con las técnicas que implica un gran número de variables en función del tiempo, simultáneas y con características particulares desde el punto de vista del análisis de señales. Sin embargo, esto último siempre sería necesario a la hora de obtener información profunda sobre un cierto patrón de marcha. Aunque los ciclos de marcha (o zancadas) son en esencia la repetición de una serie de tareas fisiológicas, éstos no son exactamente iguales entre sí, a esta variabilidad también se le conoce como “consistencia” de la marcha. Es esperable que la consistencia de la marcha sea mayor en sujetos normales que en pacientes con alguna patología,
71
Memorias_BIOVEN_2012
El desarrollo de un indicador de consistencia de marcha, que considere una cantidad vectorial (o sea que pueda ser graficado como una función) y que parta de un número reducido de recorridos para ser incorporado en un reporte estándar de laboratorio de marcha, que sirva como base para el estudio, comprensión y efectos de la variabilidad de la marcha durante el ciclo de marcha se hace deseable, y es precisamente el objetivo de este trabajo presentar una propuesta preliminar, sencilla, de un índice de consistencia que aborde los aspectos anteriormente mencionados. El centro de tecnología asistiva de la USB, tiene entre sus líneas el estudio de los patrones de marcha en pro de la rehabilitación, alineado con los objetivos de investigadores del Instituto de Engenharia de Sistemas e Computadores do Porto (INESC), en el estudio y aplicaciones en rehabilitación de distintas técnicas de análisis del movimiento humano. El esfuerzo conjunto entre ambas instancias conforma el marco en el cual se circunscribe este trabajo.
Adicionalmente se calcula el promedio del IC durante el ciclo de marcha (ICp) como un indicador numérico escalar (ec.2) de la consistencia para una variable de cinemática en específico (Figura 1, parte inferior). Valores bajos de IC se asociarían con “consistencia”, valores altos de IC con “inconsistencia”.
ICp =
1 n
n
∑ IC(i)
(2)
i =1
METODOLOGÍA Los datos utilizados en este estudio se obtuvieron del repositorio de registros de los pacientes atendidos por el Laboratorio de Marcha del Hospital Ortopédico Infantil, entre los años 1997 y 2007. En particular se tomó un grupo de 66 pacientes entre 3 y 15 años con diagnóstico de disfunción motora cerebral subtipo hemiplegía espástica, los cuales han sido clasificados en función a criterios reportados en la literatura[1,5] y que han sido fuente de otros estudios [5,6,7]. Los registros fueron capturados utilizando un sistema VICON 460 con 6 cámaras a 60Hz, y el reporte de marcha estándard de dicho laboratorio consiste en el registro de tres recorridos limpios para los miembros izquierdo y derecho, los cuales se procesan para obtener los registros de cinemática. En este estudio se utilizaron patrones generados con VCM (Oxford Metrics). Cada registro viene acompañado con un examen físico y video bidimensional. En base a la opinión de los expertos de dicho laboratorio se subdividió a la muestra en pacientes “consistentes”, “inconsistentes” y con “consistencia compuesta”. Cabe destacar que esta metodología es un primer abordaje para un estudio más profundo del fenómeno de la consistencia el cual seguirá siendo tratado en trabajos futuros. Para este estudio se propuso un primer índice de consistencia (IC) el cual consiste en calcular para cada punto del ciclo de marcha (ec. 1) la diferencia entre el valor mínimo y el valor máximo de las variables de cinemática (eje vertical) para los tres recorridos para cada miembro, y graficarla luego en función al ciclo de marcha (eje horizontal, 52 muestras por ciclo), véase la figura 1.
Figura 1. Cálculo del IC e ICp. Ejemplo para Dorsiplantar flexión de Tobillo. ICp = 6,16º El IC e ICp fueron calculados para los patrones de cinemática de cada unos de los pacientes de los grupos antes mencionados, para luego ser observados y analizados sus valores. Los cómputos y gráficos se obtuvieron con MS-Excel. RESULTADOS Las figuras 2 a la 7 presentan muestras representativas de los resultados de la metodología aplicados al grupo de sujetos. En ellos se ejemplifican casos de patrones consistentes (figuras 2 y 3), gráficas para patrones inconsistentes (figuras 4 y 5) y casos en los que se presenta una inconsistencia compuesta (figuras 6 y 7). Una fenómeno interesante que se desprende de la observación de las curvas de IC es que permite asociar el grado de consistencia con las distintas fases de la marcha, y observar tendencias y rangos del comportamiento de la IC, como por ejemplo que pueden haber zonas de alta consistencia, otras de baja consistencia, crecimientos o decrecimientos, comportamientos oscilatorios, etc.
IC(i) = max (recorrido1,2 ,3 ) i − min (recorrido1,2,3 ) i (1)
72
BIOMECÁNICA
Patrones consistentes: éstos están ilustrados en las figuras 2 y 3. Se caracterizan por presentar variables cuyos recorridos se superponen con poca dispersión. Las gráficas de IC tienden a no superar los 5º de valor máximo y en promedio tienen una consistencia ICp menor a 2º.
recorridos se superponen con amplia dispersión. Las gráficas de IC y los valores de ICp tienden a superar los 5º (que es el valor considerado moderado).
Figura 4. Registro Inconsistente e Índice de Consistencia - Rotación de Cadera – Interna. ICp = 6,12º Figura 2. Registro Consistente e Índice de Consistencia Valgo-Varo de Rodilla. ICp = 1,14º
Figura 5. Registro Inconsistente e Índice de Consistencia - Rotación de Cadera – Externa. ICp = 9,94º
Figura 3. Registro Consistente e Índice de Consistencia Rotación de Cadera. ICp = 1,84º
Patrones compuestos: éstos están ilustrados en las figuras 6 y 7. En estos casos, el IC a lo largo del ciclo de marcha presenta regiones en donde puede definirse un
Patrones Inconsistentes: éstos están ilustrados en las figuras 4 y 5. Se caracterizan por presentar variables cuyos
73
Memorias_BIOVEN_2012
comportamiento de la consistencia diferenciado y/o encontrar tendencias.
con un problema de control en balanceo. En ambos casos, los ICp son mayores a 5º. CONCLUSIONES Es posible asociar el IC con la variabilidad de la marcha en patrones de cinemática, y aunque hay que profundizar en rigurosidad, se encontraron rangos de ICp en donde puede categorizar la consistencia de un paciente en concordancia con la opinión de especialistas. Fue posible también evaluar el grado de desviación a lo largo del ciclo de marcha y observar tendencias, las cuales merecen estudios y análisis profundos e independientes para establecer la correlación entre ellas y la fisiología detrás del patrón de IC. Esta primera versión de IC es sencilla, pero objetiva, y promete, con metodologías más elaboradas obtener mejores criterios numéricos para la caracterización de la variabilidad de la marcha. Futuros estudios podrían considerar los patrones de cinética, así como también el estudio de la interacción entre planos, niveles y miembros (ipsilateral vs. contralateral) así como su utilidad clínica en la caracterización del patrón normal y de patologías.
Figura 6. Registro de Consistencia Compuesta e Índice de Consistencia – Balanceo Pélvico. ICp = 7,06º
AGRADECIMIENTO Los autores desean expresar el reconocimiento y gratitud a los especialistas e institución: Marcel Rupcich, Cirujano Ortopedista y a la Fisioterapeuta Danírida Urbano, ambos de la Unidad de Laboratorio de Marcha del Hospital Ortopédico Infantil por la importante colaboración prestada en términos de opinión experta e interpretación de registros, y gentileza en el aporte de los datos. REFERENCIAS [1] Gage J. (1991): Gait Analysis in Cerebral Palsy, 1era. Edición, Editorial Mac keith Press. [2] Hausdorff J. et al (2005): Gait variability: methods, modeling and meaning, J NeuroEng and Rehab, 2:19. [3] Brach JS. et al (2008): The reliability and validity of measures of gait variability in community-dwelling older adults, Arch Phys Med Rehabil, 89:pp 2293-6 [4] Ríos A. (2007): Una primera aproximación a la evaluación de alineación de prótesis de amputación transtibial basado en cinemática y cinética de marcha, Trabajo especial de grado de Maestría, USB, Venezuela. [5] Rupcich M. et al (2008): Patrones del movimiento pélvico en pacientes con hemiplejía espástica, Arch Venez Pueric Pediatr, 71 (2): pp 48 – 52. [6] Bravo R. et al. (2006): Spastic Hemiplegia Gait Characterization using Support Vector Machines: Contralateral Lower Limb. Revista de la Facultad de Ing. de la Universidad Central de Venezuela, 21:pp 111 – 119. [7] Viloria N. (2003): Indicadores basados en ondículas aplicados a patrones de emgd en hemiplegía, Trabajo especial de grado de Maestría, USB, Venezuela.
Figura 7. Registro de Consistencia Compuesta e Índice de Consistencia – Aducción-Abducción de Cadera. ICp = 5,39º En la figura 6, se observa que el balanceo pélvico para este paciente tiende a volverse inconsistente desde aproximadamente el 40% hasta un 85% del ciclo de marcha. En la figura 7, es alrededor del 50% en donde se observa una tendencia de crecimiento lineal, alcanzando su máximo al final del ciclo, pudiendo asociarse por ejemplo,
74
BIOMECÁNICA
DISEÑO, CONSTRUCCIÓN Y CONTROL DE UN EXOESQUELETO ORIENTADO A LA REHABILITACIÓN DEL DEDO ÍNDICE DE LA MANO. Fannia Pacheco, Mariela Cerrada Dpto. de Sistemas de Control. Facultad de Ingeniería. Universidad de Los Andes Mérida Venezuela e-mail: fannikaro@gmail.com,cerradam@ula.ve
RESUMEN En el presente trabajo se expone el diseño, construcción y control de un exoesqueleto para el dedo índice. Un exoesqueleto mecánico o exoesqueleto robot es un armazón metálico externo que ayuda a mover a su portador y a realizar cierto tipo de actividades, como lo es el cargar peso o para la rehabilitación de lesiones. Se presenta el diseño del dispositivo y se controla el ángulo de desplazamiento de falange proximal del dedo índice usando un motor paso a paso como actuador en el primer eslabón del exoesqueleto. El resultado es un sistema de rehabilitación asistida por robot, implementado usando una herramienta de software y un microcontrolador que permite la comunicación entre el terapista ocupacional y el sistema de control. Los movimientos controlados tienen el propósito de emular el movimiento de pinza y realizar ejercicios según la capacidad del paciente para la rehabilitación de lesiones en el dedo índice. Palabras claves: Exoesqueleto robótico, terapia ocupacional, sistemas de control, ingeniería biomédica.
dedos y permitir recobrar movimientos esenciales del paciente.
INTRODUCCIÓN La tendencia en la rehabilitación hoy en día es la construcción de mecanismos protésicos y ortésicos que aceleren el proceso de recuperación en los pacientes. La mano es una de las extremidades ampliamente sujeta a rehabilitación, por su importancia al permitir un mayor desarrollo de las actividades mecánicas finas de los humanos. Existen en la literatura diferentes propuestas de construcción y control de exoesqueletos robóticos para la mano, destinados a rehabilitación y asistencia motora debido al importante rol que esta parte del cuerpo juega en la realización de actividades diarias. En el estudio presentado por Brown [1], se describe el diseño e implementación de un dispositivo en forma de guante para asistir los movimientos de personas que han perdido control de los músculos de la mano y dedos. Un exoesqueleto destinado a la rehabilitación de la mano es el presentado por Wege [2], el dispositivo es capaz de intervenir en cuatro grados de libertad (GdL) de los dedos por medio de actuadores eléctricos y con cables de transmisión. Específicamente en este trabajo se propone el diseño, construcción y control de un exoesqueleto robótico para el dedo índice con dos GdL, con el fin de implementar un patrón de rehabilitación según las especificaciones provenientes de la Sala de Terapia Ocupacional del Instituto Autónomo Hospital Universitario de los Andes (IHULA), como apoyo en la recuperación de lesión de
METODOLOGÍA Este trabajo se desarrolló siguiendo la siguiente metodología, toda ella enmarcada en el esquema clásico de un sistema de control: 1. Diseño del sistema mecánico que reproduzca el movimiento de pinza del dedo índice con dos grados de libertad. 2. Modelado de la dinámica aproximada del sistema de un eslabón y dos eslabones. 3. Análisis del motor paso a paso elegido como actuador del sistema de control, 4. Simulación y validación en tiempo real del sistema controlado, que implementa un patrón de rehabilitación específica. 5. Implantación del sistema de control y validación de su funcionamiento en tiempo real. ESQUEMA DEL SISTEMA DE CONTROL Para realizar control sobre un proceso existen diferentes elementos que interactúan entre sí para lograr este objetivo, así como también diferentes esquemas del
75
Memorias_BIOVEN_2012
sistema controlado, por ello se debe definir previamente la estructura que se va a utilizar. El esquema de implantación utilizado se muestra en la figura 1, en el cual la Interfaz Hombre Maquina (HMI) será desarrollado en Visual Studio 2010 y la lógica de control es programada en un microcontrolador Arduino Uno. La comunicación del HMI con el microcontrolador es a través del puerto serial. La señal enviada al puerto es tomada por el microcontrolador, que enviará la secuencia de activación de los interruptores del circuito de potencia acoplado al motor paso a paso, permitiendo la correcta energización de sus bobinas para permitir el movimiento de su eje, Seguidamente el exoesqueleto es actuado y un sensor mide el desplazamiento angular del eslabón para enviarlo a una entrada analógica del microcontolador. Finalmente es emitida al puerto serial para que el HMI decida la nueva instrucción a realizar.
es fijado en el eje de rotación del eslabón de exoesqueleto y permitirá establecer una relación lineal entre el desplazamiento angular y el voltaje V de salida a través de la resistencia variable. La ecuación algebraica obtenida por la aproximación lineal se muestra en la ecuación 1.
(a) (b) Figura 2. (a)Prototipo diseñado del exoesqueleto robótico (b) Prototipo del exoesqueleto robótico de dos eslabones construido ANALISIS DEL MOTOR Los motores paso a paso (PAP) son ideales para la construcción de mecanismos que requieren una alta precisión en sus movimientos. Por tal razón para la actuación en el exoesqueleto del dedo índice, se va utilizar un motor paso a paso unipolar. El modelo dinámico de cualquier motor se divide en dos partes, la parte mecánica y la parte eléctrica. La dinámica mecánica viene dada por las leyes de Newton relacionando el torque con la aceleración. La parte eléctrica es gobernada por las leyes de Kirchoff y se pueden derivar haciendo un circuito equivalente [3]. El modelo genérico del motor paso a paso unipolar viene dado por las ecuaciones (2)-(6):
Figura 1. Esquema del sistema de control A continuación, se presentan los elementos que componen el esquema del sistema de control. DISEÑO MECÁNICO DEL EXOESQUELETO ROBÓTICO El exoesqueleto robótico debe permitir la interacción o acoplamiento con el dedo a rehabilitar, dicha interacción no debe afectar a la persona que lo está utilizando y debe permitir la aplicación de diferentes patrones de rehabilitación. Mediante el uso de la herramienta Autodesk Inventor, se diseño pieza por pieza los elementos que conforman el exoesqueleto robótico. En la figura 2(a) se muestran el diseño y el la figura 2(b) el prototipo construido.
donde es el desplazamiento angular del eje del motor, es su velocidad angular, ia e ib son las corrientes que pasan por las bobinas del motor, Va y Vb son los voltajes de alimentación, p es el número de polos del motor y Tm es el torque generado. Realizando simulaciones para algunos valores típicos de sus parámetros, se pueden observar, en la figura 3, el comportamiento del desplazamiento angular del eje del motor, el cual es aproximadamente 5.6º por paso. Los
DISEÑO DEL SENSOR Es necesario medir el desplazamiento angular de la falange proximal del dedo índice para su posterior control. Un sensor adecuado es un potenciómetro rotacional, el cual
76
BIOMECÁNICA
detalles sobre el modelo de este motor pueden revisarse en [4].
La dirección de giro del motor paso a paso, es dada mediante la activación de fases. Dicha secuencia de activación de las fases del motor se asocia a un estado del conjunto de interruptores, del circuito de potencia del motor (abierto o cerrado), los cuales se pueden describir como un Sistema a Eventos Discretos (SED). Cada estado del SED se corresponde a una situación particular de los interruptores (abierto, cerrado), que determinan el flujo de corriente a través de las bobinas del motor. Para conceptualizar la lógica de control que determina la secuencia de activación de fases, se propone el análisis del SED por medio de autómatas. Con la descripción del sistema como un SED y el diseño del supervisor, se proporciona gran información del comportamiento del sistema y sirven para comprender el control implementado.
Figura 3. Desplazamiento angular del eje del motor ANALISIS DEL EXOESQUELETO DE UN ESLABON Se va a considerar que el exoesqueleto robótico con el dedo índice conforma una barra rígida que a simple vista es análogo a un péndulo simple, despreciado en este primer análisis el movimiento del segundo grado de libertad. El torque aplicado a la barra rígida en el punto de rotación, es considerado la entrada que va a permitir mover la articulación metacarpiana del dedo índice. Considere el péndulo de un eslabón mostrado en la figura 4. Usando la ecuación de la 2da. Ley de Newton para el movimiento rotacional, se modela el péndulo de un eslabón como se muestra en la ecuación (8)
DISEÑO DE LA INTERFAZ GRÁFICA Debido a que el dispositivo robótico debe seguir un patrón de rehabilitación definido por el terapista ocupacional, es preciso que la interfaz gráfica permita tanto fijar los parámetros del patrón de movimiento como visualizar la ejecución de la terapia. Con la información recopilada, se plantea un área de trabajo para el terapista ocupacional, se necesita que el usuario introduzca una serie de datos para el inicio de la terapia. Así como también, mostrar la evolución del desplazamiento angular en tiempo real y por ultimo información acerca del dispositivo (véase la figura 5).
donde q1 es el desplazamiento angular del eslabón, J es el momento de inercia de la barra respecto al punto de rotación, m es la masa, l es la distancia del centro de masa al punto de rotación y b es el coeficiente de fricción mecánica.
Figura 5. Interfaz gráfica para el uso de exoesqueleto robótico Figura 4. Péndulo simple análogo al primer eslabón del exoesqueleto
RESULTADOS El resultado obtenido fue el prototipo de un sistema de rehabilitación asistida por robot, que permite implementar un patrón de rehabilitación sencillo, definido por el terapista ocupacional. La validación del funcionamiento del sistema se evidencia en la comparación entre las simulaciones del conjunto motor-exoesqueleto, y su comportamiento en tiempo real. Como se muestra en la figura 6, se puede observar que ambas gráficas se ajustan al inicio del movimiento, a medida que va pasado el tiempo se va observando un ligero error, que puede atribuirse al
DISEÑO DE LA LOGICA DE CONTROL El motor consta de dos bobinas con dos interruptores cada una. La corriente que fluye a través de una bobina produce un campo magnético que atrae un rotor de imán permanente, que está conectado al eje del motor. El principio básico de control es invertir la dirección de la corriente a través de las 2 bobinas, en secuencia, con el fin de mover el rotor.
77
Memorias_BIOVEN_2012
efecto de la gravedad sobre el eslabón, sin embargo la aproximación del modelo es adecuada. Al efectuar la medición del desplazamiento angular del exoesqueleto con el dedo índice acoplado, se obtiene el comportamiento dado en la figura 7. Para que el modelo se ajuste a los datos reales, la suposición efectuada es que el dedo le esta añadiendo mas fricción al movimiento del exoesqueleto, se modificó el modelo dinámico cambiando el coeficiente de fricción b.
Figura 9. Desplazamiento angular del primer eslabón con el torque adicional CONCLUSIONES La principal contribución de este trabajo fue el diseño e implementación de un sistema de rehabilitación asistida por robot, que permite aplicar un patrón de rehabilitación sencillo para ayudar en el movimiento de pinza del dedo índice. A partir de la interfaz gráfica, el exoesqueleto implementado de un eslabón permite realizar terapias de manera automática definidas por el usuario. Este trabajo se puede ampliar al control de dos GdL para la aplicación de terapias más complejas. Al integrar el dedo índice al exoesqueleto, los resultados obtenidos al realizar comparaciones entre los datos reales y simulados fueron satisfactorios. Es importante señalar, que este estudio se probó con varias personas, donde el valor del parámetro b cambia, debido a la incertidumbre del movimiento del dedo índice de cada mano. Finalmente este proyecto permitirá abrir nuevos campos de investigación en biomédica, promoviendo este tipo de trabajos, de manera que a futuro se cuenten con estos dispositivos en cualquier sala de terapia ocupacional.
Figura 6. Desplazamiento angular de un solo eslabón
Figura 7. Desplazamiento angular del motor con la planta y el dedo índice integrado Para adicionar el comportamiento del segundo eslabón integrado al exoesqueleto en el modelo dinámico. Se fija el segundo eslabón a cierto ángulo y se considera como una masa concentrada que genera un torque adicional al primer eslabón (véase la figura 8).
AGRADECIMIENTO Al CDCHTA-ULA, por el financiamiento otorgado a este trabajo, a través del proyecto I-1333-12-02-F. REFERENCIAS [1] Brown P., Jones D. and Singh S. (1993). The exoskeleton glove for control of paralyzed hands. Proceedings of the IEEE International. Conference on Robotics and Automation. Vol.1, pp. 642-647. [2] Wege A. y Hommel G. (2005). Development and control of a hand exoskeleton for rehabilitation of hand injuries. Proceedings of the IEEE. Conference on Intelligent Robots and Systems. pp. 3046-3051. [3]Kuo B. (1996). Sistemas de Control Automático. Séptima Edición. Prentice Hall, Hispanoamericana. S.A. [4] Badinez R. (2007): Diseño y Simulación de un Instrumento para la Estimación de Torque de un Motor Paso a Paso, Trabajo especial de grado de Pregrado. Universidad de Chile, Santiago de Chile.
Figura 8. Péndulo doble, segundo eslabón como una masa concentrada en el extremo del primer eslabón En la figura 9 se evidencia que el segundo eslabón previamente fijado en un ángulo, no afecta el comportamiento en estado estacionario de la primera articulación. Se pueden encontrar variaciones en el estado transitorio por cada paso realizado por el motor, donde influyen varios factores como la gravedad y la dinámica del segundo eslabón que se está simplificando a un torque aplicado al primer eslabón.
78
PROCESAMIENTO DE SEÑALES:
El procesamiento digital de señales es un campo que tiene sus raíces en la matemática de los siglos XVII y XVIII, convirtiéndose en los últimos años en una herramienta esencial en una gran variedad de campos de la ciencia y la tecnología. El procesamiento digital de señales está relacionado con la presentación de señales como una secuencia de números o símbolos y el posterior tratamiento de estas secuencias. El propósito de este tratamiento puede estar dirigido a la extracción de características de la señal o a la transformación de la misma a una representación más adecuada para un propósito específico. Las principales áreas de aplicación se encuentra en el procesamiento de voz, radar, sonar, telefonía, medicina y, en general, en todo proceso de comunicación, donde se transmita datos para luego ser recibidos y transformados en información. En el área de bioingeniería, su aplicación ha recaído principalmente en algoritmos para la implantación de filtros digitales y reconocimiento de patrones. En Venezuela, existe una marcada tendencia hacia esta área en los grupos de investigación, gracias a la amplia disponibilidad de equipos de computación, lo cuales constituyen en muchos casos herramienta fundamental para el desarrollo de sistemas de procesamiento digital de señales. Los artículos que se presentan a continuación ilustran algunos de los trabajos que se realizan actualmente en este campo.
79
PROCESAMIENTO DE SEÑALES
ANÁLISIS DE LA VARIABILIDAD DEL RITMO CARDÍACO Y RESIDUO DE LA ONDA T EN PACIENTES CHAGÁSICOS Jhosmary Cuadros1 , Rubén Medina2 , Antonio Bravo1 , Tulio Nuñez3 1
Grupo de Bioingeniería, Universidad Nacional Experimental del Táchira, Táchira, Venezuela Centro de Ingeniería Biomédica y Telemedicina, Universidad de los Andes, Mérida, Venezuela 3 Instituto Autónomo Hospital Universitario de los Andes, Centro Cardiovascular, Mérida, Venezuela 2
jcuadros@unet.edu.ve, rmedina@ula.ve, abravo@unet.edu.ve, tulio@ula.ve
Resumen El presente trabajo reporta el desarrollo de una herramienta para el análisis de la variabilidad de la frecuencia cardíaca y el residuo de la onda T en pacientes chagásicos. El software realiza preprocesamiento de los datos así como la segmentación de la señal electrocardiográfica. Para determinar el punto Q y el final de la onda T se utilizan Máquinas de Soporte Vectorial de mínimos cuadrados (LSSVM), entrenadas en base a atributos extraídos de la señal preprocesada y de señales obtenidas mediante descomposiciones en Ondículas (Wavelets). La señal ECG es segmentada para determinar la onda T la cual es analizada utilizando la técnica de Análisis de Componentes Principales (PCA). La efectividad de este tipo de análisis en el reconocimiento de pacientes chagásicos es estudiada al procesar un grupo de 20 pacientes chagásicos y 20 sujetos de control. Los resultados muestran diferencias estadísticamente significativas entre ambos grupos. Palabras Clave: Señal Electrocardiográfica, Variabilidad Frecuencia Cardíaca, Morfología de la onda T, Máquinas de Soporte Vectorial.
1.
Introducción
empleando Máquinas de Soporte Vectorial de mínimos cuadrados (LSSVM) [2]. Se hipotetiza que la VFC y la morfología de la onda T se modificarán si el paciente padece de la enfermedad del Chagas, tal como se observó en los resultados obtenidos en [3]. Una validación preliminar se realiza comparando un grupo de pacientes chagásicos con respecto a un grupo de control.
El mal de Chagas es una enfermedad infecciosa causada por el parásito Tripanosoma cruzi. Se caracteriza por alteraciones en el sistema cardiovascular. Una de las alteraciones en el registro electrocardiográfico (ECG) en presencia de la enfermedad del Chagas es la variación anormal de la duración total de la fase de despolarización como la de repolarización ventricular [1]. Tal situación motiva el análisis de las señales de ECG con el objetivo de mejorar el diagnóstico, hacer seguimiento y tratamiento en pacientes que padecen la enfermedad. Se propone una herramienta para el análisis de la variabilidad de la frecuencia cardíaca (VFC) y la morfología de la onda T a través del análisis de componentes principales (PCA). La segmentación de la señal ECG se realiza
2.
Definiciones Preliminares
Variabilidad de la Frecuencia Cardíaca (VFC): La VFC se define como la variación que ocurre en el intervalo de tiempo, entre latidos cardíacos consecutivos [4] denominados intervalos RR. Para evaluar la VFC se analiza el tacograma (serie RR normales) en el domi80
Memorias_BIOVEN_2012
nes correspondiente a un electrocardiograma estándar. Máquinas de Soporte Vectorial de Mínimos Cuadrados: Las máquinas de soporte vectorial (SVM) son una técnica de clasificación, basadas en la Teoría de Aprendizaje Estadístico [2]. Esta teoría toma como base matemática la dimensión de Vapnik-Chervonenkis y la existencia de un hiperplano medio que sea capaz de establecer una frontera que maximice un margen de separación entre las clases. Las máquinas de soporte vectorial de mínimos cuadrados (LSSVM), son una variante de las SVM que resuelven ecuaciones lineales en lugar de un problema de programación cuadrática [8], y son más eficaces que las SVM clásicas.
nio del tiempo y en el dominio de la frecuencia (usando FFT, Fast Fourier Transform). A continuación se describen las medidas más utilizadas [5]: promedio de los intervalos RR normales (N N (ms)), frecuencia cardíaca (FC(latidos/minuto)), desviación estándar de los RR normales (SDNN (ms)), porcentaje de intervalos consecutivos NN que superan los 50 ms (pNN50 ( %)), desviación estándar de las diferencias absolutas sucesivas de los intervalos NN (rMSSD ó SDSD (ms)), índice de triangulación a partir del histograma de densidad de los intervalos NN (TI (sin unidad)), anchura de la base del triángulo resultante de realizar la interpolación triangular del histograma de intervalos NN de manera que el vértice coincida con el valor máximo del histograma (TINN (ms)). A partir del espectro de frecuencias del tacograma se estiman: banda de ultra baja frecuencia ULF (ms2 ) (f < 0,0033 Hz), banda de muy baja frecuencia VLF (ms2 ) (f < 0,04 Hz), banda de baja frecuencia LF (ms2 ) (frecuencias entre 0,04 Hz y 0,15 Hz), banda de alta frecuencia HF (ms2 ) ( 0,15 < f < 0,4 Hz), TP (ms2 ): corresponde a todas las bandas VLF, LF y HF, mientras que LF/HF (sin unidad) es el cociente baja/alta frecuencia, adicionalmente pico VLF (Hz) es la frecuencia para maxima potencia en el rango VLF, pico LF (Hz) es la frecuencia para maxima potencia en el rango LF y pico HF (Hz) es la frecuencia para maxima potencia en el rango HF. Residuo de la onda T: El residuo de la onda T (TWR, T-wave residuum) estima la energía relativa de las componentes no dipolares respecto de la energía total. Para ello, se segmenta la onda T de las 8 derivaciones independientes del ECG y se aplica la técnica Análisis de Componentes Principales (PCA) [6]. Las tres primeras componentes representan la componente dipolar (cD) del vector cardíaco. Estas componentes expresan cambios en la orientación y módulo del vector eléctrico cardíaco en 3D a lo largo del tiempo. El resto de componentes son las componentes no dipolares (cND) y son debidas a heterogeneidades regionales del miocardio o a ruido inmerso en el sistema de adquisición. Estos cambios se expresan con el índice TWR (Residuo de la Onda T) [7], el cual es el cociente entre la potencia de las cND y la potencia total (ecuación 1): ∑8 σi2 (1) TW R = ∑i=4 8 2 i=1 σi
3. 3.1.
Metodología Protocolo Utilizado
El protocolo incluyó un total de 20 pacientes chagásicos con igual número de sujetos control con edad promedio de 44 años. Fueron excluidos del estudio aquellos individuos con enfermedades cardiovasculares, insuficiencia renal, enfermedad broncopulmonar, diabetes ó hipertensión. Se les realizó un registro ECG de alta resolución de 12 derivaciones mediante un electrocardiógrafo digital (con una duración entre 6 y 10 min., con el paciente en reposo y con respiración controlada, 15 respiraciones por minuto, a una tasa de muestreo de 1000 Hz, con una resolución de 12 bits por muestra).
3.2.
El Software
El software realiza preprocesamiento de la señal en base a la metodología propuesta por [9]. Básicamente consiste primero en la aplicación de un filtro promediador (promedio móvil) de cinco muestras, con el propósito de eliminar parte del ruido de la red eléctrica evitando modificar en gran medida la amplitud de la onda R. Luego se aplica un filtro pasa alto recursivo con el propósito de atenuar el corrimiento de la línea de base. Dicho filtro se aplica primero hacia adelante y luego de adelante hacia atrás para minimizar la distorsión de fase. Por último se aplica un filtro FIR con una longitud de 31 ms para atenuar el ruido electromiográfico. La detección de complejos QRS se realiza en base a la metodología empleada en [10]. Una vez detectado el pico R, se deterdonde σi representan los autovalores ordenados en for- mina el intervalo RR como la distancia entre dos picos ma decreciente del ECG, para un registro de 8 derivacio- R consecutivos. Luego para corregir los posibles errores 81
PROCESAMIENTO DE SEÑALES
que evalúan la variabilidad de la frecuencia cardíaca y el residuo de la onda T (TWR). Se utilizó el análisis de varianza de un factor para determinar cambios estadísticamente significativos (p<0.05 y F>1) entre el grupo de pacientes chagásicos y el grupo de control. El cuadro 1 muestra la media, desviación estándar y valor de p entre chagásicos y sujetos de control de parámetros (Par) que evalúan la VFC. Se puede observar que en presencia del mal de chagas se incrementa N N , SDNN, pNN50, rMSSD, TI, TINN, LF, HF, TP y pico HF mientras que la FC y pico LF aparecen disminuidos respecto al grupo de control. Adicionalmente se observa que los parámetros N N , pico LF y pico HF producen diferencias estadísticamente significativas (p<0.05) entre ambos grupos.
en la detección del pico R se establecen dos criterios de aceptación propuestos por Llamedo [11]. Posteriormente se realiza el análisis de la VFC. En la literatura no se indica un único criterio para determinar TWR, por el contrario, se puede observar en [7] y [12] que se puede estimar considerando varios latidos. En el presente trabajo, el residuo de la onda T (TWR) se determinó considerando 10, 55, 100, 250 y 300 latidos para cada derivación independientes del ECG. En cada latido se realizó la segmentación de la onda T para incluir la fase completa de repolarización ventricular. Luego para cada derivación (r = 1, ..., 8), se seleccionan y segmentan M latidos (M corresponde al número de latidos seleccionados para realizar la estimación 10, 55, 100, 250 y 300) con una longitud de N muestras, obteniendo el vector de datos que se muestra en la ecuación 2. Allí x representa el vector de latidos para cada derivación r, T denota la transpuesta del vector y L representa el número de latidos considerados para realizar la estimación. xr = [L1 , ..., LM ]T
Cuadro 1: Resultados numéricos de la VFC en los pacientes chagásicos y sujetos de control (M edia ± SD). Par. NN FC SDNN pNN50 rMSSD TI TINN VLF LF HF TP pico VLF pico LF pico HF
(2)
Luego se organiza cada uno de los ocho vectores de datos en una matriz (ver ecuación 3) para aplicar la técnica de PCA y estimar el residuo de la onda T (TWR). X = [x1
x2
x3
x4
x5
x6
x7
x8 ]
(3)
El punto Q y el final de la onda T se detecta mediante Máquinas de Soporte Vectorial de Mínimos Cuadrados (LSSVM). Para ello, se construye un clasificador LSSVM con kernel Gausiano de base radial. La selección del Kernel Gausiano se realizó de manera heurística, a través de lo cual se observa que el kernel Gausiano de base radial exhibe el mejor comportamiento en la clasificación. El entrenamiento de las LSSVM se realiza en base a: puntos de referencia seleccionados por el experto (denominados marcadores) y características extraídas de la señal y la descomposición en ondículas (Wavelet) [13]. Se ha usado una descomposición en ondículas usando la ondícula madre symlet (sym7) nivel seis. El software se desarrolló utilizando el entorno de trabajo GNU Octave.
4.
Chagásicos 843,82±211,37 75,02±17,92 58,52±46,79 23,46±26,75 54,86±58,18 10,24±2,05 275,12±181,86 0,09±0,07 0,13±0,13 0,32±0,67 0,54±0,83 0,01±0,01 0,06±0,02 0,19±0,04
Control 721,49 ± 95,17 84,57±11,92 40,24±14,65 11,14±10,76 34,12±16,46 9,32±4,67 221,52±91,46 0,09±0,08 0,12±0,20 0,12±0,14 0,34±0,32 0,01±0,01 0,10±0,03 0,18±0,03
p 0,04 0,15 0,23 0,17 0,26 0,66 0,29 0,40 0,67 0,21 0,24 0,81 0,01 0,04
El cuadro 2 reporta los resultados del parámetro TWR (M edia ± SD) para el grupo de chagásicos y sujetos de control. Allí se observa un incremento del TWR para el grupo de pacientes chagásicos (tal como se observó en [12]) en cada número de latidos considerados. Se observan diferencias estadísticamente significativas. Cuadro 2: Residuo de la onda T (TWR) (M edia ± SD). Latidos 10 55 100 250 300
Resultados
Se realizó una validación preliminar de la herramienta. Para ello, en cada uno de los pacientes chagásicos y sujetos de control, se determinaron los parámetros 82
Chagásicos 0,042±0,05 0,043±0,048 0,042±0,054 0,043±0,081 0,044±0,082
Control 0,002±0,002 0,003±0,004 0,003±0,003 0,002±0,002 0,002±0,003
p 0,010 0,003 0,01 0,04 0,04
Memorias_BIOVEN_2012
5.
Conclusiones
[4] Tortora G., Derrickson, B. (2006): Principios de Anatomía y Fisiología, Ed. Médica Panamericana, Barcelona, España. Los pacientes chagásicos presentan cambios en la repolarización cardíaca respecto al grupo de control, lo [5] Silva G. et al (2009): Critical analysis of autoregrescual podría sugerir anormalidades en el funcionamiensive and fast Fourier transform markers of cardiovascular variability in rats and humans,Braz J Med to de los canales cardíacos de sodio [12]. Estos cambios Biol Res, vol. 42, no.4, pp. 386-396. se pueden observar en el incremento de los parámetros N N , SDNN, pNN50, rMSSD, TI, TINN, LF, HF, TP y [6] Malik M. et al (2000): QT dispersion does not represent electrocardiographic interlead heterogeneity of pico HF, mientras que FC y pico LF aparecen disminuiventricular repolarization, J Cardiovasc Electrophydos, tal como se observó en los resultados obtenidos en siol, vol. 11, no. 8, pp. 835-843. [3] y [12]. De igual manera, se observa el incremento del parámetro TWR para el grupo de pacientes chagási- [7] Smetana P. et al (2004): Ventricular gradient and nondipolar repolarization components increase at cos como se observó en [12]. Adicionalmente se observa higher heart rate, Am J Physiol Heart Circ Physiol, que los parámetros N N , pico LF, pico HF y TWR provol. 286, no. 1, pp. H131-H136. ducen diferencias estadísticamente significativas. [8] Suykens J. et al (2002): Least Squares Support Vector Machines, World Scientific Publishing Co., Singapore. Agradecimientos [9] Christov I. et al (2006): Fully Automated Method Los autores agradecen al CDCHT de la Universidad for QT Interval Measurement in ECG, Proceedings of Computer in Cardiology Challenge, Valencia, Esde los Andes y al Centro Nacional de Desarrollo e Inpaña, vol. 33, pp.321-324. vestigación en Tecnologías Libres (CENDITEL) por el soporte al proyecto 0007-2009. [10] Mneimneh MA. et al (2006): Integrate Technique for the determination of QT Interval, Proceedings of Computer in Cardiology Challenge, Valencia, EspaReferencias ña, vol. 33, pp. 329-332. [1] Dugarte N. et al (2007): Adquisición y procesamien- [11] Llamedo M. et al (2005): Evaluación de la correcto de la señal electrocardiográfica basado en la exción del intervalo QT durante el bloqueo del sistema tracción de potenciales intra-qrs e índices de varianervioso autónomo y cambios posturales, Proceebilidad del intervalo qt, in: Proceedings of IV Ladings del XV Congreso Argentino de Bioingeniería tin American Congress on Biomedical Engineering (SABI2005), Parana, Argentina, nro. 071PS. 2007, Bioengineering Solutions for Latin America Health CLAIB2007, Vol. 18, Margarita, Venezuela, [12] Jugo D. et al (2008): Parámetros que mejor identipp. 198-201. fican la presencia de miocardiopatía chagásica a partir del electrocardiograma superficial, CLAIB2007, [2] Vapnik V.: The Nature of Statistical Learning IFMBE Proceedings, Margarita, Venezuela, vol.18, Theory, Ed. Springer Verlag, New York, USA, 1995. pp. 1163-1167. [3] Pueyo E. et al (2006): Pendientes del QRS para la evaluación del daño miocárdico en pacientes chagá- [13] Mallat S. (1989): A theory for multiresolution signal decomposition: the wavelet representation, IEEE sicos crónicos, Memorias del XVI Congreso de la Pattern Analysis and Machine Intell, vol. 11, no. 7, Sociedad Argentina de Bioingeniería, San Juan, Arpp. 674-693. gentina, pp. 543-546.
83
PROCESAMIENTO DE SEÑALES
BÚSQUEDA DE INDICADORES DE ENFERMEDADES CARDIOVASCULARES MEDIANTE EL PROCESAMIENTO DE LA SEÑAL ECGAR Nelson Dugarte Jerez1,2, Rubén Medina Molina1, Rubén Rojas Sulbarán1, Edinson Dugarte Dugarte1, Antonio Álvarez Abril2, Alexander Olivares3 1
Centro de Ingeniería Biomédica y Telemedicina (CIByTEL), Universidad de Los Andes (ULA), Venezuela. 2 Instituto Regional de Bioingeniería (IRB), Universidad Tecnológica Nacional (UTN), Argentina. 3 Centro de Tecnologías Libres (CENDITEL), Venezuela. e-mail: ndj0227@gmail.com
RESUMEN Las enfermedades cardiovasculares representan una de las principales causas de muerte en Latinoamérica y en el Mundo. En un intento por mitigar este flagelo, se desarrolla un sistema que permita el estudio y seguimiento de enfermedades cardiovasculares por medio del procesamiento de la señal electrocardiográfica digitalizada. Lo novedoso de este procesamiento es el desarrollo de técnicas aplicadas a la señal electrocardiográfica de alta resolución (ECGAR). Dicha señal es digitalizada a 2000 muestras por segundo con una resolución de 12 bits por muestra. El procesamiento desarrollado permite: la corrección de la línea de base sin alterar la señal original, la detección precisa de los complejos QRS, la detección del final de la onda T, la obtención de los histogramas de las mediciones de los segmentos QT y ST, y la atenuación de ruido por medio de promediación de latidos utilizando la técnica de correlación. El promedio de error en los resultados obtenidos es del 2 %. Palabras Clave: Procesamiento Matemático, Señal electrocardiográfica de alta resolución, Detección de complejos QRS.
Con el procesamiento matemático es posible detectar pequeños cambios de tiempo, amplitud y de frecuencia, que se presentan en los registros ECG adquiridos [4] [5]. Algunos autores han evaluado técnicas de procesamiento con lo cual se ha logrado la detección y medición de algunos de estos parámetros. Con procesamientos como los de Pan y Tompkins en detección del complejo QRS [6], los de Papaloukas et al. en la medición del ST [7] o los de Christov y Simova en la medición del intervalo QT [8], se ha logrado una buena aproximación en la detección y medición de los distintos componentes, pero aun persisten dificultades que difieren en la evaluación de los criterios utilizados [9]. La electrocardiografía convencional se realiza en un rango de 0,05 a 150 Hz, pero algunas enfermedades se manifiestan en las componentes de frecuencias elevadas del ECG, en el rango de 150 a 250 Hz [10]. Para esto se realiza la adquisición del ECG de alta resolución o ECGAR [11]. El análisis de la señal ECGAR, entre otras cosas, se utiliza en la detección de potenciales tardíos [12] y la obtención de los potenciales intra-QRS anormales (AIQP). Los potenciales tardíos se presentan al final del complejo QRS y los potenciales AIQP pueden ocurrir en cualquier instante dentro del intervalo QRS. Surgen en las regiones infartadas del miocardio y son marcadores de un sustrato de reentrada [13].
INTRODUCCIÓN Las enfermedades cardiovasculares constituyen una de las principales causas de muerte [1]. El corazón, es el órgano que impulsa la sangre a moverse. La señal de biopotencial que activa la contracción del corazón se desplaza por el miocardio en una secuencia sincronizada que optimiza el trabajo cardiaco. Las señales eléctricas que se miden en la superficie del cuerpo, son la sumatoria de las señales que se generan en el corazón y por lo tanto, reflejan el funcionamiento mecánico del mismo [2]. Al registro adquirido de estas señales se le conoce como electrocardiograma o ECG, donde cada latido del corazón refleja una señal compleja identificada, de manera estándar, por las letras P-QRS-T [3] Estudios recientes presentan las relaciones entre los valores de tiempo de los diferentes elementos que conforman la señal ECG y las enfermedades cardiovasculares [4]. Las relaciones entre el ST y la isquemia, los cambios del QT como respuesta a los medicamentos, o las alteraciones del QRS en función de la cardiopatía, son índices que sugieren el tratamiento o la intervención del paciente. La ubicación del complejo QRS, o la ubicación precisa del final de la onda T para la medición de los segmentos de tiempo intra-latido, presentan dificultades relativamente complejas [5].
84
Memorias_BIOVEN_2012
evalúa el tiempo RR considerando como referencia al promedio de los últimos 6 RR aceptados como verdaderos.
El análisis matemático implementado consiste en un procesamiento multietapas, que se realiza con la finalidad de: eliminar las alteraciones de la señal ECGAR, identificar los elementos que la componen y medir los intervalos que representen un valor significativo para la evaluación médica. En los algoritmos desarrollados se diseñaron algunos procesamientos novedosos que mejoran la obtención de parámetros, como la detección del final de la onda T. El software de análisis se desarrolló en Matlab bajo Windows y en Octave bajo Linux, con ajustes en las aplicaciones para que todos los algoritmos se puedan utilizar en cualquiera de las plataformas.
b) Eliminación del corrimiento de la línea de base Se logra mediante la operación diferencial entre el vector original de la señal y un vector generado que solo representa el corrimiento a eliminar. La secuencia de este procesamiento se describe en el listado del Programa 1. Programa 1: Marcar los puntos 0,03 segundos antes de cada pico R. Repita hasta final del vector Tomar 6 puntos marcados. Generar polinomio definido por los 6 puntos. Evaluar polinomio en igual número que el vector. Almacenar los valores obtenidos en un nuevo vector. Fin de repita. Obtener la diferencia entre vectores. Fin.
METODOLOGÍA Este proyecto se diseñó con la finalidad de analizar las señales adquiridas con el hardware de nombre “DIGICARDIAC” desarrollado con anterioridad [14]. El procesamiento se desarrolla en 3 etapas, detección del QRS, corrección de la línea de base y medición de los intervalos de la señal ECGAR.
Se marcan los puntos 0,03s antes de cada pico R, porque se considera que la señal allí está sobre la línea de base. Estos puntos describen la línea de base en el tiempo. Seguidamente, se establece una ventana tomando 6 puntos marcados para generar una ecuación polinómica de grado 6. Se escogió de grado 6 porque es el menor grado que describe mejor el comportamiento de la línea de base. La herramienta utilizada para generar la ecuación polinómica es la función “polyfit” en el software MatLab. La extrapolación se realiza entre los puntos intermedios 3 y 4 de los 6. Al evaluar el polinomio en igual número de muestras que las existentes en el intervalo seleccionado, se obtienen los datos del vector de corrimiento. Para la evaluación se utilizó la funcion “polyval” de MatLab. A continuación se corre la ventana en un punto marcado y se repite el procedimiento para el intervalo siguiente. Los datos recopilados entre todos los intervalos analizados conforman el vector que describe el comportamiento de la línea de base en toda la señal analizada. La Figura 2, muestra un fragmento de 10s de la señal original, donde se presentan algunos de los cambios mas pronunciados en la línea de base. La señal graficada superpuesta con la señal original, representa el corrimiento de línea de base de la misma.
a) Detección del QRS La detección del QRS se realiza por medio de un algoritmo similar al de Pan y Tomkin [6]. El procesamiento se inicia con el filtrado paso bajo a una frecuencia de corte (fc) de 35Hz para eliminar señales de interferencia. La señal filtrada se deriva para magnificar los cambios de amplitud. Con la aplicación de la ecuación 1 se obtiene una aproximación a la derivada de la señal, donde “X” representa el vector de entrada y “Y” es la señal derivada.
Y(n)=2*X(n)+X(n-1)-X(n-3)-2*X(n-4)
(1)
Luego se eleva al cuadrado y se promedia la señal derivada. El promedio se realiza sobre una ventana de 30 muestras que se desplaza sobre todo el vector. Este cálculo se realiza para identificar un solo pico por latido. Seguidamente se ubican todos los posibles picos R y se aplica un criterio de evaluación para verificar si pertenece a un QRS o si se trata de un pico de ruido o de un latido ectópico. El primer criterio de evaluación se establece por comparaciones en un rango de amplitud definido por un umbral adaptativo. El umbral adaptativo se obtiene al promediar la amplitud de los últimos 6 picos R aceptados como verdaderos. La discriminación por amplitud se realiza considerando que un pico R es verdadero si su amplitud esta contenida en un rango de ±15% de la amplitud del umbral adaptativo. El segundo criterio de evaluación se establece en función del tiempo. Este se basa en que el tiempo de los intervalos RR no puede cambiar en mas de un 30% entre un latido y el siguiente. Considerando este criterio, se
Figura 2. Fracción de 10s de la señal adquirida con el vector que representa el corrimiento de línea de base.
85
PROCESAMIENTO DE SEÑALES
La operación de substracción entre el vector original y el obtenido elimina el corrimiento sin alterar ninguno de los valores de amplitud de la señal original. La Figura 3, muestra el mismo intervalo de 10s de adquisición con la señal original y con la señal corregida.
Figura 4. Método del trapecio para detectar final de T. El final de la onda T está definido por la máxima extensión geométrica que se genera donde la curva de la señal es mas pronunciada. El problema con este método se presenta con ondas T irregulares, Figura 5.
Figura 3. Fracción de 10s de la señal adquirida. Original en la parte superior y corregida en la inferior.
Figura 5. Dos ejemplos de tipos de ondas T irregulares.
c)
Medición de los intervalos QT y ST Los puntos Q y S son relativamente fáciles de detectar porque forman parte del complejo QRS, la dificultad se presenta con la detección del final de la onda T [15]. En este artículo se presenta una técnica novedosa para la detección del final de la onda T. El algoritmo implementado se describe en el listado del Programa 2. Consiste en la implementación de la técnica de evaluación por área de trapecio [16] aplicada después de un preprocesamiento que aísla la onda T en un pulso único.
El pre-procesamiento descrito en el Programa 2, permite solventar el problema con las formas de onda T complejas o invertidas. Se inicia captando solo las ondas T, remplazando el resto del latido con una línea recta que va de un intervalo al siguiente. La señal obtenida se filtra paso bajo y luego se deriva aplicando la ecuación en diferencias mostrada en la ecuación (1). La señal obtenida se eleva al cuadrado para que todos los picos se hagan positivos y por último se somete a un filtro promediador, con características similares al utilizado en la detección del QRS, para que solo se tenga un pulso limpio con forma tendiente a rectangular por cada onda T en la señal procesada. El punto preciso del final de cada pulso en la señal obtenida es encontrado aplicando el método de los trapecios. Por último se superponen los marcadores encontrados a la señal original. La Figura 6, muestra los marcadores señalando el final de la onda T.
Programa 2: Marcar los puntos 0,1s después de R como I (inicio). Marcar los puntos 0,4s después de R como F (final). Repita hasta final del vector Tomar F del latido anterior y el I del actual. Generar la ecuación de la recta entre F e I Evaluar la ecuación recta en el número de muestras. Almacenar los valores obtenidos en un nuevo vector. Completar intervalo con valores del vector original Fin de repita. Filtrar paso bajo (corte 35 Hz) para eliminar ruido. Derivar el vector obtenido. Elevar al cuadrado. Aplicar promediador para eliminar picos múltiples. Evaluar en busca del máximo del área del trapecio. Transpolar los puntos encontrados a la señal original. Fin.
La técnica de detección del final de la onda T por el máximo del área del trapecio consiste en ubicar un área trapezoidal sobre el codo que señala el final de la onda T, Figura 4. Para esto se fijan 3 de los 4 puntos que conforman las esquinas del trapecio y se calcula el área del mismo desplazando el cuarto punto “Te”, sobre el codo de la curva.
Fig. 6. Fragmento de 3,5 segundos de señal con los marcadores que señalan el final de la onda T.
86
Memorias_BIOVEN_2012
registro con 300 QRS. Lo que hace pensar en la implementación de este software en tiempo real.
Cabe destacar, que no importa la morfología de la onda T, sea compleja o invertida, el pre-procesamiento siempre genera una onda con terminación angular que facilita captación del final de la onda T. La detección precisa del final de T permite una medición confiable de los segmentos QT y ST. Los valores medidos de estos intervalos son ajustados mediante las ecuaciones de corrección que permiten obtener una medida significativa con referencia al ritmo cardiaco. Para esto se han desarrollado muchas ecuaciones de corrección [17], pero la más utilizada actualmente es la de Bazett, mostrada en la ecuación (2) QTc = QT / (RR)0,5
AGRADECIMIENTO Se agradece al Instituto Regional de Bioingeniería (IRB) de la Universidad Tecnológica Nacional (UTN) de Argentina. También se agradece a las instituciones que con su financiamiento hacen que este proyecto sea factible, como son CENDITEL y el CDCHT.
(2)
REFERENCIAS [1]
RESULTADOS [2]
Los resultados preliminares en el procesamiento desarrollado han demostrado su eficiencia en la detección y medición de los diferentes componentes de la señal electrocardiográfica. Las pruebas de funcionamiento se realizaron sobre registros de la base de datos marcada y con certificación internacional de Physionet. La promediación de los resultados obtenidos en la estimación del intervalo QT se presenta en la tabla I. La evaluación se realizó sobre dos grupos de registros, un grupo control y un grupo de pacientes enfermos con diversas patologías. Para la estimación del error se evaluó el porcentaje correspondiente a la diferencia entre el valor anotado dado por la base de datos de Physionet y el valor obtenido en el procesamiento del software desarrollado, tomando como 100 % el valor anotado por Fisionet.
[3] [4] [5] [6]
[7]
[8]
[9] [10]
Tabla I. Errores en la estimación del intervalo QT Control Enfermos Registros evaluados 71 275 Error Promedio 2,08 % 4,77 %
[11]
[12]
CONCLUSIONES [13]
Con una medición precisa se minimizan los errores cometidos en la evaluación de los expertos y por consiguiente se mejora el diagnostico. Lo bajo de los errores encontrados demuestra la eficiencia de las técnicas de procesamiento matemático aplicadas en la estimación de los intervalos cardiacos. Lo novedoso en la técnica desarrollada para la detección del final de la onda T, es que además de la precisión lograda, presenta la capacidad del software para analizar cualquier morfología de onda T. Cabe destacar que el procesamiento se ejecuta en muy poco tiempo, aproximadamente 3 segundos en analizar un
[14]
[15] [16]
[17]
87
Pan American Health Organization (PAHO). Índice de mortalidad, Página Web disponible en línea: www.paho.org. Último acceso: 2010. Ganong, W. (1999): Fisiología Médica, Manual Moderno. 17ª Edición. México, D.F. Editorial McGraw-Hill. Portillo M. (2011): Electrocardiografía: Técnica de interpretación Básica. Hospital del S.E.S de Mérida, España. Lee J. (2006): ECG Techniques and Technologies. Journal of Emergency Medicine Clinics North America. Vol. 24, 209–225. Clifford G. et al. (2006): Advanced Methods and Tools for ECG Data Analysis. Londres. Artech house , inc. Pan J. and Topkins W. (1985): A Real Time QRS Detection Algorithm, IEEE Transactions on Biomedical Engineering. Vol. BME-32, N° 3. Papaloukas C. et al. (2002): Use of a Novel Rule based Expert System in the Detection of Changes in the ST Segment and the T Wave in Long Duration ECGs. Journal of Electrocardiology, Vol. 35, No. 1. Christov II. and Simova II. (2006): Fully Automated Method for QT Interval Measurement in ECG. Computers in Cardiology. 33:321−324. Xue J. (2006): QT Interval Measurement: What Can We Really Expect?. Computers in Cardiology. 33:385−388. Schlegel T. et al. (2004): Real-time 12-lead high frequency QRS electrocardiography for enhanced detection of myocardial ischemia and coronary artery disease. Mayo Clin Proc. 79:339-350. Dugarte N. et al. (2011): Adquisición y Procesamiento de la Señal Electrocardiográfica de Alta Resolución para la Identificación de Enfermedades Cardiovasculares como el Mal de Chagas. Revista Electrónica de Conocimiento Libre y Licenciamiento “ELCLIC”. Año 1, Vol. 1, N° 4, Pág. 55 a 66. Vargas M. (1996): Contribución al estudio de los micropotenciales cardíacos. Capítulo 1. Universidad Politécnica de Cataluña. Madrid, España. Gomis P. et al. (1996): Abnormal intra-QRS signals and late potentials in the high resolution ECG associated with Chagasic miocarditis. Computers in Cardiology. Vol. 23. P: 633–636. Dugarte N. et al. (2010): Certificación del Sistema ECGAR para su Aplicación en Centros de Salud. 4To Congreso Iberoamericano de Estudiantes de Ingeniería Eléctrica (IV CIBELEC). Art. IB-01. Lanjewar P. et al. (2004): Issues in QT interval measurement. Indian Pacing and Electrophysiology Journal. Vol. 4. Pag: 156-161. Seisdedos C. et al. (2008): Detección del final de la onda T en el ECG mediante áreas de trapecios. 21º Congreso Brasilero de Ingeniería Biomédica. Lanza G. (2008): Fórmulas para el QT corregido y consideraciones clínicas. Gaceta Médica de Caracas. Venezuela. Vol. 116. N° 3. Pag. 224-234.
PROCESAMIENTO DE SEÑALES
CONTROL DE LA GLUCOSA POR MEDIO DEL MÉTODO DE MODO DESLIZANTE EN PACIENTES ADMITIDOS EN LA UNIDAD DE CUIDADOS INTENSIVOS. M. Coronel, R. Rojas Universidad de los Andes, Centro de Ingeniería Biomédica y Telemedicina (CIBYTEL) e-mail: maria.coronel@ula.ve
RESUMEN La Diabetes es una de las enfermedades mas frecuentes en pacientes en cuidados intensivos (UCI), ya sea porque la padecían previamente o la desarrollan durante su estancia en el hospital. Por esto se hace necesario controlar el nivel de glucosa de una manera robusta en los pacientes en UCI a fin de disminuir su taza de mortalidad. Este trabajo presenta el control de glucosa utilizando la estrategia de control por modo deslizante (SMC), ya que ha demostrado ser una estrategia robusta en diversas circunstancias [1]. Para evaluar el desempeño de la estrategia de control mediante simulaciones, se utilizo un modelo in silico, simulando tres pacientes con características patológicas diferentes y se sometieron a cambios en la referencia y perturbaciones. Se comparó la estrategia de control SMC con el control convencional PID. Se determinó que usando un control SMC se obtiene mejor regulación de la glucosa de los pacientes en UCI. Palabras Clave: Diabetes, Glucosa, Controlador SMC, Controlador PID.
insulina plasmática y para la insulina dependiente de la glucosa. El objetivo principal de esta investigación es aplicar la estrategias de control por modo deslizante al control de la glucosa y comparar con los resultados obtenidos con el control proporcional integral derivativo (PID), utilizando tres pacientes diferentes, a fin de determinar cual presenta un mejor desempeño a la hora de controlar la glucosa en pacientes en cuidados intensivos (UCI).
INTRODUCCIÓN La diabetes mellitus (DM) [2] es un conjunto de trastornos metabólicos que afectan diferentes órganos y tejidos, se caracteriza por un aumento de niveles de glucosa en la sangre: hiperglucemia y es una de las enfermedades más frecuentes en los pacientes hospitalizados. En los EE.UU., una tercera parte de los pacientes internados en el hospital tienen niveles elevados de glucosa sanguínea, y una tercera parte de ellos sin presentar un diagnóstico previo de diabetes [3]. Algunos estudios indican que la hiperglucemia en la unidad de cuidados intensivos, en pacientes con o sin diabetes está asociada a un mayor riesgo de complicaciones, a una estancia hospitalaria más larga y a mayores tasas de utilización de recursos y mortalidad. El aumento en la morbi-mortalidad se relaciona en parte con la alta incidencia de enfermedad coronaria, insuficiencia cardíaca, hipertensión, e insuficiencia renal, además de los efectos adversos relacionados con la hiperglucemia [3]. Debido a esto se hace necesario el control riguroso de la glucosa en los pacientes en cuidados intensivos, ya que esto puede reducir los índices de morbilidad y mortalidad [4], tanto en pacientes que ya sufrían de diabetes como en los que no. Para la realización de este estudio se utilizó el modelo de paciente in silico desarrollado propuesto por Chase como una versión modificada del modelo minimal de Bergman [5], el cual incluye términos de saturación para la
CONCEPTOS BÁSICOS En esta sección se presentan los esquemas de control PID y control por modo deslizante SMC utilizados para controlar la glucosa en pacientes en UCI. En la práctica el control de glucosa en UCI se realiza de manera discreta, es decir, cada cierto tiempo se mide la glucosa en el paciente y dependiendo del valor se administra una cantidad determinada de insulina, por lo que estos controladores se presentan en su forma discreta. Control Proporcional Integral Derivativo: El PID es un controlador ampliamente utilizado debido a su simplicidad y fácil implementación. Una simple discretización del algoritmo de control PID [6] es presentada en la ecuación 1:
88
Memorias_BIOVEN_2012
( )
[ ( ) ( ( )
∑
(
los pacientes in silico [5], estos valores se presentan en la Tabla I. Para los tres pacientes se procedió a realizar la identificación del modelo POMTM a través del método de la curva de reacción (FIT-3) [1]. Luego se sintonizaron los controladores utilizando los parámetros de POMTM obtenidos.
() (1)
)]
Donde u(k) es la taza de insulina manipulada, u0 es el valor inicial o basal de la taza de insulina y e(k) es el error, que es la diferencia entre el valor deseado (setpoint) y el valor medido de glucosa. Además en la ecuación 1 se presentan los parámetros de sintonización del controlador (Kc, τI y τD) los cuales se pueden conseguir según diversas estrategias [7]. Por simplicidad, generalmente se usa más la expresión de actualización de control basado en su valor anterior, [6]: ( )
(
)
Paciente 1 2 3
) ( )
[(
) (
(
Tabla I. Parámetros característicos de los pacientes.
)
(
Control por Modo Deslizante: El SMC es una estrategia de control que permite, a partir de señales conmutadas alrededor de una superficie (superficie deslizante), dirigir el estado inicial ubicado fuera de esta superficie hacia la misma, hasta que se intercepte con ella (condición de alcance) y a partir de allí que se desplace por ella hasta el valor final deseado (régimen deslizante) [1]. Este controlador consta de dos partes una parte continua uC(t) [1] y otra discontinua uD(t). A continuación se muestran las ecuaciones de este controlador de forma discreta: ( )
(
(
))
)
(
( ( )
)[
( ( )
(
))]
( )
(4)
donde: ( )
(
) (
( ) [( ) ( ( )
RESULTADOS
) ( ) )
( )
(
)
(5)
( )
(6)
]
(7)
donde a y b son constantes e iguales a -3,8899 y 29,2443 respectivamente. Por último se compararon ambas estrategias de control para una taza de muestreo de 30 min, mediante la evaluación del desempeño de cada una de ellas ante cambios de referencia para la concentración de glucosa (de 269,5898 mg/dL al valor deseado de 100 mg/dL) y ante una perturbación durante 4 min en la taza de alimentación directa dentro del compartimiento de glucosa de 120 mg/dL/min durante 4 min a las 20 h de simulación, para cada uno de los tres pacientes.
(3)
( ( ))
PG (min-1) 0,080537 0,080537 0,023463
Para sintonizar el controlador PID se usan las ecuaciones de Ziegler y Nichols en lazo abierto [7] y para la sintonización del controlador SMC se utiliza para la parte continua las ecuaciones propuestas por Camacho [1]. Para realizar el ajuste de KD se hicieron simulaciones previas con varios pacientes y se determinó una relación lineal entre los parámetros característicos del modelo de POMTM (K, τ y t0) como se muestra en la ecuación 7.
(2)
)]
SI (L/(min·mU)) 0,004088 0,001412 0,004088
Para cada uno de los tres pacientes de estudio, se obtuvieron los parámetros del modelo de POMTM los cuales se presentan en la Tabla II. Tabla II. Parámetros del modelo de la Glucosa
Donde x(k) es el valor medido de la glucosa, es decir la variable retroalimentada y λ1, λ0 y KD son los parámetros de sintonización inicial del controlador SMC [1].
Paciente 1 2 3
METODOLOGÍA Se simularon tres pacientes de estudio con la misma concentración de glucosa en equilibrio (sin alimentación externa de glucosa ni infusión de insulina) GE de 269,5898 mg/dL y diferentes valores de sensibilidad de insulina SI y de la taza de eliminación de glucosa PG, para el modelo de
K -5,82 -2,22 -14,76
τ (min) 90,08 95,78 87,28
t0 (min) 16,63 17,62 29,71
La Tabla III muestra los parámetros de sintonización de los controladores basados en el modelo POMTM para cada uno de los pacientes.
89
PROCESAMIENTO DE SEÑALES
controladores, esto se debe a que este paciente presenta una baja sensibilidad a la insulina, lo que origina una resistencia a su acción. Además se observa que el control PID permite menor error en estado estacionario, sin embargo, presenta una inyección de insulina mayor de lo que puede soportar un paciente, mientras que el controlador SMC mantiene una inyección de insulina rangos aceptables. La Figura 3 muestra los resultados obtenidos para el paciente 3. En este caso, al igual que en el paciente 1, ambos controladores logran llevar la glucosa al valor deseado, pero el controlador SMC lo hace con una inyección inicial de insulina menor y aproximadamente constante. Además el controlador PID puede producir un sobrepaso que ocasiona que la glucosa disminuya súbitamente produciendo hipoglicemia, es decir, una baja de glucosa en la sangre del paciente, lo cual también es perjudicial.
Tabla III. Parámetros de los Controladores P
KC -1,12 -2,94 -0,24
1 2 3
PID τI 33,24 35,22 59,42
τD 8,31 8.81 14,85
SMC λ0 KD 0,0010 135,99 0,0009 150,570 0,0004 28,52
λ1 0,07 0,067 0.045
La Figura 1 muestra la salida controlada de glucosa para el cambio de referencia con su respectiva señal de control, para el paciente 1, en ésta se puede observar como ambos controladores logran llevar la glucosa al valor deseado de 100 mg/dL. Se observa como la inyección final de insulina usando un control PID es mayor de lo que normalmente puede soportar un paciente (10 U/h) lo cual es nocivo para el mismo.
G (mg/dL)
300 PID SMC
200
300
0
0
5
10
G (mg/dL)
100
15
PID SMC
200
100
Tiempo (h)
0
30
0
5
10
15
10
15
20
6
10
0
0
5
10
U (U/h)
U (U/h)
Tiempo (h)
15
4
2
Tiempo (h)
0
Figura 1. Salida Controlada de Glucosa y Señal de control para el paciente 1.
G (mg/dL)
5 Tiempo (h)
Figura 3. Salida Controlada de Glucosa y Señal de control para el paciente 3.
300 PID SMC
250
125 PID SMC
200 150 100
120
0
5
10
15
115
Tiempo (h) G (mg/dL)
200 150
U (U/h)
0
100
110
105
50 0
100
0
5
10
15
Tiempo (h) 95 15
Figura 2. Salida Controlada de Glucosa y Señal de control para el paciente 2.
16
17
18
19
20 Tiempo (h)
21
22
23
24
25
Figura 4. Salida Controlada de Glucosa ante una perturbación para el paciente 1.
En la Figura 2 se muestra los resultados obtenidos en el paciente 2, ante un cambio en la referencia. Se aprecia que no se logra controlar la glucosa con ninguno de los dos
En la Figura 4 se presenta la salida controlada de glucosa para el paciente 1 ante una perturbación en la taza
90
Memorias_BIOVEN_2012
de alimentación directa dentro del compartimiento de glucosa. Las Figuras 5 y 6 muestran las salidas controladas de glucosa ante la perturbación para los pacientes 2 y 3 respectivamente. En las Figuras 4 y 6 se observa como ambos controladores rechazan la perturbación de forma similar. La Figura 5 muestra como a pesar que no se logra llevar la glucosa al valor deseado, los controladores rechazan la perturbación y se estabilizan en el mismo valor de glucosa.
originar a la salida, ya que éste podría generar hipoglicemia en los pacientes. AGRADECIMIENTO Se agradece la colaboración prestada por el Centro de Ingeniería Biomédica y Telemedicina en la elaboración de esta investigación. REFERENCIAS
200 PID SMC
[1] Camacho O. y Smith C. (2000): Sliding Mode Control: An Approach to Regulate Nonlinear Chemical Process, ISA Transactions, 39: pp 122-128. [2] Harrison (2008): Principios de Medicina Interna, 17a edición, McGraw-Hill. [3] Umpierrez G. et al (2002): Hyperglycemia: an independent marker of in-hospital mortality in patients with undiagnosed diabetes, Journal of Clinical Endocrinology & Metabolism, 87: pp 978-982. [4] Malmberg K. (1999): Glycometabolic state at admission: important risk marker of mortality in conventionally treated patients with diabetes mellitus and acute myocardial infarction: long-term results from the Diabetes and Insulin-Glucose Infusion in Acute Myocardial Infarction (DIGAMI) study, Circulation, 99: pp 2626-2632. [5] Chase J. et al (2006): A Novel, Model-Based Insulin and Nutrition Delivery Controller for Glycemic Regulation in Critically ill Patients, Diabetes Technol Ther, 8(2): pp 174-190. [6] Bequette B. Wayne (2007): Analysis of Algorithms for Intensive Care Unit Blood Glucose Control, Journal of Diabetes Science and Technology, 1(6): pp 813-824. [7] Smith C. (2010): Advanced Process Control: Beyond Single-Loop Control, 1era edición, John Wiley & Sons, Inc.
190
180
G (mg/dL)
170
160
150
140
130
120 15
16
17
18
19
20 Tiempo (h)
21
22
23
24
25
Figura 5. Salida Controlada de Glucosa ante una perturbación para el paciente 2. 130 PID SMC 125
G (mg/dL)
120
115
110
105
100
95 15
16
17
18
19
20 Tiempo (h)
21
22
23
24
25
Figura 6. Salida Controlada de Glucosa ante una perturbación para el paciente 3. CONCLUSIONES En líneas generales se puede concluir con este trabajo que el control por modo deslizante es mejor para el control de la glucosa en pacientes en cuidados intensivos, ya que requiere menor inyección de insulina para lograr llevar la glucosa a valores normales, lo cual es beneficioso tanto para el paciente como para el hospital ya que hay menos consumo de insulina por parte de estos pacientes y por lo tanto menos costo. También se debe tener cuidado cuando se realice el control de la glucosa con el sobrepaso que se puede
91
PROCESAMIENTO DE SEÑALES
DETECCIÓN DE FOCOS EPILÉPTICOS MEDIANTE LA COMBINACIÓN DE TRANSFORMADA WAVELET Y MEDIDA DE DISIMILARIDAD BASADA EN COMPRESIÓN E. Zambrano1, G. Paredes2, E. Marchán1,3,P. Guillén1 Centro de Simulación y Modelos (CESIMO). Universidad de Los Andes. Mérida, Venezuela 2 Servicio de Neurología HULA. Universidad de Los Andes. Mérida, Venezuela 3 Instituto de Investigaciones en Biomedicina y Ciencias Aplicadas (IIBCA). Universidad de Oriente. Cumaná, Venezuela e-mail: emiliozambrano@ula.ve 1
RESUMEN La epilepsia afecta al 1% de la población mundial (OMS, 2010) y se caracteriza por la descarga sincronizada de impulsos eléctricos entre grupos de neuronas de la corteza cerebral, que pueden conducir a crisis focales o generalizadas. Mediante electroencefalogramas (EEG)analizados sólo por neurólogos especializados puede detectarse un foco epiléptico, sinembargo, en la última década se cuenta dentro de la minería de datos con técnicas como la Transformada Wavelet (TW) y el índice de Medida de Disimilaridad Basada en Compresión (CDM), cuya combinación permite una caracterización de los focos epilépticos y su ruta de propagación. En ese sentido, en el presente trabajo,utilizando las herramientas antes mencionadas se analizóuna base de datos constituida por dos grupos de señales electroencefalográficas: un primer grupo de pacientes epilépticos (n=5), incluido un paciente quien registró accidentalmente en la consulta una crisis epiléptica focal, y un segundo grupo de sujetos normales (n=5) como grupo de control. La transformada Wavelet db4-nivel 3 guarda estrecha relación con los grafoelementos que caracterizan la epilepsia.Los pacientes epilépticos muestran índices CDM más bajos que los encontrados en los sujetos sanos. Adicionalmente, por agrupamiento jerárquico se estableció la localización del foco epiléptico con su posible ruta de propagación. Estos hallazgos ponen de manifiesto la gran utilidad de la aplicación de estas herramientas de la minería de datos a problemas serios de salud mediante métodos no invasivos. Palabras Clave:Medida de Disimilaridad Basada en Compresión, TransformadaWavelet, Electroencefalograma, Epilepsia.
sentido, la TransformadaWavelet permite analizar los cambios bruscos de frecuencia en intervalos de tiempo muy pequeños, por descomposición de la señal original en un determinado número de niveles, que dan lugar a un grupo de señales, las cuales representan a la misma señal original con la singularidad que corresponden a diferentes bandas de frecuencias, constituyendo una base ortogonal (invertibilidad). Por otro lado, se cuenta con un índice estadístico libre de parámetros denominado Medida de Disimilaridad Basada en Compresión (CDM), el cual permite cuantificar y caracterizar los cambios de actividad de un sistema a través de los datos (serie temporal) que lo describen [8, 9, 13]. Basado en lo anterior, el presente trabajo consistió en la detección de focos epilépticos y su posible ruta de propagación utilizando la combinación de la TransformadaWavelet con el índice CDM para evaluar los cambios de la actividad cerebral y principalmente la sincronización (similaridad) en sujetos sanos, pacientes epilépticos y un paciente epiléptico en crisis.
INTRODUCCIÓN La epilepsia es descrita a nivel fisiológico como la descarga sincronizada de impulsos eléctricos entre las neuronas de la corteza cerebral. Las diversas interconexiones entre neuronas dentro de áreas cercanas y distantes de la corteza, reflejan la complejidad del procesamiento serial y paralelo de la información sensorial y motora recibida en el cerebro. Sin embargo, dichas conexiones resultan en descargas sincrónicas en grandes grupos de neuronas. Durante estas interacciones sincronizadas se manifiesta un ataque epiléptico, el cual tiene serias consecuencias en el comportamiento del individuo que padece esta patología. Estas descargas anormales pueden ocurrir en regiones locales del cerebro (crisis focales). Dichas descargas se ven solamente en algunos canales del registro electroencefalográfico, en otros casos, las descargas abarcan todo el cerebro (crisis generalizadas), actividades que se observan en todos los canales del EEG [7, 15, 17]. El análisis del EEG se realiza tradicionalmente mediante inspección visual por neurólogos especializados. Sin embargo, en los últimos años se han desarrollado herramientas de la minería de datos y el análisis no lineal que han sido aplicadas para la caracterización de este tipo de señales [2, 3, 6, 14]. En ese
METODOLOGÍA Análisis electroencefalográfico de la epilepsia El análisis electroencefalográfico está basado principalmente en la exploración y reconocimiento de
92
Memorias_BIOVEN_2012
patrones de registroselectroencefalogrĂĄficos.Los cambios de voltaje entre los electrodos colocados en los diferentes canales de registro, regidos por el sistema internacional 1020 mostrado en la Figura 1, son medidos y amplificados antes de ser enviados a algĂşn dispositivo de registro y muestra, como puede ser un computador con un software diseĂąado para este propĂłsito [15]. El EEG registrado muestra la distribuciĂłn en el tiempo de las amplitudes de los potenciales elĂŠctricos registrados en el cuero cabelludo del individuo.
La TW es una operaciĂłn lineal que descompone una seĂąal en componentes a diferentes escalas.La TW de una funciĂłn en la escala y posiciĂłn , estĂĄ dada por: ,
â&#x2C6;&#x161;
(1)
Donde es una funciĂłn de valor real o complejo en
2 (SeĂąales de energĂa finita).El factor de
escala debe ser un valor positivo y el factor
1
â&#x2C6;&#x161;a
es usado
para la normalizaciĂłn de la energĂa, estetipo de transformaciĂłn satisface la conservaciĂłn de la energĂa, y la seĂąal original puede ser reconstruida. En (1) la TW depende de dos parĂĄmetros, la escala y la posiciĂłn , que varĂan continuamente sobre los nĂşmeros reales; para valores pequeĂąos de , la Wavelet se expande y la transformada muestra datos sobre una seĂąal aproximada [4, 5, 11]. En este estudio se utilizĂł la transformada Wavelet para realizar la descomposiciĂłn de las seĂąales electroencefalogrĂĄficas, sobre las cuales serĂĄn aplicados los demĂĄs algoritmos.
Figura 1. Sistema Internacional 10-20 La inspecciĂłn clĂnica visual de un EEG incluye el examen de los siguientes parĂĄmetros: frecuencia o longitud de onda, voltaje o amplitud, regularidad de la forma de onda, reacciĂłn ante estĂmulos Ăłpticos e hiperventilaciĂłn (respiraciĂłn acelerada). TambiĂŠn incluye la identificaciĂłn del rango espacial (local o generalizado, unilateral o bilateral) y la persistencia temporal (esporĂĄdica y breve o prolongada y persistente) de las anomalĂas relacionadas con diferentes patologĂas. [6, 7, 15].
Medida de Disimilaridad Basada en CompresiĂłn, CDM Los fundamentos matemĂĄticos del enfoque de disimilaridad basada en compresiĂłn se encuentran en un ĂĄrea de la teorĂa de la informaciĂłn conocida como Algoritmos de AnĂĄlisis de EntropĂa, o Complejidad de Kolmogorov [12].El problema de la Complejidad de Kolmogorov, K, es que no hay un procedimiento matemĂĄtico (algoritmo) exacto para calcularla en un nĂşmero finito de pasos. No obstante, se ha demostrado que una aproximaciĂłn matemĂĄtica puede ser obtenida definiendo la secuencia como una cadena de caracteres, la cual puede ser comprimida por un programa compresor [1, 13], tal como los usados en computadoras personales. En este estudio, se utilizĂł la mĂŠtrica propuesta por [8] para aproximar la complejidad de Kolmogorov, la cual dice que dadas dos cadenas X e Y se define la Medida de Disimilaridad Basada en CompresiĂłn (CDM) como sigue
Base de Datos El registro de las seĂąales EEG de cada sujeto se realizĂł en 19 canales a partir de electrodos adheridos a la superficie de la corteza cerebral con pasta conductora, en los sitios establecidos por el Sistema Internacional 10-20, midiĂŠndose la diferencia de potencial con respecto a una referencia constituida por ambas orejas cortocircuitadas. La seĂąal se digitalizĂł a una frecuencia de muestreo de 256 Hz y conversiĂłn A/D de 12 bits, filtrada digitalmente entre 0.5 Hz y 30 Hz. Para el anĂĄlisis se seleccionaron registros de tiempo variable de actividad en reposo de cinco sujetos sanos y cinco pacientes epilĂŠpticos, uno de los cuales presentĂł una crisis epilĂŠptica focal durante el estudio. La base de datos pertenece al Laboratorio de ElectrofisiologĂa del Hospital San Juan de Dios, MĂŠrida, Venezuela.
CDM ( X , Y ) =
C ( XY ) C ( X ) + C (Y )
(2)
Donde C(XY) es el tamaĂąo en bytes del archivo comprimido que contiene la concatenaciĂłn de las cadenas X e Y, C(X) es el tamaĂąo en bytes del archivo comprimido que contiene la cadena X y C(Y) es el tamaĂąo en bytes del archivo comprimido que contiene la cadena Y. La CDM es cercana a uno (1) cuando X e Y no estĂĄn relacionadas y disminuye a medida que estas se encuentran mĂĄs vinculadas. Por definiciĂłn, la disimilaridad de una cadena consigo misma es cero (0). La CDM(X,Y) es igual a la CDM(Y,X).
Transformada Wavelet La Transformada Wavelet (TW) consiste en comparar la seĂąal con ciertas funciones Wavelet, las cuales se obtienen a partir de las Wavelet madre. Un requisito bĂĄsico es la posibilidad de invertir la transformada, recuperando la seĂąal a partir de esos coeficientes Wavelet calculados [16].
93
PROCESAMIENTO DE SEÑALES
En general, la CDM busca información compartida por las dos cadenas X e Y, esto lo hace a través de los algoritmos de compresión, los cuales se encargan de buscar patrones repetidos dentro de los datos, para que luego se pueda cuantificar la diferencia existente entre los mismos.
RESULTADOS Transformada Wavelet La mejor representación de las señales originales de EEG producto del análisis por multi-resolución correspondió a la Daubechies4, que guarda relación con los grafoelementos que caracterizan la patología. Por otro lado, considerando que las frecuencias de las ondas cerebrales oscilan en un rango de 0.5 a 30,0 Hz fue necesaria la descomposición hasta el nivel 3, lo que permitió visualizar los cambios cercanos a las frecuencias menores a 4 Hz, las cuales están asociadas a laepilepsia. Figura 3.
Matriz de Disimilaridad Dado un conjunto de secuencias (a partir de aquí serán llamadas series temporales) podemos calcular la disimilaridad entre todos los pares disponibles de estas. Matrices de disimilaridad (o distancia) pueden ser construidas para su uso como entrada a algoritmos de agrupamiento o clasificación que requieran de éstas, como por ejemplo, el agrupamiento jerárquico. La Figura 2 muestra un ejemplo de una matriz de disimilaridad para un conjunto de cuatro series temporales (S1, S2, S3, S4). Cada valor (celda) en la matriz, representa la disimilaridad, CDM(i, j), entre un par de series (Si, Sj). Por ejemplo, CDM(4,2), es la disimilaridad entre las series S4 y S2.
Figura 2. Matriz de Disimilaridad para un conjunto de cuatro series temporales.
Figura 3. Transformada de Wavelet con db4-nivel 3 del Canal Fp1: A sujeto sano; B paciente epiléptico; C paciente epiléptico con crisis
La matriz de disimilaridad es simétrica con respecto a la diagonal, por lo tanto, basta con calcular una de las triangulares para utilizarla como entrada a otros algoritmos. La diagonal de la matriz es igual a cero.
Análisis por canales Al aplicar la metodología para la obtención del índice CDM para los dos grupos bajo estudio se encontró que este índice presenta un valor mayor para el grupo de sujetos sanos que para el grupo de pacientes epilépticos (sin crisis)en todos los canales. La Figura 4 muestra tres individuos que son representativos de este comportamiento. Se observa que los valores del índice CDM del paciente epiléptico son menores que los del sujeto sano, evidenciando esto un comportamiento de similaridad (sincronización) de la actividad cerebral. Así mismo, se puede apreciar que para el paciente en crisis existen zonas de disimilaridad y similaridadlo cual es compatible clínicamente con la típica crisis uncinada del lóbulo frontotemporal, la cual se caracterizapor la sensación de olor putrefacto de minutos de duración sin pérdida del nivel de consciencia, asociada a la interrelación entre los canales Fp1, F7, F4, T3, C3, C4, Cz y el área anatomofuncional afectada. Las zonas de disimilaridad y similaridad se pueden explicar por la acción contrarreguladora protectora
Agrupamiento Este trabajo utiliza para el agrupamiento un método jerárquico aglomerativo en el cual se van agrupando los individuos de manera que se maximice una medida de similaridad (CDM) o se minimice alguna distancia entre ellos, específicamente: se comienza considerando cada elemento como un grupo y en cada paso se unen los dos grupos más cercanos, hasta formar finalmente un único grupo. De esta forma se crea una jerarquía de nodos en forma de un árbol jerárquico, generalmente, se representa en un árbol de clasificación denominado Dendrograma. Herramientas Las metodologías de este trabajo fueron implantadas en el lenguaje de programación R para GNU/LINUX. Para la transformada wavelet se utilizó la librería Wavelet versión 0.2-6 (22-04-2010). Adicionalmente, se utilizó el compresor 7zip versión 9.20 (18-11-2010) el cual permitió el mejor funcionamiento de la técnica.
94
Memorias_BIOVEN_2012
de homeostasis del área cerebral del foco epiléptico que está descargando.
Los pacientes epilépticos se caracterizan por índices CDM más bajos que los encontrados en los sujetos sanos. El agrupamiento jerárquico permite la localización del foco epiléptico y su posible ruta de propagación.
REFERENCIAS [1] Cilibrasi R.et al(2005):Clusteringbycompression,Revista IEEE T. Inform. Theory: pp: 1523-1545. [2]Coutín E. et al (2005):Análisis de registros electroencefalográficos en pacientes epilépticos utilizando dinámica no lineal, Congreso ASME USB, Caracas, Venezuela. [3] Escalona-Morán M. et al (2007): Synchronization and clustering in electroencephalographic signals. Chaos Solitons and Fractals, 13:pp820-825. [4] GarcíaH.Escalona-Morán, M. et al (2009): Detección y Clasificación de Artefactos en Señales EEG, XIV Simposio de tratamiento de señales, imágenes y visión artificial, Pereira, Colombia. [5] Gutiérrez J. (2001): Detección del foco epiléptico y su ruta de propagación, II Congreso Latinoamericano de Ingeniería Biomédica, La Habana, Cuba. [6] HojjatA.et al (2003): Analysis of EEG records in an epileptic patient using wavelet transform,RevistaJournal of Neuroscience Methods, 123:pp 69-87. [7] Kandel E.et al (1991):Principles of Neural Science, third edition, Elsevier Science Publishing Co. [8] Keogh E.et al (2004):Towards parameter-free data mining, In Proceedings of the tenth ACM SIGKDD international conference on Knowledge discovery and data mining, Seattle, USA. [9] Kouro S. et al (2002): Tutorial introductorio a la Teoría de Wavelet,Universidad Técnica Federico Santa María, Chile. [10] Li M.et al (2001): An information-based sequence distance and its application to whole mitochondrial genome phylogeny,Bioinformatics, pp: 149-154. [11] MartínJ.et al (2001): Estudio comparativo de dos técnicas de procesado de señales eeg para la discriminación de estados mentales, Universidad de Alcalá, Madrid, España. [12] Min L.et al (1997):A Introduction to Kolmogorov Complexity and its Applications,second edition , SpringerVerlag. [13] Ming L.et al (2004): The similarity metric,Revista IEEE Transactions on information theory, 50:pp3250-3264. [14] Naive H.et al (2009): Máquinas de aprendizaje para clasificar señales electroencefalográficas, Avances en Sistemas e Informática, 6(1). [15] NiedermeyerE. (2005): Electroencephalography, basic principles, clinical applications, and related fields,fifth edition, Williams and Wilkins. [16] Zarantonello S. (1997): Theory and application of wavelet,Santa ClaraUniversity. [17] Zarranz J. (2003): Neurología,tercera edición, Elsevier España S.A.
Figura 4. Comparación del índice CDM entre el canal Fp1 y los canales restantes. Agrupamiento La Figura 5 representa el Dendrograma de la interrelación de los índices CDM obtenidos entre los canales del paciente epiléptico en crisis. Se aprecia en el extremo derecho la mayor sincronización que agrupa a los canales de la zona frontotemporal sugiriendo la localización del foco epiléptico y su ruta de propagación. De esta manera se valida la aplicabilidad de la combinación de las herramientas informáticas utilizadas en el presente trabajo con la clínica descrita por el especialista de Neurología.
Figura 5. Dendrograma del paciente epiléptico en crisis CONCLUSIONES La transformada Wavelet db4-nivel 3 guarda estrecha relación con los grafoelementos que caracterizan la epilepsia.
95
PROCESAMIENTO DE SEÑALES
IMPLEMENTACIÓN DE UN SISTEMA DE EXTRACCIÓN DE CARACTERÍSTICAS PARA LA CLASIFICACIÓN DE ARRITMIAS L. Mora1,J. Amaya2 1
Laboratorio de Instrumentación, Control y Automatización. Universidad Nacional Experimental del Táchira 2 Laboratorio de Computación de Alto Rendimiento. Universidad Nacional Experimental del Táchira e-mail: lmmora@unet.edu.ve, jedgar@unet.edu.ve
RESUMEN Este documento presenta la implementación en un controlador digital de señales (DSC) de un sistema de extracción de características basado en un clasificador de arritmias para la identificación de señales ECG Normales y cuatro tipos de arritmias. El sistema implementado es capaz de recibir la señal electrocardiográfica en segmentos 720 muestras, la cual es filtrada, codificada de cuatro (4) formas diferentes, para posteriormente determinar la entropía Shannon y la complejidad de Lempel-Ziv de cada codificación, con lo cual se genera un vector de características que es enviado de regreso al computador, donde es comparado con las características obtenidas por el clasificador de arritmias. Debido a que en el DSC la resolución de los datos es menor a la utilizada en el desarrollo del clasificador se presentaron diferencias en el cálculo de las características, obteniendo una mayor robustez en las características extraídas a codificaciones realizadas mediante un valor umbral. Palabras Clave: Controlador Digital de Señales (DSC), Clasificación de arritmias, Entropía Shannon (SHE) , Complejidad de Lempel-Ziv (LZC). El artículo está organizado como sigue. En la Métodología se muestran los métodos utilizados para la extracción de características del ECG, así como los métodos de codificación respectivos y la estructura del SEC implementado. En la sección de Resultados se describen los algoritmos de implementación del SEC, así como también las dificultades encontradas y los resultados obtenidos. Finalmente se presentan las conclusiones y el trabajo futuro.
INTRODUCCIÓN Actualmente muchos sistemas de clasificación de arritmias cardíacas han sido desarrollados alrededor del mundo como los presentados en [1-5], sin embargo, estos clasificadores comúnmente requieren de una alta capacidad de computó, lo que dificulta su implementación en dispositivos como los microcontroladores, por lo que son implementados en computadores y son ejecutados posteriormente a la adquisición de los registros electrocardiográficos. Por otro lado en la última década se han desarrollado los controladores digitales de señales o DSC, los cuales son microcontroladores de alta gama que poseen una capacidad de computo mucho mayor a los microcontroladores convencionales con un menor consumo de energía, por lo que resultan ideales para el desarrollo de aplicaciones de análisis en tiempo real. En este documento se presenta la implementación en un DSC modelo TMS320F28335 de un sistema de extracción de características (SEC), basado en la estrategia que se observa en [6], el cual consiste en el proceso de filtrado, codificación y el cálculo de los atributos necesarios para la identificación de señales electrocardiográficas (ECG) normales y cuatro (4) tipos de arritmias (fibrilación auricular, flutter auricular, taquiarritmia supraventricular y taquicardia ventricular) extraidas de la base de datos del MIT-BIH [7], donde la identificación de estas cinco (5) clases se realiza a partir de ocho (8) atributos o características, que son determinadas a través de la entropía Shannon (SHE) y la complejidad de Lempel-Ziv (LZC) de cada señal codificada por diferentes métodos.
METODOLOGÍA Como se mencionó anteriormente la implementación del sistema de extracción de características (SEC) se realiza en un controlador digital de señales (DSC) TMS320F28335, al cual se le envía la señal electrocardiográfica desde un computador que luego recibe los atributos para realizar la clasificación, como se muestra en la Figura 1. Computador
Señal ECG
Filtrado
Características
Codificación
Extracción de Características
TMS320F28335
Figura 1. Esquema de Implementación del SEC
96
Memorias_BIOVEN_2012
En la Figura 2, se observa la secuencia del programa del SEC implementado, la cual consiste en la recepción de la señal ECG, la cual consiste de un segmento de 720 muestras que es enviado desde un computador hacia el DSC. La siguiente etapa es el proceso de filtrado para la eliminación del ruido electromiográfico, cambio de nivel y otras alteraciones no deseadas en la señal. Posteriormente se realiza una etapa de codificación donde se utilizan tres (3) métodos distintos para generar cuatro (4) señales codificadas, a las cuales en la siguiente etapa se le extraen la entropía y la complejidad de cada una para construir un vector de características o atributos que finalmente es enviado a un computador para su análisis. La etapa de filtrado es realizada utilizando el filtro pasa-banda diseñado por Aplacia [8], compensando el error inicial del filtrado y el retardo de grupo mediante la metodología presentada por Mora&Amaya [9], la cual consiste en adicionarle al comienzo y al final del segmento a procesar dos nuevos segmentos, cuyos valores están determinados por valor inicial y el valor final del segmento original, respectivamente. El nuevo segmento construido es procesado con el filtro pasa banda para posteriormente extraer de la señal de salida del filtro la señal filtrada sin error inicial, ni retardo.
a la diferencia entre sus valores máximos y mínimos, tal y como se observa en la Tabla I. Tabla I. Descripción de los métodos de codificación Cod. Núcleo Codificación 1 p(k ) 0 S ( k ) p ( k ) x ( k ) x ( k 1 ) PT 0 p(k ) 0 1 p ( k ) 0 MB
MT
1 x(k ) T S (k ) 0 x(k ) T 1; x(k ) T1 T1 = x p + E( xmax xmin ) S (k ) 0; T 2 x(k ) T1 T 2 = x p E( xmax xmin ) 1; x(k ) T 2
T = x p + E ( x max x min )
El cálculo de las características se realiza extrayendo la SHE y la LZC de la señal codificada a partir del valor de la pendiente, la señal MB codificada con E=1/20, la señal MT con E=1/20 y con E=1/12, para un total de 8 atributos extraídos, que son agrupados en un vector de características. Para las codificaciones MB y MT los valores de E se determinaron a partir de lo indicado en [9], buscando obtener la mejor distribución de los datos para distinguir entre las diferentes clases. La entropía Shannon, también conocida como la entropía de información, es una medida matemática de la falta de información asociada a una distribución de probabilidad de un conjunto de datos. Fue definida en el año 1948 por C.E. Shannon [10], como la sumatoria de una función basada en la probabilidad de ocurrencia de un dato, cuyo valor normalizado Hn se observa en la ecuación 1, siendo pi la probabilidad de que al extraer de forma aleatoria un elemento de la secuencia S, este sea igual a la iésimo símbolo del alfabeto A y α la longitud de dicho alfabeto. Siendo el secuencia S el segmento de la señal ECG que se está procesando, codificado con los métodos de codificación mencionados anteriormente y A el alfabeto de símbolos utilizados según cada método.
Hn =
Figura 2. Secuencia de ejecución del SEC En la etapa de codificación utilizan tres (3) métodos para representar la señal filtrada x(k). El primer método de codificación tiene como núcleo la pendiente p(k) de señal filtrada para generar una señal y(k) con un código ternario (PT), es decir, conformado por un alfabeto de tres (3) símbolos. El núcleo del segundo y tercer método de codificación es un valor umbral T, que es comparado con la señal x(k) para generar señales basadas en alfabetos binarios (MB) y ternarios (MT) respectivamente. El valor umbral es determinado por el valor promedio xp de la señal a codificar, junto a un factor de desviación E que multiplica
α
pi log 2 ( pi ) i=1
log 2 (α )
(1)
En la medición de la LZC se “escanea” la secuencia S, leyendo sus elementos de izquierda a derecha y se agrega una nueva palabra a una memoria cada vez que se encuentra una sub-secuencia de dígitos consecutivos que no ha sido encontrada previamente, utilizando como parámetros para medir la complejidad el tamaño del alfabeto y el número de palabras encontradas en S. Es decir, la complejidad c(S) está determinada por el menor número posible de pasos o sub-secuencias necesarias para construir S [11]. Para el cálculo de esta característica, se
97
PROCESAMIENTO DE SEÑALES
utilizó el algoritmo presentado por Borowska et al. [12] y se normaliza como se indica en la ecuación (2).
C (S ) =
c( S ) b( S )
(2)
siendo b(S)
b( S ) =
n log α ( S )
(3)
Finalmente el envío de la señal electrocardiográfica hacia el DSC para su procesamiento y la posterior recepción del vector de características se realizó mediante una comunicación RTDX (Real-Time Data Exchance). El desarrollo de cada una de las etapas anteriormente mencionadas se realizó mediante el software Code Composer Studio v3.3 (CCStudio), en el cual se programó el código basado en lenguaje C, de cada una de las etapas del SEC, para posteriormente generar el código assembler que es implementado en el DSC.
Figura 3. Extracto del programa implementado en TMS320F28335 Para verificar si el SEC implementado funciona correctamente, las características recibidas desde el DSC son comparadas con las extraídas por el sistema de clasificación descrito en [6], el cual fue desarrollado utilizando datos en formato punto flotante con una precisión de sesenta y cuatro (64) bits. En la Figura 4 se puede observar la diferencia entre las características recibidas desde el DSC y las obtenidas por el clasificador de arritmias original mostrado en [6], para un segmento de 12 segundos del registro doscientos uno (201) de la base de datos del MIT-BIH. En dicha figura se puede observa que la mayor diferencia se presenta en la SHE y la LZC extraídas de la señal codificada mediante el método PT; es decir, atrib[0] y atrib[1] respectivamente. Siendo las características obtenidas mediante los métodos que utilizan el valor umbral las que menor diferencia presentan, lo cual indica que las características obtenidas por el método PT son más sensibles a los cambios en la precisión del formato de los datos. Esta diferencia se debe a que el DSC permite el manejo de datos en formato punto flotante con una precisión de treinta y dos (32) bits, es decir, la mitad de la utilizada en [6]. Lo cual afecta la resolución de los datos que se obtienen a la salida de proceso de filtrado, dando como resultado pequeños cambios en la diferencia entre muestras, que trae como consecuencia codificación PT muy diferente a presentada en sistema de clasificación original. También se debe destacar la robustez de los métodos de codificación que utilizan el valor umbral, ya que las características obtenidas por estos métodos en TMS320F28335 con un formato de datos de 32bits en punto flotante, tienden a ser similares similares a los obtenidos en el computador, donde los datos tiene un formato punto flotante de 64 bits. Es decir, son menos sensibles a los cambios en la resolución de los datos, permitiendo obtener los mismos resultados en el DSC que obtenidos a través de simulaciones por computadora.
RESULTADOS El sistema de extracción de características implementado está diseñado para procesar las señales electrocardiográficas en paquetes de 720 muestras, que son enviados desde un computador hasta el DSC por un canal de comunicación RTDX. Estas muestras son enviadas como números enteros con signo de 16 bits, sin embargo, al realizar las primeras pruebas de comunicación se observó una saturación del buffer de memoria utilizado por el CCStudio para enviar los datos al DSC, el cual tiene una longitud máxima de 1024 bytes por canal. Por este motivo se dividió el paquete original de 720 muestras en tres secciones que son enviadas a través de tres (3) canales de comunicación las cuales son recibidas en el DSC. El proceso de extracción comienza con la recepción y reagrupamiento del segmento a procesar, luego como se observa en la Figura 4, se ejecuta la función filtering_process() la cual se encarga realizar el proceso de filtrado pasa-banda diseñado en [8] y almacenar el resultado en una variable global; posteriormente se ejecuta la función encoding_PT(), la cual toma la señal filtrada y la codifica mediante el método de la pendiente ternario, extrayendo seguidamente la entropía y la complejidad de esta codificación con la funciones esh(la,ls) y clz(la,ls) respectivamente, las cuales tienen como parámetros de entrada la longitud ls de la señal codificada anteriormente y la longitud el alfabeto la utilizado en dicha codificación. Este procedimiento se realiza de forma similar para las codificaciones MB y MT. El proceso de extracción culmina con el envío del vector de 8 características hacia el computador en formato punto flotante de 32 bits.
98
Memorias_BIOVEN_2012
AGRADECIMIENTO Nuestro más sincero agradecimiento al Decanato de Investigación de la Universidad Nacional Experimental del Táchira por el apoyo prestado durante el desarrollo de esta investigación bajo el código de proyecto 01-20-2011 REFERENCIAS [1] A. Alzate y E. Giraldo (2006), Clasificación de arritmias utilizando ANFIS, Redes Neuronales y agrupamiento substractivo, Scientia et Technica, vol. XII, no. 31, pp. 19–22. [2] B. Anuradha y V. C. Veera Reddy (2008), Cardiac Arrhythmia Classification Using Fuzzy Classifiers, JATIT, vol. 4, no. 4, pp. 353–359. [3] A. Dallali, A. Kachouri, y M. Samet (2011), Classification of Cardiac Arrhythmia Using WT, HRV, and Fuzzy C-Means Clustering, SPIJ, vol. 5, no. 3, pp. 101– 109. [4] M. Gioè, D. Nikolic, R. Coponetto, B. Vuksanovic, y M. Bucolo (2011), Multivariable Approach to Dynamic ECG Classification. Proceedings of the 18th IFAC World Congress, Milano, Italy, vol. 18, pp. 14301–14306. [5] M. Kadbi y J. Hashemi (2006), Classification of ECG Arrhythmias Based on Statistical and Time-Frequency Features, IET 3rd International Conference On Advances in Medical, Signal and Information Processing, 2006, Glasgow, UK, pp. 1–4. [6] L. Mora y J. Amaya (2012), Propuesta de Multiclasificador Asimétrico de Arritmias, aceptado en CLEI2012, Medellin, Colombia. [7] MIT-BIH, «MIT-BIH Arrhythmia Database», PhysioBank Archive Index, 2009. [Online]. Disponible en: http://www.physionet.org/physiobank/database/mitdb/. [Accedido el 18-mar-2011]. [8] L. R. Apaclia Orozco (2009), Módulo para el procesamiento digital de señales electrocardiográficas en FPGA, Trabajo de Grado de Maestría, Universidad Nacional Experimental del Táchira, San Cristóbal, Venezuela. [9]L. Mora y J. Amaya (2011), Efecto del Método de Codificación sobre la Distribución de Arritmias Cardíacas, III Congreso Internacional de Ingeniería Mecatrónica UNAB, Bucaramanga, Colombia. [10] Shannon, C.E. (1948). A Mathematical Theory of Communication. The Bell System Technical Journal, 27(3), 379–423, 623–656. [11] Lempel, A., & Ziv, J. (1976). On the Complexity of Finite Secuences. IEEE Transactions on Information Theory, 22(1), 75–81. [12] Borowska, M., Oczerelko, E., Mazurek, A., Kitlas, A., & Kuc, P. (2005). Application of the Lempel-Ziv complexity measure to the analysis of biosignals and medical images. Annales Academiae Medicae Bialostocensis, 50(Supplement 2), 29–30.
Figura 4. Diferencia entre los atributos extraídos del registro 201 de la base de datos del MIT-BIH. CONCLUSIONES Un sistema de extracción de características basado en la entropía y complejidad de las señales electrocardiográficas logró ser implementado en un controlador digital de señales con datos en formato punto flotante de 32 bits, presentando menor sensibilidad al cambio en la resolución de los datos (64 bits en el sistema desarrollado en un computador), las características extraídas a partir de codificaciones basadas un valor umbral, siendo el método de codificación que utiliza la pendiente de la señal el más sensible a las variaciones en los formatos de los datos. Como trabajo futuro se prevé completar la implementación del sistema descrito en [6] desarrollando en CCStudio un clasificador basado en máquinas de soporte vectorial para la identificación de ECG normales, flutter auricular, fibrilación auricular, taquiarritmia supraventricular y taquicardias ventriculares.
99
PROCESAMIENTO DE SEÑALES
MÉTODOS DE ACELERACIÓN DEL ALGORITMO DE MEDIANA PONDERADA REGRESIVA A. Becerra, J. Ordenes, J. Paredes Centro de Ingeniería Biomédica y Telemedicina (CIBYTEL) Escuela de Ingeniería Eléctrica, Universidad de Los Andes almerjbs@gmail.com, jerick@ula.ve, paredesj@ula.ve RESUMEN En este trabajo se proponen dos metodologías de acelerar el algoritmo de mediana ponderada regresiva (MPR) basados en la estimación previa del soporte de la señal a reconstruir antes de la etapa de estimación de la magnitud de la señal. El primer método propuesto, determina iterativamente el subespacio donde se encuentra la mayor energía de la señal poco densa, mientras que el segundo método se basa en determinar la dirección sobre el cual se produce la mayor variación del gradiente. Una vez determinado el posible soporte de la señal, la magnitud de la misma es determinada iterativamente siguiendo el algoritmo de mediana ponderada regresiva. Con los algoritmos propuestos se consiguen niveles de aceleración que van desde 4 a 12 veces más rápido que el algoritmo original [2] y que dependen del número de elementos no nulos de la señal poco densa a recuperar. Palabras clave: Algoritmo de reconstrucción, compressive sensing, mediana ponderada, aceleración. INTRODUCCIÓN
el cual forza la componente a cero o la deja como una de las componentes no nulas. Aunque este algoritmo tiene un buen desempeño en una gran variedad de distribuciones del ruido, su implementación requiere el cómputo innecesario de operaciones de mediana en aquellas componentes que son forzadas a cero por el test de relevancia. En este trabajo se proponen dos estructuras que aceleran el algoritmo en [2] que resuelve el problema inverso basado en mediana ponderada. La idea básica en ambas estructuras es la estimación del soporte de la señal previo al proceso iterativo de estimación de la magnitud de la componente. De esta forma el algoritmo iterativo actúa sólo en un soporte limitado de la señal poco densa estimando sus magnitudes mediante el operador de mediana ponderada. Se compara la velocidad de las estructuras propuestas con respecto al algoritmo original en términos de tiempos de cómputo, error de reconstrucción y número de iteraciones necesarias para alcanzar un error residual final. De igual forma, los algoritmos propuestos son usados en la restauración de una imagen médica en la cual ha sido simulado un efecto de píxeles faltantes.
Un problema comúnmente encontrado en restauración y limpieza de imágenes, sensado comprimido[1], representación poco densa de señales, regresión lineal, entre otras, es la solución del problema inverso que surge naturalmente en cada una de estas aplicaciones. Específicamente, considere una señal (o imagen) observada, Y, que está relacionada con una segunda señal deseada, poco densa en cierto dominio, a través del modelo lineal Y = AX + ξ, donde Y ∈ RM se le denomina señal adquirida que representa en una dimensión reducida a la señal deseada X ∈ RN , ξ denota el vector de ruido de dimensión M , cuyo modelo estadístico es en general desconocido pero que incluye la contaminación producida durante los procesos de adquisición, transmisión y detección, por lo que puede presentar valores atípicos que son mejor modelados por distribuciones de colas más pesadas que el modelo gaussiano. El objetivo es entonces estimar el vector X a partir de la señal observada. Dado que el número de observaciones es, en general, mucho menor que el tamaño de la señal a estimar, el problema inverso tiene múltiples soluciones. Así, el objetivo es encontrar el vector X que minimice cierta función costo, sujeto a que tenga el menor número de componentes diferentes de cero. A fin de resolver este problema inverso recientemente ha sido reportado en la literatura [2] un algoritmo robusto de reconstrucción que aprovecha las características del operador Mediana Ponderada para reconstruir la señal X bajo contaminación no gaussiana. La idea esencial del algoritmo es estimar iterativamente cada componente del vector a recuperar y luego someter cada valor estimado a un test de relevancia,
METODOLOGÍA Algoritmo de mediana ponderada regresiva El algoritmo de reconstrucción basado en mediana ponderada regresiva (MPR) resuelve el problema inverso como la solución al problema de optimización:
ˆ = arg min||Y − AX||`1 + τ ||X||`0 , X x
100
(1)
Memorias_BIOVEN_2012
donde τ es un parámetro de regularización que controla el objetivo de minimizar la norma `1 mientras mantiene, al mismo tiempo la solución poco densa. Observe que el primer término de (1), llamado ajuste de datos, nos da una referencia de la distancia entre el vector de medidas y la señal reˆ mientras que el segundo término construida proyectada AX, asegura pocos elementos no nulos en la solución. Dado que éste es un problema combinatorial del tipo Np -completo, en [2] se propone un esquema basado en descenso de coordenadas, que divide el problema de minimización multidimensional en N subproblemas escalares, resuelve cada subproblema escalar a la vez para estimar cada componente de X, mientras se mantienen fijas las demás componentes e iguales al valor conseguido en la iteración anterior, repitiéndose este procedimiento hasta que se logra un criterio de convergencia. La solución de cada problema escalar viene dado por:
M rn [i]
˜ (2) X = MEDIANA |Ain | Ain i=1 ( ˜ if krn k` − krn − XA ˜ n k` > τ k X 1 1 (k) ˆ Xn = (3) 0 Otros PN para n = 1, . . . , N , donde rn = Y − j=1,j6=n Aj Xj . Observe que para determinar el valor de cada componente Xn del vector X se usa el operador mediana ponderada, considerando como ponderaciones los valores de la n-ésima columna de la matriz A y muestras que son una versión escalada y desplazada del vector de medidas Y. Luego, el valor estimado se compara con una constante de umbralización para determinar si es relevante y ser agregado u omitido de la señal reconstruida. Esta constante, llamada τ se calcula de tal forma que permita la entrada de los posibles valores que puede tomar la señal y se reduce gradualmente a medida que avanza cada iteración. Así se agrega robustez en el proceso de estimación y selección de las componentes no nulas. Para más detalle ver [2].
Algoritmos de aceleración del MPR Surgen con el propósito de maximizar el rendimiento del algoritmo MPR, sin perder robustez en cuanto a la capacidad de reconstruir señales poco densas contaminadas con ruido impulsivo. En principio, se busca conocer a priori las componentes del vector solución que son diferentes de cero, definiendo así un posible soporte de la señal poco densa sobre el cual iterará el algoritmo MPR, reduciéndose así el cómputo de operaciones de mediana ponderada a las estrictamente necesarias. Sin embargo, se debe tener en cuenta que la complejidad matemática en el proceso de estimación del soporte no sea muy alta, ya que de lo contrario este paso sería computacionalmente costoso, por lo que no se logrará la aceleración deseada. Se proponen dos métodos. Estimación del soporte usando subespacio Un primer algoritmo de estimación de soporte, denotado como MPS, es inspirado en los métodos iterativos de estimación de soporte basados en Matching Pursuit [3] donde la posición de los elementos no nulos queda determinada al resolver arg maxi hAi · r(k) i donde r(k) es el residuo en la k-ésima iteración con r(0) = Y, y Ai denota la i-ésima columna de la matrix A. Dado que Ai · r(k) define el grado de correlación (similitud) entre el vector residuo y la i-ésima columna de la matrix A, es también un indicativo si dicha columna es usada en la definición de Y. Por consiguiente, en este primer método de selección del soporte, se escoge iterativamente las posiciones correspondientes a los L valores más grandes del vector AT · r(k) como potenciales elementos del conjunto soporte Λ. Así, para una primera iteración se define Λ1 como los subíndices donde AT · Y toma los L valores de mayor magnitud. Definido Λ1 se procede a estimar iterativamente las componentes Xn para n ∈ Λ1 siguiendo las Ecs. (2) y (3). En una segunda iteración se define el resiˆ Λ1 y de nuevo se determinan las L duo como Y − AΛ1 · X mayores proyecciones de este residuo en el espacio expandido por las filas de A definiéndose así un subconjunto Λ0 , que en unión con el subconjunto Λ1 define el soporte de la segunda iteración, es decir Λ2 = Λ1 ∪ Λ0 . Seguidamente se re-estiman las componentes de X en el soporte Λ2 usando las Ecs. (2) y (3). Se procede de esta forma hasta alcanzar un error residual objetivo.
• • •
X0
X1
X2
X3
X4
• • •
XN −2 XN −1 XN
(a)
X0
X1
X2
X3
X4
• • •
XN −2 XN −1 XN
(b)
Figura 1. (a) Flujo del algoritmo MPR a través de las compo1 nentes de X. (b) Flujo óptimo sólo a través de las componentes no nulas de X.
Estimación del soporte usando gradiente Un segundo método de estimación del soporte, denotado como MPG, tiene sus raíces en la teoría de filtros adaptativos donde se usa el gradiente de la función costo en el proceso de actualización de los coeficientes del filtro. En este sentido, y extrapolando la analogía, sólo aquellas componentes del vector X relacionadas con el mayor descenso en la función costo son las que formarán parte del soporte de la señal a estimar. Así, este método se enfoca en determinar el gradiente de la función costo Ec. (1) y seleccionar de es-
A pesar de las características de robustez ante una gran variedad de ruido impulsivo, el algoritmo MPR realiza un trabajo redundante. Para ilustrar la idea véase la Fig. ??(a) donde se observa cómo la operación de mediana ponderada es realizada sobre cada componente del vector X. Resulta evidente que esta operación se realiza sobre muchas componentes que siempre tendrán valor cero debido al carácter poco denso de X. 2 101
PROCESAMIENTO DE SEÑALES
te gradiente las L componentes más elevadas asociadas con la dirección donde se produce la máxima disminución de la función objetivo [4]. Sin embargo, al intentar determinar el gradiente de la función costo dada por Ec. (1) se encuentra con la limitante de que el segundo término de dicha ecuación no es diferenciable, por lo que se tiene que recurrir a una aproximación de la norma `0 que sea diferenciable. Específicamente, en este trabajo se usó: ||X||`0 =
N X i=1
|Xi | λ + |Xi |
amplitud sigue una distribución N (0, 1). Se generaron proyecciones aleatorias de dimensión M = 250 variando el número de elementos no nulos de X desde un 1 % hasta 6 % del tamaño de la señal. Se usó como criterio de parada para todos los algoritmos una energía residual normalizada mínima de 10−10 , y se determinaron las siguientes variables: número de iteraciones necesarias para lograr esta energía, error medio cuadrático normalizado (NMSE), tiempo de reconstrucción del algoritmo MPR y sus versiones aceleradas. El cuadro I muestra los resultados encontrados.
(4)
13
11
donde en la medida que λ → 0 la aproximación será mejor. Al usar esta aproximación en (1), y determinar el gradiente a lo largo de la p-ésima componente se consigue: τ λXp gp = sgn(Y − AX)(−Ai,p ) + 2 (λ + |Xp |)
MPS MPG
12
Aceleración
10 9 8 7 6
(5)
5 4 3 1
para p = 1, 2, . . . , N , formando así el vector gradiente G = [g1 , g2 , . . . , gN ]T . La idea que se sigue es escoger sobre el vector gradiente G aquellas L componentes de mayor magnitud para formar un primer subconjunto de soporte Λ1 sobre el cual se iterará usando las Ecs. (2) y (3) obteniéndose ˆ Λ1 . Seguidamente, se determina el un primer estimado de X ˆ Λ1 sobre el cual se evalúa el gradiente y se residuo Y−AΛ1 X escoge un nuevo subconjunto de L índices relacionados con la máxima variación del gradiente. Este subconjunto, unido con el subconjunto Λ1 , forman el nuevo espacio de potenciales elementos del soporte para los cuales se estima el valor de la amplitud del vector X. Se procede iterativamente de esta forma hasta que el residuo alcance una energía deseada. De acuerdo con ambos procedimientos descritos surgen otras variables a considerar. Primero, cuántas veces m se calcula el soporte sobre el residuo y segundo, cuál es el tamaño L del soporte seleccionado en cada iteración. La primera debe ser un valor entero relativamente pequeño que garantice aceleración y permita conseguir un error aceptable. Pruebas demostraron que m = 5 iteraciones es un valor apropiado, ya que aumenta la velocidad manteniendo un error comparable con el algoritmo tradicional. El segundo parámetro está relacionado directamente con el número de elementos no nulos de la señal original la cual se puede estimar [5]. Asumiendo conocido K se tiene que L = bK/mc. La variación del parámetro τ en Ec. (3) sigue el principio propuesto en [2], sólo que el valor inicial en cada iteración del soporte disminuye en un 20 % del valor de τ inicial. Para más detalles consultar [6].
2
3 4 5 Porcentaje de elementos no nulos
6
Figura 2. Aceleración de los algoritmos propuestos.
Aunque los algoritmos acelerados requieren mayor número de iteraciones para lograr el rendimiento deseado, esto no tiene mayor importancia en cuanto al tiempo de ejecución ya que se logra una disminución significativa, lo que resulta útil en aplicaciones de procesamiento de gran volumen de datos. La Fig. 2 muestra las curvas de aceleración alcanzadas con los algoritmos propuestos, donde la acelaraciòn se define como la razon del tiempo de reconstrucciòn del algoritmo orignal y el tiempo requerido por el algoritmo propuesto. En la Tabla I muestra los tiempos de reconstrucciòn del algoritmo original. Como se puede observar, al disminuir el porcentaje de elementos no nulos, la aceleración es aún mayor. Tabla I. Comparación de desempeño. % de K 1 2
MPR 6.4 9.0
Iteraciones MPS MPG 44.2 44.2 66.7 68.7
3
11.1
76.6
80.0
-104.9
-104.2
-104.7
0.451
4
12.5
81.0
85.6
-103.4
-103.1
-103.5
0.514
5
14.0
87.4
88.0
-102.6
-102.4
-102.7
0.576
6
15.0
88.6
89.0
-101.4
-101.6
-102.1
0.624
MP -108.4 -105.7
NMSE en dB MPS MPG -107.7 -107.5 -105.3 -105.8
tiempo MPR (s) 0.245 0.359
En la Fig. 3a se muestra la aceleración alcanzada por los algoritmos propuestos en función del tamaño de la señal considerando como criterio de parada que tanto el algoritmo original como los propuesto alcanzan un mismo valor para el parámetro de regularización en la última iteración. Como puede observarse, la aceleración tiene un comportamiento proporcional al tamaño de la señal obteniéndose reducciones en tiempo de cómputo de hasta 72 veces mas rápido para el algoritmo MPS y 55 para el algoritmo MPG sin que se comprometa el error de reconstrucción tal como se muestra en la Fig. 3b donde se utiliza como medida de desempeño el Error de reconsutrcción definido como −10 log10 (N M SE).
ANÁLISIS DE RESULTADOS Para comprobar el rendimiento de los algoritmos desarrollados, se sometieron a una prueba clásica de sensado comprimido para 100 realizaciones del problema inverso. Así, dada una señal poco densa de tamaño N = 500, cuya localización de elementos no nulos es aleatoria y cuya 3 102
Memorias_BIOVEN_2012
80
realizada para 20 % de píxeles perdidos de la imagen original. Se encuentra una mejora considerable (1.62 dB) respecto a un filtro de mediana. Para distintas realizaciones de ruido, con un porcentaje de pérdidas del 20 %, se realizan pruebas sobre los algoritmos propuestos obteniendo valores medios de: tiempo de reconstrucción T = 12,06 s, y P SN R = 34,67 dB, con K = 12, β = 0,95 y 8 iteraciones en contraste con T = 112,29 s, y P SN R = 34,58 dB, con β = 0,95 y 45 iteraciones del algoritmo original.
70
Aceleración
60
50
40
30
20
MPS MPG 600
800
1000 1200 1400 Tamaño de la señal
1600
1800
(a) 18 MPR MPS MPG
Reconstrucción SNR en dB
17
CONCLUSIONES
16
En este artículo se desarrollo dos nuevos algoritmos que permiten la aceleración del algoritmo de reconstrucción MPR. Los métodos propuestos estiman el soporte de la señal a reconstruir y concentra el proceso iterativo de estimación de la magnitud sobre las componentes en dicho soporte alcanzándose desempeños de aceleración de hasta 70 veces mas rápido que el algoritmo original, manteniendo errores de reconstrucción comparables y en algunos casos superiores al error obtenido por el algoritmo original. Los algoritmos acelerados son adecuados para el procesamiento de grandes cantidades de datos. Su superioridad en cuanto a velocidad respecto al algoritmo convencional es indiscutible. Además, las representaciones obtenidas arrojan errores similares por lo que no se ha sacrificado desempeño significativo en búsqueda de minimizar el tiempo de cómputo.
15
14
13
12
600
800
1000 1200 1400 Tamaño de la señal
1600
1800
(b) Figura 3. (a) Aceleración de los algoritmos propuestos bajo condiciones de ruido gaussiano SNR=12 dB, Nivel de densidad de 25 y usado 250 proyecciones. (b) Error de reconstrucción
Como un segundo ejemplo de aplicación del algoritmo propuesto, se considera el problema de restauración de una imagen médica. Sea Yobs la imagen observada, una versión contaminada de la imagen deseada Y. Debido al proceso de adquisición algunos de los elementos de Y han sido afectados de forma aleatoria por una máscara que ocasiona pérdida de píxeles. Usando los algoritmos propuestos, se busca resolver el problema inverso dado Yobs para determinar los píxeles no conocidos de Y. Es decir, se busca encontrar una representación poco densa Θ en un dominio Ψ, de la imagen Yobs , que sea robusta frente a ese ruido (pérdida de píxeles) y que a partir de ella se pueda reconstruir con gran detalle la imagen deseada Y, a través de Ψ−1 Θ.
(a)
(b)
(c)
(d)
AGRADECIMIENTOS Los autores agradecen al CDCHTA de la Universidad de Los Andes por el soporte parcial de este proyecto, financiado bajo el número Proyecto B CDCHTA I-1336-12-02-B REFERENCIAS [1] Candes E. J. (2006): “Compressive sampling,” Proc. Int. Cong. Mathemat., Madrid, España, vol. 3: pp. 1433-1452. [2] Paredes J. L. et al (2011): “Compressive Sensing Signal Reconstruction by Weighted Median Regression Estimates,” IEEE Trans. Signal Process., vol. 59, no. 6: pp. 2585-2601. [3] Mallat S. et al (1993): “Matching pursuits with timefrequency dictionaries,” IEEE Trans. Signal Process., vol. 41, no. 12: pp. 3397-3415. [4] Wu T. T. et al (2008): “Coordinate Descent Algorithm for Lasso Penalized Regression”, The Annals of Applied Statistic, vol. 2, no.1: pp. 224-244.
Figura 4. (a) Imagen original Y. (b) Imagen observada Yobs . Imagen reconstruida: (c) Filtro de mediana 5×5. (d) Algoritmo propuesto.
[5] Needell D. et al (2008): “CoSaMP: Iterative signal recovery from incomplete and inaccurate samples,” Appl. Comput. Harmon. Anal., vol. 26: pp. 301-321. [6] Becerra A. et al (2012): “Estrategias de aceleración del algoritmo de reconstrucción basado en mediana ponderada regresiva,” Trabajo especial de grado, Universidad de los Andes, Mérida, Venezuela.
Se realizan pruebas sobre una imagen MRI de 256 × 256 píxeles, aplicando un procesamiento de bloques de dimensiones 8 × 8 utilizando 1un diccionario DCT de 64 átomos. La reconstrucción sólo se aplica a los píxeles perdidos de la imagen original. La Fig. 4 muestra una prueba 4 103
PROCESAMIENTO DE SEÑALES
REDES NEURONALES PARA RECONSTRUIR SEÑALES ADQUIRIDAS EN UNA UNIDAD DE CUIDADOS INTENSIVOS Alexander Hoyo1 , Carlos Lollett1 , Miguel Vera2 , Sara Wong1 , Miguel Altuve1 1
Grupo de Bioingeniería y Biofísica Aplicada, Universidad Simón Bolívar, Caracas, Venezuela 2 Departamento de Ciencias, Universidad de Los Andes, Núcleo Táchira, Venezuela
ahoyo@usb.ve, clollett@usb.ve, veramig@gmail.com, swong@usb.ve, maltuve@usb.ve
Resumen El monitoreo de señales fisiológicas en una unidad de cuidados intensivos permite evaluar el estado de salud de un paciente y proveer un diagnóstico y un tratamiento efectivo según el tipo de patología. Sin embargo, debido a fallas de los sensores o por ruido (movimientos del paciente, desconexión de electrodos, etc), las señales pueden corromperse o perderse, dificultándose el diagnóstico de las patologías. En este trabajo se propone reconstruir señales fisiológicas utilizando la información contenida en otras señales, a partir de una metodología basada en Redes Neuronales de una capa, entrenada con un algoritmo de mínimos cuadrados. Los resultados obtenidos muestran que es posible hacer una reconstrucción de las señales con un elevado coeficiente de correlación (0.93 para reconstruir la presión arterial a partir del electrocardiograma). Los trabajos futuros están orientados a la extensión multicapa de esta metodología con el fin de incrementar el desempeño de la reconstrucción. Palabras Clave: redes neuronales, reconstrucción multivariable, coeficiente de correlación, señales fisiológicas.
Introducción En una unidad de cuidados intensivos (UCI), el monitoreo de señales fisiológicas es realizado con el fin de diagnosticar patologías y proporcionar un tratamiento oportuno. Este proceso se puede descomponer en cuatros etapas [1], descritas en la figura 1: i) adquisición, donde se obtienen los datos del paciente, tales como señales fisiológicas, imágenes, exámenes de laboratorio, etc., ii) detección, que caracteriza los datos para proporcionar una descripción útil para el diagnóstico, iii) diagnóstico, realizado por el médico, basado en la información aportada por la etapa previa, sus experiencias y conocimientos, y iv) terapia, que consiste en la indicación y aplicación de un conjunto de medios de diversas clases (higiénicos, farmacológicos, quirúrgicos y/o físicos) con el fin de abordar la patología del paciente.
Figura 1: Proceso de monitoreo en una UCI En la etapa de adquisición son comunes las pérdidas o perturbaciones de las señales adquiridas, debido a factores diversos: falla de algún sensor, ruidos provocados por el movimiento del paciente, desconexión de electrodos, etc. Esto puede ser perjudicial al paciente, especialmente cuando se requiere de observaciones continuas para detectar eventos fisiopatológicos o simplemente como base para el pronóstico de la enfermedad. En una aplicación en tiempo real, la reconstrucción de señales fisiológicas puede ser utilizada para la esti-
104
Memorias_BIOVEN_2012
mación de parámetros, como la frecuencia cardíaca, presión arterial o respiración, cuando las señales primarias utilizadas para tal fin no están disponibles o son poco confiables. Además, la reconstrucción puede facilitar la detección de cambios en la salud del paciente cuando la dinámica de las señales evoluciona [2]. Varios trabajos han sido propuestos para la reconstrucción de señales fisiológicas defectuosas. En este sentido, usando una red neuronal (RN) multicapas entrenada con el algoritmo de Hinton, se logró reconstruir 30 s del electrocardiograma, la respiración, la presión arterial, etc., con un coeficiente de correlación promedio de 0,905 [3]. De igual manera, con una RN con retardo distribuidas se logró obtener un coeficiente de correlación promedio de 0,897 para reconstruir las mismas señales [4], y un coeficiente de correlación promedio de 0,841 usando filtros adaptativos GALL (Gradient Adaptive Lattice Laguerre) [5]. En este trabajo se propone una metodología basada en una RN de una capa, entrenada con el algoritmo de Widrow y Hoff, para la reconstrucción de señales fisiológicas a partir de la información contenida en otras señales disponibles. El resto del trabajo está organizado de la siguiente manera. La siguiente sección presenta la metodología, comenzando por la descripción de la base de datos utilizada, el proceso de reconstrucción y la técnica de evaluación. Luego se muestran y analizan los resultados y finalmente se exponen las conclusiones y los trabajos futuros.
Figura 2: Ejemplo de señales adquiridas en una UCI
Reconstrucción de señales usando RN Una RN de una capa es utilizada para reconstruir la señal suprimida (señal objetivo) Vα , a partir de la información contenida en las j − 1 señales restantes disponibles. La arquitectura de la RN propuesta se muestra en la figura 3, donde x = {x1 , . . . , xK } es el vector de entrada compuesto de la concatenación de las muestras contenidas en una ventana deslizante de tamaño n de cada señal Vl con l 6= α, K = n(j − 1), y es la salida de la RN, w = {w1 , . . . , wK } es el vector de pesos, b es el umbral y f es la función de transferencia de tipo lineal. Además, se ha agregado una entrada adicional xK+1 = 1 con peso wK+1 = b, para integrar el valor del umbral en el vector de pesos (ecuación 1), donde <> es el producto punto.
Metodología
y=f
K+1 X
! wk · x k
= f (hw · xi) = hw · xi
(1)
k=1
Base de datos Las señales de electrocardiograma (ECG), respiración (RESP), presión arterial (ABP), presión venosa centra (CVP), pletismografía (PLETH) y presión arterial pulmonar (PAP) fueron obtenidas de 100 pacientes (100 registros), recluidos en una UCI, a una frecuencia de muestreo de 125 Hz [7]. Un ejemplo de estas señales se puede observar en la figura 2. Cada registro Si , ∀i ∈ {1, . . . , 100}, contiene un conjunto {V1 , V2 , . . . , Vj } de señales diferentes (6 ≤ j ≤ 8), de 10 min de duración Figura 3: Arquitectura de la RN propuesta cada una. Los últimos 30 s de una de las señales, elegida de forma aleatoria, han sido suprimidos para simular la En la etapa de entrenamiento, se determinan los pérdida de la señal. parámetros w y b usando el algoritmo de Widrow y 105
PROCESAMIENTO DE SEÑALES
Hoff [8], introduciendo a la RN patrones entrada-salida {x, y o }, donde y o es la salida original deseada. Un subconjunto de entrenamiento fue construido para llevar a cabo esta tarea. Para cada registro Si , se deslizó la ventana n con un paso de una muestra, sobre los primeros 9 min 30 s de los datos, para obtener diferentes patrones {x, y o }. Finalmente, el subconjunto de entrenamiento está formado por el 5 % de los patrones {x, y o } de cada registro, tomados aleatoriamente. El algoritmo de entrenamiento converge iterativamente a la solución de mínimos cuadrados, en el que el valor de los peso w se modifican usando la ecuación: w(t + 1) = w(t) + λ (y o − y) xk
Método de evaluación La calidad de la reconstrucción es evaluada usando dos indicadores: i) Q1 definido en la ecuación 3, donde mse representa el error cuadrático medio entre las señales original y o y reconstruida y y var es la varianza, y ii) Q2 definido en la ecuación 4, es el coeficiente de correlación entre las señales original y reconstruida, donde Cov es la covarianza.
Q2 = m´ax
Cov(y o , y) ,0 σ(y o )σ(y)
(2)
donde λ es la constante de entrenamiento elegida heurísticamente y (y o − y) es la diferencia entre el valor de la señal original y o y la reconstruida y, obtenida al aplicar la ecuación 1. El entrenamiento culmina cuando se alcanza un mínimo coeficiente de correlación (0,99) entre las señales original y reconstruida o cuando se alcanza un máximo número de iteraciones (10000 iteraciones). Una vez concluida la etapa de entrenamiento, la etapa de prueba consiste en evaluar la RN (ecuación 1), para reconstruir la porción de 30 s que ha sido suprimida de la señal objetivo.
mse(y o , y) Q1 = m´ax 1 − ,0 var(y o )
(3)
ECG aVR se reconstruyó utilizando ABP (cuando estaba disponible), ECG II y ECG V. ECG II se reconstruyó utilizando ECG V y ECG aVR. Cuando ECG aVR no estaba disponible se utilizó ECG I o ABP. ABP se reconstruyó utilizando PLETH y ECG aVR si estaban disponibles, en caso contrario se utilizó ECG II y ECG V. PLETH se reconstruyó utilizando RESP, ECG II y ECG V. Cuando alguna de estas señales de ECG no estaban disponible, se sustituye por ABP. CVP se reconstruyó utilizando ABP, RESP y PLETH si estaban disponibles, en otros casos se utilizó ABP y ECG II. RESP se reconstruyó utilizando PLETH y ABP. Cuando estas señales no estaban disponibles, se utilizó CVP y señales de ECG
Se encontró que el tamaño óptimo de la ventana n fue de 1 s para las señales ECG, ABP y PLETH, mientras que fue de 3,6 s para la RESP y CVP. Para el caso del ECG, esta ventana corresponde aproximadamente a la duración promedio del ciclo cardíaco de una persona adulta. Para el caso de la respiración, el tamaño de la ventana encontrado está en concordancia con el período de la respiración (3 s aproximadamente). El cuadro 1 detalla los valores promedio ± desviación estándar de los indicadores Q1 y Q2 , para la reconstrucción de diferentes señales fisiológicas. En las figuras 4, 5 y 6 se muestran diferentes ejemplos de reconstrucción de señales fisiológicas. En estas figuras se puede observar claramente las similitudes entre las señales original y reconstruida.
Cuadro 1: Valores promedios ± desviación estándar de los indicadores Q1 y Q2
(4)
Resultados La reconstrucción se llevó a cabo usando j = 2 o j = 3 señales fisiológicas: 106
Señal objetivo ECG aVR ECG II ABP PLETH CVP RESP
Q1 0,96 ± 0,03 0,91 ± 0,06 0,89 ± 0,14 0,86 ± 0,11 0,86 ± 0,18 0,72 ± 0,33
Q2 0,95 ± 0,04 0,90 ± 0,07 0,93 ± 0,09 0,92 ± 0,07 0,78 ± 0,07 0,73 ± 0,29
Memorias_BIOVEN_2012
función kernel lineal para reconstruir señales fisiológicas, adquiridas en una unidad de cuidados intensivos. El desempeño de la reconstrucción se estimó usando el coeficiente de correlación entre la señal reconstruida y la señal original. Los resultados muestran que la metodología propuesta es eficiente para reconstruir señales de electrocardiogramas, presión arterial y pletismografía. Sin embargo, las reconstrucciones de señales como la respiración Figura 4: ECG II reconstruido a partir de ECG aVR y la presión venosa central no son tan eficientes por lo y ECG V. Q1 = 0,92 y Q2 = 0,94 que se requiere un estudio más detallado. En un futuro se espera adaptar esta metodología a una red neuronal multicapas y ensayar con diferentes funciones kernel para reconstruir este tipo de señales fisiológicas y aumentar el desempeño de la reconstrucción. Además, otra técnias pudieran ser utilizadas para la reconstrucción de señales fisiológicas, en especial las máquinas de soporte vectorial o la fusión de datos [6].
Referencias Figura 5: PLETH reconstruida a partir de RESP, [1] Cruz J. et al (2007): Sistema multiagentes para el monitoreo inteligente, CLAIB 2007, IFMBE ProECG II y ECG V. Q1 = 0,97 y Q2 = 0,98 ceedings 18: pp. 501–505. [2] Farrell P. et al (2002): SIDS, ALTE, Apnea, and the use of home monitors, Pediatrics in Review, 23(1), 3–9. [3] Rodrigues R. (2010): Fill in the Gap: A general method using Neural Networks, Computing in Cardiology 2010; 37: 453–456. [4] McBride J. et al (2011): Reconstruction of physiological signals using iterative retraining and accumulated averaging of neural network models, Physiological Measurement, 32, 661–675. Figura 6: RESP reconstruida a partir de ABP y [5] Silva I. (2010): PhysioNet 2010 Challenge: A RoPLETH. Q1 = 0,98 y Q2 = 0,92 bust Multi-Channel Adaptive Filtering Approach to the Estimation of Physiological Recordings, Computing in Cardiology 2010, 37: 313–316. Estos resultados muestran que utilizando una RN como la planteada en este trabajo es posible obtener altos [6] Hernández A. et al (1999): Multisensor fusion for coeficientes de correlación, mayores de 0,9, cuando se atrial and ventricular activity detection in coronary care monitoring, IEEE Transactions on biomedical reconstruyen señales de electrocardiogramas, de presión engineering, 46: 1186–1190. arterial y de pletismografía. Sin embargo, en la reconstrucción de señales como la presión venosa central y la [7] Physionet. (2010): Physiologic signal archives for biomedical research, Disponible en: respiración, los coeficientes de correlación son inferiohttp://www.physionet.org, último acceso Junio de res a 0,8, probablemente debido a una baja correlación 2012. entre las señales usadas para reconstruirla. [8] Cristianini N. et a (2000): An Introduction to Support Vector Machines and Other Kernel-based Learning Methods, Cambridge University Press. Conclusiones y trabajos futuros En este trabajo se utilizó una RN de una capa entrenada con un algoritmo de mínimos cuadrados y una107
PROCESAMIENTO DE SEÑALES
Sensibilidad al Pre-Procesamiento de los Datos de un Detector de Apnea-Bradicardia Basado en Modelos Semi-Markovianos Ocultos Miguel Altuve1 , Guy Carrault2,3,4 , Alain Beuchée2,3,4,5 , Patrick Pladys2,3,4,5 , Alfredo I. Hernández2,3,4 1
Grupo de Bioingeniería y Biofísica Aplicada, Universidad Simón Bolívar, Caracas, Venezuela 2 Inserm U1099, Rennes, F-35000, France 3 Université de Rennes 1, LTSI, Rennes, F-35000, France 4 INSERM CIC-IT 804, Rennes, F-35000, France 5 CHU Rennes, Pôle Médico-Chirurgical de Pédiatrie et de Génétique Clinique, Néonatologie, Rennes, F-35000, France maltuve@usb.ve, guy.carrault@univ-rennes1.fr, patrick.pladys@chu-rennes.fr, alain.beuchee@chu-rennes.fr, alfredo.hernandez@univ-rennes1.fr
Resumen La apnea-bradicardia en el neonato prematuro se define como una pausa respiratoria seguida de una disminución de la frecuencia cardíaca. La repetición de los episodios de apnea-bradicardia pone al neonato en peligro y tienen un efecto negativo en su desarrollo. En este trabajo se propone y evalúa un detector de apnea-bradicardia basado en el análisis de la dinámica de las series temporales RR (duración del ciclo cardíaco), utilizando modelos semiMarkovianos ocultos. Además, se estudia el desempeño de este detector cuando una etapa de pre-procesamiento, compuesta de la cuantización de las series y la integración de una versión retardada de las observaciones, es añadida. Los resultados muestran que la inclusión de la etapa de pre-procesamiento de las series temporales proporciona un incremento de la sensibilidad y la especificidad y una reducción del tiempo de detección de estos episodios. Los trabajos futuros están destinados a la extensión multivariable de este detector. Palabras Clave: Procesamiento de señales biomédicas, modelos semi-Markovianos ocultos, detección de eventos cardiorrespiratorios, apnea-bradicardia.
Introducción Un neonato es prematuro cuando su nacimiento ocurre antes de las 37 semanas de amenorrea (primer día del último período menstrual). Los neonatos prematuros son expuestos a numerosos problemas debido a que sus órganos vitales no están completamente desarrollados. Una de las complicaciones más importantes es la apnea, definida como una interrupción prolongada del flujo respiratorio durante más de 15 segundos y generalmente viene acompañada de bradicardia, definida como una disminu-
ción de la frecuencia cardíaca. Los episodios de apneabradicardia (AB) son fenómenos que reflejan una forma de inadaptación a la vida extra-uterina y están relacionados con la inmadurez fisiológica de varios componentes del sistema respiratorio (centros neuronales, quimiorreceptores centrales y periféricos y vías aferentes y eferentes), pero también pueden ser causados o agravados por una infección, una hipoxia o una patología intracraneal. La repetición de los episodios de AB pone al neonato en peligro, afecta su desarrollo neuromotor y prolonga el tiempo de hospitalización [1, 2].
108
Memorias_BIOVEN_2012
Actualmente, en las unidades de cuidados intensivos neonatales (UCIN), los episodios de AB son detectados analizando el intervalo RR (duración del ciclo cardíaco) mediante dos técnicas de umbrales: fijo y relativo [3, 4]. En el caso del umbral fijo, la detección se produce cuando el intervalo RR supera un umbral fijo predefinido (usualmente 600 ms) durante 4 s, mientras que en el caso del umbral relativo, la detección se produce cuando el intervalo RR excede un umbral relativo (usualmente 33 %) al intervalo RR promediado en una ventana móvil, durante 4 s [3]. En este trabajo se propone y evalúa un método de detección de AB que utiliza modelos semi-Markovianos ocultos (MSMO) para analizar las dinámicas de las series temporales RR, extraídas del ECG de neonatos prematuros con frecuentes episodios de AB. Además, se evalúa la sensibilidad de este detector cuando una etapa de pre-procesamiento es añadida. El resto de este trabajo está organizado de la siguiente manera. En la siguiente sección se presenta la metodología de detección, el preprocesamiento de los datos y la evaluación del detector. Luego se detallan los resultados de la detección de los episodios de AB y finalmente, las conclusiones y los trabajos futuros son presentados.
Viterbi es utilizado para obtener el valor final de λk por medio de una etapa de maximización de esperanza. El aprendizaje finaliza cuando la verosimilitud logarítmica Lk = log P (O1:T |λk ) converge a un valor máximo, donde P (O1:T |λk ) es la probabilidad de que la secuencia de observación O1:T sea generada por el modelo con parámetros λk . Una vez que la fase de entrenamiento ha culminado, los K modelos son aplicados en una fase de verificación en un subconjunto de prueba para realizar la detección del evento. En ese caso, la verosimilitud logarítmica para el instante t y el modelo k, Lkt = log P (Ot−T +1:t |λk ), es determinada usando una ventana móvil de tamaño T . La detección del evento α ∈ {1, 2, . . . , K} es finalmente realizada cuando: Lαt − Lkt > δ α,k
∀ k ∈ {1, 2, . . . , K}, k 6= α
(1)
donde δ α,k son umbrales fijos que deben ser optimizados.
Pre-procesamiento de los datos Con el fin de incrementar el desempeño del detector, tres tipos de pre-procesamiento han sido propuestos en este trabajo:
Metodología
1. La cuantización uniforme de las series RR con un paso de cuantización constante ∆CU .
Detector basado en MSMO
2. La cuantización no uniforme de las series RR con ~ CNU que depende de un paso de cuantización ∆ ~ CNU es determinala distribución de la señal. ∆ do comparando la suma acumulada de los valores normalizados del histograma con respecto al umbral δCNU .
Un MSMO es un modelo estadístico caracterizado por un número finito de M estados y un conjunto de parámetros λ , {aij , bi , πi , pi }, donde aij es la probabilidad de transición entre estados i y j (aii = 0), bi es la probabilidad de emisión de observaciones, πi es la probabilidad del estado inicial, y pi es la probabilidad de duración del estado i [5]. En este trabajo, bi y pi son representados con una distribución Gaussiana: bi (~ µ, Σ) y pi (µd , σd ), donde µ ~ y Σ son los centros y la matriz de covarianza de las observaciones y µd y σd son el promedio y la desviación estándar de la duración de los estados (en segundos y truncados en cero). El detector propuesto está basado en K MSMO, usados para representar K dinámicas diferentes asociadas con distintos estados o eventos fisiopatológicos a discriminar. Primero, una etapa de entrenamiento es aplicada a cada modelo para estimar cada λk , ∀ k ∈ {1, 2, . . . , K}, a partir de las secuencias de observaciones de un subconjunto de entrenamiento. El algoritmo de
3. La integración de versiones retardadas de la serie RR en la secuencia de observación. En este sentido, se crea una matriz de observación que integra la versión original y la versión retardada de la se Ot−T +1:t rie temporal observada, O = , Ot−τ −T +1:t−τ donde τ es el retardo predefinido. Esto permite incrementar la observabilidad del sistema mientras se mantiene el mismo número de fuentes. Diferentes valores de ∆CU , δCNU y τ fueron evaluados hasta obtener el valor óptimo que mejora el desempeño de la detección. RRCU , RRCNU son las versiones cuantizadas uniforme y no uniforme de RR, mientras que RR integra la versión retardada de RR.
109
PROCESAMIENTO DE SEÑALES
Resultados
LS1: compuesto de 30 segmentos seleccionados aleatoriamente e incluyendo un evento de AB, tomado desde el inicio de la bradicardia y con una duración de T = 7 s. LS2: consiste de 300 segmentos en reposo seleccionados aleatoriamente de las series y con una duración de T = 7 s. La longitud de los segmentos (7 s) corresponde al tiempo promedio medido desde el inicio de la bradicardia hasta el valor pico de la serie RR en el episodio de bradicardia. Para reducir la variabilidad en la amplitud de la primera muestra de las series, el promedio, calculado en los 5 s precedentes al inicio de cada segmento, fue removido en todos los segmentos. Esto es particularmente importante para la estimación del primer estado (πi ) de los modelos. Los modelos fueron evaluados en un subconjunto de prueba que consta de la totalidad de las series RR (duración = 26.25±11.37 min) con 233 episodios de AB. El detector es aplicado a esas series tal como se describió en la sección previa, con una ventana móvil de tamaño T = 7 s. Los verdaderos positivos (V P ), verdaderos negativos (V N ), falsos positivos (F P ) y falsos negativos (F N ) fueron determinados para cada muestra, comparando la detección obtenida con la anotación disponible. Un VP ocurre cuando una detección se encuentra rodeada de una anotación en una vecindad de 20 s. El desempeño de la detección fue evaluado utilizando la sensibilidad (SEN = V P /(V P + F N )) y la especificidad (ESP = V N /(V N + F P )) de cada detector, para diferentes umbrales de detección, y representado por curvas ROC. El retardo de la detección (dd) también fue determinado y definido como el tiempo transcurrido entre el instante de la anotación y la detección. Los resultados de la detección fueron evaluados usando la distancia más corta a la detección perfecta (D), según la ecuación 2. D = m´ın
p
(1 − SEN )2 + (1 − ESP )2
K = 2 modelos fueron usados para detectar los episodios de AB: un MSMO con parámetro λk enfocado en la dinámica de LSk, k ∈ {1, 2}. Por lo tanto, solo un umbral es usado, δ 1,2 . El número de estados M k fue determinado usando el criterio de información Bayesiano. Una ventana móvil de T = 7 s fue usada para construir Ot−T +1:t y para determinar Lkt . La detección de un episodio de AB es efectuada aplicando la ecuación 1. Las curvas ROC son mostradas en la figura 1 y sus respectivos retardos de detección promedio son mostrados en la figura 2. Los parámetros óptimos fueron: τ = 0,67 s, ∆CU = 1300 y δCNU = 0,05. Además, los resultados obtenidos con los métodos convencionales de detección son mostrados como referencia. En esas figuras, el punto donde D ocurre es representado con el carácter “x”.
(2) 110
1 0.95 0.9 0.85 0.8 Sensibilidad
El detector propuesto fue evaluado en señales reales adquiridas en una UCIN. 148 series temporales RR fueron extraídas del ECG de 32 neonatos prematuros con 233 episodios de AB anotados manualmente por expertos, tal como se describe en [6, 7]. Estas series fueron remuestreadas uniformemente a 10 Hz. Dos subconjuntos fueron construidos para la etapa de entrenamiento:
0.75 0.7
0.65
CU
0.6 Fixed threshold Relatif threshold
0.55 0.5 0
0.05
0.1
0.15
0.2 0.25 0.3 1-Especificidad
0.35
0.4
0.45
0.5
Figura 1: Curvas ROC para la detección de AB 8 7 Retardo de detección promedio (s)
Evaluación del detector
6 Fixed threshold Relatif threshold
5 4 3 2 1 0 −1 −2 0
0.05
0.1
0.15
0.2
0.25 0.3 1-Especificidad
0.35
0.4
0.45
0.5
Figura 2: Retardo promedio de detección de AB
Memorias_BIOVEN_2012
En el cuadro 1 se detallan los resultados de SEN , ESP y dd en el punto D (representado con el carácter “x” en las figuras 1 y 2), para la detección de los episodios de AB.
el desempeño de la detección. Este es un resultado importante ya que la minimización del tiempo de la detección, desde el inicio del episodio de apnea-bradicardia hasta la aplicación de la terapia por la enfermera, es una de las principales metas en este campo médico. La principal ventaja del enfoque propuesto es su Cuadro 1: Sensibilidad, especificidad y retardo de de- simplicidad, abriendo la posibilidad para una implementección al evaluar D (ecuación 2) tación embarcada en dispositivos móviles. Los trabajos futuros están dirigidos a la extensión multivariable de Variable SEN ( %) ESP ( %) dd (s) este método con el fin de integrar otras características RR 74,20 92,77 6,37 ± 7,83 extraídas del ECG del neonato prematuro, como la amRRCU 86,63 97,30 2,33 ± 3,15 plitud de la onda R, la duración del complejo QRS, el RRCNU 89,98 94,67 1,93 ± 3,34 intervalo PR y la morfología de la onda P. RR 90,38 92,23 0,92 ± 3,56 Umbral fijo Umbral relativo
77,11 73,35
79,31 87,36
4,63 ± 5,04 4,16 ± 8,79
Agradecimientos
Los resultados muestran que el modelado de las dinámicas de las series temporales RR por MSMO mejora el desempeño de la detección, comparado con los métodos de detección clásicos (detección por umbral fijo o relativo). Adicionalmente, la aplicación de los métodos de pre-procesamiento propuestos (RRCU , RRCNU y RR) mejora aún más este desempeño y reduce el tiempo promedio de detección. Estos resultados indican que nuestro enfoque detecta, en promedio, con más de 2 segundos de anticipación que los detectores convencionales usados en una UCIN.
Los autores quisieran agradecer al programa de cooperación ECOS NORD por el apoyo prestado al proyecto V09S04.
Referencias [1] Janvier A. et al (2004): Apnea is associated with neurodevelopmental impairment in very low birth weight infants, J Perinatol, 24(12): pp 763–8. [2] Pillekamp F. et al (2007): Factors influencing apnea and bradycardia of prematurity-implications for neurodevelopment, Neonatology, 91(3): 155–161. [3] Poets C.F. et al (1993): The relationship between bradycardia, apnea, and hypoxemia in preterm infants, Pediatr Res, 34(2):144–7.
Conclusiones y trabajos futuros Este trabajo se enfocó en el difícil problema de explotación de las dinámicas de series temporales biomédicas para la detección temprana de eventos patológicos. Un nuevo enfoque de detección basado en MSMO y que combina diferentes métodos de pre-procesamiento fue propuesto y evaluado usando señales reales adquiridas en UCIN. El enfoque propuesto para la detección de episodios de apnea-bradicardia mostró un mejor desempeño que los métodos clásicos, e incluso minimizando el tiempo de la detección. La utilidad de la fase de cuantización y de la integración de las versiones retardadas de la observación en el MSMO fue evaluada y arrojó una mejora en
[4] Cruz J. et al (2006): Algorithm fusion for the early detection of apnea-bradycardia in preterm infants, Computers in Cardiology, Valencia, España, pp 473–476. [5] Yu S.Z. (2010): Hidden semi-Markov models, Artificial Intelligence, 174(2): pp 215–243. [6] Altuve M. et al (2011): Multivariate ECG analysis for apnoea-bradycardia detection and characterisation in preterm infants, International Journal of Biomedical Engineering and Technology, 5(2/3): pp 247–265. [7] Dumont J. et al (2010): Improving ECG beats delineation with an evolutionary optimization process, IEEE Trans Biomed Eng, 57(3): pp 607–15.
111
PROCESAMIENTO DE SEÑALES
UNA NUEVA FAMILIA DE FILTROS NO LINEALES RECURSIVOS BASADOS EN EL OPERADOR DE MYRIAD Y SU APLICACIÓN AL PROCESAMIENTO DE BIOSEÑALES Miguel Gómez, José L. Paredes Centro de Ingeniería Biomédica y Telemedicina (CIBYTEL) Escuela de Ingeniería Eléctrica Universidad de Los Andes kabala.ve@gmail.com, paredesj@ula.ve RESUMEN EL filtrado no lineal, basado en los modelos estadísticos de colas pesadas, ha surgido como una alternativa a las técnicas de filtrado lineal en aquellos casos donde el ruido que contamina la señal de interés es de naturaleza impulsiva. En este contexto, el filtro Myriad, derivado de las distribuciones SαS, constituye un esquema de filtrado robusto en presencia de ruido impulsivo. Sin embargo, el cómputo de la muestra myriad requiere la minimización de una función costo no convexa, que demanda un consumo considerable de tiempo y recursos, los cuales aumentan en la medida que el tamaño de la ventana de observación se incrementa. En este sentido, en este trabajo se propone un nuevo esquema de filtrado recursivo basado en el operador myriad ponderado, capaz de reducir la ventana de observación manteniendo a su vez la característica de frecuencia selectiva deseada. La robustez de esta nueva familia de filtros se demuestra a través del filtrado de una señal de electrocardiograma (ECG) contaminada con ruido impulsivo. Palabras Clave: Filtrado no lineal, distribuciones SαS, algoritmo adaptativo, señales ECG. INTRODUCCIÓN
ponderaciones de forma iterativa. Simulaciones que involucran el filtrado paso banda de una señal ECG contaminada El estimador de máxima verosimilitud desarrollado en la con ruido α-stable [5], demuestran el desempeño de este nueteoría clásica estadística [1], constituye un método sobre el vo esquema de filtrado en procesos de adquisición de señales cual es posible derivar una extensa variedad de procesos de biomédicas contaminadas con ruido impulsivo de diversa denfiltrado, entre ellos los filtros de Media ponderada y Myri- sidad. ad ponderado. Estos esquemas de filtrado están basados en el modelo estadístico que caracteriza la señal observada. En par- METODOLOGÍA ticular, el filtro myriad ponderado utiliza como base el modelo estadístico dado por la familia de distribuciones simétricas Filtro Myriad Ponderado 4 α-stable (SαS) [2], de la que es posible derivar ambos ca- Dado un vector de observaciones i.i.d. definido por x = sos; obteniendo para α = 1, el modelo no lineal basado en [x1 , x2 , . . . , xN ]T , en el que cada elemento sigue el modela distribución de Cauchy y el modelo lineal derivado de la lo xi = β + ηi , i = 1, 2, ..., N, donde el ruido ηi sigue el distribución Gaussiana obtenido para α = 2. En general, el modelo SαS para un parámetro α específico. El estimador de parámetro α ∈ (0, 2] controla la pesadez de las colas y dota máxima verosimilitud se define como el valor de β que minide generalidad a las distribuciones SαS, pudiendo modelar miza N X una gran variedad de procesos impulsivos. ˆ β(x) = arg min ρ(x − β). (1)
En este trabajo se extiende el operador myriad ponderado a un nuevo esquema de filtrado que agrega recursividad. Utilizando la formulación ecuación-error [3] y el método del descenso pronunciado[4], se derivan expresiones para la optimización de las ponderaciones de esta nueva familia de filtros, lo que conduce a un algoritmo adaptativo que actualiza las
β
i
i=1
Donde ρ(·) se relaciona con la función de densidad de probabilidad (fdp) marginal fxi que siguen los datos, mediante ρ(x) = − log fxi (x). Al particularizar el problema de minimización de la expresión (1) al caso donde α = 1, y después de ciertas manipulaciones [6, 7] se obtiene el operador
112
Memorias_BIOVEN_2012
Algoritmo de OptimizaciĂłn
myriad ponderado: βË&#x2020; = arg min β
N X
log[K 2 + |wi | ¡ (sgn(wi )xi â&#x2C6;&#x2019; β)2 ]
(2)
i=1
donde {wi = |wi | ¡ sgn(wi )}|N i=1 denotan las ponderaciones del filtro. Como se puede observar no existe una expresión cerrada para el computo del Myriad y se recurre a algoritmo de optimización como el algoritmo de puntos fijos desarrollado en [7]. Filtro Myriad Ponderado Recursivo Considere el esquema de filtrado lineal recursivo IIR (del inglÊs infinite impulse response) dado por la ecuación en diferencia (3), cuya salida no solo depende de las muestras de entrada sino tambiÊn de versiones retardadas de la salida. Este esquema de filtrado recursivo implementa N + M elementos de retardo, N + M + 1 multiplicadores y N + M sumadores. y[n] =
N X
ak y[n â&#x2C6;&#x2019; k] +
k=1
M X
bk x[n â&#x2C6;&#x2019; k]
(3)
k=0
Tomando como base el modelo de filtrado lineal recursivo IIR es posible definir una estructura de filtrado recursivo para el operador myriad ponderado de la expresión (2). En este sentido, el esquema de filtrado propuesto implementa N + M elementos de retardo, el operador myriad de N + M + 1 entradas, y las ponderaciones relativas al operador myriad. El filtro myriad recursivo queda definido asà por la siguiente expresión: y[n] = arg min β
+
(
M X
N X
2
Dada la estructura de filtrado myriad recursivo, el objetivo es diseĂąar los coeficientes Ăłptimos que sinteticen una respuesta de frecuencia deseada. El enfoque a utilizar consiste en entrenar el filtro, de modo que la salida yË&#x2020;[n] siga una seĂąal deseada d[n], dada como referencia, de modo que bajo el criterio del MSE (Mean Square Error) [4] el error sea minimizado. AsĂ J(g, h) = E{(y[n] â&#x2C6;&#x2019; d[n])2 } representa una superficie que describe la dependencia del error respecto a las ponderaN ciones {gm |M m=0 } y {hk |k=1 }, donde E denota el operador esperanza. Dado que J(g, h) no tiene una expresiĂłn cerrada, para minimizarla se recurre al mĂŠtodo de descenso pronunciado (steepest descent), donde los coeficientes del filtro se actualizan iterativamente siguiendo: 1 â&#x2C6;&#x201A;J Âľ [n] 2 â&#x2C6;&#x201A;gm 1 â&#x2C6;&#x201A;J hk [n + 1] = hk [n] â&#x2C6;&#x2019; Âľ [n]. 2 â&#x2C6;&#x201A;hk
gm [n + 1] = gm [n] â&#x2C6;&#x2019;
para k = 1, 2, . . . , N , y m = 0, 1, . . . , M . Sin embargo, la dependencia implĂcita de la salida y[n] respecto a los parĂĄmetros {gm , hk } (debida al proceso recursivo) hace que el cĂłmputo del gradiente de J(¡) sea un problema intratable. Para romper la recursividad se sigue el enfoque de la formulaciĂłn ecuaciĂłn-error [3], el cual propone utilizar la seĂąal previa deseada d[n â&#x2C6;&#x2019; k] como una aproximaciĂłn ideal de la salida previa del filtro y[n â&#x2C6;&#x2019; k]. AsĂ, al sustituir las salidas previas {y[n â&#x2C6;&#x2019; k] |N k=1 }, con los correspondientes valores retardados de la seĂąal deseada {d[n â&#x2C6;&#x2019; k] |N k=1 } se rompe la recursividad obteniĂŠndose: yË&#x2020;[n] = arg min
2
log[K + |hk | ¡ (sgn(hk )y[n â&#x2C6;&#x2019; k] â&#x2C6;&#x2019; β) ]
β
k=1 2
2
log[K + |gm | ¡ (sgn(gm )x[n â&#x2C6;&#x2019; m] â&#x2C6;&#x2019; β) ]
m=0
)
,
+
(4)
(
M X
N X
log[K 2 + |hk | ¡ (sgn(hk )d[n â&#x2C6;&#x2019; k] â&#x2C6;&#x2019; yË&#x2020;)2 ]
k=1
log[K 2 + |gm | ¡ (sgn(gm )x[n â&#x2C6;&#x2019; m] â&#x2C6;&#x2019; yË&#x2020;)2 ]
m=0
donde K es un parĂĄmetro sintonizable que regula la robustez del filtro ante diversos tipos de ruido, pudiendo ĂŠste comportarse como un filtro lineal, apropiado para ambientes contaminados con ruido gaussiano, cuando K â&#x2020;&#x2019; â&#x2C6;&#x17E;; y capaz de alcanzar un alto grado de robustez, en presencia de contaminaciĂłn impulsiva severa, cuando K â&#x2020;&#x2019; 0, comportĂĄndose en este caso como un filtro tipo moda [8]. El filtro myriad ponderado recursivo se describe esquemĂĄticamente en la Fig. 1, donde se observa la dependencia de la salida del filtro de la seĂąal de entrada actual y sus versiones desplazadas en tiempo y de la salidas previas.
(5)
)
,
(6)
expresiĂłn que no depende de las salidas previas, eliminando de esta forma la recursividad durante el proceso de entrenamiento. AsĂ, las componentes del vector gradiente en la enĂŠsima iteraciĂłn vienen dadas por: â&#x2C6;&#x201A;J [n] = 2E â&#x2C6;&#x201A;hk
â&#x2C6;&#x201A; yË&#x2020; e[n] [n] , â&#x2C6;&#x201A;hk
k = 1, 2, . . . , N.
(7)
Como es comĂşn en mĂŠtodos de entrenamiento basados en minimizaciĂłn de gradiente [4], el operador E se remplaza por estimados instantĂĄneos del error y el problema se reduce a â&#x2C6;&#x201A;y Ë&#x2020; â&#x2C6;&#x201A;y Ë&#x2020; obtener â&#x2C6;&#x201A;h y â&#x2C6;&#x201A;g . Dado que yË&#x2020; es uno de los puntos crĂticos m k de la funciĂłn objetivo myriad [7]
g0
x[n]
y[n] z â&#x2C6;&#x2019;1
g1
h1
x[n â&#x2C6;&#x2019; 1]
z â&#x2C6;&#x2019;1
x[n â&#x2C6;&#x2019; M]
z â&#x2C6;&#x2019;1
M X
m=0
log K 2 + |gm | ¡ (sgn (gm ) xm â&#x2C6;&#x2019; yË&#x2020;)2
y[n â&#x2C6;&#x2019; 1] g2
Myriad
h2
x[n â&#x2C6;&#x2019; 2]
z â&#x2C6;&#x2019;1
Qr (Ë&#x2020; y) =
+
z â&#x2C6;&#x2019;1
k=1
y[n â&#x2C6;&#x2019; 2] gM
hN
z â&#x2C6;&#x2019;1 y[n â&#x2C6;&#x2019; N ]
N X
log K 2 + |hk | ¡ (sgn (hk ) dk â&#x2C6;&#x2019; yË&#x2020;)2 ,
(8)
se puede establecer la dependencia implĂcita entre la salida yË&#x2020; y {g, h} como sigue: 4
Gr (Ë&#x2020; y ({g, h}) , {g, h}) = Q0 (Ë&#x2020; y) = 0
Figura 1: Estructura del filtro Myriad recursivo. 113
(9)
PROCESAMIENTO DE SEÑALES
+2
N X
k=1
|hk |ˆ y − hk dk =0 K 2 + |hk | (ˆ y 2 + d2k ) − 2hk yˆdk
(10)
donde se ha sustituido sgn(hk ) por hk /|hk | y sgn(gm ) por gm /|gm |. Utilizando la regla de la cadena es posible separar y ∂y ˆ ∂y ˆ ∂y ˆ obtener ∂g y ∂h [9]. En particular, para ∂h , las ponderam k k ciones recursivas, se tiene
despejando
∂y ˆ ∂hk
∂Gr ∂ yˆ
∂ yˆ ∂Gr · + = 0, ∂hk ∂hk
=−
∂Gr /∂hk ∂Gr /∂ y ˆ ,
donde
∂Gr ∂hk
∂Gr ∂y ˆ
1
1 0.8 0.6 0.4
0.5 0 −0.5
0.2 −1
0
(11)
0.2
0.4
0.6
0.8
1
1.2
1.4
1.6
0.2
0.4
0.6
Tiempo [s]
1.2
1.4
1.6
1.2
1.4
1.6
1.2
1.4
1.6
1
0.5 0 −0.5 −1 0.2
1
(b)
1
(12)
0.8
Tiempo [s]
(a)
viene dada por:
∂Gr 2K 2 sgn(hk ) (ˆ y − sgn(hk )dk ) = 2 2 ∂hk K + |hk | · (sgn(hk )dk − yˆ)2
Mientra que
1.2
Amplitud
m=0
|gm |ˆ y − gm x m K 2 + |gm | (ˆ y 2 + x2m ) − 2gm yˆxm
Amplitud
M X
Amplitud
2
banda sobre una señal ECG muestreada a 350 Hz, contaminada con ruido α-stable, el cual modela en cierta medida la naturaleza impulsiva del ruido muscular [5]. La Figura 3(a) presenta una señal ECG sin ruido. La señal ECG contaminada con ruido impulsivo se observa en la Figura 3(b), con α = 1.1 y γ = 0.1. Las Figuras 3(c)-(e) son el resultado de filtrar la señal contaminada con los filtros FIR, IIR y WMyriad respectivamente.
Amplitud
Al derivar Q( yˆ) con respecto a yˆ, se obtiene:
0.5 0 −0.5 −1
0.4
0.6
0.8
1
1.2
1.4
1.6
0.2
0.4
0.6
Tiempo [s]
viene dada por:
0.8
1
Tiempo [s]
(c)
(d)
0.8
K2
∂Gr − |gi | · (ˆ y − sgn(gi )xi ) =2 |gi | h i2 ∂ yˆ 2 i=0 K + |g | · (sgn(g )x − yˆ)2 +2
N X
K2
i
0.6
Amplitud
i
i
− |hj | · (ˆ y − sgn(hj )dj ) |hj | h i2 j=1 K 2 + |hj | · (sgn(hj )dj − yˆ)2
0.4
(13)
Amplitud
M X
0.4 0.2 0
0.4
0.6
0.8
1
Tiempo [s]
Al sustituir estos resultados en la expresión que se deduce de (11) se obtiene ∂ yˆ/∂hk y ∂ yˆ/∂gm y sustituyendo en (7) se consiguen la expresiones del gradiente que en conjunto con (5) se obtiene el algoritmo adaptativo myriad recursivo. La estructura del sistema de entrenamiento se muestra en la Fig. 2.
0.2 0.1 0 −0.1
−0.2 0.2
0.3
(e)
1.2
1.4
1.6
−0.2 0.2
0.4
0.6
0.8
1
Tiempo [s]
(f)
Figura 3: Filtrado de una señal ECG. (a) Señal ECG original. (b) Señal ECG contaminada con ruido α-stable. (c) Salida de un filtro FIR. (d) Salida de un filtro IIR. (e) Salida de un filtro Myriad no recursivo. (f) Salida de un filtro Myriad recursivo.
Algoritmo
Los 62 coeficientes del filtro FIR paso alto se diseñaron con la función fir1 de matlab para una frecuencia nore[n] g0 x[n] malizada de 0.0286 y 0.2857 en la banda de paso, correspon− x[n] d[n] Σ dientes a una banda de frecuencia entre 5 y 50 Hz respectivayˆ[n] g1 h1 z −1 z −1 mente. Los coeficientes del filtro IIR se diseñaron con la funx[n − 1] d[n − 1] ción yulewalk de matlab e igual frecuencia en la banda Myriad g3 h2 z −1 z −1 de paso. Las 61 ponderaciones del filtro Myriad no recursivo x[n − 2] d[n − 2] se diseñaron con el algoritmo que se describe [7]. La salida gM hN z −1 z −1 del filtro myriad recursivo con las ponderaciones óptimas se x[n − M ] d[n − N ] muestra en la Figura 3(f). El filtro se entrenó con el algoritmo de las expresiones (5) utilizando una señal chirp cuya frecuencia varia linealmente entre 0 y 200 Hz, de 0 a 1 s generada con Figura 2: Estructura del sistema de entrenamiento. la función chirp de matlab y una frecuencia de muestreo idéntica a la señal ECG. La señal deseada es el resultado de RESULTADOS filtrar la señal chirp en la banda de frecuencia ya mencionada. Las ponderaciones iniciales son todas iguales y normalizadas Filtrado de una señal ECG respecto a la unidad, con 31 coeficientes para la parte no reA fin de ilustrar el desempeño del esquema de filtrado prop- cursiva y 30 para la parte recursiva. El parámetro de linealidad uesto, se muestra a continuación un proceso de filtrado paso utilizado para este caso es de K = 1. El paso de actualización Adaptativo
114
Memorias_BIOVEN_2012
del proceso iterativo fue variado en cada iteración de acuerdo con la expresión µ = µ0 exp(−n/1000) con µ0 = 0.01. Al comparar el resultado del filtrar la señal ECG con los filtros FIR, IIR, WMyriad y el filtro Myriad recursivo, se observa que este último presenta una mayor robustez en presencia de ruido impulsivo comparado con los filtros lineales (FIR y IIR), además, presenta un desempeño competitivo comparado con el filtro Myriad no recursivo. Diseño de Filtro Paso Alto
y rápida en su ejecución, dado que su cómputo requiere una ventana de observación menor que esquemas de filtrado tradicionales, siendo aún así capaz de recuperar la señal considerada en la banda de frecuencia deseada. En general, los filtros propuestos ofrecen las mismas ventajas sobre la contraparte no recursiva que los filtros IIR tienen sobre los filtros FIR. Adicionalmente se propuso un algoritmo adaptativo para el diseño de las ponderaciones de esta nueva familia de filtros. Una aplicación de filtrado sobre una señal ECG pone a prueba el esquema de filtrado propuesto y demuestra la robustez Como un segundo ejemplo ilustrativo se propone el diseño del filtro myriad recursivo en comparación con esquemas de de un filtro paso alto cuya señal de entrada tiene dos compo- filtrado tradicionales. nentes sinusoidales con frecuencias normalizadas 0.02 y 0.4, respectivamente. La frecuencia de muestreo es de 1 kHz. La REFERENCIAS señal deseada corresponde al tono de mayor frecuencia. El desempeño del esquema de filtrado propuesto se compara con [1] P. Huber, Robust Statistics, ser. Wiley series in probability and statistics. New York: Wiley-Interscience, 1981, los resultados encontrados al filtrar la señal de entrada con los vol. 1, no. 1. filtros FIR, IIR y Myriad no recursivo bajo diferentes densidades de ruido impulsivo, utilizando como criterio de com- [2] J. G. González and G. R. Arce, “Weighted Myriad Filters: A robust filtering framework derived from alphaparación el error medio absoluto. Los resultados se muestran stable distributions,” Acoustics, Speech, and Signal Proen el Tabla I. Como se puede apreciar, el filtro propuesto cessing, IEEE International Conference on, vol. 5, pp. tiende a un mejor desempeño en la medida que el grado de 2833–2836, Mayo 1996. impulsividad se hace más alto (α → 1) superando significativamente, en estos casos, a los filtros lineales y la versión no [3] J. J. Shynk, “Adaptive IIR Filtering,” IEEE ASSP Magazine, vol. 1, no. 1, pp. 4–21, Abril 1989. recursiva del filtro Myriad. [4] S. Haykin, Adaptive Filter Theory, ser. Prentice-Hall inTabla I: Error medio absoluto para diferentes valores de formation and system sciences series. Prentice Hall, 2002. α. α Sin ruido 2.0 1.9 1.8 1.7 1.6 1.5 1.4 1.3 1.2 1.1
RWMyriad 0.0610 0.0705 0.0727 0.0732 0.0706 0.0691 0.0741 0.0783 0.0774 0.0817 0.0774
WMyriad 0.0576 0.0703 0.0730 0.0741 0.0718 0.0710 0.0770 0.0828 0.0819 0.0872 0.0842
FIR 0.0008 0.1575 0.1591 0.1593 0.1616 0.1653 0.1917 0.2025 0.2721 0.2474 0.3023
[5] T. Pander, “Application of Weighted Myriad Filters to Suppress Impulsive Noise in Biomedical Signals,” Institute of Electronics, Silesian University of Technology, Akademicka 16, 44-100 Gliwice, Poland, Tech. Rep., Febrero 2004. [Online]. Available: http://www.task.gda.pl/files/quart/TQ2004/02/TQ208FE.PDF
IIR 0.3167 0.3495 0.3548 0.3541 0.3657 0.3709 0.4073 0.4218 0.5225 0.4800 0.5729
[6] G. R. Arce, Nonlinear Signal Processing: A Statistical Approach. Wiley-Interscience, 2005, vol. 48, no. 1. [7] S. Kalluri and G. R. Arce, “Robust Frequency-Selective Filtering Using Weighted Myriad Filters Admitting Real-Valued Weights,” IEEE Transactions on Signal Processing, vol. 49, no. 11, pp. 2721–2732, Noviembre 2001.
AGRADECIMIENTOS Los autores agradecen al CDCHTA de la Universidad de Los Andes por el soporte parcial de este trabajo, financiado bajo el proyecto Nro. I-1336-12-02-B. CONCLUSIONES
[8] J. G. González and G. R. Arce, “Optimality of the Myriad Filter in Practical Impulsive-Noise Environments,” IEEE Transactions on Signal Processing, vol. 49, no. 2, pp. 438–441, Febrero 2001. [9] M. A. Gómez, “Diseño de Filtros Myriad Ponderados Recursivos y sus Algoritmos de Optimización,” Proyecto de Grado Escuala de Ingeniería Electrica, U.L.A, pp. 1–50, Abril 2012.
En este trabajo se propuso una nueva familia de filtros recur- [10] V. Patanavijit, “A Nonlinear Filter For A Recursive Video Enhancement Using a Robust SRR Based On sivos basada en el operador myriad ponderado. Stochastic Regularization,” ISPACS, vol. 1, no. 1, DiLa estructura de filtrado propuesta es al mismo tiempo rociembre 2011. busta al momento de remover ruido de naturaleza impulsiva
115
PROCESAMIENTO DE SEÑALES
Detección de Activaciones en fMRI Basada en Modelos Laplacianos Temporal-Espacial de la Señal BOLD Blanca Guillén1 , José Luis Paredes2 , Rubén Medina2 1
Grupo de Bioingeniería, Universidad Nacional Experimental del Táchira, San Cristóbal, Venezuela 2 Centro de Ingeniería Biomédica y Telemedicina (CIBYTEL), Escuela de Ingeniería Eléctrica Universidad de los Andes, Mérida-Venezuela blancag@unet.edu.ve, paredesj@ula.ve, rmedina@ula.ve
Resumen En este trabajo se propone un esquema basado en modelos estadísticos Laplacianos para detectar voxeles activados explotando la condición de baja densidad de la señal BOLD tanto en el dominio temporal como en el dominio espacial. Bajo este enfoque, en el dominio temporal la señal BOLD es vista como la superposición de unos pocos elementos de un diccionario predefinido, y el método de regresión de Desviación Absoluta Mínima (LAD) penalizado con la seudo norma ℓ0 es utilizado para estimar el vector de parámetros asociado a cada voxel. Posteriormente, un conjunto de parámetros espaciales asociados a un efecto en particular es determinado, a partir del cual es posible generar los mapas de activaciones mediante la estimación de un umbral, el cual se calcula asumiendo un modelo Laplaciano a nivel espacial. Key words: fMRI, GLM, ℓ0 -LAD, Modelo Laplaciano.
Introducción
Señal fMRI: yj
En los últimos años ha habido un interés creciente en el análisis de datos fMRI basados en la representación poco densa de la señal BOLD. Especialmente, a partir del trabajo realizado por Daubechies y col. [1] en el cual muestran que la efectividad de los algoritmos basados en el análisis de componentes independientes está vinculada a su habilidad para manipular de manera efectiva componentes poco densas en vez de componentes independientes como tal. Más recientemente, Lee y col. [2] desarrollaron un método de análisis de datos fMRI basado en el Modelo Lineal General (GLM [3, 4]), en el cual la señal BOLD en cada voxel es representada mediante la superposición poco densa de elementos de un diccionario dinámico. Este trabajo extiende el método introducido en [5] mediante la incorporación de una etapa de detección de activaciones basada en la suposición de un modelo Laplaciano sobre el conjunto de parámetros espaciales.
Modelo yj = Xβˆj
Estimación Método: ℓ0 -LAD ˆj β
Mapa de Activaciones
Diccionario: X
Mapa Estadístico ˆj zj = c T β
Clasificación zj > θ
Figura 1: Detección de activaciones mediante el método ℓ0 LAD con selección de umbral basado en un modelo Laplaciano sobre el conjunto de parámetros espaciales zj .
Desde esta perspectiva, la detección de activaciones se lleva a cabo en dos etapas, tal como se ilustra en la Fig. 1. En la primera etapa se ajusta un GLM a la serie de tiempo de cada voxel, y se estiman los parámetros del modelo mediante el método LAD regularizado por
116
Memorias_BIOVEN_2012
la seudo norma ℓ0 , denominado método ℓ0 -LAD. En la segunda etapa, a partir del conjunto de parámetros estimados, y con el fin de evaluar el efecto de un estímulo particular, es generado un mapa estadístico dando origen al conjunto de parámetros espaciales zj . Posteriormente, el voxel j del mapa estadístico es clasificado como activado si el estadístico zj asociado supera el umbral θ, en caso contrario se declara no activado. Este proceso de clasificación permite generar el mapa de activaciones.
Método ℓ0 -LAD Asumiendo que la señal fMRI observada en cada voxel satisface el GLM: y = Xβ + e,
(1)
donde y ∈ RM es la señal observada en un voxel dado, M es el número de scans, β ∈ RL representa la magnitud de la señal y e ∈ RM denota el ruido, la detección de activaciones en el dominio temporal mediante el método ℓ0 -LAD se lleva a cabo en dos fases: estimación de parámetros y selección de bases. En la primera fase se estiman los parámetros β del GLM reduciendo el problema L dimensional a L problemas unidimensionales. Bajo este enfoque, la estimación de la l-ésima componente del vector de parámetros viene dada por el operador de mediana ponderada:
M !
r il
(2) βel = MEDIAN |xil | ⋄ xil i=1 donde ⋄ denota la operación de repetición: Wi ⋄ vi = vi , vi , . . . , vi , repetido Wi veces, y ril denota la i-ésima entrada del vector residual rl , el cual se obtiene restando de la señal fMRI observada las contribuciones de todas las variables explicativas salvo la l-ésima. En la segunda fase, el valor estimado es sometido a una prueba de relevancia mediante la aplicación del operador de umbral rígido dependiente del parámetro de regularización τ : βel , krl k1 − krl − βel xl k1 > τ βbl = (3) 0, en cualquier otro caso el cual controla si βel es significativo o no en base a un estimado de su magnitud, donde el parámetro τ es ajustado a medida que el algoritmo iterativo progresa de acuerdo con la función de decaimiento exponencial:
τ = αk , k = 1, ..., K, siendo K el número de iteraciones. Para una descripción detallada del método se recomienda ver [5].
Detectando Activaciones en el Dominio Espacial El enfoque tradicional para la detección de activaciones en el dominio espacial se basa en el análisis de mapas estadísticos t o F , los cuales son generados a partir de los parámetros estimados del GLM, bajo la suposición de un modelo Gaussiano para el error [3, 4]. En este trabajo la detección de activaciones en el dominio espacial se lleva a cabo explotando el conocimiento a priori sobre la poca densidad de las activaciones en este dominio. Desde esta perspectiva, se espera que sólo unos pocos voxeles del mapa estadístico asociado a un estímulo particular sean significativos, donde el mapa estadístico asociado al l-ésimo estímulo es generado siguiendo el procedimiento usual [3, 4]. Es decir, para cada voxel se define el estadístico: zj = cT βˆj , donde c ∈ RL es un vector con todas sus entradas nulas salvo la l-ésima, y βˆj = (βˆ1j , βˆ2j , . . . , βˆLj ) es el vector de parámetros estimados asociado al j-ésimo voxel. Aún cuando otros modelos pudieran explicar mejor el comportamiento estadístico del conjunto de parámetros espaciales, en este trabajo se ha supuesto que la distribución de probabilidad de la secuencia {zj }N j=1 se ajusta a un modelo Laplaciano. La selección de este modelo obedece al comportamiento de las colas de la función de densidad estimada, las cuales tienden a adaptarse más al modelo Laplaciano que al Gaussiano, como se evidencia en las pruebas estadísticas que se discuten en la siguiente sección. Bajo la suposición de previas Laplacianas sobre las entradas del vector z, y fijada una probabilidad de falsa alarma p, es posible estimar un parámetro de umbral θ de manera que el j-ésimo voxel se considera activado si el estadístico zj supera dicho umbral. Específicamente, asumiendo que zj = βˆlj ∼ L(η, b), j = 1, . . . , N , donde los parámetros de localización η y de escala b son los estimadores de máxima verosimilitud de la distribución Laplaciana, los cuales pueden ser determinados a partir de las P muestras mediante: ηˆ = 1 ˆ median{z1 , . . . , zN } y b = N N j=1 |zj − η|, se obtiene el umbral θ como solución de la función de distribución acumulativa inversa F −1 (p) de la distribución de Laplace. Es decir,
117
θ = F −1 (p) = η −b sgn(p−0,5) ln(1−2|p−0,5|) (4)
PROCESAMIENTO DE SEÑALES
diferencia en la pesadez de las colas. Es claro que para los estímulos Instructions y WeaponsTools las colas de la distribución Laplaciana son ligeramente más pesadas a la derecha que la estimada, mientras que para el estímulo Dog la densidad estimada exhibe colas más pesadas a la derecha que la densidad Laplaciana. Finalmente, para el estímulo Hits las colas a la derecha de las distribuciones Laplace y estimada lucen bastante próximas. Con el fin de compensar la falta de rigor de los métodos gráficos, se evalúo la proximidad del modelo real respecto de los modelos Gaussiano y Laplaciano usando el criterio de información de Akaike (AIC) [7] como medida cuantitativa de la distancia entre el modelo real y los modelos propuestos. La Fig. 3 muestra la diferencia entre los valores correspondientes al criterio de información de Akaike obtenido usando el modelo Laplaciano y el Modelo Gaussiano para cada uno de los estímulos indicados. Como puede observarse, el modelo Laplaciano es el que se ajusta mejor a los datos para todos los estímulos, excepto para el 7 y el 12.
Modelo Laplaciano
sign(AICL−AICN)
El conjunto de pruebas que se discuten a continuación reflejan el comportamiento estadístico del vector de parámetros espaciales, estimados mediante el método ℓ0 -LAD, asociados a diferentes estímulos del conjunto de datos fMRI reales pertenecientes a la base de datos PBAIC 2007[6]. Dichas pruebas consistieron inicialmente en un análisis visual de los datos mediante histogramas, los cuales sugerían fuertemente a la distribución Laplaciana como posible modelo, debido fundamentalmente a la concentración de masa alrededor del cero, además de cierta simetría alrededor del cero exhibida en la mayoría de los casos. Dado que la selección del parámetro de umbral θ depende fundamentalmente del peso de las colas de la distribución modelo, el interés fundamental fue enfocado en las colas de la distribución. Bajo este criterio, como es usual en estos casos, el procedimiento consiste en ajustar curvas de distribución modelo a los datos y, posteriormente, mediante un análisis cuantitativo, decidir cual modelo se ajusta mejor. Con este fin, se estimó la función de densidad de probabilidad de los datos, y se ajustaron las distribuciones Gaussiana y Laplaciana a dicha distribución. Como parámetros para las distribuEstimulo # ciones modelo se utilizaron los estimadores de maxima verosimilitud, los cuales se calcularon a partir del con- Figura 3: Signo de la diferencia AICL − AICN para el conjunto de estímulos: Arousal, Dog, Faces, FruitsVegetables, junto de datos. 1
0.5 0
−0.5 −1
0
(a) 5
0
4
6
8
10
12
14
Hits, Instructions, InteriorExterior, SearchFruit, SearchPeople, SearchWeapons, Valence, Velocity y WeaponsTools de la base de datos PBAIC 2007.
(b)
5
2
0
−5 −5 −10 −10 −15 −15
−20 −25 −0.4
−0.3
−0.2
−0.1
0
0.1
0.2
0.3
0.4
0.5
0.6
−20 −2
−1.5
−1
−0.5
(c)
0
0.5
1
1.5
(d)
4
Resultados
5
2 0
0 −2
−5 −4 −6
−10
−8 −10 −0.8
−0.6
−0.4
−0.2
0
0.2
0.4
0.6
0.8
−15 −1.5
−1
−0.5
0
0.5
1
Figura 2: Comportamiento estadístico del vector de parámetros espaciales βˆlj , para los estímulos: (a) Dog, (b) Hits, (c) Instructions y (d) WeaponsTools de la base de datos PBAIC 2007. En la Fig. 2 se muestra el logaritmo natural de la función de densidad de probabilidad estimada ( ), así como también de los modelos Laplaciano ( ) y Gaussiano (⋄), para 4 estímulos diferentes. A partir de la figura es evidente que la función de densidad estimada presenta colas más pesadas que la distribución normal para los cuatro estímulos analizados. Mientras que respecto de la distribución Laplaciana apenas existe una ligera
El enfoque propuesto se aplicó al conjunto de datos preprocesados del sujeto etiquetado con el número 14, perteneciente a la base de datos PBAIC 2007. El diccionario utilizado está conformado por 26 átomos, 13 de los cuales corresponden a las series de tiempo procesadas del conjunto de estímulos mencionados en la Fig. 3, mientras que los 13 átomos restantes, los cuales modelan efectos confusos [3], corresponden a un subconjunto de 13 bases DCT con periodos armónicos de hasta 1/128 Hz, el cual fue generado siguiendo el esquema del filtrado pasa altos implementado en el software Statistical Parametric Map (SPM) (ver, http://www.fil.ion.ucl.ac.uk/spm/). Aún cuando no existen mapas de activaciones “ab-
118
Memorias_BIOVEN_2012
solutamente verdaderos” que sirvan como referencia para validar los resultados obtenidos utilizando técnicas de detección, es posible ubicar un marco de referencia a partir del cual establecer comparaciones que permitan indicar si el experimento en cuestión está arrojando resultados confiables o no. Tal es el caso del software SPM, el cual, de acuerdo con la literatura sobre el tema, se ha convertido en un punto de referencia estándar. Ubicados en este escenario, se ha elegido SPM como marco referencial de comparación.
(a) l0 -LAD
Conclusiones En este trabajo se amplió el método ℓ0 -LAD, introducido en [5], mediante la incorporación de una etapa de clasificación, la cual se basa en la suposición de un modelo Laplaciano sobre el conjunto de parámetros espaciales asociados a un estímulo en particular. La selección del modelo Laplaciano se realizó en base a un análisis estadístico del conjunto parámetros espaciales para diferentes estímulos pertenecientes a la base de datos PBAIC 2007 utilizada en esta investigación, el cual arroja evidencia estadística que soporta el modelo asumido. El enfoque propuesto fue evaluado utilizando datos fMRI reales, y los resultados fueron comparados con los arrojados por el software SPM. Los resultados obtenidos demuestran que las regiones activadas por el método ℓ0 LAD son similares a las activadas por SPM respecto de la localización así como de los patrones de activación. Como trabajo a futuro se planea evaluar el método en la predicción de actividad neuronal, el cual es un tópico de gran interés en el análisis de datos fMRI.
(b) SPM
Figura 4: Mapas de activación para el estímulo Instructions.
Agradecimientos
Rebanadas 7 a 22 activadas simultáneamente por ambos métoLos autores agradecen al proyecto ECOS-NORDdos, numeradas de arriba a abajo y de izquierda a derecha. FONACIT PI-20100000299 y al CDCHTA-ULA
La Fig. 4 muestra los mapas de activaciones para el estímulo Instructions obtenidos mediante: 1) el método de regresión ℓ0 -LAD (Fig. 4(a)), con parámetros α = 0,95, K = 100, y probabilidad de falsa alarma p = 0,975, y 2) el software SPM (Fig. 4(b)), con p valor sin corregir y probabilidad de falsa alarma menor que 0,01. Bajo estas condiciones, ℓ0 -LAD activa 717 voxeles mientras que SPM activa 1735 voxeles. Por otro lado, ℓ0 -LAD activa 22 rebanadas (2 a 4, 7 a 23, 26 y 27) mientras que SPM activa 29 (rebanadas 2 a 30), lo cual arroja un porcentaje de coincidencia a nivel de rebanada de 73,33 %. A partir de la figura, es posible observar que aún cuando las rebanadas activadas por ambos métodos no son exactamente las mismas, la localización de las regiones activadas por ℓ0 -LAD, en las rebanadas activadas apareadas, en general, coincide con la de SPM. Más aún, los patrones de activación son bastante similares para ambos métodos, aunque las áreas de activación exhibidas por SPM tienden a ser más extensas a consecuencia del número mayor de voxeles activados. Más importante aún, como se espera para este tipo de estímulos, las áreas activadas detectadas por ambos métodos parecen estar en la corteza auditiva.
proyecto número I-1336-12-02-B por el apoyo financiero.
Referencias [1] Daubechies I. et al. (2009): Independent component analysis for brain fMRI does not select for independence, PNAS, 106: pp 10415-10422. [2] Lee K. et al. (2011): A data-driven sparse GLM for fMRI analysis using sparse dictionary learning with MDL criterion, IEEE Trans. Medical Imaging, 30, pp 1076-1089. [3] Penny W. D. et al. (2005): Advanced Image Processing in Magnetic Resonance Imaging - Cap. Classical and Bayesian Inference in fMRI, Taylor and Francis Group, pp 541-563. [4] Lindquist M. A. (2008): The Statistical Analysis of fMRI Data, Statistical Science, 23, pp 439-464. [5] Guillen B. et al. (2011): A Sparse Based Approach for Detecting Activations in fMRI, 33rd Annual Int. Conf. of the IEEE EMBS, pp 7816-7819. [6] Pittsburg-EBC-Group, PBAIC Homepage Página Web disponible en línea: http://pbc.lrdc.pitt.edu/. Último acceso: Junio, 2012. [7] Burnham, K.P. et al. (2002): Model selection and inference: a practical information-theoretic approach, second edition. Springer-Verlag, New York
119
BIOMATERIALES
Los biomateriales constituyen uno de los avances más importantes en la medicina actual, puesto que mejoran la calidad de vida de los pacientes y reducen el tiempo de curación y convalecencia de enfermedades y traumatismos. Inicialmente, durante el último tercio del siglo XX, los biomateriales eran esencialmente materiales industriales seleccionados con el criterio de que fueran capaces de cumplir ciertos requisitos de aceptabilidad biológica. Sin embargo, en la actualidad muchos biomateriales son diseñados, sintetizados y procesados con el único fin de tener una aplicación en el campo médico. Una motivación importante para ello ha sido el hecho de que la esperanza de vida aumente de forma considerable. La longevidad masiva tiene implicaciones individuales relacionadas con mantener la calidad de vida. Estos factores sociológicos han impulsado un gran avance en Biomateriales, potenciando la investigación en este campo. Los biomateriales deben cumplir con las condiciones de partida de ser biocompatibles y asegurar una determinada vida media. El trabajo en el campo de los biomateriales implica necesariamente un trabajo coordinado entre distintos expertos de distintas áreas de conocimiento, puesto que para cada necesidad hay que diseñar y fabricar un biomaterial específico y la selección de expertos, consecuentemente, será diferente. En las páginas siguientes se puede observar artículos que reflejan avances en esta área desarrollados en Venezuela.
120
BIOMATERIALES
DESARROLLO DE MEMBRANAS DE QUITOSANO BIOCOMPATIBLES PARA DIVERSAS APLICACIONES EN INGENIERÍA DE TEJIDOS Rojas, L.1, Bello A.1, González, G.2 y Noris-Suárez, K.1 1
Laboratorio Bioingeniería de Tejidos-USB, Departamento de Biología Celular, Universidad Simón Bolívar. Caracas, Venezuela. 2 Laboratorio de Ciencia e Ingeniería de Materiales, Departamento de Ingeniería, Instituto Venezolano de Investigaciones Científicas (IVIC) e-mail: knoris@usb.ve RESUMEN El quitosano es un biomaterial natural que se obtiene a partir de la desacetilación de la quitina. Este material se ha reportado ampliamente en la literatura como biocompatible, mucoadhesivo, hemostático, promueve la absorción de diversos compuestos biológicos y presenta actividad antimicrobiana, entre otras propiedades. Esto lo hace un material atractivo para ser usado en el desarrollo de membranas para inducir la regeneración de tejidos como dermis, epidermis, cornea, etc. El objetivo del presente trabajo fue la fabricación de membranas de quitosano de diferente espesor (de 2, 3 y 5 mm y ultradelgadas) y la evaluación de su biocompatibilidad mediante el empleo de diferentes modelos in vitro, fibroblastos y células madre mesenquimales (derivadas de gelatina de Wharton). Los resultados confirmar la biocompatibilidad (adhesión y proliferación celular) con ambos modelos celulares. En conclusión, las membranas desarrolladas pueden ser empleadas como andamios biocompatibles en la fabricación de sustitutos dermo-epidérmicos y otras potenciales aplicaciones. Palabras clave: Membranas de quitosano; Ingeniería de tejidos; Modelos in vitro y Biocompatibilidad.
usando como modelo in vitro cultivos de fibroblastos y células mesenquimales aisladas a partir de gelatina de Wharton.
INTRODUCCIÓN La ingeniería tisular es un campo interdisciplinario que aplica los principios de la biología y de la ingeniería para el desarrollo de sustitutos biológicos que restauren, mantengan y mejoren la función tisular basándose en el uso combinado de tres elementos: biomateriales, células y andamios para reparar tejidos lesionados o enfermos [1]. En los últimos años, el quitosano ha surgido como un material de gran interés para diferentes desarrollos en el área de ingeniería de tejidos [2]. Este es un polímero natural que se obtiene a partir de la desacetilación de la quitina la cual es uno de los biopolímeros más abundantes en la naturaleza; forma parte de la estructura de soporte de numerosos organismos vivos [2]. Los hidrogeles a base de quitosano pueden presentar poros que permiten a las células distribuirse adecuadamente y que puedan proliferar, más aún cuando se combina con hidrogeles de fibrina cuyos microporos permite la comunicación de factores de nutrición y de crecimiento entre las dos capas [3]. Adicionalmente los hidrogeles de quitosano son biomateriales que por sus propiedades mecánicas y elásticas se amoldan a cualquier tipo de superficie y ello los convierte en un material con amplias aplicaciones potenciales. El objetivo del presente trabajo es el de estandarizar condiciones de fabricación de hidrogeles de quitosano de espesor variable y demostrar su biocompatibilidad
METODOLOGÍA Obtención de Hidrogeles de Quitosano/PEG Los hidrogeles se fabricaron disolviendo el quitosano en solución de ácido acético grado analítico al 2%, a 90oC. Una vez disuelto se agregó polietilenglicol (PEG) como agente entrecruzante. Las láminas se prepararon colocando las mezclas entre dos vidrios planos colocados con separadores de diverso (2, 3 y 5mm) con ayuda de separadores. Una vez solidificadas se realizaron 2 lavados con 1M NaOH, y esta solución se lavó con tampón fosfato salino pH 7,4 (PBS, por sus siglas en ingles). Los hidrogeles obtenidos se secaron empleando dos condiciones diferentes: 1) en estufa convencional a 40oC por 6 horas y, 2) liofilizados por 24h. Obtención de Láminas Ultradelgadas de Hidrogeles de Quitosano/PEG Se utilizó la mezcla de quitosano, agarosa y polietilenglicol 400 (PEG-400) diluidos en ácido acético grado analítico al 2%, la cual se mantuvo en agitación constante a temperatura ambiente, por 24 h. Para la
121
Memorias_BIOVEN_2012
obtención de las láminas la solución se vertió en placas de petri y se dejaron secar en estufa convencional a 50ºC por 24 h. Una vez secas se neutralizaron con 5% NaOH, incubando por 2h a temperatura ambiente, y posteriormente se realizaron lavados extensos con agua destilada. Las membranas ultradelgadas obtenidas se conservaron en etanol al 70%.
mineralización al culminar el tratamiento siguiendo los protocolos descritos previamente [4]. Prueba de absorción de agua de las láminas ultra finas de hidrogeles de quitosano/PEG Para esta prueba se utilizaron 20 discos de 1,4 cm de diámetro, los cuales fueron previamente secados en una estufa a 50ºC por 24h; luego fueron puestos en presencia de agua desionizada por 24 h. Para evaluar el porcentaje de absorción de agua (AA) por cada uno de los discos de quitosano/PEG, se determinó la masa seca inicial (Mi) y la masa húmeda final (Mf) por 24h, mediante la siguiente fórmula (1):
Aislamiento y cultivo de fibroblastos humanos Las muestras de piel fueron obtenidas de pacientes sometidos a lipectomía cosmética y cedidas a la investigación con previa autorización (consentimiento informado) de estos. Una vez transportadas las muestras al Laboratorio de Bioingeniería de Tejidos-USB se lavaron extensivamente con PBS y se diseccionaron retirando y separando la hipodermis de la dermis. Las muestras se cortaron en fragmentos de 3–4 mm2 y se colocaron sobre la placa de cultivo. Los fragmentos se mantuvieron en cultivo con medio DMEM suplementado con 20% de suero fetal bovino (SFB). Luego de obtener los cultivos primarios se realizaron subcultivos, teniendo cuidado no superar de 6-8 pasajes. Los cultivos obtenidos se emplearon para la evaluación de biocompatibilidad de las membranas de quitosano.
% AA Mf Mi Mi 100
(1)
Determinación de la Curva de hinchamiento del hidrogel Quitosano/PEG de 2, 3 y 5 mm de espesor Se evaluaron las propiedades de absorción de agua de los hidrogeles de quitosano a temperatura ambiente (22°C), en tres medios de hidratación: a) Agua Destilada, b) PBS y c) Medio de cultivo DMEM. Se cortaron por triplicado discos de 5mm de diámetro del hidrogel seco (xerogeles) y se colocaron en el medio de hidratación, pesándolos antes de la hidratación y durante la misma en una balanza analítica de precisión ± 0,0001 grs., cada 10 minutos durante las primeras 2 horas, y luego periódicamente hasta alcanzar el equilibrio en el que la variación de peso era ≤ 1% entre un periodo de tiempo y el siguiente. El porcentaje de hinchamiento fue calculado con la siguiente fórmula (2), en base a la media correspondiente a la determinación por triplicado en cada caso [5]:
Aislamiento y cultivo de células madre mesenquimales (CMM) a partir de gelatina de Wharton Las muestras de cordón umbilical fueron donadas por las progenitoras de los neonatos previa autorización (consentimiento informado). Una vez transportadas las muestras al Laboratorio de Bioingeniería de TejidosUSB se diseccionó el cordón umbilical, retirándose las venas y arteria de la estructura a fin de evitar contaminación de los cultivos por células de tipo endotelial. El resto del material se cortó en fragmentos de 3 a 4 mm2, los cuales se cultivaron con medio αMEM suplementado con 10% SFB. Las células se empezaron a observar al cabo de 6-7 días de cultivo y una vez alcanzada el 70% confluencia se realizaron subcultivos. Los cultivos obtenidos se emplearon para la evaluación de biocompatibilidad de las membranas de quitosano.
%H
Ph Ps 100 Ps
(2)
Donde: % H: porcentaje de hinchamiento; Ps: peso inicial del hidrogel y Ph: peso del hidrogel hidratado en los diferentes tiempos. Evaluación de biocompatibilidad
Diferenciación de las CMM a linaje osteogénico. La biocompatibilidad de los hidrogeles de quitosano fue evaluada determinando la viabilidad celular en cultivos expuestos por 48h a un medio de cultivo previamente condicionado con las membranas de quitosano fabricadas (de diferente espesor). En estos cultivos se cuantificó el número de células metabólicamente activas mediante el kit comercial CellTiter 96R (MTS) (Promega), siguiendo las instrucciones del comerciante.
La diferenciación de las CMM en osteoblastos se realizó en cultivos al 70% de confluencia, los cuales se trataron con medio osteogénico (medio DMEM, 10% de SFB, 0,1µM dexametasona, 0,2 mM ácido ascórbico y 10 mM β-glicerolfosfato). El medio se cambió al cabo de 3-4 días por un total de 21 días. Se evaluó la diferenciación de los cultivos determinando la actividad de fosfatasa alcalina en el medio de cultivo a diferentes periodos de tiempo y la formación de nódulos de
122
BIOMATERIALES
La morfología de las células adheridas sobre las matrices se evaluó mediante microscopia óptica convencional, y empleando marcaje de actina, proteína del citoesqueleto, mediante el uso de faloidina-FITC.
sometieron al proceso de hinchamiento en medios con un alto contenido de sales (PBS y DMEM) vemos como el grado de hinchamiento no supera los 450-500%. En ambas condiciones de secado y/o de espesor, el comportamiento de hinchamiento es relativamente similar.
RESULTADOS Y DISCUSIÓN El método del establecimiento de cultivos primarios, tanto de fibroblastos como de las CMM, a partir de muestras humanas fue exitoso, pudiendo lograrse luego la amplificación del número de células mediante el subcultivo. Ambos tipos celulares muestran morfología fibroblastoide (figura 1)
Figura 1. Cultivo de CMM a partir de explantes de gelatina de Wharton. A) a los 5 días, B) 13 días; C) 16 días de cultivo, donde se observa el 70% de confluencia y D) a los 24 días de cultivo, con 100% de confluencia. En los cultivos de CMM tratadas con medio osteogénico se logró la diferenciación hacia el linaje osteogénico, pudiendo demostrarse el carácter multipotencial de estos cultivos (figura 2).
Figura 3. Determinación de la Curva de hinchamiento de hidrogeles de diverso espesor. A.1-2) 2 mm en agua destilada, B.1-2) 2 mm en PBS. Panel C.12) 2 mm de espesor en medio DMEM, Panel D.1-2) 3 mm de espesor en PBS.
Figura 2. Tratamiento de diferenciación de las CMM con medio osteogénico. A) cultivo a los 8 días, micrografía del cultivo obtenida por microscopia óptica convencional, B) a los 21 días. Nódulo de mineralización revelado empleando la tinción con rojo de alizarina,
Por otra parte, la prueba de hinchamiento de las membranas ultradelgadas fue de cerca un 60 % en agua (resultados no mostrados). En la figura 4 se muestra una fotografía de las membranas obtenidas con el procedimiento descrito en la sección de metodologías.
Los resultados de las pruebas de hinchamiento de los hidrogeles de espesor 2 y 3 mm se muestran en la figura 3. En agua, el hidrogel de 2 mm alcanza un 900 % de hinchamiento para luego descender gradualmente y estabilizarse alrededor del 700% al final de la evaluación, tanto en las muestras secadas en estufa como en aquellas liofilizadas. Cuando los hidrogeles se
123
Memorias_BIOVEN_2012
CONCLUSIONES De los resultados obtenidos se puede concluir que se lograron estandarizar los protocolos para el aislamiento y cultivo de fibroblastos humanos, de explantes de piel y de CMM, a partir de gelatina de Wharton, empleando el método de migración. Demostrándose además que las CMM presentan potencial osteogénico. Además se logró la fabricación de membranas de quitosano, de espesor entre 2 y 5 mm, y ultradelgadas, las cuales son biocompatibles y permiten el cultivo de las células promoviendo su proliferación. Estos biomateriales, así fabricados pueden emplearse, entre otras aplicaciones para el desarrollo de sustitutos dermo-epidérmico.
Figura 4. Xerogeles de Quitosano/PEG ultradelgadas. Los ensayos de biocompatibilidad empleando medio condicionado tanto de los hidrogeles de 2, 3 y 5 mm, como de los ultradelgados mostraron que las células se comportaban similar a los cultivos control (resultados no mostrados). Por ello, como se muestra en la figura 5, se decidió cultivar las células sobre estas membranas empleando dos condiciones, cultivos sobre geles de fibrina usando los hidrogeles como andamios y directamente sobre las membranas ultradelgadas. En las dos condiciones fue posible verificar la presencia de las células sobre estas matrices, las cuales mantienen su apariencia fibroblastoide indicativo de su biocompatibilidad con las matrices desarrolladas.
AGRADECIMIENTO El presente trabajo fue posible gracias a los fondos recibidos del proyecto en Red – FONACIT No. G2007001522 y el proyecto LOCTI-USB No. 502066.5172-07 REFERENCIAS [1] Ficke, J. et al (2007): Extremity War Injuries: Development of Clinical Treatment Principles. J Am Acad of Orthop Surg, 15: pp. 509-595. [2] Okuyama, K.. et al (2000): Structural diversity of chitosan and its complexes. Carbohydrate Polymers, 41: pp. 237-247. [3] Chun-mao, H. et al (2010): Aplication of collagen-chitosan/fibrin glue asymmetric scaffolds in skin tissue engineering. J Zhejiang University-Science B, 11: pp. 524-530. [4] Noris-Suarez, K., et al (2003): Caracterización biológica de vidrios modificados del sistema Na2O.CaO.SiO2.P2O2.conteniendo Al2O3 y B2O3.empleando células osteoblásticas. Revista Latinoamericana de Metalurgia y Materiales, 23: pp. 6. [5] Bajpai, S. et al (2006): Investigation of water uptale behavior and mechanical properties of superporous hydrogels. Journal of Macromolecular Science, Part A: Pure and Applied Chemistry, 43: pp. 507-524.
Figura 5. Micrografías obtenidas con microscopia óptica convencional de cultivos de fibroblastos humanos sobre membranas ultradelgadas de quitosano. A) y B) micrografías de células mesenquimales sobre geles de fibrina usando hidrogeles de quitosano como andamio, a las 48 horas y 14 días de cultivo, respectivamente. C) y D) fibroblastos cultivados sobre membranas ultradelgadas tratadas con faloidinaFITC, compuesto que revela la actina del citoesqueleto celular, control (sin células) y con fibroblastos cultivados por 15 días de cultivo, respectivamente. Destaca la distribución de las células en un bolsillo del material (señalado con flecha).
124
BIOMATERIALES
ESTUDIO DE LA DEGRADACIÓN HIDROLÍTICA IN VITRO DE GUÍAS NERVIOSAS POROSAS Y NO POROSAS FABRICADAS CON POLIÉSTERES BIODEGRADABLES Romero, M.1, Sabino M.2, González, G.3 y Noris-Suarez, K.1,* 1
Laboratorio Bioingeniería de Tejidos-USB, Departamento de Biología Celular, Universidad Simón Bolívar. Caracas, Venezuela. 2 Departamento de química, Universidad Simón Bolívar. Caracas, Venezuela. 3 Laboratorio de Ciencia e Ingeniería de Materiales, Departamento de Ingeniería, Instituto Venezolano de Investigaciones Científicas (IVIC). Altos de Pipe, Venezuela E-mail: knoris@usb.ve RESUMEN El objetivo de esta investigación fue evaluar la degradaciónin vitrode guías nerviosas fabricadas a partir de membranas porosas depoli(ε-caprolactona)(PCL) y mezclas no porosas con diferentes composiciones de poli (butilensuccinato) (PBSucc) y PCL,en solución tampón a 37ºC, pH≈7, por 23 semanas, con el fin de seleccionar la mejor combinación de polímeros para lafabricación de guías reabsorbibles. Las guías se caracterizaron determinandovariación del peso, grado de cristalinidad (Xc), análisis químico y variaciones morfológicas de la superficie del material antes y después de degradar. Los resultadosindican que las muestrasson biodegradables evidenciándosepérdida de peso, erosión de la superficie observada por microscopía de fuerza atómica, aumento del Xc obtenido por calorimetría diferencial de barrido y modificaciones químicas determinadas por espectrofotometría infrarroja por transformada de Fourier. Los resultados obtenidos permiten concluir que las guías de PCL/PBSucc fueronlas más susceptibles a la hidrólisis. Palabras clave: Guía Nerviosa, Biodegradación, Poli(ε-caprolactona), Poli (butilensuccinato).
de composición de PBSucc y PCL, con el fin de seleccionar la mejor combinación de polímeros para la fabricación de guías nerviosas reabsorbibles.
INTRODUCCIÓN La regeneración exitosa de nervios periféricos lesionadospuede lograrse empleando guías nerviosas. Diversos estudios confirman que estas guías deben ser fabricadas a partir de materiales permeables y biodegradables, para evitar una segunda intervención quirúrgica en la cual se deba remover el implante, debido a la compresión del nervio regenerado [1]. Sin embargo, el material seleccionado para la fabricación de una guía nerviosa debe tener la capacidad de orientar y preservar la integridad de las fibras axonales, evitando la fragilización temprana del andamio.Guías nerviosas elaboradas a partir de poliésteres, como la poli(ε-caprolactona) (PCL), ofrecen la ventaja de degradarse en un ambiente fisiológico [2]. A su vez, la mezcla de PCL con otros poliésteres de composición química ligeramente diferente, como el poli (butilensuccinato) (PBSucc), durante la fabricación de la guía, pueden modular la tasa de resorción del material, ajustando el proceso de degradación al tiempo requerido para el restablecimiento de la continuidad del nervio [3, 4]. Resaltando, además, que los productos de la degradación, como el ácido succínico, valérico, caproico o butírico, de ambos poliésteres no son tóxicos [5, 6].En esta investigación, el objetivo fue evaluar la degradación in vitro de guías nerviosas fabricadas a partir de membranas porosas de PCL y mezclas no porosas de diferentes rangos
METODOLOGÍA Las guías nerviosas porosas y no porosas fueron fabricadas a partir de PCL (PM= 56.000grs/mol, Tone 767, UnionCarbide) y de PCL/ PBSucc (PM= 23000grs/mol, ShowaHighpolymer Co. Ltd.). El procedimiento se inició elaborando las membranas que luegoservirían para formar las guías. Para la obtención de las membranas seutilizó la modificación de un protocolo previamente descrito por Kokai et al [5]. Brevemente, las membranas se fabricaronmediante la disolución delpolímero y luego evaporación del solvente (cloroformo), tal que en las guías porosas, la formación de poros, se llevó a cabo agregando 40% y 50% p/p de una sal de cloruro de sodio(NaCl), durante la disolución del polímero respectivamente.Posteriormente, las partículas de sal se removierondel material mediante lixiviación con agua destilada, una vez formada la película polimérica. Para describir las diferentes guías fabricadas se empleó la siguiente nomenclatura: las guías no porosas de PCL: PBSucc 100:0 p/p con 0.09 mm de espesor se identificaron como: [PCL100-PBSucc0]0.09 no porosa. Las guías porosas de PCL: PBSucc 100:0 p/p fabricadas con
125
Memorias_BIOVEN_2012
Porcentaje de Peso Remanente
40% p/p de NaCl y un espesor de 0.14 mm se especificaron como: [PCL100-PBSucc0]0.14 porosa 40%. Mientras que las guías porosas de PCL:PBSucc 100:0 p/p fabricadas con 50% p/p de NaCl y un espesor de 0.16 mm se describieron así: [PCL100-PBSucc0]0.16 porosa 50%. A su vez, las guías no porosas de PCL: PBSucc 80:20 p/p con 0.10 mm de espesor se señalaron con la siguiente nomenclatura: [PCL80-PBSucc20]0.10 no porosa. Por último, las guías no porosas de PCL: PBSucc 80:20 p/p con 0.06 mm de espesor se identificaron como: [PCL80-PBSucc20]0.06 no porosa. Las fracciones de PCL y PBSucc, en la muestra, se indicaron con un número en el subíndice, mientras que el espesor de la membrana con un número en el superíndice. La degradación se llevó a cabo en una solución tampón Ringer´s a un pH 6,5–7,0 en condiciones fisiológicas. Los soportes de PCL y PCL/PBSucc fueron sumergidos en 20 ml de la solución, en tubos individuales y mantenidos a 37ºC por 23 semanas. Luego, las muestras fueron lavadas en agua destilada, secadas con aire y a temperatura ambiente. La caracterización, de las guías biodegradadas, fue realizada determinando la pérdida de peso, cambios en el grado de cristalinidad (Xc), análisis químico y variaciones morfológicas de la superficie del material antes y después de la degradación. El cambio de cristalinidad, obtenido en el análisis térmico, se obtuvo mediante Calorimetría Diferencial de Barrido (DSC, por sus siglas en inglés) en un equipo DSC Perkin Elmer, modelo DSC-7.Para la determinación de la variación de peso se utilizó una balanza marcaAdventurerTM Pro AV264 (d= 0.0001g), Ohauscorporation.Las variaciones morfológicas en la superficie del material se determinaron con un microscopio electrónico de barrido (MEB) por emisión de campo modelo Inspect F50, FEI y un microscopio de fuerza atómica (MFA) empleado en modo acústico marca AgilentTechnologies 5500ScanningprobeMicroscope.Por último, se realizó un análisis espectroscópicoen las muestras mediante Infrarrojopor transformada de Fourier (FTIR, por sus siglas en inglés) con un espectrofotómetro IR marca Nicolet modelo Magna 750.En el cual la deconvolución de la señal se obtuvo empleando elsoftware (Omnic, ThermoElectronCorp.).
100
[PCL80-PBSucc20]0.06 no porosa [PCL80-PBSucc20]0.10 no porosa
99
*
[PCL100-PBSucc0]0.16 porosa 50%
*
[PCL100-PBSucc0]0.14 porosa 40% [PCL100-PBSucc0]0.09 no porosa
98
Figura 1. Peso remanente de la guía nerviosa en porcentaje luego de 23 semanas de degradación. En la Figura 2, las micrografías tomadas por MEB de una sección transversal de la guía de [PCL80-PBSucc20]0.06 no porosa, obtenida por fractura criogénica, permiten observar la distribución de los polímeros en la pared de la estructura antes (Figura 2A y 2B, indicado por flechas) y después de degradar (Figura 2C y 2D, indicado por flechas). Sin embargo, al no observar los efectoshidrolíticosdel medio sobre la superficie del material, en las imágenes tomadas por MEB,se procedió a analizar las muestras con MFA, mediantela cualse puede alcanzarun mayor contraste topográfico [7].
(A)
(B)
(C)
(D)
RESULTADOS Y DISCUSIÓN Los resultados indican que las guías de PCL/PBSuccfueron las más susceptibles al efecto hidrolítico de la solución tampón, como se evidencia en la Figura 1, en la cual se demuestra que el peso remanente de las muestras de [PCL80-PBSucc20]0.06 y [PCL80PBSucc20]0.10 no porosas fue significativamente diferente al resto de las muestras (*). El (*) indica que ambas muestras presentaron diferencias significativas con respecto a las demás, pero no son estadísticamente diferentes entre ellas. El análisis estadístico se realizó con una prueba de Anova de una vía. Se utilizó un Alfa de 0.05.
Figura 2. Micrografías tomadas por MEB de un corte transversal obtenido por fractura criogénica antes de degradar(A, B) y después de degradar(C, D) de una guía nerviosa de [PCL80-PBSucc20]0.06no porosa. Distribución del PBSucc en la pared de la guía (flechas).
126
BIOMATERIALES
(A)
durante el período seleccionado de 23 semanas para llevar a cabo el ensayo, se generó lo que se considera la primera etapa de la degradación. En la cual inicialmente se degrada la faseamorfa del polímero, y deja así cadenas poliméricas remanentes de esta zona con mayor libertad molecular para irse incorporando a la fase cristalina (dada la temperatura del ensayo). Esto seevidencia en las variaciones en el grado de cristalinidad. Cabe resaltar, que la fase cristalina de un polímero se degrada más lentamente por su estructura organizada, la cual dificulta la acción hidrolítica del medio, generando un aumento enel Xc del material, analizado por DSC.
(B)
Tabla I. Temperatura de Fusión (Tf), Temperatura Onset (T Onset) y Grado de Cristalinidad (Xc) obtenidas mediante el análisis por DSC a 20ºC/min.
(C)
(D)
Figura 3. Imágenes obtenidas por MFA de la superficie de una guía de [PCL80-PBSucc20]0.06no porosa. Imagende fase(A, C) Imagen de contorno(B, D). Antes de degradar (A, B) y después de degradar (C, D). En la figura (A, C) las flechas señalan el polímero PBSucc. En la figura (D) la flecha señala surcos en la superficie degradada. En efecto, al analizar las micrografías obtenidas por MFA de la muestra de [PCL80-PBSucc20]0.06 no porosa, se puedeobservar surcos en la superficie del material, los cuales parecen ser debido al efecto erosivo del medio hidrolítico sobre la mezcla de polímeros (Figura 3D, indicado por flechas). A su vez, al comparar las imágenes de faseen la Figura 3A y 3C con laimagen de contornoen la Figura 3D se puedeinferir que los surcos observados, en esta última figura, son posiblemente, producto de la degradación temprana de la fasePBSucc, el cual al tener un menor peso molecular (PM= 23000grs/mol) yposeer una estructura más amorfa es más susceptible a la hidrólisis, en comparación con la PCL, altamente hidrofóbica. En este caso, al analizar la micrografía de la Figura 3C, se puede inferir que la PCL es el polímero más duro, que rodea al PBSucc, el cual se encuentra en menor proporción en la muestra, detallándose con una tonalidad oscura, al ser más blando (Figura 3A y 3C, señalado por flechas). Esta diferencia en los colores, proporcionada por el MFA,es debido a que las imágenes de fase, reportan un contraste causado por diferencias en las propiedades viscoelástica de la superficie de la muestra. Este desfase se produce por el retraso en la fase de oscilación de la punta medido en el fotodiodo, con respecto al valor de fase de oscilación proporcionado por el piezo del soporte de la punta. En cuanto al grado de cristalinidad (Xc)obtenido mediante DSC, se obtuvo un incremento de este parámetro con el tiempo de hidrólisis (Tabla I). Esto se debe a que
Con respecto, al análisis realizado mediante FTIR, los espectros confirman que la hidrolisis del medio produjo una modificación en el ambiente químico de las muestras degradadas (Figura 4A), causando un leve desplazamiento en la banda correspondiente a la vibración del grupocarbonilo del éster en la cadena polimérica (1710 1740 cm-1). Con la finalidad de visualizar mejor este resultado, se agregó la Figura 4B, que representa una porción ampliada del espectro en la Figura 4A. Usando un software (Omnic, ThermoElectron Corp.) se obtuvo una deconvolución de esta región, mediante la cual es evidente que la degradación del material incrementó el número de formas de vibración del grupo carbonilo de las muestras degradadas (Figura 4B.f) en comparación con la señal obtenida de las muestras no degradadas (Figura 4B.f’). De manera que la modificación de las frecuencias de los grupos carbonilos y la posible formación de compuestos ácido carboxílicos,generaron un pequeño desplazamiento en el pico de 1735 cm-1, en las muestras sometidas a la hidrolisis.
127
Memorias_BIOVEN_2012
continuidad puede ser restablecida en periodos cortos de tiempo, guías rápidamente biodegradables, fabricadas a partir de combinaciones de PCL/PBSucc, pueden constituir una mejor elección.
(A)
Absorbancia
(a)
AGRADECIMIENTOS
(b)
(d)
El presente trabajo fue financiado mediante fondos otorgados por el Proyecto LOCTI-USB-FUNINDES No. 5894-08, titulado "Desarrollo de injertos de Sistema Nervioso, empleando bioingeniería de tejido"
(e)
REFERENCIAS
(c)
1800
1600
1400
1200
1000
800
[1] Schlosshauer, B.,Dreesmann, L.,Schaller, H.E.,Sinis N. (2006):Synthetic nerve guide implants in humans: a comprehensive survey, Neurosurgery, 59: pp 740 – 748. [2] Navarro, X., Rodríguez, F.J., Labrador, R.O., Butí, M., Ceballos, D., Gómez, N., Cuadras, J., Perego, G. J (1996): Peripheral nerve regeneration through bioresorbable and durable nerve guides, J PeripherNervSyst,1:pp53 – 64. [3] Qiu, Z., Ikehara, T., Nishi, T. (2003):Melting behaviour of poly(butylene succinate) in miscible blends with poly(ethylene oxide), Polymer, 44: pp 3095 – 3099. [4] Pamuła, E., Dobrzyński, P., Bero, M., Paluszkiewicz, C. (2005): Hydrolytic degradation of porous scaffolds for tissue engineering from terpolymer ofL-lactide, εcaprolactoneand glycolide, J MolStruct, 744-747: pp 557 – 562. [5] Kokai, L. E., Lin, Y-C, Oyster, N., Marra, K. (2009): Diffusion of soluble factors through degradable polymer nerve guides: Controlling manufacturing parameters,ActaBiomaterialia, 5: pp2540–2550 [6] Phua, Y.J., Chow, W.S., MohdIshak, Z.A. (2011): The hydrolytic effect of moisture and hygrothermal aging on poly(butylene succinate)/ organo montmorillonitenanocomposites, Polymer Degradation and Stability, 96: pp 1194 – 1203. [7] Braga P.C., Ricci D. (2004):Atomic force microscopy. Biomedical methods and applications.Methods in Molecular Biology.1° Edición.Editorial Humana Press.
-1
(B) Región detallada entre 1650 – 1750 cm
Absorbancia
(b)
(f) (b)’ (f)’ 1800
1770
1740
1710
1680
1650
-1
Número de Ondas (cm )
Figura 4. Espectro FTIRde las guías luego de la degradación (A) y bandas de absorción en el rango de 1650 – 1750 cm-1 de una guía fabricada a partir de [PCL80-PBSucc20]0.06 no porosa(B); antes (b)’ y después de degradar (b). (f)’y (f) son las deconvoluciones de las señales del espectro antes y después de degradar, respectivamente. CONCLUSIONES De los resultados obtenidos se puede concluir que las guías de PCL/PBSucc fueron las más susceptibles a la hidrólisis. Por otra parte, para definir cuál es la combinación más apropiada del material en la fabricación del soporte se deben considerar diversas variables, entre otras las características de la lesión a regenerar. De los análisis presentados en el presente trabajo se puede afirmar que las guías nerviosas desarrolladas a partir de PCL, se reabsorberán más lentamente, debido a la lenta degradación del polímero, por lo que se recomienda su utilización en lesiones más grandes, de manera que el andamio pueda mantener las propiedades mecánicas bajo un ambiente fisiológico, sirviendo como puente durante la migración axonal. Mientras que en lesiones más pequeñas, donde la
128
BIOMATERIALES
EVALUACIÓN DE BIOCOMPATABILIDAD DE MATRICES COMPUESTAS DE POLIACRILAMIDAEMPLEANDO CÉLULAS OSTEOPROGENITORAS Contreras, L.1, Pirela M.2, González, G.2 y Noris-Suarez, K.1 1
Laboratorio Bioingeniería de Tejidos-USB, Departamento de Biología Celular, Universidad Simón Bolívar. Caracas, Venezuela. 2 Laboratorio de Ciencia e Ingeniería de Materiales, Departamento de Ingeniería, Instituto Venezolano de Investigaciones Científicas (IVIC). E-mail: knoris@usb.ve RESUMEN La búsqueda de materiales biocompatibles capaces de funcionar como sustitutos de implantes óseos ha sido un tema de amplia repercusión científica y tecnológica. Se pretende evaluar la citotoxicidad y adhesión a las 48 h de células osteoprogenitoras sobre matrices compuestas de poliacrilamida (PAAm) combinadas con nanopartículas de plata (nAg), hidroxiapatita (HA) o quitosano (Cs). La citotoxicidad se determinó evaluando la difusión de potenciales agentes tóxicos, realizando los cultivos con las células osteoprogenitoras en medio condicionado con las matrices por 48 h, la adhesión celular se determinó sobre las matrices empleando el kit comercial CellTiter® 96R(MTS). Pudo confirmarse que las matrices de PAAm combinadas con nAgson altamente tóxicas, obteniendo 100 % de células no viables en los cultivos. Las combinaciones sin nAgresultaron ser biocompatibles (20% HA + PAAm, 5%Cs + PAAm). En conclusión, las matrices de PMMA no combinadas con nAg resultan ser biocompatibles. Palabras Clave: Biocompatibilidad, Biomaterial, Células Oseas, PAAM.
de factibilidad funcional, bioestabilidad, biocompatibilidad y esterilidad. Por otra parte, los hidrogeles han sido reconocidos como interesantes matrices porosas en el campo de losbiomateriales utilizados en aplicaciones médicas entre las que se puede mencionar la fabricación delentes de contacto, regeneración de tejidos blandos y duros. Esto ha sido posible por las características en la microestructura y propiedades hidrofílicas o hidrofóbicos que lespermiten ser biocompatibles[3].La combinación de hidrogeles comoPAAm con otros materiales, permite ampliar sus aplicaciones por su sinergismo al combinar sus propiedades [4]. Un área de interés para la ingeniería tisular es el desarrollo de materiales que contribuyan en los procesos de regeneración ósea, lo que ha llevado a la búsqueda constante de biomateriales, con la suficiente biocompatibilidad y seguridad, capaces de funcionar como implantes óseos. En este sentido, el presente trabajo tiene como objetivo evaluar la biocompatibilidad de hidrogeles de PAAm con diferentes combinaciones con hidroxiapatita (HA), quitosano (Cs), y combinaciones de estos con partículas nanométricas de plata (nAg) empleando como modelo células osteoprogenitoras obtenidas a partir de ratas neonatas(Spraguedowley).
INTRODUCCIÓN Los biomateriales han alcanzado aplicaciones importantes en el campo de la medicina, siendo esta el resultado de los rápidos avances en otras áreas de la ciencia, tales como la genética, proteómica, biología celular, ingeniería de tejidos y bioinformática. Un «biomaterial» se define como un material no viable con el que se fabrica un dispositivo médico que interacciona con sistemas biológicos[1]. Si se excluye la palabra «médico», la definición se amplía a un extenso abanico de aplicaciones; si se suprime la palabra «no viable» el concepto se hace más general e incluye tejidos modificados aplicando la ingeniería de tejidosy órganos artificiales híbridos, en los que las células juegan un papel protagonista. Una definición complementaria e imprescindible para comprender la finalidad de los biomateriales es la de «biocompatibilidad»: la capacidad de un material para cumplir una función determinada con una respuesta adecuada del huésped en una aplicación específica[1]. Clásicamente los biomateriales se dividen en cuatro grupos: polímeros, metales, cerámicos y naturales. Cuando se combinan dos materiales diferentes se obtiene un material compuesto, representando una quinta clase de biomaterial[2].Los biomateriales deben reunir los requisitos
129
Memorias_BIOVEN_2012
suave. Para la tercera incubación el sobrenadante se centrifugó a 3000 rpm durante 5 min. El precipitado celular obtenido se resuspendióy cultivó en medio DMEM complementado con 10% suero fetal bovino (SFB). Manteniéndose a 37 ºC en atmósfera de CO2 (5%) y humedad controlados. De los cultivos primarios se realizaron subcultivos posteriormente para amplificar el número de células requeridas y realizar los ensayos de viabilidad y biocompatibilidad, si superar los 6 subcultivos.
METODOLOGÍA Síntesis Para el estudio se sintetizaron hidrogeles por polimerización en solución vía radical libre de PAAm (100 %m/m) utilizando N, N´, Metilenbisacrilamida (MBAAm, 1,1% m/m) como agente entrecruzante y en presencia de persulfato de Amonio (PSA, 2%m/m) como iniciador de la reacción (iniciación química) e hidrogeles de PAAm (100%m/m) con hidroxiapatita (2%m/m) y/o quitosano (35%m/m) y/o Nitrato de Plata (como precursor de la Plata, al 2% m/m). Las síntesis se realizaron en un baño termostatádo, utilizando un agitador magnético con calefacción, a una temperatura de 30±1°C y bajo agitación continua de 800 rpm, hasta la formación de los hidrogeles. El tiempo de disolución, en 0,7 ml de agua destilada, para la AAm y MBAAm fue de 5 minutos cada uno; para la dispersión y/o disolución de los modificadores (HA y/o AgNO3) fue de 15 minutos y luego se adicionó el PSA. Para el caso de hidrogeles con Quitosano antes de disolver la AAm y el resto de los aditivos, se disolvió el quitosano en ácido acético a 60±1°C por 15 minutos. Los hidrogeles de PAAm se evaluaron con un microscopio electrónico de barrido (MEB) por emisión de campo modelo Inspect F50, FEI.
Evaluación de citotoxicidad de la PAAm por el método de medio condicionado. Con el fin de preparar el medio condicionado se colocaron los discos en medio DMEM complementado con 10% SFB a 37oC por 48h. Una vez obtenido el medio condicionado de cada una de las condiciones del hidrogel a ser evaluado (PAAm pura, PAAm+ 0,95% nAg, PAAm+ 20% HA, PAAm+ 2%HA+2% nAg, PAAm + 5% Quitosano (Cs) y PAAm + 2% nAg+ 2% HA + 3% Cs) se sembraron a una densidad de 9300 cel/cm2, y se cultivaron las células con el medio condicionado (realizando 3 réplicas de cada condición). Como grupo control se tenía las células cultivadas con el medio habitual sin pre- condicionamiento de ningún tipo. Para la determinación de las células adheridas/viables se hizo una determinación de las células no adheridas a la placa luego de 16h de cultivo, mezclando 10 µl del medio de cultivo que contiene las células no adheridas con 10 µlde azul de tripano, colorante vital que permite distinguir las células viables de las no viables, y se cuantificó, empleando unhemocitómetro. La determinación del total de células adheridas se realizó aplicando la siguiente fórmula:
Esterilización de los hidrogeles compuestos de PAAm para los estudios in vitro. Los discos de hidrogeles de PAAm de aproximadamente 0,7 cm de a ser usados para las evaluaciones biológicas se trataron en ambiente estéril con etanol 70% para destruir los posibles microorganismos presentes en las muestras así y se combinó con la aplicación de un sistema de vacíoque permite eliminar el aire atrapado en el material, a fin de garantizar la remoción total de este de la matriz del hidrogel. Para eliminar la solución alcohólica se lavaron las muestras 2 a 3 con agua destilada estéril y finalmente se realizó un lavado con tampón fosfato salino (PBS, por sus siglas en inglés). Para ser usadas en los ensayos se dejaron secar a temperatura ambiente y se expusieron a 10 min a radiación UV con el fin de garantizar la esterilidad de las muestras
#cél. adheridas= #cél sembradas – #cél. no adheridas 16h Determinación de adhesión celular sobre los hidrogeles Una vez determinada cuales matrices resultaron citotóxicas y cuáles no, se seleccionaron solo aquellas que no mostraron citotoxicidad para la determinación de su biocompatibilidad, mediante la determinación de la adhesión celular a las 48 h de cultivo sobre las matrices fabricadas, en particular se realizaron cultivos por triplicado de las matrices con las siguientes condiciones: PAAmpura, PAAm+20% HA, y PAAm+5% Cs, y se preparó como control células cultivadas sobre la placa de cultivo, sustrato de referencia para los estudios. Todos los cultivos se realizaron con medio DMEM complementado con 10% SFB.
Aislamiento y cultivo de células osteoprogenitoras Para el establecimiento de los cultivos de células osteoprogenitoras se siguió el protocolo descrito previamente [5]. Brevemente, empleando a un promedio de 10 ratas neonatas Spraguedowley de 2-3 días de nacidas se le extrajo la calvaria, a las cuales se le hicieron tres lavados en PBS, eliminando por raspado el tejido blando y cortando lacalvaria en trozos de aproximadamente 5 mm2. Los fragmentos obtenidos fueron sometidos a 3 procesos de digestión consecutivoscon una solución de digestión compuesta por: 0,1% de colagenasa I, 0,25% de tripsina y 0,5 mM de EDTA en medio DMEM (Dulbecco’sModified Eagle Medium, Gibco), incubando a a37ºC en agitación
A fin de cuantificar con mayor precisión el número de células viables a las 48h se utilizó el kit comercial CellTiter® MTS 96R (Promega), siguiendo las instrucciones del comerciante.
130
BIOMATERIALES
Mientras que al comparar los resultados de citotoxicidad de los hidrogeles de las restantes combinaciones destaca que los hidrogeles de PAAm puro y combinada con quitosano (Cs) se comportaron de forma idéntica al control, mientras que los hidrogeles de PAAm+20%HA, presentan una menor adhesión respecto al control (95%) (Figura 2).
RESULTADOS Y DISCUSIÓN Los hidrogeles obtenidos presentan diversas morfologías y topografías. En la figura 1 se pueden observar algunas de ellas. Los hidrogeles de PAAm pura, con HA y con las combinaciones con nAg muestran una estructura con poros grandes, y con una distribución homogénea de las partículas de HA y/o de nAg (Figura 1B y 1D). Mientras los hidrogeles PAAm + Cs muestran una estructura compacta sin poros aparentes (figura 1C).
Figura2: Ensayo de citotoxicidad con los medios condicionados con diferentes hidrogeles con cultivos de células osteoprogenitoras. Control: medio DMEM complementado; PAAm P: poliacrilamida pura; PAAm 20% HA: poliacrilamida + 20% Hidroxiapatita; y PAAm 5% Cs: poliacrilamida + 5% quitosano. Figura 1:Micrografías de los hidrogeles. A. PAAm puro, micromarca =2 mm, B. PAAm+20% HA, micromarca=1mm. C. PAAm+3%Cs, micromarca= 2mm. D. PAAm+0,95% nAg, micromarca= 5 µm
En la figura 3 se muestran micrografías de los cultivos con el medio control (Figura 3A) y con el medio condicionado de hidrogeles dePAAm+0,95% nAg. Se observan las células adheridas a la placa en el control, a las 16 h de cultivo (figura 3A), mientras que las células se observan flotando, de forma esférica y de una apariencia oscura (figura 3B, indicativo de que eran células no viables, lo cual se corroboró al realizar el contaje con el colorante vital azul de tripano.
Los hidrogeles como la PAAm, tienen la funcionalidad de permitir que las células vivas se distribuyan adecuadamente o se diseñan para que se disuelvan o degraden, liberando factores de crecimiento y por ende creando poros en los cuales las células puedan penetrar y proliferar[6]. Sin embargo, es importante antes de probar la biocompatibilidad realizar los ensayos citotóxicos para evaluar los efectos secundarios del biomaterial sobre el crecimiento de las células. Dichos ensayos fueron llevados a cabo en cultivos realizados en medio condicionado por cada uno de las diferentes combinaciones de los hidrogeles sintetizados. En la figura 2 se muestran los resultados obtenidos de estos cultivos donde solo se graficaron el porcentaje de células adheridas a las 16h de cultivo expuestas a los hidrogeles que no contienen nAg en su formulación. Ello se debe a que todas preparaciones donde se incluyeron nanopartículas de plata (nAg) resultaron 100 % citotóxicas. Ello posiblemente se deba a que las nanopartículas de plata se solubilizaron rápidamente en el medio de cultivo al ser este incubado a 37 oC por 48 h con el hidrogel, resultando en una concentración altamente citotóxica para los cultivos de células osteoprogenitoras.
Figura 3. Micrografías de los cultivos expuestos a los medios condicionados a las 16h. Control. B medio condicionado por 48 con hidrogeles de PAAm 0,95% n.
A fin de verificar la no citotoxicidad y biocompatibilidad de las matrices de PAAm se evaluó la adhesión celular de las células óseas a las 48 h de cultivo y empleando elkit
131
Memorias_BIOVEN_2012
comercial CellTiter 96®, el cual permite evaluar las células metabólicamente activas, indicativo de una buena viabilidad. En la figura 4 se presentan los resultados obtenidos. Se destaca que las matrices evaluadas en esta condición presentaron todas una adhesión celular similar al compararse entre sí, y en comparación con el control presentaron porcentajes de adhesión entre 53 y 55 % respecto al control.
REFERENCIAS [1] Ratner, B. et al (2004): BiomaterialsScience - An Introduction to Materials in Medicine. 2nded, California, Elsevier Inc. [2] Abramson S. et al (2004): Classes of materials used in medicine. San Diego, Elsevier Academic Press. [3] Peppas N. et al (2006): Hydrogels in Biology and Medicine: From Molecular Principles to Bionanotechnology. Advance Materials, 18: p 15. [4] Li, W.-W. et al (2009): Determination of Residual Acrylamide in Medical Polyacrylamide Hydrogel by High Performance Liquid Chromatography tandem Mass Spectroscopy. Biomedical and Environmental Sciences, 22(1): p 28-31. [5] Noris-Suarez, K. et al (2003): Caracterización biológica de vidrios modificados del sistema Na2O.CaO.SiO2.P2O2conteniendo Al2O3yB2O3 empleando células osteoblásticas. Revista Latinoamericana de Metalurgia y Materiales, 23(1): p 6. [6] Sánchez, A. et al (2007): Utilización de soportes de hidrogel de quitosano obtenidos a partir de desechos del camarón langostino (Pleuroncodesplanipes) para el crecimientoin vitro de fibroblastos humanos. Revista Iberoamericana de Polímeros, 8(4): p 26.
Figura 4:Adhesión celular a las 48 h de cultivo. Se determinaron las células adheridas sobre, Control: placa de cultivo; PAAm P: poliacrilamida pura; PAAm 20% HA: poliacrilamida+ 20% Hidroxiapatita;y PAAm 5% Cs: poliacrilamida+ 5% quitosano. Estos resultados sugieren que los hidrogeles de PAAm tanto puros como combinados con HA y/o quitosano son biocompatibles ya que las células mostraron una buena tasa de adhesión. CONCLUSIONES De los resultados obtenidos se puede concluir que: es posible obtener hidrogeles de poliacrilamida en sistemas compuestos con facilidad. Los hidrogeles sintetizados con nanopartículas de plata resultaron ser citotóxicos posiblemente debido a la alta tasa de disolución que presentó este compuesto cuando los hidrogeles se preincubaron en medio de cultivo a 37oC por 48h. Adicionalmente, los hidrogeles fabricados con HA o quitosano resultaron ser biocompatibles, y podrían ser útiles en la fabricación de implantes óseos. AGRADECIMIENTO El presente trabajo fue financiado mediante fondos otorgados por los ProyectosFONACIT – IVICG200100900, titulado "Biomateriales naturales y sintéticos para aplicaciones como implantes óseos" y G2005000173, titulado PROTOCEBIAN-prótesis óseas en cerámicas biocompatibles para animales”
132
BIOMATERIALES
EVALUACIÓN DE BIOCOMPATIBILIDAD DE MATRICES DE POLIETILENO DE ALTA DENSIDAD CON CONTENIDOS DIFERENTES DE HIDROXIAPATITA (PEAD-HA). Yndriago L.1, Herman V.2, Romero K. 2, Albano C.2,3, Arquimedes K2, Gonzalez G.4, Noris-Suárez K.1 1
Lab. Bioingeniería de Tejidos-USB, Dep. Biología Celular, Universidad Simón Bolívar. Caracas, Venezuela. 2 Centro de Química, Laboratorio de Polímeros, IVIC, Caracas, Venezuela. 3. Facultad de Ingeniería, UCV, Caracas, Venezuela. 4 Laboratorio de Ciencia e Ingeniería de Materiales, Departamento de Ingeniería, Instituto Venezolano de Investigaciones Científicas (IVIC). e-mail: knoris@usb.ve RESUMEN El desarrollo de nuevos materiales potenciales sustitutos óseos sigue siendo un área de estudio en desarrollo constante. En este estudio se propuso la evaluación de la biocompatibilidad de matrices de polietileno de alta densidad (PEAD) fabricada “in situ” con diferentes proporciones de hidroxiapatita (HA) empleando células ósea. Se evaluó la adhesión inicial (16 h) y la adhesión tardía (a los 7 días de cultivo) mediante la determinación de número del células viables, actividad de fosfatasa alcalina y análisis morfológico por marcaje de la actina con faloidina -FITC, proteína del citoesqueleto celular. De los resultados encontrados destaca que a mayor proporción de HA (20%) hay mayor adhesión temprana. Y en esta condición pareciera inducirse en los cultivos un proceso de diferenciación a los 7 días de cultivo, lo que sugiere que este material compuesto promueve la osteogenesis en las condiciones ensayadas. Palabras Clave: osteoblastos, adhesión celular, polietileno de alta densidad, hidroxiapatita.
proliferación y la diferenciación celular [3]. La adhesión inicial de las células óseas a un material está determinada por las señales físico-químicas que reconoce de la superficie del material, tales como: la topografía del material y su similitud con la matriz extracelular (MEC) ósea. En este aspecto, las células desarrollan estructuras como lamelopodios y filopodios ricos en actina, los cuales crean focos de contacto sobre el material permitiendo una correcta adhesión inicial [4, 5]. La similitud con la MEC en materiales combinados PEAD-HA está dada por la cantidad de HA. Por ello en este estudio se propuso comparar la adhesión de células óseas a matrices de PEAD combinadas con diferentes concentraciones de HA (5, 10, 15 y 20%). Se evaluaron aspectos como: adhesión inicial (16h) y adhesión tardía (7 días de cultivo), en esta última condición se evalúan parámetros como la proliferación y diferenciación de las células óseas.
INTRODUCCIÓN El desarrollo de materiales para sustitutos óseos es de gran importancia por su aplicación en la regeneración de este tejido cuando ha sufrido algún daño importante. Los materiales utilizados para la elaboración de sustitutos óseos son variados, entre los que se encuentran metales, polímeros y cerámicas, siendo éstos los usados con mayor frecuencia. En este ámbito, es importante considerar tanto las características biomecánicas del material, como la respuesta de éste al ser expuesto a un sistema vivo; característica mejor conocida como biocompatibilidad [1]. Además de la biocompatibilidad, es necesario que el material sea semejante al material natural del cuerpo, por ello se considera la hidroxiapatita (HA) como un tipo de cerámica bioactiva. Sin embargo, por sí sola exhibe propiedades mecánicas muy pobres [2]. Por ello, este material se ha utilizado en combinación con polietileno de alta densidad (PEAD) para el desarrollo de sustitutos óseos [1]. Los materiales combinados PEAD-HA deben proveer una superficie adecuada para la adhesión inicial de células osteoblásticas (OB). Una adecuada adhesión temprana de OB al material, es importante para iniciar las cascadas de traducción de señales que conllevan procesos como la
133
Memorias_BIOVEN_2012
las matrices de PEAD muestran una adhesión superior al control, encontrándose además que las muestras que contenían los mayores valores de HA muestran mayor adhesión respecto al control de PEAD (muestra sin HA). Estos resultados son similares a los reportados por otros autores, donde se observa una mayor adhesión en matrices que presentan HA [7]. La adhesión tardía permite evaluar la capacidad de proliferación celular, como indicativo de una correcta transducción de señales a consecuencia de una adhesión inicial exitosa sobre el material [8].
METODOLOGÍA Polímeros: los materiales poliméricos de PEAD-HA fueron elaborados mediante polimerización de etileno in situ en el Instituto Venezolano de investigaciones científicas (IVIC). Para el estudio se utilizaron: PEAD, PEAD-HA 5%, 10%, 15% y 20%. Cultivo celular: se utilizaron células óseas (OB) aislados de calvaria de ratas neonatas, los cuales fueron cultivados en medio DMEM (Dulbecco’s Modified Eagle Medium) complementado con 10% suero fetal bovino (SFB). Los cultivos se mantuvieron a 37ºC, con condiciones de CO2 y humedad controladas [6]. Adhesión y proliferación celular: los OB fueron sembrados sobre cada polímero con una concentración aproximada de 9300 cel/cm2. Al cabo de 16 horas y a los 7 días de cultivo se determinaron el número de células presentes mediante el uso del kit comercial CellTiter 96 AQueous One Solution Cell Proliferation Assay (Promega), siguiendo las instrucciones del fabricante. Fosfatasa alcalina (FA): la actividad FA se determinó en el medio de cultivo a diferentes períodos, 0, 4 y 7 días de cultivo, empleando el kit comercial ALP Giesse, siguiendo las instrucciones del fabricante. Los resultados obtenidos fueron analizados estadísticamente mediante ANOVA de una vía. Tinción con Faloidina-FITC: para determinar la morfología de las células adheridas se sembraron 9300 cel/cm2 sobre las diferentes preparaciones de PEAD y se cultivaron por 48 h. Para marcar la actina de las células adheridas se procedió a fijarlas con paraformaldehído 4% durante 10 min., seguidos de 3 lavados con PBS (por sus siglas en inglés, Phosphate Buffer Saline) y se agregó durante 1 min solución permeabilizadora (10.3 gr sacarosa, 0.292 gr NaCl, 0.06 gr MgCl2, 0.476 gr Hepes, 0.5 mL Tritón X-100, se completa con agua hasta 100 mL, pH=7.4). Se retiró la solución y se incubaron las muestras a 37ºC con 1% albúmina sérica bovina. Finalmente, una vez retirada la solución se agregó 8µM faloidina-FITC (Sigma) incubando en oscuridad por 1 hora, y se lavaron con Tween20 al 0.5% [7]. Las muestras se evaluaron mediante un microscopio de epifluorescencia.
Figura 1. Adhesión celular temprana (n=3)
En la figura 2 se muestran los resultados obtenidos del cultivo de células óseas por 7 días sobre las matrices de PEAD. Se encontró que la adhesión tardía de OB fue significativamente mayor en los cultivos control que sobre los polímeros de PEAD-HA, sin encontrarse diferencias al comparar las matrices entre sí.
RESULTADOS
Figura 2. Adhesión celular tardía (n=3)
Se ha descrito que el reclutamiento inicial de OB, el cual involucra la adhesión inicial de las células a un biomaterial, es de gran influencia para la correcta diferenciación y mineralización de estas células [7]. En la figura 1 se muestran los resultados de adhesión obtenidos para las 16 hrs. El control del experimento corresponde a las células sembradas sobre la placa de cultivo, la cual mantiene las condiciones de preferencia para el establecimiento del mismo. En esta evaluación de la adhesión temprana, todas
En la tabla I se reporta la tasa de proliferación celular para los cultivos. No se encontraron diferencias estadísticamente significativas entre las diferentes matrices con HA.
134
BIOMATERIALES
La actividad de fosfatasa alcalina es un indicador de diferenciación celular, que puede ser determinado en el cultivo celular a lo largo del período de estudio. Este marcador se expresa mayormente en las células óseas cuando se encuentran en la fase de osteoblastos. A medida que mineraliza la matriz extracelular y ellas progresan hacia su condición osteocítica, entonces la expresión de fosfatasa alcalina desciende nuevamente.
Tabla I. Índice de proliferación celular (n=3) Índice de proliferación
D.E.
Control
4,16*
0,41
PEAD
1,63
0,06
PEAD-HA 5%
1,40
0,08
PEAD-HA 10%
1,45
0,31
PEAD-HA 15%
1,86
0,47
PEAD-HA 20%
1,51
0,30
Figura 4. Micrografías OB sobre polímeros. (A) Control, (B) PEAD sin HA, (C) PEAD-HA5%, (D) PEAD-HA10%, (E) PEAD-HA15%, (F) PEAD-HA20%. Las flechas indican filopodios. Todas las micromarcas corresponden a 50 µm.
La visualización de los filamentos de actina en las células sugiere la organización del citoesqueleto celular sobre una superficie dada. En la figura 4 se observa que los filamentos de actina de las células óseas sobre el control siguen un patrón con mayor desorden, en comparación con las células cultivadas sobre PEAD. En condiciones de cultivo sobre PEAD-HA, se aprecia mayor organización de los filamentos de actina, presentándose estructuradamente filopodios más conspicuos en comparación con el control. Esto podría deberse a que la HA sobre el PEAD crea una superficie rugosa irregular que influye en la morfología y adhesión inicial de las células [4]. Las células expuestas a HA pudieran estar presentando un grado mayor de diferenciación, sin embargo se requieren ulteriores estudios.
Los resultados obtenidos para este marcador en cada condición evaluada se reportan en la figura 3. Se observa como sólo en las matrices con 20% HA se muestra un descenso de la expresión de esta actividad para los 7 días de cultivo, lo cual sugiere que en esta condición las células podrían no estar proliferando porque la presencia de la HA sobre la matriz las orienta a diferenciarse hacia osteocitos.
CONCLUSIONES
De los resultados obtenidos se puede concluir que la fabricación de matrices de PEAD combinadas con HA permite obtener compositos que promueven la adhesión de las células óseas a corto plazo, mientras que a largo plazo parece estar favorecido el proceso de diferenciación en lugar del fenómeno de la proliferación celular. La presencia de HA, además puede ser la base de esta diferenciación, donde además se promueve una buena distribución de los filamentos de actina, indicando una interacción celular importante.
Figura 3. Actividad enzimática de Fosfatasa Alcalina (n=6)
135
Memorias_BIOVEN_2012
AGRADECIMIENTO El presente trabajo fue financiado gracias a los fondos otorgados a los Proyectos FONACIT G-200100900 y G2005000173.
REFERENCIAS [1] Li, J., et al. (2011) Human dental pulp stem cell is a promising autologous seed cell for bone tissue engineering. Chin Med J (Engl), 124(23): pp. 4022-4028. [2] Huang, J., et al. (1997) In vitro mechanical and biological assessment of hydroxyapatite-reinforced polyethylene composite. Journal of Materials Science: Materials in Medicine, 8(12): pp. 775-779. [3] Kasemo, B., et al. (1994) Material-tissue interfaces: the role of surface properties and processes. Environmental Health Perspectives, 102(5): pp. 41-45. [4] Yamashita, D., et al. (2009) Effect of surface roughness on initial responses of osteoblast-like cells on two types of zirconia. Dental Materials Journal, 28(4): pp. 461-470. [5] Born, A., et al. (2009) Correlating cell architecture with osteogenesis: first steps towards live single cell monitoring. European Cells and Materials, (18): pp. 49-60. [6] Noris-Suárez, K., et al. (2003) Caracterización biológica empleando células osteobláticas de vidrios del sistema SiO2 .Na2O.CaO.K2O.MgO.P2O5. Modificados con Al2O3 y B2O3 . Revista Latinoamericana de Metalurgia y Materiales, 23(1): pp. 82-88. [7] Dalby, M.J., et al. (2002) Initial attachment of osteoblasts to an optimised HAPEX topography. Biomaterials, 23(3): pp. 681-690. [8] Dalby, M., et al. (2002) Optimizing HAPEX topography influences osteoblast response. Tissue Engineering, 8(3): pp. 453-467.
136
INFORMÁTICA MÉDICA En los elementos que más han contribuido al avance y desarrollo actual de la medicina, está el microprocesador. Su enorme capacidad de cómputo ha ejercido una gran influencia en la miniaturización de equipos de diagnóstico, la gestión y administración de hospitales y el desarrollo de software para la visualización, almacenamiento y procesamiento de datos biológicos. La aplicación de la informática a la medicina se produce de una manera natural, la práctica médica requiere de sistemas que permitan almacenar y procesar los datos que son captados a través de diversos equipos. La digitalización de casi cualquier fuente de datos, sean imágenes o señales, ha permitido grandes avances en la forma en que hoy en día se practica la medicina. Los datos una vez en formato digital, pueden ser organizados, almacenados, desplegados en la pantalla del computador, procesados para extraer información de los mismos reproducidos en cualquier momento e incluso enviados a localizaciones remotas. La informática médica está presente en aplicaciones de bajo y alto nivel. En el área de bajo nivel, el desarrollo de programas en ensamblador para microprocesadores, ha permitido la adquisición de datos provenientes de los sensores a través de los puertos del computador, el cálculo de parámetros fisiológicos en tiempo real y el tratamiento de imágenes médicas para mejorar la calidad de las mismas. El software científico desarrollado en lenguajes de alto nivel ha permitido la creación de interfaces de usuarios amigables y la implantación de algoritmos de procesamiento y análisis de datos de elevada complejidad. Diversos proyectos, como por ejemplo el Proyecto Genoma, han visto reducidos sus tiempos de ejecución gracias al desarrollo de algoritmos que automatizan el proceso de búsqueda de estructuras e información dentro de millares de datos. Procesos de reconocimiento de patrones que podrían llevar años a seres humanos, han sido automatizados y ejecutados en una fracción del tiempo normalmente requerido. En el área administrativa, la informática ha permitido automatizar no solo la gestión de recursos de las instalaciones hospitalarias como lo son el manejo de inventarios, nominas, citas, entre otros, sino también la distribución de la información contenida en las historias clínicas de los pacientes a través de las redes de computadoras. Gracias a una mejor planificación hospitalaria, se ha logrado mejorar las rutinas de mantenimiento de los equipos con lo cual se ha incrementado notablemente la eficacia de los mismos. En los grupos venezolanos de investigación, se realiza un gran esfuerzo en esta área gracias al bajo requerimiento tecnológico necesario para lograr productos de elevada calidad. Solo es necesario disponer de un equipo de computación de alto rendimiento y los ambientes de desarrollo de software para la creación de aplicaciones de alto desempeño. Los artículos que aparecen a continuación, presentan algunos desarrollos en esta área que buscan optimizar el manejo de la información captada a través de sensores y presentada en el monitor del computador, facilitando la labor del diagnóstico al personal médico.
137
INFORMÁTICA MÉDICA
ADQUISICIÓN DE TECNOLOGÍAS MÉDICAS EN ESTABLECIMIENTOS DE ATENCIÓN A LA SALUD Jesús Arellano1, Luis Lara Estrella2 1
Centro de Ingeniería Biomédica y Telemedicina (CIByTEL). Universidad de Los Andes. Mérida-Venezuela 2 Unidad de Gestión en Tecnologías de Salud (UGTS). Universidad Simón Bolívar. Caracas-Venezuela e-mail: jesusar@ula.ve, luislaraestrella@gmail.com
RESUMEN En estudios realizados en el sector salud venezolano, se desprenden algunas consideraciones como la falta de gerencia tecnológica, información no precisa al momento de la toma de decisiones y la carencia de normativas bien establecidas en lo referente a la adquisición y mantenimiento de equipos médicos e industriales. El propósito del presente trabajo es elaborar un manual que proporcione información metódica, rápida, clara y segura a los gerentes y responsables de las instituciones médicas al momento que se requiera la adquisición de tecnologías médicas. Como parte de la metodología aplicada, se realizo un análisis situacional para delimitar la zona de estudio, investigaciones y entrevistas en las diferentes instituciones médicas seleccionadas. Seguidamente, con la información recabada, se diseño una Guía de Adquisición de Tecnologías Médicas en los Establecimientos de Atención de Salud del Estado Venezolano (GATMES). Consta con una serie de pasos claros, precisos y se describe cada uno de los procesos. Palabras Clave: Adquisición de tecnologías médicas, Gestión tecnológica, Equipos biomédicos, Ingeniería clínica.
un plan de equipamiento, adecuación de la infraestructura y de gestión tecnológica de los 22 hospitales que dependen del Ministerio de salud. Dentro de las conclusiones que arrojo este proyecto se puede deducir, que estos problemas obedecen a las carencias de modelos de gestión en tecnologías en el sector salud, para optimizar la infraestructura hospitalaria y el equipamiento médico en los establecimientos de atención de salud del estado venezolano [2]. La gestión de tecnologías médicas es el conjunto de procedimientos sistemáticos para proveer y evaluar el equipamiento apropiado, seguro, eficaz y costo efectividad en un centro de atención de salud o en un sistema de salud. Esto implica conocer las necesidades, planeación, evaluación, adquisición, instalación, mantenimiento, capacitación, uso, obsolescencia y desincorporación del equipo médico. Con los avances de la tecnología en el área médica, tanto el sector salud público nacional como privado, han venido incorporando equipos médicos en hospitales, ambulatorios y clínicas cuya complejidad tecnológica y costo de inversión cada vez son más elevados. El aprovechamiento apropiado, eficiente, seguro y racional de este tipo de tecnologías para la salud se vuelve imperativo en una economía como la nuestra en la cual, si bien existen recursos, estos son escasos para cubrir todas las necesidades del sector salud de la población. Los problemas asociados a los equipos médicos en mayor o menor grado de severidad en el sector salud venezolano son comunes en nuestros centros de atención médica, sin
INTRODUCCIÓN Según resumen ejecutivo de la Organización Panamericana de la Salud (OPS), sobre el perfil del sistema de servicios de salud de la República Bolivariana de Venezuela, realizado en el año 2.001 se presentó, entre otros contenidos lo siguiente: En lo que referente al equipamiento y tecnologías en el año 1.996 el porcentaje de equipos en condiciones defectuosas o fuera de uso fue del 86% en los servicios de banco de sangre, emergencias, radiología, laboratorio, quirófanos, equipos de planta, oncología, ginecología, sala de partos y central de suministros. No se dispone de información para otros años. Para el año 2.000 se destinó el 7.6% del presupuesto de operación del nivel central a la conservación y mantenimiento de equipos. Ese mismo año el 24% del personal que labora en las jefaturas de mantenimiento posee solamente formación empírica. A nivel de personal técnico y obrero, este personal asciende al 82%. Las unidades y equipos de alta tecnología se encuentran concentrados en la capital nacional y en las capitales de los estados más desarrollados, tanto para el sector público como privado, sin embargo no se dispone de información precisa al respecto [1]. La Unidad de Gestión de Tecnologías en Salud (UGTS) de la Universidad Simón Bolívar, llevo a cabo el proyecto denominado: Fortalecimiento de la Red Hospitalaria Venezolana, como parte del proyecto salud emprendido por el Ministerio de Salud y Desarrollo Social (MSDS) de Venezuela en el año 2.001. Se planteo elaborar
138
Memorias_BIOVEN_2012
embargo se presentan a continuación algunas dificultades relacionados con los equipos médicos en nuestro país: - No responden a la demanda real de servicios de la población a ser atendida. - No cuentan con suficientes recursos para el mantenimiento y operación. - Están subutilizados en algunas instituciones o sobre utilizados en donde ya el equipo sobrepaso su vida útil y sigue operando deficientemente. - Falta de personal médico y técnico especializado y capacitado. - Alto porcentaje de equipos biomédicos importados [3]. Según la Agencia de Alimentos y Medicamentos (FDA) define un dispositivo médico como aquellos instrumentos, aparatos, implementos, máquinas, implantes, reactivo in vitro u otro producto similar o relacionado, incluyendo piezas de componentes o accesorio destinado al uso en el diagnóstico de enfermedades u otras patologías, en el cuidado, la mitigación y el tratamiento o la prevención de la enfermedad, destinados a modificar la estructura de cualquier función del cuerpo humano o animal y que no consigue su objetivo esencial mediante acción química y no necesita ser metabolizado para el logro de su propósito principal [4]. La adquisición de los equipos biomédicos en los centro de atención médica constituye uno de los procesos más complejos en cuanto a gestión, ya que se deben tener en cuenta diversos aspectos para obtener el resultado final que es el mejoramiento de la eficiencia y la calidad en la prestación de los servicios de salud [5].Sin embargo, al revisar la adquisición de tecnologías en los centro de atención de salud pareciera que no se toman aspectos importantes como planta física, técnicos, humanos y económicos a la hora de adquirirlos, dando como resultado pocos beneficios para el paciente y la institución, disminuyendo la eficiencia y la calidad en la prestación de los servicios de salud. Con el presente trabajo se espera, generar unas normativas mínimas que sirvan de estándar a cualquier centro de atención médica para adquirir tecnologías médicas optimizando la relación costo beneficio para lograr mejoras a nivel económico y una mayor eficiencia en la prestación de los servicios. Una vez que una determinada tecnología está disponible en el mercado, la misma debe ser incorporada a un servicio médico asistencial con el fin de ser utilizada, iniciándose el ciclo de aplicación de la tecnología en salud. Este ciclo es específico para cada tecnología médica, aunque en ocasiones se pueden incluir la infraestructura y los equipos de planta. [6]. A continuación se presentan los procesos del ciclo de aplicación de la tecnología en salud, los cuales definen las principales funciones de la gestión de la tecnología en el ámbito hospitalario, el ciclo consta de los siguientes pasos como se observa en la figura 1.
Figura 1. Ciclo de aplicación de la tecnología en salud
METODOLOGÍA Para la elaboración de la guía de adquisición de tecnologías médicas en los establecimientos de atención a la salud del estado venezolano (GATMES), se inició con un análisis situacional que permitió recabar información para determinar las diferentes instituciones públicas y privadas prestadoras de servicios de salud a ser seleccionadas en la zona de estudio, en segundo lugar se elaboro una encuesta que se enfocó a obtener algunas respuestas relacionadas con la adquisición de tecnologías médicas, el cual se le realizó al personal responsable en las diferentes instituciones a ser entrevistadas, en tercer lugar una revisión bibliográficas exhaustiva a nivel nacional, internacional y en la World Wide Web, sobre la adquisición de tecnología médica en el sector salud, la legislación vigente en el área de tecnologías medicas y algunos conceptos relacionados, así como la viabilidad de implementación y el trabajo de campo. RESULTADOS Con los resultados obtenidos a partir de la metodología aplicada y toda la información recabada se inició el diseño de GATMES. Consta de 19 pasos, cada paso esta enumerado del primero al decimonoveno, se nombran las actividades, se describe el proceso de cada actividad y se señala el responsable de la actividad. La tabla I muestra algunos pasos de GATMES, describiendo la actividad, descripción y responsable del proceso:
139
INFORMÁTICA MÉDICA
Tabla I. Pasos de GATMES Actividad Definir las necesidades específicas de la población a ser servida
Identificar el nivel de especialización de los servicios de la institución
Establecer las especificaciones
Conocer los costos
Adquisición de la tecnología
Descripción Identificar los niveles de atención en salud, número de la población a ser atendida, Identificar si la institución cuenta con un departamento de ingeniería clínica, personal técnico especializado o mano de obra calificada Conocer el nombre del equipo, descripción, uso, características técnicas, accesorios suministrados con el equipo, instalación, dimensiones, entre otros Realizar la cotización aproximada de los equipos, repuestos e insumos y se proyecta la compra por centros de costos Establecer una lista de especificaciones y requerimientos técnicos a ser satisfechos por las tecnologías requeridas, las pruebas de aceptación respectivas, las cuales comprenden la inspección y prueba de los mismos
Verificar el entrenamiento y capacitación de los usuarios (médicos y enfermeras), operarios (técnicos) y Entrenamiento mantenimiento (personal de ingeniería clínica) y la modalidad del entrenamiento, a través de cursos presenciales, en línea, tutoriales multimedia, literatura, entre otros Conocer el servicio de garantía, período de post-venta, quien lo realiza, tiempo de Servicio técnico respuesta, período de suministro de piezas, sustitución de repuestos por garantía, manuales, entre otros
Responsable Comité de adquisición y contratación
Comité de adquisición y contratación
Departamento de ingeniería clínica
Departamento de ingeniería clínica
Departamento de ingeniería clínica
CONCLUSIONES
Gerente administrativo
En el presente trabajo se puede deducir lo siguiente: - La guía propuesta de adquisición de tecnologías médicas en los establecimientos de atención de salud es un proyecto que puede ser implementado en el sector salud. - Es un documento que fortalecería y apoyaría a resolver problemas al momento de la toma de decisiones sobre la adquisición de tecnologías médicas. - Esta guía permite ser un instrumento rápido y de fácil comprensión para los gerentes, personal médico, administrativo y técnico de los establecimientos de atención médica, así como organismos de control, que permita conocer y hacer seguimiento a las diferentes etapas de la actividad de adquisición a los centros de atención de salud que dependen del ministerio del poder popular para la salud. - Ayudaría a optimizar la utilización y asignación de los recursos económicos a las instituciones prestadoras de servicios de salud. - Establecería normas generales que rigan la adquisición de tecnologías médicas en los establecimientos de atención de salud tanto públicos como privados, con base a los
Departamento de ingeniería clínica
140
Memorias_BIOVEN_2012
principios y reglas establecidos por el ente Rector en salud y por las demás normas legales vigentes. - Mejoraría la calidad de la atención médica a los pacientes en nuestros centros de atención de salud, obteniéndose resultados por arriba de los esperados.
AGRADECIMIENTO Nuestro más sincero agradecimiento a todas aquellas personas e instituciones que prestaron su colaboración para las entrevistas realizadas, con la finalidad de recabar información complementaria para la elaboración de este trabajo. REFERENCIAS [1] Pan American Health Organization - United States Agency for International Development Partnership. Página Web disponible en línea: http://www.lachsr.org/documents/perfildelsistemadesaludd evenezuela-ES.pdf. Último acceso: Diciembre, 2011. [2] Mijares R. et al (2001): La infraestructura de los hospitales venezolanos, II Memorias Congreso Latinoamericano de Ingeniería Biomédica, La Habana, Cuba, pp 1-4. [3] Lara L. et al (2007): La Ingeniería clínica, una forma de hacer gestión tecnológica en el ámbito hospitalario. CLAIB 2007,IFMBE Proccedings18, Isla de Margarita, Venezuela, pp 1259-1263. [4] Bronzino J. (2000): The Biomedical Engineering Handbook. 2da. edición, Editorial CRC Press LLC. [5] Emergency Care Research Institute. Página Web disponible en línea: http://www.ecri.org/ Último acceso: Diciembre, 2011. [6] Lara L. (2000): La gestión tecnológica como parte integral de la atención en salud. Unidad de Gestión de Tecnologías en Salud. Universidad Simón Bolívar, pp 4-6.
141
INFORMÁTICA MÉDICA
DISEÑO E IMPLEMENTACIÓN DE UN SISTEMA DE GESTIÓN TECNOLÓGICA EN EL DEPARTAMENTO DE ONCOLOGÍA EN EL I.A.H.U.L.A Jessica Osorio1, Diego Jugo1, Jesús Arellano1 1
Centro de Ingeniería Biomédica y Telemedicina (CIByTEL). Universidad de Los Andes. Mérida – Venezuela. e-mail: jachetzu@gmail.com, djugo@ula.ve, jesusar@ula.ve
RESUMEN Se desarrolló un sistema virtual de gestión tecnológica orientado al mantenimiento de equipos médicos denominado GEMABeta. La implementación del sistema utilizó la métrica versión 2.1 promovido por el Consejo Superior de Informática (CSI) la cual es apropiada para la construcción de sistemas de información y soportado por la ISO/IEC 12207. Los resultados obtenidos se basaron en indicadores de mantenimiento como el MTBF, frecuencia de fallas y disponibilidad del equipo; también el sistema permite realizar: inventario de los equipos, notificaciones de fallas de manera computacional, el registro de mantenimientos correctivos y preventivos. Se puede concluir que el sistema ha dotado a la unidad de servicio Oncológica, métodos y procedimientos de trabajo adecuados que ayudan a mejorar las políticas de mantenimiento y los procesos de supervisión. Palabras Clave: Gestión de Mantenimiento, Gestión Tecnológica, Ingeniería Clínica, Sistemas Informáticos.
En la última década otros autores han desarrollado herramientas para la gestión tecnológica en instituciones de salud como parte de proyecto nacionales en mejora de la salud pública. Entre los software consultados tenemos: SMACOR [2], GADB [3¡Error! No se encuentra el origen de la referencia.], Reportech [4], SYSMANCOR [5], sistema informático de gestión de departamentos de ingeniería clínica como parte del proyecto de la “implementación de políticas de Gestión de Tecnologías Médicas (GTM) para mejorar la calidad de la atención de salud” [6] y SMART-IPM [7]. Se identifica el funcionamiento de cada uno de ellos relacionados a la entidad el cual han sido diseñados.
INTRODUCCIÓN La gestión tecnológica esta ligada a las actividades realizadas en el área técnica, con miras a optimizar los procesos de producción, mantenimiento, labores de investigación y desarrollo, considerando los aspectos de carácter humano social, administrativo, técnico, así como la interacción reciproca de ésta con el medio [1]. En un estudio previo a la unidad oncológica del Instituto Autónomo Hospital Universitario de Los Andes (I.A.H.U.L.A), se identificaron los factores internos y externos relacionados a la misión, necesidades técnicas y las rutinas de mantenimiento en la unidad de servicio. Dicho estudio refleja una falta de gestión tecnológica y la carencia de un departamento de ingeniería clínica. Por lo anterior, se provee ofrecer una herramienta o un sistema informático para la realización de gestión tecnológica del hospital y a su vez a los departamentos de servicio que componen a este. La realización de la herramienta contribuirá a la optimización de los procesos hospitalarios, fomentar la gestión tecnológica en la unidad de oncología e incentivar a otros departamentos en el I.A.H.U.L.A. De acuerdo a la nueva Ley de Salud y del Sistema Nacional de Salud de Venezuela, aprobada por la Asamblea Nacional aprobada por la Asamblea Nacional en primera discusión el 14 de Diciembre de 2.004, en su artículo 33, numeral 23, se le asigna la responsabilidad al nuevo Instituto Nacional de Atención Médica de "establecer unidades de Ingeniería Clínica en todos los establecimientos hospitalarios".
METODOLOGÍA Se implementó la Métrica versión 2.1, el cual, define un conjunto de métodos, procedimientos, técnicas y herramientas que facilitan la construcción de sistemas de información. La Métrica Versión 2.1 está dividida en cinco fases que se descomponen en siete Módulos. Los Módulos, a su vez, se dividen en actividades y éstas en tareas. Las fases son las siguientes: FASE 0: Plan De Sistemas De Información (PSI), FASE 1: Análisis de Sistemas, FASE 2: Diseño de Sistemas, FASE 3: Construcción de Sistemas y la Fase 4: Implantación de sistemas. A. FASE 0: PLAN DE INFORMACIÓN (PSI).
142
SISTEMAS
DE
Memorias_BIOVEN_2012
Se obtiene el perfil general sobre los servicios proporcionados por la unidad oncológica la “La Flor de la esperanza” (atención al público, servicios generales dentro de la administración, etc.), localización geográfica, características organizativas de gestión, inventario y evaluación de los principales componentes tecnológicos existentes (equipo físico, comunicaciones, equipo lógico, gestión de datos, operaciones en explotación), etc.
imagen del código de barras, Librería open flash chart para la realización de gráficos estadísticos.
E. FASE 4: IMPLANTACIÓN DE SISTEMAS. Para este proceso se realizan tipos de pruebas al sistema: pruebas de caja negra, pruebas de caja blanca y pruebas de navegación.
B. FASE 1: ANÁLISIS DE SISTEMAS. RESULTADOS Para el sistema se define entidades externas como la identificación de cada usuario (ver ¡Error! No se encuentra el origen de la referencia.) y el flujo de datos que debe manejar cada entidad como por ejemplo: datos generales del equipo, ficha técnica, generación de órdenes de trabajo, nivel de prioridad, indicadores de mantenimiento, etc.
GEMABeta, es un sistema informático que consiste en una fusión de teoría de mantenimiento Biomédico, lenguaje de programación y gestión de bases datos para la implementación de sistemas Web aplicados a la unidad de servicio. El sistema tiene la capacidad de: - Gestionar inventarios. En el módulo de gestión de equipos y de accesorios/repuestos es posible llevar el inventario de todo el equipamiento de la unidad de servicio. El formulario aplicado está destinado a la carga y manipulación de los datos de los equipos. Estos datos se utilizarán de manera relacional con los otros módulos del sistema. En el formulario se encuentran los campos como (ver ¡Error! No se encuentra el origen de la referencia.): descripción breve de la función del equipos, marca, modelo, nombre, código ECRI, proveedor del equipo, encargado del equipo, estado de funcionamiento, tiempo de operación anual en horas, si posee accesorios, etc. El formulario es visualizado a través de una ficha técnica del equipo de acuerdo a lo recomendado por ECRI [11], este posee información general como descripción del equipo, código UMDNS (código ECRI), funcionamiento, características técnicas, código de barras para cada equipo utilizando el estándar internacional EAN-13, proveedores hasta la realización de los mantenimientos preventivos y correctivos realizados. Desde la ficha técnica se puede consultar: Historial de fallas, accesorios y estadísticas del equipo correspondiente ver Figura 2.
Figura 1. Contexto del Sistema C. FASE 2: DISEÑO DE SISTEMAS Para el desarrollo de esta fase se aplica el Módulo Diseño Técnico del Sistema (DTS) y el entorno lógico. Aquí se identificó cinco módulos principales para el sistema GEMABeta: gestión de equipos, mantenimiento, Interlocks, seguridad eléctrica y accesorios/repuestos. D. FASE 3: CONSTRUCCIÓN DEL SISTEMA. Las herramientas utilizadas para generar los códigos y los componentes del sistema GEMABeta se utilizaron: Lenguaje Estructurado de Consulta (SQL), Lenguaje HTML, Lenguaje Hypertext Preprocessor (PHP), Javascript, Hojas de Estilo en Cascada (CSS), Sistema de gestión de base de datos, MySQL y phpMyAdmin para la administración del servidor de bases de datos MySQL. Y las herramientas para preparar el sistema: Dreamweaver: Editor de paginas web, Blue Fish: Editor de páginas web, característica principal es un software libre, Adobe Flash Player: Para la visualización de los gráficos estadísticos de los indicadores de mantenimiento de lo equipos, Barcode software: Programa de diseño grafico para la generación de
Figura 2. Ficha Técnica del equipo Acelerador lineal Siemens PRIMUS.
143
INFORMÁTICA MÉDICA
- Hoja de vida del equipo: la hoja de vida es un prototipo de registro de los equipos (ver Figura 3). Contiene las últimas tareas realizadas, rendimiento anual, la última fecha de mantenimiento tanto correctivo como preventivo. Además se muestran de manera gráfica, los indicadores de mantenimiento como el MTBF, la frecuencia de fallos y disponibilidad del equipo. La hoja de vida sirve como soporte para la toma de decisiones, brindando de manera rápida consultar los últimos mantenimientos y ver la necesidad de efectuar algún mantenimiento preventivo.
órdenes de trabajo, estos son guardados y visualizados en un calendario que muestra los estados de las órdenes de trabajo: orden en trámite, orden aprobada, inicio del mantenimiento y finalización de la orden. Desde el calendario se pueden visualizar las órdenes en PDF como se muestra en la Figura 5.
Figura 5. Orden de Trabajo. - Notificar errores: el sistema esta en la capacidad de notificar y guardar los errores para luego ser desplegados en el cálculo de las estadísticas del equipo. La notificación y representación gráfica de los errores nos lleva al estudio del ciclo de trabajo del equipo por lo que se predeterminan las posibles causas de la falla en un sistema o subsistema del equipo. Para la realización de este módulo se debe conocer el funcionamiento de los equipos y realizar un listado de los errores posibles.
Figura 3.Hoja de Vida del equipo - Realizar la Planificación del Mantenimiento Preventivo (MP): las tareas de MP pueden ser fijadas y programadas por el sistema, teniendo en cuenta el IPM [8]. Las actividades del MP son cargadas empleando formularios basados en las normas internacionales y en los manuales de los equipos [9]. Lo que permite supervisar al equipo y hacer procedimientos de mantenimientos de forma clara. El sistema permite al usuario visualizar las fechas para la realización del mantenimiento preventivo, pautando las rutinas a realizar (ver Figura 4).
- Realizar el Historial de fallas y calcular los indicadores de mantenimiento: El registro del historial de fallas y el cálculo de los indicadores resulta vital para optimizar el ciclo de vida y aumentar el desempeño del funcionamiento de los equipos (ver Figura 6). El sistema visualiza de manera práctica estos dos ítems para que el usuario logre planificar, controlar y disminuir las paradas del equipo. Una mejora en los indicadores de mantenimiento son todas las acciones o tareas que realizan los ejecutores de mantenimiento y personal de operaciones justo en el momento cuando el equipo es detenido por una avería, hasta que nuevamente es puesto en servicio. Estas actividades pueden ser las siguientes: Despresurizar, enfriar, desconectar, alistar herramientas, alistar repuestos, preparación y firma de permisos de trabajo, tiempo de viaje hasta la ubicación del equipo, realizar la actividad de mantenimiento, poner en servicio, calibrar, probar, etc. Así se logra obtener un aumento en la disponibilidad del equipo y un aumento en la eficiencia del servicio.
Figura 4. Consultar mantenimiento de un equipo. - Llevar el registro de los Mantenimientos Correctivo. Registra, carga y guarda los datos de los mantenimientos correctivos, realiza notificaciones y
144
Memorias_BIOVEN_2012
AGRADECIMIENTO Este artículo fue realizado gracias al apoyo del coordinador Dr. Francisco López y al equipo físico médico de la Unidad Oncológica “Flor de la Esperanza” en el I.A.H.U.L.A REFERENCIAS [1] Rosso F. (2010): Gestão por competencias. Revista Gestão e Tecnología hospitalar. Pagina Web disponible en línea: http://www.gthhospitalar.com.br. Último acceso: Junio, 2010. [2] Miguel A. et al (2003): Sistema de Gestión Tecnológica Asistido Por Computadoras En Un Sistema De Información Hospitalario, Memorias del V Congreso de Informática Médica de La Habana, Habana, Cuba. [3] Gobierno de Entre Ríos Secretaría de Estado de Salud Departamento Bioingeniería (2005): Sistema Informatizado de Inventario Técnico y Gestión de Mantenimiento de Equipamiento Médico Hospitalario, San Salvador, Argentina. [4] Cabrera O. (2007): Reportech: Gestión de Tecnología Médica, Memorias del VII Congreso de la Sociedad Cubana de Bioingeniería, Universidad de Pinar del Rio"Hermanos Saíz Montes de Oca, Habana, Cuba. [5] Cruz A. et al (2009): Evaluación de Las Solicitudes de Mantenimiento Correctivo Usando Técnicas de Agruptamiento y Reglas de Asociación. Revista de Ingeniería Biomédica vol 2(3). [6] Ruiz L. et al (2009): Sistema Informático de Gestión de Departamentos de Ingeniería Clínica. Departamento de Bioingeniería, Facultad Ciencias Exactas y Tecnologías, Universidad Nacional de Tucumán, San Miguel de Tucumán, Argentina. [7] Arslan R. et al (2010): SMART-IPM: An Adaptative Tool For The Preventive Maintenance Of Medical Equipment, Bogazici University, Bebek. [8] ASHE (1996): Maintenance Management for Medical Equipment, Guide of American Society for Healthcare Engineering of the American Hospital Association. [9] OIEA (2002): Aspectos Físicos De La Garantía De Calidad En Radioterapia, Estándar del Organismo Internacional de Energía Atómica, pp 61-74.
Figura 6. Indicadores de Mantenimiento CONCLUSIONES El sistema desarrollado provee una herramienta orientada a la gestión tecnológica al servicio de la salud, que puede impulsar al aprovechamiento eficaz de los equipos médicos contenidos en las unidades de servicio de los hospitales, clínicas o centros de atención. La creación del sistema llevó a una mejora en el inventario de la unidad de servicio, en la realización de la planificación y ejecución de mantenimiento, en concienciar sobre los estándares que debería implementar las áreas de servicio, dar a conocer los estados de los equipos y del servicio a través de los indicadores permitiendo a través de estos valores una toma de decisión en mejorar la ejecución de los respectivos mantenimientos. Los valores obtenidos de los indicadores pueden ser remitidos a entidades superiores para que ellos habiliten presupuesto para el personal o agentes externos en la ejecución de mantenimientos correctivos o preventivos. GEMABeta representa una ayuda en el control y en la toma de decisiones, permitiendo así la automatización de los registros de mantenimiento e inventario. Dota a la unidad de servicio de métodos y procedimientos de trabajo adecuados, favoreciendo la implantación de una más adecuada política de mantenimiento y mejorando los procesos de supervisión lo cual se vería reflejado en la optimización, efectividad y eficacia del servicio. La puesta en marcha de un sistema como éste en el resto de las unidades de servicio en el I.A.H.U.L.A. permitirá un crecimiento de la aplicación. La realización de estudio sobre un grupo de equipos médicos puede llevar a mejorar el rendimiento general de funcionamiento del hospital porque los valores arrojados de los indicadores de mantenimientos de los equipos individuales permiten realizar análisis grupal detectando así cual de ellos presenta falla y mejorar los valores de MTBF y Disponibilidad.
145
INFORMÁTICA MÉDICA
UNA NUEVA ESTACIÓN DE MONITOREO NEONATAL CENTRALIZADA PARA LA ADQUISICIÓN DE DATOS MULTIVARIABLES EN TIEMPO REAL Aníbal Carpio D1, Romain Billois 2,3, Miguel Altuve1, Alfredo Hernández2,3 Grupo de Biofísica y Bioingeniería Aplicada, Universidad Simón Bolívar, Caracas, Venezuela 2 Laboratoire Traitement du Signal et de l’Image, Université de Rennes I, Rennes, Francia 3 INSERM, U1099, Rennes, Francia acarpio@usb.ve, romain.billois@univ-rennes1.fr, maltuve@usb.ve, alfredo.hernandez@univ-rennes1.fr 1
RESUMEN En unidades de cuidado intensivo neonatales, el monitoreo de señales fisiológicas de neonatos prematuros contribuye a la detección temprana de eventos fisiopatológicos que atentan contra su vida. En este trabajo se propone una novedosa estación de monitoreo central, desarrollada bajo ambiente LabVIEW, para la adquisición de señales de electrocardiograma, plestimografía y respiración de neonatos prematuros, en tiempo real y, a un costo inferior de los sistemas de monitoreo comerciales. La estación de monitoreo propuesta permite el almacenamiento de señales fisiológicas junto a datos demográficos del paciente para futuro desarrollo de algoritmos de detección y mejor aprovechamiento del hardware, gracias a la arquitectura de software seleccionada, patrón de programación productor consumidor con una máquina de estados embebida. En el futuro se desea mejorar el flujo de datos entre el monitor de cabecera y la estación de monitoreo central, el incremento del desempeño y la disminución de la latencia en la aplicación. Palabras Clave: monitoreo médico neonatal, sistema de adquisición, instrumentación virtual, LabVIEW. INTRODUCCIÓN
parámetros fisiológicos utilizando una supervisión continua y rápida de detección de cualquier vestigio de anomalía relacionado a una patología, de forma tal de aplicar una terapia en el menor tiempo posible. Este monitoreo se fundamenta en las etapas de adquisición y posterior análisis de una o varias señales (electrocardiograma, presión arterial, plestimografía, etc.) [4].
Los neonatos nacidos antes de las 37 semanas de gestación o que presentan un peso inferior a 2500 gramos son considerados prematuros. Estos neonatos se enfrentan a varios problemas ya que sus órganos vitales no se han desarrollado por completo y se requiere ingresarlos en una unidad de cuidados intensivos neonatales (UCIN), donde podrán alcanzar la madurez fisiológica y peso corporal que permitan al bebe mantenerse vivo sin soporte médico. Entre las patologías a las cuales se ven enfrentados los neonatos prematuro se tienen: problemas de termorregulación corporal, problemas respiratorios, problemas de nutrición debido a que su capacidad de succión está limitada y posee poca fuerza, infecciones, hemorragias intracraneales e hiperbilirrubina [1]. Sin embargo, los problemas más críticos se presentan en el sistema cardiorrespiratorio, episodios de apnea-bradicardia, los cuales ponen prontamente en peligro la vida del neonato. La apnea en los neonatos prematuros está definida como el cese de la respiración por más de 20 segundos o un período más corto, asociado con cianosis, o una disminución de la frecuencia cardíaca de menos de 100 latidos por minuto (lpm) [2]. La bradicardia en neonatos sucede cuando existe una disminución de la frecuencia cardiaca menor a 100 lpm o inferior al 33% de su valor medio, calculado en una ventana temporal predefinida [3]. El monitoreo médico (ver figura 1) forma parte de los sistemas médicos usados para soporte en la medicina y se define como el proceso de realizar seguimiento a
TERAPIA
DIAGNÓSTICO
ADQUISICIÓN
DETECCIÓN
Figura 1: Ciclo de monitoreo médico En la actualidad, los equipos para monitoreo médico cuentan con alarmas (sonoras y visuales) para indicar que las señales monitoreadas están fuera de rango y alertar al personal médico de que ha sucedido una eventualidad. Los valores de activación de las alarmas son configurados por el personal de la UCIN. En comparación a una unidad de cuidado intensivo convencional, una UCIN presenta diferencias en cuanto al ambiente y el uso de los equipos de monitoreo. Primeramente, es necesario crear y mantener un ambiente lo más parecido al útero materno para facilitar el desarrollo
146
Memorias_BIOVEN_2012
y maduración de sus órganos vitales. Para simular la temperatura intrauterina, los neonatos son colocados en dispositivos especiales (incubadoras) que cuentan con sensores que regulan la temperatura corporal del neonato. También cuentan con una serie de sensores que adquieren los signos vitales del neonato, ECG, respiración, oximetría, etc., que permiten detectar eventos importantes, tales como episodios patológicos cardiorrespiratorios. Estas señales son adquiridas a través de monitores de cabecera ubicados al lado del paciente; para preservar las condiciones ambientales, las alarmas sonoras son desconectadas. Cada una de las señales adquiridas junto con las notificaciones de alarma visuales de cada paciente, son retransmitidas a un punto de control central, generalmente ubicado en el puesto de enfermeras, de tal forma que el personal pueda detectar un evento fisiopatológico, episodio de apnea-bradicardia, y aplicar la terapia correspondiente en el menor tiempo posible. No obstante, estos sistemas de monitoreo central no permiten la integración y la evaluación de nuevos métodos de tratamiento de señales y limitan la capacidad de utilizar los datos adquiridos del paciente en diferentes protocolos de investigación clínica. Aún se mantiene en el presente verdaderos retos para el desarrollo y mejoramiento de sistemas de monitoreo médico, que contengan mejores algoritmos especializados para la detección temprana de eventos que ponen en riesgo la vida de un neonato prematuro, específicamente, detección temprana de episodios de apnea-bradicardia que permita al personal de la UCIN aplicar la terapia apropiada rápidamente. Varios trabajos pertenecientes a miembros de nuestros grupos han sido dirigidos justamente hacia la mejora de la detección de estos eventos [5], [6], [7] y [8]. El uso de un computador como plataforma para el desarrollo de sistemas electrónicos de instrumentación [9] y software especializado, como LabVIEW, ha sido una valiosa herramienta para la resolución de problemas en el área de bioingeniería [10][11]. El objetivo del presente trabajo es mostrar el desarrollo de la primera etapa de un sistema de monitoreo centralizado, etapa de adquisición, implementado utilizando LabVIEW como plataforma para la presentación y procesamiento de señales fisiológicas (ECG, plestimografía y respiración), adquiridas a través de monitores de cabecera marca Philip, serie MP20-MP-90.
presentación en la interfaz de usuario que se encuentra alojada en un computador personal. La interconexión entre el monitor de cabecera y la aplicación se realizó a través de un protocolo de conexión serial, tal como se muestra en la figura 2).
Monitor Cabecera
Computador
Figura 2: Conexión entre el monitor de la UCIN y el computador personal con la aplicación en LabVIEW El modelo del monitor utilizado para el desarrollo de la estación es el Intellivue serie MP20 de la empresa Philips. El protocolo para la exportación de datos utilizado por este monitor es orientado a objetos y basado en un modelo Servidor/Cliente, donde la comunicación ocurre por envío/recepción de comando de mensajes. Los mensajes de comando se encuentran concentrados en dos grandes grupos: - Comandos de control de asociación: utilizados para entablar y finalizar la conexión lógica entre el monitor y el cliente, y negociar y fijar parámetros de comunicación. - Comandos de exportación de datos: encargados de configurar el tipo de datos a ser exportados, demográficos, numéricos o tipo onda, la frecuencia de envío de información y finalmente los datos en cuestión. La interfaz de comunicación entre el monitor de cabecera y el computador que aloja la aplicación de monitoreo es del tipo serial MIB/RS232 y sigue el estándar IEEE 1073.3.2, con una velocidad fija de 115.2 Kbps (kilobits por segundo). Cada byte transmitido está caracterizado por: - Un bit inicio - Ocho bits de data - No paridad - Un bit de parada - Sin soporte de flujo de control La aplicación de monitoreo centralizada fue desarrollada para correr en múltiples plataformas. En ese sentido, se utilizaron los controladores VISA de la empresa National Instruments para realizar las operaciones de escritura/lectura de datos desde el computador hacia el puerto serial y viceversa. Debido a la gran cantidad de datos que la aplicación debe manejar (datos demográficos, ondas en tiempo real, …), se decidió utilizar un patrón de programación híbrido compuesto de una sección Productor/Consumidor y una máquina de estados embebida en el sector “consumidor”. La selección del patrón Productor/Consumidor permite el procesado de un alto volumen de datos, en el mismo orden de su recepción, sin el riesgo de pérdida de información, en caso que la aplicación tardara en procesar los datos
METODOLOGÍA Para la etapa inicial del desarrollo de la estación de monitoreo centralizada propuesta, se requiere la adquisición de señales de ECG, plestimografía y respiración del neonato (etapa de adquisición). Para llevar a cabo esta tarea, dos componentes son utilizados: i) el monitor cardiorrespiratorio marca Philips modelo Intellivue y ii) la aplicación desarrollada bajo ambiente LabVIEW, encargada de entablar comunicación con el monitor de cabecera y adquirir las señales fisiológicas para su posterior
147
INFORMÁTICA MÉDICA
obtenidos previamente. Otro punto importante es la maximización del rendimiento de la aplicación al recibir datos, Productor, y mostrar la información adquirida, Consumidor [12]. La máquina de estados embebida permite implementar de manera práctica el protocolo de diálogo entre el monitor Intellivue y el computador, el cual consiste en un proceso de envío “solicitud/respuesta” entre ambas plataformas. La transferencia de datos entre la sección productor y consumidor se efectuó por medio de colas en vez de utilizar variables locales, lo que agrega un mejor control entre el traspaso de datos de ambos ciclos. Por último, debido a los requerimientos secuenciales de solicitud de información desde la aplicación hacia el monitor y la recepción o respuesta por parte del monitor hacia la aplicación, se decidió incluir una máquina de estados embebida dentro del ciclo consumidor, lo que asegurará operaciones secuenciales según sea el requerimiento. En la figura 3 se observa la interfaz de usuario diseñada para la aplicación de monitoreo, ésta incluye los siguientes controles e información: • Control de inicio/parada de la aplicación. • Controles para seleccionar el puerto de comunicación y la velocidad de transmisión de datos. • Leds indicadores del proceso de intercambio de mensajes entre la aplicación y el monitor Intellivue. • Nombre del paciente y gráficos de las señales de ECG, pletismografia y respiración del paciente, así como también el tiempo de grabación
RESULTADOS El uso del patrón productor/consumidor permitió que la aplicación: - No tuviese pérdida de paquetes de datos mientras se procesaba la data recibida. - Tuviese un buen rendimiento y aprovechamiento de la capacidad computacional del procesador i7, ya que los ciclos de productor y consumidor se ubicaron en ciclos paralelos, lo que permite la asignación de cada ciclo a núcleos distintos del procesador en el computador. Se logró presentar de manera correcta y con un retraso de menos de 1 segundo con respecto al monitor de cabecera las señales de ECG, respiración y pletismográfica (ver Figura 3). Además, se pudo almacenar la data adquirida para el desarrollo de futuros estudios y algoritmos de detección en patologías asociadas a neonatos prematuros. CONCLUSIONES Y TRABAJOS FUTUROS En este trabajo se presentó una nueva estación de monitoreo centralizada en tiempo real para unidades de cuidados intensivos neonatales. Los resultados de este trabajo muestran la factibilidad de realizar la comunicación efectiva entre un monitor de cabecera y una aplicación desarrollada bajo ambiente LabVIEW para el monitoreo de neonatos prematuros. Los datos demográficos y las señales fisiológicas del neonato, adquiridas en tiempo real, pueden ser almacenados para su posterior uso. El costo la estación de monitoreo centralizada propuesta es mucho menor que las ofrecidas por las empresas proveedoras de monitores de señales fisiológicas. Lo anterior permitirá que unidades de cuidado intensivo de hospitales de países en vías de desarrollo puedan optar por tener una estación de monitoreo central con los beneficios que esto implica. A futuro, la transmisión de información vía puerto serial entre el monitor y la aplicación puede ser mejorado implementando la comunicación usando protocolo de red de área local (LAN. local area network) en vez de protocolo serial, o a través de protocolos inalámbricos (Bluetooth, o WiFi), como ya han sido desarrollados por nuestros grupos [4]. Adicionalmente, es factible poder mejorar la transferencia de datos entre los ciclos productor y consumidor utilizando semáforos en vez de colas. Esto posiblemente disminuirá el tiempo y consumo de recursos del procesador. Se desea además aplicar los algoritmos desarrollados por el LTSI de la universidad de Rennes 1, Francia, para la detección de patologías tales como apneabradicardia, los cuales permitirán disminuir el tiempo de respuesta del personal de enfermeras y médicos frente a episodios de bradicardia en neonatos. Finalmente, se espera que luego del periodo de evaluación iniciado en julio del 2012 en la unidad de
Figura 3: Interfaz de usuario propuesta
148
Memorias_BIOVEN_2012
cuidados intensivos neonatales del hospital de Rennes, continuar con la próxima etapa del proyecto en donde se implementará la adquisición de ocho pacientes en paralelo.
Conference on Recent Trends in Information Technology (ICRTIT), Chennai, India: pp 906-909. [12] National Instruments (2006): Manual LabVIEW Básico II: pp 2-16.
AGRADECIMIENTOS Los autores quisieran agradecer al programa de cooperación ECOS NORD por el apoyo prestado al proyecto V09S04. REFERENCIAS [1] Philip, A. G. S. (2005): The Evolution of Neonatology. Pediatric Research, 58(4): pp 799-815. [2] Marino, B. et al (2009): Blueprints Pediatrics, 5ta edición, Editorial Blueprints: pp 313. [3] Poets, C. F. et al (1993). The relationship between bradycardia, apnea, and hypoxemia in preterm infants. Pediatr Research, 34(2): pp 144–147. [4] Cruz, J. (2007): Sistema Multiagentes de Monitoreo Aplicados a Cuidados Neonatales. Tesis de Doctorado, Universidad Simón Bolívar, Venezuela. [5] Altuve, M. et al (2011): On-line apnea-bradycardia detection using hidden semi-Markov models. 33st AnnualInternational Conference of the IEEE EMBS. Boston, United States of America: pp 4373-4377.[6] Altuve, M. et al (2011): Multivariate ECG analysis for apnoea-bradycardia detection and characterisation in preterm infants. International Journal of Biomedical Engineering and Technology. 5(2-3): pp 247 - 265 . [7] Cruz, J. et al. (2006): Algorithm fusion for the early detection of apnea-bradycardia in preterm infants. Computer in Cardiology. 33: pp 473-476 [8] A. Beuchée et al. (2007): Stimulateur kinesthésique automatisé asservi à la détection d’apnées-bradycardies chez le nouveau-né prématuré, IRBM. 28(3-4): pp 124-130 [9] Manuel, A. et al (2002): Instrumentación Virtual: Adquisición, procesado y análisis de señales. Alfaomega: pp 15-31. [10] Luo, Y. et al.( 2011): The real-time monitor system based on LabVIEW. International Conference on Computer Science and Network Technology (ICCSNT), 2(24-26): pp.848-851. [11] Priya, N.S. et al (2011): A novel algorithm for sudden cardiac death risk estimation using LabVIEW. International
149
INGENIERÍA CLÍNICA
La ingeniería Clínica se refiere fundamentalmente al análisis de la interfaz entre un paciente, su ambiente físico e instrumental, mediante la aplicación de principios de ingeniería, de análisis y de conocimiento. El profesional que desarrolla esta disciplina, específicamente asiste al personal del centro médico, definiendo sus problemas y necesidades en relación con la instrumentación biomédica, en tal sentido, diseña y supervisa la construcción y prueba de equipos electrónicos de propósito especial cuando los mismos no están a disposición comercialmente. Adicionalmente, posee una conducta de estudio e investigación continua en el diseño, desarrollo y construcción de métodos aplicados a los servicios de cuidado de la salud, lo que lo obliga a desarrollar métodos de calibración y chequeo del desempeño de equipos de instrumentación biomédica, manteniendo un conjunto de normas eléctricas fundamentales e instrumentos adecuados para este trabajo. De igual manera, el Ingeniero Clínico, representa al Centro Médico ante distintas Organizaciones, en todos aquellos aspectos que involucran a los profesionales de la ingeniería, actuando así como consultor, evaluador y especialista clínico de proyectos de desarrollo, recomendando soluciones en problemas tanto de instrumentación como de seguridad eléctrica. El ingeniero clínico posee conocimiento y habilidades generales en ingeniería, de allí que puede ser un especialista que se desempeñe en una ó más áreas tecnológicas que involucren electrónica, mecánica, hidráulica, fluidos, etc. A menudo ellos son maestros. Su trabajo y decisiones son determinantes para el cuidado del paciente. La Ingeniería Clínica en Venezuela se ha visto fortalecida en los últimos años por el trabajo realizado en la Universidad Simón Bolívar y la Universidad Nacional Experimental Francisco de Miranda. La apertura de especializaciones y maestrías en el área de Ingeniería Biomédica en instituciones como la Universidad Nacional Experimental de Puerto Ordaz, la Universidad de los Andes y la Universidad Simón Bolívar, aunado a un fuerte intercambio entre la universidades venezolanas.
150
INGENIERÍA CLÍNICA
DESARROLLO DEL POSTGRADO VIRTUAL EN INGENIERIA CLÍNICA DE LA UNIVERSIDAD SIMÓN BOLÍVAR, CARACAS, VENEZUELA Lara, L.L., Mijares R., Silva R., Hernández L., Maturi R., Sierra Z., Lugo R. Departamento de Procesos Biológicos y Bioquímicos, Universidad Simón Bolívar, Caracas, Venezuela. Enviar correspondencia a rmijares@usb.ve.
RESUMEN En la Universidad Simón Bolívar (USB) se cuenta desde el año 2006 con la Especialización en Ingeniería Clínica (IC). Sin embargo, el hecho de ser ofertada de forma presencial, limita su ingreso a solo aquellos profesionales que tengan acceso físico al campus universitario. Por lo que desde la misma génesis del programa de la Especialización, se planteo que el programa académico debía ser ofertado de manera virtual. La Empresa seleccionada para el desarrollo del objetivo fue Seguros Altamira. Para establecer un plan de trabajo se utilizó la metodología denominada Automanagement. Luego se utilizó Stage-Gate para encontrar puntos de coincidencia entre la USB y Seguros Altamira y finalmente para la consolidación se utilizó el análisis FODA. Como resultados mediatos se logró la firma de un Convenio General y otros Específico. Igualmente, se comienza a trabajar en la virtualización de la IC. Palabras claves: Ingeniería clínica, Estudios virtuales, FODA, Stage-Gate
prestación efectiva de estos servicios, lo cual es una de las funciones fundamentales del Ingeniero Clínico.
INTRODUCCIÓN La Ingeniería Clínica es una rama de la Bioingeniería que aglutina los conocimientos de la ingeniería y de los procesos gerenciales para optimizar los aspectos tecnológicos de las instituciones de salud, garantizando una eficiente incorporación y utilización de la tecnología, con una gran disponibilidad y satisfacción de los médicos, paramédicos y pacientes [1].
En la USB contamos desde el año 2006 con la Especialización en Ingeniería Clínica, acreditada por el Consejo Nacional de Universidades (CNU) según Gaceta Oficial No. 38.508 del 25/08/2006. Sin embargo, el hecho de ser ofertada de forma presencial, limita su ingreso a solo aquellos profesionales que tengan acceso físico al campus universitario, excluyendo a todos aquellos interesados distribuidos por toda la geografía nacional e inclusive a muchos ingenieros de otros países latinoamericanos. Dicho problema era ampliamente conocido y desde la génesis del programa de especialización [2] se había planteado el hecho de que el programa académico debía ser ofertado de manera virtual.
Uno de los factores fundamentales que incide negativamente en la optimización de los servicios prestados por las instituciones de atención médica venezolanas es la carencia de un sistema integral en gestión de tecnologías. Los responsables del manejo de estas instituciones en muchas y variadas ocasiones han manifestado su gran preocupación sobre el hecho de que las pocas empresas especializadas en prestar servicios de reparación y mantenimiento para equipos médicos, así como otras especialidades de la ingeniería requerida en los hospitales, no cubren la demanda existente, y en la mayoría de los casos no tiene el conocimiento suficiente para prestar un servicio tan especializado como el demandado por las instituciones de salud, las cuales a su vez no cuentan con una contraparte técnica que pueda contratar y constatar la
En virtud de todo lo anterior, los profesores responsables del Postgrado en Ingeniería Clínica siempre han tenido como objetivo la virtualización del postgrado. Sin embargo, debido a los altos costos del desarrollo de una plataforma de educación a distancia virtual, y los problemas financieros que actualmente confrontan las universidades públicas, nos vimos en la necesidad de
151
Memorias_BIOVEN_2012
•
buscar la solución al problema económico fuera de la Institución.
4.
Negociación entre la Universidad Simón Bolívar y Seguros Altamira: a) Comunidad de intereses; b) Oportunidades de trabajo mancomunado; y c) Cada uno tiene lo que el otro necesita.
5.
Firma de los Convenios aprobados.
6.
Gestión del Proyecto mancomunado.
7.
Lanzamiento (eventual).
METODOLOGÍA Con el fin de establecer un plan de trabajo, se utilizó la metodología denominada Automanagement [3]. Para ello los profesores integrantes de la Unidad de Gestión de Tecnologías en Salud (UGTS), siempre teniendo como objetivo la virtualización del Postgrado en Ingeniería Clínica, en reuniones sucesivas nos planteamos una serie de interrogantes, tales como: ¿cuáles son nuestros puntos fuertes?, ¿cuáles son nuestras debilidades?, ¿cómo es nuestro desempeño?, ¿cómo podemos aprender y mejorar?, ¿cuáles son nuestros valores?, dándonos las repuestas en forma por demás sencilla se pudo determinar que una forma de conseguir nuestro objetivo fundamental pasaba por consolidar uniones con entes externos con intereses similares a los nuestros.
Igualmente para consolidar nuestros grupos (la USB y Seguros Altamira) se utilizó el Análisis FODA [5]. RESULTADOS Como resultado de los análisis se planteó un proyecto conjunto de formación de recursos humanos a distancia, para lo cual se fijó como objetivo fundamental la creación de una plataforma de educación virtual basada en el Internet (TIC’s) y que permitiera la oferta de cursos, sin limitaciones de tiempo o lugar geográfico. Esta oferta académica incluirá tanto cursos regulares de la USB (postgrados, diplomados, cursos de capacitación, etc.), como cursos preparados por la Fundación Altamira en áreas de su competencia y avalados académicamente por la Universidad.
El ente con intereses similares resulto ser la empresa Seguros Altamira. Interesada en la formación de sus recursos humanos distribuidos por todo el país. Para concretar una colaboración, primero debíamos encontrar los puntos de coincidencia, para ello se empleó, de parte de los ejecutivos de Seguros Altamira, la metodología denominada Stage-Gate [4] que constó de los siguientes pasos: 1.
Se aprobó un cronograma de trabajo. Gestión del Proyecto;
2.
Se creó el instrumento legal de la Fundación Altamira.
3.
Diseño de la estrategia: •
Oferta de la Especialización en Ingeniería Clínica vía virtual, además de otros cursos de interés a profesionales relacionados con el sector de la salud, incluido la Hotelería Clínica.
•
Certificación académica de una oferta atractiva a empleados, corredores y proveedores relacionados con el sector asegurador.
•
Desarrollo de la plataforma de software libre.
•
Estudio y adaptación de modelos exitosos
Alianzas estratégicas.
En cuanto al análisis FODA, los resultados fueron los siguientes: Fortalezas: Amplia oferta académica: Postgrado en Ingeniería Clínica, Diplomado en Gestión Hospitalaria, Programas de Perfeccionamiento Profesional y otros cursos del Decanato de Postgrado y del Decanato de Extensión de la USB, además de cursos en la especialidad de seguros preparados por Seguros Altamira y avalados académicamente por la Universidad. Debilidades: Limitación de tiempo de los profesores, son muy pocos. Limitaciones para la virtualización de contenidos presenciales. Oportunidades: Mercado virtual nacional, Cámara de Aseguradores, o Asociación Venezolana de Clínicas y Hospitales e Internacional. Decanato de post-Grados: Desde la Especialización Técnica hasta el Doctorado. Interés del Instituto Universitario de Seguros: Oferta académica. Mejores prácticas. LOCTI. Proyecto de videoconferencias de Seguros Altamira.
152
INGENIERÍA CLÍNICA
Amenazas: Costos de adaptación de contenidos; requerimientos del Decanato de Extensión; continuos cambios en las reglas del juego político por parte del gobierno de turno.
se logró consolidar acuerdos institucionales con Seguros Altamira para lograr superar esa necesidad
Para institucionalizar el objetivo planteado se firmaron dos convenios: un Convenio General entre la USB y Seguros Altamira y un Convenio Específico de Cooperación entre la Fundación de Investigación y Desarrollo (FUNINDES) de la USB y la Fundación Altamira.
[1] Mijares R., Lara L. (1997). Establishment of a Clinical Engineering Department in a Venezuelan National Reference Hospital. Journal of Clinical Engineering. 22 (4), pp. 239-248. [2] Lara L., Silva R. (1998). Propuesta de un Nuevo Esquema para la Formación de Ingenieros Clínicos en Venezuela, Primer Congreso Latinoamericano de Ingeniería Biomédica, Mexico. [3] Drucker P. (1999). Managing Oneself, Harvard Business Review. EE.UU. [4] Cooper R. (1985). Selecting winning new product projects: Using the NewProd System. Journal of Product Innovation Management 2: 34–44 [5] Porter M (1998). Competitive Advantage. Fist Free Press Edition.
REFERENCIAS
El Convenio General entre la USB y Seguros Altamira se firmo el día 17/04/2012, siendo su finalidad la de promover actividades de cooperación en docencia, investigación y extensión. Constituyéndose en el marco legal para el establecimiento de convenios específicos para la ejecución de programas relacionados con las siguientes áreas: cooperación pedagógica, investigación conjunta, seminarios y encuentros académicos, desarrollo de comunidades y del sector productivo y apoyo a la gestión universitaria. Igualmente se determina que tanto la USB como Seguros Altamira podrán solicitar apoyo financiero de terceras partes de manera conjunta o individual, con el fin de llevar adelante los proyectos. Igualmente y en la misma fecha se firmo un Convenio Específico de Cooperación entre la Fundación Altamira y la Fundación de Investigación y Desarrollo (FUNINDES) de la USB. El objetivo fue el de establecer un “Sistema de Gestión para el Aprendizaje a Distancia” a nivel nacional e internacional y de capacitación técnica en nuevas tecnologías orientadas al fortalecimiento del sector salud y el sector asegurador. A través de esta plataforma se ofertará el Postgrado en Ingeniería Clínica desarrollado por el Departamento de Tecnologías de Procesos Biológicos y Bioquímicos, en conjunto con la Unidad de Gestión de Tecnologías en Salud (UGTS), así como otros cursos y diplomados desarrollados por la USB. Por otra parte, se ofertaran programas de entrenamiento desarrollados por la Fundación Altamira y avalados académicamente por la USB, dirigidos a los empleados, los corredores y proveedores de las aseguradoras y al público en general. CONCLUSIONES Existe una necesidad muy sentida para el desarrollo de la virtualización de la especialización de la Ingeniería Clínica. Dicha virtualización es muy costosa para la USB y requiere apoyo externo. Mediante diversas metodologías gerenciales
153
INGENIERÍA CLÍNICA
INSTRUMENTO PARA EVALUAR LA CALIDAD EN LOS SERVICIOS DE RADIOLOGÍA DE HOSPITALES PÚBLICOS Y PRIVADOS J. Amed1, C. Delgado2, N. Ruiz 3 1
Hospital Ana Francisca Pérez de León II 2 Universidad Simón Bolívar 32 Universidad Simón Bolívar e-mail: cloudet@usb.ve
RESUMEN La presente investigación tuvo como objetivo general el diseñar un instrumento de evaluación para diagnosticar la calidad en la prestación de los servicios de radiología en hospitales públicos y privados. Este instrumento fue construido a partir de la metodología empleada para Evaluar Tecnologías en Salud (ETS), como es la revisión documental y la visitas de campo. El instrumento está conformado por 116 ítems que evalúan la calidad a través de 5 variables: Estructura Organizacional, Confort, Efectividad Clínica, Seguridad e Higiene y Gestión de Mantenimiento. Para su validación se utilizó la técnica de juicio de expertos en el área radiológica y en construcción de instrumentos de medición. Una vez validado el instrumentó se aplicó en tres hospitales, los resultados de la aplicación del instrumento permitió conocer el estado en que se encuentran la calidad de los servicios de radiología. Palabras Clave: Evaluación, Calidad, y Servicios de Radiología
radioprotección, pero no de eficacia clínica. Las autoridades nacionales responsables del control de las radiaciones frecuentemente están emplazadas en comisiones nucleares o de energía atómica…”, además “el control de calidad en los Servicios de Radiodiagnóstico, al contrario de lo ocurrido en otras especialidades, se viene entendiendo como el control referido exclusivamente a los equipos que forman parte del sistema de imagen (generadores de rayos X, procesadoras, etc.)…” [2] “…Las mediciones de la calidad en salud puede ser de tres tipos: estructura, proceso y resultado, las mayorías de las mediciones que se hacen van dirigida a la estructura y algunas mas puntuales al resultado, pero no se han considerado los procesos…” Quintero y otros [3] El gran desafío de los sistemas de salud consiste, en minimizar la brecha entré la eficiencia, eficacia y efectividad. En salud, los beneficios y riesgos derivados de la utilización de radiaciones ionizantes justifican la obligación de velar porque la calidad del servicio sean seguras, para evitar daños a los usuarios (Pacientes y Personal que labora).
INTRODUCCIÓN El presente trabajo pretende generar cultura en la Evaluación Tecnológica en Salud (ETS), con la finalidad de contribuir en mejora de la eficiencia, eficacia y la efectividad en los servicios de salud, en este caso los servicios de radiología. El desarrollo de la práctica del radiodiagnóstico debe de estar regulado por normas, procedimientos y protocolos, que tiendan a mejorar la calidad en la atención de los pacientes en los servicios de radiología. La Evaluación Tecnológica en Salud, es la metodología para evaluar, los dispositivos, procedimientos, tecnología, etc., utilizados en salud, cuyo objetivo o fin es mejorar la relación Costo-Efectividad y Costo-Beneficio, en los sistemas de salud. Los servicios de radiología dentro de cualquier institución pública o privada de salud, es una de las espacialidades de apoyo más utilizadas en el diagnóstico de los pacientes. El servicio de radiología es el conjunto de equipos, sistemas, personal insumos, encargados de generar imágenes a través de la utilización de equipos de Rayos X.
En la actualidad en la República Bolivariana de Venezuela no existe un instrumento de evaluación especializado, para diagnosticar la calidad en la prestación de los Servicios de Radiología en las instituciones de salud pública y privada, que permita el cumplimiento de la norma legal vigente y la excelencia del servicio tanto para los
Para Organización Panamericana de la Salud PAHO / Organización Mundial para la Salud OMS, [1] , la mayoría de los “… Servicios de Radiología en las Américas están regulados desde el punto de vista de
154
Memorias_BIOVEN_2012
pacientes como para los trabajadores del área. En el marco de estos planteamientos, se desarrolló la presente investigación.
las agencias consultadas se resaltan las siguientes. Comisión Técnica Subregional de Evaluación de Tecnología Sanitaria: constituida por Bolivia, Colombia, Chile, Ecuador, Perú, Venezuela. FDA (Food and Drug Administration): Agencia de Alimentos y Medicamentos, agencia del gobierno de los Estados Unidos. OTA: Agencia de Evaluación de tecnología del Congreso de los Estados Unidos. AETS: Agencia de Evaluación de Tecnologías Sanitarias. Ministerio de Sanidad y Consumo. España. ETESA: Unidad de Evaluación de Tecnología de Salud. Chile. Además se llevo a cabo varias visitas a instituciones de salud, a fin de recabar información sobre el tema planteado. En estas visitas se utilizaron entrevistas no estructuradas, al personal especializado que trabaja en el área de radiología, en las entrevistas se obtuvo información extensa, de lo que conocen, piensan, perciben y creen debe ser evaluado en los servicios de radiología. Así mismo se realizaron recorridos por las instalaciones de los servicios de radiología lo que permitió la observación directa, obteniendo evidencia real y natural sobre las prácticas y elementos técnicos. Adicionalmente, en conjunto con los expertos se plantearon las variables a evaluar: Estructura Organizacional, Confort, Efectividad Clínica, Seguridad e Higiene y Gestión de Mantenimiento. Una vez identificadas las variables, se lleva a cabo el proceso de operacionalización necesario para determinar los parámetros de medición. Luego de realizada la operacionalización de las variables, se redactaron las preguntas del cuestionario el cual se subdivide en cinco partes, constituido por 116 Ítems, distribuidos de la siguiente manera, 18 ítems para evaluar la Estructura Organizacional, 20 ítems Confort, 26 ítems Efectividad Clínica, 31 ítems Seguridad e Higiene y 21 ítems Gestión de Mantenimiento. Así mismo se definió la escala de medición Tipo Likert, en la cual se consideran cinco (5) opciones cada una con su peso y porcentaje (%) establecido: Malo (1) - (1% - 20%), Regular (2) - (21% 40%), Aceptable (3) - (41% - 60), Bueno (4) - (61% - 80%) y Excelente (5) – (81% - 100%). De igual manera cuanta con la opción NA (No Aplica) – (0%) y una casilla de observaciones, ya que el presenta instrumento busca dar recomendaciones para solucionar las fallas que presenta el servicio de radiología evaluado. Después de redactar el cuestionario, fue evaluado por a cuatro expertos en el área de radiología y metodología en construcción de instrumentos de evaluación, obteniéndose una opinión técnica y objetiva con respecto al instrumento de evaluación, en función de los siguientes aspectos: Grado de Congruencia de los ítems, Claridad de los ítems y Tendenciosidad de los ítems. Al mismo tiempo se les proporcionó el titulo de la investigación, los objetivos del estudio, la operacionalización de las variables, el cuestionario elaborado y el formato de validación. Las observaciones emitidas por los expertos fueron implementadas, hasta obtener la aprobación final del instrumento definitivo para su aplicación.
OBJETIVOS Objetivo General Diseñar un instrumento de evaluación para diagnosticar la calidad en la prestación de los servicios de radiología en hospitales públicos y privados. Objetivos Específicos 1. Analizar los aspectos teórico-prácticos utilizados en la prestación de los servicios de radiología. 2. Identificar las principales variables que se requiere para diagnosticarla calidad en los servicios de radiología 3. Establecer los criterios y técnicas validas que se adecúen para diagnosticar aspectos esenciales relacionados en la prestación de los servicios de radiología. 4. Diseñar el instrumento para obtener información real y rápida de los servicios de radiología. PROBLEMA Los servicios de radiología entrañan riesgo, y se encuentran regulados usualmente por el blindaje de la estructura, la seguridad del equipo, y los niveles de exposición ocupacional. En muchos servicios de radiología no se cumple con la normativa legal, los procesos y protocolos, realza la falta del control de la historia de los dosímetros del personal que labora en el servicio. La descalibración de los equipos por la carencia de un adecuado mantenimiento metrológico, lo cual incide en aumentar el riesgo a la exposición a los rayos ionizantes. La repetición de los estudios radiológicos por no cumplir con los protocolos, somete a los pacientes y trabajadores a radiaciones innecesarias que pueden causarles daños irreparables a su salud: riesgo de cáncer y defectos hereditarios. Además la relación Costo-beneficio también se afecta al repetir el estudio, aumentando el gasto de los insumos. Asimismo de los espacios de espera carecen de confort. Adicionalmente pérdida de la información de los pacientes y control de citas por no tener sistemas informático adecuado.
METODOLOGÍA La metodología empleada para el Diseño del Instrumento de Evaluación para Diagnosticar la Calidad en la Prestación de los Servicios de radiología en hospitales públicos y privados fue la siguiente, se realizó una revisión de la literatura sobre radiología y una revisión de las páginas web de agencia internacionales de ETS para localizar documentos de referencia y recoger diferentes experiencias en Evaluación de Tecnología en Salud. Entre
155
INGENIERÍA CLÍNICA
Seguidamente validado el instrumento por los expertos, se llevó a cabo la aplicación del mismo en los servicios de radiología en tres hospitales públicos.
Tabla III. Resultados Hospital B Variables Estructura Organizacional Confort Efectividad Clínica Seguridad e Higiene Gestión de Mantenimiento Total %
Diseño del Instrumento
Revisión Documental
% 70 60 80 50 65 65
Recolección de Información (Entrevistas y Observación)
Tabla IIIII. Resultados Hospital C
Definición de las Variables
Variables Estructura Organizacional Confort Efectividad Clínica Seguridad e Higiene Gestión de Mantenimiento Total %
Operacionalización de las Variables
Elaboración del Instrumento
Validación de Expertos
¿El Instrumento es Adecuado?
NO
Se utilizo la herramienta de EXCEL, para diseñar una tabla dinámica con los ítems de cada variable a evaluar, esta tabla se programó para cada porcentaje, los porcentajes están codificados para visualizar un color, la codificación se distribuye de la siguiente manera:
Ajustes del Instrumento
SI Aplicación
Resultados
Tabla IV Baremo establecido NA MALO: REGULAR: ACEPTABLE: BUENO: EXCELENTE:
Figura 1.Flujograma diseño del instrumento RESULTADOS El resultado de la investigación fue en primer lugar el diseño del instrumento para evaluar la calidad en el servicio radiológico de una institución de salud. En segundo lugar, al aplicar el instrumento se pudo obtener un diagnóstico sobre la calidad en los servicios de radiología. Los resultados obtenidos fueron los siguientes
0% 1 -20 % 21 - 40 % 41 - 60 % 61 - 80 % 81 - 100 %
Blanco Rojo Naranja Amarillo Azul Verde
El resultado de la sumatoria de los porcentajes de todos los ítems de igual manera visualiza un color, así mismo se obtiene una grafica con los resultados obtenidos.
Tabla I. Resultados Hospital A Variables Estructura Organizacional Confort Efectividad Clínica Seguridad e Higiene Gestión de Mantenimiento Total %
% 90 80 90 80 80 84
CONCLUSIONES % 70 80 70 80 75 75
Como resultado el instrumento de evaluación propuesto corresponden a un método de evaluación cuantitativo y cualitativo, ya que el resultado de la evaluación, permite conocer el estado en que se encuentran los servicios de radiología. El presente instrumento de evaluación contiene una serie de puntos que no son de carácter estático, sino que representan un continuo procedimiento que va desde la fundamentación teórica de acuerdo a la evidencia científica existente en radiología. Con la construcción de este instrumento de evaluación contribuye a detectar las fallas y disminuir los errores,
156
Memorias_BIOVEN_2012
mejorar las normas y procedimientos, en la prestación de los servicios de radiología, sabiendo que la exposición excesiva a los rayos X es nociva para la salud. Con el presente Instrumento que busca evaluar la calidad de para prestación de los servicios de radiología, y se pretende que sea de utilidad para el personal que tiene a su cargo la responsabilidad de velar por el buen funcionamiento de este servicio. Con las dos pruebas realizadas se demostró que el instrumento propuesto mide las variables que se plantearon, de esta manera se cumple con el objetivo general del trabajo especial de grado, que es evaluar la calidad en la prestación de los servicios de radiología.
REFERENCIAS [1] Organización Mundial de la Salud - OMS (2007, Marzo 22). 60ª Asamblea Mundial de la Salud. [2] Gago M., García R., López P., Verdú J., Blanco E., Alba S., (2008), “Evaluación de la Tecnología Sanitaria”. Apósitos Basados en la Cura en Ambiente Húmedo para Heridas Crónicas, GEROKOMOS vol.19 No 4, España. [3] PAHO / OMS (2001, Julio 11), “Evaluación de la Calidad de los servicios de Radiodiagnóstico en Cinco Países Latinoamericanos [4]Reunión de Ministros de Salud del Área Andina – REMSAA (2009). La Comisión Técnica Subregional de de Evaluación de Tecnologías Sanitarias [5] Conde J., Iglesia I., González J. (1999). “Guía para la Elaboración de Informes de Evaluación de Tecnología en Salud”. Agencia de evaluación de tecnología sanitaria (AETS). Instituto de salud Carlos III. Madrid. [6] Carvajal M., Ruiz C., (2008), “Evaluación Técnica y Clínica de Tecnología Biomédica en el Proceso de Adquisición”, Un Enfoque en Evaluación de Tecnologías en salud. Revista Ingeniería Biomédica, Vol.2 No. 4, EIACES, Colombia.
157
INGENIERÍA CLÍNICA
MODELO DE GESTIÓN DE HOTELERÍA CLÍNICA EN HOSPITAL TIPO I. CASO: HOSPITAL DEL JUNQUITO Medina Z.1, Delgado C.2 , Ruiz N. 3 1
Hospital del Junquito Universidad Simón Bolívar 3 Universidad Simón Bolívar 2
e-mail: Cloudet@usb.ve
RESUMEN El modelo de gestión de las organizaciones tiene incidencia directa en sus resultados. Los hospitales forman parte de un sistema cuyo objetivo fundamental es el apropiado tratamiento de pacientes para mejorar su estado de salud de una forma eficiente y efectiva. Para conseguir ese objetivo es necesaria una correcta utilización de sus recursos con el fin de incrementar la eficiencia en la gestión y mantener una mejora continua dentro de la institución. La hotelería clínica se vincula con calidad en el proceso de atención a los pacientes que acuden a los centros hospitalarios. El propósito de este trabajo e presentar un modelo de gestión de hotelería clínica para un hospital tipo I, con el fin de mejorar el servicio y la atención a los pacientes y usuarios(as), del Hospital del Junquito. El trabajo está orientado a desarrollar, implementar y mantener en la institución, un modelo de gestión basado en los principios de un Sistema de Calidad, mediante la metodología de Seis Sigma utilizando estratégicamente la herramienta DMAIC, por sus siglas en inglés, significan: Definir, Medir, Analizar, Mejorar y Controlar, la cual agrega valores cuantitativos para medir calidad de servicio, con el fin de mejorar los procesos y por ende disminuir el número de posibles errores y coadyuvar en el mejoramiento del grado de satisfacción de los pacientes y usuarios del hospital. Palabras Clave: Gestión, hotelería clínica, sistema de calidad, metodología DMAIC.
incrementando al mismo tiempo la satisfacción de los usuarios. [1] En los procesos que conforman el área de Hotelería Clínica desafortunadamente no ha existido mucha atención para medir, analizar y controlar la calidad en estos procesos de servicio, por lo cual, la elaboración de este trabajo permitirá evaluar los procesos inherentes a hotelería clínica mediante métodos estadísticos, con variables de tipo cualitativo, que permitirán tomar decisiones en las actividades de los distintos servicios del hospital, reducir las fallas en los procesos y proponer un programa de mejora continua.
INTRODUCCIÓN Venezuela ha evolucionado significativamente durante los últimos años en materia de gestión pública hospitalaria. El sector salud se ha visto beneficiado con mayor inversión en infraestructura y equipamiento, se hacen grandes esfuerzos y numerosas jornadas para mejorar la gestión y conseguir niveles óptimos de desempeño. Por lo que en estas instituciones el interés es que a los pacientes se les atienda de la mejor manera, y la calidad es una necesidad básica, ya que lo que se ofrece es servicio de salud y vida. La salud es un tema delicado e importante, por ello se requiere excelente gestión en sus procesos, para que el resultado sea brindar salud y que el paciente y los usuarios sientan el mayor confort durante su estadía. En las instituciones hospitalarias, todos sus procesos exigen niveles óptimos de desempeño, con un nivel mínimo de errores, debido a las consecuencias graves que éstos pueden generar. Es aquí donde un modelo de gestión basado en calidad y con la aplicación de Seis Sigma es relevante, ya que es una metodología exitosa de mejoramiento que busca la perfección incorporando la eficiencia como meta, enfocada en reducir la variabilidad de los procesos y los costos asociados a la mala calidad e
METODOLOGÍA Seis Sigma es una metodología de mejora de procesos, centrada en la reducción de la variabilidad de los mismos, consiguiendo reducir o eliminar los defectos o fallas en la entrega de un producto o servicio al cliente. Banuela y Jiju [2], señala que la metodología Seis sima es considerada una estrategia efectiva, porque implica ajustes para los valores y para la cultura de la organización. Por otra parte consideran que Seis Sigma establece una
158
Memorias_BIOVEN_2012
No se aplicó el método de muestreo probabilístico, debido al corto tiempo para realizar la investigación. Se siguió la recomendación dada por Zethmain y Berry [5] por lo cual se aplicó el cuestionario a 100 pacientes, durante tres meses, en horarios variables (mañana, tarde y noche), sin embargo el tamaño de la muestra aporta confiabilidad a los datos obtenidos. En la primera etapa de aplicación se obtienen valores otorgados a las variables Importancia y Calidad esperada. Esta se aplicó al llegar a la institución. Luego de recibir el servicio al momento de abandonar las instalaciones se aplica nuevamente el cuestionario para evaluar la capacidad percibida. Se analizó mediante la tendencia central de los valores, dada por la media de la calificación otorgada por los pacientes y usuarios. La importancia dada por el paciente en orden del 1 al 7 (tomando el 7 como el de mayor importancia y el 1 como el de menor importancia). De igual forma se calcularon los de la calidad esperada y la calidad percibida. Los resultados de orden de importancia considerado por los pacientes fue la rapidez de atención, seguido por la limpieza, la confiabilidad y la comunicación
relación entre el sistema de dirección, la metodología y la métrica, es una medida para evaluar procesos. La metodología a aplicar es Seis Sigma, la cual utiliza herramientas y métodos estadísticos. La metodología formal de aplicación de Seis Sigma en general sigue el siguiente esquema DMAIC (Definir, Medir, Analizar, Incorporar o mejorar y Controlar). [3] Como se describió anteriormente el primer paso para iniciar la metodología Seis Sigma es tener claro cuál es el problema a atacar. Por ello es necesario conocer los servicios médicos que presta la institución. La atención médica que se ofrece en el hospital del Junquito es a un primer nivel de atención, por lo que si se requiere de atención especializada, será necesario apoyarse en instituciones de mayor nivel de atención. Este primer nivel de acceso, se caracteriza por prestar atención integral a la salud. Comprende la asistencia preventiva, curativa y rehabilitadora, así como la promoción de la salud. El instrumento de medición utilizado fue diseñado según los requerimientos del paciente o usuario y en base a la calificación otorgada por él, permitiendo medir la calidad del servicio. El instrumento es conocido como Cualitómetro, que se enfoca en un control del servicio, permite el monitoreo continuo en línea de la calidad en base a la calidad esperada menos la calidad percibida. Franceschini, F., Cignetti M., &Caldara M. [4]
Tabla I. Importancia dada a cada variable Categórica Variables criticas Tangibles Limpieza Amabilidad Comunicación Rapidez en la atención Organización Confiabilidad Calidad global del servicio recibido
RESULTADOS Una vez que se aplicó el cuestionario y se obtuvieron los valores otorgados de importancia, calidad esperada y calidad percibida por los pacientes para cada una de las variables de medición, se dio inicio a la tercera fase de la metodología DEMAIC, que es analizar. Esta fase se llevó a cabo en dos pasos: primero análisis de los datos y luego el análisis de las procesos. Análisis de datos: se estudiaron los datos recogidos, para localizar las relaciones entre las variables o bien diferencias que indiquen algún defecto y poder determinar las causas que lo generan. Análisis de procesos: se examinaron los diferentes procesos para identificar aquellas acciones que no agregan valor.
Valores 6.18 6.69 6.18 6.65 6.83 5.90 6.67 6.66
En el estudio de la calidad esperada, se tuvo como resultado una tendencia en esperar una calidad alta en rapidez de la atención, amabilidad, confiabilidad limpieza, principalmente. Tabla II. Calidad Esperada Variables criticas Tangibles Limpieza Amabilidad Comunicación Rapidez en la atención Organización Confiabilidad Calidad global del servicio recibido
Análisis de Datos Primero se realizó un análisis por medio de gráfica de barras, tomando en cuenta la tendencia central que se presentó en la calificación otorgada por los pacientes para las 7 variables del cuestionario en cada una de sus 3 categorías (importancia, calidad esperada, calidad percibida). Esta tendencia central está dada por la media, por lo que se analizaron los promedios de dichas calificaciones.
Valores 5.71 6.17 6.31 6.25 6.55 5.92 6.24 6.10
A continuación los resultados de la calidad percibida:
159
INGENIERÍA CLÍNICA
la calidad demandada. En donde se establece la matriz que se forma por una parte, por los factores acerca de los cuales se ha interrogado a los pacientes, y por otro la importancia asignada a cada uno de ellos, así como la valoración obtenida. Se define el objetivo, que será la calidad planificada que se desea obtener y en relación con la situación actual, se le asigna un factor de importancia de la calidad en esa variable. [6] . Para determinar el grado de importancia otorgada a cada variable, se analizan los resultados de los cuestionarios aplicados donde se asigno un valor de importancia de 1 a 7. Se define el plan de Calidad, es decir qué calidad se quiere obtener en el futuro. La cuarta fase, de DMAIC, es mejora. Aquí se presentan las alternativas de solución. Se realizó una propuesta general de acciones de mejora en función de los resultados obtenidos.
Tabla III. Calidad Percibida Variables criticas Tangibles Limpieza Amabilidad Comunicación Rapidez en la atención Organización Confiabilidad Calidad global del servicio recibido
Valores 4.85 5.10 5.9 6.15 5.22 5.40 5.99 5.50
Calidad de Servicio= Calidad Percibida – Calidad esperada Tabla IV. Diferencias entre Calidad Percibida y la Calidad esperada
Tabla V. Propuesta general de acciones de mejoras primarias y secundarias
Variables criticas 1 2 3 P-E Tangibles 6.18 4.85 5.71 -0.86 Limpieza 6.69 5.10 6.17 -1.07 Amabilidad 6.18 6.32 5.90 0.42 Comunicación 6.65 6.25 6.15 0.1 Rapidez en la atención 6.83 5.22 6.55 -1.33 Organización 5.90 5.92 5.40 0.52 Confiabilidad 6.67 5.99 6.24 -0.25 Calidad global del servicio 6.66 5.50 6.1 -0.60 recibido Leyenda: (1) Importancia (2) Calidad percibida (3) Calidad percibida
Primarias 1.Tangibles 2.Limpieza 3.Amabilidad 4.Comunicación 5.Rapidez de la atención 6.Organización
Analizando la tabla anterior, es mas claro hacer notar los puntos dentro del servicio, en donde el paciente percibe una calidad menor a la esperada y trabajar sobre ellos. Existen puntos de oportunidad de mejora en las variables que muestran valores negativos, ya que indican un grado de insatisfacción de acuerdo al peso que tenga (dado por el valor absoluto, como se puede observar, la variable rapidez en la atención, es la que tiene mayor peso negativo, por lo que es donde se tiene mayor inconformidad de parte del paciente. Se tiene entonces, oportunidad de mejora en rapidez en la atención, limpieza, tangibles básicamente, pero es necesario considerar también los otros aspectos para la mejora continua.
7.Confiabilidad
Segundarias 1.1Condiciones físicas del hospital 2.1 Áreas(paredes y pisos), mobiliario y equipos limpios 3.1 Educación, respeto y trato digno 4.1 Información entendible y habilidad para escuchar 5.1 Tiempo de espera para recibir un servicio 6.1 Organización en el proceso en general 7.1 Capacidad para generar confianza y credibilidad
Calidad Global del servicio recibido Tabla VI. Propuesta general de acciones de mejora terceriarias Terciarias 1.1.1. Que el mobiliario se encuentre en buen estado 1.1.2. Que se cuente con ventilación adecuada y olor agradable 1.1.3 Que el lugar esté iluminado 1.1.4. Que los colores que se manejan sean agradables a la vista 2.1.1 limpieza de muebles en diferentes salas 2.1.2 limpieza de pisos y sanitarios 2.1.3 limpieza de equipos 2.1.4 limpieza en las habitaciones y camas. 2.1.5 Limpieza y orden en el comedor 3.1.1 Amabilidad y respeto en el trato por parte del
Análisis de procesos Al conocer los resultados del análisis, es necesario analizar el proceso relacionado con la variable que presentan insatisfacción, a fin detectar todas aquellas actividades que no agregan valor. Se realiza la caracterización de los procesos en estudio (proveedores, entradas, actividades, salidas, usuarios, condiciones de servicio, atributos, controles, indicadores.) con el fin de evaluarlo y optimizarlo. Se inicia la carta de despliegue de
160
Memorias_BIOVEN_2012
personal 3.1.2 Tono de voz adecuado para dirigirse a los pacientes o usuarios 3.1.3 Cortesía y educación por parte del personal 3.1.4 Interés o preocupación sobre la salud de los pacientes 4.1.1 Capacidad por parte de del personal de brindar información acerca de los servicios médicos. 4.1.2 Habilidad para escuchar y entender al paciente por parte del personal. 5.1.1 Tiempo de espera para ser atendido 5.1.2 Tiempo de espera para ingresar a hospitalización 5.1.3 Tiempo de espera al para salir de alta(egreso)
CONCLUSIONES La metodología DMAIC de Seis Sima permitió evaluar y mejorar el área de Hotelería Clínica en el hospital del Junquito y proponer un modelo de Gestión a implantar en el hospital del Junquito. Implantar un modelo de gestión de Hotelería Clínica bajo el enfoque Seis Sigma, contribuirá con el incremento de la satisfacción del paciente. La calidad de servicio mejora significativamente aplicando un modelo de gestión bajo el enfoque Seis Sigma y permite iniciar un modelo de gestión de Mejora Continua En el estudio se aplicó la metodología DMAIC de seis sigma, permitiendo definir, medir, mejorar y controlar los procesos relacionados con la atención paciente/usuario, considerando las áreas operativas de acción inherentes a la hotelería clínica. Se aplicaron herramientas de calidad y de estadística para procesar variables cualitativas y medirlas de forma cuantitativa. Dentro de la aplicación de la metodología Seis Sigma, el trabajo en equipo con el personal del hospital es indispensable para poder avanzar en fase, ya que aporta un conocimiento interno sobre los servicios que se prestan y sobre las propuestas de cambio y mejora de la calidad de servicio. Para aplicar la metodología DMAIC de Seis Sigma, es necesario que se adiestre el personal que la aplique para que sea exitosa.
6.1.1 Organización dentro del proceso de recepción del paciente 7.1.1 Generar confianza en la prestación del servicio 7.1.2 Fiabilidad en la atención brindada Tabla VII. Propuesta de mejora P-E -0,86
-1,7 0.42
0.1 -1,33
0.52 -0.25 -0.60
Propuesta Programa de De revisión de estructura física. Programa de Mantenimiento Programa de Mantenimiento Creación de unidad organizativa específica: Programa de capacitación, Motivación. Servicio al cliente. Sensibilidad Social Campaña de señalización e información Revisión de los proceso . Solicitud de nuevo personal fijo. Talleres al personal sobre gestión por procesos.
REFERENCIAS [1] Lowenthal Jeffrey N. (2000). Guía para la aplicación de un proyecto Seis Sigma Editorial Fundación Confemeta. [2] Banuelas y Jiju, (2002) Metodología Seis Sigma, McGraw-Hill,México D.F. [3] Barba E., Boix F., Cuatrecasas L. Seis Sigma – Una iniciativa de Calidad Total, Gestión 2000, BarcelonaEspaña, 2001 [4] Franceschini, F.,Rosetto S.(1998) Service Quality Control :Qualitrometro. Method [5] Zethmain y Berry (2006) Deliverin Quality ServiceBalance CustomerPerceptions and Expectantions. [6] Micheal L. George (2002). Lean Six Sigma For Service: How to use. Quinta Edición. Editorial McGrawHill.
Talleres de capacitación especializados para el personal por área Implantación de Programa de mejora continua. Nueva estructura organizativa.
La quinta fase, de DMAIC, es Controlar, aquí es necesario desarrollar un sistema de indicadores de Gestión que permita monitorear el área de hotelería clínica con el objeto de permitir la mejora continua. Mejoras realizadas luego del Estudio Se creó la unidad de hotelería clínica en la estructura organizativa Se reforzó la plantilla del personal del hospital (enfermeras, camareras, mantenimiento) Se realizaron cambios en equipos y mejoras de infraestructura. Se compró nueva lencería para habitaciones
161
INGENIERÍA CLÍNICA
MÓDULO DEL SERVICIO DE ENDOSCOPIA DIGESTIVA SUPERIOR PARA EL CENTRO DE CONTROL DE CÁNCER GASTROINTESTINAL “DR. LUIS E ANDERSON” W VERDE , J MANTILLA UNIVERSIDAD NACIONAL EXPERIMENTAL DEL TÁCHIRA e-mail: william.verde@gmail.com
RESUMEN El presente proyecto tuvo el propósito de elevar la calidad del servicio de endoscopia digestiva superior en el Centro de control de cáncer gastrointestinal “Dr. Luis E. Anderson” de la ciudad de San Cristóbal. El tipo de investigación corresponde a una investigación proyectiva y el diseño se enmarca en una investigación de campo. El proyecto se basó en la construcción de un módulo en ambiente web que permite realizar todos los procesos que llevan a cabo los médicos durante la prestación del servicio, captura de imágenes a través de un dispositivo de endoscopia, ficha de endoscopia, etiquetado de imagen, e informe médico, permitiendo disminuir los errores en los historiales, redundancia de información, aumentar la automatización de procesos y reducir tiempos de espera. Para el desarrollo del proyecto se utilizó la metodología de desarrollo incremental mediante prototipos evolutivos. Actualmente el módulo se encuentra en funcionamiento con un video endoscopio marca Olympus. Palabras Clave: Cáncer gastrointestinal, Endoscopia Digestiva Superior, Video Endoscopio, Conector BNC.
El Centro de Control de Cáncer Gastrointestinal “Dr. Luis E. Anderson” es una Institución dedicada al diagnóstico, tratamiento, seguimiento, referencia y asesoramiento, en todo lo concerniente a la patología digestiva superior e inferior, así como también las enfermedades hepato-bilio-pancreáticas, con especial énfasis en pesquisas de cáncer gástrico. Es considerado un centro de referencia nacional de Enfermedades Digestivas y hepato-bilio-pancreáticas, al igual que en diagnóstico y terapéutica de las neoplasias de todo el tracto digestivo y además ofrece la formación de especialistas de alto nivel, capacitados en el área de Gastroenterología, a través del programa de Post-Grado que funciona desde el año 1996. Actualmente el Centro de Control presta diferentes servicios en el área de gastroenterología, siendo el más solicitado el servicio de Endoscopia Digestiva Superior (ver Figura 1). Durante la prestación del servicio se realizan varios procesos de forma manual y en caso dado de que los médicos necesiten capturar alguna imagen del proceso de Endoscopia, se utiliza cualquier dispositivo (celular, cámara digital) disponible en el momento, tomando una foto de la imagen emitida por el dispositivo de endoscopia y por lo tanto esta información queda almacenada en el medio utilizado. Debido a esto se define la necesidad de desarrollar un Módulo de Endoscopia Digestiva Superior que permita optimizar el
INTRODUCCIÓN El cáncer es la principal causa de muerte a escala mundial.1 Los que más muertes causan cada año son los cánceres de pulmón, estómago, hígado, colon y mama. Se le atribuyen al cáncer 7,6 millones de defunciones (aproximadamente el 13% del total) ocurridas en todo el mundo en 2008 de las cuales 736000 corresponden a cáncer gástrico. El Centro de Control de Cáncer Gastrointestinal “Dr. Luis E. Anderson” tiene sus inicios en el año 1976, cuando atendiendo el problema de salud pública en el Estado Táchira, como lo es el Cáncer Gástrico, el Ministerio de Salud y Asistencia Social, por medio de la Dirección de Oncología, organizó y puso en funcionamiento el programa piloto de detección de cáncer gástrico en el estado. El Dr. Luis E Anderson coordinador de dicho programa, junto los directivos, realizaron contactos internacionales específicamente con Japón, y para el año 1982, se logró firmar el primer Convenio de Cooperación Técnica entre la Dirección de Oncología representada por el Ministerio de Sanidad de Venezuela, y la Oficina de Cooperación Técnica Internacional de Japón (JICA) .
1
http://www.who.int/mediacentre/factsheets/fs297/es/
162
Memorias_BIOVEN_2012
desarrollo de los procesos que se llevan a cabo en dicho servicio.
endoscopio, tubo flexible y un video procesador para llevar a cabo las funciones (ver figura 2). Se pudo observar que varios dispositivos poseen hasta un sistema operativo admisible, se pueden introducir datos, conectar impresoras, entre otras funciones
Figura 1. Endoscopia Digestiva Superior METODOLOGÍA Se utilizó la Metodología de Desarrollo Incremental mediante Prototipos Evolutivos, la cual es un modelo iterativo que permite un mejoramiento de los requisitos planteados en cada iteración y a su vez se puede obtener un acercamiento del producto final deseado. Esta metodología fue la más apropiada con respecto a las necesidades planteadas, ya que se evalúan prototipos funcionales directamente con el usuario, permitiendo realizar correcciones y mejoramiento del Módulo a tiempo y así obtener un producto completamente funcional [2]. Las fases ejecutadas fueron las siguientes:
Figura 2. Video Endoscopio
Los dispositivos de endoscopia poseen gran cantidad de puertos o conectores; analizando el dispositivo en la parte posterior se encuentra un puerto BNC (hembra) el cual es un tipo de conector para uso con cable coaxial. A través de una tarjeta de TV con puerto BNC instalada en el computador, se puede recibir señal de video del dispositivo de endoscopia. Cabe destacar que puede existir el caso en que la tarjeta de TV no posea un puerto BNC, por lo tanto es necesario realizar una serie de conversiones para conectarlo con el puerto Separate Video (S-Video) de la tarjeta. Para ello se debe ejecutar el siguiente procedimiento el cual se resume en la figura 3:
Análisis: Se realizó un estudio de la situación actual en el proceso de Endoscopia Digestiva Superior, estableciendo las necesidades y prioridades respectivas. Esto permitió diseñar el modelo propuesto y obtener una visión global de la aplicación. En esta fase se llevaron a cabo las siguientes actividades de la metodología: a) Inspección: Se llevó a cabo la definición del ámbito del proyecto a través de los modelos de contexto. Las técnicas utilizadas fueron la observación y entrevistas. b) Estudio: En esta subfase se realizó el levantamiento de la información y el modelo de procesos actual del servicio de Endoscopia Digestiva Superior. c) Definición: Se llevó a cabo la identificación de las necesidades funcionales y de información, a través de la obtención de requerimientos, el análisis y validación de las necesidades. Asimismo se elaboraron los modelos propuestos detallados, es decir, el Modelo de Flujo de Datos y el Diagrama de Entidad Relación y se realizó el análisis de los dispositivos de Endoscopia. La torre de endoscopia o video endoscopio es un dispositivo que permite visualizar una cavidad o un órgano, con ella se pueden realizar biopsias, incisiones entre otros procedimientos. Dicho dispositivo cuenta con un endoscopio el cual puede variar dependiendo del tipo de estudio a realizar, entre los más comunes se pueden mencionar Endoscopia Digestiva Superior, Endoscopia Digestiva Inferior o también conocido como Colonoscopia [3]. De acuerdo a la marca del video endoscopio se ofrecen variedad de utilidades pero todos cuentan con un monitor,
• Un extremo del cable coaxial debe ser tipo BNC (para conectarlo con el video endoscopio), y el otro extremo tipo RCA (utilizar convertidor BNC/RCA). • Hasta el momento se tiene una conversión BNC-RCA pero se necesita es BNC/S-Video, por lo tanto para el extremo RCA se utiliza un convertidor RCA/S-Video. • Finalmente se conecta el extremo S-Video con la entrada S-Video de la tarjeta de TV.
Figura 3. Protocolo de conexión entre dispositivos Con el análisis realizado a los dispositivos de endoscopia, se logró obtener la imagen emitida por un video endoscopio en el computador; es importante tomar en cuenta las características de la tarjeta de TV que se desee utilizar en caso de que se necesite realizar una conversión. Cabe destacar que el dispositivo Olympus (año 2000) es el más antiguo con el que cuenta la institución y el equipo Fujifilm (año 2008) el más reciente. Las diferencias entre
163
INGENIERÍA CLÍNICA
dichos equipos radican en cuanto a calidad de imagen, opciones disponibles, mayor cantidad de puertos, entre otros, pero ambos contienen el puerto BNC, motivo por el cual se estableció la conexión a través de dicho puerto.
La figura 5 muestra la interfaz desarrollada al momento de la captura de la imagen emitida por el dispositivo la cual se observa en tiempo real durante el estudio actualizándose el registro en el servidor. El médico puede observar las imágenes que ha capturado durante el proceso de endoscopia, esto con el fin de que si una captura no se tomó correctamente (exceso de movimiento de endoscopio, dificultades en la cámara), pueda volver a realizar la captura.
Diseño: En esta fase se elaboraron los prototipos respectivos para el Módulo, con el fin de verificar las necesidades de los usuarios. Se mantuvo una iteración con los mismos que permitió descubrir cualquier error o anomalía mal interpretada en la fase de análisis. Las herramientas utilizadas para el desarrollo del Módulo fueron las siguientes: HTML5, PHP, CSS, AJAX, Javascript, JQuery, JQuery UI, Adobe Flash, y FPDF. En esta fase se llevaron a cabo las siguientes actividades de la metodología: a) Diseño y Evaluación de la Efectividad del Sistema: En esta subfase se inició el ciclo iterativo del Módulo, en la cual se elabora y/o modifican los prototipos, modelos de datos, modelos de procesos. Esto permite especificar las interfaces del sistema y la interacción con el usuario para así identificar los elementos de adecuación que permitirán mejorar tanto los prototipos desarrollados como aquellos que se elaboraran. b) Optimización de la Eficiencia del Sistema: Se refinan los programas relacionados con las validaciones, formularios, consultas y reportes. En este caso se utilizó como herramienta la programación, normalización de la base de datos y el modelado de datos. La infraestructura de despliegue durante la fase de diseño quedó como se muestra en la figura 4.
Figura 5. Capturas de Realizadas
Adicionalmente se va consolidando el informe médico donde se etiqueta en una imagen de las vías digestivas, los hallazgos de importancia durante el estudio, de igual manera el médico puede visualizar de una lista de opciones los hallazgos por zonas tal y como se observa en la figura 6.
Servidor
Informe Médico
Figura 6. Interfaz de Usuario. Informe Médico
Captura de Imágenes Im
Figura 4. Infraestructura para el Módulo de Endoscopia Digestiva Superior.
Pruebas: En esta fase final se procedió a realizar las pruebas de verificación y validación con datos reales y simular el funcionamiento del sistema integrado totalmente. Además de planificar, diseñar y elaborar el manual de usuario, de sistema y el adiestramiento de los usuarios. Se ejecutaron Pruebas de caja negra en las que se evalúa que las funciones del software fuesen operativas, datos de entrada y salida, funcionalidad de los botones, entre otros; y a nivel interno las pruebas de caja blanca, en la cual se examinan minuciosamente los procedimientos, condiciones o bucles entre otros.
El desarrollo de la captura de imágenes se llevó a cabo a través de Adobe Flash, utilizando Action Script 3.0. Esta es una herramienta que contiene gran variedad de funciones como por ejemplo se pueden crear juegos, interacción con usuario, creación de formularios sencillos, animaciones y también manipular entradas de cámara, por lo tanto se acoplaba perfectamente a los objetivos planteados para el módulo, ya que el único requerimiento para el explorador es la instalación de Adobe flash [4].
164
Memorias_BIOVEN_2012
Inicialmente el módulo se encontraba en el servidor Jana en Windows. Igualmente se aplicaron las pruebas directamente con los médicos gastroenterólogos, dispositivos de endoscopias, capturas imágenes. Luego se llevaron a cabo las pruebas finales en el servidor Apache y bajo el Sistema Operativo Linux. Esto se realizó en vivo en el proceso diario que ofrecen en el servicio de endoscopia digestiva superior, directamente con los médicos, enfermeras y pacientes.
diagnósticos, tratamientos y sugerencias de acuerdo al levantamiento de información ejecutado. Esta cantidad fue aumentando a medida que los mismos usuarios agregaban nuevos registros en las sesiones de profundidad realizadas. La figura 7 muestra el módulo en funcionamiento durante un estudio de endoscopia digestiva superior.
RESULTADOS
El resultado observado por parte de los ingenieros del departamento de informática y los médicos gastroenterólogos sobre el Módulo de Endoscopia Digestiva Superior desarrollado fue exitoso y satisfactorio, ya que todos los objetivos fueron cumplidos. Las herramientas utilizadas para el desarrollo del proyecto fueron efectivas, ya que PHP como lenguaje de programación ofrece un fácil acoplamiento e integración. Por su parte jquery posee gran variedad de funciones que permiten mejorar notablemente los diseños y el desarrollo de un sistema en entorno web además del CSS. Para la captura de imágenes flash fue esencial, debido a la gran variedad de opciones que ofrece, librerías, funciones, y una fácil integración con las demás herramientas utilizadas en el módulo. El Módulo de Endoscopia Digestiva Superior permite reducir notablemente los errores en los informes médicos. La cantidad de material físico que se maneja ofrece detalladamente toda la información referente al proceso que se realizó y sobre todo, con las imágenes capturadas, el médico puede llevar a cabo un análisis más detallado. Así mismo, la próxima vez que el paciente requiera una endoscopia tiene a su disposición toda la información de las endoscopias anteriores. El módulo de endoscopia desarrollado se logró acoplar al módulo de ficha de paciente que ya estaba implantado en la institución, adicionalmente el médico puede seleccionar los motivos por los cuales asiste el paciente al estudio, datos sobre sedación, así como, medicamentos utilizados, elegir el anestesiólogo que participó en el procedimiento e introducir cualquier observación. En caso de realizar biopsia el médico podrá elegir la cantidad de frascos en los que se distribuyen las diferentes muestras. Por otro lado se puede introducir la información de los hallazgos, los cuales se dividen específicamente en Esófago, Estómago y Duodeno. Como resultado adicional se tienen diagnósticos, tratamientos y sugerencias. Aquí se pueden seleccionar los diagnósticos de acuerdo al estudio realizado, luego el médico genera el tratamiento y el módulo mostrará los más apropiados de acuerdo a los diagnósticos elegidos. En este caso el usuario tendrá la opción de seleccionar igualmente los tratamientos que desea agregar al informe del paciente. Cabe destacar que inicialmente se tenían más de 140 registros entre
Figura 7. Módulo en Funcionamiento CONCLUSIONES
El diagnóstico de los requerimientos del Módulo de Endoscopia Digestiva Superior se realizó favorablemente mediante entrevistas, sesiones de profundidad, revisión de registros y la observación. La metodología de desarrollo incremental mediante prototipos evolutivos fue muy efectiva ya que permitió establecer un contacto directo con los usuarios involucrándolos en el desarrollo de sistemas. Los prototipos iniciales satisfacen las necesidades de los usuarios permitiendo realizar muy pocos cambios sobre los mismos. El análisis de los dispositivos de endoscopia fue esencial para establecer el medio de comunicación entre el computador y el dispositivo para posteriormente realizar un diseño amigable que permitiera llevar a cabo la captura de imágenes y se acoplara al módulo a desarrollar. Las pruebas realizadas fueron exitosas, por lo cual el módulo se encuentra en total funcionamiento. REFERENCIAS [1] Centro de Control de Cáncer Gastrointestinal “Dr. Luis E Anderson”. Página Web disponible en línea: http://www.cccgastrointestinal.com. Ultimo acceso: Febrero 2012. [2] Pressman R. (2002): Ingeniería del Software, 5ta edición, Editorial McGraw Hill. [3] Sociedad Venezolana de Endoscopia Digestiva. Pagina Web disponible en línea: http://www.soved.com.ve Ultimo acceso: Febrero 2012 [4] Adobe Systems Incorporated. Pagina Web disponible en línea: http://www.adobe.com Ultimo acceso: Marzo 2012.
165
INGENIERÍA CLÍNICA
MORTALIDAD, DETERMINANTES E INFRAESTRUCTURA EN SALUD EN UN MUNICIPIO PETROLERO: CASO VENEZUELA. R. Mijares-Seminario, L. Hernández Departamento de Procesos Biológicos y Bioquímicos de la Universidad Simón Bolívar rmijares@usb.ve
RESUMEN Se analizó la situación de salud del Municipio Carirubana ubicado en Estado Falcón, con el objeto de conocer la influencia de la construcción de una planta de acondicionamiento de gas en éste. Para esto se evaluaron las condiciones epidemiológicas, los determinantes que inciden en esas condiciones y la infraestructura del sector salud. La investigación se caracterizó por ser de campo y de corte transversal. Como parte de los resultados se constató el aumento de los tumores y neoplasia, siendo los determinantes característicos de una población pobre, en cuanto a la infraestructura en salud, no se cuenta con una buena organización de ingeniería; dicho problema abarca desde la adecuación hasta la capacitación del personal que maneja los equipos tecnológicos en el área. Lo que justifica el desarrollo de la ingeniería clínica como modelo de organización para optimizar toda la infraestructura de las instituciones de salud en el Municipio Carirubana del Estado Falcón.
INTRODUCCIÓN El sistema de salud en Venezuela, al igual que el de muchos países en América Latina, está basado en el modelo segmentado. Este modelo es cuestionado, debido a que separa el sistema de salud en tres subsistemas: el sector público, el de la seguridad social y el privado. Dicho enfoque se basa en que cada grupo está integrado verticalmente y realiza todas las funciones, pero para ese grupo [1]. En Venezuela se agrava esa situación, debido a que tiene un cuarto componente de reciente creación, que es la Misión Barrio Adentro que es dirigida por el gobierno de Cuba [2]. El sector privado es extremadamente heterogéneo.
El estado Falcón es uno de los 23 estados de Venezuela, ubicado al noroeste del país, tiene una superficie de 24.800 km², y su capital es Coro. La principal actividad económica del estado está relacionada con la industria del petróleo. El Municipio Carirubana es uno de los 25 municipios que integran el Estado Falcón, está ubicado al sur de la península de Paraguaná. Tiene una superficie de 684 km² y una población de 203.583 habitantes (censo 2001). Su capital es la ciudad de Punto Fijo. En el Municipio Carirubana se ubican dos refinerías petroleras de gran capacidad de producción para la exportación y el consumo de todo el país. Esta es el área de estudio debido a la construcción de una planta de acondicionamiento de gas.
Bajo este contexto político en la salud venezolana, una empresa petrolera contrata a la Universidad Simón Bolívar (USB) de Caracas-Venezuela para realizar el estudio de impacto ambiental y sociocultural en el sector donde se va a construir la planta de tratamiento de gas, a ser ubicada en el municipio Carirubana del Estado Falcón. Le corresponde a la Unidad de Gestión Tecnológica en Salud (UGTS) de la USB caracterizar las condiciones de salud del sector. Dentro de este proyecto corresponde evaluar la mortalidad del sector, los determinantes que inciden en esas condiciones de salud, cómo puede variar estas condiciones de salud durante su construcción y posterior operación de la planta de acondicionamiento de gas, el estado de los centros de salud y la situación en la cual se encuentra la gestión de las tecnologías en salud y así analizar si dicha condición es apta para mejorar la mortalidad de la población, objeto de este trabajo [2][3].
METODOLOGÍA El estudio posee un enfoque de investigación de campo y de corte transversal, en una población de 240.067 habitantes (población total del municipio para el año 2006) [4]. Para analizar los datos se empleó como método elemental el estudio de dos situaciones: en primer lugar, las condiciones epidemiológicas (mortalidad), en segundo lugar, los determinantes de salud y en tercer lugar, la infraestructura en salud del Municipio. Una vez establecido los criterios de estudio, resulta relevante mencionar que se procedió a evaluar la situación específicamente en el año 2006 y 2011. Se estudia el año 2006 para tenerlo como referencia para la comparación con el año 2011.
166
Memorias_BIOVEN_2012
El análisis de la información se llevó a cabo con los datos obtenidos a partir de fuentes primarias y secundarias; la primera viene definida por la investigación de campo, a través de las visitas realizadas al Municipio Carirubana del Estado Falcón. La segunda, relacionada con la investigación documental, por medio de la revisión de las diversas bases de datos nacionales.
Causas perinatales
52
Fuente: Coordinación Regional de Atención Médica del Estado Falcón. Nota: La cantidad se refiere al número de fallecidos por esas causas y período. Tabla II. Mortalidad del Municipio Carirubana, Estado. Falcón (período eneromarzo 2011)
En cuanto a la información analizada en el Municipio, los datos relacionados a las instituciones de salud, se adquirieron al evaluar los centros de salud públicos, privados y aquellos dirigidos por el sistema Barrio Adentro, mediante entrevistas al personal médico y de ingeniería de los centros de salud, en las cuales se verificó la situación actual de salud-enfermedad y los determinantes de salud y a través de la revisión de las bases de datos en las siguientes instituciones de salud:
Características
Mortalidad
Enfermedades del sistema circulatorio. Las tres más importantes son las siguientes:
a) Distrito Sanitario No. 2 de la Secretaria de Salud del Estado Falcón del Ministerio del Poder Popular para la Salud (MPPS) b) Área de Salud Integral Comunitaria (ASIC). Componente del Sistema Barrio Adentro de la delegación Cubana de Salud. c) Establecimientos de salud privados. Lista suministrada por el Distrito Sanitario No. 2 de la Secretaria de Salud de Falcón del MPPS. Cabe destacar que se obvió el análisis de algunos resultados considerados de gran aporte a la presente investigación debido a que la información base estaba inconclusa. Por ejemplo, la población total en el municipio Carirubana para el 2011 no se localizó, situación que imposibilitó el cálculo de las tasas específicas de mortalidad.
Enfermedad cerebrovascular
12
Enfermedades isquémicas del corazón
08
Enfermedad hipertensiva
06
Tumores y neoplasias (especialmente cáncer de próstata y pulmón)
22
Neumonías
10
Diabetes
09
Suicidios-homicidios
07
Sepsis
05
Fuente: Distrito Sanitario No. 2 de la Secretaría de Salud del Estado Falcón del MPPS. Nota: La cantidad se refiere al número de fallecidos por esas causas y el período es de enero-marzo 2011.
En cuanto a la influencia que va a tener la construcción de la planta de gas en el Municipio, se entrevistaron especialistas en el área del gas.
Determinantes de Salud en el Municipio Carirubana
RESULTADOS Condiciones Epidemiológicas del Municipio Carirubana
Tabla III. Acceso a servicios básicos en áreas rurales y urbanas, Municipio Carirubana (año 2006)
Las primeras causas de mortalidad del Municipio Carirubana son las siguientes:
Área Urbana
Mortalidad
Enfermedades cardiovasculares
252
Hechos violentos
96
Accidentes de todo tipo
59
Área Rural
%
% Población con % Población Agua por con Agua por Tubería 97,12 Tubería 69,45
Tabla I. Mortalidad del Municipio Carirubana, Estado Falcón (año 2006) Características
%
% de Población % de Población con electricidad 96,77 con electricidad 72,32 Fuente: Coordinación Regional de Atención Médica del Estado Falcón
167
INGENIERÍA CLÍNICA
Tabla IV. Recursos humanos en el sector salud x 1000 habitantes, Municipio Carirubana (año 2006)
Consulta Externa
81
Consultorios Populares
51
Recursos
Emergencia
18
Médicos
Enfermeras
Odontólogos
Hospitalización
6
0,42
3,22
0,13
Centro Obstétrico
5
Fuente: Coordinación Regional de Atención Médica del Estado Falcón
CRI (Centros de Rehabilitación Integral) 3
Entre las características que influyen en las condiciones de salud del Municipio Carirubana para el año 2011 se tiene las siguientes:
CDI Centros Integral)
de
Diagnóstico 3
Laboratorio Clínico
2
Diagnóstico por Imágenes
2
Centro Quirúrgico
2
Banco de Sangre
2
-Pobre educación sanitaria -Disposición de los residuos sólidos (basura) y líquidos -Contaminación ambiental: las refinerías no controla las emisiones que producen y afectan a la colectividad
Fuente: Coordinación Regional de Atención Médica del Estado Falcón
-Servicio de agua discontinuo A su vez, para el año 2011 la información referente a la infraestructura en salud fue suministrada por la Secretaría de Salud del Estado Falcón y corroborada en breves visitas por los investigadores, ésta se presenta de manera específica a continuación: El sistema de salud se clasifica en tres subsistemas: El Sector Público, el Privado y Barrio Adentro.
Fuente: Entrevistas al personal médico de la zona Durante el movimiento de las 70 hectáreas de terreno, en la etapa de construcción de dicha planta, se alcanza un grado importante de contaminación. Esta situación se presenta principalmente por el polvo que resulta de dicha acción, el cual afecta la salud de las personas ubicadas en los sectores cercanos, provocando el aumento de las enfermedades respiratorias e infecciosas. Éstas últimas se deben principalmente al agua ingerida, la cual no está protegida en recipientes adecuados y son vulnerables al polvo ocasionado por el movimiento de tierra. Durante la operación de la planta de gas se cumplirá con las “Normas sobre calidad del aire y control de la contaminación atmosférica (Decreto 638)”, garantizando la no contaminación del medio ambiente [5]. Infraestructura Carirubana
en
salud
del
a-Sector Público: se cuenta con 5 hospitales: dos tipo I (con 15 y 25 camas hospitalarias); dos tipo II (con 60 camas) y uno tipo III (con 219 camas). En la red primaria se cuenta con 24 ambulatorios, se clasifican de la siguiente manera: 12 ambulatorios urbanos, 12 rurales. b- Sector Privado: se cuenta con un total de 127 establecimientos privados clasificados como sigue: 50 Consultorios médicos, 54 Consultorios odontológicos, 54 Clínicas sin hospitalización, 6 Clínicas con hospitalización, dos Unidades de cirugía ambulatoria, dos servicios de anatomía patológica, dos servicios médicos prehospitalarios y una unidad de hemodiálisis. Entre las clínicas privadas se menciona la más importante La Familia (con 81 camas hospitalarias).
Municipio
Para el año 2006 el Municipio contaba con las siguientes características en infraestructura sanitaria:
c-Barrio Adentro: está conformado por cinco Áreas de Salud Integral Comunitaria (ASIC), que a su vez están organizados de la siguiente manera: a) Centro de Diagnóstico Integral (CDI); b) Sala de Rehabilitación Integral (SRI); c) Servicios de Odontología; d) Óptica; y e) Consultorios médicos populares. La información fue suministrada por el Jefe Médico de la delegación
Tabla V. Infraestructura en salud del Municipio Carirubana (año 2006) Infraestructura en salud
Nº
Medicina Integral
81
168
Memorias_BIOVEN_2012
Por último, se analizó el sistema Barrio Adentro, en éste resulta relevante recalcar que no existe una gestión tecnológica dentro de dicho sistema, partiendo de allí, el mantenimiento preventivo no se realiza. En cuanto al mantenimiento correctivo, éste si se lleva a cabo, aunque con algunas dificultades como lo es el tiempo de espera por la reparación, el cual es de aproximadamente 15 (quince) días.
cubana. En cuanto a la ingeniería clínica, se constató la precaria situación de ingeniería de los hospitales venezolanos, se constató en forma generalizada, la inexistencia de información tal como: • Inventario actualizado • Condición actual de operación de los equipos. • Lista de equipos dañados y actualmente en reparación • Historia de vida de los equipos • Los manuales de operación y mantenimiento • Evaluación de la pericia del personal técnico • Procedimiento de selección del personal • Programas de adiestramiento • Procedimientos de selección y contratación de empresas de servicios • Indicadores de gestión de mantenimiento existentes. • Planos de la edificación (arquitectura, electricidad, servicios, topográficos, de detalles, y los correspondientes a las modificaciones que ha sufrido la edificación y los sistemas en el tiempo).
CONCLUSIONES La mortalidad del Municipio Carirubana es característica de un área con un menor ingreso. Los determinantes fundamentales para que exista ese cuadro de mortalidad es la pobreza y la contaminación que generan las plantas de refinación petrolera del sector. Durante la construcción de la planta de gas, al ser removida unas 70 hectáreas de terreno, pueden aumentar las patologías infecciosas, y respiratorias. Durante su operación no se determina influencia en la mortalidad del sector. La infraestructura en salud del Municipio Carirubana aparentemente es suficiente, sin embargo, no hay una conjunción entre los diversos sub sistemas de salud. Esta situación diluye el esfuerzo del sistema de salud, al no poder ser efectivo y eficiente. Esta situación se observa igualmente en la gestión de las tecnologías, especialmente en el mantenimiento de las instalaciones eléctricas y del aire acondicionado.
Como aspecto externo al área de la gestión de ingeniería clínica, lo que más afecta el buen desempeño de las instituciones, es la variación constante del voltaje, originando daños en los aires acondicionados y equipos electrónicos que en su mayoría son médicos (los daños no están cuantificados). La zona sufre un 30% de déficit en la potencia eléctrica requerida. Por otra parte, hay cuatro sistemas que aun cuando fueron instalados originalmente en los hospitales, en la actualidad no están operativos, como son los sistemas de protección contra descarga eléctrica, el de llamada de enfermeras, señalización, alarmas y altoparlante.
REFERENCIAS [1] Londoño J., Frenk L. (1997), Pluralismo Estructurado: Hacia un Modelo Innovador para la Reforma de los Sistemas de Salud en América Latina, Banco Interamericano de Desarrollo. Documentos de Trabajo N° 353. [2]González M. (1997), Evaluación del Sistema Intergubernamental de salud de Venezuela (19901996). Una aproximación inicial, Caracas, Venezuela (Informe de Consultoría).
Se pudo constatar que al dañarse los equipos centrales (tipo chiller), comenzaron a instalarse equipos de ventanas, que congestionaron el sistema eléctrico y no cumplían con la ambientación de las áreas críticas del hospital. Esta situación determina que los hospitales no están ni cualitativa ni cuantitativamente aptos para recibir nuevas tecnologías médicas. En cuanto al sistema privado, se observa que una gran parte de las funciones que son ejecutadas por la gerencia de mantenimiento dentro de la Clínica la Familia C.A, ubicada en el Municipio Carirubana se realizan sin ninguna planificación previa, debido a que simplemente responden a las demandas exigidas por el personal de las institución, al momento de presentarse una falla en alguno de los equipos o sistemas en el centro de salud.
[3] Mijares R., Lara L., RINCÓN E. (2002). Evaluación del Desempeño de las funciones Esenciales de Salud Pública: Caso Venezuela. I Congreso Venezolano de Bioingeniería. Coro. Venezuela. [4] “Informe de Salud del Estado” .Distrito Sanitario No. 2 de la Secretaría de Salud del Estado Falcón del Ministerio del Poder Popular para la Salud 2011. [5] Normas sobre calidad del aire y control de la contaminación atmosférica. Venezuela, Decreto N° 638, Gaceta Oficial Nº 4.899, abril de 1995.
169
INGENIERÍA CLÍNICA
PROPUESTA DE PROCEDIMIENTO PARA LA MEJORA DE LA EFICACIA DE LA GESTIÓN EN EL DIRECCIONAMIENTO DE MANTENIMIENTOS A REALIZAR POR EMPRESAS PROVEEDORAS Y LA SECCIÓN DE ELECTROMEDICINA DEL CENTRO MÉDICO MARACAY C.A. E. Quintero1 1
Departamento de Postgrado, Universidad Politécnica Territorial de Aragua “Federico Brito Figueroa”. Aragua, Venezuela. e-mail: elkysmq@gmail.com
RESUMEN Ser eficiente no siempre es sinónimo de eficacia, es una de las conclusiones de esta investigación de diseño no experimental, tipo, de campo, de nivel descriptivo, donde su objeto es la mejora de la eficacia de la sección de electromedicina del Centro Médico Maracay C.A, a través del diseño de un procedimiento que le permitirá al especialista efectuar de manera eficaz la toma de decisiones de reparaciones a realizar internamente y por proveedores, incrementando la velocidad de respuesta, mejorando el direccionamiento, disminuyendo las pérdidas ocasionadas por los tiempos de paradas, incrementando la producción y el ahorro por reparaciones. Para ello se determinó la eficacia en el direccionamiento de los mantenimientos, donde se evidencia que el 45% de los retrasos en las reparaciones se deben a los elevados tiempos logísticos, produciendo un incremento del costo por tiempo de parada, afectando no solo la disponibilidad sino la mantenibilidad de los equipos. Palabras Claves: Eficacia, Direccionamiento, Ahorro, Mantenibilidad.
especializada muy costosa encareciendo de esta forma los costos, por mantenimiento.
INTRODUCCIÓN El mantenimiento es una rama de la conservación, la cual permite preservar la vida útil de un equipo, maquina, instalación [1], en otras palabras el mantenimiento tiene la finalidad de garantizar, a través de medios propios o externos, el funcionamiento permanente y seguro de las instalaciones, equipos y sistemas. El mantenimiento es la actividad humana que garantiza la existencia de un servicio dentro de una calidad esperada [2]. Un buen mantenimiento no consiste en realizar el trabajo equivocado en la forma más eficiente [3], es decir con bajo empleo de recursos, es allí donde el mantenimiento deberá ser más que eficiente, eficaz.
En efecto, ante esta situación los centros clínicos y hospitalarios se vieron en la necesidad de incluir en su organigrama una sección de electromedicina, siendo un ejemplo de ello, el Centro Médico Maracay C.A (CMM), ubicado en el Estado Aragua. La necesidad de estudiar acerca de la sección surge, debido a que en la actualidad es indispensable para el cumplimiento de los diferentes mantenimientos, el control de los equipos y fallas; pero aun no se ha demostrado que su permanencia en la institución sea rentable, debido a que el numero de fallas solventadas en ocasiones es depreciable en relación a los equipos que deben ser reparados de acuerdo a su prioridad, una de las causas de este efecto es por el proceso logístico de la empresa, carencia de personal calificado, y herramientas especializadas, incrementando el tiempo de paradas. Es entonces donde la decisión de los especialistas en electromedicina deberá ser la correcta para mejorar la eficacia de la gestión, en relación al direccionamiento; es decir si el mantenimiento será realizado internamente o por una empresa proveedora. Por tanto, para este trabajo de investigación se plantean los siguientes objetivos; 1) Diagnosticar la situación actual de la sección en relación al mantenimiento de los equipos dentro y fuera de
En el sector hospitalario el mantenimiento resulta de gran importancia, ya que se encuentra centrado en el buen funcionamiento de los equipos, ambientes o sistemas de manera que continúen produciendo y brindando servicios de forma continua [4], donde los niveles de confiabilidad, fiabilidad, disponibilidad y mantenibilidad sean los adecuados. En este sector el mantenimiento de los equipos médicos es realizado por especialistas en la electromedicina, siendo su misión velar por el buen funcionamiento de estos, donde los equipos médicos son considerados, de alta tecnología; por su alto desarrollo tecnológico, debido a que requieren una mano de obra
170
Memorias_BIOVEN_2012
contratación, 2) Determinar los costos por mantenimiento generados por la sección y por empresas contratistas, 3) Determinar la eficacia de la sección de electromedicina en el direccionamiento de mantenimientos. 4) Diseñar propuesta de procedimiento para la mejora de la eficacia de la gestión en el direccionamiento de mantenimientos a realizar por empresas proveedoras y la sección de electromedicina del CMM.
Tabla I. Propuesta de procedimiento. Elaborado. E, Quintero (2012)
La investigación cuenta con un diseño no experimental, de tipo de campo, apoyada en una investigación documental. El nivel de esta investigación es descriptivo; de modalidad factible, donde la población en estudio en relación a los costos de mantenimientos preventivos y correctivos realizados por empresas proveedoras y la sección (costes internos) se encuentra representada por los datos correspondientes al año 2011 (enero- septiembre). Para la recolección de datos en esta investigación la técnica seleccionada fue la observación, Como segunda técnica fue aplicada la encuesta, que permitió determinar la eficacia de la sección en relación al número de fallas reportas y solventadas en los servicios, permitiendo conocer las repeticiones de las fallas su severidad y evaluar la calidad del servicio interno y por empresas proveedoras.
Servicio
METODOLOGÍA
Dto. o servicio Supervisor Reportado por
Fecha Turno Medio de reporte
Equipo
Procedimiento para la mejora de la eficacia de la gestión en el direccionamiento de mantenimientos a realizar por empresas proveedoras y la sección de electromedicina del Centro Médico Maracay C.A
Equipo Marca Serial Clase: Tipo Fecha de recepción
Modelo Código Nº de reporte Fecha de revisión
Inspección
Falla reportada;
Diagnostico de falla
Descripción de la actividad a) Diagnostico b) Calibración
El factor determinante en toda gestión es el tiempo, costo y la calidad. La determinación de la gestión en el direccionamiento (reparaciones internas o externas) de dicha sección se vio rebelada el alto porcentaje de inoperatividad lo cual afecta la disponibilidad los de equipos en las diversas áreas, y donde el proceso de direccionamiento (toma de decisiones), tuvo un alto porcentaje de inconformidad, calificado como no efectivo, por ende la sección de electromedicina resulta ser eficiente mas no eficaz. Por tal motivo, se diseña una propuesta de procedimiento para la mejora de la eficacia de la gestión en el direccionamiento. Donde los objetivos de dicha propuesta son; Diseñar propuesta, elaborar el instructivo y por ultimo evaluar el diseño propuesto a través de la producción y el ahorro de las reparaciones, por la capacitación del personal en relación al análisis de fallas, cálculo de (TMEF), disponibilidad, y prioridad.
c) Mantenimiento preventivo e) Limpieza y lubricación
d) Mantenimiento correctivo f) Recambio de piezas programado
Direccionamiento “asignación de rango por criterios"
Descripción
Instrucciones para la aplicación del procedimiento 1. Este instrumento es de uso interno de la sección de electromedicina. 2. Debe ser llenado por el especialista en electromedicina. 3. El personal de electromedicina deberá contar con el siguiente perfil. • Llevar indicadores de costo/ beneficio • Análisis de fallas
171
Función del equipo Equipos de apoyo a la vida Equipos e instrumentos para la cirugía y los cuidados intensivos Equipos para el tratamiento y la fisioterapia
Rango numérico E 9 9 8
Otros equipos para el monitoreo de variables fisiológicas y el diagnóstico Análisis de laboratorio Accesorios del laboratorio Computadoras y equipos asociados Otros equipos relacionados con el paciente
6
5 4 3 2
Aplicación clínica Puede producir la muerte al paciente Puede producir daño al paciente u operador
A 5 4
Terapia inapropiada o falso diagnóstico Riesgo mínimo
3 2
INGENIERÍA CLÍNICA
e) Direccionamiento; La tabla de direccionamiento se encuentra basada en las políticas de atención de fallas (alto, medio, bajo), cálculo de la prioridad. [5]
Continuación Tabla I. Sin riesgo significante Requerimientos de mantenimiento Extensivo Promedio Mínimo Condición del equipo Equipo asegurado Presenta equipo de sustitución Bajo contrato de mantenimiento Historia de fallas
1 M 5 3 1 C -1 -2 -2 F
El cálculo de prioridad viene dado por la siguiente ecuación. Pi = E + A + M
Donde: E= Función del equipo A= aplicación clínica M= Requerimientos de mantenimiento
1 por cada correctivo
Adicionar un punto por cada correctivo en el último año
Las políticas de atención de fallas (alto, medio, bajo) se encuentran implícita en la aplicación clínica (A). f) Calculo del resumen; La fórmula que esté presenta es la siguiente; donde se aplica el cálculo de prioridad con condiciones adicionales.
Aceptación
Pi=( E+A+M+F)=-C Resumen E A M C F Total
Jefe del Dto.
Supervisor del área
Fecha
(1)
Pi= E+A+M+F-C (2) Donde: F= Historia de fallas C= Condiciones del equipo La evaluación de condición del equipo (C), es una categoría que disminuye la prioridad por las siguientes razones;
Firma del Esp. Tec
• Existencia de equipo circulante o sustituto. • Equipo bajo contrato de mantenimiento. • Equipo asegurado. • Para el campo de historia de falla (F), se deberá tener a la mano la bitácora del equipo, por cada correctivo aplicado en el último año se adiciona un (1) punto.
Observaciones
• Cálculo y análisis de (TMEF) • Cálculo y análisis de Disponibilidad y mantenibilidad. • Cálculo y análisis de prioridad.
Todo equipo con un ranking de; a) 11 o más alto será direccionado para el proveedor debido a que son de alta prioridad. b) Entre 10 y 3 reparaciones internas. c) Menor de 6 mediana prioridad. d) Menor de 3 baja prioridad.
4. Este procedimiento será aplicado solo aquellos equipos que la falla no pueda ser solventada en el área de funcionamiento y que su parada implique más de 5 horas.
RESULTADOS
a) Datos del servicio. b) Datos del equipo; Clase y Tipo (Razón de Riesgo). [3]. Protección contra Riesgos de Descarga Eléctrica; Según el grado de protección contra descargas eléctricas. c) Datos de Inspección. • Falla reportada; • Diagnostico de falla; d) Descripción de la Actividad.
El 90% de las fallas reportadas fueron solventadas, el 60% de estas fueron por causa de manejo y uso por parte del operador, donde el 52% de los mantenimientos aplicados fue de tipo correctivo, y el ahorro producido por esta sección fue del 97%. Se le pregunto a los encuestados, si conocían la existencia de equipos inoperativos, donde el 85% de los encuestados afirmó conocer equipos en estado de inoperatividad, donde
172
Memorias_BIOVEN_2012
Agradezco a mi familia por siempre hacerme sentir en casa a pesar de la distancia Agradezco a todos los que me apoyaron en este proyecto, en especial a ti amor. Gracias por creer en mí. REFERENCIAS
mas del 80% coincidieron que conocen equipos con mas de tres (3) meses de inoperatividad; aunque ellos conocen que el 80% de los retrasos de las reparaciones asignadas a la sección de electromedicina se deben al bajo nivel de repuestos y a los procesos logísticos. Sin embargo el 65% de los encuestados afirman que solo, algunas veces o nunca los equipos son clasificados por prioridad para su reparación, por otro lado el 40% afirma que el direccionamiento empleado actualmente no es el mas efectivo. La sección de electromedicina tiene un total de 622 equipos en inventario donde solo un 12% de estos se encuentran bajo contrato de mantenimiento, el 59% de los equipos se encuentran bajo otras condiciones (leasing, comodato, garantía), y el 29% se encuentra bajo póliza de seguro. Lo cual indica que el 58% de los equipos se encuentran bajo la responsabilidad de la sección de electromedicina, en cuanto a mantenimiento preventivo y correctivo se refiere. Se evidencia que esta sección adscrita al departamento de mantenimiento es eficiente.
[1] Villanueva, E. (2000). La productividad en el mantenimiento industrial, Nº 2 del 2000, Continental. S.A DE C.V. [2] Knezevic, J. (1996) Publicaciones de ingeniería de Sistemas Mantenimiento, Vol 10, Isdefe. [3] Prando, R. (1996) Manual gestión de mantenimiento a la medida. Nº 1 de 1996, Piedra Santa S.A de C.A, http://www.science.oas.org/oea [Consulta 2011, septiembre 20]. [4] Martínez, W. (2009). Gerencia Del Mantenimiento En Hospitales, Atlantic International University Honolulu, Hawai Septiembre (2009). http://www.scribd.com [Consulta 2011, Noviembre 26]. [5] Rodríguez, E. Miguel, A. Sanchez, M. (2001) Gestión para mantenimiento de equipos médicos. Memorias II Congreso Latinoamericano de Ingeniería Biomédica, Habana 2001, pp 3-4 http:// www.hab2001.sld.cu/rrepdf/00187.pdf [Consulta 2011, Noviembre 23].
CONCLUSIONES El proceso de toma de decisiones en relación a los mantenimientos a ser realizados por la sección de electromedicina y proveedores no es el más adecuado, en cuanto a tiempo se refiere, ya que existe un alto nivel de retraso en las reparaciones y tiempos logístico, incrementando el costo por tiempo de parada, afectando no solo la disponibilidad sino la mantenibilidad de los equipos. El diseño propuesto le permitirá al especialista en electromedicina realizar de forma eficaz el direccionamiento de las reparaciones, es decir si la reparación puede ser realizada internamente o por terceros, incrementando la velocidad de respuesta en la toma de decisiones, (reducción de los tiempos de diagnóstico y evaluación), mejorando el direccionamiento (clasificación por prioridad los equipos a reparar), disminuyendo las perdidas (dinero) ocasionadas por los tiempos de paradas, generando un incremento en la producción, y por consiguiente un aumento en el ahorro por reparaciones, lo cual genera para la empresa un gran aporte financiero, y un aporte educativo debido a que los especialista en electromedicina deberán estar capacitados para el manejo, uso y reparación de los equipos, deberán conocer sobre mantenimiento y manejar indicadores de gestión, la innovación de este estudio se ve reflejada en el aporte a la mantenibilidad del sector clínico- hospitalario a través de la conservación de los equipos médicos. Agradecimiento Agradezco a Dios y a mi virgen Morena por iluminar mi camino.
173
INGENIERÍA CLÍNICA
REHABILITACIÓN OPERATIVA DE UN SISTEMA MÓVIL DE ARCO EN C PARA FLUOROSCOPÍA Ricardo Villegas, Ángel Villegas Centro de Procesamiento de Imágenes, Facultad de Ingeniería, Universidad de Carabobo, Venezuela e-mail: ravillegas@uc.edu.ve
RESUMEN Este artículo presenta la rehabilitación de un equipo portátil para fluoroscopia, el cual se encontraba inoperante por avería de la unidad de memoria de video. Se propuso una solución que incluyó el reemplazo del modulo de memoria de video por un PC con tarjeta para captura de video y disco duro de mayor capacidad, la bifurcación de la señal de video hacia dos monitores mediante un módulo de expansión gráfica, el diseño e implementación de una tarjeta controladora para activar la adquisición de las imágenes con el pulsador o los pedales del equipo, y el desarrollo de un programa de interfaz con el usuario para capturar, procesar y almacenar las imágenes. La solución planteada posibilitó recuperar la operatividad del equipo y mantener la funcionalidad requerida de sus dispositivos de entrada/salida, ampliar su capacidad de almacenamiento, mejorar las prestaciones e interfaz del software y economizar costos por reemplazo. Palabras Clave: Ingeniería clínica, Imágenes médicas, Microcontroladores, Desarrollo de software.
de imagen y sistema de TV, diseñado para adquisición de imágenes por fluoroscopia y radiografía en salas de emergencia y quirófanos [2]. El equipo posee una base móvil donde residen el panel de control y el arco en C, la unidad de generación de rayos X, el colimador, el intensificador de imágenes y el sistema de TV, así como también los pedales y el pulsador manual que permiten activar la adquisición de imágenes. El otro componente del sistema es un carro móvil que aloja la memoria digital de video Scopofix con su respectiva unidad de control, y dos monitores de 20” donde se despliegan las imágenes. El Scopofix controla el enrutamiento de la señal de video compuesto proveniente del sistema de TV hacia la memoria de video y los monitores, permitiendo almacenar en forma temporal uno o dos cuadros de video en su memoria RAM de 16 Kbytes, o de 28 a 34 cuadros en forma permanente en un disco duro Winchester de 30 Mbytes de capacidad. La figura 1 muestra un esquema de ambos componentes del sistema original.
INTRODUCCIÓN Las características de diseño y funcionamiento de los equipos de adquisición de imágenes médicas plantean la necesidad de seguir normativas elaboradas para garantizar el uso adecuado de los aparatos mediante políticas y planes de revisión y mantenimiento [1]. Sin embargo, los equipos biomédicos están sometidos a un proceso normal de desgaste por uso, mientras que algunos de sus componentes son susceptibles de sufrir averías, por lo que es común que en los centros de salud se encuentren dispositivos parcial o totalmente inoperantes por daños u obsolescencia. Si bien algunos equipos que se encuentran en estas condiciones podrían ser reparados, en muchos casos son desechados o desincorporados, implicando costos adicionales que podrían ahorrarse si los equipos son rehabilitados en vez de ser reemplazados por otros. En consecuencia, la actualización o rehabilitación de estos dispositivos se han convertido en soluciones alternativas viables para evitar la pérdida operativa de los mismos, así como para minimizar los costos de inversión en mantenimiento y adquisición de equipos nuevos. Con esta motivación, este artículo presenta el caso de estudio para la rehabilitación de un arco en C para fluoroscopia, como un aporte en el escenario de recuperación operativa de equipos de imagenología médica. METODOLOGÍA Descripción del sistema El dispositivo de estudio es un sistema móvil de rayos X Philips BV25 familia N/HR con arco en C, intensificador
Figura 1. Esquema de componentes del sistema BV-25. (Izq.) Base móvil con arco en C, (Der.) Carro móvil
174
Memorias_BIOVEN_2012
El equipo tiene la capacidad de adquirir imágenes fluoroscópicas bajo tres modalidades diferentes: modo continuo, modo de pulsos y disparo simple. En todas ellas, la adquisición se inicia y controla mediante los pedales o el pulsador manual y las imágenes se muestran en el monitor izquierdo. El monitor derecho se utiliza para desplegar imágenes que han sido previamente almacenadas en disco o para intercambiar la última imagen capturada en memoria de video con una imagen de referencia. El sistema descrito quedó inoperante como consecuencia de daños en el disco duro de la unidad de memoria de video, imposibilitando al Scopofix de realizar el enrutamiento de la señal de video hacia los monitores en sincronía con las señales de activación provenientes de los pedales y pulsador, e impidiendo el almacenamiento de las imágenes en forma permanente. Debido a que la tecnología de dicho disco duro es obsoleta, fue imposible conseguir un disco de reemplazo, forzando no solo la inhabilitación del Scopofix, sino también la desincorporación del arco en C.
El direccionamiento de la señal de televisión hacia los monitores, se resolvió equipando el computador con una tarjeta para captura de video Hauppauge WinTV-Express 44981 y un módulo de expansión gráfico Matrox DualHead2Go Digital Edition, capaz de proporcionar una resolución máxima de despliegue de 1920x1200 por cada monitor. Según se muestra en el diagrama de conexión de la figura 3, la señal analógica de video compuesto proveniente del sistema XTV5 es recibida por la tarjeta de captura mediante un conector RCA y canalizada hacia la memoria del computador. Esta señal de video, en conjunto con la salida generada por el software, es enviada posteriormente a una tarjeta gráfica con bus de conexión PCI e ingresa a través de un conector VGA al módulo de expansión gráfica, el cual realiza la separación final de la señal hacia ambos monitores a través de un par de salidas DVI.
Solución planteada La solución planteada (figura 2) es un sistema cuyo componente de hardware incluye un PC con tarjeta para captura de video, un módulo de expansión gráfica y una tarjeta controladora para las señales de activación del fluoroscopio, mientras que el componente de software está relacionado con el programa necesario para capturar, procesar y almacenar las imágenes adquiridas. Figura 3. Conexión de los componentes de video Subsistema de sincronización de señales El sistema Scopofix consta de tres tarjetas electrónicas: que cumplen funciones específicas: WHA1 direcciona las señales de video, WHA2 solicita la activación del generador de rayos X y trabaja como controlador de las otras tarjetas que integran al sistema, y WHA3 maneja todos los aspectos relacionados con el almacenamiento de las imágenes. Al activar el pulsador o el pedal se genera en la base móvil la señal CMXRST utilizada para activar el generador de rayos X y producir las imágenes de video. Esta señal es recibida por la tarjeta WHA2 y re-enviada con el nombre RECCM hacia la tarjeta de adaptación de memoria WHA3. El estado de esta señal fue utilizado como indicador de la presencia/ausencia de video en la unidad de fluoroscopia. Para la captura de la señal RECCM se construyó una pequeña tarjeta de sincronización (figura 4) basada en un microcontrolador PIC18F2550, el cual contiene una interfaz de comunicación directa por puerto USB compatible con las especificaciones de velocidad baja y completa (USB 1.1) [3], posibilitando la comunicación ente el computador y el microcontrolador sin requerir ningún hardware adicional. La tarjeta se conectó directamente al equipo, sustituyendo el cableado de unión entre las placas
Figura 2. Esquema de la solución híbrida Hw+Sw planteada para la rehabilitación del fluoroscopio La unidad Scopofix fue sustituida por un computador convencional con procesador Pentium, cuyas prestaciones básicas fueron modificadas con la incorporación de dispositivos adicionales para proporcionar y mejorar la funcionalidad ofrecida por el Scopofix. Así mismo, la avería de la unidad de almacenamiento se solventó mediante el reemplazo del disco duro original por un disco duro SATA de 80 Gbytes. Este cambio fue obligatorio motivado a que el disco dañado estaba obsoleto y por lo tanto, no era compatible con la tecnología actual ni se encontraba disponible en el mercado.
175
INGENIERÍA CLÍNICA
WHA2 y WHA3, permitiendo monitorear constantemente los cambios de estado de la señal RECCM y enviar rápidamente esa información al computador mediante el mecanismo de interrupciones del microcontrolador, garantizando así un tiempo conocido y predecible de respuesta. Adicionalmente, la transferencia de datos en el bus USB se realizó mediante transacciones de tipo interrupción utilizando un paquete de datos de 2 bytes con las cuales se consigue la transferencia de pequeños bloques de información con el menor retardo posible [4].
operaciones deshacer/rehacer de nivel simple, diseño visual claro y balanceado de los componentes de interfaz gráfica y estructura organizativa asociada al manejo de estudios imagenológicos [5]. El software fue desarrollado en un esquema iterativo a partir de secuencias de interacción y prototipos, utilizando el lenguaje C#, la API DirectShow y bibliotecas adicionales para implementar la interfaz gráfica y el manejo de comunicación mediante puerto USB, según la arquitectura mostrada en la figura 5.
Figura 5. Arquitectura de componentes de Fluoroview Figura 4. Diagrama electrónico de la tarjeta de sincronización del generador de video
Las acciones de usuario se relacionan con eventos invocados para aplicar procesamiento digital simple a las imágenes o para administrar el almacenamiento organizado de las imágenes en disco, para su posterior visualización y análisis.
La tarjeta de sincronización no requiere de controladores adicionales para su conexión, debido a que fue implementada bajo los parámetros establecidos en la especificación para dispositivos de interfaz humana (HID) [4]. Para facilitar su integración con el software para manejo y visualización de imágenes, se desarrolló un control en lenguaje C# encargado del manejo a bajo nivel del estado general de la tarjeta, ofreciendo al programador las propiedades, métodos y eventos necesarios para esto.
RESULTADOS La actualización del sistema se realizó en dos fases. La primera consistió en el diseño, elaboración del prototipo e implementación de la tarjeta controladora y la posterior verificación de su funcionamiento in situ con el arco en C, comprobándose que los pedales y el pulsador generaban adecuadamente las señales de activación de eventos de inicio de video y captura de imágenes en sincronización con el fluoroscopio. También se realizó en esta etapa el diseño y desarrollo del software FluoroView. La segunda fase contempló la interconexión de todos los componentes de hardware al computador, incluyendo el módulo de expansión gráfica y la tarjeta controladora, y la instalación del software, según se observa en la figura 6. Posteriormente se verificó el funcionamiento integral del sistema realizando pruebas que simularon la adquisición de imágenes fluoroscópicas en condiciones similares a un estudio imagenológico ordinario. A tales efectos, se crearon carpetas asociadas con estudios y pacientes ficticios en la unidad de almacenamiento, y se procedió a adquirir secuencias de imágenes sobre las que se aplicaron algunas operaciones de procesamiento, previamente a su almacenamiento en las carpetas respectivas. Se pudo
Software FluoroView para interfaz con el usuario La integración de la funcionalidad de los componentes de hardware y la gestión de la adquisición, almacenamiento y visualización de las imágenes, se lleva a cabo mediante el software FluoroView, cuyo diseño, basado en objetos y eventos, estuvo orientado a preservar o mejorar las prestaciones del sistema original. Este programa permite procesar las señales enviadas por la tarjeta controladora para generar eventos de captura de video, almacenar las imágenes en disco y distribuir la presentación de las mismas en los monitores, a través de una interfaz sencilla y amigable con el usuario. Las consideraciones de diseño de FluoroView se enfocaron en aspectos tales como el tiempo de aprendizaje y adaptación del usuario a la transición entre interfaces (anterior y nueva), simplicidad y facilidad de uso, posibilidad de recuperación de errores a través de
176
Memorias_BIOVEN_2012
comprobar que el sistema quedó operativo y exhibió un comportamiento funcionalmente correcto como respuesta a la interacción realizada por el usuario, produciendo además los resultados esperados en relación con la captura, procesamiento y almacenamiento de las imágenes para cada uno de los estudios simulados. La comparación entre las prestaciones originales del sistema y las ofrecidas posteriormente a su rehabilitación demostró que se logró preservar adecuadamente la funcionalidad de los dispositivos de entrada (pedal/pulsador) para iniciar y controlar el proceso de
adquisición de imágenes, garantizar el almacenamiento de las mismas y mantener la compatibilidad con el uso de dos monitores para la presentación de la información. Adicionalmente, se obtuvieron mejoras significativas en relación con la capacidad de almacenamiento y velocidad de acceso al disco duro, se agregó la posibilidad de utilizar monitores de mejor resolución y se implementó un software con una interfaz gráfica centrada en la simplicidad y facilidad de uso por parte del usuario.
Figura 6. Fotografías de la solución implementada. (Izq.) Tarjeta controladora, (Der.) Sistema BV-25 actualizado CONCLUSIONES
AGRADECIMIENTO
Se presentó la implementación de una propuesta para la recuperación operativa de un dispositivo portátil para fluoroscopia que presentaba componentes averiados y con tecnología obsoleta. La solución planteada incorpora elementos de hardware, que sustituyen y complementan a los componentes averiados, y un nuevo software que preserva y expande la funcionalidad integral del sistema. Los beneficios aportados por la propuesta también se reflejan en el incremento de más de 2000 órdenes de magnitud en la capacidad de almacenamiento de imágenes y una aceleración significativa en el acceso a disco duro con respecto a la capacidad original del dispositivo, además de representar un ahorro sustancial en costos adicionales por adquisición de nuevos equipos. En la actualidad el sistema de fluoroscopia se encuentra completamente operativo y forma parte de la infraestructura de imagenología de un centro de salud con complejidad tecnológica básica, lo cual demuestra que la actualización y rehabilitación de equipos de imagenología médica mediante abordajes diferentes al simple reemplazo o reparación de componentes, se constituye en una alternativa viable y efectiva para los centros de salud con recursos económicos restringidos y limitaciones de acceso a la tecnología de vanguardia.
Los autores expresan sus agradecimientos al Ing. Andrés Lomelli y al personal de la clínica “Madre María” ubicada en San Carlos, Edo. Cojedes, por la colaboración brindada durante el desarrollo de este trabajo en sus instalaciones. REFERENCIAS [1] Norma COVENIN (2000): Programa de garantía de calidad, Norma venezolana: Protección contra las radiaciones Ionizantes provenientes de fuentes Externas usadas en medicina, Parte 1: Radiodiagnóstico médico y odontológico, FONDONORMA, COVENIN 218-1:2000 (1ra Rev.), Anexo B, pp. 14 – 22. [2] Philips Technical Service (1986): Service ManualSystem: Mobile Surgical X-ray System BV25 Family-N/HR, BV25 FAM-N/HR Information, Vol. 1, Philips Medical Systems. [3] Dogan I. (2008): Advanced PIC Microcontrollers Projects in C: from USB to RTOS with the PIC18F series, Newnes, Elsevier, Oxford, pp. 409-474. [4] USB Implementers’ Forum (2001): Device Class Definition for Human Interface Devices (HID), Firmware Specification, Version 1.11. [5] Foley J, van Dam A, Feiner S, Hughes J (1996): Computer Graphics Principles and Practice, 2nd Edition, Addison-Wesley, Massachusetts, Ch. 8 – 10, pp. 347 – 469.
177
INGENIERÍA CLÍNICA
DISEÑO DE UN INSTRUMENTO PARA EVALUAR EL SISTEMA DE GASES MEDICINALES EN UN HOSPITAL B. Souquett1, N. Ruiz2, C. Delgado3 1
Hospital Municipal del Junquito 2 Universidad Simón Bolívar 3 Universidad Simón Bolívar e-mail: nruiz@usb.ve
RESUMEN Los gases medicinales son los que se suministran a los pacientes con fines terapéuticos o anestésicos y el Sistema de Gases Medicinales (SGM) es el medio mediante el cual se suministran. En Venezuela, los SGM instalados en los ambulatorios y hospitales tradicionales, mayormente son de vieja data y obsoletos, estas características ameritan que deben adaptarse a los requerimientos de estándares internacionales, es por ello que en este trabajo se plantea el diseño de un instrumento de evaluación que permita evaluar su funcionamiento. La metodología incluye: Diagnóstico inicial del SGM en la Maternidad Concepción Palacios (MCP), Diagnóstico del sistema de mantenimiento de los SGM, Aplicación del instrumento y propuesta de mejoras en los SGM y Propuesta de un Sistema de Gases Medicinales adaptado a los Requerimientos de un Hospital. La investigación es un aporte para diagnosticar la situación diaria de este sistema, tomar acciones correctivas inmediatas y diseñar planes de mejora. Palabras Clave: Sistema de Gases Medicinales, instrumento de evaluación, acción correctiva y planes de mejora.
(observación y entrevista no estructurada a profesionales implicados), operacionalización de las variables, elaboración del cuestionario, validación de expertos y aplicación. Después de redactar el cuestionario, se entregó a tres (3) expertos en el área de gases medicinales y metodología en construcción de instrumentos de evaluación. Se obtuvo una opinión técnica y objetiva que permitió diagnosticar la necesidad de mejorar el sistema de gestión de mantenimiento del SGM, y con ello la utilidad de contar con un instrumento de diagnóstico y seguimiento del mismo. Se les proporcionó a los expertos: el título de la investigación, los objetivos de estudio, la operacionalización de las variables, el cuestionario elaborado y el formato de validación. Las observaciones emitidas por los expertos fueron implementadas, hasta obtener la aprobación final del instrumento definitivo para su aplicación [2]. Aplicación del instrumento y propuesta de mejoras en el SGM de un centro hospitalario. Propuesta de un Sistema de Gases Medicinales que se adapte a los Requerimientos de un Hospital.
INTRODUCCIÓN El tema a tratar en este trabajo es el análisis del Sistema de Gases Medicinales en la Maternidad Concepción Palacios, normas que rigen el diseño, implementación, control, instalación y mantenimiento del sistema de gases medicinales de un centro hospitalario. Este sistema forma parte de los equipos industriales que requieren un funcionamiento óptimo, ya que de ello depende la calidad del gas que se le suministre al paciente; esta es la razón fundamental por la que es importante la evaluación constante de su funcionamiento. En la Maternidad Concepción Palacios (MCP), el Ministerio del Poder Popular para la Salud realizó ampliaciones y remodelaciones en las áreas de hospitalización, quirófanos, salas de parto, recuperación, Unidad de Terapia Intensiva Neonatal (UTIN), pero las instalaciones del sistema de gases medicinales no se adaptaron a las necesidades. Las funciones de estos gases medicinales juegan un papel vital en la salud del paciente y un mal uso de ellos pondría en peligro su vida.
RESULTADOS METODOLOGÍA Resultados de la observación del Sistema de Gases Medicinales de la Maternidad Concepción Palacios, operatividad y funcionamiento [3]. Se determinó que por el número de camas arquitectónicas (400) es un hospital tipo IV, donde funcionan servicios como hospitalización de mujeres, terapia intensiva neonatal, hospitalización pediátrica,
El método utilizado fue el siguiente: Diagnóstico inicial del SGM en un hospital Tipo IV, Diagnóstico del sistema de mantenimiento de los SGM y diseño del Instrumento de evaluación de estos sistemas. El procedimiento empleado para el diseño del instrumento para evaluar el SGM es el siguiente [1]: revisión documental, visita de campo
178
Memorias_BIOVEN_2012
imagenología, quirófanos, salas de partos, emergencia. El sistema de gases medicinales que opera en esta maternidad está compuesto por: dos tanques criogénicos con capacidad de 45.000 L cada uno; un compresor con tanque de 80.000 L, con motor de 7 HP de doble cabezal, con funcionamiento alterno; una bomba de succión con tanque de 80000 L, con motor de 7 HP de doble cabezal, con funcionamiento alterno; una red de distribución por los diferentes servicios que requieren de este tipo de gas, con tuberías de cobre que se interconectan a la red de distribución principal; un banco de bombonas de oxígeno de 10x10, con central semiautomática; un banco de bombonas de óxido nitroso de 4x4 con central semiautomática. Estos bancos (de oxígeno y óxido nitroso) no tienen el banco de respaldo o back up, en caso de fallar los bancos existentes. Los equipos que conforman este sistema no tienen la capacidad suficiente para el consumo de gases por cada servicio (Tabla I), que depende de la cantidad de camas y de la cantidad de pacientes que requieran del gas.
Central de Gases. La central de gases funciona en condiciones normales. La acción preventiva sería realizar estas pruebas semanalmente para verificar el estado de las luces indicadoras y de que la central haga los cambios cuando ocurra algún evento. Generador de Aire Comprimido. La presión de arranque del equipo fue de 90 psig, y la especificada por el fabricante es de 105 psig, es decir 15 psig por debajo. Esto es indicativo de que el generador de aire estaba arrancando antes de alcanzar la presión requerida. La acción correctiva es revisar las válvulas de entrada y salida de aire, revisar en el tablero eléctrico del equipo los contactores, breakers, las luces indicadoras. El tiempo de alternado del equipo resultó ser de 8 min, cuando debe ser de 10 min. También debe revisarse en los motores de los cabezales, fugas de aceite, cambios de empacaduras y revisar las partes eléctricas. La calidad del aire no se pudo medir porque los secadores no funcionaban. La acción a tomar es realizar el mantenimiento correctivo del equipo y habilitar los secadores, o la sustitución del equipo. Generador de Vacío. Los resultados obtenidos son similares a los obtenidos con el generador de aire comprimido y las acciones a tomar serían las mismas, con la diferencia que en este caso no se tienen los secadores para medir la calidad del aire, ya que lo que se produce es succión. Sala de hospitalización de mujeres. Las presiones de los gases en los cajetines de válvulas midieron 50 psig, lo cual está considerado dentro del rango normal de funcionamiento. La acción preventiva es medir las presiones al menos dos (2) veces a la semana y si los resultados son de variaciones bruscas o paulatinas, realizar el mantenimiento correctivo, el cual consiste en el barrido con nitrógeno, revisión de puntos de soldadura de las tuberías ya que podría producirse fugas, y de ser necesario cambio de válvulas. En caso de ocurrir una explosión por fuga y mezcla de gases, debe preverse la evacuación de todos los pacientes del Hospital, mediante un código rojo. Las acciones correctivas específicas, son de comunicación para garantizar que cualquier emergencia se notifique inmediatamente a todas las zonas susceptibles de ser afectadas y a todo el personal que participa en el mantenimiento del SGM. Propuesta de un Sistema de Gases Medicinales] que se adapte a los Requerimientos de la Maternidad Concepción Palacios Para garantizar una confiabilidad adecuada, los sistemas de gases de gran consumo, tales como el de oxígeno, cuentan con dos fuentes de suministro: una principal, que puede ser un tanque criogénico, y otra de reserva, con cilindros de gases comprimidos. Tal es el caso de la Maternidad, en el cual la central de oxígeno cumpliría la función de reserva. Tanque Criogénico. Sólo se propone la instalación de una “toma de emergencia” que permitirá el suministro desde un vehículo tanque, en caso de ser requerido.
Tabla I. Comparación de la Capacidad versus los requerimientos del SGM en la MCP Tipo de gas Oxígeno Óxido nitroso Aire comprimido Vacío
Capacidad instalada 60 8
Requerimiento teórico 120 20
60
80
60
1280
Las válvulas de arresto que deben colocarse a nivel de techo y en cada una de las diferentes salas donde hay tomas de gases no tienen manómetros de medición de presión, y no todas las salas tienen estas llaves para cerrar la distribución en caso de fugas o mantenimiento. Diagnóstico del sistema de gestión de mantenimiento del SGM y Diseño del instrumento para el diagnóstico y seguimiento del SGM Los resultados de la aplicación del instrumento en la Maternidad Concepción Palacios indican lo siguiente: Quirófanos. En el área de quirófanos las presiones a nivel de tomas de los cuatro (4) gases están en 50 psig lo cual indica que la acción a tomar es solo preventiva ya que estas presiones están dentro del rango normal de funcionamiento. La acción preventiva es medir las presiones en las tomas y verificar el cajetín principal de válvulas al menos dos (2) veces por semana y si las variaciones de presión son bruscas, realizar el mantenimiento correctivo, mediante el barrido con nitrógeno, revisión de puntos de soldadura de las tuberías para identificar fugas, revisión y de ser necesario cambio de válvulas. Sala de maquinas:
179
INGENIERÍA CLÍNICA
secadores refrigerados. La purificación se realizaría mediante la utilización de filtros. Los secadores también cuentan con sistemas automáticos de purga, cuyo funcionamiento debe ser verificado diariamente por el operador. Cuando el secador se ha estabilizado, el indicador de punto de rocío debe estar en la zona verde (normal). El operador debe verificar esta condición diariamente. La calidad del aire se monitorea continuamente mediante un monitor de punto de rocío y otro de monóxido de carbono (CO), si el punto de rocío supera los 4 °C o el contenido de CO supera las 10 ppm (partes por millón), se activarán las respectivas señales de alarma, las cuales también se repetirán en la alarma combinada. Generador de Vacío Medicinal y de Laboratorio. Estos sistemas también se suministran en forma de un “paquete” prearmado, listo para ser conectado a la red de gases de la MCP, e incluye un tablero eléctrico de control, programador electrónico que controla el funcionamiento de las bombas de vacío y sistema de alarmas con el fin de ofrecer una solución completa al problema del vacío cumpliendo con los criterios de seguridad y confiabilidad que demanda un ambiente hospitalario moderno. El sistema estaría compuesto por dos bombas de vacío del tipo “vanos rotativos” en baño de aceite, cada bomba debe tener un sistema de filtrado del aire antes de ser expulsado a la atmósfera y deben tener capacidad para brindar por sí solas la capacidad nominal del equipo. Red de tuberías de distribución de gases. La distribución de los gases, en fase gaseosa, se debe hacer mediante una red de tuberías que deben correr desde las diferentes fuentes hasta todos los puntos de la maternidad donde se necesite disponer de forma continua de cada gas. La red debe incluir un determinado número de válvulas de zona que permita el control y la separación por zonas de las redes de distribución. Las válvulas instaladas en gabinetes, deben ser operadas por los usuarios en casos de emergencia; las que están ocultas sólo deben ser manipuladas por personal autorizado. Los gabinetes deben estar protegidos por tapas flexibles que deben ser removidas para manipular las válvulas. Las tapas sólo deben colocarse en los gabinetes si las válvulas están abiertas pero nunca si las válvulas están cerradas. Cada válvula debe contar con un indicador de presión aguas abajo, del lado de las tomas, para indicar la presión de línea del área servida. Estaciones de uso o tomas. Actualmente en la MCP, las tomas de gases existentes son maca Chemetron, pero no cumplen con los requirimientos para el óptimo funcionamiento de los equipos propuestos ya que son de las antiguas. Las tomas de gases deben permitir la conexión de los equipos a la red de tuberías para el consumo de gases y de vacío y cumplir criterios de máxima seguridad. Para la Maternidad se propone la instalación de toma selectiva, (específica para cada gas), que impiden la conexión accidental de equipos a
Central de Gases [4]. La central de gases propuesta se compone de dos baterías iguales de cilindros que se conectan a un mismo colector mediante conexiones normalizadas de alta presión. Un sistema automático de distribución permite alternar el funcionamiento de ambas baterías, asegurando el suministro ininterrumpido y regulando la presión del gas que sale de los cilindros a la requerida por el sistema. Este tipo de central garantiza el suministro permanente del gas hacia cualquier punto de la Maternidad, además de calidad y seguridad. Los sistemas de comando pueden ser automáticos, semi-automáticos o manuales. Los equipos propuestos deben ser automáticos para garantizar el funcionamiento continuo. Los cilindros de oxígeno se llenan en fábrica a una presión de 2.000 libras por pulgada cuadrada (p.s.g.) y los de óxido nitroso a una presión de 800 libras por pulgada cuadrada (p.s.g). Las centrales cuentan con reguladores de presión (5 en cada caso) para reducir la presión en dos etapas a presiones entre 48 y 55 libras por pulgada cuadrada (p.s.g.). La central de óxido nitroso tendría un módulo de calefacción para evitar que se congele la central con la evaporación del gas. El operador debe verificar que los bombillos indicadores estén encendidos y que el módulo esté ligeramente caliente al tacto. Generadores de Aire Comprimido Medicinal. Para la Maternidad se propone la instalación de sistemas de aire comprimido, diseñado para generar aire de calidad “medicinal respirable”, que cumpla con las normas NFPA [5] y satisfaga las necesidades. Estas unidades se suministran en forma de un "paquete" prearmado listo para ser conectado a la red hospitalaria e incluye un tablero eléctrico de control, programador electrónico que controla el funcionamiento de los compresores, secadores de aire y sistemas de monitoreo y alarmas. El sistema tendría dos compresores “no lubricados”, con lo cual se evita la presencia de aceite, uno de los elementos que más afecta la pureza del aire. En condiciones normales solamente funcionará uno de ellos quedando el otro como reserva, el cual entrará en operación si el compresor activo resulta incapaz de alcanzar la presión de parada en un tiempo determinado. El sistema se controlaría desde el tablero con las palancas para manipular los interruptores termomagnéticos, los selectores de modo de operación, el programador - controlador (PLC), el piloto indicador y el parlante de la alarma. Para que el sistema funcione en el modo automático, el operador colocará las palancas de los dos interruptores termomagnéticos en la posición “ON” (encendido) y los selectores en la posición “Auto” (automático). El sistema arrancará uno de los compresores hasta que se logre la máxima presión, alrededor de las 105 p.s.g.; a partir de allí el compresor no comprimirá, operando en neutro hasta que se cumpla el tiempo asignado (unos 10 minutos). De presentarse una situación anormal, se activará una señal de alarma, visible y sonora, que se repetirá en la alarma combinada. El secado del aire se produciría a través de dos
180
Memorias_BIOVEN_2012
El sistema debe ser sometido a un proceso continuo de mantenimiento para garantizar que opera de acuerdo con las especificaciones. Será preventivo en su fase inicial, con diferentes niveles de complejidad, desarrollando las diferentes actividades por el sistema durante los primeros tres años de operación. Las labores de mantenimiento del primer nivel, correspondientes a las rutinas diarias y semanales, deben ser realizadas por los operadores.
una fuente equivocada de gas. El conector tiene dos etapas de conexión a la toma, optimizando la función y haciendo fácil y sencillo su manejo. También se propone la instalación de dos tipos de tomas, compatibles con la configuración “Chemetron”, que es la más conocida en Venezuela. Las tomas para el tratamiento médico son del tipo “acción rápida” y se instalaran a una altura de 1,50 m. Las otras tomas se instalaran en techo y en los laboratorios. Sistemas de Monitoreo y Alarmas. Para la Maternidad se propone la instalación de dos tipos de alarma: la alarma local y la combinada. La primera monitorea las presiones en un área determinada y emite señales audibles y visuales cuando los niveles de presión se salen del rango normal preestablecido. En el área de Hospitalización se instalaría una alarma de dos fluidos (oxígeno y vacío medicinal) que monitoree la red de tubería aguas arriba de los gabinetes de zonificación. Si la alarma se activa, la condición anormal será aplicable a las otras áreas. Para la Unidad de Cuidados Intensivos se instalaría una alarma local para tres fluidos (oxígeno, aire medicinal y vacío medicinal) que monitoree la red de tubería aguas arriba de los gabinetes de zonificación. Para el área Quirúrgica se instalaría una alarma local para cuatros fluidos (oxígeno, óxido nitroso, aire medicinal y vacío medicinal) que monitorea la red de tubería aguas arriba de los gabinetes de zonificación. Si la alarma se activa, la condición anormal será aplicable a todos los quirófanos. Si se activa una alarma, el funcionario de turno deberá silenciar la alarma y avisar inmediatamente al Departamento de Mantenimiento informando que la señal de activó. Una vez a la semana, el funcionario encargado deberá verificar que se encienden todos los bombillitos indicadores y los segmentos de los “displays”. Si se observa el “no encendido” se debe reportar la novedad al Departamento de Mantenimiento. Seguridad y Calidad. Se propone única y exclusivamente tuberías de cobre especiales, de máxima calidad, sin costuras, totalmente limpias de grasas y de gran exactitud en su dimensionado, los cuales deben estar debidamente protegidos para evitar su deterioro físico y su contaminación. Para su instalación se debe aplicar un baño continuo de nitrógeno seco a fin de evitar la formación y acumulación de óxido de cobre durante el proceso de soldadura. El sistema debe probarse en su totalidad para garantizar que no existan fugas ni conexiones cruzadas de ningún tipo. Tanto las diferentes fuentes como los sistemas de alarma deben someterse a todas las pruebas funcionales requeridas por la normativa vigente así como las requeridas por los fabricantes. El sistema debe diseñarse y construirse siguiendo las “buenas prácticas” [08] que garantizan un sistema seguro y confiable, con un producto de la calidad adecuada para el uso en pacientes, tal como lo exige su condición de medicamentos. Resta operarlo en forma igualmente segura y mantener esas condiciones durante su vida útil. Mantenimiento del Sistema.
CONCLUSIONES Se logró el diseño de un instrumento que permite evaluar el funcionamiento del Sistema de Gases Medicinales en un centro hospitalario y su aplicación en la Maternidad Concepción Palacios (MCP), lo cual permitió diagnosticar las condiciones de operatividad del sistema y tomar las acciones necesarias para garantizar su funcionamiento bajo las condiciones de seguridad de los equipos. Esto permitirá monitorear mediante una carta de control las fallas ocurridas durante cierto período de tiempo, el área de ocurrencia y la inversión a realizar si surgiera alguna acción correctiva. A través de esta evaluación se puede verificar si la calidad y la cantidad del gas suministrado al paciente es el requerido. Al aplicar el instrumento diseñado en el hospital Maternidad Concepción Palacios, se determinaron fallas de funcionamiento en los SGM, fugas de oxigeno, caídas de presión debido a fugas, fallas de funcionamiento en compresores y bombas de vacío y las centrales de gases cuyas luces indicadoras no funcionaban. REFERENCIAS [1]Cegarra J., (2004). Metodología de la Investigación Científica y Tecnológica, Ediciones Díaz de Santos, S.A, España. [2] Algarra A. (2008) Introducción a Sistemas de Gases Medicinales. http://grupos.emagister.com/documento/sistemas_de_gases _medicinales_capitulo_1/1960-172096 Visitada el 10.06.2012 [3] Instalaciones para gases medicinales. Línea completa de equipamientos de instalaciones para gases medicinales. Obtenida desde http://www.lindehealthcare.com.ve/international/web/lg/ve/like35lglgtve.nsf /docbyalias/homepage Visitada el 10.04.2010 [4] NFPA 99, (2005), Standard for Health Care Facilities. Publicado por National Fire Protection Association. [5] Ministerio de Salud, (2004), Normas de buenas prácticas de manufactura, llenado, almacenamiento y distribución de gases medicinales, Publicado en Gaceta Oficial de la República Bolivariana de Venezuela Nº 38.070 de fecha 24 de Noviembre.
181
INSTRUMENTACIÓN BIOMÉDICA
La instrumentación biomédica se ocupa de los instrumentos empleados para obtener información o aplicar energía a un ser vivo. Adicionalmente, busca el diseño de instrumentos que puedan emular el desempeño de algunas funciones orgánicas. La instrumentación biomédica ha realizado grandes avances en años recientes gracias a la evolución en el área de componentes electrónicos. Los instrumentos biomédicos son cada vez más pequeños y precisos contribuyendo a mejorar la exactitud del diagnóstico realizado por el médico. Un instrumento biomédico debe cumplir con ciertas características básicas. La primera de ellas es la seguridad que se le debe brindar al paciente aislándolo de toda fuente de energía eléctrica. Adicionalmente, es necesario que la presencia del transductor que realiza la medida no altere la medición. También es deseable, un instrumento que sea robusto, fiable y de fácil calibración. A diferencia de la instrumentación industrial, las variables medidas del cuerpo humano o cualquier otro animal son realmente deterministas. La mayoría de las mediciones varían en el tiempo, aún cuando todos los factores controlables sean preestablecidos a un cierto valor. Más aun, las medidas varían ampliamente entre pacientes normales, aun cuando las condiciones sean similares. También es normal, que en el resultado de la medida de una variable fisiológica influyan otras señales que constituyen así una interferencia. Todos estos factores contribuyen a que el área de instrumentación biomédica sea rica en nuevos retos, abriendo continuamente espacios para introducir nuevos métodos y materiales que contribuyan al avance de la ciencia médica. En Venezuela existen grupos de investigación en el área de instrumentación biomédica. La Universidad de los Andes, la Universidad Nacional Experimental Politécnica “Antonio José de Sucre” con sede en Guayana, la Universidad Nacional Experimental “Francisco de Miranda” y la Universidad Simón Bolívar realizan grandes esfuerzos por diseñar instrumentos biomédicos con tecnología nacional, buscando disminuir la dependencia tecnológica que afronta el país es este sector. Los problemas más comunes que enfrentan estos grupos son la certificación de los equipos que diseñan y la aceptación de los mismos dentro de sus potenciales usuarios, por lo que se recurre a certificación de los equipos en países como la República de Argentina. A continuación, se presentan algunos de los trabajos que actualmente se están desarrollando en Universidades del país.
182
INSTRUMENTACIÓN BIOMÉDICA
BOBINA DE RECEPCIÓN SUPERFICIAL EN CUADRATURA DE FASES PARA IMÁGENES POR RESONANCIA MAGNÉTICA A 0.14T George E. Figueras Benítez1,Alejandro Bordelois Cayamo2 1
2
Universidad Simón Bolívar, Venezuela Centro de Biofísica Médica, Universidad de Oriente, Cuba e-mail: genrique81@yahoo.es
RESUMEN Las potencialidades de las Imágenes por Resonancia Magnética (IRM) en el estudio de muchas patologías y procesos metabólicos en el interior del cuerpo humano son incuestionables. Las bobinas de recepción volumétricas utilizadas en esta técnica tienen el inconveniente de limitarse a las regiones para las cuales han sido optimizadas. Esta peculiaridad hace necesario disponer de variados tipos de bobinas para garantizar la calidad de la imagen en todo tipo de paciente. En el presente trabajo, se realizó el diseño teórico y la implementación práctica de un arreglo superficial de bobinas en cuadratura de fases. El desempeño del arreglo propuesto demostró ventajas, en comparación con una bobina volumétrica tipo montura de caballo, para el estudio de regiones cercanas a la superficie del cuerpo humano. Las recomendaciones sugeridas garantizan la generalización y mejoría de los resultados obtenidos. Palabras Clave:IRM, bobinas de recepción, arreglos superficiales en cuadratura.
notablemente haciéndolas poco prácticas en estas circunstancias. Los arreglos de bobinas superficiales en cuadratura de fases, permiten obtener valores de RSRpara pequeñas profundidades, similares al de bobinas volumétricas. Estos arreglos pueden ser empleados para estudios en pacientes de diversas tallas y en distintas regiones del cuerpo humano dentro de su rango de penetración. En el presente Trabajo se realiza el diseño y evaluación de un prototipo de arreglo de bobinas superficiales en cuadratura de fases para el estudio de pequeñas estructuras situadas en la cercanía de la superficie del cuerpo humano en bajos campos. Inicialmente se exponen las principales herramientas y procedimientos utilizados en el diseño teórico y la implementación práctica del prototipo propuesto; se relacionan las características y procedimientos empleados para la determinación experimental de los parámetros eléctricos de las bobinas y para la evaluación cuantitativa mediante los descriptores de calidad de la imagen. Finalmente se muestran los resultados de los descriptores de calidad utilizados para la comparación del arreglo y una bobina volumétrica; además, se presentan imágenes in vivo de algunas estructuras estudiadas mediante el arreglo propuesto. La evaluación de estos descriptores de calidad de la imagen, permitió corroborar las ventajas del uso del arreglo propuesto para el estudio de estructuras poco profundas en comparación con la bobina Montura de Caballo.
INTRODUCCIÓN Las Imágenes por Resonancia Magnética (IRM) constituyen en la actualidad una técnica de vital importancia para el diagnóstico médico temprano de muchas enfermedades. Dentro de las diversas aplicaciones clínicas que tienen las IRM se encuentran: estudio del sistema cardiovascular, cerebro, columna, hígado, mamas, articulaciones, etc. [1]-[4]. La Relación Señal-Ruido (RSR) de las imágenes obtenidas mediante esta técnica es proporcional a la intensidad del campo magnético de los imanes. Es por eso que la tendencia en los últimos años ha estado dirigida a incrementar cada vez más la intensidad del campo magnético en los equipos de IRM. Desde hace algunos años se han desarrollado importantes investigaciones en aras de incrementar la mediante novedosas técnicas de adquisición, optimización del diseño de las bobinas de recepción, utilización de sistemas de recepción multicanales (Arreglos de fases) [5], etc. El último de los métodos mencionados ha tenido un auge importante, debido principalmente a la flexibilidad que permite en el diseño de variados tipos de bobinas de recepción. Los arreglos de fases que mayor homogeneidad poseen en la región de interés (ROI) son los volumétricos, éstos se utilizan en la mayoría de los equipos comerciales deIRM. El tamaño de estas bobinas se optimiza de acuerdo a la talla del paciente; por lo general, se diseñan bobinas del mismo tipo y distintos tamaños para el estudio de una misma región del cuerpo. Estas peculiaridades hacen que el uso de este tipo de bobina se limite en gran medida a la región para la cual han sido diseñadas. En caso de emplearse en otra región del cuerpo su desempeño se deteriora
METODOLOGÍA El prototipo experimental propuesto en el presente trabajo se optimizó para ser utilizado en el tomógrafo de
183
Memorias_BIOVEN_2012
IRM Giroimag03. El imĂĄn del equipo es de la firma Bruker, con las lĂneas del campo en direcciĂłn horizontal y con una intensidad de 0.14 T, la frecuencia de precesiĂłn del sistema de espines o frecuencia de Larmor es 6.018 y la longitud de onda 49.85 .
RSR
**+U,VW S â&#x2C6;&#x161;OPQ â&#x2C6;&#x2020;IRQ ST AXYZ[\]]
(3)
C. SintonĂa y optimizaciĂłn de las bobinas Para disminuir las pĂŠrdidas asociadas al acoplamiento capacitivo parĂĄsito entre la muestra y la bobina es necesario optimizar el factor de calidad de la bobina(d) mediante una configuraciĂłn simĂŠtrica que permite equilibrar los potenciales de la bobina respecto a tierra (Fig. 1)[6]. Esta disposiciĂłn consta de dos capacitores conectados en los extremos de la bobina [6], el valor de la capacidad de estos capacitores depende de la geometrĂa y dimensiones de dicha bobina.
B. Modelación de las bobinas Luego de excitar la muestra con un pulso de radio frecuencia (RF) que desplace el sistema de espines un ångulo de 90° , la magnitud de la fem inducida se obtiene según, (1)
Donde: ' frecuencia de Larmor (1! /3); â&#x2C6;&#x2020;$ volumen de *+,,-. interĂŠs; magnetizaciĂłn de equilibrio longitudinal; ) inducciĂłn magnĂŠtica de la bobina de recepciĂłn y 0+ 45 *+- 6 75 *+. 8â &#x201E;â&#x2C6;&#x161;2 es uno de los dos vectores unitarios del sistema de coordenadas rotatorias. La tensiĂłn equivalente de ruido generada en la bobina estĂĄ asociada a las fluctuaciones de la resistencia de pĂŠrdidas ( :;; ) [7], ĂŠsta se puede determinar mediante la relaciĂłn de Nyquist, V=>?@ A4kTâ&#x2C6;&#x2020;fREFF
*+, en cada Para determinar la distribuciĂłn analĂtica de ) una de las bobinas que conforman el arreglo se hizo uso de la Ley de Biot-Savart para un caso cuasi-estacionario, con una corriente uniforme unitaria. Cada bobina se descompuso en segmentos rectos segĂşn su orientaciĂłn, *+, segĂşn el obteniĂŠndose como resultado el valor total de ) principio de superposiciĂłn, mediante la suma vectorial del aporte de cada uno de los segmentos individuales. *+, en cada Adicionalmente, se obtuvo la distribuciĂłn de ) una de las bobinas de forma numĂŠrica mediante el mĂŠtodo de los elementos finitos (Software de diseĂąo electromagnĂŠtico MaxwellÂŽ3D VersiĂłn 13.0, CorporaciĂłn Ansoft, USA). A partir de esta simulaciĂłn se obtuvo la :;; de cada bobina cargada con un phantom homogĂŠneo en forma de prisma con dimensiones de 9,3 _ 13.8 _ 10.8 . La permitividad relativa de la disoluciĂłn contenida en el phantom es ` 81, su permeabilidad relativa es ab 1 y su conductividad c 0.5 / .
A. Arreglo superficial de bobinas en cuadratura de fases A partir de la propiedad de cuadratura que posee la seĂąal de resonancia magnĂŠtica, es posible detectar dicha seĂąal mediante dos bobinas en cuadraturas de fases, incrementĂĄndose asĂ la magnitud de la RSR efectiva en un factor de â&#x2C6;&#x161;2. Las bobinas en cuadratura de fases son sensibles a las variaciones del campo en las direcciones , ); adicionalmente, las bobinas superficiales contienen todos los elementos en un mismo plano. Una configuraciĂłn que cumple con los requerimientos anteriores y de amplia utilizaciĂłn, tanto para aplicaciones de IRM como de espectroscopia por resonancia magnĂŠtica, es la combinaciĂłn de una espira simple con una bobina en forma de ocho o mariposa como se le conoce comĂşnmente [6]. La dimensiĂłn de la espira simple del arreglo se determina en dependencia de la distancia hasta la cual se obtiene un valor de la inducciĂłn magnĂŠtica que garantice una RSRĂłptima (profundidad del campo)[6], En nuestro caso cada una de las bobinas se optimizĂł para una profundidad de penetraciĂłn del campo 10 ; por lo que, el ancho de la bobina mariposa es ! 10 ; mientras que, el ancho de la espira simple cuadrada es " 8 .
*+,,-. ¡ 0+ $ %& â&#x2C6;&#x161;2' â&#x2C6;&#x2020;$ )
|I J&| IKLMN
Figura 1.ConfiguraciĂłn balanceada para el acoplamiento de impedancias y sintonĂa. El acoplamiento de la impedancia de salida (e ) se realiza a travĂŠs del capacitor fO . La utilizaciĂłn del capacitor de presintonĂa (f ) permite requerir menores valores de capacidad para fO ; de modo que, la combinaciĂłn paralelo de la bobina con f resulta en una inductancia (g:h ) y una resistencia (1 ) equivalente en serie [6]. En la determinaciĂłn experimental de la inductancia y la resistencia efectiva de las bobinas se empleĂł un metro digital tipo LCR E7-12. La sintonĂa, impedancia de salida (e 50 â&#x201E;Ś) y factor de calidad de las bobinas, para la frecuencia del sistema ( 6.018 ), se ajustarĂłn mediante la Carta de Smith obtenidas en un analizador de RF Agilent Technologies Fieldfox N9912.
(2)
Donde: G constante de Boltzmann; T temperatura absoluta de la muestra y â&#x2C6;&#x2020; ancho de banda. El valor resultante de la sensibilidad de la bobina para un ancho de banda unitario se determina considerando la magnitud de la a partir de (1) y (2),
184
INSTRUMENTACIÓN BIOMÉDICA
Para incrementar la reactancia inductiva de ambas bobinas se utilizaron dos espiras; en ambos casos se garantizó que la longitud del conductor ( ) no superase la restricción de que ⁄10. Por ello no fué necesario la utilización de capacitores distribuidos para atenuar los efectos de las pérdidas por radicación. Los capacitores f y f, en las dos bobinas tienen capacidad fija y el valor de las capacidades para fO y f se obtuvo de la combinación en paralelo de un capacitor de capacidad fija y uno de precisión de capacidadvariable. Todos los capacitores de capacidad fija empleados fueron de tipo cerámicos de alto factor de calidad (Dielectric Laboratories, NY, USA) y los capacitores de capacidad variable son de alta precisión (Voltronic, USA). Se utilizó el método de desacople pasivo mediante un par de diodos cruzados en paralelo con el capacitor de presintonía de cada bobina, los diodos empleados fueron de tipo 1N4148.
D. Descriptores de calidad En el presente trabajo se hace uso del método propuesto por González [9] para la determinación de laRSR, ya que éste tiene en cuenta la no linelidad de la transformada de Fourier en la reconstrucción de las imágenes, RSR
.jkk µmno p]qrNq
(4)
Para determinar la media de la región de interés (astu ) se selecciona el 75 % de la imagen realizada a un fantomhomogéneo sin incluir los bordes, mientras que para determinar la desviación estándar del ruido (c;xyzx ) se utiliza una región de interés al fondo de la imagen en la dirección de codificación de frecuencia [9]. La no uniformidad de la imagen (NUI) se obtuvo como la razón expresada en porciento entre la desviación estándar (cstu ) y la media (astu ) de una región de interés en una imagen previamente filtrada para disminuir los efectos de la señales de altas frecuencias [9]. El rango de aceptación de este parámetro para las bobinas de cráneo se encuentra por debajo del 20 %[9]. NUI
pmno µmno
RESULTADOS A. Parámetros eléctricos de las bobinas En la Tabla I se muestran los valores de los parámetros eléctricos obtenidos mediante las simulaciones de cada una de las bobinas y los resultados de las mediciones experimentales de dichos parámetros.
100 % (5)
Todas las imágenes utilizadas para la cuantificación de los descriptores de calidad empleados fueron de tipo espíneco sopesadas en T1 y realizadas bajo las mismas condiciones experimentales (TR = 450 ms, TE = 26 ms, espesor = 10 mm, separación = 15 mm, cortes = 7,FOV = 240 mm × 240 mm, matriz = 256 × 256, acumulaciones = 2).
Tabla I. Parámetros eléctricos teóricos y experimentales de las bobinas. Bobina Espira Parámetros eléctricos Mariposa Cuadrada 2162.26 640.38 Inductancia analítica ( ) 2125.30 691.52 Inductancia numérica( ) Inductancia experimental( ) 2334610 753.2610 146.24 26.57 Resistencia numérica ( ) Resistencia experimental ( ) 216660 34620 Q del entorno resonante 60.1862 24.6662
E. Implementación práctica En la construcción de las bobinas se utilizó alambre de cobre tipo AWG 15, con radio de la sección transversal 1 1.45 y conductividad c 5.8 _ 10} / . El arreglo se dispuso sobre una lámina de policloruro de vinilo (espesor 1.6 , largo 18 y ancho 6 ) para brindarle soporte mecánico. El phantom utilizado para garantizar las condiciones de carga de las bobinas contiene una disolución de 1.95 ~ de f5 X y 3.6 ~ de !f por litro de agua.
Las diferencias entre los resultados obtenidos mediante los cálculos teóricos y las mediciones de estos parámetros están relacionadasprincipalmente con: las reactancias y resistencia introducidas por los terminales utilizados para la medición, los cuales no son considerados en las simulaciones; la idealización de la geometría en los modelos de las bobinas para la obtención de los resultados analíticos y numéricos y la interacción electromagnética entre las bobinas y el entorno resonante a la hora de la medición. B. Evaluación del arreglo En la Fig. 3 se muestran los valores de la RSR y de NUI de varias imágenes de cortes coronales realizadas al phantom homogéneo mediante el arreglo propuesto para profundidades comprendidas entre 1.5 y 10.5 a partir de la superficie de éste. Los resultados manifiestan que el arreglo diseñado posee una mayor RSR que la bobina volumétrica para los tres primeros planos. Para el caso de la NUI el arreglo solo
Figura 2. Arreglo superficial en cuadratura de fases. Todas las unidades de longitud representadas están expresadas en milímetros.
185
Memorias_BIOVEN_2012
obtuvo un mejor desempeño en comparación con la bobina volumétrica, en el primer plano. No obstante, el valor de NUI > se mantuvo dentro de los parámetros establecidos para los cuatro primeros planos ( 20 %) [10].
que componen dicho arreglo se correspondieron en gran medida con los resultados teóricos obtenidos mediante las simulaciones analítica y numérica. Por tanto, los métodos teóricos empleados pueden considerarse válidos para el proceso de diseño, construcción y puesta en marcha de este tipo de bobinas. Los resultados obtenidos a partir de los descriptores de la calidad de imagen utilizados mostraron un mejor desempeño del arreglo propuesto en comparación con la bobina montura de caballo para distancias inferiores a 6.5 desde el plano del arreglo. A mayores profundidades estos parámetros se degradan debido a que la intensidad del campo en este tipo de bobinas es inversamente proporciona a la distancia. Una manera de mejorar el desempeño requiere la utilización de un mayor número de elementos situados alrededor de la región anatómica que se estudiará. En nuestro caso el número de bobinas se limitó a dos debido a que solo se contaba con esta cantidad de canales de recepción.
a) b) Figura 3. Valores de los descriptores de calidad de las imágenes obtenidas mediante el arreglo diseñado (cuadrados) y la bobina volumétrica (asteriscos). a) .b) . C. Obtención de imágenes in vivo En la Fig. 4 se muestran algunas imágenes in vivo de diversas regiones del cuerpo humano realizadas mediante el arreglo diseñado.
a)
REFERENCIAS [1] AnumulaS.et al (2005):High-Resolution Black-Blood MRI of the carotid vessel wall using phased array coils at 1.5 T and 3 T, Acad.Radiol., 12: pp 1521-1526. [2] Gerber D.J.et al(2004): Magnetic resonance imaging of traumatic brain injury: relationship of T2 SE and T2* GE to clinical severity and outcome, BRAIN INJURY, 18:pp 1083-1097. [3] Lee V.S.et al (2000):Hepatic MR imaging with a dynamic contrast-enhanced isotropic volumetric interpolated breath-hold examination: feasibility, reproducibility, and technical quality, Radiology, 215: pp 365-372. [4] Warren R.M. et al(2000): Localization of breast lesions shown only on MRI – a review for the UK study of MRI screening for breast cancer, The British Journal of Radiology,73: pp 123-132. [5] Roemer P.B. et al (1990):The NMR phased array, Magnetic Resonance in Medicine, 16: pp 192-225. [6] Kumar A. et al(2008):Optimized quadrature surface coil designs, MAGMA, 21: pp 41-52. [7] Krauss H.L.et al (1980):Solid state radio engineering, New York: John Wiley & Sons, pp 11. [8] MispelterJ.et al(2006):NMR Probehead for biophysical and biomedical experiments. Theoretical principles & practical guidelines, London: Imperial CollegePress: pp 12-488. [9] Gonzalez-DalmauE.R. (2003): Descriptores cuantitativos de la calidad para tomógrafos por Resonancia Magnética, Trabajo especial de grado de Doctorado, Centro de Biofísica Médica, Universidad de Oriente, Santiago de Cuba, Cuba. [10] National Electrical Manufacturers Association (1989): Determination of image uniformity in diagnostics resonance images, NEMA Standard MS3-1989.
b)
c) d) Figura 4. Imágenes in vivo realizadas mediante el arreglo. a) Estudio de rodilla. b) Estudio de rodilla (Coronal).c) Estudio de codo. d) Estudio de cuello. La RSR posee un valor elevado en la zona central de todas las imágenes mostradas, lo que permite diferenciar con un gran nivel de detalles las estructuras de la región en estudio. La profundidad de penetración del campo en el arreglo hace posible el diagnóstico de diversas patologías localizadas en éstas y otras regiones similares del cuerpo humano. El uso del arreglo propuesto podría extenderse a otros tipos de regiones cuya profundidad no sea mayor de 6.50 , garantizando de esta forma que la RSR en las imágenes proporcionen un adecuado diagnóstico médico. CONCLUSIONES Se propuso un prototipo experimental de arreglo superficial en cuadratura de fases para IRM a 0.14 T. Los resultados experimentales obtenidos para la homogeneidad del campo, la resistencia y la inductancia de las bobinas
186
INSTRUMENTACIÓN BIOMÉDICA
Detección de cáncer de mama utilizando radiación cercana al infrarrojo Ana Arraiz 1, Rubén Medina2 1
Ing. Electricista, Centro de Ingeniería Biomédica y Telemedicina (CIByTEL), Mérida, Venezuela 2 Ing. Electricista, Postgrado en Ingeniería Biomédica, Mérida, Venezuela e-mail: budovalchew.ana@gmail.com
RESUMEN El cáncer de mama es la segunda causa de muerte a nivel mundial entre la población femenina. Los métodos de detección existentes suelen ser técnicas dolorosas, y si bien son económicas no son muy eficientes. La detección temprana del cáncer es la solución idónea para disminuir la tasa de mortalidad. En vista de esto, la presente investigación busca la implementación de un instrumento de bajo costo, no invasivo y lo suficientemente sensible como para detectar un tumor con un tamaño de algunos milímetros. Para su diseño se utiliza la luz cercana al infrarrojo. La caracterización de la mama se realiza mediante la simulación de la densidad de onda de fotones, en medios difusivos, tales como los tejidos biológicos y de acuerdo a una geometría infinita. En el diseño se considera la teoría de cancelación de amplitud, y técnicas de calibración a objeto de optimizar la sensibilidad de detección del instrumento. Palabras Clave: Cáncer, Densidad de onda de fotones difusos (DPDW), Prototipo, Cancelación de amplitud.
esta condición, respecto a la detección, es que cuando empiezan las lesiones cancerígenas se produce un fenómeno llamado angiogenesis, que consiste en un aumento de los vasos sanguíneos que rodean la zona tumoral y por ende suscitan un aumento en la concentración de hemoglobina, provocando una variación en la respuesta de la señal (NIR) con respecto a la señal que se espera en tejidos normales [4]. La detección de cáncer empleando la emisión de Luz NIR, se realiza utilizando varios esquemas posibles. Uno de ellos considera dos fuentes de luz de 760 nm y 850 nm separadas 4 cm y un detector de 1 cm2 equidistante entre las fuentes. La detección se realiza aplicando la teoría de cancelación de amplitud de doble interferencia. El equipo es portable [13], pero la electrónica utilizada en el diseño considera componentes discretos y anticuados. Una variante del instrumento previamente descrito considera una sola fuente rodeada de 8 detectores formando un círculo con un radio de 2 cm. La detección se realiza al efectuar un barrido de activación de los detectores en base a la teoría de cancelación de amplitud. La electrónica adolece de las mismas limitaciones. Otra aplicación que han desarrollado en [14] considera una malla cuadrada de 10 cm2 la cual contiene 4 fuentes y 21 detectores más pequeños. En este instrumento se emplea una relación empírica para la estimación del volumen sanguíneo y saturación de oxigeno para lograr la detección de cáncer. El instrumento se conecta mediante un puerto USB a una computadora personal para mostrar en la pantalla los mapas de amplitud de respuesta de difusión NIR así como de flujo sanguíneo. Dadas las ventajas de la radiación NIR reportadas en la literatura [11], se ha seleccionado el principio de la espectroscopia cercana al infrarrojo, considerando un rango
INTRODUCCIÓN En Venezuela se diagnostican de 3.500 a 3.700 nuevos casos anuales de cáncer de mama, y fallecen por esta causa entre 1.500 y 1.700 mujeres al año. Esta enfermedad representa, aproximadamente, 13% de las muertes por cáncer en mujeres. Estas estadísticas causan preocupación por su impacto en la sociedad y la familia [1]. Este panorama motiva el desarrollo de investigaciones con impacto social para la búsqueda de un método de detección temprana del cáncer de mama, con miras a aumentar las probabilidades de supervivencia de los pacientes que padecen de esta patología. Entre las herramientas tecnológicas existentes que permiten su detección están: la mamografía, el ultrasonido mamario, la resonancia magnética, la tomografía. Estas técnicas han sido validadas desde el punto de vista clínico, sin embargo, presentan desventajas comunes tales como la baja eficiencia y escaza sensibilidad. Adicionalmente pueden ser costosas y de difícil acceso. Existen otras técnicas experimentales, entre las que se pueden mencionar, las aplicaciones avanzadas de la mamografía digital, el ultrasonido, la resonancia magnética la medicina nuclear, la tomografía computarizada, técnicas de difracción, espectroscopia de Raman, escaneo por impedancia eléctrica y la termografía [2]. Otro método experimental corresponde a instrumentos basados en la difusión de luz cercana al infrarrojo (NIR) [3]. Una característica importante de la luz NIR, en la detección del cáncer es que, su espectro electromagnético es altamente sensible a la concentración de hemoglobina oxigenada y desoxigenada. El Tejido de la mama normal es un medio altamente dispersivo, mientras que la hemoglobina es un elemento absorbente de esta radiación. La importancia de
187
Memorias_BIOVEN_2012
de longitudes de onda entre 700 nm y 1000 nm pues se ha demostrado que para este rango, la radiación puede propagarse varios centímetros dentro del tejido en sujetos sanos. El presente documento reporta el trabajo parcial de un proyecto de grado de la maestría en ingeniería biomédica de la Universidad de Los Andes que tiene como objetivo diseñar un instrumento para la detección del cáncer de mamas que sea eficiente en la detección, no invasivo y de bajo costo. El trabajo desarrollado hasta el presente incluye la revisión bibliográfica, el desarrollo de las simulaciones de las ecuaciones que rigen el fenómeno, así como el desarrollo y simulación de varios esquemas circuitales para la implementación del prototipo.
de Difusión [5], a fin de encontrar una aproximación del comportamiento de los fotones en el medio, en función de lo que emite la fuente y llega al detector. La ecuación de difusión se escribe como [10] 1 ( r , t ) D . 2 ( r , t ) a ( r , t ) S ( r , t ) c
t
Donde, (r , t ) representa el flujo de fotones [w/cm2.s], en la posición r, en un tiempo t (transferencia de energía por unidad de área). c es la velocidad de la luz en el medio [m/s]. a es el coeficiente de absorción [1/cm]. D [3s' ]1 es el coeficiente de dispersión [cm], donde s ' s(1 g) representa el coeficiente de dispersión reducida [1/cm]. Por su parte, s es el coeficiente de dispersión [1/cm], g es el coseno del ángulo medido de la dispersión de los fotones. S (r, t ) es el termino que representa la intensidad de la fuente [w/m3s], en la posición r para el instante t. Esta ecuación cumple con los criterios de continuidad [6]. Para encontrar la solución de la ecuación de difusión, en primer término se realiza la selección de la fuente. En este caso se empleó una fuente en el dominio de la frecuencia, obtenida a partir de un sistema de modulación de fase (PMS), debido a que la misma se relaciona directamente con los otros tipos de fuente como son en el dominio temporal y el de onda continua. La intensidad de la fuente es modulada por una onda sinusoidal de la siguiente forma S (r , t ) (rs ) S o (1 Ae jwt )
METODOLOGÍA Transporte de la luz en la mama Cuando la radiación electromagnética en forma de luz viaja por medios opacos, como son los tejidos biológicos, los fotones, realizan su migración o ruta siguiendo una secuencia de pasos aleatorios, en la cual la posición actual de la partícula depende solo de la posición de la partícula en el instante previo y de alguna variable aleatoria que determina su dirección y longitud de paso subsecuente [5]. Para describir matemáticamente el proceso de propagación de luz en medios biológicos, se utiliza la ecuación de transporte lineal tratando el problema como un flujo de energía [6]. En el tejido de la mama, al considerar las características ópticas, predomina el efecto de dispersión que se modela mediante el coeficiente de dispersión reducido ( s ' ) mientras que la absorción se modela mediante el coeficiente ( a ). Se considera que: s ' a En nuestro caso la longitud de onda que se desea emplear en es la luz cercana a infrarroja NIR, cuyas propiedades ópticas se muestran en la Tabla I
donde (rs ) es la ubicación espacial de la fuente, como fuente isotrópica. S o es la amplitud de la fuente. A es la profundidad de penetración en el medio y w es la frecuencia de modulación. Sustituyendo la fuente (ecuación (2)), en la ecuación de difusión se logra aproximar a la ecuación de densidad de onda de fotones difusos (DPDW), para conseguir la solución de dicha ecuación. El resultado se expresa en amplitud y fase, en función a la distancia radial entre la fuente y el detector r rs en el dominio
Tabla I. Promedio de las propiedades ópticas de la mama Longitud Tipo de de onda µa (cm-1) µs’ (cm-1) Ref. tejido (nm) 0.046 ± 8.9 ± 1.3 [8] Mama 753 0.014 Mama (pre – 0.090 ± [9] 806 8.2 ± 0.6 menopausia) 0.008 Mama (post – 0.030 ± [9] 806 6.0 ± 0.1 menopausia) 0.008
de la frecuencia.
S o A [ cos( 2 )] e 4D ( ) sin( 2) w donde, (4) a 2 c 2 w 2 y tg 1 M ac ( )
c2D2
a c
Para obtener resultados más reales en la interpretación de la migración de fotones, se incorpora a la solución la condición de contorno que permita simular la geometría de medición más adecuada como es la geometría semiinfinita, en correspondencia a la forma de la mama. La condición de contorno más adecuada y sencilla en su implementación es la extrapolación de cero, en la que el flujo de fotones se desvanece en un plano virtual a una distancia Z b del contorno físico real. La ecuación que nos
Los coeficientes de absorción y dispersión, describen la probabilidad de que ocurra un evento de absorción y dispersión por unidad de longitud. En vista de ello, el efecto óptico predominante en la mama es el efecto dispersivo, lo cual permite simplificar analíticamente la ecuación de transporte lineal y aproximarla a la ecuación
188
INSTRUMENTACIÓN BIOMÉDICA
permite calcular la distancia virtual de ubicación del plano, dependerá de las propiedades de dispersión del medio, y se expresa como:
que se espera conseguir en el receptor como se observa en la figura 3. En presencia de tumor la característica que nos permite reconocer la presencia del mismo, es el efecto de absorción que presenta la hemoglobina oxigenada y desoxigenada en el rango de frecuencia NIR, esto desde las tempranas etapas del mismo ya que la angiogenesis ocurre en esta fase. Este cambio que se manifiesta en el efecto óptico del medio, se logra percibir en el plano de cancelación que se genera entre las dos fuentes, con pequeñas alteraciones en cualquiera de la respuesta de las fuentes se ve alterado el plano de cancelación, tanto su amplitud como su fase, lo que permite aumentar la sensibilidad de detección. Pero una alta sensibilidad podría generar falsas detecciones, como en las condiciones de frontera de la mama, o en aquellos casos en que existan diferencias en los coeficientes de absorción y dispersión [15]. Debido a ello cualquier detector deberia calibrarse, variando la relación entre las dos fuentes (S1/S2) hasta conseguir que el plano de cancelación tenga las característica de amplitud cero y fase 180° en cada posición que se realice la detección en condiciones de mamas normales [14–15]. En base a lo anterior se presentan las propuestas para el diseño del detector: la primera contara con dos esquemas para la detección. El primero es similar al equipo portable propuesto por Zhongyao Zhao et al. [13]. El mismo consta de 1 fuente y dos detectores. En este caso se propone optimizar el circuito electrónico y realizar la validación del instrumento. El segundo esquema consta de 2 detectores y 1 fuente. Se propone comparar ambos esquemas para determinar cual es el más eficiente para la detección de cáncer de mama. Adicionalmente se realizara un procedimiento de calibración para mejorar la precisión de la detección. Diagrama del circuito La detección con este método de arreglo de doble interferencia, es prometedor para la detección de cáncer, ya que la diferencia entre el efecto absorbente de la hemoglobina cuando tenemos la presencia de tumor con respecto al medio circundante de la mama, permite la detección tanto en amplitud como en fase. En términos generales el diseño se realizara en base al diagrama de la Figura 5
Z 2(1 Reff ) b 3s ' (1 Reff )
donde, Reff es el coeficiente de reflexión efectiva de la interfaz. En este caso la interfaz es tejido-aire por lo tanto, Reff 0.493 . Para obtener la solución se aplica la teoría de imagen [12]. Esquema de detección Empleando la teoría de la DPDW, se plantea diseñar prototipos utilizando un arreglo de onda dual de interferencia, que se basa en una tecnología de cancelación para lograr mayor sensibilidad en la detección de estructuras pequeñas incrustadas en medios altamente dispersivos como es la mama. En su forma más sencilla el arreglo puede disponer bien sea de dos fuentes y un detector o dos detectores y una fuente a fin de crear un patrón que permitirá la detección.
(a)Dos fuentes un detector (b)Una fuente dos detectores Figura 2. Arreglo entre las fuentes y detectores [13] Utilizando el arreglo de la figura 2(a), considerando las fuentes moduladas en fase, separadas una distancia de 2 cm, con una diferencia de fase entre ellas de 180° es posible obtener un patrón de interferencia, donde la onda que llega al detector sea la superposición de las soluciones independientes de cada fuente. Este patrón representa un plano entre las dos fuentes que es llamado plano de cancelación, en el cual, la amplitud de la señal resultante es cero y una fase de 180° en el detector. Para conseguir la representación se modeló en MATLAB las ecuaciones (3) para las dos fuentes un detector Amplitud
-3
60
Plano de cancelación
-2.5
50
Z
-2
40
-1.5
30
-1
20
-0.5
0 -3
10
-2
-1
0 r
1
2
3
Figura 3. Perfil de amplitud del arreglo de dos fuentes un detector, característica óptica de la Tabla 1 Ref.[8] En condiciones normales de la mama, el medio que la describe se considera altamente dispersivo y es la respuesta
Figura 5. Diagrama del instrumento
189
Memorias_BIOVEN_2012
El control de encendido permitirá generar en conjunto con el oscilador, que se construirá en el microcontrolador, una señal sinusoidal rectificada de onda completa, a fin de encender los Leds NIR de la fuente con la amplitud y fase requerida en función de la posición en que se desee realizar la detección. Luego de que se propague la onda por el medio, la componente reflejada es adquirida por el fotodetector NIR y transformada por el amplificador de transimpedancia para ser procesada por el microcontrolador y lograr obtener un resultado de la detección, que se mostrara en la salida usando una pantalla LCD. Previo a esto se debe realizar el procedimiento de calibración del equipo, para almacenar la función de amplitud de la fuente con respecto a la posición en una mama normal. De esta manera se obtendra el patrón de comparación para realizar la detección.
Philadelphia, International Journal of Biomedical Imaging, vol. 2009, pp. 01-14 , USA. [3] D. Delpy and M. Cope (1997): Quantification in tissue near infrared spectroscopy, Department of medical Physics and Bioengineering, Phil. Trans. R. Soc. Lond. B 352, 649659, University College London, London, UK. [4] Heffer E. et al (2004): Near infrared imaging of the human breast: complementing hemoglobin concentration maps with oxygenation images, USA Journal of Biomedical Optics 9(6), 1152 – 1160. [5] A. Yodh and B. Chance, (1995): Spectroscopy and imaging with diffusing light, biophysics and radiology at the University of Pennsylvania, Philadelphia, USA book PHYSICS TODAY, pp. 34-40. [6] K.M. Case and P.F. Zweifel, (1967): Linear Transport Theory, Addison-Wesley, MA, USA. [7] Boas D.A., (1996): Diffuse photon probes of structural and dynamical properties of turbid media: theory and biomedical applications, Doctoral Thesis, Dissertation in Physics, University of Pennsylvania, Philadelphia, USA. [8] Suzuki K., Yamashita Y., Ohta K., Kaneko M., Yoshida M. and Chance B., (1996): Quantitative measurement of optical parameters in normal breasts using time-resolved spectroscopy: in vivo results of 30 Japanese women, J. Biomed. Opt., 1, pp. 330-334. [9] Cerussi A.E, et al, (2001): Sources of absorption and scattering contrast for near-infrared optical mammography, Acad. Radiol., USA 8, pp. 211-218. [10] Patterson M.S., et al, (1989): Time resolved reflectance and transmittance for the non-invasive measurement of tissue optical properties, Appl. Opt., USA, 28, pp. 2331-2336. [11] Charlotta Eker, (1999): Optical characterization of tissue for medical diagnostics, Doctoral Thesis, Department of Physics, Lund Institute of Technology, USA. [12] Richard C. Haskell et al., (1994): Boundary conditions for the diffusion equation in radiative transfer, Beckman Laser Institute and Medical Clinic, University of California, Irvine, California 92715, USA. [13] Zhongyao Zhao et al., (2006): Handheld Tumor Scanner for Breast Cancer Detection, School of Biomedical Engineering, Science and Health Systems Biomedical Technology Showcase, University Drexel, USA. [14] Richard t. Kiok, Mark Phong.(1999): Software package for the photon migration amplitude cancellation portable breast tumor imaging system developed in matlab® Department of Bioengineering, Senior Design Thesis University of Pennsylvania, USA. [15] Yu Chen, (2003): Contrast enhancement for diffuse optical spectroscopy and imaging: phase cancellation and targeted fluorescence in cancer detection, Doctoral Thesis, A Dissertation in Bioengineering University of Pennsylvania, USA.
CONCLUSIONES Para evitar la alta tasa de mortalidad que se presenta por el cáncer de mama, es necesario que el diagnostico se haga en las etapas tempranas, sin embargo, lograr este objetivo por lo general resulta muy costoso o bien resulta impreciso con los equipos existentes. El método de arreglo de doble fuente de interferencia empleando luz cercana al infrarrojo muestra ser prometedor para lograr un diagnostico preciso. La razón para ello es que el tejido de la mama, en condiciones normales, es altamente dispersivo de la radiación NIR, a diferencia del tumor cuyas propiedades ópticas son de absorción. Esta diferencia permite una alta sensibilidad en la detección, como se demuestra mediante simulaciones. La detección se basa en la desviación del plano de cancelación que existe entre las dos fuentes y por lo general requiere un proceso de calibración. El trabajo a corto plazo se centra en el desarrollo del hardware y software de un prototipo que resulte confiable y preciso. Dicho prototipo será validado, en primer término, utilizando un modelo a escala natural con las propiedades ópticas de una mama humana. Posteriormente la validación se realizara con un grupo de pacientes y sujetos de control. AGRADECIMIENTOS El presente trabajo ha contado con el apoyo del CDCH-TA y CEP de la Universidad de Los Andes. REFERENCIAS [1] Sociedad Venezolana de Mastología. Página Web disponible en línea: http://www.sovepem.org.ve. Último acceso: Abril, 2012. [2] Adam B. Nover et al. (2009): Modern Breast Cancer Detection: A Technological Review, Department of Surgery, Drexel University College of Medicine,
190
INSTRUMENTACIÓN BIOMÉDICA
DISEÑO DE BOMBA DE INFUSIÓN PROGRAMABLE PARA APLICACIONES EN BIOMEDICINA Edinson del Carmen Dugarte Dugarte 1, Nelson Dugarte Jerez 2, Gerardo Grabiec 3 1
2
Facultad de Ingeniería de la Universidad de Los Andes, Mérida, Venezuela. Centro de Ingeniería Biomédica y Telemedicina (CIByTEL), Universidad de Los Andes (ULA), Mérida, Venezuela. 3 Instituto Regional de Bioingeniería (IRB) de la Universidad Tecnológica Nacional (UTN), Mendoza, Argentina. e-mail: edinson0909@hotmail.com, nelsond@ula.ve, ggrabiec@yahoo.com.ar
RESUMEN La técnica de infusión controlada se utiliza cuando se requiere inyectar un fluido de manera sistemática y precisa en el tiempo. En esta investigación se presenta el desarrollo teórico de un instrumento que satisface las necesidades de infusión controlada con capacidad de programación de múltiples etapas. Lo novedoso de este sistema es que permite cambiar de manera programada la velocidad de inyección de fluido en un mismo periodo de trabajo. La propuesta que se plantea presenta el diseño de un instrumento, en sus partes hardware y software. El hardware está basado en un circuito electrónico con microcontrolador que maneja un sistema mecánico de brazo robótico para accionar una o dos jeringas de uso comercial, con lo cual se genera la infusión del fluido. El software del instrumento está diseñado para ejecutar los procedimientos que introduzca el usuario. Palabras Clave: Infusión, Instrumento, Microcontrolador, Software.
infusión directo al cuerpo del bebe. El problema es que la inyección de alimento debe hacerse en periodos de tiempo que van de una a cuatro horas y cada vez con un flujo lento que puede durar 10 minutos o más. Actualmente estas secuencias de infusión son realizadas a mano por las enfermeras de los servicios neonatal con el riesgo del factor humano que puede causar daño involuntario al recién nacido. También existen casos de personas enfermas que requieren la inyección controlada de medicamentos en secuencias sucesivas. Otros ejemplos se dan en los requerimientos de inyección de anestesia en quirófano o de inyección de sustancias en multietapas en experimentos especializados.
INTRODUCCIÓN La infusión o terapia intravenosa consiste en la administración de sustancias liquidas, tales como medicamentos, alimentos o anestesia [1], directamente en una de las venas del paciente. Para esto se introduce una aguja o tubo en el torrente sanguíneo del paciente por el cual se inyecta el líquido y/o medicamento necesario. Esta técnica comenzó en el siglo XVII, con fines experimentales y no médicos, siendo Christopher Wren, Robert Boyle y Robert Hooke sus precursores. Estos científicos estudiaban los resultados de inyectar en perros, sustancias como vino, cerveza, opio y azafrán. El uso de la inyección endovenosa en seres humanos comenzó a partir del año de 1664 y se debe principalmente a médicos alemanes como Johann Daniel Major y Johann Sigismund Elsholtz [2]. Existen casos médicos donde la infusión de líquido se necesita realizar de manera controlada introduciendo determinada cantidad de fluido en intervalos de tiempo fijados por el usuario [3]. Para suplir a esta necesidad se diseñó una bomba de infusión (a jeringa) programable, que además de proporcionar la inyección de volumen constante en el periodo de trabajo, permita establecer intervalos de infusión en tiempos y velocidades configuradas por el usuario [4], [5]. Un de estos ejemplo es el que se presenta con los requerimientos de alimentación de los bebes prematuros. En muchos de los casos es necesario suministrar la sustancia alimenticia al recién nacido por medio de
METODOLOGÍA El diseño del equipo consiste en un sistema que permite inyectar una sustancia de manera programada, en múltiples etapas de funcionamiento. Este sistema requiere de un computador personal para ingresar la secuencia de funcionamiento, después de iniciarse el proceso puede funcionar de manera autónoma, pero se recomienda el funcionamiento en conjunto para visualizar la secuencia de trabajo. El sistema está compuesto por cuatro partes: Hardware mecánico, Hardware electrónico, Software del microcontrolador (firmware) y Software instalado en el computador [6]. La Figura 1, muestra la interrelación de las partes del sistema.
191
Memorias_BIOVEN_2012
que refleja el desplazamiento del brazo mecánico. Los pulsos generados se utilizan en el circuito de verificación.
Figura 1. Diagrama en bloques del circuito electrónico. a) Hardware Mecánico Esta formado por un brazo robótico, que puede accionar una o dos jeringas mediante empuje del embolo, manteniendo fijo el cuerpo de la misma. El movimiento del brazo mecánico es accionado mediante un motor paso-paso que a su vez es controlado por el circuito electrónico digital. El cuerpo de la jeringa se fija sobre un soporte, Figura 2. El extremo del brazo robótico, que empuja el embolo de la jeringa, se soporta sobre un rodamiento plano que se desplaza en función del mecanismo accionado por el motor. La presión que se genera en el cuerpo de la inyectadora empuja el fluido con una diferencia de presión haciendo circular el líquido hasta su destino [7].
Figura 3. Despiece del Sistema Mecánico. b) Hardware Electrónico El hardware electrónico está compuesto por el circuito de la Figura 4 [9]. El funcionamiento de este circuito esta gobernado por el micro-controlador PIC16F877 [10]. Este dispositivo se escogió debido a los requerimientos de cálculo en el procesamiento de la velocidad requerida en las etapas de trabajo. El microcontrolador recibe los datos del computador, los almacena en la memoria, muestra en el display LCD [11] las secuencias de funcionamiento y acciona el motor según la velocidad requerida en el instante de tiempo del proceso [12]. +Vnr
BUZ1 +5 V
+5 V
R1 LCD1
BUZZER
LM016L
R6
R2
470
10k
1k
D4
R7
1N4002
3.3
Q1 TIP41
M1
C3 1nF
A K
D0 D1 D2 D3 D4 D5 D6 D7
RS RW E
VSS VDD VEE
J2 1 2 3
TX RX
R3
1N4002
Q2
2
1 19 20 21 22 27 28 29 30
3 1
10k
+5 V
El desplazamiento del rodamiento plano, señalado como RP en la Figura 3, depende de la tracción de un tornillo de arrastre (TA), colocado en la parte interna del equipo. El movimiento de rotación de TA actúa sobre la tuerca (TU) fijada en RP [8]. La acción de retroceder se ejecuta cambiando de dirección el movimiento angular del tornillo. A su vez, el movimiento de TA depende de los engranajes de acople E1 y E2, que transmiten la fuerza ejercida por el motor. En consecuencia, la velocidad de inyección es proporcional a la acción del motor (M1). El disco ranurado (DR) se mueve adjunto al eje del tornillo de tracción. Este disco acoplado al fotosensor (FS1) genera un número de pulsos por unidad de tiempo
2 3 4 5 6 7
D2
R4
U1
+5 V
Figura 2. Base para Sujetar las Jeringas.
MCLR/Vpp/THV RD0/PSP0 RD1/PSP1 RD2/PSP2 RD3/PSP3 RD4/PSP4 RD5/PSP5 RD6/PSP6 RD7/PSP7
RB0/INT RB1 RB2 RB3/PGM RB4 RB5 RB6/PGC RB7/PGD
1N4002
33 34 35 36 37 38 39 40
1k
Q3 TIP41
D1
Q4
R5
1N4002
TIP41 1k
RC0/T1OSO/T1CKI RA0/AN0 RC1/T1OSI/CCP2 RA1/AN1 RC2/CCP1 RA2/AN2/VREF-/CVREF RC3/SCK/SCL RA3/AN3/VREF+ RC4/SDI/SDA RA4/T0CKI/C1OUT RC5/SDO RA5/AN4/SS/C2OUT RC6/TX/CK RC7/RX/DT
+5 V
15 16 17 18 23 24 25 26
SB1 1
2
SB2
R19
1
2
10k
S1 1
13 14
2
+5 V
OSC1/CLKIN OSC2/CLKOUT
PIC16F877A-4
R20
RE0/AN5/RD RE1/AN6/WR RE2/AN7/CS
27pF
4MHz
R11
R10
R9
R8
10k
10k
10k
10k
SB3 1
1
+Vnr
C2 27pF
2
SB4 +5 V
2
C1
8 9 10
VDD=+5 V VSS=GND
X1
10k
S2 1
3 6 4 +88.8
TIP41
15 16
7 8 9 10 11 12 13 14
4 5 6
1 2 3
RS-232
RV1
1 5 2
D3
1k
2
J1 1 2 3
+Vnr +5 V GND Fuente
Figura 4. Circuito del hardware electrónico La salida del microcontrolador maneja el motor por el puerto B [13]. El control de los polos del motor se efectúa manejando la corriente por medio de la etapa de Drivers, conformada por los transistores Q1, Q2, Q3 y Q4.
192
INSTRUMENTACIÓN BIOMÉDICA
El circuito de verificación consiste en la revisión de los pulsos que se generan en FS1 en función del movimiento de DR. Esto permite comprobar que el avance del brazo mecánico se desarrolla normalmente. En el caso de que no se cumpla la relación de movimiento esperada, el sistema activa la alarma audible BUZ1 y se da un aviso de error en el computador [14]. La relación de movimiento obtenida en el circuito de verificación, se transmite al computador con el propósito de graficar el proceso de inyección. La comunicación vía USB se realiza utilizando el componente electrónico CP2102 [15] que se conecta en J2 por medio de los pines TX y RX. Este dispositivo es un manejador de protocolo USB que se capta en el computador como un puerto serial virtual [16].
El software del microcontrolador está diseñado para actuar en función de la secuencia introducida por el usuario para su funcionamiento. El proceso se inicia con la adquisición de las etapas de trabajo deseadas. El sistema acepta múltiples etapas de funcionamiento donde el volumen suministrado dependerá de la velocidad de inyección. Para que el sistema funcione se introducen tres parámetros básicos por cada etapa del proceso: cantidad de volumen a inyectar, tiempo en el que se debe suministrar dicho volumen y tiempo de espera antes de la próxima fase de inyección. El numero de etapas de inyección esta limitado por el volumen contenido de la(s) jeringa(s). d) Software del Computador El dispositivo permite introducir las etapas de trabajo y visualizar todas las actividades del proceso en el computador. De esta forma se pueden introducir secuencias de trabajo con mayor precisión y de una forma más amigable, se visualiza el proceso en forma grafica y se puede almacenar la información del proceso para análisis posteriores. El software del computador se desarrolla en software libre de Linux bajo la plataforma de Ubuntu. Para esto se está utilizando el lenguaje de programación grafica Gambas2 [17]. La Figura 6, muestra la ventana interfaz que se presenta en el computador para interactuar con el usuario. Las secuencias de trabajo pueden ser introducidas por medio del computador indicando los tres parámetros básicos: cantidad de volumen a inyectar, velocidad de inyección y tiempo de espera antes de la próxima fase de inyección.
c) Software del Microcontrolador El funcionamiento de este dispositivo depende de un programa estructurado desarrollado en lenguaje ensamblador. La secuencia de este software es mostrada en la Figura 5.
Figura 6. Ventana de interfaz con el usuario. Este software permite elegir entre velocidad de inyección ó tiempo de duración de la etapa. Los tiempos introducidos mediante el computador podrán especificarse según horas, minutos, segundos y milisegundos.
Figura 5. Secuencia de trabajo del microcontrolador.
193
Memorias_BIOVEN_2012
La jeringa a usarse debe ser de tipo comercial y al momento de la programación de las etapas de trabajo, el usuario elegirá el tipo de jeringa a utilizar. Si se genera algún reporte de falla o mal funcionamiento, detectado por el circuito de verificación, el computador mostrara un mensaje donde se podrán ver posibles causas, para luego facilitar las correcciones. Un mensaje ejemplo se muestra en la Figura 7.
(CIByTEL) por el soporte tecnológico en el desarrollo de este proyecto. También se agradece al Instituto Regional de Bioingeniería (IRB) de la Universidad Tecnológica Nacional (UTN), Mendoza, Argentina, por el apoyo brindado. REFERENCIAS [1] Anestesia, Reanimación y Medicina del Dolor. Pagina Web disponible en línea: http://www.anestesiaweb.com Ultimo acceso: Febrero 2012. [2] Terapia Intravenosa. Pagina Web disponible en línea: http://es.wikipedia.org/ Ultimo acceso: Enero, 2012. [3] Fisiología Médica Manual Moderno. 17ª Edición. México. Editorial McGraw-Hill. 1999. [4] Bombas de Infusión. Pagina Web disponible en línea: www.portalbiomedico.com Ultimo acceso: Enero, 2012. [5] Bomba de Perfusión. Pagina Web disponible en línea: http://www.mapfre.com/salud Ultimo acceso: Diciembre, 2011. [6] W. Jhon. “Medical Instrumentation Application and design”. USA. Editorial Houghton Mifflin Company. 1978 [7] Terminología galénica (PDF). Disponible en: http://medtrad.org/ Ultimo acceso: Diciembre, 2011. [8] Casillas, A. (1982). “Máquinas, Cálculos de Taller”. 32ª Edición. Madrid. Ediciones Máquinas. [9] T. Ronald. “Sistemas Digitales Principios y Aplicaciones”. 5a edición. Editorial Prentice may. México.1993. [10] Microchip. (2001): PIC16F877A Data Sheet, Microchip Technology Inc. USA. [11] DISPLAY'S LCD / ¿Cómo usarlos?. Pagina Web disponible en línea: www.pablin.com.ar Ultimo acceso: Enero, 2012. [12] Tutorial sobre motores paso a paso. Pagina Web disponible en línea: http://www.todorobot.com. Ultimo acceso: Marzo, 2012. [13] Angulo, J. y Angulo, I. “Microcontroladores PIC Diseño Práctico De Aplicaciones”. Ed. Madrid: McGrawHill. 1999. 2da Edición. [14] H. David, G. Arvin. “Fundamentos de Ingeniería Eléctrica”. 4a edición. México. Editorial McGraw-Hill. 1990. [15] Silicon Labs. (2007): Single-Chip USB to UART Bridge. Silicon Laboratories. Rev.1.2.3/07. USA. [16] Qué es un puerto USB. Pagina Web disponible en línea: http://www.misrespuestas.com Ultimo acceso: Enero, 2011. [17] Gambas Almost Means BASIC. Pagina Web disponible en línea: http://gambas.sourceforge.net/es Ultimo acceso: Junio, 2012
Figura 7. Mensaje de Error. RESULTADOS Este proyecto se encuentra en desarrollo por lo que experimentalmente aun no se tienen resultados totales. Las pruebas parciales realizadas han presentado resultados satisfactorios, por lo que se considera que el proyecto es totalmente factible y realizable. CONCLUSIONES El problema de las bombas de infusión disponibles comercialmente, es que solo son programables para una etapa de trabajo, es decir solo se pueden programar para bombear una sustancia líquida a una velocidad de inyección constante durante un tiempo específico. Actualmente no existe la disponibilidad de un instrumento con las características que presenta el desarrollo de este proyecto. El diseño de la bomba de infusión programable permite inyectar fluidos a pacientes neonatos, niños o adultos en riesgo de una manera totalmente controlada por el medico, donde este especifica cuantas etapas de inyección desea y programa cada etapa de inyección, según el requerimiento que exija la terapia aplicada al individuo a tratar. Un instrumento desarrollado con las características descritas, también se puede utilizar para cubrir los requerimientos de inyección de líquidos en multietapas en procesos de investigación que lo requieran. AGRADECIMIENTO Se agradece a la Facultad de Ingeniería de la Universidad de los Andes (ULA) por los conocimientos impartidos y al Centro de Ingeniería Biomédica y Telemedicina
194
INSTRUMENTACIÓN BIOMÉDICA
EXPERIENCIAS EN TECNOLOGÍA PORTABLE PARA COMUNICACIÓN Y MONITOREO PERSONAL DE BAJO COSTO Ana S. Silva1,2, Oscar E. Casanova3, Andreina Zambrano1, Carla M. Borges2, Antonio J. Salazar1,2 1
INESC TEC - Technology and Science (formerly INESC Porto) 2 Faculdade de Engenharia, Universidade do Porto 3 Universidad Nacional Experimental del Táchira e-mail: antonio.j.salazar@inescporto.pt
RESUMEN Hasta recientemente, la mayoría de las investigaciones que involucran sistemas de captura y análisis de señales fisiológicas y biométricas, o lo sistemas interpersonales de comunicación para personas con discapacidades, han estado limitados a laboratorios u otros ambientes controlados, o están fuera del presupuesto de muchos de individuos. Soluciones tecnológicas portables de bajo costo introducen un refinamiento a la captura de señales personales y afines, permitiendo estrategias de largos periodos de monitoreo e introduciendo alternativas costeables. Sensores, integración textil, baterías recargables de bajo perfil, entre otros elementos, son directamente responsables por los avances en esta área; eso dicho, a pesar de los progresos todavía existen un número de obstáculos por sobrepasar para conseguir verdaderas soluciones portables de bajo costo. Este artículo presenta un conjunto de soluciones electrónicas de bajo costo desarrolladas por los autores, con componentes de alta accesibilidad para fines variados como comunicación interpersonal, deportes, rehabilitación, y análisis médico. Palabras claves: wearable, personal monitoring, inertial sensors, textile sensors.
paradigmas tradicionales asociados con análisis estáticos enfocados en visitas programadas. El desarrollo de e-textil, donde la tecnología se encuentra integrada directamente en la prenda de vestir, presenta una opción apropiada para extender el monitoreo de las actividades de una persona (como su respuestas fisiológicas) de manera constante e indefinida.
INTRODUCCIÓN Los avances tecnológicos de los países en desarrollo en América Latina y el Caribe, se han basado fundamentalmente en la incorporación de tecnologías elaboradas en países desarrollados. En ocasiones esta incorporación es incompleta por faltar la adecuación de la tecnología a dichos países, tanto de forma organizativa, cultural, social y económica. Por otro lado, son comunes las donaciones de equipos que no corresponden a las necesidades o para las que no existe infraestructura o personal calificado para su manejo o mantenimiento. Es por estas razones que el desarrollo de soluciones portables de bajo costo, fáciles de adaptar y mantener, representan un una opción práctica y realista para el desarrollo sostenido de métodos y productos accesibles. Uno de los principales intereses de la tecnología portátil se origina en la necesidad de monitorear y/o acompañar los individuos durante períodos prolongados de tiempo fuera de ambientes controlados [1-2]. Recientemente, nuevos enfoques en el análisis biomecánico se han vuelto populares y presentan resultados prometedores en áreas de salud, deporte y hasta entretenimiento. El uso de sensores mecánico-eléctricos inerciales, sensores de presión y sensores ópticos, en conjunto con avanzados algoritmos (e.g., filtros de Kalman) están incrementando el alcance del análisis del comportamiento humano, rompiendo
PANEL DE CIEGOS
COMUNICACIÓN
PARA
SORDO-
Los métodos utilizados por los sordo-ciegos dependen de la forma en que éstos aprenden a comunicarse a través del tacto, por lo tanto, no existe un sistema de aprendizaje estándar. Aunque hoy en día se consiguen un número de opciones en mecanismos asistivos de comunicación para sordo-ciegos, sus costos, generalmente, los hacen inaccesibles. El Centro de Tecnología Asistiva (CETA) de la Universidad Simon Bolívar diseño e implemento una solución alternativa a través de un dispositivo modular asistivo capaz de transmitir información mediante el uso de elementos electrónicos de bajo costo [3]. El prototipo utilizó un microcontrolador PIC 18F4620, una pantalla LCD (para visualización del mensaje que se quiere transmitir al individuo sordo-ciego), un teclado PS/2 adaptado superficialmente a Braille, un lector Braille construido con elementos de bajos costos, batería
195
Memorias_BIOVEN_2012
recargable y otros elementos electrónicos para control (como se observa en la Figura 1). El lector Braille utilizó solenoides para traducir a forma táctil el mensaje introducido a través del teclado. Se contó con un arreglo de seis puntos dispuestos a la medida del dedo índice orientados a través de guías. El prototipo funcionó exitosamente, aunque el consumo de potencia y gran irradiación de calor descartan esta primera estrategia como una solución a gran escala. Aun con los obstáculos descritos el prototipo resulto una solución de bajo costo aceptable, sobre todo cuando comparado con los costos de sus equivalentes comerciales (cientos de veces más costoso) y el peso de algunas soluciones mecánicas. Los resultados obtenidos en las pruebas con individuos ciegos y sordo-ciegos del equipo fueron satisfactorios, gracias a la flexibilidad del diseño modular del dispositivo.
Figura 2. (a) vista superior (b) WIMU posicionado sobre la atleta. Durante las pruebas experimentales, el WIMU fue localizado en la zona dorsal del plano coronal, en la región vertebral por la sección escapular inferior, como se observa en la Figura 2 (b). La nadadora completó un número de piscinas utilizando estilos variados, y para todos los estilos, la piscina se completaba con una vuelta en eje vertical, evitando la voltereta tradicional. Aun cuando los datos adquiridos durante el estilo libre no requieren de estrategias de compensación; los estilos de mariposa y pecho si presentan brechas. Algunos de los datos adquiridos aproximadamente a 10Hz pueden ser observados en la Figura 3.
Figura 1. Esquema de sistema de comunicación para sordo-ciegos. Las sugerencias de los individuos que probaron el prototipo fueron consideradas y serán implementadas en futuras versiones. La Fundación Mevorah Florentin proporcionó el aval de este dispositivo en el uso de personas con discapacidad visual.
WIMU – WEARABLE INERTIAL MONITORING UNIT El WIMU (por sus siglas en inglés) [4-5] fue diseñado para el proyecto BIOSWIM (PTDC/EEA-ELC/70803/200). El objetivo fue el desarrollo de un dispositivo portable basado en MEMS (sistema-micro-eléctrico-mecánico, por sus siglas en inglés) para la adquisición de parámetros inerciales durante nado. La unidad, que se observa en la Figura 2, contiene un acelerómetro tri-ejes y un giroscopio bi-ejes, pesando 50 gramos (sin baterías), midiendo 57x90.5x24 mm, y costando menos de 100 Euros. Pruebas de campo dentro y fuera de la piscina proporcionaron resultados prometedores, a que contribuyeron modificaciones en el diseño, reforzado con las opiniones de los atletas y entrenadores. El WIMU será parte de un sistema de nado integrado en el traje de baño con sensores electromiográficos textiles e unidad de análisis químico.
Figura 3. Señales de dos piscinas en estilo libre. W2M2 – WEARABLE WIRELESS MONITORING MODULE Un simple sistema de monitoreo inercial fue diseñado e implementado, por solicitud de fisioterapeutas enfocados en el desarrollo de terapias alternativas de rehabilitación para el hogar. Pensado para individuos que sufrieron accidentes cardiovascular; el W2M2 (por sus siglas en inglés), que se observa en la Figura 4, es un sistema modular compuesto por una unidad de control y transmisión inalámbrica, conectada por protocolo I2C (inter-integrated circuit) a módulos con acelerómetros, giroscopios, magnetómetros. El componente principal, el Arduino FIO, es accesible a bajo costo y con curva de
196
INSTRUMENTACIÓN BIOMÉDICA
libertad) del muslo y la pantorrilla. Aunado a esto, mediante electrodos textiles también se adquieren señal de electromiografía (sEMG), importantes en el estudio del sistema locomotor. La data correspondiente a cada nodo sensor es enviada a un módulo central (CMU) ubicado en la cintura del paciente, el cual a su vez se conecta de forma inalámbrica con un computador.
aprendizaje reducida, el cual se combina con componentes XBee para una conexión inalámbrica con sistemas remotos.
Figura 4. Izq.: Vista modular del W2M2. Der.: modulo de acelerómetro sobre paciente. El posicionamiento de los módulos del W2M2, basados en el acelerómetro ADXL345, fue parte del estudio inicial [6] sobre movimientos compensatorios, el cual se realizó en colaboración con un grupo de fisioterapeutas profesionales, con la intención de establecer la bases para escalas cuantitativas para monitoreo de progreso. Los procesos metodológicos fueron presentados y aprobados por el comité ético de la Escuela Superior de Tecnología de Salud de Porto (ESTSP). Los datos capturados, aproximadamente a 100 Hz, fueron procesados con estrategias de convolución, mientras que métodos de diferenciación de ventana fueron aplicadas para determinación automática del comienzo y final del movimiento. Adicionalmente, funciones pseudo-envolventes fueron generadas a través de métodos de ventana móvil de desviación estándar, para establecer referencias de estabilidad. Un ejemplo de tres repeticiones de la misma actividad funcional (alcanza, presiona, retorna) de dos individuos puede ser observada en la Figura 5, demostrando la divergencia en la repetitividad y patrones de acelerometría percibida, como también su prometiente uso en diagnostico de patologías a través de extrapolación de características cuantitativas.
Figura 5. Accelerometría de (a) paciente sin patología, (b) paciente con patología. En la Figura 6 se observa el primer prototipo desarrollado para los nodos sensores, el cual consta de un FPGA Actel (AGLN125) y un microcontrolador PIC24 de 16 bits, en los cuales ha sido implementado el protocolo de comunicación, así como también la adquisición de las señales mencionadas anteriormente [7].
PROLIMB – RED DE ÁREA CORPORAL PARA ADQUISICIÓN DE DATOS DEL SISTEMA LOCOMOTOR El proyecto PROLIMB busca el desarrollo de un sistema portátil para análisis de marcha mediante la adquisición de señales del sistema locomotor por extensos periodos de tiempo, en condiciones rutinarias del paciente, sin ocasionar incomodidad u obstaculizar los movimientos de este. El sistema consiste en una red de área corporal (BSN, por sus siglas en inglés), constituida por 4 nodos localizados en la parte baja del cuerpo, específicamente dos en el muslo y dos en la pantorrilla de cada pierna. Cada nodo sensor (NS) esta compuesto por acelerómetros y giroscopios para la adquisición de señales inerciales, como movimientos lineales y angulares (sistema de 6 grados de
Figura 6. Esquema del prototipo para proyecto PROLIMB.
197
Memorias_BIOVEN_2012
costo, apropiados para los escenarios presentes en países de América Latina y el Caribe. Las alternativas portables y estrategias no convencionales presentadas (por este grupo y otros alrededor del mundo) contribuyen a demostrar la posibilidad del desarrollo de soluciones originales paralelas a estándares existentes, rompiendo con paradigmas establecidos. Aun cuando el campo de sistemas “wearables” y portables es aún joven, ya ha demostrado que promueve la proliferación de ideas mientras que nivela el campo entre grupos de investigación; donde los recursos disponibles comienzan a tomar un segundo lugar a la inventiva.
Los nodos sensores y la unidad central están conectados mediante hilos textiles conductores ofreciendo mayor comodidad para el paciente. Sin embargo, los hilos textiles conductores disponibles actualmente presentan impedancias características elevadas establece inestables, que varían según las condiciones y/o su nivel de elongación, afectando así la transmisión de los datos. La interconexión de los nodos se ha realizado en una topología tipo malla, lo cual permite redundancia y mayor confiabilidad en la interconexión. Un estudio de la impedancia característica en diferentes hilos textiles reveló elementos resistivos e inductivos, los cuales varían con el nivel de elongación del hilo conductor y de la frecuencia: Z(f) = r(f) + 2.π.ωL(f)
AGRADECIMIENTOS
(1)
Los autores quieren agradecer la Fundación para la Ciencia y Tecnología de Portugal por su apoyo de algunos de los estudiantes de doctorado involucrados en este artículo (SFRH/BD/61396/2009 y SFRH/BD/60929/2009). Adicionalmente los autores quieren reconocer la contribución de todos los voluntarios.
Dado que las características del hilo pueden afectar la integridad de las señales transmitidas, una metodología de prueba que permita garantizar la integridad de la señal está siendo diseñada, lo cual se traduce en una señal con los niveles de voltaje y tiempos de transición adecuados [8]. DISCUSIÓN
REFERENCIAS Existe la necesidad de métodos de análisis alternativos, capaces de proporcionar resultados repetibles y cuantitativos durante períodos prolongados de tiempo. Los sistemas comerciales, aunque proporcionan un buen nivel de rendimiento en términos de precisión, solo se encuentran disponibles para un pequeño nicho del mercado debido a su alto costo. Portabilidad y consumo de energía son parámetros fundamentales a tener en cuenta en diseño modernos. Conectividad inalámbrica representa una mejora significativa en la portabilidad, pero también representa un aumento significativo en el consumo de energía. Aun así, el protocolo ZigBee proporciona una conexión confiable de baja potencia con una gran flexibilidad en la conexión de red. Aunque deben adoptarse estrategias de baja potencia, el diseño del dispositivo no debe ser realizado con una idea obsesiva del consumo de energía, sino que en su lugar debe existir un compromiso entre funcionalidad, tamaño, usabilidad y autonomía. Uno de los desafíos que enfrentan los investigadores hoy en día es la integración y análisis de datos multivariados. Datos temporales, fisiológicos e inerciales pueden recopilarse a través de algoritmos de fusión de datos. Análisis de componentes principales (PCA) o filtros de Kalman pueden aplicarse para extraer características significativas capaces de caracterizar el movimiento humano.
[1] Pantelopoulos A. et al (2008): A Survey on Wearable Biosensor Systems for Health Monitoring, Proc. of 30th Int. EMBS Conf., Vancouver, Canada. [2] Pantelopoulos A. et al (2010): A Survey on Wearable Sensor-Based Systems for Health Monitoring and Prognosis, IEEE Trans. Systems, Man, and Cybernetics, Part C: Applications and Reviews, Vol. 40, pp 1-12. [3] Casanova O. (2006): Dispositivo asistivo modular para comunicación de sordo-ciegos para el grupo CETA, B.Sc. thesis, Dept. Electron. Eng. Universidad Nacional Experimental del Táchira, San Cristóbal, Venezuela. [4] Salazar A. J. et al (2010): An initial experience in Wearable Monitoring Sport Systems, Proc. of 10th IEEE Int. Conf. on Information Tech. and Applications in Biomedicine, Corfu, Greece, pp 1-4. [5] Silva A. S. et al (2012): Wearable Monitoring Unit for Swimming Performance Analysis, Comm. in Computer Information Systems, Springer-Verlag, vol. 273,pp 80-93. [6] Borges C. M et al (2012): Compensatory movement detection through inertial sensor positioning for poststroke rehabilitation, Proc. of Int. Conf. on Bio-inspired Systems and Signal Processing, Vilamoura, Portugal, pp 297-302. [7] Zambrano A. et al (2012): A Wearable Sensor Network for Human Locomotion Data Capture, Proc. of PHealth Conference, Porto, Portugal. [8] Zambrano A. et al (2012): Signal Integrity and Interconnections Test on Technical Fabrics, 18th IEEE Int. Mixed Signal, Sensors and Systems Testing Workshop, Taiwan.
CONCLUSIONES Los dispositivos aquí presentados demuestran la factibilidad de metodologías y protocolos cuantificables, mientras introducen alternativas realistas portables de bajo
198
INSTRUMENTACIÓN BIOMÉDICA
SISTEMA DE CONTROL DE TEMPERATURA DISEÑADO PARA AMBIENTES DE INCUBACIÓN EN BIOINGENIERÍA Sabino Montes Alvarez2, Nelson Dugarte1, German Altuve2, Luis Ruiz2, Edinson Dugarte1 1
Centro de Bioingeniería y Telemedicina (CIBYTEL) Instituto Universitario Tecnológico de Cabimas IUTC e-mail: sabi_11_electric@hotmail.com, ndj0227@gmail.com 2
RESUMEN Este trabajo presenta un sistema para controlar la temperatura en ambientes de incubación. Lo novedoso de este proyecto es el vínculo de comunicación entre la computadora y el hardware de control con el propósito de establecer el valor de temperatura deseada y visualizar la temperatura en el ambiente de incubación. El hardware de control consiste en un circuito electrónico diseñado para que sea aplicable a cualquier sistema donde se requiera una temperatura constante en un rango desde temperatura ambiente hasta 50 °C. El software está compuesto por dos partes, el firmware utilizado para programar el microcontrolador en el hardware de control y el instalado en el computador para la visualización grafica y el ajuste de temperatura. Las pruebas preliminares demostraron que presenta un error 1.1 °C en la inercia del control sobre el calefactor y dentro del ambiente de incubación presenta un error de control de 0.1 °C. Palabras Clave: Control de Temperatura, Ajuste Remoto.
podrían transformase en oro manteniéndolos a una temperatura constante durante largos períodos de tiempo. También usó este regulador de temperatura en una incubadora para pollos [4]. Los Reguladores de temperaturas fueron estudiados por J.J. Becher en 1680, y usados otra vez, en una incubadora por el Príncipe de Conti y R.A.F. de Réaumur en 1754. "El Registro del centinela" fue desarrollado en América por W. Henry alrededor de 1771, quien sugirió su empleo en hornos químicos, en la fabricación de acero y porcelana, y en el control de temperaturas de un hospital. No fue hasta 1777, que se desarrolló un regulador conveniente de temperatura para el uso industrial por Bonnemain, quien lo utilizó para una incubadora [5]. Su dispositivo fue instalado más adelante en el horno de una planta de calefacción de agua caliente. El sistema desarrollado permite controlar la temperatura en el ambiente de incubación, en función del valor de referencia fijado, con un mínimo de error. Lo novedoso del sistema es que el valor de referencia se transmite desde el computador. Esta característica permite establecer cambios sutiles de temperatura en prolongados periodos de tiempo, generando curvas de variación de temperatura que pueden ser aplicadas a investigaciones avanzadas.
INTRODUCCIÓN Para ciertos procesos en laboratorio se requiere de temperaturas constantes. Son muchos los casos en donde los fenómeno estudiados se dañan o alteran sí la temperatura del midió físico donde se desarrollan no se encuentra en un rango de temperatura muy delimitado. En algunos ambientes se requiere procesos de control acompañados de sistemas automáticos [1]. Los sistemas de control de temperatura automático se han diseñado con el propósito de satisfacer los requerimientos que exige un ambiente de temperatura constante. El control de temperatura en un sistema que busca establecer el balance térmico en un ambiente aislado, proporcionando energía en forma de calor para compensar la pérdida sufrida por la radiación que se escapa del aislamiento [2]. Una de las aplicaciones mas comunes en los sistemas de control de temperatura son los ambientes que tratan de simular las condiciones biológicas internas de los organismos desarrollados de sangre caliente. Estos son conocidos como sistemas de incubación. Los sistemas de incubación [3] requieren temperaturas que normalmente están cercanas a 37°C. En función de los requerimientos del tipo de investigación, se utiliza un valor de referencia ajustable, que permita cambiar la temperatura en el medio controlado. Los primeros controles de temperatura se remontan Alrededor de 1624, J. Kepler desarrolló un sistema de control automático de Temperaturas para un horno, motivado por su creencia, basada en que los metales
METODOLOGÍA El sistema está compuesto por cuatro etapas, Figura 1. La primera etapa o ambiente de incubación está conformada por el ambiente aislado termicamente, el calefactor y el sensor de temperatura. La segunda parte está
199
Memorias_BIOVEN_2012
permite minimizar el error causado por la curva característica del termistor. La linealización se basa en calcular la resistencia RT, la cual se conecta en paralelo con el termistor. El termistor se montó en un circuito de puente de Wheatstone [6], para obtener un valor de voltaje en función de la temperatura. La resistencia ajustable R2, permite calibrar el puente de manera tal que la diferencia de tensión en los nodos de salida del puente sea igual a 0 V cuando el termistor NTC esté a una temperatura de 0°C. La salida del puente de Wheatstone se entrega al amplificador de instrumentación INA326. Este amplificador se diseñó para trabajar con una ganancia definida para obtener la salida de 0,1 V/ºC. El dispositivo utilizado para el circuito de control es un microcontrolador PIC16F877A [7]. El pin identificado como RA0 es utilizado como puerto analógico de entrada. La señal recibida del transductor se digitaliza, con el convertidor A/D del microcontrolador, con una resolución de 10 bits, lo que define una precisión en la medida de 0,05 °C. El periodo de muestreo es de 0,25 segundos. Este periodo de muestreo es relativamente lento devido a que la temperatura en el medio no cambia tan rápido. El circuito de hardware muestra la temperatura del ambiente de incubación en tres displays siete segmentos del tipo ánodo común. Los valores numéricos de la temperatura se muestran en dos dígitos enteros y un decimal, lo cual define una apreciación de 0,1 °C. El control de temperatura lo realiza el microcontrolador comparando el valor de la temperatura medida en el ambiente de incubación con el valor de referencia fijado desde el computador. El proceso de control del sistema es de tipo On-Off [2][8]. Por ejemplo, para una temperatura fijada de 37,0°C, el encendido del calefactor se realiza cuando el microcontrolador detecta una temperatura menor o igual a 36,95°C y se desactiva cuando la temperatura es mayor o igual a 37.0°C. La salida del microcontrolador por el pin RB4, actúa sobre el circuito de aislamiento U3, para manejar la corriente que pasa por la resistencia calefactora. El dispositivo U3 es un circuito integrado de acoplamiento óptico MOC3031M. Este componente se utiliza para activar el triac identificado como U4. La activación del triac consiente que se presente una diferencia de potencial sobre el calefactor, permitiendo la transferencia de energía para calentar el ambiente de incubación. Una de las etapas de innovación de este sistema es la comunicación de datos con el computador. Esto permite que la temperatura pueda ser ajustada y monitoreada desde un computador mientras el instrumento se encuentra en operación [9]. El protocolo de comunicación es por vía USB, para esto se utiliza el circuito integrado CP2102 [10].
compuesta por los dispositivos electrónicos que permiten controlar el sistema en general. La tercera etapa está constituida por el software que contiene los algoritmos de control del microcontrolador. Y la cuarta etapa, por el software instalado en el computador que permite cambiar el valor de la temperatura deseada y monitorear la temperatura dentro de la incubadora.
Figura 1. Diagrama del funcionamiento del sistema a) Ambiente aislado Está definido por el espacio físico donde se desea la temperatura constante, por ejemplo una caja de incubación. Normalmente está diseñado por el usuario en función de sus necesidades. b) Hardware de control Está formado por los circuitos electrónicos encargados de medir la temperatura, realizar el control y establecer la comunicación con la computadora, Figura 2.
Figura 2. Esquema eléctrico del Hardware. La medición de la temperatura es lo que permite conocer su valor en el ambiente aislado. El circuito consta de un sensor de temperatura tipo termistor NTC y un circuito transductor del cual se obtiene una relación de 0,1 voltio por grado centigrado (V/°C). La medición de temperatura se diseñó para obtener un voltaje entre 0 y 5 voltios (V) correspondientes a temperaturas entre 0 y 50°C. El circuito donde se utilizó el termistor fue linealizado en un rango de temperatura de 20 a 50 °C. Este proceso
c)
Software instalado en el microcontrolador El software del microcontrolador tambien conocido como firmware está definido por el programa que se
200
INSTRUMENTACIÓN BIOMÉDICA
Después de activar las interrupciones el microcontrolador queda en un lazo repetitivo hasta que se produce el llamado de alguna de estas. Cuando se produce algún llamado de interrupción se ejecuta la subrutina mostrada en el diagrama de la Figura 4.
ejecuta en el circuito integrado referenciado como U2 en el esquema de la Figura 2. Este programa cumple con seis pautas de funcionamiento, las cuales son: Digitalización de la señal del transductor, correspondiente a la temperatura. Presentación de los valores de temperatura en 3 display con formato de dos números enteros y un decimal. Realizar el control de temperatura según el valor asignado desde el computador. Transmitir al computador la lectura de temperatura en el ambiente de incubación, cada 250 ms. Leer el dato transmitido desde la computadora para cambiar el valor de temperatura. El programa principal del algoritmo instalado en el microcontrolador, Figura 3, se inicia en la dirección 00x00H. En esta dirección se configuran los diferentes puertos como entradas y salidas. Los puertos se identifican en el microcontrolador como los pines de conexión eléctrica por medio de los cuales se manejan el resto de los dispositivos del sistema.
Figura 3. Flujo del programa principal. En el siguiente bloque se cargan los valores de temperatura a controlar, dados por defecto al inicializarse el sistema. También se inicializan las variables requeridas en el proceso. Seguidamente se activan las interrupciones por RB,0 y del TMR0. La interrupción del TMR0 se configuro para que se active en un tiempo de 1ms.
Figura 4. Flujo de la sub-rutina de interrupción.
201
Memorias_BIOVEN_2012
por el sistema. Los errores detectados son inferiores al 0,1% de diferencia entre los grupos de medidas realizadas. El error de control se obtuvo del diferencial de temperatura entre los intervalos de encendido y apagado del calefactor. Para esta prueba se realizó un análisis comparativo de los valores de temperatura obtenidos en el software instalado en el computador, durante un periodo de 60 minutos de funcionamiento. De un total de 14400 muestras se obtuvo un error máximo de 0,7% entre la temperatura medida y la deseada en el ambiente de incubación.
Inicialmente se plantea una interrogante para identificar cual fue la interrupción que generó el llamado. Si la variable definida es verdadera se comprueba que la interrupción fue generada por el temporizador TMR0, de lo contrario se verifica que la interrupción fue generada por la activación externa de RB0. d) Software instalado en el computador. El software instalado en el computador está diseñado para que sirva de interfaz gráfica y de control para su utilización por el usuario. La Figura 5, muestra la gráfica que se presenta al activar este software.
CONCLUSIONES Este proyecto es un instrumento desarrollado con Tecnología propia que reduce los costos de producción y asegura el mantenimiento. Se trata de un sistema que puede implementarse en cualquier ambiente de incubación, de acuerdo con las necesidades del usuario. La capacidad de poder cambiar la temperatura desde el computador hace de este sistema un instrumento único que abre las puertas a nuevas investigaciones. Cabe destacar que los errores de funcionamiento se pueden minimizar si se implementa la técnica de control proporcional.
Figura 5. Panel gráfico y de control en el computador.
AGRADECIMIENTO
El software instalado en el PC tiene como finalidad el monitoreo de la señal de temperatura en el ambiente de incubación y da la posibilidad al usuario de cambiar los valores de la temperatura deseada dentro del ambiente de incubación. Consta de una gráfica milimetrada en donde se muestra la temperatura en el ambiente de incubación, tres botones de control y 2 cuadros de texto indicadores de temperatura. El software instalado en el computador está desarrollado en Visual Basic y corre bajo Windows. Este software se diseñó para graficar en el tiempo, los valores de la señal que se recibe del hardware. El gráfico que se genera en el computador permite visualizar los cambios de temperatura y comprobar la velocidad de respuesta del sistema ante las modificaciones del valor de la referencia del control. La comunicación de datos se realizan por medio de un puerto USB.
Se agradece al Laboratorio de Instrumentación Científica de la Facultad de Medicina (LIC-M) de la Universidad de los Andes (ULA) por su valioso apoyo tecnológico y al Instituto Universitario Tecnológico de Cabimas (IUTC) y a la Misión Sucre por los conocimientos impartidos. REFERENCIAS
[1] Creus A. (1997): Instrumentación Industrial, 6° Edición, Editorial Mc Graw Hill. Madrid. [2] Temperatura. Página Web disponible en línea: http://www.visionlearning.com. Último acceso: Julio 2011. [3] Ogata K. (1998): Ingeniería de control moderna. 3° Edición. Prentice hall. México. [4] Guía de incubación. Página Web disponible en línea: http://intercentres.cult.gva.es. Último acceso: Enero 2012. [5] Hemocultivos. Página Web disponible en línea: http://www.seimc.org. Último acceso: Enero 2012. [6] Historia del control automático. Página Web disponible en línea: http://usuarios.multimania.es. Último acceso: Agosto 2010. [7] Brophy, J. (1969): Electrónica Fundamental Para Científicos. Editorial REVERTE. Barcelona. [8] Microchip. (2001): PIC16F877A Data Sheet, Microchip Technology Inc. USA. [9] Silicon Labs. (2007): Single-Chip USB to UART Bridge. Silicon Laboratories. Rev.1.2.3/07. USA.
RESULTADOS Las pruebas de funcionamiento han arrojado excelentes resultados. Estas pruebas se realizaron midiendo la exactitud en la medición de la temperatura y calculando el error del control. La prueba de exactitud en la medición de la temperatura, consiste en detectar el error que se presenta entre el valor de la temperatura real y la obtenida en el ambiente de incubación. Para esto se realizaron 50 medidas de comparación entre un equipo de precisión y lo mostrado
202
INSTRUMENTACIÓN BIOMÉDICA
CONTROL DE UNA SILLA ROBÓTICA A TRAVÉS DE COMANDOS DE VOZ Juan Valero1, Yedith Bonilla1, Cecilia Sandoval1, Camilo Duque1 1
Grupo de Investigación en Tecnologías Digitales Aplicadas a Telecomunicaciones GITDAT – UNEFA, Venezuela. e-mail: juans5969@hotmail.com; yedith-bonilla@hotmail.com; csandoval1@uc.edu.ve; camilorene@gmail.com
RESUMEN El presente trabajo resume el diseño de un sistema de control basado en un módulo intérprete de comandos de voz (MICV) que es aplicado en el desarrollo de un prototipo de silla robótica multifuncional. El control es realizado a través de un microcontrolador PIC, para desplazamiento y posicionamiento de la silla de modo voz-dirigido. La captura de los comandos de voz se realiza con un micrófono conectado al dispositivo VRBot, el cual envía por transmisión serial la información al microcontrolador, se diseñó el algoritmo de control y se obtuvo una apropiada interpretación de los comandos y control sobre los actuadores para el movimiento de la silla de ruedas, cuyo principal aporte consiste en un sistema fácil de comandar para pacientes con limitaciones de movilidad, desarrollado con tecnología accesible y la incorporación de funciones para el manejo versátil de la silla robótica. Palabras Clave: Silla Robótica, Control por comando de voz, monitoreo remoto, Microcontroladores.
deviene en un sistema mecatrónico cuya descripción funcional se presenta en la figura 1. La composición mecánica se basa en una plataforma móvil de configuración Ackerman, motor DC en la tracción trasera y servomotor para direccionamiento delantero. Adicionalmente, se ha incorporado al diseño dos servo, uno para reclinar el espaldar de la silla y para la posición de los apoya pies.
INTRODUCCIÓN En el marco del Grupo de Investigación en Tecnologías Digitales Aplicadas a Telecomunicaciones (GITDAT), de la UNEFA sede Maracay, ha surgido un espacio para el desarrollo de proyectos con microcontroladores aplicados al área de tobótica y bio-ingeniería. Dentro de esta idea se encuentra el diseño de un control para una silla de ruedas operada por comandos de voz, con funciones adaptadas de acuerdo a las necesidades de personas con alguna discapacidad física, los que representan el 9% de la población total de Latinoamérica [1]. En primer lugar, se estudiaron las opciones de mandos y las opciones de posicionamiento de la silla [2], todo esto con el objetivo de establecer las características del prototipo a diseñar, tomando en consideración aspectos asociados a comodidad del usuario, el ángulo de giro para la ubicación de la silla en espacios reducidos, peso del prototipo, distancia prudente entre la silla y obstáculos próximos, posición del respaldar o del posa pie, manejo de la silla por parte del paciente.
Figura 1. Esquema funcional de la silla robótica Los elementos sensoriales considerados para el proyecto general han sido un telémetro láser [4], un módulo de Detección de Movimientos y Transmisión de Comandos (DMTC) [7], una cámara web para visión artificial y codificadores ópticos para la medición de posición, distancia recorrida y velocidad de desplazamiento de la silla. El alcance de esta investigación se ha establecido al desarrollo del sistema de control a través de un Módulo Intérprete de Comandos de Voz (MICV), el accionamiento de una base móvil para el prototipo de la silla de ruedas y un arreglo de sensores ultrasónicos para el control reactivo de la silla, mediante la detección de obstáculos. Una de las características que se le ha incorporado a este modelo de silla robótica consiste en el posicionamiento de la misma,
En la actualidad se han logrado, a nivel mundial, interesantes desarrollos en la bio-robótica y robótica de servicios, específicamente en la asistencia de personas con discapacidades motrices. Un ejemplo de estos lo constituye la silla robótica SENA desarrollada en la Universidad de Málaga en España [2]. Otro importante proyecto es la silla inteligente RobChair de la Universidad de Galati en Rumania[3], al igual que una silla inteligente para personas con compromiso cognitivo [4], sillas robotizadas dotada de un sistema de navegación [5] y el desarrollo de Babri [6]. A partir de estos se trata la integración de una serie elementos sobre un prototipo de silla de ruedas, lo cual
203
Memorias_BIOVEN_2012
PIC16F877 para seleccionar según el caso una rutina definida para la silla.
todo esto con el propósito de facilitar ciertas tareas del usuario como trasladarse de la silla hacia la cama, proveer de mayor comodidad e independencia, en tal sentido se han considerado para el prototipo una serie de funciones tales como reclinando el espaldar, elevando el apoya pies, a través de motores servo que son los encargados del posicionamiento, acoplados a los ejes móviles, aportando un sistema modular, sin requerir de una computadora a bordo para el procesamiento de las señales.
El módulo VRBot trabaja en base a grupos con un total de 16 grupos, cada uno con una memoria asignable para diferentes comandos de voz (máximo 15 comandos de voz por grupo), en esta ocasión se seleccionó el grupo 1 donde se grabaron un conjunto de comandos asociados a las funciones contempladas para el presente proyecto. A cada uno de estos comandos el módulo de voz le asigna una letra como su etiqueta de identificación para la transmisión serial, estas letras se leen por medio de un terminal virtual y de esa forma sabemos que esperar en el programa para realizar cierta actividad vinculada a esas letras que van a llegar en la trama de datos, mediante una comunicación serie asíncrona a una velocidad de 9600 baudios y una trama de datos de 8 bits, 1 de stop y sin paridad, el software de configuración y grabación de los comandos para el módulo VRBot se denomina EasyVR Commander que es simplemente una interfaz gráfica de comunicación con el usuario. Para la programación del módulo VRBot, se requiere de un circuito general de adaptación de niveles TTL a RS232, configurando los pines ETX y ERX del módulo con un MAX232 como se muestra en el diagrama circuital en la figura 3.
METODOLOGÍA El sistema ha sido diseñado a través de la configuración de cada uno de los bloques funcionales presentados en la figura 2, los componentes principales corresponde al microcontrolador PIC encargado de procesar las señales de entrada provenientes de la transmisión serial de datos generados en el módulo de reconocimiento de voz y los sensores de ultrasonido, y generar las señales de control para el accionamiento de los motores, esto por medio de un algoritmo de decisión, lo que le permite cierta autonomía a la silla de ruedas robótica. Monitoreo de Señales Médicas
CONTROL PIC 16F877
Driver & Actuadores
Módulo VRBot
Figura 2. Diagrama de Bloques del Control de la Silla Robótica. Para el accionamiento de la silla usando el módulo de voz se debe cumplir con el objetivo del reconocer los comandos de voz y transformar las órdenes en movimiento, basados en las instrucciones pronunciadas por el usuario. Es decir, decodificar la orden verbal del usuario y la orden a ejecutar por la máquina [8]. Este módulo tiene dos partes: el módulo de reconocimiento de voz, para el cual se seleccionó el módulo VRBot, y la traducción de las órdenes en movimiento que han sido asignadas por rutinas de control de motores efectuadas por el PIC.
Figura 3. Circuito de programación del VRBot Una vez almacenados los comandos, se realizó la transmisión de los comandos reconocidos por el módulo de voz, con el propósito de conocer la trama de datos esperada para la programación del protocolo de recepción por parte del PIC, ver figura 4.
En [8-9] se presentan las características y especificaciones técnicas. El módulo presenta un software para la configuración de los comandos, comandos definidos, en ellos se capturan los comandos seleccionados para la identificación de patrones de estos por parte del usuario de la silla, los cuales en adelante los reconoce generando como respuesta un numero que será transmitido al
Figura 4. Datos transmitidos por el VRBot Seguidamente, se diseño la estructura del código de programación del PIC, basado en selección de operaciones por medio de los comandos decodificados. En la figura 5,
204
INSTRUMENTACIÓN BIOMÉDICA
se presenta el diagrama de flujo para la tele operación de la dirección de la silla robótica.
Una de las características que se le ha incorporado a este modelo de silla robótica consiste en el posicionamiento de la silla a partir del accionamiento de servomotores, basado en la relación de ángulo con el tiempo del pulso, tomada de la ecuación 1, para programar la posición del ángulo.
α RECIBE COMANDO
Stime =1200 / 180 *ANG +900 NO
COMANDO = A
Con lo que el PIC genera la señal de control para el manejo de los servomotores, todo esto con el propósito de facilitar ciertas tareas del usuario como trasladarse de la silla hacia la cama, proveer de mayor comodidad e independencia.
SI
MOTOR_ADELANTE
COMANDO=B SI
RESULTADOS
α
NO
En la figura 7 se presenta la interface del EasyVRCommander v3.2.5, el cual muestra el grupo1 con 10 comandos programados, en este caso se observa el reconocimiento del comando STOP.
NO
COMANDO=C,D,F,G,H,I,J
MOTOR_ATRAS
(1)
SI
ENVÍA ANG:SERVO ENVÍA ANG_ESPALDAR ENVÍA ANG_APOYAPIES
NO
COMANDO=E
α
SI
α
DETENER_MOTOR
Figura 5. Diagrama de Flujo del Programa Principal En la figura 6.a se presenta el esquema conexión entre el microcontrolador y los realizado con el software de desarrollo libre estructura del prototipo de la silla con los presenta en la figura 6.b
circuital de periféricos, KiCAD, las motores se
Figura 7. Reconocimiento de Comandos
Driver
L293B
Figura 6. (a)Esquema de conexión del microcontrolador y periféricos (b) Base del prototipo de la silla de ruedas
205
Memorias_BIOVEN_2012
A partir de las pruebas de transmisión se desarrolló una rutina de chequeo continuo de los datos transmitidos, asociados al identificador generado por comando de voz reconocido, éste es verificado por el PIC para ejecutar la acción programada. En la tabla I se presenta el código en PICBasic para la comunicación entre el microcontrolador y el módulo VRBot, se deben configurar la captación de la trama de datos y direccionamiento de los comandos a la rutina de la acción a la cual se anclo la palabra grabada en el grupo 1 del EasyVR Commander, donde se cumple el protocolo para recibir el comando identificado a partir de la instrucción de voz suministrada por el usuario.
por comandos de voz para la silla de ruedas, ya que los comandos fueron reconocidos y el algoritmo programado en el PIC permitió la ejecución de estos, desarrollando así una solución accesible para adaptar una silla de ruedas a las necesidades de los usuarios. CONCLUSIONES El diseño desarrollado permitió validar las distintas funciones programadas a través de comandos de voz, usando para ello un prototipo de prueba para la silla de ruedas, con el propósito de ofrecer un modelo de silla robótica que ofrezca a los usuarios independencia, comodidad y alternativas factibles para incorporar las funciones de interés particular de manera modular, configurando funciones para adaptar la silla a diversos requerimientos como acople de la silla a la cama, reclinado, direccionamiento de la silla, entre otras funciones.
Tabla I. Código para Comunicación de Comandos HSerOut ["dB",13] HSerIn 500, INICIO ,[Wait("r")] HSerIn 500, INICIO ,[COMANDO]
En cuando al direccionamiento de la trama de datos capturada se establecieron líneas de códigos identificadas con las letras del comando a la cual se hace referencia con la acción específica, para poder accionar los motores de direccionamiento y desplazamiento de la silla y/o los servomotores que se encuentran en el espaldar y en el apoya pies. Las líneas de códigos se muestran en la tabla II.
REFERENCIAS [1] R. Velázquez, (2010), “Dinámica y Control de Sillas de Ruedas Robótica”, Avances en Ingeniería Electrónica, pp. 151-164. [2] J. González, et al., (2008) “La silla robótica SENA. Un enfoque basado en la interacción hombre-máquina,” Revista Iberoamericana de Automática e Informática Industrial, vol. 5, pp. 38-47 [3] R. Solea, et al., (2009), “Sliding mode control for trajectory tracking of an intelligent wheelchair,” University of Galati, vol. 32, no. 2, pp. 42-50. [4] L. Montesano, (2010), “Towards an intelligent wheelchair system for users with cerebral palsy”, IEEE transactions on neural systems and rehabilitation engineering : a publication of the IEEE Engineering in Medicine and Biology Society, vol. 18, no. 2, pp. 193202. [5] F. Auat, C., (2011), “Navegación Autónoma Asistida Basada en SLAM para una Silla de Ruedas Robotizada en Entornos Restringidos,” Revista iberoamericana de automática e informática industrial, vol. 8, no. 2, pp. 81-92. [6] O. Babri, et al., (2012), “Voice controlled motorized wheelchair with real time obstacle avoidance,” ICCIT. URL: http://www.taibahu.edu.sa/iccit/allICCITpapers/pdf/p72 4-babri.pdf. [consultado: 13-Jun-2012]. [7] J. Valero, Y. Bonilla, C. Sandoval, and C. Duque, (2012), “Sistema de control de una silla de ruedas para seguimiento automático,” in X congreso anual de ingeniería ASME USB 2012, pp. 1-6. [8] J. M. Alcubierre, et al, (2005), “Silla de Ruedas Inteligente Controlada por Voz,” in Primer Congreso Internacional de Domótica, Robótica y Teleasistencia, pp. 1-13. [9] Veear, “Manual de Usuario EasyVR.”
Tabla II. Código de accionamiento por comandos RX If COMANDO = "A" DMOTOR = 1 ElseIf COMANDO = "B" DMOTOR = 2 ElseIf COMANDO = "C" ASERVO1 = 45 ElseIf COMANDO = "D" ASERVO1 = 125
Then Then Then Then
En la tabla III se presentan los resultados de los comandos enviados para cada comando reconocido, el porcentaje de efectividad de reconocimiento de cada comando en un conjunto de 20 pruebas y la acción ejecutada por el sistema de control al recibir los comandos decodificados. Tabla III. Comandos programados en el módulo VRBot Comando TX com Efectividad ACCIÓN ADELANTE rA 90% MOTOR DC 10 ATRAS rB 95% MOTOR DC 01 DERE rC 80% GIRO DER IZQUIER rD 80% GIRO IZQ STOP rE 85% MOTOR DC 00 BAJA PIE rF 75% SERVO1 INC SUBE PIE rG 70% SERVO1 DEC BAJA TOPE rH 70% SERVO2 INC SUBE TOPE rI 70% SERVO2 DEC DETEN rJ 90% SERVO2 STOP Se ha demostrado que el módulo VRbot puede ser utilizado efectivamente para el desarrollo de un sistema de control
206
MODELADO MATEMÁTICO
Esta actividad interdisciplinaria y básica de la Bioingeniería trata de introducir el formalismo y el rigor de las matemáticas a las ciencias biológicas. La evolución histórica nos muestra algunos intentos. En 1775, el matemático Leonard Euler escribió un trabajo sobre los fenómenos cardiovasculares en el área de biomecánica. Braune y Fisher presentaron a comienzos de este siglo una teoría matemática de la locomoción humana. Ocasionalmente, y con poco éxito, aparecieron algunos enfoques matemáticos de la excitación nerviosa en los años 1890-1895. Un desarrollo matemático importante en el campo de la biología se basó en el descubrimiento hecho a fines del siglo XIX; que corresponde a la genética matemática, una rama del modelado matemático en bioingeniería. Las leyes de Mendel suministraron un conjunto de postulados sobre los cuales se elaboró una teoría considerablemente avanzada. Los principales nombres responsables de esta teoría son los R. A. Fischer, Sewall Wright y J. B. S. Haldane. En 1925 apareció un libro interesante de A. J. Lotka, “Elementos de Física Biológica”. La mayoría de los trabajos en la primera mitad del siglo pasado representan intentos de aplicación del razonamiento matemático a ramas más o menos especializadas de la biología. Esta biología matemática estaría, con respecto a la biología experimental, en una relación similar entre la física matemática y la física experimental. En 1939 Rashevsky fundó el “Bulletin of Mathematical Biophysics”, que se transformó en la primera publicación interdisciplinaria de jerarquía internacional. A partir de 1978 modificó su nombre “Bulletin of Mathematical Biology”. Actualmente, la Sociedad de Biología Matemática, con sede EE.UU, continúa la publicación del Bulletin mencionado. Además, hace unos años, se fundó la sociedad Latinoamericana de Biomatemática (SLAB). Por otra parte, las distintas publicaciones científicas que cubren las distintas áreas en bioingeniería dan lugar a trabajos teóricos que claramente corresponden al modelado matemático.
207
MODELADO MATEMÁTICO
MODELADO DE LA INFLUENZA A(H1N1) EN EL ESTADO NUEVA ESPARTA UTILIZANDO REDES ESTOCASTICAS Gilberto González-Parra1 , Javier Ruiz-Baragaño2 , R.J.Villanueva2 Jose Querales1 1
Grupo Matemática Multidisciplinar, Fac. Ingeniería Universidad de los Andes, Venezuela 2 Instituto de Matemática Multidisciplinar, Universidad Politécnica de Valencia gcarlos@ula.ve,jaruiba@fiv.upv.es,jquerales7@hotmail.com
Resumen En este trabajo se propone el modelo matemático SEIR usando redes estocásticas para la simulación y la comprensión de la epidemia de influenza A(H1N1) en el estado Nueva Esparta de Venezuela. El modelo propuesto utiliza para simular el proceso de transmisión de la influenza A(H1N1) muchas realizaciones del proceso estocástico subyacente. Estas simulaciones a gran escala se han convertido recientemente en una importante aplicación de la computación de alto rendimiento. El modelo matemático SEIR utilizando redes que aquí se propone tiene mejor rendimiento que el modelo tradicional SEIR basado en ecuaciones diferenciales ordinarias ya que refleja la falta de uniformidad de los datos reales. Los resultados presentados muestran que el modelo SEIR con redes se ajusta correctamente a los datos de series de tiempo de población de infectados con AH1N1 del estado Nueva Esparta. Los parámetros estimados muestran concordancia con los datos médicos sobre el virus de la influenza AH1N1. Palabras Clave: Modelo matemático, Redes estocásticas, Virus de influenza AH1N1/09, Simulación.
Introduccion
Un reciente enfoque donde se incorporan patrones realistas de contacto de la población puede aumentar la precisión de los modelos de la epidemia. Los procesos de las enfermedades en el mundo real son muy complejos, ya que incluyen diferentes grupos de edad, tienen diferentes períodos de incubación para diferentes grupos de edad o inclusive se difunden de forma diferente dependiendo del ambiente. Algunos investigadores han construido modelos precisos basados en agentes donde a cada individuo se le hace un seguimiento muy de cerca. Naturalmente, estos modelos implican una parametrización compleja y con frecuencia requieren de un cálculo intensivo [4].
El virus de influenza llamado A(H1N1) es una mezcla compleja de genes de origen aviar, humano y porcino y que puede transmitirse de humano a humano [1]. Debido a la importancia de la pandemia de influenza A(H1N1) en el mundo es importante tomar mediciones y predicciones sobre su evolución en las poblaciones ([2]). Un modelo global con metapoblación estructurada donde se integran datos mundiales de movilidad y transporte ha sido desarrollado con el fin de identificar los posibles escenarios para el el futuro desarrollo de la AH1N1/09 [3]. Es importante hacer notar que mientras que algunos parámetros se pueden determinar sobre la base de conoEl estudio de las redes de las redes sociales, es de cimientos anteriores, otros parámetros deben ser estimados por el ajuste del modelo a los datos disponibles, lo creciente importancia en un grupo diverso de disciplinas cual constituye un problema central en el campo de la [5]. La simulación de redes tienen el inconveniente de ser computacionalmente intensiva: una epidemia en una epidemiología [2]. 208
Memorias_BIOVEN_2012
población de unos pocos cientos de miles de nodos puede tomar horas de cálculo para obtener resultados promedio en un rango de parámetros del modelo. Sin embargo, esto es el costo de acabar con la hipótesis de una población totalmente mixta y la ventaja de utilizar una gama de posibilidades con el modelo de redes [6]. Existen pocos modelos matemáticos basados en redes que se han utilizado para estudiar la dinámica de algunas epidemias en el mundo real con datos de población infectada. Algunos trabajos interesantes presentados anteriormente incluyen la propagación del VRS, dengue, epidemias sociales, gripe equina y cólera [7, 8, 9, 10]. En este trabajo se propone un modelo SEIR utilizando la estructura de red, para reproducir o predecir la dinámica del virus A(H1N1). Se llevan a cabo simulaciones con el fin de analizar la eficacia del modelo y analizar la dinámica de la pandemia del virus A(H1N1) en el estado venezolano de Nueva Esparta durante el año 2009.
Metodología En esta sección presentamos el modelo SEIR el cual considera que la población total N (t), se divide en cuatro subpoblaciones: S(t) individuos susceptibles, E(t) personas incubando el virus, I(t) compuesta por los infectados y los recuperados R(t). Los niños recién nacidos entran a la población de susceptibles con una tasa de natalidad µ y las personas salen del sistema con una tasa de mortalidad d . Un individuo en S(t) transita a E(t) debido a un contagio con el virus de A(H1N1) transmitido por un contacto eficaz con un individuo en I(t) a una tasa β. Finalmente, consideramos que una vez que una persona se recupera, adquiere inmunidad permanente [2]. En este modelo las personas infectadas se recuperan con una tasa ρ, donde 1/ρ es el tiempo promedio para recuperarse de la gripe A(H1N1). Además, las personas latentes se infectan con una tasa ω, donde 1/ω es el tiempo promedio para llegar a infectarse. El modelo clásico SEIR viene dado analíticamente por: ˙ S(t) =µ − dS(t) − βS(t)I(t), ˙ E(t) =βS(t)I(t) − (d + ω)E(t),
(1)
˙ =ωE(t) − (d + ρ)I(t), I(t) ˙ R(t) =ρI(t) − dR(t).
(3)
(2) (4) 209
Este modelo epidemiológico determinista SEIR solo permite reflejar resultados mediante perfiles uniformes o suaves, los cuales difieren de los datos reales de población infectada con A(H1N1). Adicionalmente, el modelo determinista describe las epidemias con valores medios sin tener en cuenta la variación de la población o que la población tiene valores discretos [11]. Sin embargo, el modelo SEIR también se puede utilizar con redes de contacto y los resultados de la simulaciones pueden mostrar perfiles irregulares debido a la estructura subyacente discreta del modelo de red. Los resultados de la simulación con modelos de red puede ser muy diferente que el modelo determinista subyacente [11, 12]. Sin embargo, para algunos tipos de modelos de red como con el grafo completo ocurre que el promedio de las realizaciones coincide con el modelo determinista [8]. En el mundo real el seguimiento detallado de las actividades individuales a fin de comprobar los contactos posibles de contagio es complejo y requiere una gran cantidad de recursos humanos. Por ejemplo, el seguimiento de las actividades individuales y la construcción de la red se ha intentado para la ciudad de Portland [13]. En el modelo de redes la población está representada por una colección de individuos representados por vértices o nodos que están relacionados por enlaces o arcos. Los enlaces representan las relaciones entre los individuos con el potencial de transmisión de la enfermedad si uno de los individuos está infectado [5]. En nuestro estudio utilizamos distintos grados de conectividad k entre los nodos (individuos). Se parte de una red de tamaño constante en todas las simulaciones de Monte Carlo. La topología considerada es la red aleatoria la cual puede ser considerada como un modelo realista para la propagación de epidemias en zonas urbanas. Un estado inicial con una pequeña fracción de individuos infectados ha sido elegido como condición inicial. La principal diferencia con el modelo estándar continuo se encuentra en el proceso de infección: cada individuo susceptible sólo puede ser infectado por personas infectadas conectadas a través de los vínculos existentes con el. Esto ocurre con una probabilidad β para cada paso de tiempo. Los casos de gripe A(H1N1) están reportados por semana. En el cuadro 1, podemos ver los positivos en el estado Nueva Esparta para el año 2009. El período de incubación del virus A(H1N1) en la literatura se ha reportado de 2-10 días con una media de 6 días [1]. El período de contagio se ha reportado entre cuatro y siete días con ρ = 17 días−1 . Sin embargo, en
MODELADO MATEMÁTICO
niños pequeños y en pacientes inmunocomprometidos o gravemente enfermos, el período de contagio puede ser mayor. Dado que se utiliza el modelo SEIR por un período de tiempo relativamente corto se asume una población constante.
de los contactos k y la tasa de transmisión β. Es importante destacar que k y β son constantes a determinar por el ajuste del modelo a los datos reales de A(H1N1) en el estado Nueva Esparta, Venezuela durante el año 2009. En las Figs. 1 y 2 se pueden observar dos realizaciones del modelo usando un total de 450,136 nodos (haCuadro 1: Los datos semanales de infectados en el esta- bitantes) y los datos reales. Los resultados de la simudo Nueva Esparta para el año 2009 han sido reportados lación generan series de tiempo con perfiles irregulares por el Ministerio de Poder Popular para la Salud. que se aproximan relativamente bien a los datos reales. Los resultados óptimos muestran grados de conectiviSemana 24 25 26 27 28 29 30 31 32 dad alrededor de k = 13, ω = 15 y ρ = 17 , que están en Casos 2 3 0 0 1 1 3 0 2 concordancia con los datos médicos sobre el virus de la Semana 33 34 35 36 37 38 39 40 41 influenza A(H1N1) . Infectados Casos 1 13 9 8 1 5 2 2 1 12 Semana 42 43 44 45 46 47 48 49 50 10 Casos 0 0 0 1 0 0 1 0 0 8 6 4 2
Resultados
5
Esta sección está dedicada a presentar los resultados de la simulación y el montaje del modelo de red SEIR aleatoria con el fin de explicar de una manera más adecuada la no uniformidad de la serie temporal de datos reales en relación con el virus A(H1N1). Las simulaciones se realizan utilizando el método de Monte Carlo, asumiendo población y conexiones constantes. En el modelo se utilizaron diferentes valores para los parámetros del modelo tales como el grado de conectividad, velocidad de transmisión de la enfermedad, período de latencia, tasa de recuperación y condiciones iniciales. Sin embargo, variando principalmente la probabilidad ˆ La variación de estos de transmisión de la enfermedad β. parámetros se realiza con el fin de encontrar los mejores ajustes del modelo a los datos reales. En lo que respecta a la estructura inicial de la red se utiliza un grafo completo. Para el proceso de ajuste se realizaron más de un millón de realizaciones de Monte Carlo con un promedio de tiempo de computo de 2 minutos. Con el fin de obtener los resultados de la simulación para el modelo SEIR con red, en el menor tiempo se desarrolló una aplicación cliente-servidor para coordinar muchos equipos en el cálculo de la propagación de epidemias. Los resultados se almacenan en el servidor para su posterior procesamiento. Se han obtenido más de un millón de pruebas para diferentes combinaciones de la media 210
10
15
20
25
Semanas
Figura 1: Modelo ajustado (error=1.67) a los datos reales usando k = 13, β= 0.01398, ω = 51 y ρ = 71 . Infectados 12 10 8 6 4 2 5
10
15
20
25
Semanas
Figura 2: Modelo ajustado (error=1.72) a los datos reales usando k = 14, β= 0.014806, ω = 15 y ρ = 17 .
Discusión En este trabajo se propone el modelo matemático SEIR usando redes estocásticas para la simulación y la comprensión de la epidemia de influenza A (H1N1) en el estado Nueva Esparta de Venezuela. El modelo matemático SEIR utilizando redes refleja la falta de uniformidad de los datos reales. Los resultados presentados muestran que el modelo se ajusta correctamente a los datos de series de tiempo de población de infectados con A(H1N1) del estado Nueva Esparta. Los valores desconocidos de los parámetros del modelo obtenidos muestran concor-
Memorias_BIOVEN_2012
dancia con los datos médicos sobre el virus de la influenza A(H1N1) a pesar de la no uniformidad de los datos reales de la población de infectados con A(H1N1). Este enfoque de modelo con redes puede ser aplicado a la simulación de la dinámica de transmisión de varias epidemias. Además, la simulación puede proporcionar información útil para la comprensión, predicción y control de la transmisión de la epidemia de influenza A (H1N1) en diversas regiones. Futuros trabajos comprenden la utilización de modelos que consideren población vacunada para otros periodos e información detallada sobre los contactos entre individuos.
Referencias [1] CDC(2010): H1N1 flu. Center for Disease Control and Prevention Website, Available from:http://www.cdc.gov/h1n1flu/, last checked: 11 august 2010.
[6] Witten G., Poulter G.(2007): Simulations of infectious diseases on networks, Computers in Biology and Medicine, 37(2):195-205. [7] Massad E., Ma S., Chen M., Struchiner C. J., Stollenwerk N., Aguiar M.(2008): Scale-free network of a dengue epidemic, Applied Mathematics and Computation,195(2):376-381. [8] González-Parra G., Acedo L., Villanueva R.J., Arenas A.-J.(2010):Modeling the social obesity epidemic with stochastic networks, Physica A: Statistical Mechanics and its Applications, 389(17):3692-3701. [9] Firestone S. M., Christley R. M., Ward M. P., Dhand N. K.(2012):Adding the spatial dimension to the social network analysis of an epidemic: Investigation of the 2007 outbreak of equine influenza in Australia, Preventive Veterinary Medicine, 106(2):123-135.
[2] Tracht S.M., Del Valle S.Y., Hyman J.M.(2010):Mathematical modeling of the effectiveness of facemasks in reducing the spread of [10] Azaele S., Maritan A., Bertuzzo E., RodriguezIturbe I.,Rinaldo A.(2010):Stochastic dynamics of novel influenza A(H1N1), PLoS One, 5(2):e9018. cholera epidemics, Phys. Rev. E, 81(5):051901. [3] Balcan D., Hu H., Goncalves B., Bajardi P., Poletto C., Ramasco J., Paolotti D., Perra N., Tizzo- [11] Oksendal B.(1995):Stochastic Differential Equani M., Michele W., Broeck, Colizza V., Vespignani tions:an introduction with applicatioru, 3 ed, A.(2009): Seasonal transmission potential and acSpringer, New York. tivity peaks of the new influenza A(H1N1): a Monte Carlo likelihood analysis based on human mobi- [12] Acedo L., Moraˆno J.-A., Villanueva R.-J., lity, BMC Medicine, 7(1):45 Villanueva-Oller J., Díez-Domingo J.(2011): Using random networks to study the dynamics of [4] Zulueta E., González A., Lopez-Guede J. M., Calrespiratory syncytial virus (RSV) in the Spanish vo I.(2011):Simulación basada en SMA de sisteregion of Valencia,Mathematical and Computer mas originalmente representados con EDO, RevisModelling,54(7-8):1650 - 1654. ta Iberoamericana de Automática e Informática Industrial RIAI, 8(4):323-333. [5] Amaral L.A.N., Ottino J.(2004):Complex networks - augmenting the framework for the study of complex systems., European Physical Journal B, 38(2):147-162.
211
[13] Eubank S., Anil V. S., Marathe M. V., Srinivasan A., Wang N.(2006):Structure of Social Contact Networks and their impact on epidemics, DIMACS Series in Discrete Mathematics and Theoretical Computer Science, 70:181-214.
MODELADO MATEMÁTICO
CONTROL MULTIVARIABLE POR MODO DESLIZANTE DE LA PRESIÓN SANGUINEA DE PACIENTES EN POSTOPERATORIO R. Orellana, R. Rojas Universidad de los Andes, Centro de Ingeniería Biomédica y Telemedicina (CIBYTEL) e-mail: rafael.orellana@ula.ve
RESUMEN La condición de postoperatorio requiere un control cuidadoso de los signos vitales, entre ellos la presión sanguínea. Las no linealidades del sistema cardiovascular (SCV) dificultan el empleo de estrategias tradicionales de control, por lo que estrategias robustas que mejoren el desempeño del sistema deben ser utilizadas. Este trabajo muestra el uso de una estrategia robusta de control multivariable por modo deslizante (MMD) para el control de la presión arterial y venosa, basada en desacoplamiento por alimentación adelantada. La estrategia propuesta fue evaluada in silico utilizando un modelo matemático no lineal del SCV. Se determinó la sintonización del controlador en base al modelo primer orden más tiempo muerto del sistema y a características transitorias específicas. Se estudió el desempeño del sistema de control ante cambios del valor de referencia y la robustez del controlador ante errores de modelaje. Palabras Clave: No Linealidad, Control Multivariable, Modo Deslizante, Robustez
alimentación adelantada partiendo del modelo de primer orden más tiempo muerto (POMTM) del sistema cardiovascular [4]. El modelo POMTM se obtiene usando el método de la curva de reacción [5]. Se muestra el desempeño de la estrategia de control ante cambios de los valores de referencia y la robustez del sistema de control ante errores de modelaje.
INTRODUCCIÓN La atención del paciente en el período postoperatorio es importante para detectar complicaciones y alteraciones en el tiempo de recuperación. Generalmente en sala de recuperación es necesario un control continuo de los signos vitales del paciente, siendo la presión sanguínea uno de los de mayor importancia [1]. La presión arterial sistémica (PAS) y presión venosa sistémica (PVS) del sistema cardiovascular, son valores medidos continuamente en estos pacientes, donde variaciones de los valores estables hacen necesario el control simultáneo mediante la infusión múltiple de medicamentos que permitan la regulación [2]. En este sentido un control multivariable es necesario con el fin de mantener los valores de presión sanguínea que permitan la estabilización del paciente. Sin embargo, características como no linealidades, errores de modelaje, degradan el desempeño del sistema de control por lo que el uso de estrategias por estructura variable basado en modos deslizantes (SMCr) podrían mejorar la robustez del sistema. Este trabajo presenta el control multivariable de la presión arterial sistémica y presión venosa sistémica mediante la frecuencia cardiaca (HR) y la resistencia sistémica (RA), respectivamente. Para simular el paciente en postoperatorio se utiliza un modelo no lineal del sistema cardiovascular propuesto por Moller para pacientes en estas condiciones [3]. El control multivariable propuesto (MMD) corresponde a una estrategia por modo deslizante que se basa en el uso de técnicas de desacoplamiento por
MARCO TEÓRICO En esta sección se muestra las ecuaciones del modelo matemático no lineal del sistema cardiovascular propuestas por Moller [3] y los conceptos básicos de control de estructura variable basado en modos deslizantes. El modelo matemático no lineal para la presión arterial y venosa sistémica se muestra en las ecuaciones 1 y 2: dPAS (t ) PAS (t ) PVS (t ) Q (t ) =− + + L dt C AS R A (t ) C AS R A (t ) C AS
(1)
dPVS (t ) PAS (t ) P (t ) Q (t ) = − VS − R dt CVS R A (t ) CVS R A (t ) CVS
(2)
donde PAS(t) representa la presión arterial sistémica, PVS(t) la presión venosa sistémica, CAS la compliance arterial sistémica y CVS la compliance venosa sistémica, RA(t) la resistencia arterial sistémica, mientras que QL(t) y QR(t) las salidas cardiacas ventriculares izquierda y derecha, respectivamente. Estas salidas cardiacas ventriculares se
212
Memorias_BIOVEN_2012
relacionan con el volumen sistólico según las ecuaciones 3 y 4: Q L (t ) = S VL (t ) H R (t )
(3)
Q R (t ) = S VR (t ) H R (t )
(4)
curva de reacción [5]. En este sentido, se genera un modelo multivariable de dos entradas y dos salidas cuyo esquema en función de transferencia se muestra en la ecuación 5: ⎡ PAS ( s )⎤ ⎡G P11 ( s ) G P12 ( s ) ⎤ ⎡ H R ( s )⎤ ⎢ P ( s ) ⎥ = ⎢G ( s ) G ( s )⎥ ⎢ R ( s ) ⎥ P 22 ⎣ VS ⎦ ⎣ P 21 ⎦⎣ A ⎦
donde SVL(t) y SVR(t) representan el volumen sistólico del ventrículo izquierdo y derecho respectivamente, y HR(t) la tasa de latidos del corazón, ambos en función del tiempo de diástole. Los valores en estado estacionario para el modelo se muestran en la tabla I. Mayores detalles del modelo pueden obtenerse en el artículo original de Moller [3].
para cada término GPij(s), que refiere la i-ésima variable controlada respecto a la j-ésima variable manipulada del modelo en función de transferencia, se obtiene una ganancia estática Kij, constante de tiempo τij, y tiempo muerto t0ij, con i = 1,2 y j = 1,2. En este caso la presión arterial (PAS) se controla con la tasa de latidos del corazón (HR), y la presión venosa (PVS) con la resistencia sistémica (RA). Seguidamente se definen las ecuaciones de un sistema de control multivariable por modo deslizante basado en desacoplamiento por alimentación adelantada para el modelo multivariable POMTM [4]. El desacoplamiento por alimentación adelantada consiste en que se puede transformar el sistema multivariable original a una forma diagonal para cancelar los términos que generan la interacción [7]. La parte continua del controlador se muestra en las ecuaciones 6 y 7:
Tabla I. Valores en estado estacionario para el modelo del sistema cardiovascular de Moller [3] Variables PAS PVS HR RA SVR, SVL QL, QR
Valor 117.50 7.15 0 1.2422 1.0487 84.730 105.25
(5)
Unidades Mg. Mg. s-1 mmHg. s mL mL/s
Por otro lado, el control por modo deslizante (SMCr) es una estrategia de control que se fundamenta en lograr el movimiento del sistema en un subespacio llamado superficie deslizante y que éste permanezca sobre dicha superficie. La ley de control se conforma por la parte discontinua, que dirige cualquier estado inicial hacia la superficie en un tiempo finito hasta que se intercepte con ella (modo de alcance), y la parte continua, que restringe el movimiento sobre la misma todo tiempo posterior buscando llegar al valor final deseado (modo deslizante) [6]. Esto se muestra en la figura 1.
Veq1 (t ) =
Veq2 (t ) =
1 b11
[(a11 − 2 ⋅ λ11 ⋅ λ01 ) ⋅ x2 (t ) +
1 b22
[(a21 − 2 ⋅ λ12 ⋅ λ02 ) ⋅ x4 (t ) +
a12 ⋅ x1 (t ) + λ2 01 ⋅ e1 (t )
a 22 ⋅ x3 (t ) + λ
2
02
]
⋅ e3 (t )
]
(6)
(7)
Donde: a11 =
τ 11 + τ 12 τ 11τ 12
a12 = b11 =
a21 =
τ 21 + τ 22 τ 21τ 22
a22 = b22 =
1
τ 11τ 12 1
τ 21τ 22
(8)
(9)
Las variables xi(t) representan el modelo en espacio de estado del modelo multivariable POMTM. La sintonización de los parámetros λ1j y λ0j del controlador se determina de acuerdo a especificaciones de sobrepaso porcentual (Mp(%)) y tiempo de establecimiento (Ts) partiendo de los parámetros del modelo multivariable POMTM. En este caso se escogen los valores para un sobrepaso porcentual menor al 20% y un tiempo de establecimiento menor a 2τ [4]. La parte discontinua del controlador incluye una función de conmutación alrededor de la superficie de deslizamiento y viene dada por la ecuación 10 [8]:
Figura 1. Trayectoria de estados (x1 y x2) hacia la superficie deslizante (S(t))[4] METODOLOGÍA En esta sección se describen los pasos para el análisis del sistema de control de la presión arterial y venosa. En primer lugar se obtiene para cada relación de entrada/salida del modelo matemático no lineal del sistema cardiovascular un modelo POMTM usando el método de la
213
MODELADO MATEMÁTICO
V jN (t ) = K Dj
S j (t ) S j (t ) + δ j
K D1 , δ 1 > 0
(10)
donde Sj(t) representa la superficie deslizante integrodiferencial, KDj es el parámetro que permite lograr el alcance del modo deslizante, y δj permite la supresión de las oscilaciones sobre la superficie deslizante [8]. La ley de control viene dada por la siguiente ecuación, para j = 1,2: V j (t ) = Veq j (t ) + V jN (t )
(11)
Partiendo del desacoplamiento por alimentación adelantada se obtienen las salidas de control HR(t) y RA(t) [4]. La figura 2 muestra el esquema de control MMD para el modelo no lineal del SCV.
Figura 3. Salida de presión sanguínea del modelo no lineal y POMTM ante un cambio de HR en +10%
Figura 2. Esquema de control MMD para el modelo no lineal SCV Finalmente se realizan cambios en los valores de referencia de las presiones sanguíneas en valores de +5%. De igual manera analiza la robustez del sistema de control ante errores de modelaje en ±20% en los parámetros del modelo.
Figura 4. Salida de presión sanguínea del modelo no lineal y POMTM ante un cambio de RA en +10%
RESULTADOS Los valores de los parámetros de sintonización se muestran en la tabla II: Tabla II. Valores de los parámetros de sintonización del sistema de control Variables λ0j λ1j KDj δj
PAS (j = 1) 0.293 2.326 7.103 2.662
PVS (j = 2) 0.356 1.913 214.3 49.87
Las figuras 3 y 4 muestran las salidas de presión sistémicas ante cambios de HR y RA, como validación del modelo multivariable POMTM con respecto al modelo matemático no lineal del sistema cardiovascular. Es importante observar el error de modelado cometido en GP11(s) producto de la no linealidad del modelo matemático lo que justifica el uso de una técnica de control robusta.
Figura 5. Cambios del valor de referencia de PAS y PVS La figura 5 muestra el desempeño del sistema de control MMD ante cambios del valor de referencia de PA S y PVS de +5% en t=20s, t=150s y t=250s, t=400s respectivamente. Para PAS se observa un sobrepaso de 14%
214
Memorias_BIOVEN_2012
desempeño del sistema de control, lo cual dificulta el empleo de estrategias de control tradicionales, caso del modelo matemático no lineal propuesto por Moller [3] para pacientes en el periodo postoperatorio. El uso de la estrategia de control multivariable basada en modo deslizante, MMD, permitió reducir el efecto de no linealidades a pesar de los errores de modelaje en el sistema multivariable POMTM. Ante cambios del valor de referencia para la presión arterial y venosa se logró mantener las variables controladas en la especificación de sobrepaso porcentual propuesta. En cuanto a la robustez del controlador multivariable logró mantener la regulación del valor de referencia permitiendo errores de modelaje en un rango de ± 20% en las ganancias estáticas, constantes de tiempo y tiempos muertos sin mayor efecto sobre la respuesta. Finalmente, por los resultados obtenidos mediante simulaciones, se puede concluir que el esquema de control MMD propuesto presenta resultados satisfactorios para esta aplicación independientemente de los errores de modelaje.
Figura 6. Señal de control ante cambios del valor de referencia en PAS y PVS aproximadamente y un tiempo de establecimiento cercano a 4.5s. Para PVS un sobrepaso de 20% y tiempo de establecimiento aproximado de 4.1s. En ambos casos se muestra el rechazo de la interacción entre los lazos de control. La figura 6 muestra la salida de las señales de control MMD. La figura 7 muestra el desempeño del sistema de control MMD ante errores de modelaje en las ganancias estáticas Kij. En este caso el efecto sobre el desempeño del sistema de control afecta el porcentaje de sobrepaso, sin embargo su variación con respecto al valor original es poco significativa (aproximadamente ± 0.1%), comprobando la robustez de la estrategia de control. Es importante señalar que las respuestas del sistema ante errores de modelaje en las constantes de tiempo τij y tiempo muerto t0ij son menos sensibles que con respecto al efecto de variaciones en las ganancias estáticas.
AGRADECIMIENTO Los autores agradecen la colaboración del Centro de Ingeniería Biomédica y Telemedicina de la Universidad de los Andes en la elaboración de este trabajo. REFERENCIAS [1] Pontificia Universidad Católica de Chile. Guía: recepción y atención del paciente post-operado. Documento en línea: http://biblioteca.duoc.cl/bdigital/Documentos_Digitales/600/610/39632.pdf. Último acceso: Junio, 2012. [2] Serna, V., Roy, R., y Kaufman, H (1983): Adaptive control of multiple drug infusion, American Control Conference, New York, pp 22-26. [3] Möller D, Popovi´c D, Thiele G. (1983): Modelling, Simulation and Parameter-Estimation of the Human Cardiovascular System, Advances in control systems and signal processing, 4. [4] Orellana, R., y Rojas, R. (2012). Control de Estructura Variable por Modo Deslizante para Sistemas Multivariable, Congreso Internacional de Métodos Numéricos en Ingeniería y Ciencias Aplicadas. Porlamar, Venezuela, pp EC31-EC34. [5] Smith, C., y Corripio, A. (1997): Control Automático de Procesos, 2da edición, Limusa. [6] Utkin, J. (1977): Variable structure systems with sliding modes, IEEE Transaction on Automatic Control., 22: pp 212-222. [7] Albertos, P., y Sala, A (2004): Multivariable Control Systems: An Engineering Approach, 1ra edición, Springer. [8] Camacho, O (1996): A new approach to design and tune sliding mode controller for Chemicals processes. Doctoral Dissertation, University of South Florida.
Figura 7. Desempeño del sistema de control ante errores de modelaje en Kij CONCLUSIONES Los sistemas multivariables generalmente tienen características como no linealidades que degradan el
215
MODELADO MATEMÁTICO
MODELO DE CONTROL PI PARA LA REGULACIÓN DE PRESION ARTERIAL B. Sánchez1, R. Rojas2 1
Grupo de Bioingeniería Universidad Nacional Experimental del Táchira (UNET) 2 Grupo de Ingeniería Biomédica. Universidad de los Andes (GIBULA) e-mail: bsanchez@unet.edu.ve, rdrojas@ula.ve
RESUMEN La hipertensión arterial (HA) ha sido considerada uno de los problemas más relevantes de salud pública, que afecta cerca de mil millones de personas a nivel mundial, debido a sus altas tasas de morbilidad y mortalidad, por lo que su estudio ha sido objeto de investigación en diferentes disciplinas. Dentro de las herramientas que se han utilizado para su análisis están los modelos matemáticos, que permiten abstraer las características de interés para el estudio de un sistema en particular. El objetivo del siguiente trabajo es presentar un modelo por compartimientos del sistema cardiovascular (SCV) y del sistema nervioso autónomo (SNA) como mecanismo de control de la presión arterial. El modelo de control se realiza a través de un controlador Proporcional-Integral (PI). La sintonización del controlador permitió obtener salidas fisiológicamente validas en estado normal y bajo ciertas condiciones patológicas simuladas. Palabras Clave: Presión arterial, Frecuencia cardiaca, control PI, Sistema nervioso.
INTRODUCCIÓN Donde PAS es la presión arterial sistólica y PAD la presión arterial diastólica. En cuanto al sistema de control, el reflejo baroreceptor es considerado la vía refleja primaria del control homeostático de la presión arterial. Cuando el aumento de la presión en las arterias estira la membrana del baroreceptor, se dispara un aumento de la frecuencia de descarga del receptor. Si la presión arterial disminuye, la frecuencia de descarga del receptor también se reduce. La función cardiaca está regulada por un control antagonista. El incremento de la actividad simpática aumenta la frecuencia cardiaca (FC) en el nodo sinoauricular, reduce el tiempo de conducción a través del nodo auriculoventricular e incrementa la fuerza de contracción miocárdica. El aumento de la actividad parasimpática reduce la FC pero solo ejerce un mínimo efecto sobre la contracción ventricular [3]. Este sistema es el controlador de respuesta más rápido ante elevaciones (disminuciones) de la presión arterial. Su característica principal es su velocidad de respuesta que comienza en segundos y con frecuencia eleva la presión a dos veces su valor normal en 5 a 10 seg. Por el contrario, la inhibición brusca de la estimulación nerviosa puede reducir la presión arterial a cifras tan bajas como la mitad de su valor normal en 10 a 40 seg. [4]. Este mecanismo actúa sobre la FC, contractilidad cardiaca y sobre los vasos sanguíneos, mediante vasoconstricción o vasodilatación de arterias y venas. La presente investigación forma parte de un modelo más extenso del control baroreflejo que incluye no solo la
Según la Organización Mundial de la Salud (OMS), la HA está dentro de las cuatro enfermedades que elevan el riesgo de enfermedades cardiovasculares y de diversos tipos de cáncer. A nivel mundial, uno de cada tres adultos tiene la tensión arterial elevada, trastorno que causa aproximadamente la mitad de todas las defunciones por accidentes cerebrovasculares o cardiopatías. Se considera que ese problema fue la causa directa de 7,5 millones de defunciones en 2004, lo que representa casi el 13% de la mortalidad mundial [1]. Por esta razón el estudio de su fisiopatología y de los mecanismos de control se convierte en un tema de investigación en diferentes disciplinas, tal como la Bioingeniería, que usa herramientas como el modelado matemático, el cual permite analizar el comportamiento de un sistema determinado por medio de simulaciones. En este caso del Sistema Cardiovascular (SCV). El SCV, desde el punto de vista funcional está formado por el corazón, el sistema circulatorio y el sistema de control, y su objetivo principal es hacer llegar la sangre a todos los rincones del cuerpo, llevando así los nutrientes y el oxígeno (O2) y recogiendo los productos de desecho y el dióxido de carbono (CO2). Para el estudio previsto, la variable que permite evaluar su funcionamiento es la presión arterial media (PAM), y está definida por: PAM = PAD +
PAS − PAD 3
(1)
216
Memorias_BIOVEN_2012
regulación de la FC sino de otras variables que son inervadas por el SNA. Sin embargo en esta oportunidad solo se está analizando su influencia sobre la FC con el objetivo de estudiar su comportamiento ante diferentes situaciones que son simuladas. El Objetivo del trabajo es presentar una herramienta para la comprensión de este complejo sistema, con fines pedagógicos. Además del análisis de algunas patologías. En esta etapa de la investigación, la validación consiste en comparar, la respuesta del modelo ante variaciones de presión con las respuestas halladas en la literatura. Sin embargo, en las siguientes fases (trabajo a futuro) las salidas serán contrastadas con valores reales.
sobre el radio del vaso, y no de la resistencia total como en el modelo original Q=
∆pπR 4 8 ρL
(2)
donde, ∆p, es la diferencia de presión, ρ la viscosidad sanguínea, L: longitud del vaso, R: radio del vaso. El diagrama de bloques de la figura 1, muestra el SCV y el sistema de control planteado, en el cual, por ahora, solo se incluye y analiza la influencia del control de la PAM mediante la variación de FC a través del SNA. El control PI, se activa mediante las señales enviadas por los baroreceptores, representadas por dos funciones sigmoidales, una para la acción simpática, Ec. (3), y otra para la parasimpática, Ec. (4), [2]:
METODOLOGÍA La mayoría de autores de acuerdo a sus necesidades han representado el SCV con diferentes grados de complejidad, utilizando diferentes elementos bien sean eléctricos, mecánicos o hidráulicos, planteando una configuración apropiada de capacitancias y resistencias, para los cuales plantean las ecuaciones diferenciales y establecen su relación con los diferentes componentes fisiológicos [7]. Los modelos compartamentales han resultado unos de las técnicas que mejor se adapta para el modelado de los SCV, desde el modelo inicial de Grodins[9] hasta los más complejos como el de Guyton [10]. Otros se han se desarrollado para algún análisis muy particular como el de Cheng [11] y Ding [12] o modelos híbridos como el trabajo presentado por Dat Marco [13]. En la presente investigación se utiliza el modelo del SCV y del mecanismo baroreceptor propuesto por Ottesen [2], el cual se basa en las relaciones de presión, flujo y volumen de los compartimientos considerados. El modelo está formado por corazón derecho e izquierdo, circulación sistémica y circulación pulmonar. Cada parte del corazón consta de la aurícula y el ventrículo, además de las válvulas auriculoventriculares y las válvulas aortica y pulmonar. La circulación sistémica al igual que la pulmonar se divide en cinco secciones simulando las diferentes áreas de las mismas, en donde se miden variables como flujo, presión, resistencia y compliance [2]. El modelo propuesto además de las características originales incluye variabilidad cardiaca (VC), utilizando el modelo IPFM (“Integral Pulse Frequency Modulation”) [5], las válvulas auriculoventriculares se simularon con cierre progresivo, basados en la derivada; este modelo considera solo la onda de llenado rápido (aceleración y desaceleración de la onda E) [8], la contracción auricular no se modela, sin embargo éste flujo se incluye en la primera fase para completar el llenado. Adicionalmente las ecuaciones que modelan las arterias y vasos de la circulación sistémica están basadas en la ecuación de Poiseuille, Ec. (2), permitiendo hacer variaciones directas
1
n s ( PAM ) =
n p ( PAM ) =
ν
PAM 1 + µ 1
PAM 1 + µ
(3)
−ν
(4)
donde µ, es la constante de la PA en los baroreceptores en estado estable (presión adaptada de los baroreceptores) y ν es la pendiente de las curvas. Modelo IPFM
+ Control PI
+
Tt
Sistema Cardiovascular (SCV)
PAM
np Baroreceptor
ns Figura 1. Diagrama de bloque del esquema de control El control de la FC, se calcula mediante la suma del periodo calculado en el modelo IPFM (T1), más la contribución del sistema nervioso (sistema simpático (Ts) y parasimpático (Tp)) [6] esto es: Tt = T1 + Ts + T p
(5)
En la tabla 1 se indican los valores del Control PI, tanto para la parte simpática como para la parasimpática
217
MODELADO MATEMÁTICO
70
Tabla 1: Valores de los parámetros proporcional integral del controlador P 0.3 0.2
66
I 0.025 0.07
64 62 lpm
SNA S. Simpático S. Parasimpático
68
60
RESULTADOS
58
La figura 2, muestra la PAM como salida del modelo, cuando se simula un aumento de la PA, disminuyendo el valor del radio en uno de los segmentos arteriales de la circulación sistémica. Esta perturbación fisiológicamente consiste en la disminución de la luz en las arterias, debida, por ejemplo a una arterioesclerosis.
56 54 52
0
10
20
30
40 latidos
50
60
70
80
Figura 3. Frecuencia Cardiaca, en presencia de una obstrucción arterial sin control (línea continua), control PI (línea punteada)
110
106
94
104
92
102 90 100 88
98
PAM, mmHg
PAM, mmHg
108
96 94
86 84
92 82 90
0
10
20
30
40 latidos
50
60
70
80
80
Figura 2. Presión arterial media (PAM), en presencia de una obstrucción arterial. Sin control (línea continua), control PI de la FC (línea punteada)
78
0
10
20
30
40 latidos
50
60
70
80
Figura 4. Presión arterial media (PAM), simulando una hemorragia. Sin control (línea continua), control PI de la FC (línea punteada)
Puede observarse que, para una denervación completa (ausencia del control nervioso) la presión aumenta en un mayor porcentaje que en presencia del control, este resultado es debido a la disminución de la frecuencia efecto del control baroreceptor. Los niveles de aumento en la presión dependerán del nivel de obstrucción, en este caso se simuló una obstrucción del 20% de la luz arterial en el segundo segmento de la circulación sistémica modelada. Los valores de la FC se muestran en la figura 3. En donde es posible notar su disminución en el mismo instante en que se produce el aumento de presión.
En las figuras 4 y 5 se muestra el efecto contrario del control PI, cuando existe una disminución de la PA, producida, por ejemplo, por una disminución del retorno venoso, (fisiológicamente podría referirse a una hemorragia). Se puede observar como el controlador provoca un aumento de la FC para compensar la caída de presión.
218
Memorias_BIOVEN_2012
model. Am J Physiol Heart Circ Physiol, Vol. 275 pp. 1733-1747, [7] Sánchez B., Rojas, R., Dávila D., Modelando el Sistema Cardiovascular. Revista Iberoamérica de Automática e Informática Industrial. (Artículo en revisión). [8] Piñeiro, Bustamante Labarta, Guevara, Migliore, Roisinblit (2005): Ecocardiografía Para la toma de decisiones clínicas. Editorial Médica Panamericana. Argentina [9] Grodins F.S. (1959): Integrative cardiovascular physiology: a mathematical synthesis of cardiac and blood vessel hemodynamics. Q. Rev. Biol., Vol. 34, pp. 93–116. [10] Guyton Arthur C. (1955): Determination of Cardiac Output by Equating Venous Return Curves with Cardiac Response Curves. Physiol. Rev. pp. 123-129. [11] Cheng Teddy, Svakin Andrey, Su W. Steven (2008): Nonlinear Modelin and Control of Human Heart Rate Response During Exercise with Varios Work Load Intensities. IEEE Transactions on Biomedical Engineering, Vol. 55 No. 11. [12] Ding Hang, Crozier Stuart, Wilson Stephen. (2007): A New Heart Rate Variability Análisis Method by Means of Quantifying the Variation of Nonlinear Dynamics Patterns, IEEE Transactions on Biomedical Engineering, Vol. 54 No.9. [13] Dat, Marco, (2010): Modeling cardiovascular autoregulation of the preterm infant. Eindhoven University of Technology Faculty of medical engineering. Department of cardiovascular biomechanics. Tomado de: http://131.155.54.17/mate/pdfs/12106.pdf
90
85
lpm
80
75
70
65
60
0
10
20
30
40 latidos
50
60
70
80
Figura 5. Frecuencia Cardiaca, simulando una hemorragia. Sin control (línea continua), control PI (línea punteada)
CONCLUSIONES El estudio de los sistemas fisiológicos, a partir de modelos matemáticos, permite una abstracción de estos complejos sistemas, logrando así un mejor entendimiento de su funcionamiento. En este trabajo se realizó la simulación de efecto del Sistema Nervioso Autónomo sobre la variabilidad la Frecuencia Cardiaca como el efecto del IPFM mas un controlador PI diseñado para regular la PAM, como parte del reflejo baroreceptor analizando así la acción inmediata ejecutada por el SNA sobre la FC para el control de la PA, para diferentes situaciones tanto normales como patológicas, logrando alcanzar un buen desempeño del controlador diseñado.
REFERENCIAS [1] ¿Es la hipertensión un problema frecuente?. Pagina Web disponible en línea: http://www.who.int/features/qa/82/es/. Último acceso: Mayo 2012. [2] Ottesen J. et al (2004): Applied Mathematics Model in Human Physiology. Siam, Society for Industrial and Applied Mathematics. Philadelphia. [3] Silverthorn (2007): Fisiología Humana. Un enfoque Integrado, . 4ta edición, Editorial Médica Panamericana. [4] Guyton Arthur C., Hall John E. (2001): Tratado de Fisiología Médica. Mc Graw-Hill. [5] Ramirez, J., Moreno, F., Rojas., R (2008): IX Congreso Internacional de Métodos Numéricos en Ingeniería y Ciencias Aplicadas CIMENICS 2008. Venezuela, B-36-38. [6] Ursino Mario. (1998): Interaction between carotid baroregulation and the pulsating heart: a mathematical
219