Rlh 2 2016

Page 1



R

Editor en Jefe Manuel Velasco (Venezuela) Editor Adjunto Julio Acosta Martínez Editores Asociados Alcocer Luis (México) Brandao Ayrton (Brasil) Feldstein Carlos (Argentina) Israel Anita (Venezuela) Israili Zafar (Estados Unidos) Levenson Jaime (Francia) Parra José (México) Ram Venkata (Estados Unidos) Comité Editorial Álvarez de Mont, Melchor (España) Amodeo Celso (Brasil) Arciniegas Enrique (Venezuela) Baglivo Hugo (Argentina) Bermúdez Valmore (Venezuela) Bognanno José F. (Venezuela) Briceño Soledad (Venezuela) Contreras Freddy (Venezuela) Contreras Jesús (Venezuela) Crippa Giuseppe (Italia) De Blanco María Cristina (Venezuela) Escobar Edgardo (Chile) Foo Keith (Venezuela) Gamboa Raúl (Perú) Juan De Sanctis (Venezuela) Kaplan Norman (Estados Unidos) Lares Mary (Venezuela) Lenfant Claude (Estados Unidos) López Jaramillo Patricio (Colombia) López Mora (Venezuela) Manfredi Roberto (Italia) Manrique Vestal (Venezuela) Marahnao Mario (Brasil) Marín Melania (Venezuela) Monsalve Pedro (Venezuela) Morr Igor (Venezuela) Mújica Diorelys (Venezuela) Nastasi Santina (Venezuela) Pizzi Rita (Venezuela) Ponte Carlos (Venezuela) Rodríguez Luis Alejandro (Venezuela) Rodríguez de Roa Elsy (Venezuela) Sánchez Ramiro (Argentina) Soltero Iván (Venezuela) Tellez Ramón (Venezuela) Valdez Gloria (Chile) Valencia Delvy (Venezuela) Vidt Donald (Estados Unidos) Zanchetti Alberto (Italia)

Sumario - Volumen 11, Nº 2, 2016

Editores

evista Latinoamericana de Hipertensión Procesamiento de la señal eléctrica del corazón, usando máquinas de aprendizaje Processing of the electrical signal of heart, using machine learning Luis E. Mendoza, Gendy Monroy Estrada, Aldo Pardo García, José Gerardo Chacón, Miguel Vera, Julio Contreras-Velásquez, Valmore Bermúdez. Modelo computacional de la válvula pulmonar en contextos hipertensivos Computational model of the pulmonary valve in hypertensive contexts Yoleidy Huérfano, Miguel Vera, Atilio Del Mar, María Vera, Julio Contreras-Velásquez, José Chacón, Sandra Wilches-Duran, Modesto Graterol-Rivas, Maritza Torres, Victor Arias, Joselyn Rojas, Wilson Siguencia, Lisse Angarita, Rina Ortiz, Diana Rojas-Gomez, Carlos Garicano, Daniela Riaño-Wilches, Maricarmen Chacín, Valmore Bermúdez, Antonio Bravo. Clasificador de perfiles de tratamientos de Diabetes Tipo 2 e Hipertensión Arterial utilizando métodos de recuperación vectorial de información: Caso IPS UNIPAMPLONA Classifier of profiles of Type 2 Diabetes and Hypertension treatments using vector information retrieval methods: UNIPAMPLONA IPS Case José Chacón, Miguel Vera, Pedro Ariza, Daniela Beltran, Yoleidy Huérfano, Joselyn Rojas, Johel Rodriguez, Modesto Graterol-Rivas, Victor Arias, Atilio Del Mar, Daniela Riaño-Wilches, Julio ContrerasVelásquez, Sandra Wilches-Duran, Marco Cerda, Valmore Bermúdez. Segmentación automática tridimensional de estructuras ventriculares cerebrales en imágenes de resonancia magnética Three-dimensional automatic segmentation of ventricular brain structures in magnetic resonance imaging Miguel Vera, Valentín Molina, Yoleidy Huérfano, María Vera, Atilio Del Mar, Williams Salazar, Sandra Wilches-Duran, Modesto GraterolRivas, Joselyn Rojas, Carlos Garicano, Armando Peña, Julio ContrerasVelásquez, Victor Arias, José Chacón. Segmentación computacional de la vena cava superior y procesos hipertensivos Superior vena cava computational segmentation and hypertensive processes Yoleidy Huérfano, Miguel Vera, Atilio Del Mar, María Vera, José Chacón, Sandra Wilches-Duran, Modesto Graterol-Rivas, Maritza Torres, Víctor Arias, Joselyn Rojas, Carem Prieto, Wilson Siguencia, Lisse Angarita, Rina Ortiz, Diana Rojas-Gomez, Carlos Garicano, Daniela Riaño-Wilches, Maricarmen Chacín, Julio Contreras-Velásquez, Valmore Bermúdez, Antonio Bravo.

Volumen 11, Nº 2. 2016 Depósito Legal: pp200602DC2167 ISSN: 1856-4550 Sociedad Latinoamericana de Hipertensión Dirección: Escuela de Medicina José María Vargas, Cátedra de Farmacología, piso 3. Esq. Pirineos. San José. Caracas-Venezuela. Telfs. 0212-5619871 E-mail: revistahipertension@gmail.com www.revistahipertension.com.ve Comercialización y Producción: Felipe Alberto Espino Telefono: 0212-881.1907/ 0416-811.6195 / 0412-363.4540 E-mail: felipeespino7@gmail.com Diseño de portada y diagramación: Mayra Gabriela Espino Telefono: 0412-922.25.68

E-mail: mayraespino@gmail.com

25

31

36 44

49


Instrucciones a los Autores

ALCANCE Y POLÍTICA EDITORIAL

La revista Latinoamericana de Hipertensión es una publicación biomédica periódica, arbitrada, de aparición trimestral, destinada a promover la productividad científica de la comunidad nacional e internacional en el área de Sistema Cardiovascular; así como todas aquellas publicaciones vinculadas a la medicina práctica en esta área. Su objetivo fundamental es la divulgación de artículos científicos y tecnológicos originales y artículos de revisión por invitación del Comité Editorial, asimismo, se admiten informes de investigaciones de corte cualitativo o cuantitativo; todos deben ser trabajos inéditos, no se hayan sometidos o hayan publicados en otra revista. El manuscrito debe ir acompañado de una carta solicitud firmada por el autor principal y el resto de los autores responsables del mismo. Está constituida por un Comité de redacción, organizado por Editor en Jefe, Editores Ejecutivos y Comité Editorial. Los manuscritos que publica pueden ser de autores nacionales o extranjeros, residentes o no en Venezuela, en castellano o en ingles (los resúmenes deben ser en ingles y castellano). Esta revista está incluida en las bases de datos de publicaciones científicas en salud: SCIENCE CITATION INDEX EXPANDED (SciSearch) JOURNAL CITATION REPORTS/SCIENCE EDITION REDALYC (Red de Revistas Científicas de América Latina, el Caribe, España y Portugal) SCIELO (Scientific Electronic Library Online) LATINDEX (Sistema Regional de Información en Línea para Revistas Científicas de América Latina, el Caribe, España y Portugal) LIVECS (Literatura Venezolana para la Ciencias de la Salud) LILACS (Literatura Latinoamericana y del Caribe en Ciencias de la Salud) ELSEVIER BIBLIOGRAPHIC DATABASES: EMBASE, Compendex, GEOBASE, EMBiology, Elsevier BIOBASE, FLUIDEX, World Textiles, Scopus DRJI (Directory of Research Journal Indexing) PERIÓDICA (Índices de Revistas Latinoamericanas en Ciencias) REVENCYT (Índice y Biblioteca Electrónica de Revistas Venezolanas de Ciencias y Tecnología) SABER UCV A tales efectos, los manuscritos deben seguir las instrucciones siguientes: a.- Todo el proceso de revisión, edición y publicación se realiza vía correo electrónico y a través de la red, permitiendo de esta manera agilizar la edición, y que un amplio público pueda acceder de manera rápida y gratuita. b.- Los trabajos deben ser enviados como archivo en formato MS Word u openoffice no comprimido adjunto a un mensaje de correo electrónico en el que deben figurar: Los nombres y apellidos completos de todos los autores y el título del trabajo, el correo electrónico y dirección postal del autor de contacto. Después de haber recibido el trabajo enviaremos un correo electrónico como acuse de recibo. Orientaciones para la publicación Para la publicación de trabajos científicos en la revista Latinoamericana de Hipertensión, los mismos estarán de acuerdo con los requisitos originales para su publicación en Revistas Biomédicas, según el Comité Internacional de Editores de Revistas Biomédicas (Arch. lntern. Med. 2006:126(36):1-47), www.icmje.com. Además, los editores asumen que los autores de los artículos conocen y han aplicado en sus estudios la ética de experimentación Internacional, como es el caso de la Convención de Helsinki. En el caso de estudios clínicos hechos en Venezuela, debe mencionarse en la sección correspondiente a selección del paciente, si el estudio se realizo en apego a la Convención de Helsinki, Ley del ejercicio de la medicina y Normas de Investigación Clínica del Ministerio de Salud y Desarrollo Social, con el consentimiento informado y la aprobación del comité de ética correspondiente. Se aceptan como idiomas el español, francés, portugués e inglés. Los trabajos no deben pasar de un total de 25 páginas de extensión. Se debe revisar el trabajo eliminando todos los formatos ocultos innecesarios. Al comienzo del trabajo se debe incluir, y por este orden: título, autores, afiliación, dirección electrónica, resumen de no más de 200 palabras y listado de palabras clave. A continuación, en el caso de que el idioma no sea el inglés, versión en esta lengua del título (Title), resumen (Abstract) y palabras clave (Key words). Las referencias a artículos o libros figurarán en el texto, entre paréntesis, indicando el apellido del autor/a o autores/as y el año de edición, separados por una coma. Configuración de página Mecanografiar original a doble espacio, papel bond blanco, 216 x 279 mm (tamaño carta) con márgenes, Margen superior 2,4.Márgenes inferior, izquierdo y derecho 3. Encabezado 1,4. Pie de página 1,25. Sin citas a pie de página, en una sola cara del papel. Usar doble espacio en todo el original. Su longitud no debe exceder las 10 páginas, excluyendo el espacio destinado a figuras y leyendas (4-5) y tablas (4-5). Formato texto - Cada uno de los componentes del original deberá comenzar en página aparte, en la secuencia siguiente: a. Página del título. b. Resumen y palabras claves. c. Texto. d. Agradecimientos. e. Referencias. f. Tablas: cada una de las tablas en páginas apartes, completas, con título y llamadas al pie de la tabla. g. Para la leyenda de las ilustraciones: use una hoja de papel distinta para comenzar cada sección. Enumere las páginas correlativamente empezando por el título. El número de la página deberá colocarse en el ángulo superior izquierdo de la misma. La página del título deberá contener: - Título del artículo, en inglés y español conciso pero informativo. a. Corto encabezamiento de página, no mayor de cuarenta caracteres (contando letras y espacios) como pie de página, en la página del título con su respectiva identificación. b. Primer nombre de pila, segundo nombre de pila y apellido (con una llamada para identificar al pie de página el más alto grado académico que ostenta y lugar actual donde desempeña sus tareas el(los) autores. c. El nombre del departamento (s) o instituciones a quienes se les atribuye el trabajo. d. Nombre y dirección electrónica del autor a quien se le puede solicitar separatas o aclaratorias en relación con el manuscrito. e. La fuente que ha permitido auspiciar con ayuda económica: equipos, medicamentos o todo el conjunto. f. Debe colocarse la fecha en la cual fue consignado el manuscrito para la publicación. - La segunda página contiene un resumen en español y su versión en inglés, cada uno de los cuales tendrá de no más de 250 palabras. En ambos textos se condensan: propósitos de la investigación, estudio, método empleado, resultados (datos específicos, significados estadísticos si fuese posible) y conclusiones. Favor hacer énfasis en los aspectos nuevos e importantes del estudio o de las observaciones. Inmediatamente después del resumen, proporcionar o identificar como tales: 3-10 palabras claves o frases cortas que ayuden a los indexadores en la construcción de índices cruzados de su artículo y que puedan publicarse con el resumen, utilice los términos del encabezamiento temático (Medical Subject Heading) del lndex Medicus, cuando sea posible. - En cuanto al texto, generalmente debe dividirse en: introducción, materiales y métodos, resultados y discusión. Agradecimientos, sólo a las personas que han hecho contribuciones reales al estudio. Figuras, tablas y cuadros

- Deben ir centradas y dejar un espacio anterior 12. - Pies: Arial 10 normal justificada. Interlineado sencillo. Sangrado especial primera línea 0,50 cm. Espacio anterior 6 y posterior 12. No utilizar abreviaturas (Ejemplo Fig. 1 ó Tab. 1) sino palabra completa (Ejemplo Figura 1 ó Tabla 1). - Las tablas no deben ocupar más de una página, en caso de necesitar más espacio dividirla en varias y si no es posible incluirla como anexo. - Las figuras tipo imagen deben ser en formato JPG, PNG ó GIF con una resolución mínima aceptable que permita ver claramente su contenido. - Cuando se quiera presentar una sola figura a partir de varios cuadros de texto, seleccione los objetos y agrúpelos. - Es recomendable incluir en el manuscrito una hoja de leyendas de cada figura. Si se trata de microfotografías, citar la magnificación al microscopio ej. 50X y la técnica de coloración empleada. - La publicación de fotografías de pacientes identificables no esta permitida por razones éticas; enmascarar para que no sean identificables los pacientes. Ilustraciones: Deben ser de buena calidad; entregarlas separadas; las fotos, en papel brillante con fondo blanco, generalmente 9 x 12 cm. Las fotografías de especimenes anatómicos, o las de lesiones o de personas, deberán tener suficiente nitidez como para identificar claramente todos los detalles importantes. En caso de tratarse de fotos en colores, los gastos de su impresión correrán a cargo del autor(s) del trabajo. Lo mismo sucederá con las figuras que superen el número de cuatro. - Todas las figuras deberán llevar un rótulo engomado en el reverso y en la parte superior de la ilustración indicando número de la figura, apellidos y nombres de los autores. No escribir en la parte posterior de la figura. Si usa fotografía de personas, trate de que ésta no sea identificable o acompañarla de autorización escrita de la misma. Las leyendas de las ilustraciones deben ser mecanografiadas a doble espacio en página aparte y usar el número que corresponde a cada ilustración. Cuando se usen símbolos y fechas, números o letras para identificar partes en las ilustraciones, identifíquelas y explíquelas claramente cada una en la leyenda. Si se trata de microfotografía, explique la escala e identifique el método de coloración. Para el envío - Envíe un original inédito y dos copias impresas en un sobre de papel grueso, incluyendo copias fotográficas y figuras entre cartones para evitar que se doblen, simultáneamente envíe una versión electrónica en CD o a través del E-mail: revistahipertension@gmail.com, indicando el programa de archivo. Las fotografías deben venir en sobre aparte. Los originales deben acompañarse de una carta de presentación del autor en la que se responsabiliza de la correspondencia en relación a los originales. En ella debe declarar que conoce los originales y han sido aprobados por todos los autores; el tipo de artículo presentado, información sobre la no publicación anterior en otra revista, congresos donde ha sido presentado y si se ha usado como trabajo de ascenso. - Acuerdo de asumir los costos de su impresión en caso de fotos a color, autorización para reproducir el material ya publicado o ilustraciones que identifiquen a personas. - Cuando se refiere a originales, queda entendido que no se enviará artículo sobre un trabajo que haya sido publicado o que haya sido aceptado para su publicación en otra revista. - Todos los trabajos serán consultados por lo menos por dos árbitros en la especialidad respectiva. - La revista Latinoamericana de Hipertensión, no se hace solidaria con las opiniones personales expresadas por los autores en sus trabajos, ni se responsabiliza por el estado en el que está redactado cada texto. - Todos los aspectos no previstos por el presente reglamento serán resueltos por la Junta Directiva de la Revista. Referencias - Las referencias serán individualizadas por números arábicos, ordenados según su aparición en el texto. La lista de referencias llevará por título “Referencias” y su ordenamiento será según su orden de aparición en el texto. Para su elaboración usar el sistema Internacional. - Las citas de los trabajos consultados seguirán los requisitos de uniformidad para manuscritos presentados a revistas Biomédicas, versión publicada en: Ann lntern Med. 2006; 126(36): 1-47, www.icmje.com. No se aceptarán trabajos que no se ajusten a las normas. Las mismas aparecerán al final del artículo y deberán ajustarse al siguiente formato: Libros: Apellido, Iníciales del nombre. (Año de publicación). Título en letra cursiva. Ciudad: Editorial. Cheek, D.A. (1992). Thinking constructively about Science, Technology, and Society education. New York: State University of New York Press. Capítulos de libros: Apellido, Iniciales del nombre. (Año de publicación). Título del capítulo. En Inicial del nombre, Apellido del editor (Ed.), Título del libro en letra cursiva (páginas que comprende el capítulo). Ciudad: Editorial. Solomon, J.P. (1989).The social construction of school science. En R. Millar (Ed.), Doing science: Images of science in science education (pp. 126-136). New York: Falmer Press. Artículos de revistas: Apellido, Iniciales del nombre. (Año de publicación). Título del artículo. Nombre de la revista en letra cursiva, volumen, número, páginas. Rubba, P.A. y J.A. Solomon (1989). An investigation of the semantic meaning assigned to concepts affiliated with STS education and of STS Intructional practices among a sample of exemplary science teachers. Journal of Research in Science Teaching, 4, 26, 687-702. Para cualquier consulta relacionada con el formato de los trabajos dirigirse al editor. Proceso de revisión Los trabajos enviados serán revisados anónimamente por dos evaluadores o revisores. No se aceptan trabajos ya publicados anteriormente, tanto en soporte papel como electrónico. Aceptación y publicación Todos los manuscritos aceptados serán publicados tanto impresa como electrónicamente trimestralmente. La salida de cada número será anunciada previamente a los incluidos en la lista de correos de revistahipertension@gmail.com. No hay gastos de afiliación, de publicación ni de ningún otro tipo en la revista Latinoamericana de Hipertensiónl. La revista apoya las políticas para registro de ensayos clínicos de la Organización Mundial de la Salud (OMS) y del International Committee of Medical Journall Editors (ICMJE), reconociendo la importancia de esas iniciativas para el registro y divulgación internacional de Información sobre estudios clínicos, en acceso abierto. En consecuencia, solamente se aceptarán para publicación, a partir de 2007, los artículos de investigaciones clínicas que hayan recibido un número de identificación en uno de los Registros de Ensayo Clínicos validados por los criterios establecidos por OMS e ICMJE, cuyas direcciones están disponibles en el sitio del ICMJE. El número de Identificación se deberá registrar al final del resumen.


Revista Latinoamericana de Hipertensión. Vol. 11 - Nº 2, 2016

P

rocesamiento de la señal eléctrica del corazón, usando máquinas de aprendizaje Processing of the electrical signal of heart, using machine learning

Abstract

Resumen

Luis E. Mendoza, MgSc1*, Gendy Monroy Estrada, Ing1, Aldo Pardo García, MgSc, PhD2, José Gerardo Chacón, MgSc, PhD3, Miguel Vera, MgSc, PhD3, Julio Contreras-Velásquez, MgSc, PhD(c)3, Valmore Bermúdez, MD, MPH, MgSc, PhD4 1 Grupo de Investigación Ingeniería Biomédica de la Universidad de Pamplona (GIBUP). Facultad de Ingenierías y Arquitectura. Cúcuta, Colombia. E-mail de correspondencia: luis.mendoza@unipamplona.edu.co. 2 Grupo de Investigación en Automatización y Control, Universidad de Pamplona, Cúcuta, Colombia. 3 Grupo de Investigación Altos Estudios de Frontera (ALEF), Universidad Simón Bolívar, Cúcuta, Colombia. 4 Centro de Investigaciones Endocrino-Metabólicas “Dr. Félix Gómez” Facultad de Medicina. Universidad del Zulia, Venezuela.

a presión arterial PA, es una variable biológica importante en el análisis del sistema cardíaco, que junto con la señal eléctrica del corazón o electrocardiográfica SECG, permiten conocer en cierta medida el comportamiento del sistema cardíaco del ser humano. Hoy en día existen pocos trabajos que muestran la relación entre las dos variables. Es artículo muestra que existe una relación entre la PA y SECG. Es decir que se puede encontrar los valores de PA usando SECG. Para el estudio, se tomaron muestras de SECG, a 22 pacientes, 18 sanos entre los 17-26 años y 4 con PA alterada de 50-78 años. Se utilizó el equipo Powerlab, se usaron electrodos para capturar la SECG, a través de la derivación DI, una vez obtenida las muestra, se estudió su composición, en especial las ondas R y las ondas T, tener las zonas de manera individual y buscar los valores de PA sistólica y diastólica, usando un sistema de inteligencia artificial como lo son las redes neuronales y máquinas de soporte vectorial. Para segmentar la SECG en su onda R, T y las porciones equivalentes a sístole y diástole, se utilizó transformada Wavelet. Los patrones encontrados fueron utilizados para entrenar las técnicas de inteligencia artificial. En este artículo se demostró que es posible hallar la PA de un paciente usando técnicas de inteligencia artificial, con un porcentaje total de acierto de 98,488 y 95.708 para sístole diástole respectivamente. Finalmente, los resultados se mostraron en tiempo real en aplicativo móvil en tiempo real. Palabras clave: Presión arterial, Transformada wavelet, Redes neuronales, Máquinas de soporte vectorial, Electrocardiografía.

lood pressure PA is one of the most important factor in analyzing the cardiac system, along with the heart’s electrical signal or electrocardiographic signal SECG biological variables, these variables allow know to some extent the performance of the human cardiac system. Today there are few studies that show the relationship between the two variables and that demonstrate the relationship between PA and SECG. It’s paper shows that there a relationship between PA and SECG. This means that you can find the values ​​of PA using the SECG. For this study, the sampling was carried SECG, 22 patients, 18 healthy between 17 and 26 years and 4 with altered PA 50 and 78, for this the Powerlab equipment was used, where electrodes were used signal to capture the heart through the DI, once obtained the sample signals, the composition of this was studied, especially R and T waves in order to have individual zones and find the values ​​of systolic and diastolic blood pressure, using a system of artificial intelligence such as neural networks and support vector machines. We used Wavelet Transform for segment the SECG in its R and T wave, and shows its equivalent in systole and diastole portions. These signals and found patterns were used as training the neural network and support vector machines, was used supervised learning. In this paper we showed that was possible to find the PA of a patient using neural networks and support vector machines with a total success rate of 98.488 to 95,708 for systole and diastole respectively. Finally, a mobile application is used to display the values of ​​ PA in real time. Keywords: Blood pressure, wavelet transform, neural networks, support vector machines, Electrocardiography.

25


Este trabajo tiene un aporte de cómo usando técnicas de aprendizaje se pude calcular con un porcentaje cercano a 98%, la PA en sujetos usando SECG.

a presión arterial (PA) y la señal eléctrica del corazón (SECG), son dos de las variables más importantes en el sistema biológico de los seres humanos y además son signos vitales comunes, que permiten conocer el comportamiento en cierta medida el comportamiento del corazón1,2,3. Por otro lado, el determinar una relación entre la SECG y la PA es un paso importante en la medición de dicha variable de manera automática con solo la SECG4,5,6. La PA indica la fuerza con que la sangre es impulsada por el corazón, y como fluye por todo el sistema arterial. Esta se divide en dos secciones; sístole y diástole donde, sístole o contracción es donde la sangre contenida en la aurícula o el ventrículo es expulsada y Diástole o relajación es la fase en que la aurícula o el ventrículo se llenan de sangre7,8. Por otro lado, la señal ECG representa la actividad eléctrica de las células del corazón. Este impulso produce la contracción rítmica del corazón, donde el comportamiento eléctrico del corazón, se representa por medio de los latidos7,8,9.

Antecedentes Diferentes trabajos sean han desarrollado en el área, es importante resaltar que se han usando técnicas inteligentes en el procesamiento de la SECG y técnicas estadísticas4,13,14,15, y algunos trabajos han tratado de demostrar que existe relación entre presión arterial y la señal eléctrica del corazón16,4,10, con resultados que permiten evidenciar la necesidad de mejorarlos y de utilizar otras técnicas matemáticas, que permitan corroborar de manera más eficiente la relación existente. Otros trabajos demuestran que es posible medir la PA usando pletismografia y así mismo diferentes autores muestran valores de PA, que evidencian que es susceptible a cambios en la postura, obesidad, sedentarismo y alteraciones en la señal ECG, lo que permite tener un claro panorama de que es posible medir la PA usando SECG17,18. Otros trabajos permiten conocer y muestran relación entre el comportamiento o estado del sistema cardíaco y la SECG, es decir si el sistema cardíaco se altera, esto tiene una repercusión en dicha señal18,19,20 y como la PA está relacionada con la fuerza que hace el corazón, por ende, esta debe tener una relación con la SECG. Entonces, nosotros proponemos una metodología nueva de como extraer patrones y zonas de sístole y diástole en la SECG, y así mismo como usar estos segmentos para lograr tener valores cuantitativos de PA.

Nosotros demostramos que se puede medir la PA a través de los patrones de la SECG, ya que en SECG se puede identificar sístole, que inicia desde el punto máximo de la onda R, al punto máximo de la onda T y diástole inicia del punto máximo de la onda T al punto máximo de la onda R, estos dos movimientos son fundamentales para hallar la presión sistólica y presión diastólica4,10,11. Diferentes trabajos han desarrollados herramientas para el estudio de estas señales fisiológicas, pero ninguno se ha centrado en hallar la PA con SECG. Durante los últimos años, la teoría de la información y la medicina se han unido dando origen a la telemedicina, provocando grandes cambios y aportes importantes en el área de la salud el cual permite ofrecer mejores condiciones y estilo de vida a los pacientes. Para llevar a cabo dicha investigación, se adquiere la señal electrocardiográfica, por medio de un circuitos de adquisición de forma física o un equipo especializado como el Powerlab, una vez obtenida esta señal se le aplica procesamiento por medio de la transformada Wavelet, se hace segmentación a la señal, extrayendo las partes de sístole y diástole de la señal ECG, se crea una base de datos, luego esta información es la entrada a un sistema de redes neuronales artificiales y máquinas de soporte vectorial, que parametrizan la señal, y finalmente se visualiza la presión arterial de un paciente cualquiera, en un dispositivo móvil, que contenga un sistema operativo con plataforma android. Esta investigación surge, porque actualmente la Presión Arterial se encuentra entre las principales causas de demanda de servicios de Salud de la población adulta, necesitando que el paciente tenga un constante monitoreo de esta, provocando gran congestión de pacientes en los centros de salud, a la espera de la toma de su PA. La Figura 1, muestra como la circulación impacta en todo el cuerpo humano, y la buena

Metodología

Introducción 26

circulación está relacionada con la PA, es decir si se tiene una circulación adecuada se tiene una PA adecuada.

La metodología consta de cinco etapas, en la Figura 2, se muestra un diagrama de dicha metodología. A continuación, se explica cada una de las etapas. Adquisición de la señal ECG En esta etapa se realiza la adquisición de la señal Electrocardiográfica por medio del Powerlab, que es un sistema de adquisición de datos que comprende hardware y software, es de uso general en la fisiología humana, para registrar y analizar señales. El sistema consta de un dispositivo de entrada conectado a un ordenador, en este caso con sistema operativo Windows, mediante un cable USB y el software “Scope”, que se suministra con el Powerlab y proporciona las funciones de registro y visualización de señales, esto a través de funciones con Figurables en el software dependiendo de las necesidades, se uso una frecuencia de muestreo de 2000 muestras por segundo, un tiempo de registro de 50 segundos y por sujeto se tomaron 5 muestras. Base de datos En este proyecto la base de datos va a estar conformada por; edad, sexo, presión arterial tomada manualmente y las señales ECG, siendo las señales la base para realizar todo el proyec-


Revista Latinoamericana de Hipertensión. Vol. 11 - Nº 2, 2016

to. Se tuvo en cuenta 11 hombres sanos, todos estudiantes y 11 mujeres de las cuales, cuatro eran personas mayores con alteración de su presión arterial y el restante sin problemas de presión arterial, los estudiantes estaban en un rango de edad entre los 17 y los 26 años y las personas mayores con alteración de 50 y 78 años de edad. La longitud de la SECG adquirida fue de 100 mil datos. Lo cual quiere decir que se tiene una base de datos de 100 mil datos en filas y 110 columnas. Finalmente es importante mencionar que el estudio fue acom-pañado por un especialista en cardiología. Figura 1. Circulación sistema y pulmonar12

Usaremos La representación matemática de la transformada wavelet discreta que se define en la ecuación 1,13,14.

El objetivo del procesamiento, en este caso fue identificar inicialmente los picos de las ondas R y las ondas T. Para poder realizar la selección de familias Wavelet, se hicieron pruebas con diferentes wavelets, hasta determinar las adecuadas, para este caso se seleccionó la wavelet “sym1”, para lograr detectar la máxima amplitud de la onda R y una wavelet “sym7”, para detectar la máxima amplitud de la onda T. Una vez identificados los picos de las ondas R y los picos de las ondas T, se extraen los segmentos que contengan la información del proceso de sístole y el de diástole. En una ECG, el proceso de sístole se identifica desde la mitad de la máxima amplitud de la onda R hasta la máxima amplitud de la onda T, y el de diástole desde la mitad de la máxima amplitud de la onda T hasta la mitad de la máxima amplitud de la onda R siguiente. Tal como se observa en la Figura 3. Figura 3. Señal ECG original, donde se muestra la parte de sístole, y la parte de diástole

Figura 2. Diagrama de la metodología desarrollada en el proyecto

Máquinas de aprendizaje El objetivo de aplicar máquinas de aprendizaje, es conseguir la caracterización de la parte de sístole y diástole extraída de la SECG. Redes neuronales artificiales: La Figura 4, muestra una red neuronal probabilística, que consta de varias entradas, la capa oculta que es la encarga de realizar el proceso internamente y las capas de salida que muestran el resultado21,22. Figura 4. Red Neuronal Artificial multicapa con n neuronas de entrada, m neuronas en su capa oculta y una neurona de salida

Extracción de patrones sistólicos y diastólicos La transformada wavelet (TW) fue la base para la extracción de patrones ya que permite obtener en su análisis una resolución tiempo-frecuencia, esto permite ubicar de manera más precisa el inicio y final de segmentos usando el espacio tiempo-escala que en primera instancia genera la TW y de esta manera lograr la segmentación de las SECG y extraer las porciones que indican sístole y diástole en todos los registros electrocardiográficos de los sujetos.

27


Las neuronas de entradas se escalan en peso multiplicador, y estas entradas son ponderadas y luego sumadas, como se describe en la ecuación 2.

sistema funciona de manera precisa, ubica sin equivocarse en todas las señales y en todas las porciones QRST, de forma exacta el pico de la onda T (asterisco rojo) y el pico de la onda R (asteristo rosado). Figura 5. Señal ECG y posición pico de la onda R y pico la onda T

Donde X es la entrada de la señal, W es el peso multiplicador, i es la entrada del canal, y N es el número total de entradas. En este trabajo la red neuronal se utilizó, para realizar un entrenamiento, y una clasificación. Se usaron dos redes neuronales (RN) una para sístole y otra para diástole. En el entrenamiento de las dos RN, se usaron, las porciones de la SECG de sístole y las mediciones reales de presión sistólica de cada paciente para la red de sístole, y porciones de la SECG de diástole y las mediciones reales de presión diastólica de cada paciente para la red de diástole.

28

Una vez entrenada las RN, se procedió validar, el sistema, la validación se realizó con porciones de sístole y diástoles que no fueron usadas durante el entrenamiento y porciones de señales sistólicas y diástole de pacientes que no fueron utilizados en el entrenamiento. Por otro lado, para corroborar que efectivamente existe una relación entre PA y SECG, se usó maquinas de soporte vectortial de minimos cuadradas o LS-SVM, con el mismos próposito que se usó las redes neuronales. En LS-SVM, se realizó el mismo procediminento de entrenmianto y valadicacion, es importate menciar que esta técnica busca un hiperplano que separe las dos o más clases a estudiar, diferentes autores muestran que esta técnica es mucho más robusta en aplicaciones con datos biológicos que las redes neuronales23,24,25.

Resultados

Visualización en tiempo real de los datos Este proceso se realizó con el fin de tener los resutlados en tiempo real, y que a futuro se pueda generar sistemas portables que permitan realizar este tipo de procedimientos y emitir alertas de aumento o disminusiones de PA o alteraciones de SECG y que los expertos puedan conocer de manera rápida y en tiempo record estas alteraciones. Para lograr la visualización, se diseñó un aplicativo para dispositivos móviles Android en App inventor, el cual es un sistema fácil de usar, y adicionalmente logró visualizar los datos de PA, que es la variable de interés en este caso. En este aplicativo no se muestra la SECG, ya que esta parametrizado para solo mostrar indices de PA del sujeto en estudio.

continuación, se describen los resultados más importantes de este trabajo. Como se mencionó se adquieron 11 señales para 22 sujetos 5 por cada sujeto. La Figura 5, muestras los resultados del algoritmo de ubicación de la onda R y la onda T, como se puede evidenciar el

Una vez identificadas de manera correcta las ondas R y la onda T, se procede a realizar la segmentación, extraer los segmentos de sístole y los segmentos de diástole. Las Figuras 6 y 7, muestra ejemplos de los segmentos de sístole y diástole de la señal ECG de un paciente, es importante mencionar que cada SECG tiene 50 segmentos de sístole y 50 segmentos de diástole, es decir que cada señal puede utilizarse 50 veces para realizar analisis con sus porciones relacionadas. En el proceso de validación se determinó la eficiencia del sistema se halló el % de error, descrito en la Ecuación 2.

En la Tabla 1, se muestan los resultaos obtenidos tanto por el especialista como es el valor medido como el valor obtenido con redes neuronales (RN) y LS-SVM. Nótese como el porcentaje de error total, usando 24 mediciones y usando RN es de 2.028, y compradno los resultaods usando LS-SVM es porcentaje promedio del error fue de 1.511.


Revista Latinoamericana de Hipertensión. Vol. 11 - Nº 2, 2016

Es importante mencionar que este trabajo deja un gran reto por resolver y son los falsos positivos o falsos negativos, ya que el sistema en ocasiones mide PA altas, siendo tomadas por el especialista como bajas y viceversa, esto conlleva a desarrollar un trabajo futuro que permita corregir dichos parámetros, dándole más eficiencia al sistema o buscando la forma de alertar al especialista por la medición tomada, para que se realicen otras actividades que permitan corroborar los resultados.

Tabla 1. Porcentaje de error para Sístole Valor

% Error

Valor LSSVM

% Error RN

111 112 95 93 139 139 143 149 120 102 105 104 101 105 104 100 105 107 100 102 105 118 105 105

1.801 1.785 0 0 5.797 0.735 0 0 3.389 0 6.481 0.961 2.884 3.809 2.884 9.782 0 0 1 0.98 0 3.448 2.941 0

LS-SVM 0 0 1.063 0 0.724 2.205 2.054 0 1.694 1.923 2.777 0 2.884 0 0 8.695 1.869 1.904 0 0 1.869 1.724 2.941 1.941

2.028

1.511

RN 111 113 112 110 94 94 93 93 138 146 136 137 146 146 149 149 118 122 104 104 108 101 104 103 104 101 105 101 104 101 92 101 107 107 105 105 100 101 102 101 107 107 116 120 102 105 103 103 Total del porcentaje de error para Sístole

En la Tabla 2, se muestan los resultados obtenidos tanto por el especialista como es el valor medido como el valor obtenido con redes neuronales (RN) y LS-SVM. Nótese como el porcentaje de error total, usando 24 mediciones y usando RN es de 6.126, y comprando los resultados usando LS-SVM es porcentaje promedio del error fue de 4.292. Tabla 2. Porcentaje de error para Diástole Valor Medido

Valor LSSVM

% Error RN

% Error LS-SVM

79 80 80 74 72 74 64 68 68 67 76 67 86 100 88 88 88 88 100 105 100 102 103 86 78 81 79 68 69 68 65 68 65 64 64 64 58 59 57 61 61 61 59 58 90 52 52 52 66 71 67 60 100 70 62 61 62 74 74 73 67 66 69 83 100 85 67 67 67 61 63 61 Total del porcentaje de error para Diástole

1.265 2.702 6.25 4.477 16.279 0 5 0.98 3.846 1.47 4.615 0 1.724 0 1.694 0 7.575 66.666 0 0 0 20.481 0 3.278

1.265 0 6.25 0 2.325 0 0 15.686 1.282 0 0 0 1.724 0 52.542 0 1.515 16.666 0 1.351 0 2.409 0 0

6.126

4.292

Valor RN

Visualización móvil La aplicación funciona bajo protocolo IP, y se llama por medio la dirección IP la base de datos, se usó un teléfono celular Samsung Galaxy Music. La base de datos, es creada en un servidor local, una vez creada, en matlab se digita la función “querybuilder” en el comand Windows, y esta función comunica a matlab con la base de datos, y cualquier cambio que se realice en la base de datos se refleja en matlab, y el cambio que se realice en matlab se refleja en la base de datos. La interfaz gráfica de la aplicación móvil se observa en la Figura 8. Los valores de PA, se muestran una vez el paciente se ha registrado.

Conclusiones

Valor Medido

os resultados arrojados fueron muy impresionantes ya que mostraron que, si existe una relación entre PA y SECG, aunque se esperaba resultados de efectividad más altos, con los que se cuentan actualmente se puede concluir que es posible ajustar esta metodología y lograr aumentar la efectividad a un 99%, ya que por ahora la metodología presenta una efectividad promedio de 97.098%. Por otro lado, la transforma wavelet mostró, en su espacio tiempo-escala que es la forma más efectiva de ubicar sístole y diástole correspondiente a la señal electrocardiográfica, esto ya que con se probaron técnicas como derivada y envolvente, pero no presentaron resultados significativos, motivo por el cual no se incluyeron. Así mismo las técnicas de aprendizaje utilizados fueron un gran soporte al ahora de relacionar la PA con SECG, mostrando resultados importantes, aunque en las tablas mostradas en resultados se observa que es mejor LSSVM que RN, ya que sus porcentajes de error fueron menores, aunque en los dos casos, se presentan resultados como falsos positivos y falsos negativos, motivo por el cual, es importante, poner atención a estos procedimientos, ya que es importante evitar estos procesos, RN presenta 2 falsos positivos y LS-SVM presenta 1 falto positivo. Finalmente, se recomienda, realizar otros estudios en cuanto a las zonas de sístole y diástole en la SECG, con el fin de buscar de ser posibles patrones mucho más significativos y que mejoren la efectividad del sistema y evite los falsos positivos. Agradecimientos Se agradece al Grupo de Investigación GIBUP (Grupo de Ingeniería Biomédica de la Universidad de Pamplona), por todo el apoyo en la toma de datos y toma de muestras.

29


Referencias 1.

Zong W, Mood GB, Mark RG. Reduction of false blood pressure alarms by use of electrocardiogram blood pressure relationships. Computers in Cardiology. 1999: 305-8.

2.

Wong YM, Zhang YT. The Effects of Exercises on the Relationship between Pulse Transit Time and Arterial Blood Pressure. En: Conference Complex IEEE Engineering in Medicine and Biology Society. 2005;5:5576-8.

3.

30

Liu Q, Yan BP, Yu CM, Zhang YT, Poon CC. Attenuation of systolic blood pressure and pulse transit time hysteresis during exercise and recovery in cardiovascular patients. IEEE Transactions on Biomedical Engineering. 2014;61(2):346-352.

4. Wu, TH, Pang GKH, Kwong EWY. Predicting systolic blood pressure using machine learning. En: 7th International Conference on Information and Automation for Sustainability. IEEE; 2014:1-6. 5.

6.

7.

Wong MY, Zhang YT. The correlation study on the relationship between pre-ejection period and arterial blood pressure. En: 5th International Summer School and Symposium Medical Devices and Biosensors. 2008: 92-93. Zhang Q, Shi Y, Teng D, Dinh A, Ko SB, Chen L, Basran J, Dal Bello-Haas V, Choi Y. Pulse transit time-based blood pressure estimation using hilbert-huang transform. Conference Complex IEEE Engineering in Medicine and Biology Society. 2009:1785-8. 2009. p. 1785-1788. Liu J, Zhou Y. Design of a Novel Portable ECG Monitor for Heart Health. En: Computational Intelligence and Design (ISCID), 2013 Sixth International Symposium on (Vol. 2). IEEE; 2013:257-60

8. Yu J, Jeon T, Jeon M. Heart beat detection method with estimation of regular intervals between ECG and blood pressure. En: Computing in Cardiology 2014. IEEE; 2014:561-64). 9.

Kumar, S, Ayub S. Estimation of Blood Pressure by Using Electrocardiogram (ECG) and Photo-Plethysmogram (PPG). In Communication Systems and Network Technologies (CSNT), 2015 Fifth International Conference. IEEE;2015:521-24.

10. Ma T, Zhang YT. Correlation Study on the Variabilities in Pulse Transit Time, Blood Pressure, and Heart Rate Recorded Simultaneously from Healthy Subjects. En: Conference Complex IEEE Engineering in Medicine and Biology Society. 2005;1:996-9. 11. Soo-Yeon J, Chen W, Ward K, Rickards C, Ryan K, Convertino V, Najarian K. Wavelet based analysis of physiological signals for prediction of severity of hemorrhagic shock. En: International Conference Complex Medical Engineering ICME, 2009. IEEE;2009:1-6. 12. Tresguerras J, Villanua M, Lopez A. Anatomía y fisiología del cuerpo humano. España: Mac Graw Hill; 2010.

13. Garg, A, Blaber A.P. Wavelet transform coherence based investigation of existence of relationship between the cardiovascular and postural control systems during orthostatic challenge. En: Conference Complex Engineering in Medicine and Biology Society (EMBC). IEEE;2012:3588-91. 14. Wang Z, Lai L, Xiong D, Wu X. Study on predicting method for acute hypotensive episodes based on wavelet transform and support vector machine. En: Biomedical Engineering and Informatics (BMEI), 2010 3rd International Conference. IEEE;2010:1041-45. 15. IbÒez CR. Telemedicina: Introducción, aplicación y principios de desarrollo. CES Medicina. 2007;21(1):77-96. 16. Baselli G, Misani M, Cerutti S, Porta A, Dalla Vecchia L, Lucini D, Pagani M. Changing relationships between skin blood flow and arterial pressure in mild exercise and recovery. En: Proceedings of the 23rd Annual International Conference. Engineering in Medicine and Biology Society. IEEE;2001:534-36. 17. Zong W, Moody GB, Mark RG. Effects of vasoactive drugs on the relationship between ECG-pulse wave delay time and arterial blood pressure in ICU patients. Computers in Cardiology. IEEE; 1998:673-76. 18. Franchi D, Bedini R, Manfredini F, Berti S, Palagi G, Ghione S, Ripoli A. Blood pressure evaluation based on arterial pulse wave velocity. Computers in Cardiology. IEEE;2006:397-400. 19. Le TQ, Bukkapatnam STS, Sangasoongsong A, Komanduri R. Towards virtual instruments for cardiovascular healthcare: Real-time modeling of cardiovascular dynamics using ECG signals. En: Automation Science and Engineering (CASE) Conference. IEEE;2010 :903-10. 20. Yan Chen, Changyun Wen, Haitao Tang, Linda Xiuzhen Teng. The relationship between different pulse wave velocity and systolic/diastolic pressure. En: 3rd IEEE Conference Industrial Electronics and Applications ICIEA. IEEE;2008:1185-90. 21. Keshan N, Parimi PV, Bichindaritz I. Machine learning for stress detection from ECG signals in automobile drivers. En: Big Data International Conference. IEEE;2015:2661-9. 22. German-Sallo, Z, Petru Maior, David L. Distributed Approximating Functional Wavelet based neural network in ECG signal processing. En: Automation, Quality and Testing, Robotics, 2006 International Conference. IEEE; 2006: 451-4. 23. Faziludeen S, Sabiq PV. ECG beat classification using wavelets and SVM. En: Conference on Information & Communication Technologies (ICT). IEEE;2013:815-8. 24. Kohli N. Verma, NK, Roy, A. SVM based methods for arrhythmia classification in ECG. En: International Conference on Computer and Communication Technology (ICCCT). IEEE;2010:486-90. 25. Sharma S, Nagal D. Identification of QRS complexes in single-lead ECG Using LSSVM. En: Recent Advances and Innovations in Engineering (ICRAIE). IEEE; 2014:1-4.


Revista Latinoamericana de Hipertensión. Vol. 11 - Nº 2, 2016

M odelo computacional de la válvula pulmonar en contextos hipertensivos

Computational model of the pulmonary valve in hypertensive contexts

Abstract

Resumen

Yoleidy Huérfano, MgSc1, Miguel Vera, MgSc, PhD2,1*, Atilio Del Mar, MD3, María Vera, BSc4, Julio Contreras-Velásquez, MgSc, PhD(c)2, José Chacón, MgSc, PhD2, Sandra Wilches-Duran, MgSc, PhD(c)2, Modesto Graterol-Rivas, MgSc, PhD5, Maritza Torres, MD, PhD(c)9, Victor Arias, Ing2, Joselyn Rojas, MD, MgSc6,7, Wilson Siguencia, MD, PhD(c)9, Lisse Angarita, MD, PhD(c)11, Rina Ortiz, MD, PhD(c)10, Diana Rojas-Gomez, MD, PhD11, Carlos Garicano, MD, MgSc2, Daniela Riaño-Wilches, BSc12, Maricarmen Chacín, MD, MgSc7, Valmore Bermúdez, MD, MPH, MgSc, PhD7, Antonio Bravo, MgSc, PhD8 1 Grupo de Investigación en Procesamiento Computacional de Datos (GIPCD-ULA) Universidad de Los Andes-Táchira, Venezuela 2 Grupo de Investigación Altos Estudios de Frontera (ALEF), Universidad Simón Bolívar, Cúcuta, Colombia. E-mail de correspondencia: m.avera@unisimonbolivar.edu.co, veramig@gmail.com* 3 Instituto de Bioingeniería y Diagnóstico Sociedad Anónima (IBIDSA), San Cristóbal, Venezuela. e-mail: atiliodelmar@yahoo.com 4 Escuela de Medicina, Universidad de Los Andes, Hospital Central de San Cristóbal- Edo. Táchira, Venezuela 5 Centro de Estudios de la Empresa. Universidad del Zulia, Maracaibo, Venezuela. 6 Pulmonary and Critical Care Medicine Department. Brigham and Women’s Hospital. Harvard Medical School. Boston, MA. USA 02115. 7 Centro de Investigaciones Endocrino-Metabólicas “Dr. Félix Gómez” Facultad de Medicina. Universidad del Zulia, Venezuela. 8 Coordinación de Investigación Industrial, Decanato de Investigación, Universidad Nacional Experimental del Táchira, San Cristóbal, Venezuela. 9 Ministerio de Salud Pública del Ecuador. Distrito de Salud 01D02. Posgrado de Medicina Familiar. Universidad de Cuenca. Cuenca, Ecuador. 10 Departamento de Internado Anatomía III. Facultad de Medicina. Universidad Católica de Cuenca. Cuenca, Ecuador. 11 Escuela de Nutrición y Dietética. Facultad de Medicina. Universidad Andres Bello, Sede Concepción, Chile. 12 Facultad de Medicina, Universidad de los Andes, Bogotá, Colombia.

l objetivo de este trabajo es proponer una estrategia para la segmentación tridimensional (3D) de la válvula pulmonar en 20 imágenes cardiacas de tomografía computarizada multicapa, correspondientes al ciclo cardiaco completo de un sujeto. La mencionada estrategia consta de las etapas de pre-procesamiento, segmentación y entonación de parámetros. La etapa de pre-procesamiento se aplica, preliminarmente, al instante de diástole final y se divide en dos fases denominadas: Filtrado y Definición de una región de interés (ROI). La aplicación de estas fases tiene por finalidad abordar los problemas de ruido, artefactos y bajo contraste que poseen las mencionadas imágenes. Durante la etapa de segmentación 3-D, de la arteria pulmonar, se implementa un algoritmo de agrupamiento denominado crecimiento de regiones (RG) el cual es aplicado a las imágenes pre-procesadas, El RG es inicializada con un vóxel “semilla” el cual es detectado mediante un operador de inteligencia artificial denominado máquinas de soporte vectorial de mínimos cuadrados (LSSVM). Durante la entonación de parámetros, una métrica denominada coeficiente de Dice (Dc) es utilizada para comparar las segmentaciones obtenidas mediante la estrategia propuesta y la segmentación generada, manualmente, por un cardiólogo. La combinación de técnicas de filtrado que generó el Dc más elevado considerando el instante de diástole se aplica posteriormente a las 19 imágenes 3D restantes, obteniéndose un Dc promedio comparable con el reportado en la literatura especializada. Palabras claves: Válvula pulmonar, Procesos de filtrado, Segmentación

strategy for pulmonary valve (PV) three-dimensional segmentation is proposed using 20 cardiac imaging multilayer computed tomography, for entire cardiac cycle of a subject. This strategy is global similarity enhancement technique based on and it comprises of pre-processing, segmentation and parameter tuning stages. The pre-processing stage is split into two phases called filtering and definition of a region of interest. These phases are preliminarily applied to enddiastole cardiac-phase and they address the noise, artifacts and low contrast images problems. During PV segmentation, the region growing algorithm is applied to the pre-processed images and it is initialized using a voxel detected with least squares support vector machines. During the parameters tuning, the Dice score (Ds) is used to compare the PV segmentations, obtained by the proposed strategy, and manually PV segmentation, generated by a cardiologist. The combination of filtering techniques that generated the highest Ds considering the end-diastole phase is then applied to the others 19 3-D images, yielding an average Ds comparable with the Ds reported in the literature. Keywords: Pulmonary valve, filtering process, Segmentation.

31


Introducción 32

l corazón es, junto con los grandes vasos sanguíneos, el órgano encargado de hacer circular la sangre a lo largo del cuerpo humano. Este órgano es un músculo hueco que circunscribe cavidades a través de las cuales circula sangre. Cuando el corazón se distiende atrae sangre procedente de las venas; mientras que cuando se contrae expulsa sangre hacia ciertas arterias1,2. Por otra parte, entre las estructuras cardiacas más importantes de la porción derecha del corazón humano (corazón derecho) se tienen: venas cava inferior y superior, arteria pulmonar, válvulas tricúspide y pulmonar, el ventrículo derecho (RV) y la aurícula derecha (RA). El corazón está íntimamente relacionado con las siguientes arterias: arteria aorta, que lleva la sangre oxigenada, desde el ventrículo izquierdo a otras partes del cuerpo; arteria pulmonar, que tiene como función principal transportar la sangre, para su oxigenación, desde el ventrículo derecho hacia los pulmones; y las arterias coronarias. Estas arterias son las encargadas de nutrir el corazón durante la fase de diástole ventricular3. La arteria pulmonar es de principal interés para el presente trabajo, ya que está íntimamente ligada con la válvula pulmonar. Debido a ello es importante señalar que una de las enfermedades vinculadas, directa o indirectamente, con el corazón derecho es la hipertensión pulmonar (PHT). La circulación pulmonar es un lecho vascular de baja resistencia, que puede albergar grandes aumentos en el flujo sanguíneo con pequeños incrementos en la presión. Cuando existen condiciones que aumentan la resistencia vascular pulmonar, para mantener el gasto cardíaco, el ventrículo derecho aumenta la presión de perfusión y puede ocurrir la hipertensión pulmonar4. De acuerdo con Galié et al.5, la PHT se define como una presión arterial promedio mayor a 25 mmHg en estado de reposo ó superior a 30 mmHg luego de hacer ejercicio. Esto quiere decir que la PHT se caracteriza por la presencia de una presión arterial, anormalmente alta en las arterias de los pulmones, lo cual hace que el lado derecho del corazón experimente esfuerzos superiores a los normales para forzar la circulación de la sangre, a través de los vasos sanguíneos, en contra de esta presión. Esto trae como consecuencia que el lado derecho del corazón se dilate, pudiéndose generar insuficiencia cardíaca del corazón derecho5. Por otra parte, el diagnóstico de la PHT puede llevarse a cabo con exámenes especializados y/o técnicas de imagenología que, por ejemplo, permite a los cardiólogos extraer las estructuras más relevantes del corazón. Respecto a las mencionadas técnicas, es necesario indicar que existen diversas modalidades de imagenología para analizar los órganos que conforman el cuerpo humano. Una de tales modalidades, que está siendo utilizada para el diagnóstico de la función cardiovascular, es la tomografía computarizada multicapa (MSCT)6. Las imágenes de MSCT poseen imperfecciones las cuales se transforman en proble-

mas que afectan la calidad de la información presente en las imágenes, tales problemas están vinculados con ruido Poisson7, artefacto escalera8 y bajo contraste entre las estructuras del corazón9; es por ello que la segmentación de estructuras cardiacas es un problema abierto y muy desafiante primero por la complejidad del movimiento del corazón y segundo por los problemas ya mencionados que afectan la calidad de las imágenes. A modo de ejemplo, mediante la Figura 1 se muestran imágenes 2D, correspondiente a tres pacientes masculinos, en las que se aprecia la presencia del ruido Poisson, el artefacto escalera y la marcada ausencia de contraste entre las estructuras anatómicas del corazón. Figura 1

Imágenes 2-D que ilustran: a) Vista transversal en la que se visualiza el Ruido Poisson. b) Vista coronal del artefacto escalera. c) Vista trasversal en la que se aprecia la ausencia de contraste entre estructuras anatómicas cardiaca.

Por otra parte, el estado del arte relativo a la segmentación de estructuras cardiacas incluye numerosas investigaciones. A continuación se presenta una síntesis de tales investigaciones. Feuerstein et al.10 proponen un método para la segmentación automática de la arteria pulmonar (arteria + válvula pulmonar), en imágenes de tomografía computarizada (TC) de tórax, con base en un modelo adaptativo que considera la trasformada de Hough y conjuntos de splines. Además, validan el método propuesto considerando 40 imágenes de pacientes y comparando las segmentaciones automáticas con segmentaciones manuales considerando diversas métricas entre las que se incluye: el índice de Jaccard, sensibilidad, especificidad, y la distancia media mínima. También, Wala et al.11, presenta un modelo automático para la segmentación del árbol arterial pulmonar en imágenes de CT torácica. El modelo es de tipo multicompartimiento y se basa en la detección iterativa de las bifurcaciones del tronco pulmonar usando la medición de la velocidad de cambio de los radios del referido tronco. Por otra parte, Dehmeshki et al.12, proponen un enfoque computacional para segmentar la arteria pulmonar que consiste en tres etapas: en primer lugar se define una región de interés extrayendo la arteria pulmonar (PA) desde el tórax a fin de reducir el área de búsqueda. En la segunda etapa, los candidatos PE se detectan dentro del segmentada PA mediante el análisis de información densitométrica y parámetros de la forma de los puntos en los que se aprecia embolia pulmonar caracterizada por la presencia de émbolos. En el tercer paso, un método de filtrado se utiliza para excluir la detección de falsos positivos asociados con ruido, ciertos artefactos (volumen parcial y movimiento) en el límite de la arteria y el tejido


Revista Latinoamericana de Hipertensión. Vol. 11 - Nº 2, 2016

linfoide. El método fue probado en 55 exploraciones de datos (20 exploraciones de datos de entrenamiento y 35 exploraciones de datos adicionales para la evaluación que contienen un total de 195 émbolos). El rendimiento resultante dio 94% de sensibilidad de detección con un promedio de 4.1 detecciones positivas falsas por estudio.

está basada en un tipo de realce por similaridad global, en el contexto del presente artículo, será utilizado el acrónimo Egs para hacer referencia a ella. Figura 2

Adicionalmente, Gutiérrez et al.13, proponen una estrategia para segmentar el tronco pulmonar en 6 bases de datos constituidas por imágenes de CT. La mencionada estrategia utiliza técnicas de umbralización, crecimiento de regiones y operadores morfológicos. La técnica propuesta se evaluó en el dominio 2D arrojando un 93,72% de coincidencia con segmentaciones manuales. 33

Así mismo Ebrahimdoost et al.14. Propone un algoritmo eficiente para segmentar el árbol arteria pulmonar (AP) en las imágenes de Angiografía computarizada (CTA). En este algoritmo, se considera una matriz de Hesse y sus valores propios para eliminar la conectividad entre la arteria pulmonar y otros órganos pulmonares cercanos. Luego, un método híbrido de segmentación, basado en RG y conjuntos de nivel, se utiliza para extraer la morfología del tronco de la arteria pulmonar. Para validar y el algoritmo se consideran 10 bases de imágenes libres de embolia pulmonar y 10 con este tipo de embolia y un especialista clínico emite su juicio de valor acerca de la correlación visual entre las segmentaciones generadas manualmente y las generadas por el algoritmo propuesto.

Materiales y métodos

Finalmente, Moses et al.15, describen una técnica, basada en operadores morfológicos y splines, para la segmentación precisa de la arteria pulmonar principal (MPA) y la determinación de parámetros tales como la longitud, área y perímetro circunferencial medio de la MPA. Estos parámetros se pueden utilizar para detectar enfermedades que causan aumento de la presión arterial pulmonar, y permitir mediciones de serie normalizadas para evaluar la progresión o la respuesta a diversos tratamientos. La técnica fue desarrollada utilizando 4 estudios CT de tórax normal y luego probado en 20 estudios normales de CT torácica. Los resultados se compararon con la segmentación manual y medición por un radiólogo torácico. La técnica muestra una alta correlación entre los parámetros obtenidos automáticamente con los parámetros determinados de forma manual.

Descripción de las bases de datos La base de datos (DB) utilizada fue suministrada por el Laboratoire de Traitement du Signal et de L’mage (LTSI) de la Université de Rennes I, en Francia, y está constituida por imágenes de MSCT cardiaca de un paciente. La DB posee 20 instantes que representan un ciclo cardiaco completo. Cada instante tiene 326 imágenes de resolución espacial 512x512 píxeles, muestreadas a 12 bits por píxel, con vóxeles de tamaño 0.488 mm x 0.488 mm x 0.393 mm. Descripción de la estrategia utilizada para la segmentación de la arteria pulmonar La Figura 2 muestra la estrategia propuesta para generar la morfología de la válvula pulmonar. Debido a que tal estrategia

Diagrama de bloques de la estrategia Egs

Etapa de pre-procesamiento - Fase de filtrado: En la Figura 2, se ha destacado mediante un recuadro gris la etapa de filtrado basada en realce por similaridad global (GSE). Este tipo de realce se aplica, preliminarmente, sobre el instante de diástole final y consiste en: a) Generar una imagen gradiente (Ig) procesando cada imagen original (Io) con un filtro denominado magnitud del gradiente19. El papel de este filtro es detectar los bordes de las estructuras presentes en las imágenes. b) Aplicar una función de similaridad global considerando Io e Ig para generar una imagen (Igs) cuyos niveles de gris se hacen coincidir con el valor absoluto de la resta aritmética de todos los niveles de gris de Io y de Ig. De esta manera, el modelo matemático que rige la similaridad global viene dado por la Ec. (1). Igs=|Io – Ig|

(1)

La finalidad de la similaridad global es realzar la información contenida dentro de las cavidades cardiacas. c) Debido a que el filtro denominado magnitud del gradiente puede reforzar el ruido Poisson, presente en las imágenes de MSCT, se aplica a la imagen Igs un suavizado en este caso particular el filtro de mediana (MF)16. - Fase de definición de una región de interés (ROI): Considerando vistas coronales de las imágenes filtradas, un cardiólogo identifica, visualmente, 3 puntos de referencia dados por: la unión de la válvula pulmonar con el RV (P1), la unión de la válvula pulmonar con la arteria pulmonar (P2) y el tronco pulmonar con el punto donde empieza la bifurcación de la arteria pulmonar (P3). Para estos puntos se identifican las coordenadas manuales que establecen sin ambigüedad su ubicación espacial en cada imagen considerada. Luego se implementa, computacionalmente, una función de discriminación que permite aislar la válvula pulmonar de otras estructuras anatómicas circundantes mediante la colocación de 2 planos que definen la región de interés para la mencionada válvula.


|I(x)−µ|<mσ 34

(2)

mencionado ciclo constituye lo cual se reporta en la literatura como desempeño o validación intra-sujeto.

Resultados

Etapa de segmentación La ubicación de la semilla, para inicializar el crecimiento de regiones (RG), se calcula usando máquinas de soporte vectorial de mínimos cuadrados (LSSVM)9. Para aplicar el RG, a las imágenes pre-procesadas, se hicieron las siguientes consideraciones: a) A la vecindad inicial, que se construye a partir de la semilla, se le asigna forma cúbica cuyo lado depende de un escalar arbitrario r. El parámetro r requiere de un proceso de entonación. b) Como criterio pre-definido, se elige el modelado mediante la Ec. (2).

a estrategia que reportó el Dc más elevado (0.88) fue aquella conformada por los siguientes parámetros: A) Filtro de mediana con vecindad de tamaño 7x7x7.

siendo: I(x) la intensidad del vóxel semilla, µ y σ la media aritmética y la desviación estándar de los niveles de gris de la vecindad inicial y m un parámetro que requiere entonación.

B) La detección de la “semilla” se logró con una LSSVM cuyos parámetros fueron g = 2.20 y σ2 = 1.38.

Etapa de entonación de parámetros: obtención de parámetros óptimos

Además, el coeficiente de Dice promedio obtenido para los 20 instantes del ciclo cardiaco completo fue de 0.87 ± 2.45, lo cual demuestra una excelente correlación con las segmentaciones manuales disponibles.

Esta etapa permite la obtención de los parámetros óptimos que garantizan un buen desempeño de la estrategia propuesta. Para ello, se modifican los parámetros asociados con la técnica que se desee entonar recorriendo, sistemáticamente, los valores pertenecientes a ciertos rangos tal y como se describen a continuación: a) Para entonar el filtro de mediana se hace coincidir el parámetro denominado tamaño de la vecindad 3-D, requerido por este filtro, con los valores: 3x3x3, 5x5x5, 7x7x7 y 9x9x9. Estos tamaños se eligen tomando como criterio un enfoque isotrópico y en atención al hecho, comprobado experimentalmente, que vecindades más pequeñas no tienen efectos perceptibles sobre la imagen; mientras que tamaños superiores pueden, teóricamente, producir un deterioro importante de los bordes que delimitan las estructuras anatómicas de interés.

C) En el RG r = 5 y m = 3.1.

De manera complementaria, los resultados cualitativos se sintetizan mediante las figuras 3 y 4. La Figura 3, muestra una versión filtrada de una imagen original (imagen de la izquierda) y la definición de la región de interés (imagen de la derecha) para la válvula pulmonar delimitada por los planos definidos por los puntos P1, P2 y P3. Figura 3

b) Los parámetros de las LSSVM, g y σ2, se entonan suponiendo que la función de costo es convexa y desarrollando ensayos heurísticos. - Durante la entonación de los parámetros del RG, cada una de las segmentaciones de la válvula pulmonar correspondientes al instante diástole final se compara, usando el coeficiente de Dice17 (Dc), con la segmentación manual de la mencionada válvula, generada por un cardiólogo. Los valores óptimos para los parámetros del RG (r y m), se hacen coincidir con aquel experimento que genera el valor más alto para el Dc.

a) Imagen filtrada. b) Región de interés.

Adicionalmente, las segmentaciones tridimensionales de la válvula pulmonar se muestran mediante la secuencia de imágenes pertenecientes a la Figura 4. Figura 3

En este punto, es necesario enfatizar que: •En el contexto del presente trabajo, el proceso de entonación para un filtro particular se detiene cuando se identifican los valores de sus parámetros, asociados con la segmentación que genera el Dc de mayor valor. Es decir, la obtención de parámetros óptimos para los filtros se hace de manera indirecta. • Una vez que se identifican los parámetros óptimos de cada filtro se puede establecer cuál fue el filtro suavizador que generó los mejores resultados y así establecer, formalmente, una estrategia Egs que se aplica, con parámetros fijos optimizados, a los 19 instantes restantes del ciclo cardiaco. La segmentación de la válvula pulmonar considerando todos los instantes del

Figura 4. Morfología 3D de la válvula pulmonar.


Revista Latinoamericana de Hipertensión. Vol. 11 - Nº 2, 2016

Como se aprecia se obtuvo una excelente representación 3D de la morfología de la válvula pulmonar.

5. Galié N. Guidelines for the diagnosis and treatment of pulmonary hypertension. European Heart Journal. 2004;30(20):2243–78.

Conclusiones

6. Kelly D, Hasegawa I, Borders R, Hatabu H, Boiselle P. High–resolution CT using MDCT: Comparison of degree of motion artifact between volumetric and axial methods. American Journal of Roentgenology. 2004;182(3):757-9 7. Chan R, Chen K. Multilevel algorithm for a Poisson noise removal model with total–variation regularization. International Journal of Computer Mathematics. 2007;84(8): 1183-1198.

e ha presentado una estrategia, basada en realce por similaridad global, para la segmentación de la válvula pulmonar. La estrategia Egs, arroja un Dc elevado lo cual refleja el alto grado de correlación entre las segmentaciones manuales y las generadas por la referida estrategia. Las segmentaciones obtenidas pueden ser útiles para la detección de patologías asociadas con la mencionada válvula, como por ejemplo, la hipertensión. Una de los principales aportes del presente trabajo es haber segmentado la válvula pulmonar sin recurrir a la reconstrucción multiplanar que, habitualmente, se realiza en el contexto clínico antes de extraer la morfología 3D de la referida válvula. En trabajos futuros se tiene previsto cuantificar parámetros de interés como por ejemplo longitud de la válvula pulmonar, radios mayor y menor entre otros.

Referencias 1.

Latarjet M, Ruíz A. Anatomía Humana. Volumen 2. Buenos Aires, Argentina: Editorial Panamericana; 2008.

2.

Barrett K, Brown S, Biotano S, Brooks H. Fisiología Médica. México: MacGraw Hill, 1986.

3.

Guyton A, Hall J. Textbook of Medical Physiology. USA: W. B. Saunders; 2006.

4.

Rich S. Classification and clinical features of pulmonary hypertension. In: Peacock A, and Rubin LJ (Eds). Pulmonary Circulation 2nd Edition. London: Arnold; 2004: 147-153.

8. Kroft L, De Roos A, Geleijns J. Artifacts in ECG–synchronized MDCT coronary angiography. American Journal of Roentgenology. 2007;189(3):581-91. 9.

Vera M. Segmentación de estructuras cardiacas en imágenes de tomografía computarizada multi-corte [Tesis doctoral]. Mérida-Venezuela: Universidad de los Andes, 2014.

10. Feuersteina M, Kitasakab T, Moria K. Adaptive Model Based Pulmonary Artery Segmentation in 3-D Chest CT. En: SPIE Medical Imaging. Society of Photo-Optical Instrumentation Engineers; 2010 11. Wala J, Fotin S, Lee J, Jirapatnakul A, Biancardi A, Reeves A. Automated segmentation of the pulmonary arteries in low-dose CT by vessel tracking. Cornell University, Ithaca: Department of Electrical and Computer Engineering; 2011. 12. Dehmeshki J, Ebrahimdoost Y, Qanadli S. Fully Automatic Segmentation and Detection of Pulmonary Artery and Embolism in CTA images. Recent Advances on Biomedical Sciences. 2010:28-33. 13. Gutierrez F, Ortega D, Orkisz M, Uriza L, Hernandez M. Automatic Segmentation of Pulmonary Arterial Tree in Computer Tomography Images. En: Computing Congress (CCC), 2011 6th Colombian. IEEE; 2011 14. Ebrahimdoost Y, Qanadli S, Nikravanshalmani A, Ellis T, Shojaee ZF, Dehmeshki J. Automatic segmentation of Pulmonary Artery (PA) in 3D pulmonary CTA images. En: Digital Signal Processing (DSP), 2011 17th International Conference. IEEE Xplore Digital Library; 2011. 15. Moses, D, Sammut C, Zrimec T. Automatic segmentation and analysis of the main pulmonary artery on standard post-contrast CT studies using iterative erosion and dilation. International journal of computer assisted radiology and surgery. -2016;11(3):381-95. 16. Passarielo G, Mora F. Imágenes Médicas, Adquisición, Análisis, Procesamiento e Interpretación. Venezuela: Equinoccio Universidad Simón Bolívar;1995. 17. Dice L. Measures of the amount of ecologic association between species. Ecology. 1945; 26(3):297–302.

Manuel Velasco (Venezuela) Editor en Jefe - Felipe Alberto Espino Comercialización y Producción Reg Registrada en los siguientes índices y bases de datos:

SCOPUS, EMBASE, Compendex, GEOBASE, EMBiology, Elsevier BIOBASE, FLUIDEX, World Textiles, OPEN JOURNAL SYSTEMS (OJS), REDALYC (Red de Revistas Científicas de América Latina, el Caribe, España y Portugal), LATINDEX (Sistema Regional de Información en Línea para Revistas Científicas de América Latina, el Caribe, España y Portugal) LIVECS (Literatura Venezolana para la Ciencias de la Salud), LILACS (Literatura Latinoamericana y del Caribe en Ciencias de la Salud) PERIÓDICA (Índices de Revistas Latinoamericanas en Ciencias), REVENCYT (Índice y Biblioteca Electrónica de Revistas Venezolanas de Ciencias y Tecnología) SCIELO (Scientific Electronic Library Online), SABER UCV, DRJI (Directory of Research Journal Indexing) CLaCaLIA (Conocimiento Latinoamericano y Caribeño de Libre Acceso), EBSCO Publishing, PROQUEST.

35


C

lasificador de perfiles de tratamientos de Diabetes Tipo 2 e Hipertensión Arterial utilizando métodos de recuperación vectorial de información: Caso IPS UNIPAMPLONA 36

Classifier of profiles of Type 2 Diabetes and Hypertension treatments using vector information retrieval methods: UNIPAMPLONA IPS Case

José Chacón, MgSc, PhD1*, Miguel Vera, MgSc, PhD1, Pedro Ariza, MgSc2, Daniela Beltran, Ing2, Yoleidy Huérfano, MgSc6, Joselyn Rojas, MD, MgSc3,4, Johel Rodriguez, MgSc1, Modesto Graterol-Rivas, MgSc, PhD7, Victor Arias, Ing1, Atilio Del Mar, MD8, Daniela Riaño-Wilches, BSc5, Julio Contreras-Velásquez, MgSc, PhD(c)1, Sandra Wilches-Duran, MgSc, PhD(c)1, Marco Cerda, MgSc1, Valmore Bermúdez, MD, MPH, MgSc, PhD4 Grupo de Investigación Altos Estudios de Frontera (ALEF), Universidad Simón Bolívar, Cúcuta, Colombia. E-mail de correspondencia: j.chacon@unisimonbolivar.edu.co 2 Grupo de investigación en Ciencias Computacionales CICOM, Universidad de Pamplona, Colombia. 3 Pulmonary and Critical Care Medicine Department. Brigham and Women’s Hospital. Harvard Medical School. Boston, MA. USA 02115. 4 Centro de Investigaciones Endocrino-Metabólicas “Dr. Félix Gómez” Facultad de Medicina. Universidad del Zulia, Venezuela. 5 Facultad de Medicina, Universidad de los Andes, Bogotá, Colombia 6 Grupo de Investigación en Procesamiento Computacional de Datos (GIPCD-ULA) Universidad de Los Andes-Táchira, Venezuela. 7 Centro de Estudios de la Empresa. Universidad del Zulia, Venezuela. 8 Instituto de Bioingeniería y Diagnóstico Sociedad Anónima (IBIDSA), San Cristóbal, Venezuela.

Abstract

Resumen

1

l objetivo de esta investigación es proponer un modelo que determine el perfil patológico de un paciente en función del tratamiento farmacéutico utilizado y asignado por IPS Unipamplona, determinando el consumo de medicamentos con más frecuencia, utilizando método vectorial de recuperación de información. La metodología utilizada es la recuperación de información vectorial (RIV) y está organizada en dos fases; la primera toma la necesidad de información, realiza la solicitud y esta se convierte en una declaración de búsqueda. En la segunda se tiene la información almacenada representada e indexada de alguna manera. El resultado fue un error del 8 % donde no coincidía con la enfermedad diagnosticada, se recopiló y parametrizó la información para que posteriormente pueda ser utilizada con otro modelo el diseño lógico. El modelo propuesto puede ser aplicado en otros sectores. Palabras clave: Recuperación de información, modelo vectorial, información biomédica

he objective of this research is to propose a model to determine the pathological profile of a patient depending on the pharmaceutical treatment used and assigned by IPS Unipamplona determining drug use more often, using vector information retrieval method. The methodology used is the recovery of vector information (RIV) and is organized in two phases; the first takes the need for information, making the request and this becomes a search statement. In the second stored information is represented and indexed in some way. The result was an error of 8% where it did not coincide with the diagnosed disease, the information was compiled and parameterized so that later the logical design could be used with another model. The proposed model can be applied in other sectors. Keywords: Information Retrieval, vector model, biomedical information


Introducción

Revista Latinoamericana de Hipertensión. Vol. 11 - Nº 2, 2016 Figura 1. Sistema de recuperación de información.

xiste una necesidad mundial por construir sistemas informáticos que sirvan como soporte en la toma de decisiones en las áreas de la salud, debido a la cantidad de datos importantes que estas áreas generan y la recuperación de información en función estos datos para usos específicos, es de vital importancia en el sector salud1. Las líneas de investigación en el desarrollo de aplicaciones biomédicas tienen como fin: el tratamiento digital de imágenes, interfaces avanzadas y gestión de la información biomédica. Esta línea de investigación tiene un gran interés dentro de los investigadores debido a lo complejo que pueden llegar a ser los datos que estas las representan. Los desarrollos de aplicaciones en gestión de la información biomédica orientadas al sector de la salud cada vez son más llamativos para la solución de problemas en la sociedad lo que refleja el interés y la importancia de crear nuevos sistemas que solucionen problemas en esta línea1. La recuperación de información (IR) consiste en encontrar material, por lo general documentos de una naturaleza no estructurada, generalmente texto, que satisfaga una necesidad de información dentro de grandes colecciones de datos almacenada en las computadoras2,3. La IR tiene varios métodos para realizar sus búsquedas, los más utilizados son: Modelo booleano, Modelo probabilístico, Modelo Vectorial, Minería de datos y Big Data3. Para este proyecto se utilizó el modelo vectorial siendo el más usado por parte de la IR que permitirá saber que pacientes consumen un determinado medicamento teniendo en cuenta la frecuencia. Está enfocado a crear un software para modelar el perfil del paciente, utilizando recuperación de información. El dominio en el cual se aplica esta investigación será en el área de la salud; la relación entre paciente y medicamentos recetados y como caso de estudio la IPS UNIPAMPLONA. Recuperación de información La recuperación de información (IR) puede tener una definición muy amplia. Hechos tan cotidianos como buscar una persona en alguna red social, buscar sobre un personaje reconocido en algún buscador o examinar dentro del ordenador para encontrar un archivo, todo utiliza algún método o algoritmo para recuperar la información requerida4. La recuperación de información se puede explicar con el siguiente problema típico (Figura 1), por un lado tenemos una persona con una necesidad de información, esta necesidad de alguna manera tiene que ser articulada con una solicitud que la describe, la solitud se convierte a continuación en una declaración de búsqueda; por otro lado, tenemos la información almacenada en las datas y se considera como un recurso potencialmente valioso, esta información debe estar representada e indexada de alguna manera. El reto es proporcionar una buena combinación entre estos dos con el fin de asegurar que la información presentada es de interés para la persona que realiza la consulta original.

Modelos para la recuperación de la información El diseño de un sistema de recuperación de la información se realiza bajo un modelo, donde queda definido como se obtienen las representaciones de los documentos y de la consulta, la estrategia para evaluar la relevancia de un documento respeto a una consulta y los métodos para establecer la importancia (orden) de los documentos de salida4. Como se describe en la Tabla 1, existen varias propuestas de clasificación de modelos, una de las síntesis más completas la realiza.

Tabla 1. Clasificación de los Modelos de Recuperación de Información Modelo Modelos clásicos Modelos alternativos Modelos lógicos

Modelos basados en la Interactividad

Modelos basados en la Inteligencia Artificial

Descripción Incluye los tres más comúnmente citados: booleano, espacio vectorial y probabilístico. Están basados en la Lógica Fuzzy Basados en la Lógica Formal. La recuperación de información es un proceso inferencial. Incluyen posibilidades de expansión del alcance de la búsqueda y hacen uso de retroalimentación por la relevancia de los documentos recuperados [SAL, 1989] Bases de conocimiento, redes neuronales, algoritmos genéticos y procesamiento del lenguaje natural.

El Modelo booleano constituye el primer modelo teórico, el más antiguo, empleado para establecer el subconjunto de documentos relevantes, en relación a una consulta específica, de entre todos los que configuran la colección, ya se trate del fondo de una biblioteca o de todas las páginas disponibles en la web5. Al mismo tiempo es, sin duda, uno de los más sencillos tanto desde un punto de vista teórico como práctico, al basarse en la teoría de conjuntos y en el álgebra de Boole –por una parte- y al ser fácil de diseñar e implementar en la práctica, por otra parte. Se trata de un modelo basado en la teoría de conjuntos y en la lógica boleana. Las consultas, en este modelo, se especifican por medio de listas de palabras unidas por medio de conectivas lógicas: AND, OR y NOT (Ver Figura 2); de tal modo que se recuperan aquellos documentos que contengan (o no) las palabras indicadas en la consulta, pero de la forma indicada por las conectivas.

37


Figura 2. Combinaciones booleanas en conjuntos de diagramas de Venn

Formalmente un documento puede considerarse como un vector que expresa la relación del documento con cada una de esas características (Ecuación 1).

Es decir, ese vector identifica en qué grado el documento Di satisface cada una de las m características. En ese vector, cik es un valor numérico que expresa en qué grado el documento Di posee la característica k. El concepto ’característica’ suele concretarse en la ocurrencia de determinadas palabras o términos en el documento, aunque nada impide tomar en consideración otros aspectos. No obstante, una palabra puede aparecer más de una vez en el mismo documento, y además, unas palabras pueden considerarse con más peso, esto es, más significativas que otras, de forma que el valor numérico de cada uno de los componentes del vector obedece normalmente a cálculos más sofisticados que la simple asignación binaria. De otro lado, también es importante normalizar los vectores para no privilegiar documentos largos frente a otros documentos menos extensos. Esto se hace con la Ecuación 2

38

El modelo Probabilístico, introducido por Maron y Kuhns, a través de la probabilidad de relevancia, sin embargo fue Stephen Robertson quien convirtió la idea inicialmente en el principio de clasificación de probabilidad introducido en la década de los setenta por Robertson y Sparck Jones, también conocido como modelo de recuperación de independencia binaria (BIR)5. El modelo vectorial es aplicado en operaciones de RI, así como también en operaciones de categorización automática, filtrado de información6. En el modelo vectorial se intenta recoger la relación de cada documento Di de una colección de N documentos, con el conjunto de las m características de la colección. Formalmente un documento puede considerarse como un vector que expresa la relación del documento con cada una de esas características. Tomando el ejemplo del modelo booleano, la Figura 3 muestra un ejemplo de una consulta en el espacio en donde se utilizaron los tres términos: Sociales, económicos y políticos. Figura 3. Representación de una consulta y documento en el modelo de espacio vectorial

Si la frecuencia de un término en toda la colección de documentos es extremadamente alta, se opta por eliminarlo del conjunto de términos de la colección (pertenece al conjunto de palabras vacías). Podría decirse que la capacidad de recuperación de un término es inversamente proporcional a su frecuencia en la colección de documentos. Esto es lo que se conoce como IDF (Inverse Document Frequency). Así, para calcular el peso de cada elemento del vector que representa al documento se tiene en cuenta la frecuencia inversa del término en la colección, combinándola de alguna forma con la frecuencia del término dentro de cada documento. Normalmente se utiliza para ello el producto simple4. Enfermedades Para poder crear un modelado del paciente necesitamos que tenga dentro del tratamiento una enfermedad asociada en la cual su medicación sea frecuentemente con el fin de generar un perfil más acertado. Dichas enfermedades son crónicas o no tienen cura y el paciente tiene que acostumbrarse a su nuevo estilo de vida, por consiguiente hace que este tenga que recurrir continuamente a puestos de salud para recibir su medicación lo cual también puede representar que el tratamiento no es estable. Algunas enfermedades que cumplen con estas características son: gripa, diabetes tipo 2, hipertensión arterial, sida, cáncer, asma y enfermedad de Creutzfeldt-Jakob. Todas las anteriores enfermedades tienen un plazo largo para su cura definitiva o simplemente no la tienen. Lo cual hace que las veces en que el paciente recurra al puesto de salud sean mayores y por ende el modelo puede ser más preciso. Las enfermedades que se eligieron fueron la Diabetes tipo 2 y la Hipertensión arterial, puesto que ambas requieren de monitoreo constante y su tratamiento no es tan complejo (ejemplo un sida o cáncer). A su vez son tratadas en la clínica IPS UNIPAMPLONA que suministró los datos.


Revista Latinoamericana de Hipertensión. Vol. 11 - Nº 2, 2016

Para la selección de los medicamentos se tuvieron en cuenta dos variables: 1. Los medicamentos que con mayor frecuencia se encontraban dentro de los tratamientos; 2. La opinión de un especialista. Dentro de este proceso de elección de medicamentos que se realizó con en base a los datos suministrados por la IPS UNIPAMPLONA, para la enfermedad de Diabetes tipo 2, se listaron los cinco medicamentos correspondientes a la primera variable a tener en cuenta. Cuando se pidió la opinión a los especialistas, se descartaron, porque estas se debían a un problema pasajero no asociado a la enfermedad. Al finalizar, los especialistas indicaron 2 nuevos medicamentos que son relacionados a esta enfermedad pero que en el caso de estudio IPS UNIPAMPLONA no se habían suministrado hasta el momento. Por lo tanto, se contará con siete medicamentos (cinco que se eligieron en base a la primera variable más dos recomendados por el especialista) para generar el perfil del paciente La diabetes tipo 2, también llamada diabetes mellitus 2, diabetes del adulto, diabetes no insulino-dependiente o sólo diabetes, es un trastorno frecuente que afecta el modo en que el cuerpo procesa y utiliza los carbohidratos, las grasas y las proteínas. Cada uno de estos nutrientes es una fuente de glucosa (azúcar), que es el combustible más básico para el cuerpo7. El signo más claro de diabetes es un nivel muy alto de azúcar en sangre. Los medicamentos son: dipirona, insulina zinc, insulina glargina, losartán, torvastatina. Los medicamentos sugeridos por el especialista: metformina, glibenclamida.

Figura 4. Construcción del perfil del paciente

La hipertensión arterial es el aumento de la presión arterial de forma crónica. Es una enfermedad que no da síntomas durante mucho tiempo y, si no se trata, puede desencadenar complicaciones severas como un infarto de miocardio, una hemorragia o trombosis cerebral, lo que se puede evitar si se controla adecuadamente8. Las primeras consecuencias de la hipertensión las sufren las arterias, que se endurecen a medida que soportan la presión arterial alta de forma continua, se hacen más gruesas y puede verse dificultado al paso de sangre a su través. Esto se conoce con el nombre de arterosclerosis. Las medicinas para esta enfermedad son: betametil digoxina, atorvastatina, clopidogrel, espironolactona, furosemida, amlodipino. Metodología El perfil del paciente es construido gracias al modelo vectorial utilizado en la recuperación de información. Dicho modelo nos permite conocer cuáles son los pacientes que más consumen un medicamento. La Figura 4 muestra el proceso para la construcción del perfil de paciente se realizó, en cinco etapas relevantes9. La base de datos IPS UNIPAMPLONA, es el asiento para la construcción del proceso de extracción de la información y modelamiento del perfil del paciente, en base a ésta, se diseñó una nueva base de datos la cual interactúa con la aplicación respectiva para obtener los datos relevantes. Esta base comprende los medicamentos y formulas dirigidas al paciente teniendo en cuenta su diagnóstico, consta de seis tablas: paciente, fórmula médica, fórmula y medicamento, medicamento, diagnóstico asociado y diagnóstico (Ver Figura 5).

39


Figura 5. Tablas de la base de datos utilizadas

40

El sistema para modelar el perfil del paciente, se basa en el modelo vectorial utilizado en la recuperación de información, teniendo en cuenta la frecuencia en que los pacientes consumen un medicamento específico asociados a un diagnóstico. Los resultados observados una vez aplicado el modelo se reflejan así:

a) Que medicamentos consume el paciente. Estos medicamentos se encuentran alojados en la base datos propuesta correspondientes a cada enfermedad. b) Con qué frecuencia consume un medicamento el paciente. Esta frecuencia es el resultado de la semejanza o similitud utilizando el modelo vectorial. El diagrama de flujo de la aplicación se muestra en la Figura 6.

Figura 6. Diagrama de flujo de la aplicación


Revista Latinoamericana de Hipertensión. Vol. 11 - Nº 2, 2016

Método vectorial aplicado Se crea una lista de pacientes y medicamentos que se encuentran alojados en la base de datos propuesta. Una vez creadas las listas, se realiza una consulta por cada paciente

para conocer los medicamentos asociados a su diagnóstico y con qué frecuencia fueron suministrados. Lo anterior se denominará matriz de frecuencia10,11. En la Figura 7 y 8, muestra una matriz donde se relaciona, los medicamentos ubicados en la columna y los pacientes en las filas.

Figura 7. Matriz de frecuencia (pacientes vs medicamentos)

41

Figura 8. IDF calculado para cada medicamento

Luego se obtiene la tabla de IDF que se consigue mediante la Ecuación 3:

Tabla 2. Resultado del perfil de paciente 1 MEDICAMENTO

Dónde: N = Número de pacientes ni = Frecuencia del medicamento entre los pacientes Como se muestra en la tabla 2

COD

SEMEJANZA

Clindamicina (Fosfato)

2

0.010178

Dipirona

3

0.018094

Insulina Zinc

5

0.180942

Losartan

6

0.011309

Omeprazol

17

0.002262

Amitiptilina

19

0.001131

Carbamazepina

23

0.005654


En la matriz anterior de la Figura 8 se agregó una nueva casilla llamada norma, la cual corresponde a la longitud de los vectores y permite normalizar. Usando la siguiente ecuación se obtiene su resultado (Ecuación 4).

Finalmente, el sistema genera un archivo plano con la información solicitada utilizando el método vectorial como se muestra en la Figura 10. Figura 10. Archivo lineal generado por la aplicación

El medicamento a consultar también debe pasar por un procedimiento similar. Para hallar la norma de cada medicamento se tiene en cuenta la Ecuación 5.

Dónde: Di= wdi1, wdi2, wdi3,…,wdit vector que representa el paciente C= wq1, wq2, wq3,…,wqt vector que representa el medicamento, este vector solo contiene el peso de un solo medicamento, ya que se realiza una consulta entre medicamento y paciente. t: Número de términos en la colección wdij: Peso del término j en el paciente i Para comprobar la efectividad del perfil del se tomaron datos de la base de datos pertenecientes a la IPS UNIPAMPLONA. El proceso de crear un diagnóstico a partir de los medicamentos consumidos integra varias tecnologías: La base de datos se realizó en PostgreSQL. La aplicación que realiza el modelado del paciente se hizo en lenguaje JAVA, utilizando como framework NetBeans. La base de datos contiene 10 pacientes (6 pacientes diagnosticados con Diabetes tipo II y 4 con hipertensión) y 25 medicamentos. La similitud resultante es un valor entre el rango 0 y 1. En la Figura 9 se muestra la interfaz hombre máquina que inicia la aplicación.

Resultados

El modo más simple de calcular la similitud entre un medicamento y un paciente, utilizando el modelo vectorial11 que consiste en realizar el producto escalar de los vectores que los representan esto se muestra en la ecuación 6.

Conclusiones

42

Perfil del paciente En la Tabla 2 se muestran los resultados del paciente 1, quien fue diagnosticado con Diabetes tipo II, quien toma los siguientes medicamentos: Clindamicina, Dipirona, Insulina Zinc, Losartan, Omeprazol, Amitiptilina y Carbamazepina. En la columna semejanza podemos observar el resultado de aplicar el modelo vectorial para este paciente

En este proyecto se aplicó el modelo vectorial como forma para optimizar el manejo de perfil de un paciente teniendo en cuenta los medicamentos y la frecuencia con que son suministrados obteniendo un error del 8% donde no coincidía con su enfermedad diagnosticada. Se recopiló y parametrizó la información para que posteriormente pueda ser utilizada con otro modelo el diseño lógico, se alimentó la base de datos de fuentes reales provenientes de la IPS UNIPAMPLONA la cual contiene historias clínicas, autorizaciones, medicamentos y datos del paciente. El sistema creado en este proyecto puede ser aplicado a otros ámbitos, como comercio electrónico, áreas de educación y otras ciencias (informática, salud, industria).

Figura 9. Interfaz de la aplicación

Referencias 1. Naing L, Winn T, Rusli BN. Practical issues in calculating the sample size for prevalence studies. Archives of orofacial Sciences. 2006; 1(1): 9-14. 2. Raghavan VV, Wong SM. A critical analysis of vector space model for information retrieval. Journal of the American Society for information Science 1986;37(5): 279. 3. Xu J, Croft WB. Improving the effectiveness of information retrieval with local context analysis. ACM Transactions on Information Systems (TOIS). 2000;18(1):79-112. 4. Dominich, S. A unified mathematical definition of classical information retrieval. Journal of the American Society for Information Science. 2000;51(7):614-624.


Revista Latinoamericana de Hipertensión. Vol. 11 - Nº 2, 2016 5. Martínez-Méndez F. Recuperación de información: modelos, sistemas y evaluación. Murcia: kiosko; 2004. 6. Lindon JC, Nicholson JK. Spectroscopic and statistical techniques for information recovery in metabonomics and metabolomics. Annu. Rev. Anal. Chem. 2008;1:45-69. 7. Bermudez V, Salazar J, Rojas J, Añez R, González R, Torres W, et al. Prevalencia de diabetes mellitus tipo 2 y factores asociados en la ciudad de Maracaibo, Venezuela. Revista Latinoamericana de Hipertensión. 2014;9(2):14-25. 8. Rojas M, Rosales Y, Guerrero N, Morillo J, Añez RJ, Bermúdez V, Rojas J. Comportamiento epidemiológico de la hipertensión arterial en individuos adultos del municipio San Cristóbal del estado Táchira-Venezuela. Revista Latinoamericana de Hipertensión. 2015;10(2): 25-35. 9. Martínez-Comeche J. Los modelos clásicos de Recuperación de información y su vigencia. Madrid: Universidad Complutense de Madrid; 2006. 10. Göker A, Davies J. Information retrieval: searching in the 21st century. India: Wiley; 2009. 11. Baeza-Yates, R., Ribeiro-Neto, B. Modern information retrieval. New York: ACM press; 1999.

Manuel Velasco (Venezuela) Editor en Jefe - Felipe Alberto Espino Comercialización y Producción Reg Registrada en los siguientes índices y bases de datos:

SCOPUS, EMBASE, Compendex, GEOBASE, EMBiology, Elsevier BIOBASE, FLUIDEX, World Textiles, OPEN JOURNAL SYSTEMS (OJS), REDALYC (Red de Revistas Científicas de América Latina, el Caribe, España y Portugal), LATINDEX (Sistema Regional de Información en Línea para Revistas Científicas de América Latina, el Caribe, España y Portugal) LIVECS (Literatura Venezolana para la Ciencias de la Salud), LILACS (Literatura Latinoamericana y del Caribe en Ciencias de la Salud) PERIÓDICA (Índices de Revistas Latinoamericanas en Ciencias), REVENCYT (Índice y Biblioteca Electrónica de Revistas Venezolanas de Ciencias y Tecnología) SCIELO (Scientific Electronic Library Online), SABER UCV, DRJI (Directory of Research Journal Indexing) CLaCaLIA (Conocimiento Latinoamericano y Caribeño de Libre Acceso), EBSCO Publishing, PROQUEST.

43


S

egmentación automática tridimensional de estructuras ventriculares cerebrales en imágenes de resonancia magnética Three-dimensional automatic segmentation of ventricular brain structures in magnetic resonance imaging 44

Abstract

Resumen

Miguel Vera, MgSc. PhD1*, Valentín Molina, MgSc2, Yoleidy Huérfano, MgSc3, María Vera, MD4, Atilio Del Mar, MD5, Williams Salazar4, Sandra Wilches-Duran, MgSc, PhD(c)1, Modesto Graterol-Rivas, MgSc, PhD8, Joselyn Rojas, MD, MgSc6,7, Carlos Garicano, MD, MgSc1, Armando Peña, MgSc1, Julio Contreras-Velásquez, MgSc, PhD(c)1, Victor Arias, Ing1, José Chacón, MgSc, PhD1 1 Grupo de Investigación Altos Estudios de Frontera (ALEF), Universidad Simón Bolívar, Cúcuta, Colombia. E-mail de correspondencia: m.avera@unisimonbolivar.edu.co, veramig@gmail.com* 2 Universidad ECCI. Grupo de investigación en Ingeniería Clínica del Hospital Universitario de la Samaritana (GINIC-HUS). Bogotá, Colombia. 3 Grupo de Investigación en Procesamiento Computacional de Datos (GIPCD-ULA) Universidad de Los Andes-Táchira, Venezuela. 4 Escuela de Medicina, Universidad de Los Andes, Hospital Central de San Cristóbal- Edo. Táchira, Venezuela. 5 Instituto de Bioingeniería y Diagnóstico Sociedad Anónima (IBIDSA), San Cristóbal, Venezuela. e-mail: atiliodelmar@yahoo.com. 6 Pulmonary and Critical Care Medicine Department. Brigham and Women’s Hospital. Harvard Medical School. Boston, MA. USA 02115. 7 Centro de Investigaciones Endocrino-Metabólicas “Dr. Félix Gómez” Facultad de Medicina. Universidad del Zulia, Venezuela. 8 Centro de Estudios de la Empresa. Universidad del Zulia, Venezuela.

e propone una técnica para la segmentación automática 3–D de estructuras cerebrales (ventrículos laterales, tercero y cuarto) usando imágenes de resonancia magnética. La técnica se fundamenta en el realce por similaridad global y se divide en 2 etapas: Filtrado y Segmentación. Mediante el filtrado se utilizan filtros no lineales para abordar los problemas de ruido y artefactos presentes en las imágenes. Durante la segmentación de las mencionadas estructuras, se consideran las imágenes filtradas y una técnica basada en crecimiento de regiones (RG) la cual es inicializada usando un vóxel detectado con máquinas de soporte vectorial de mínimos cuadrados. Este tipo de segmentaciones puede ser útil en la detección de ciertas enfermedades que afectan el sistema ventricular cerebral humano. Palabras clave: Imágenes de resonancia magnética, Estructuras ventriculares cerebrales, Filtrado, Segmentación.

technique for brain ventricles structures 3-D segmentation is proposed using magnetic resonance images. This technique is global similarity enhancement-based technique and it comprises two stages: Filtering and Segmentation. During filtering a non-linear filters is used to address the noise y artifacts images problems. During segmentation, the region growing algorithm is applied to the pre-processed images and it is initialized using a voxel detected with least squares support vector machines. This kind of segmentation may be useful in the detection of several pathologies that impact the brain ventricles system. Keywords: Magnetic resonance images, Brain ventricles structures, Filtering, Segmentation.


Introducción

Revista Latinoamericana de Hipertensión. Vol. 11 - Nº 2, 2016

el sistema puede generar, por ejemplo, una representación volumétrica de las estructuras cerebrales sometidas a estudio3.

a técnica de adquisición de imágenes denominada Imagenología por Resonancia Magnética (MRI), es una modalidad de imagenología médica muy importante, desde el punto de vista clínico, debido al excepcional contraste que exhiben las imágenes generadas mediante ella1. En contrapartida, esta técnica de imagen, presenta como principales desventajas su alto costo y la imposibilidad de acceder al paciente durante el proceso de adquisición. La MRI explota la existencia de un campo magnético inducido en el cuerpo del paciente. Los materiales que poseen un número impar de protones exhiben un momento magnético nuclear el cual, a pesar de ser muy débil, es observable2. Este tipo de momento, normalmente, se orienta de manera aleatoria, sin embargo, cuando los referidos materiales son sometidos a campos magnéticos muy intensos, sus momentos tienden a alinearse de acuerdo a una orientación inducida por la polaridad dominante de dichos campos2. Cuando la MRI se emplea para extraer información relacionada con las estructuras cerebrales se puede usar el término Resonancia Magnética Cerebral (BMR)3. La BMR es muy útil para la detección de enfermedades cerebrales tales como hidrocefalias (comunicante, no comunicante y ex vacuo), aneurismas, quistes, lesiones de parénquima, edemas perilesionales en lesiones ocupantes de espacio, entre otras1,2,3. Otra aplicación importante de la BMR es la MRI etiquetada y la resonancia magnética funcional (fMRI). La MRI etiquetada permite el marcaje de diversos planos que contienen regiones específicas del cerebro, en imágenes de resonancia magnética. Para ello, a fin de perturbar la magnetización de los protones presentes en una o más zonas del tejido cerebral, es aplicado un pulso de radio frecuencia selectivo antes del proceso de adquisición. Una imagen de resonancia es obtenida, en un plano que es ortogonal respecto a un plano etiquetado particular, antes de que todos los protones recuperen la magnetización3. Luego de un tiempo T, los protones perturbados recobran la magnetización original y generan un pulso de radio frecuencia que es detectado por el equipo de adquisición el cual produce una imagen etiquetada de la estructura analizada. El desplazamiento que se produce entre la imagen de resonancia y la etiquetada se refleja como un conjunto de franjas o zonas de diferentes intensidades, en la imagen que entrega esta técnica. El número, posición, grosor e intensidad de estas zonas depende tanto del ángulo del pulso de radio frecuencia como de la intensidad y dirección del campo magnético aplicado3. Así, un resonador magnético actual, está en capacidad de producir imágenes cerebrales compuestas por un número variable y, generalmente, elevado de cortes (capas) con una resolución espacial, usualmente, de 256 x 256 píxeles y con una profundidad, relativa a los niveles de gris, de 16 bits. Mediante la aplicación de métodos de reconstrucción de los planos transaxiales, obtenidos durante el proceso de adquisición,

No obstante, la generación de un número elevado (de imágenes de alta resolución espacial) trae como consecuencia que los expertos clínicos que trabaja con estructuras cerebrales deban desarrollar procesos de segmentación manuales que se convierten en tareas engorrosas y tienen, adicionalmente, la desventaja de ser operador-dependiente, por lo que, en general, tales segmentaciones deben estar restringidas a aquellas situaciones en que pueden ser desarrolladas de una manera simple y robusta4. El desarrollo de métodos automáticos de segmentación tiene el potencial de reducir, sustancialmente, el tiempo empleado por algunos procedimientos médicos, los que así podrían llevarse a cabo con mayor efectividad y menor riesgo, por ejemplo, la planificación de cirugías o de tratamientos complejos como los de radioterapia, entre otras5,6. Por esta razón, a fin de superar los problemas que implican los procesos de segmentaciones manuales, y con el propósito de detectar ciertas patologías se han propuesto algunas metodologías para la segmentación de las estructuras cerebrales más importantes. Así, Clangphukhieo et al.7, proponen una técnica basada en procesos de normalización, perfiles de niveles de gris, filtraje (basado en difusión anisotrópica y funciones sigmoidales), matrices de co-ocurrencias y texturas para la segmentación, bidimensional y automática, de los ventrículos cerebrales en imágenes de tomografía computarizada (CT). Ellos consideran 30 capas de datos de sujetos sanos reportando excelentes valores para las métricas que ellos consideraron, entre las que se incluye la comparación de volúmenes ocupados por segmentaciones manuales, generadas por un experto neurólogo y las segmentaciones automáticas generadas por el método que ellos presentan. También, Liu et al.8, consideran imágenes de resonancia magnética para segmentar, automáticamente, los ventrículos cerebrales mediante una metodología basada en umbralización + crecimiento de regiones. Estos autores presentan como métrica el coeficiente de Dice reportando valores superiores 0.90. Adicionalmente, Bhanu et al.9, detectan derrames intra y extra ventriculares en imágenes de cráneo adquiridas mediante la modalidad de CT utilizando una técnica basada en métodos de level set de distancia regularizada. Estos investigadores reportan una correspondencia de volúmenes automáticos y manuales superiores a 0.9. Todos estos antecedentes están direccionados hacia la detección de diversos tipos de enfermedades que afectan directa o indirectamente el funcionamiento del cerebro humano. Por otra parte, este trabajo es una extensión de11. Los principales aportes son: a) Uso de una técnica de agrupamiento, basada en crecimiento de regiones, para la segmentación eficiente de estructuras cerebrales. b) Segmentación automática de ciertas estructuras vinculadas con el sistema de ventrículos cerebrales, sin el uso de planos aislantes.

45


Materiales y métodos

Descripción de las bases de datos La base de datos (DB) utilizada fue suministrada por el Instituto de Bioingeniería y Diagnóstico Sociedad Anónima (IBIDSA) ubicada en San Cristóbal, Estado Táchira, Venezuela, y está constituida por imágenes de resonancia magnética de cráneo de un sujeto con hidrocefalia. La DB consta de 192 imágenes de resolución espacial 256x216 píxeles, muestreadas a 12 bits por píxel, con vóxeles de tamaño 1 mm x 1 mm x 1 mm. Descripción de la técnica utilizada para la segmentación de algunas estructuras pulmonares. La Figura 1, muestra la estrategia propuesta para generar la morfología de ciertas estructuras pulmonares. Debido a que tal estrategia está basada en un tipo de realce por similaridad11 de tipo global, en el contexto del presente artículo, será utilizado el acrónimo Egs para hacer referencia a ella.

|I(x)−µ|<mσ

(2)

siendo: I(x) la intensidad del vóxel semilla, µ y σ la media aritmética y la desviación estándar de los niveles de gris de la vecindad inicial y m un parámetro que requiere entonación. Figura 2. Diagrama sintético de la operatividad de las LSSVM

Fig. 1. Diagrama de bloques de la estrategia Egs.

Para una explicación detallada de los fundamentos y aplicaciones de la técnica basada en realce por similaridad se pueden consultar las referencias11,12,13,14. A continuación se describen las etapas que conforman la estrategia Egs. Etapa de filtrado En la Figura 1, se ha destacado mediante un recuadro gris la etapa de filtrado basada en realce por similaridad global (GSE). Este tipo de realce consiste en: a) Generar una imagen gradiente (Ig) procesando cada imagen original (Io) con un filtro denominado magnitud del gradiente15. El papel de este filtro es detectar los bordes de las estructuras presentes en las imágenes. b) Aplicar una función de similaridad global considerando Io e Ig para generar una imagen (Igs) cuyos niveles de gris se hacen coincidir con el valor absoluto de la resta aritmética de todos los niveles de gris de Io y de Ig. De esta manera, el modelo matemático que rige la similaridad global viene dado por la Ec. (1). Igs=|Io – Ig|

(1)

La finalidad de la similaridad global es realzar la información contenida dentro de las cavidades cardiacas. c) Debido a que el filtro denominado magnitud del gradiente puede reforzar el ruido Ricciano, presente en las imágenes de MSCT, se aplica a la imagen Igs un filtro suavizador, en este caso particular, el filtro de mediana (MF)16.

Resultados

46

Etapa de segmentación La ubicación de la semilla, para inicializar el crecimiento de regiones15 (RG), se calcula usando máquinas de soporte vectorial de mínimos cuadrados17 (LSSVM), el proceso de la misma se muestra en la Figura 2. Para aplicar el RG, a las imágenes filtradas, se hicieron las siguientes consideraciones: a) A la vecindad inicial, que se construye a partir de la semilla, se le asigna forma cúbica cuyo lado depende de un escalar arbitrario r. El valor óptimo para el parámetro r se obtiene heurísticamente. b) Como criterio pre-definido, se elige el modelado mediante la Ec. (2).

os parámetros óptimos que se obtuvieron para r y m, se obtuvieron de manera heurística, fueron 3 y 2.8, respectivamente. Tales valores, permitieron generar un cubo de lado 3 píxeles y realizar la segmentación de los pulmones, considerando 2.8 veces la desviación estándar de la imagen. Luego, al analizar cuál de las imágenes pre-procesadas correspondía a los parámetros óptimos del RG, se identificó que la imagen pre-procesada con el filtro de mediana con tamaño de vecindad (5x5x5) fue la que corres-


Revista Latinoamericana de Hipertensión. Vol. 11 - Nº 2, 2016

pondía a tales parámetros. Además, para las LSSVM, entrenadas para la detección de los vóxeles “semilla”, se obtuvieron como parámetros óptimos (para g y σ2) los valores de 1.75 y 1.50, respectivamente. A continuación, se presentan los resultados cualitativos correspondientes a las etapas de filtrado y segmentación. En este sentido, la Figura 3, muestra una vista axial de la imagen original. Adicionalmente, mediante la Figura 4 se presenta una vista axial de la imagen procesada con un filtro denominado magnitud del gradiente. En ella se aprecia, claramente, una excelente definición de los bordes que delimitan los objetos presentes en la imagen, particularmente, se observan con facilidad los contornos que contienen las estructuras cerebrales.

En ella, se observa una minimización del problema de ruido y una definición apropiada de las estructuras que conforman el tórax lo cual facilita la segmentación de los pulmones. De manera complementaria, en la figura 6, se aprecia el efecto de utilizar un filtro de mediana como suavizador aplicado sobre la imagen de similaridad global. Figura 6. Vista axial de la imagen de similaridad global suavizada mediante la aplicación de un filtro de mediana de tamaño (5x5x5)

47

Figura 3. Vista axial de la imagen original

Como se aprecia, en la figura 6, se logra generar una imagen en la cual se preservan los bordes y se agrupa, adecuadamente, la información contenida en su interior.

Figura 4. Vista axial de imagen procesada con el filtro de magnitud del gradiente el cual detecta los contornos de los objetos presentes en la imagen

También, se presentan las segmentaciones tridimensionales de las estructuras cerebrales que se identifican a continuación. Así, mediante la Figura 7 se muestra una representación tridimensional correspondiente a una vista anterior de los ventrículos laterales y del tercer ventrículo. Figura 7. Superficie tridimensional correspondiente a ventrículos (dilatados por hidrocefalia), luego de aplicar el método de crecimiento de regiones a las imágenes filtradas.

Además, en la Figura 5 se presenta el resultado de la aplicación de la función de similaridad global. Figura 5. Vista axial de imagen filtrada mediante la función de similaridad global (GSE)

Como se aprecia, en la Figura 7, se obtuvo una adecuada representación 3D de la morfología tanto de los ventrículos laterales como del tercer ventrículo. Finamente, la Figura 8 presenta los resultados correspondientes a una vista anteroinferior en la cual se logra apreciar, adicionalmente, el inicio del cuarto ventrículo. En ambas figuras se logra ver una excelente representación tridimensional de los ventrículos cerebrales observándose, claramente, la hidrocefalia, lo cual indica que la técnica propuesta arroja resultados aceptables desde el contexto cualitativo. En el contexto cuantitativo, para este tipo de imágenes, se puede utilizar el índice de Evans (IE) el cual permite cuantificar diversos tipos de patologías, entre las que se encuentra la hidrocefalia comunicante. En el caso de las imágenes con-


sideradas, para el IE se estimó un valor de 0.48 (valor que supera el referente de 0.30), confirmándose de esta forma la referida patología. Figura 8. Superficie tridimensional correspondiente a una vista antero-inferior de los ventrículos cerebrales

presente trabajo, puede facilitar una planificación de la colocación definitiva del catéter proximal en el sistema de derivación ventrículo-peritonial que, usualmente, se utiliza para el tratamiento quirúrgico de la mencionada patología.

Referencias 1. Macovski A, Pauly J, Schenck J, Kwong K, Chesler D, Hu X, et al. Magnetic resonance imaging. In Bronzino JD, editor. The Biomedical Engineering Handbook. Vol.1.2a ed. Boca Raton: CRC Press LLC; 2000. 1174–1215. 2. Zerhouni EA, Parish DM, Rogers WJ, Yang A, Shapiro EP. Human heart: tagging with MR imaging--a method for noninvasive assessment of myocardial motion. Radiology. 1988;169(1):59-63.

48

Conclusiones

3. Ayache N. Medical computer vision, virtual reality and robotics. Image and Vision Computing. 1995;13(4):295–313. 4. Lange K, Carson R. Em reconstruction algorithms for emission and transmission tomography. Journal of Computed Assisted Tomography. 1984;8(3):306-16. 5. Olabarriaga S, Smeulders A. Interaction in the segmentation of medical images: A survey. Medical Image Analysis. 2001;5(2):127-142.

e ha presentado una técnica basada en realce por similaridad global, que genera excelentes segmentaciones de ciertas estructuras vinculadas con los ventrículos cerebrales. Tales segmentaciones pueden ser útiles en diversos contextos tales como el académico-didáctico (estudio de la anatomía de los ventrículos cerebrales), investigativo (modelos de segmentación robustos, automáticos y eficientes), clínico (planeación de procesos terapéuticos y quirúrgicos) y empresarial (producción y comercialización de modelos realísticos, vía impresión 3D, de los ventrículos cerebrales). A corto plazo, se tiene previsto utilizar esta técnica en un número importante de bases de datos para la detección del mayor número posible de enfermedades vinculadas con el cerebro como, por ejemplo, identificación, cuantificación y monitoreo de tumores intra cerebrales. También se pretende validar esta técnica considerando un número importante de bases de datos multimodalidad (MRI-CT) e introduciendo métricas que permitan cuantificar el volumen que ocupan los ventrículos cerebrales y/o tumores de tal forma que se pueda establecer, con precisión, el espacio que estas estructuras ocupan contextualmente. La obtención de este tipo de dato facilita la adecuada aplicación de procesos de radioterapia en aquellos casos en los cuales se detecte la presencia de tumores cancerígenos tratando de afectar (lo menos posible) órganos circundantes. En el área terapéutica se puede partir de las mencionadas segmentaciones para la aplicación de fármacos, radioterapias y/o quimioterapias como parte integral de un plan que aborde la problemática que supone la presencia de tales tumores. Además, se pueden considerar las segmentaciones generadas para la planificación de cirugías, virtuales y/o reales, con fines terapéuticos. Finalmente, en el contexto terapéutico de la patología detectada (hidrocefalia comunicante), la técnica propuesta, en el

6. Bouma H, Sonnemans JJ, Vilanova A, Gerritsen FA. Automatic detection of pulmonary embolism in CTA images. IEEE transactions on medical imaging. 2009;28(8):1223-30. 7. Clangphukhieo B, Aimmanee P, Uyyanonvara B. Segmenting the Ventricle from CT Brain Image using Gray-Level Co-occurrence Matrices (GLCMs). In: World Congress on Engineering 2014 Vol I, London;2014:1168-73. 8. Liu J, Huang S, Nowinski WL. Automatic segmentation of the human brain ventricles from MR images by knowledge-based region growing and trimming. Neuroinformatics. 2009;7(2):131-146. 9. Bhanu K, Zhou S, Morgan T, Hanley D, Nowinski W. Segmentation and quantification of intra-ventricular/cerebral hemorrhage in CT scans by modified distance regularized level set evolution technique. International Journal of Computer Assisted Radiology and Surgery. 2012;7(5):785-98. 10. Colmenares L, Montilla G, Villalba N, Albanés LM, Bosnjak A, Jara I, et al. Análisis de los Resultados de la Implementación de Segmentación con ITK. Enfoque cualitativo. En: Conferencia Ibero-Americana de Ingeniería e Innovación Tecnológica: CIIIT 2009. 11. Vera M. Segmentación de estructuras cardiacas en imágenes de tomografía computarizada multi-corte [Tesis doctoral]. Mérida-Venezuela: Universidad de los Andes, 2014. 12. Vera M, Bravo A, Garreau M, Medina R. Similarity enhancement for automatic segmentation of cardiac structures in computed tomography volumes. In 2011 Annual International Conference of the IEEE Engineering in Medicine and Biology Society; 2011:8094-97. 13. Vera M, Bravo A, Medina R. Improving Ventricle Detection in 3–D Cardiac Multislice Computerized Tomography Images. In: Richard P, Braz J. Theory and Applications, Communications in Computer and Information Science. Berlin: Springer;2011:170-83. 14. Bravo A, Vera M, Garreau M, Medina R. Three-dimensional segmentation of ventricular heart chambers from multi-slice computerized tomography: An hybrid approach. In: Cherifi H, Zain JM, El-Qawasmeh E. Digital Information and Communication Technology and Its Applications. Berlin: Springer;2011:287-301. 15. G. Passarielo G, Mora F. Imágenes Médicas, Adquisición, Análisis, Procesamiento e Interpretación. Venezuela:Equinoccio Universidad Simón Bolívar;1995. 16. Fischer M, Paredes JL, Arce GR. Weighted median image sharpeners for the world wide web. IEEE Transactions on Image Processing. 2002;11(7):717-27. 17. Suykens JA, Vandewalle J. Least squares support vector machine classifiers. Neural processing letters. 1999;9(3):293-300.


Revista Latinoamericana de Hipertensión. Vol. 11 - Nº 2, 2016

S

egmentación computacional de la vena cava superior y procesos hipertensivos Superior vena cava computational segmentation and hypertensive processes

Yoleidy Huérfano, MgSc1, Miguel Vera, MgSc, PhD2,1*, Atilio Del Mar, MD3, María Vera, BSc4, José Chacón, MgSc, PhD2, Sandra Wilches-Duran, MgSc, PhD(c)2, Modesto Graterol-Rivas, MgSc, PhD5, Maritza Torres, MD, PhD(c)9, Víctor Arias, Ing2, Joselyn Rojas, MD, MgSc6,7, Carem Prieto, MgSc, PhD(c)7, Wilson Siguencia, MD, PhD(c)9, Lisse Angarita, MD, PhD(c)11, Rina Ortiz, MD, PhD(c)10, Diana Rojas-Gomez, MD, PhD11, Carlos Garicano, MD, MgSc2, Daniela Riaño-Wilches, BSc12, Maricarmen Chacín, MD, MgSc7, Julio Contreras-Velásquez, MgSc, PhD(c)2, Valmore Bermúdez, MD, MPH, MgSc, PhD7, Antonio Bravo, MgSc, PhD8 Grupo de Investigación en Procesamiento Computacional de Datos (GIPCD-ULA) Universidad de Los Andes-Táchira, Venezuela 2 Grupo de Investigación Altos Estudios de Frontera (ALEF), Universidad Simón Bolívar, Cúcuta, Colombia. E-mail de correspondencia: m.avera@unisimonbolivar.edu.co, veramig@gmail.com* 3 Instituto de Bioingeniería y Diagnóstico Sociedad Anónima (IBIDSA), San Cristóbal, Venezuela. e-mail: atiliodelmar@yahoo.com 4 Escuela de Medicina, Universidad de Los Andes, Hospital Central de San Cristóbal- Edo. Táchira, Venezuela 5 Centro de Estudios de la Empresa. Universidad del Zulia, Maracaibo, Venezuela. 6 Pulmonary and Critical Care Medicine Department. Brigham and Women’s Hospital. Harvard Medical School. Boston, MA. USA 02115. 7 Centro de Investigaciones Endocrino-Metabólicas “Dr. Félix Gómez” Facultad de Medicina. Universidad del Zulia, Venezuela. 8 Coordinación de Investigación Industrial, Decanato de Investigación, Universidad Nacional Experimental del Táchira, San Cristóbal, Venezuela. 9 Ministerio de Salud Pública del Ecuador. Distrito de Salud 01D02. Posgrado de Medicina Familiar. Universidad de Cuenca. Cuenca, Ecuador. 10 Departamento de Internado Anatomía III. Facultad de Medicina. Universidad Católica de Cuenca. Cuenca, Ecuador. 11 Escuela de Nutrición y Dietética. Facultad de Medicina. Universidad Andres Bello, Sede Concepción, Chile. 12 Facultad de Medicina, Universidad de los Andes, Bogotá, Colombia.

Abstract

Resumen

1

e propone una estrategia para la segmentación tridimensional de la vena cava superior (SVC) en 20 imágenes cardiacas de tomografía computarizada multicapa, correspondientes al ciclo cardiaco completo de un sujeto. Esta estrategia está basada en la técnica de realce por similaridad global y consta de las etapas de preprocesamiento, segmentación y entonación de parámetros. El pre-procesamiento se aplica, preliminarmente, al instante de diástole final y se divide en dos fases denominadas: Filtrado y Definición de una región de interés. Estas fases abordan los problemas de ruido, artefactos y bajo contraste de las imágenes. Para la segmentación, de la SVC, se implementa el algoritmo de crecimiento de regiones el cual es aplicado a las imágenes pre-procesadas y es inicializado con un vóxel detectado con máquinas de soporte vectorial de mínimos cuadrados. Durante la entonación de parámetros, se usa el coeficiente de Dice (Dc) para comparar las segmentaciones obtenidas mediante la estrategia propuesta y la segmentación generada, manualmente, por un cardiólogo. La combinación de técnicas de filtrado que generó el Dc más elevado considerando el instante de diástole se aplica luego a las 19 imágenes 3D restantes, obteniéndose un Dc promedio superior a 0.9 lo cual indica una excelente correlación entre las segmentaciones generadas por un experto cardiólogo y las producidas por la estrategia desarrollada. Palabras claves: Vena cava superior, Realce por similaridad global, Segmentación.

strategy for superior vena cava (SVC) three-dimensional segmentation is proposed using 20 cardiac imaging multilayer computed tomography, for entire cardiac cycle of a subject. This strategy is global similarity enhancement technique based on and it comprises of pre-processing, segmentation and parameter tuning stages. The pre-processing stage is split into two phases called filtering and definition of a region of interest. These phases are preliminarily applied to end-diastole cardiac-phase and they address the noise, artifacts and low contrast images problems. During SVC segmentation, the region growing algorithm is applied to the pre-processed images and it is initialized using a voxel detected with least squares support vector machines. During the parameters tuning, the Dice score (Ds) is used to compare the SVC segmentations, obtained by the proposed strategy, and manually SVC segmentation, generated by a cardiologist. The combination of filtering techniques that generated the highest Ds considering the end-diastole phase is then applied to the others 19 3-D images, yielding more than 0.9 average Ds indicating an excellent correlation between the segmentations generated by an expert cardiologist and those produced by the strategy developed. Keywords: Superior vena cava, Global similarity enhancement, Segmentation.

49


Introducción 50

gía neoplásica, aunque en los últimos años se ha observado un aumento en relación al uso de catéteres intravasculares4.

l sistema cardiovascular está compuesto por el corazón y los vasos sanguíneos y es el responsable de hacer circular la sangre por el cuerpo para suministrarle oxígeno y nutrientes1. Los grandes vasos sanguíneos vinculados con el corazón son las estructuras encargadas de la circulación sistémica y pulmonar de la sangre en el cuerpo humano1. Estos vasos se clasifican en arterias y venas. El corazón está íntimamente relacionado con las siguientes arterias: aorta, pulmonar y coronarias. Además, el corazón recibe sangre de ciertas venas denominadas: cava superior, cava inferior, coronarias y pulmonares2. En el presente artículo es de gran relevancia estudiar la vena cava superior (SVC), cuyo sistema principal está definido por su vena terminal, la vena cava superior, las venas de la cabeza y del miembro superior. Adicionalmente, la SVC recibe sangre de las venas ácigos que drenan la sangre de la parte posterior del tronco y constituyen la vía principal de anastomosis con la vena cava inferior1. La SVC se origina de la reunión de las venas braquiocefálicas detrás del primer cartílago costal derecho. Su trayecto es vertical, pasa delante de la raíz pulmonar derecha, penetra en el pericardio y termina en la aurícula derecha. Su longitud promedio es de 6 a 8 cm, con un calibre de 20 a 22 mm en el adulto. Está situada en la parte superior derecha y anterior del mediastino, en ella se considera una porción superior extrapericárdica (dos tercios) y una inferior intrapericárdica (un tercio). En su terminación en el corazón, la vena se prolonga medialmente por la orejuela derecha y abajo por el seno de la vena cava, que llega al orificio de desembocadura de la vena cava inferior3. Adicionalmente, la SVC lleva a la aurícula derecha la sangre de la cabeza, del cuello, de los miembros superiores y, por la vena ácigos, la sangre de la pared torácica y de la vía paravertebral. Es importante señalar que los trastornos venosos son sumamente frecuentes; el 90% son varices venosas o tromboflebitis/flebotrombosis. No obstante, existen otras patologías como el síndrome de vena cava superior (SSVC), el cual se debe, usualmente a neoplasias (ej. Carcinoma bronquial primario) que comprimen o invaden la SVC. La obstrucción vascular resultante puede producir una cianosis oscura característica y una dilatación acentuada de la cabeza, del cuello y de las venas de los brazos3 y como consecuencia de ello puede provocar serios trastornos de hipertensión de diversos grados. De tal forma que el SSVCS puede vincularse, directa o indirectamente con procesos hipertensivos, razón por la cual el referido síndrome se analiza a continuación. El SSVCS es un conjunto de signos y síntomas derivados de la obstrucción parcial o total del flujo sanguíneo de la SVC hacia la aurícula derecha. Esta obstrucción de la luz venosa puede deberse a compresión extrínseca o bien a fenómenos intrínsecos como trombosis. Hasta el 90% de los casos de SSVC son de etiolo-

La repercusión clínica dependerá de la rapidez de instauración del cuadro, si es progresivo se habrá formado un sistema de circulación colateral que puede reducir la gravedad de los síntomas. Sin embargo, obstrucción súbita o muy rápida de la cava superior puede conllevar la aparición de edema cerebral y, si no se instaura el tratamiento apropiado, el fallecimiento del paciente5. El diagnóstico clínico suele confirmarse mediante la realización de una tomografía computarizada (CT), que, además de revelar información acerca de la localización de la lesión causante del cuadro; también esta técnica de imagen puede resultar útil para programar la conducta idónea de cara a obtener un diagnóstico histológico si éste fuera necesario. Por lo general, no suele precisarse la realización de otras pruebas complementarias si la CT proporciona la información suficiente6. El tratamiento dependerá en gran medida de la causa del SSVC, por lo que se enfoca en el alivio sintomático, así como en tratar la causa de base que ha originado la aparición y manifestación clínica del síndrome, sin embargo, cuando se trata de una neoplasia que infiltra la SVC, el pronóstico es de cuidado puesto que la intervención quirúrgica no es accesible y, generalmente, el cuadro conduce a estado de coma e incluso a muerte del paciente3. Del mismo modo que sucede con el tratamiento, el pronóstico de los pacientes con SSVC dependerá en gran medida de su etiología. El protocolo terapéutico del SSVC puede incluir uso de fármacos, radioterapia, quimioterapia, uso de técnicas basadas en stents, entre otros6. Por otra parte, cabe informar que al revisar el estado del arte relativo a la segmentación automática de la SVC no se halló ningún antecedente que considerara el desarrollo computacional de la referida segmentación. Debido a ello y a todo lo expuesto anteriormente, sería de gran utilidad desarrollar una estrategia de segmentación computacional para generar segmentaciones tridimensionales (3D) de la SVC que permitan, por una parte, el análisis de su estructura para establecer si la SVC presenta una anatomía y funcionabilidad normal o no y, por la otra, la construcción de modelos reales de la SVC, vía impresoras 3D, para fines terapéuticos y didácticos. Es importante indicar que la familiarización con la anatomía normal o alterada de la SVC es vital para la emisión de diagnósticos precisos y correctos vinculados con la detección de patologías de la mencionada vena y con la planificación de procesos quirúrgicos previstos, en el contexto clínico, para abordar las mencionadas patologías.


Materiales y métodos

Revista Latinoamericana de Hipertensión. Vol. 11 - Nº 2, 2016

el modelo matemático que rige la similaridad global viene dado por la Ec. (1). Descripción de las bases de datos La base de datos (DB) utilizada fue suministrada por el Laboratoire de Traitement du Signal et de L’Image (LTSI) de la Université de Rennes I, en Francia, y está constituida por imágenes de MSCT cardiaca de un paciente. La DB posee 20 instantes que representan un ciclo cardiaco completo. Cada instante tiene 326 imágenes de resolución espacial 512x512 píxeles, muestreadas a 12 bits por píxel, con vóxeles de tamaño 0.488 mm x 0.488 mm x 0.393 mm. Descripción de la estrategia utilizada para la segmentación de la vena cava superior. La Figura 1 muestra la estrategia propuesta para generar la morfología de la vena cava superior. Debido a que tal estrategia está basada en un tipo de realce por similaridad7 de tipo global, en el contexto del presente artículo, será utilizado el acrónimo Egs para hacer referencia a ella.

Figura 1. Diagrama de bloques de la estrategia Egs

Igs=|Io – Ig|

La finalidad de la similaridad global es realzar la información contenida dentro de las cavidades cardiacas. c) Debido a que el filtro denominado magnitud del gradiente puede reforzar el ruido Poisson, presente en las imágenes de MSCT, se aplica a la imagen Igs un suavizado en este caso particular el filtro de mediana (MF)12. - Fase de definición de una región de interés (ROI): Considerando vistas coronales de las imágenes filtradas, un cardiólogo identifica, visualmente, 2 puntos de referencia dados por: la unión de la vena cava superior con la aurícula derecha (P1) y el centroide de la vena cava superior en la primera capa de la base del corazón (P2). Para ambos puntos se identifican las coordenadas manuales que establecen sin ambigüedad su ubicación espacial en cada imagen considerada. Luego se implementa, computacionalmente, una función de discriminación que permite aislar la vena cava superior de otras estructuras anatómicas circundantes. Etapa de segmentación La ubicación de la semilla, para inicializar el crecimiento de regiones12 (RG), se calcula usando máquinas de soporte vectorial de mínimos cuadrados13 (LSSVM). Para aplicar el RG, a las imágenes pre-procesadas, se hicieron las siguientes consideraciones: a) A la vecindad inicial, que se construye a partir de la semilla, se le asigna forma cúbica cuyo lado depende de un escalar arbitrario r. El parámetro r requiere de un proceso de entonación. b) Como criterio pre-definido, se elige el modelado mediante la Ec. (2). |I(x)−µ|<mσ

Para una explicación detallada de los fundamentos y aplicaciones de la técnica basada en realce por similaridad se pueden consultar las referencias7,8,9,10. A continuación se describen las etapas que conforman la estrategia Egs. Etapa de pre-procesamiento - Fase de filtrado: En la Figura 1, se ha destacado mediante un recuadro gris la fase de filtrado basada en realce por similaridad global (GSE). Este tipo de realce se aplica, preliminarmente, sobre el instante de diástole final y consiste en: a) Generar una imagen gradiente (Ig) procesando cada imagen original (Io) con un filtro denominado magnitud del gradiente11. El papel de este filtro es detectar los bordes de las estructuras presentes en las imágenes. b) Aplicar una función de similaridad global considerando Io e Ig para generar una imagen (Igs) cuyos niveles de gris se hacen coincidir con el valor absoluto de la resta aritmética de todos los niveles de gris de Io y de Ig. De esta manera,

(1)

(2)

siendo: I(x) la intensidad del vóxel semilla, µ y σ la media aritmética y la desviación estándar de los niveles de gris de la vecindad inicial y m un parámetro que requiere entonación. Etapa de entonación de parámetros: obtención de parámetros óptimos Esta etapa permite la obtención de los parámetros óptimos que garantizan un buen desempeño de la estrategia propuesta. Para ello, se modifican los parámetros asociados con la técnica que se desee entonar recorriendo, sistemáticamente, los valores pertenecientes a ciertos rangos tal y como se describen a continuación: a) Para entonar el filtro de mediana se hace coincidir el parámetro denominado tamaño de la vecindad 3-D, requerido por este filtro, con los valores: 3x3x3, 5x5x5, 7x7x7 y 9x9x9. Estos tamaños se eligen tomando como criterio un enfoque isotrópico y en atención al hecho, comprobado experimentalmente, que vecindades más pequeñas no tienen efectos perceptibles sobre la imagen; mientras que tamaños superiores pueden, teóricamente, producir un deterioro importante de los bordes que delimitan las estructuras anatómicas de interés.

51


- Durante la entonación de los parámetros del RG, cada una de las segmentaciones de la válvula pulmonar correspondientes al instante diástole final se compara, usando el coeficiente de Dice14 (Dc), con la segmentación manual de la SVC, generada por un cardiólogo. Los valores óptimos para los parámetros del RG (r y m), se hacen coincidir con aquel experimento que genera el valor más alto para el Dc.

52

- El Dc es una métrica que permite comparar segmentaciones de una misma imagen 3D obtenida por diversas metodologías14. En el contexto cardiaco, usualmente, el Dc es considerado para establecer que tan similares son, espacialmente, la segmentación manual (RD) y la segmentación automática (RP) que genera la morfología de cualquier estructura cardiaca. Adicionalmente, el Dc es máximo cuando se alcanza un perfecto solapamiento entre RD y RP pero es mínimo cuando RD y RP no se solapan en absoluto. Además, los valores esperados para el Dc son números reales comprendidos entre 0 (mínimo) y 1 (máximo). Entre más cercano a 1 se encuentre el valor del Dc, mejor será el desempeño del procedimiento que no es manual7. El modelo matemático que define el Dc, viene dado por la Ec. (3). (3)

Resultados

b) Los parámetros de las LSSVM, g y σ2, se entonan suponiendo que la función de costo es convexa y desarrollando ensayos heurísticos.

a estrategia que reportó el Dc más elevado (0.89), para el instante diástole final, fue aquella conformada por los siguientes parámetros: A) Filtro de mediana con vecindad de tamaño 5x5x5. B) La detección de la “semilla” se logró con una LSSVM cuyos parámetros fueron g =1.75 y σ2 = 0.90. C) En el RG, los valores para los parámetros fueron: r = 2 y m = 2.8. Además, el coeficiente de Dice promedio obtenido para los 20 instantes del ciclo cardiaco completo fue de 0.91 ± 1.17, lo cual demuestra una excelente correlación con las segmentaciones manuales disponibles. De manera complementaria, los resultados cualitativos se sintetizan mediante las Figuras 3 y 4. La Figura 2, muestra una versión filtrada de las imágenes originales y la definición de la región de interés (ROI) para la vena cava superior delimitada por el plano definido por P1 y P2.

Figura 2. a) Imagen filtrada. b) Región de interés.

En este punto, es necesario enfatizar que: • En el contexto del presente trabajo, el proceso de entonación para un filtro particular se detiene cuando se identifican los valores de sus parámetros, asociados con la segmentación que genera el Dc de mayor valor. Es decir, la obtención de parámetros óptimos para los filtros se hace de manera indirecta. • Una vez que se identifican los parámetros óptimos de cada filtro se puede establecer cuál fue el filtro suavizador que generó los mejores resultados y así establecer, formalmente, una estrategia Egs que se aplica, con parámetros fijos optimizados, a los 19 instantes restantes del ciclo cardiaco. La segmentación de la válvula pulmonar considerando todos los instantes del mencionado ciclo constituye lo cual se reporta en la literatura como desempeño o validación intra-sujeto.

En ella se observa una minimización del problema de ruido, una definición apropiada de las estructuras que conforman el corazón y el establecimiento de una ROI que facilita la posterior segmentación de la SVC. Adicionalmente, las segmentaciones tridimensionales de la SVC se muestran mediante la secuencia de imágenes pertenecientes a la Figura 3. Como se aprecia, en la Figura 3, se obtuvo una excelente representación 3D de la morfología de la vena cava superior a lo largo de todo el ciclo cardiaco. Finalmente, la Figura 4 es una imagen real, con un aumento del 200%, de la SCV obtenida usando una impresora 3D, correspondiente al primer instante del ciclo cardiaco presentado en la Figura 3, es decir, representa la materialización, en el mundo real, de una versión digital generada a partir de la estrategia propuesta.


Revista Latinoamericana de Hipertensión. Vol. 11 - Nº 2, 2016 Figura 3. Segmentaciones 3D correspondientes a las 20 bases de datos segmentadas.

SVC presenta una anatomía y funcionabilidad normal o no y, por la otra, en la construcción de modelos reales de la SVC, vía impresoras 3D, para fines terapéuticos vinculados con la planeación de procesos de radio y quimio terapias que permitan minimizar el volumen o la extensión de las diversas neoplasias vinculadas con el SSVC. Además, este tipo de segmentaciones posibilita la creación de modelos computacionales que permiten la planeación de procesos quirúrgicos virtuales vinculados con las conexiones cavo-pulmonares.

Referencias 1. Latarjet M, Ruíz A. Anatomía Humana. Volumen 2. Buenos Aires, Argentina: Editorial Panamericana; 2008. 2. Guyton A, Hall J. Textbook of Medical Physiology. USA: W. B. Saunders; 2006.

Figura 4. Tres impresiones 3D reales, con escala 2 a 1, correspondiente a la SVC del primer instante presentado en la Figura 3

3. Calzas J, Lianes P, Cortés H. Corazón y neoplasias: Puesta al día. Patologías del corazón de origen extracardíaco. Revista española de cardiología. 1998;51(3): 232-42. 4. Levatti V, Romero G, Acevedo A, Tost K. Síndrome de la vena cava superior: revisión bibliográfica. Revista de postgrado de la cátedra de medicina. 2005;(147):26-8. 5. Arribalzaga E, Aguirre M, Corchuelo C. Conducta en el síndrome de vena cava superior (SVCS). Revista chilena de cirugía. 2014;66(1):71-7.

Conclusiones

Este tipo de resultados de impresiones 3D, prototipos o modelo realísticos pueden ser útil en diversos contextos entre los que se pueden mencionar: investigativos, innovadores, clínicos, académicos, industriales, empresariales y comerciales. Por ejemplo, en el contexto clínico y académico estos modelos pueden utilizarse como base para crear sistemas de realidad aumentada para la planificación de intervenciones quirúrgicas virtuales que permiten entrenar a especialistas cardiacos en el manejo de ciertas enfermedades asociadas con la vena cava superior.

e ha presentado una estrategia, basada en realce por similaridad global, para la segmentación de la vena cava superior La estrategia Egs, arroja un Dc elevado lo cual refleja el alto grado de correlación entre las segmentaciones manuales y las generadas por la referida estrategia. Las segmentaciones obtenidas pueden ser útiles para la detección de patologías asociadas con la vena cava superior, como por ejemplo, detección de procesos hipertensivos asociados al síndrome de vena cava superior. Una de los principales aportes del presente trabajo es haber segmentado la vena cava superior la cual puede ser útil, por una parte, en el análisis de su estructura para establecer si la

6. Pinto AA, González M. Síndrome de vena cava superior. Med Clin; 2009;132(5):195-9. 7. Vera M. Segmentación de estructuras cardiacas en imágenes de tomografía computarizada multi-corte [Tesis doctoral]. Mérida-Venezuela: Universidad de los Andes, 2014. 8. Vera M, Bravo A, Garreau M, Medina R. Similarity enhancement for automatic segmentation of cardiac structures in computed tomography volumes. In 2011 Annual International Conference of the IEEE Engineering in Medicine and Biology Society; 2011:8094-97. 9. Vera M, Bravo A, Medina R. Improving Ventricle Detection in 3–D Cardiac Multislice Computerized Tomography Images. In: Richard P, Braz J. Theory and Applications, Communications in Computer and Information Science. Berlin: Springer;2011:170-83. 10. Bravo A, Vera M, Garreau M, Medina R. Three-dimensional segmentation of ventricular heart chambers from multi-slice computerized tomography: An hybrid approach. In: Cherifi H, Zain JM, El-Qawasmeh E. Digital Information and Communication Technology and Its Applications. Berlin: Springer;2011:287-301. 11. Passarielo G, Mora F. Imágenes Médicas, Adquisición, Análisis, Procesamiento e Interpretación. Venezuela: Equinoccio Universidad Simón Bolívar;1995. 12. Fischer M, Paredes JL, Arce GR. Weighted median image sharpeners for the world wide web. IEEE Transactions on Image Processing. 2002;11(7):717-27. 13. Suykens JA, Vandewalle J. Least squares support vector machine classifiers. Neural processing letters. 1999;9(3):293-300.

53




Turn static files into dynamic content formats.

Create a flipbook
Issuu converts static files into: digital portfolios, online yearbooks, online catalogs, digital photo albums and more. Sign up and create your flipbook.