® Registrada en los siguientes índices y bases de datos: SCIENCE CITATION INDEX EXPANDED (SciSearch) JOURNAL CITATION REPORTS/SCIENCE EDITION REDALYC (Red de Revistas Científicas de América Latina, el Caribe, España y Portugal) SCIELO (Scientific Electronic Library Online) LATINDEX (Sistema Regional de Información en Línea para Revistas Científicas de América Latina, el Caribe, España y Portugal) LIVECS (Literatura Venezolana para la Ciencias de la Salud) LILACS (Literatura Latinoamericana y del Caribe en Ciencias de la Salud) ELSEVIER BIBLIOGRAPHIC DATABASES: EMBASE, Compendex, GEOBASE, EMBiology, Elsevier BIOBASE, FLUIDEX, World Textiles, Scopus PERIÓDICA (Índices de Revistas Latinoamericanas en Ciencias) REVENCYT (Índice y Biblioteca Electrónica de Revistas Venezolanas de Ciencias y Tecnología) SABER UCV DRJI (Directory of Research Journal Indexing) CLaCaLIA (Conocimiento Latinoamericano y Caribeño de Libre Acceso) EBSCO Publishing PROQUEST OPEN JOURNAL SYSTEMS OJS
VOLUMEN XII. Nº 2 - 2017
ISSN: 1856-4550 Depósito Legal: PP200602DC2167
2
www.revistahipertension.com.ve
R
Editor en Jefe Manuel Velasco (Venezuela) Editor Adjunto Julio Acosta Martínez Editores Asociados Alcocer Luis (México) Brandao Ayrton (Brasil) Feldstein Carlos (Argentina) Israel Anita (Venezuela) Israili Zafar (Estados Unidos) Levenson Jaime (Francia) Parra José (México) Ram Venkata (Estados Unidos) Comité Editorial Álvarez de Mont, Melchor (España) Amodeo Celso (Brasil) Arciniegas Enrique (Venezuela) Baglivo Hugo (Argentina) Bermúdez Valmore (Venezuela) Bognanno José F. (Venezuela) Briceño Soledad (Venezuela) Contreras Freddy (Venezuela) Contreras Jesús (Venezuela) Crippa Giuseppe (Italia) De Blanco María Cristina (Venezuela) Escobar Edgardo (Chile) Foo Keith (Venezuela) Gamboa Raúl (Perú) Juan De Sanctis (Venezuela) Kaplan Norman (Estados Unidos) Lares Mary (Venezuela) Lenfant Claude (Estados Unidos) López Jaramillo Patricio (Colombia) López Mora (Venezuela) Manfredi Roberto (Italia) Manrique Vestal (Venezuela) Marahnao Mario (Brasil) Marín Melania (Venezuela) Monsalve Pedro (Venezuela) Morr Igor (Venezuela) Mújica Diorelys (Venezuela) Nastasi Santina (Venezuela) Pizzi Rita (Venezuela) Ponte Carlos (Venezuela) Rodríguez Luis Alejandro (Venezuela) Rodríguez de Roa Elsy (Venezuela) Sánchez Ramiro (Argentina) Soltero Iván (Venezuela) Tellez Ramón (Venezuela) Valdez Gloria (Chile) Valencia Delvy (Venezuela) Vidt Donald (Estados Unidos) Zanchetti Alberto (Italia)
Sumario - Volumen 12, Nº 2 2017
Editores
evista Latinoamericana de Hipertensión Monitoreo ambulatorio de presión arterial en individuos que asisten a la consulta de hipertensión arterial del Hospital Dr. Manuel Noriega Trigo, San Francisco Ambulatory blood pressure monitoring in individuals attending in Dr. Manuel Noriega Trigo Hospital, San Francisco Dr. Antonio Ferreira, Dra. Jenny Villasmil, Dr. Alberto Castellano, Dr. Nubia Cepeda, Dr. Roberto Añez, Dr. Juan Salazar
33
Realce por similaridad local para la segmentación computacional del ventrículo derecho en imágenes de tomografía computarizada cardíaca Enhancement by local similarity for right ventricular computed segmentation in computed tomography images Yoleidy Huérfano, Miguel Vera, Antonio Bravo, Rubén Medina, Julio Contreras-Velásquez, Atilio Del Mar, José Chacón, Sandra Wilches-Durán, Modesto Graterol-Rivas, Daniela Riaño-Wilches, Joselyn Rojas, Valmore Bermúdez.
40
Tomografía computarizada por rayos X en cardiología X-ray computed tomography in cardiology Antonio J. Bravo, Felida Roa, Miguel Vera, Julio Contreras-Velásquez, Yoleidy Huérfano, José Chacón, Sandra Wilches-Durán,Modesto Graterol-Rivas, Daniela Riaño-Wilches, Joselyn Rojas, Valmore Bermúdez.
49
Realce por similaridad local para la segmentación computacional de la aurícula derecha en imágenes de tomografía computarizada cardiaca Local similarity enhancement for the computational segmentation of the right atrium in cardiac computed tomography Yoleidy Huérfano, Miguel Vera, Julio Contreras-Velásquez, Atilio Del Mar, José Chacón, Sandra Wilches-Durán, Modesto Graterol-Rivas, Daniela Riaño-Wilches, Joselyn Rojas, Valmore Bermúdez.
62
Segmentación automática de la arteria aorta ascendente y la válvula aórtica en imágenes de tomografía computarizada cardiaca Automatic segmentation of the ascending aorta and aortic valve in computed tomography images Miguel Vera,Yoleidy Huérfano, Julio Contreras-Velásquez, Atilio Del Mar, Johel Rodríguez, Nahid Bautista, Sandra Wilches-Durán, Modesto Graterol-Rivas, Daniela Riaño-Wilches, Joselyn Rojas, Valmore Bermúdez.
Volumen 12, Nº 2. 2017 Depósito Legal: pp200602DC2167 ISSN: 1856-4550 Sociedad Latinoamericana de Hipertensión Dirección: Escuela de Medicina José María Vargas, Cátedra de Farmacología, piso 3. Esq. Pirineos. San José. Caracas-Venezuela. Telfs. 0212-5619871 E-mail: revistahipertension@gmail.com www.revistahipertension.com.ve Comercialización y Producción: Felipe Alberto Espino Telefono: 0212-881.1907/ 0416-811.6195 / 0412-363.4540 E-mail: felipeespino7@gmail.com Diseño de portada y diagramación: Mayra Gabriela Espino Telefono: 0412-922.25.68
E-mail: mayraespino@gmail.com
70
Instrucciones a los Autores
ALCANCE Y POLÍTICA EDITORIAL
La revista Latinoamericana de Hipertensión es una publicación biomédica periódica, arbitrada, de aparición trimestral, destinada a promover la productividad científica de la comunidad nacional e internacional en el área de Sistema Cardiovascular; así como todas aquellas publicaciones vinculadas a la medicina práctica en esta área. Su objetivo fundamental es la divulgación de artículos científicos y tecnológicos originales y artículos de revisión por invitación del Comité Editorial, asimismo, se admiten informes de investigaciones de corte cualitativo o cuantitativo; todos deben ser trabajos inéditos, no se hayan sometidos o hayan publicados en otra revista. El manuscrito debe ir acompañado de una carta solicitud firmada por el autor principal y el resto de los autores responsables del mismo. Está constituida por un Comité de redacción, organizado por Editor en Jefe, Editores Ejecutivos y Comité Editorial. Los manuscritos que publica pueden ser de autores nacionales o extranjeros, residentes o no en Venezuela, en castellano o en ingles (los resúmenes deben ser en ingles y castellano). Esta revista está incluida en las bases de datos de publicaciones científicas en salud: SCIENCE CITATION INDEX EXPANDED (SciSearch) JOURNAL CITATION REPORTS/SCIENCE EDITION REDALYC (Red de Revistas Científicas de América Latina, el Caribe, España y Portugal) SCIELO (Scientific Electronic Library Online) LATINDEX (Sistema Regional de Información en Línea para Revistas Científicas de América Latina, el Caribe, España y Portugal) LIVECS (Literatura Venezolana para la Ciencias de la Salud) LILACS (Literatura Latinoamericana y del Caribe en Ciencias de la Salud) ELSEVIER BIBLIOGRAPHIC DATABASES: EMBASE, Compendex, GEOBASE, EMBiology, Elsevier BIOBASE, FLUIDEX, World Textiles, Scopus DRJI (Directory of Research Journal Indexing) PERIÓDICA (Índices de Revistas Latinoamericanas en Ciencias) REVENCYT (Índice y Biblioteca Electrónica de Revistas Venezolanas de Ciencias y Tecnología) SABER UCV A tales efectos, los manuscritos deben seguir las instrucciones siguientes: a.- Todo el proceso de revisión, edición y publicación se realiza vía correo electrónico y a través de la red, permitiendo de esta manera agilizar la edición, y que un amplio público pueda acceder de manera rápida y gratuita. b.- Los trabajos deben ser enviados como archivo en formato MS Word u openoffice no comprimido adjunto a un mensaje de correo electrónico en el que deben figurar: Los nombres y apellidos completos de todos los autores y el título del trabajo, el correo electrónico y dirección postal del autor de contacto. Después de haber recibido el trabajo enviaremos un correo electrónico como acuse de recibo. Orientaciones para la publicación Para la publicación de trabajos científicos en la revista Latinoamericana de Hipertensión, los mismos estarán de acuerdo con los requisitos originales para su publicación en Revistas Biomédicas, según el Comité Internacional de Editores de Revistas Biomédicas (Arch. lntern. Med. 2006:126(36):1-47), www.icmje.com. Además, los editores asumen que los autores de los artículos conocen y han aplicado en sus estudios la ética de experimentación Internacional, como es el caso de la Convención de Helsinki. En el caso de estudios clínicos hechos en Venezuela, debe mencionarse en la sección correspondiente a selección del paciente, si el estudio se realizo en apego a la Convención de Helsinki, Ley del ejercicio de la medicina y Normas de Investigación Clínica del Ministerio de Salud y Desarrollo Social, con el consentimiento informado y la aprobación del comité de ética correspondiente. Se aceptan como idiomas el español, francés, portugués e inglés. Los trabajos no deben pasar de un total de 25 páginas de extensión. Se debe revisar el trabajo eliminando todos los formatos ocultos innecesarios. Al comienzo del trabajo se debe incluir, y por este orden: título, autores, afiliación, dirección electrónica, resumen de no más de 200 palabras y listado de palabras clave. A continuación, en el caso de que el idioma no sea el inglés, versión en esta lengua del título (Title), resumen (Abstract) y palabras clave (Key words). Las referencias a artículos o libros figurarán en el texto, entre paréntesis, indicando el apellido del autor/a o autores/as y el año de edición, separados por una coma. Configuración de página Mecanografiar original a doble espacio, papel bond blanco, 216 x 279 mm (tamaño carta) con márgenes, Margen superior 2,4.Márgenes inferior, izquierdo y derecho 3. Encabezado 1,4. Pie de página 1,25. Sin citas a pie de página, en una sola cara del papel. Usar doble espacio en todo el original. Su longitud no debe exceder las 10 páginas, excluyendo el espacio destinado a figuras y leyendas (4-5) y tablas (4-5). Formato texto - Cada uno de los componentes del original deberá comenzar en página aparte, en la secuencia siguiente: a. Página del título. b. Resumen y palabras claves. c. Texto. d. Agradecimientos. e. Referencias. f. Tablas: cada una de las tablas en páginas apartes, completas, con título y llamadas al pie de la tabla. g. Para la leyenda de las ilustraciones: use una hoja de papel distinta para comenzar cada sección. Enumere las páginas correlativamente empezando por el título. El número de la página deberá colocarse en el ángulo superior izquierdo de la misma. La página del título deberá contener: - Título del artículo, en inglés y español conciso pero informativo. a. Corto encabezamiento de página, no mayor de cuarenta caracteres (contando letras y espacios) como pie de página, en la página del título con su respectiva identificación. b. Primer nombre de pila, segundo nombre de pila y apellido (con una llamada para identificar al pie de página el más alto grado académico que ostenta y lugar actual donde desempeña sus tareas el(los) autores. c. El nombre del departamento (s) o instituciones a quienes se les atribuye el trabajo. d. Nombre y dirección electrónica del autor a quien se le puede solicitar separatas o aclaratorias en relación con el manuscrito. e. La fuente que ha permitido auspiciar con ayuda económica: equipos, medicamentos o todo el conjunto. f. Debe colocarse la fecha en la cual fue consignado el manuscrito para la publicación. - La segunda página contiene un resumen en español y su versión en inglés, cada uno de los cuales tendrá de no más de 250 palabras. En ambos textos se condensan: propósitos de la investigación, estudio, método empleado, resultados (datos específicos, significados estadísticos si fuese posible) y conclusiones. Favor hacer énfasis en los aspectos nuevos e importantes del estudio o de las observaciones. Inmediatamente después del resumen, proporcionar o identificar como tales: 3-10 palabras claves o frases cortas que ayuden a los indexadores en la construcción de índices cruzados de su artículo y que puedan publicarse con el resumen, utilice los términos del encabezamiento temático (Medical Subject Heading) del lndex Medicus, cuando sea posible. - En cuanto al texto, generalmente debe dividirse en: introducción, materiales y métodos, resultados y discusión. Agradecimientos, sólo a las personas que han hecho contribuciones reales al estudio. Figuras, tablas y cuadros - Deben ir centradas y dejar un espacio anterior 12.
- Pies: Arial 10 normal justificada. Interlineado sencillo. Sangrado especial primera línea 0,50 cm. Espacio anterior 6 y posterior 12. No utilizar abreviaturas (Ejemplo Fig. 1 ó Tab. 1) sino palabra completa (Ejemplo Figura 1 ó Tabla 1). - Las tablas no deben ocupar más de una página, en caso de necesitar más espacio dividirla en varias y si no es posible incluirla como anexo. - Las figuras tipo imagen deben ser en formato JPG, PNG ó GIF con una resolución mínima aceptable que permita ver claramente su contenido. - Cuando se quiera presentar una sola figura a partir de varios cuadros de texto, seleccione los objetos y agrúpelos. - Es recomendable incluir en el manuscrito una hoja de leyendas de cada figura. Si se trata de microfotografías, citar la magnificación al microscopio ej. 50X y la técnica de coloración empleada. - La publicación de fotografías de pacientes identificables no esta permitida por razones éticas; enmascarar para que no sean identificables los pacientes. Ilustraciones: Deben ser de buena calidad; entregarlas separadas; las fotos, en papel brillante con fondo blanco, generalmente 9 x 12 cm. Las fotografías de especimenes anatómicos, o las de lesiones o de personas, deberán tener suficiente nitidez como para identificar claramente todos los detalles importantes. En caso de tratarse de fotos en colores, los gastos de su impresión correrán a cargo del autor(s) del trabajo. Lo mismo sucederá con las figuras que superen el número de cuatro. - Todas las figuras deberán llevar un rótulo engomado en el reverso y en la parte superior de la ilustración indicando número de la figura, apellidos y nombres de los autores. No escribir en la parte posterior de la figura. Si usa fotografía de personas, trate de que ésta no sea identificable o acompañarla de autorización escrita de la misma. Las leyendas de las ilustraciones deben ser mecanografiadas a doble espacio en página aparte y usar el número que corresponde a cada ilustración. Cuando se usen símbolos y fechas, números o letras para identificar partes en las ilustraciones, identifíquelas y explíquelas claramente cada una en la leyenda. Si se trata de microfotografía, explique la escala e identifique el método de coloración. Para el envío - Envíe un original inédito y dos copias impresas en un sobre de papel grueso, incluyendo copias fotográficas y figuras entre cartones para evitar que se doblen, simultáneamente envíe una versión electrónica en CD o a través del E-mail: revistahipertension@gmail.com, indicando el programa de archivo. Las fotografías deben venir en sobre aparte. Los originales deben acompañarse de una carta de presentación del autor en la que se responsabiliza de la correspondencia en relación a los originales. En ella debe declarar que conoce los originales y han sido aprobados por todos los autores; el tipo de artículo presentado, información sobre la no publicación anterior en otra revista, congresos donde ha sido presentado y si se ha usado como trabajo de ascenso. - Acuerdo de asumir los costos de su impresión en caso de fotos a color, autorización para reproducir el material ya publicado o ilustraciones que identifiquen a personas. - Cuando se refiere a originales, queda entendido que no se enviará artículo sobre un trabajo que haya sido publicado o que haya sido aceptado para su publicación en otra revista. - Todos los trabajos serán consultados por lo menos por dos árbitros en la especialidad respectiva. - La revista Latinoamericana de Hipertensión, no se hace solidaria con las opiniones personales expresadas por los autores en sus trabajos, ni se responsabiliza por el estado en el que está redactado cada texto. - Todos los aspectos no previstos por el presente reglamento serán resueltos por la Junta Directiva de la Revista. Referencias - Las referencias serán individualizadas por números arábicos, ordenados según su aparición en el texto. La lista de referencias llevará por título “Referencias” y su ordenamiento será según su orden de aparición en el texto. Para su elaboración usar el sistema Internacional. - Las citas de los trabajos consultados seguirán los requisitos de uniformidad para manuscritos presentados a revistas Biomédicas, versión publicada en: Ann lntern Med. 2006; 126(36): 1-47, www.icmje.com. No se aceptarán trabajos que no se ajusten a las normas. Las mismas aparecerán al final del artículo y deberán ajustarse al siguiente formato: Libros: Apellido, Iníciales del nombre. (Año de publicación). Título en letra cursiva. Ciudad: Editorial. Cheek, D.A. (1992). Thinking constructively about Science, Technology, and Society education. New York: State University of New York Press. Capítulos de libros: Apellido, Iniciales del nombre. (Año de publicación). Título del capítulo. En Inicial del nombre, Apellido del editor (Ed.), Título del libro en letra cursiva (páginas que comprende el capítulo). Ciudad: Editorial. Solomon, J.P. (1989).The social construction of school science. En R. Millar (Ed.), Doing science: Images of science in science education (pp. 126-136). New York: Falmer Press. Artículos de revistas: Apellido, Iniciales del nombre. (Año de publicación). Título del artículo. Nombre de la revista en letra cursiva, volumen, número, páginas. Rubba, P.A. y J.A. Solomon (1989). An investigation of the semantic meaning assigned to concepts affiliated with STS education and of STS Intructional practices among a sample of exemplary science teachers. Journal of Research in Science Teaching, 4, 26, 687-702. Para cualquier consulta relacionada con el formato de los trabajos dirigirse al editor. Proceso de revisión Los trabajos enviados serán revisados anónimamente por dos evaluadores o revisores. No se aceptan trabajos ya publicados anteriormente, tanto en soporte papel como electrónico. Aceptación y publicación Todos los manuscritos aceptados serán publicados tanto impresa como electrónicamente trimestralmente. La salida de cada número será anunciada previamente a los incluidos en la lista de correos de revistahipertension@gmail.com. No hay gastos de afiliación, de publicación ni de ningún otro tipo en la revista Latinoamericana de Hipertensiónl. La revista apoya las políticas para registro de ensayos clínicos de la Organización Mundial de la Salud (OMS) y del International Committee of Medical Journall Editors (ICMJE), reconociendo la importancia de esas iniciativas para el registro y divulgación internacional de Información sobre estudios clínicos, en acceso abierto. En consecuencia, solamente se aceptarán para publicación, a partir de 2007, los artículos de investigaciones clínicas que hayan recibido un número de identificación en uno de los Registros de Ensayo Clínicos validados por los criterios establecidos por OMS e ICMJE, cuyas direcciones están disponibles en el sitio del ICMJE. El número de Identificación se deberá registrar al final del resumen.
Revista Latinoamericana de Hipertensión. Vol. 12 - Nº 2, 2017
M
onitoreo ambulatorio de presión arterial en individuos que asisten a la consulta de hipertensión arterial del Hospital Dr. Manuel Noriega Trigo, San Francisco Ambulatory blood pressure monitoring in individuals attending in Dr. Manuel Noriega Trigo Hospital, San Francisco
Resumen
Dr. Antonio Ferreira1, Dra. Jenny Villasmil1, Dr. Alberto Castellano1, Dr. Nubia Cepeda1, Dr. Roberto Añez2, Dr. Juan Salazar2 1 Servicio de Medicina Interna. I.V.S.S. Hospital “Dr. Manuel Noriega Trigo”. San Francisco, Venezuela. 2 Centro de Investigaciones Endocrino-Metabólicas Dr. Félix Gómez. Maracaibo, Venezuela. Correspondencia: Antonio Ferreira. Dirección: Av. Principal Urb. San Felipe, Municipio San Francisco, Maracaibo - Estado Zulia. E-mail: antonioferrei36@hotmail.com
Introducción: Pese a que la hipertensión arterial (HTA) es uno de los principales factores de riesgo cardiovascular, un gran número de sujetos conocen el diagnóstico una vez instaladas las diversas complicaciones sistémicas. El Monitoreo Ambulatorio de la Presión Arterial (MAPA) es un método que no solo sirve como herramienta diagnostica sino también como seguimiento de pacientes con HTA resistente, por lo cual el objetivo de nuestro estudio fue determinar el comportamiento epidemiológico del MAPA en individuos que asisten a la consulta de Hipertensión Arterial del Hospital Dr. Manuel Noriega Trigo, Venezuela. Materiales y Métodos: Se realizó un estudio descriptivo transversal en 146 pacientes adultos de ambos sexos que fueron seleccionados para la realización de MAPA en la consulta de Hipertensión Arterial del Hospital “Dr. Manuel Noriega Trigo”, durante el año 2013. Las indicaciones para la realización del MAPA fueron basadas según las guías de la Sociedad Europea de Cardiología así como para la definición de la hipertensión arterial (HTA) por medio del MAPA. Las variables cualitativas fueron expresadas en frecuencia absoluta y relativa, utilizando la Prueba Chi Cuadrado para determinar asociación entre las mismas.
Resultados: Se evaluaron 146 pacientes con MAPA (siendo excluidos 12 sujetos por mediciones insuficientes), de los 134 individuos evaluados, la realización del MAPA en un 35,1% (n=47) fue con el objetivo de determinar el diagnóstico de HTA mientras que un 64,9% (n=87) tenían como objetivo el monitoreo del control de la presión arterial. En el primer grupo, el 38,7% (n=18) de los individuos presentaron el diagnóstico de HTA, mientras que en los sujetos hipertensos con seguimiento, el 43,7% (n=38) no estaba controlado durante el estudio en 24 horas. Los fármacos de la familia ARAII fueron los más empleados en los sujetos con diagnostico establecido. Conclusiones: Se observa una frecuencia de hipertensión arterial menor a la mostrada en otros estudios llevados a cabo en Latinoamérica. Sin embargo, la frecuencia de sujetos con HTA no controlada es considerable, siendo necesaria la evaluación exhaustiva de estos individuos y de los puntos de corte empleados para su definición. Palabras clave: Hipertensión Arterial, Monitoreo Ambulatorio de Presión Arterial, Patrón Circadiano, Antihipertensivos.
33
Abstract
Introduction: While arterial hypertension (AHT) is a major cardiovascular risk factor, a large number of subjects know the diagnosis after the installation of various systemic complications. Ambulatory Blood Pressure Monitoring (ABPM) is a method that not only diagnoses tool but also serves as a follow-up of patients with resistant hypertension, so the aim of our study was to determine the epidemiological behavior of ABPM in individuals who were attend in the Dr. Manuel Noriega Trigo Hospital, Venezuela. Materials and Methods: A descriptive study was conducted in 146 adult patients of both sexes were selected to perform ABPM in the “Dr. Manuel Noriega Trigo” Hospital during 2013. Indications for the implementation of ABPM were based according to the guidelines of the European Society of Cardiology as well as the definition of AHT through the ABPM. The qualitative variables were expressed in absolute and relative frequency, using the chi-square test to determine association between them.
34
Results: ABPM were evaluated in 146 patients with ABPM (being excluded for insufficient measurements 12 subjects). Of the 134 individuals studied, in 35.1% (n=47) the ABPM was aiming to determine the diagnosis of AHT while in 64.9% (n=87) ABPM was performed for monitoring control of blood pressure. In the first group, 38.7% (n=18) of the individuals had a diagnosis of AHT, while in patients with history of hypertension, 43.7% (n=38) was not controlled measurements during the 24 hours study. The ARB’s family drugs were the most used in patients with established diagnosis. Conclusions: A lower frequency of hypertension is observed with respect to other studies conducted in Latin America. However, the frequency of patients with uncontrolled AHT is considerable the comprehensive evaluation of these individuals and the cutoff points used to define it to be necessary.
Introducción
Keywords: Hypertension, Ambulatory Blood Pressure Monitoring, Circadian Rhythm, antihypertensive.
a hipertensión arterial (HTA) se ha convertido en uno de los principales problemas de salud pública a nivel mundial1, al mismo tiempo constituye uno de los principales factores de riesgo para el desarrollo de enfermedades cardiovasculares, por lo cual la Organización Mundial de la Salud (OMS) le ha otorgado el calificativo de “obstáculo para el logro de un buen estado de salud”2. La evidencia epidemiológica que demuestra la relación entre la HTA y el desarrollo de com-
plicaciones cardiovasculares es abrumadora, y esto tiende a afectar de manera más importante a países en vías de desarrollo3. La Sociedad Europea de Cardiología y la Sociedad Europea de Hipertensión reportan una incidencia de HTA en Europa entre el 30-45% de la población general, con una tendencia al incremento conforme aumenta la edad4. En Latinoamérica la prevalencia ajustada para la edad se sitúa entre el 9-30% en diferentes encuestas poblacionales5. En el caso de Venezuela, López y cols.6, realizaron un estudio descriptivo en 3 grandes ciudades del país encontrando una prevalencia general del 34,2% para el año 2014. Mientras que en nuestra ciudad Bermúdez y cols.7, reportan una prevalencia 32% en 2230 sujetos adultos. Lo que resulta aún más alarmante es que en general en nuestra región solo un 55% de los pacientes hipertensos están al tanto de su condición, solo un 35% están recibiendo tratamiento y solo se alcanzan cifras de control en un 12% de aquellos que reciben tratamiento3. Identificar y establecer el control de la HTA durante muchos años se ha definido en función de la determinación de las cifras de presión arterial (PA) en el consultorio mediante la técnica auscultatoria, que si bien es cierto es confiable, tiene una amplia variabilidad al ser dependiente del observador, solo permite un número muy limitado de mediciones y en condiciones que pueden alterar los resultados, por lo cual el uso de técnicas automatizadas como el Monitoreo Ambulatorio de la Presión Arterial (MAPA) han surgido como nuevas alternativas para determinar el control y seguimiento del paciente hipertenso8. En este sentido, el MAPA ofrece varias ventajas en relación a la medición de la presión arterial en el consultorio, ya que da un mayor número de mediciones, provee un perfil del comportamiento de la PA en el ambiente usual diario del paciente, demuestra la presencia de HTA nocturna , evalúa la variabilidad de la PA en 24 horas, evalúa la eficacia antihipertensiva de las drogas en 24 horas al tiempo que provee un mejor predictor de la morbilidad y mortalidad cardiovascular que la medición clínica9. Además, el MAPA resulta una herramienta de gran utilidad cuando el diagnostico de HTA es incierto, en casos de sospecha de HTA resistente al tratamiento y para la identificación de la HTA de bata blanca y la HTA enmascarada, estas últimas dos condiciones que pueden llevar a un tratamiento innecesario o insuficiente10. En el presente estudio se recogen los datos obtenidos de la implementación de dicha herramienta diagnostica en la consulta de Manejo de HTA del Hospital “Dr. Manuel Noriega Trigo” del Instituto Venezolano del Seguro Social durante el año 2013.
Diseño del estudio Se realizó un estudio descriptivo, transversal con un muestreo no probabilístico o intencional en 146 individuos adultos sometidos a MAPA durante el año 2013 de la consulta de Hipertensión Arterial del Hospital “Dr. Manuel Noriega Trigo”. Los criterios de exclusión fueron: pacientes con infecciones agudas, jornada laboral nocturna y gestantes.
Resultados
Materiales y métodos
Revista Latinoamericana de Hipertensión. Vol. 12 - Nº 2, 2017
Aspectos éticos A cada sujeto se le solicitó su consentimiento informado y firmado para participar en el estudio, posterior a la realización de la consulta médica en la cual se empleó la Historia Clínica basada en lo establecido por el Ministerio del Poder Popular para la Salud (MPPS), la cual fue adaptada para los objetivos de la presente investigación. Monitoreo Ambulatorio de la Presión Arterial Por su parte, a cada participante se le realizó un MAPA con un monitor automático de registro durante 24 horas, desarrollado a partir del sistema Holter de registro electrocardiográfico oscilométrico, modelo HIPERMAX A5100, fabricados por COMBIOMED (La Habana, Cuba)11. La medición de la PA se programó con una frecuencia de registros cada 30 minutos durante el día y la noche. Se le solicitó al paciente que mantuviera sus actividades habituales con las consideraciones de mantener el brazo inmóvil durante la lectura, de no sumergir el aparato en agua y de no desconectar el equipo hasta que hubiere transcurrido el período de 24 horas desde el inicio del registro. Posteriormente, se descargaron los datos al programa HIPERMAP para su análisis y elaboración de informes respectivos. Se emplearon los criterios planteados en la guía de práctica clínica de las Sociedades Europeas de Hipertensión y Cardiología (2013) para definir hipertensión arterial e hipertensión arterial controlada mediante MAPA8. Análisis Estadístico Las variables cualitativas fueron expresadas como frecuencias absolutas y relativas, utilizando Chi-cuadrado y prueba Z, para determinar asociación y diferencias entre las proporciones, respectivamente. Se aplicaron pruebas de bondad de ajuste, para determinar normalidad de las variables (Prueba Kolmogorv-Smirnov). Las variables cuantitativas fueron expresadas en medias ± desviación estándar, evaluando diferencia estadística mediante la prueba t de student. Los datos fueron analizados a través del Paquete Estadístico para las Ciencias Sociales (SPSS) v.19 (SPSS IBM Chicago, IL), considerándose resultados significativos valores de p<0.05.
Características generales Del total de la muestra analizada (n=146) fueron excluidos 12 casos cuyas mediciones no resultaron concluyentes (medición menor de 21 horas totales, menos de 16 mediciones durante el transcurso del día o menos de 8 mediciones durante el sueño) obteniendo una muestra final de 134 individuos con MAPA satisfactorio. (Figura 1). La muestra final presentó una edad promedio de 50,2±13,5 años. La Tabla 1 se observa que a un 64,9% (n=87) de los individuos estudiados se le realizó el MAPA con el objetivo de evaluar el monitoreo de la Hipertensión Arterial (pacientes con diagnóstico previo de HTA), mientras que al 35,1% (n=47) se le realizó el estudio con objetivo de confirmar el diagnóstico de la HTA. En cuanto a las mujeres, el 69,4% (n=59) fue estudiada para el monitoreo de HTA, asimismo en los hombres el 57,1% (n=49) tuvo una evaluación por MAPA para el monitoreo de HTA.
Figura 1. Frecuencia de estudios de MAPA concluyentes. Hospital Manuel Noriega Trigo, 2014.
Tabla 1. Distribución de estudios concluyentes según el objetivo del MAPA. Hospital Manuel Noriega Trigo, 2014. Femenino Masculino n % n %
Total n %
Diagnóstico de HTA
26
30,6
21
42,9
47 35,1
Monitoreo de HTA
59
69,4
28
57,1
87 64,9
Total
85 100,0
49
100,0 134 100,0
Objetivo del MAPA
2
χ (p)* 2,055 (0,152)
HTA: Hipertensión Arterial *Prueba Chi cuadrado (Asociación estadísticamente significativa p<0,05).
Sospecha de Hipertensión Arterial Los individuos con sospecha de HTA presentaron una presión arterial general de 121,9±9,5 mmHg de PAS y 77,3±9,7 mmHg de PAD, con un promedio de PAS diurna de 125,0±10,0 mmHg y PAD diurna de 80,5±9,6 mmHg; así como una PAS nocturna de 114,9±12,1 mmHg y PAD nocturna de 75,5±13,5 mmHg, sin diferencias estadísticamente significativas entre el sexo (Tabla 2). Por otra parte, al utilizar los criterios diagnósticos de HTA según MAPA
35
se observó una frecuencia de HTA (nuevo diagnóstico) del 38,3% (n=18) según el promedio de presión arterial en 24 horas, de manera similar se reportó una frecuencia de HTA del 34,0% (n=16) tomando en cuenta los promedios de las mediciones diurnas de presión arterial y un 31,9% (n=15) de HTA según el promedio nocturno de presión arterial, con un comportamiento similar para cada sexo, Tabla 3.
36
Tabla 2. Comportamiento Epidemiológico de la Presión Arterial en individuos con MAPA concluyente y sospecha de Hipertensión. Hospital Manuel Noriega Trigo, 2014. Femenino Masculino Total Media DE Media DE Media DE p* Edad 43,6 12,2 45,3 14,8 44,4 13,3 0,674 PAS General
120,3
9,2
124,0
9,8
121,9
9,5
0,195
PAD General
75,7
8,4
79,1
11,0
77,3
9,7
0,235
PAS Diurna
124,2
10,3
126,0
9,8
125,0
10,0
0,564
PAD Diurna
80,0
8,8
81,1
10,6
80,5
9,6
0,710
PAS Nocturna
114,0
11,3
116,0
13,1
114,9
12,1
0,585
PAD Nocturna
69,8
8,5
73,0
12,4
71,3
10,4
0,307
PAS Despertar
118,6
15,2
121,2
12,4
119,7
14,0
0,577
PAD Despertar
72,8
13,8
79,3
12,6
75,5
13,5
0,143
PAS: Presión Arterial Sistólica; PAD: Presión Arterial Diastólica; DE: Desviación Estándar. * Prueba de t-Student entre sexo (Diferencia estadísticamente significativa p<0,05).
Tabla 3. Frecuencia de Hipertensión Arterial según horario específico y sexo en sujetos con sospecha de HTA. Hospital Manuel Noriega Trigo, 2014. Femenino Masculino Total 2 n % n % n % Χ (p)* Medición en 24 3,186 (0,074) horas Sin HTA 19 73,1 10 47,6 29 61,7 Con HTA 7 26,9 11 52,4 18 38,3 Medición Diurna 0,009 (0,927) Sin HTA 17 65,4 14 66,7 31 66,0 Con HTA 9 34,6 7 33,3 16 34,0 Medición 0,667 (0,414) Nocturna Sin HTA 19 73,1 13 61,9 32 68,1 Con HTA 7 26,9 8 38,1 15 31,9 Total
26
100,0
21
100,0
47
100,0
HTA: Hipertensión Arterial *Prueba Chi cuadrado (Asociación estadísticamente significativa p<0,05).
Monitoreo de Hipertensión Arterial Los individuos que fueron estudiados para monitoreo de HTA presentaron una presión arterial general de 123,2±13,4 mmHg de PAS y 76,9±8,6 mmHg de PAD; PA diurna (PAS: 125,8±12,6 mmHg y PAD: 79,1±9,7 mmHg); PA nocturna (PAS: 120,0±15,6 mmHg y PAD: 72,15±9,4 mmHg), sin diferencias estadísticamente significativas entre el sexo (Tabla 4).Al evaluar el control de PA en las mediciones de 24 horas se observó una frecuencia de sujetos controlados del 56,3% (n=49) con respecto a los no controlados (43,7%; n=38). El porcentaje de control de
presión arterial para las mediciones diurnas fue del 67,8% (n=59) así como de un 50,6% (n=44) para las mediciones nocturnas, Tabla 5. Tabla 4. Comportamiento Epidemiológico de la Presión Arterial en individuos con MAPA concluyente y Monitoreo de Hipertensión Arterial. Hospital Manuel Noriega Trigo, 2014.
Edad PAS General PAD General PAS Diurna PAD Diurna PAS Nocturna PAD Nocturna PAS Despertar PAD Despertar
Femenino Media DE 53,6 13,2 123,7 14,6 76,7 9,3 126,2 13,3 78,9 10,6 121,8 16,3 72,2 10,0 125,8 18,4 77,6 14,5
Masculino Media DE 54,2 11,0 122,1 10,6 77,1 6,9 124,9 11,1 79,5 7,5 116,0 13,3 71,9 7,9 125,0 13,8 78,9 11,5
Total Media DE 53,8 12,4 123,2 13,4 76,9 8,6 125,8 12,6 79,1 9,7 120,0 15,6 72,1 9,4 125,5 16,9 78,0 13,5
p* 0,845 0,558 0,870 0,662 0,789 0,107 0,899 0,844 0,690
PAS: Presión Arterial Sistólica; PAD: Presión Arterial Diastólica; DE: Desviación Estándar. * Prueba de t-Student entre sexo (Diferencia estadísticamente significativa p<0,05). Tabla 5. Frecuencia de Hipertensión Arterial Controlada según horario específico y sexo en sujetos con monitoreo de la HTA. Hospital Manuel Noriega Trigo, 2014 Femenino Masculino Total 2 n % n % n % Χ (p)* Medición en 24 1,064 horas (0,302) Sin Control 28 47,5 10 35,7 38 43,7 Con Control 31 52,5 18 64,3 49 56,3 2,188 Medición Diurna (0,139) Sin Control 22 37,3 6 21,4 28 32,2 Con Control 37 62,7 22 78,6 59 67,8 Medición Nocturna
0,148 (0,700)
Sin Control 30 50,8 13 46,4 43 49,4 Con Control 29 49,2 15 53,6 44 50,6 Total 59 100,0 28 100,0 87 100,0 * Prueba Chi cuadrado (Asociación estadísticamente significativa p<0,05).
Tratamiento antihipertensivo en sujetos con Hipertensión Arterial En la Figura 2 se representa la distribución del tratamiento antihipertensivo en los sujetos con diagnóstico previo de HTA, donde se destacan los Bloqueadores del Receptor de Angiotensina 2 (BRA) con la mayor frecuencia de consumo (31,0%), seguido por la combinación de BRA con Hidroclorotiazida (9,2%) y los Inhibidores de la Enzima Convertidora de Angiotensina (IECA) con un 8,0%.
Revista Latinoamericana de Hipertensión. Vol. 12 - Nº 2, 2017 Figura 2. Frecuencia de consumo de Antihipertensivos en pacientes hipertensos con MAPA concluyente. Hospital Manuel Noriega Trigo, 2014.
Patrón circadiano de la presión arterial según MAPA En la Tabla 6 se muestra el comportamiento del patrón circadiano de la presión arterial en los sujetos con sospecha de HTA y en los individuos con monitoreo de HTA, donde se encontró un comportamiento similar entre ambos grupos, sin diferencias estadísticamente significativas. Sin embargo se observó una mayor frecuencia del patrón Over Dipper en los sujetos con sospecha de HTA (12,8%; n=6) con respecto a los pacientes con monitoreo de HTA (2,3%; n=8), el resto de categorías mostró frecuencias similares. Tabla 6. Frecuencia de Patrón Circadiano según el objetivo del MAPA. Hospital Manuel Noriega Trigo, 2014. Sospecha Monitoreo de de HTA HTA n % n %
Total n
%
Patrón Circadiano
2
Χ (p)* 6,060 (0,109)
Patrón Over Dipper
6
12,8
2
2,3
8
6,0
Patrón Dipper
14
29,8
29
33,3
43
32,0
Patrón Non Dipper
26
55,3
53
60,9
79
59,0
Patrón Riser
1
2,1
3
3,4
4
3,0
Total
47 100,0
87
100,0
134
100,0
*Prueba Chi cuadrado (Asociación estadísticamente significativa p<0,05).
Discusión
37
l MAPA constituye en la actualidad una herramienta clínica tanto diagnóstica como de seguimiento para el paciente hipertenso, con implicaciones pronosticas en el nivel de riesgo cardiovascular de esta población en particular12. Su capacidad de identificar a los sujetos con HTA de bata blanca, HTA enmascarada, patrones nocturnos (durante el sueño) de PA y la respuesta al tratamiento antihipertensivo; lo convierten en un método con ventajas sobre la medición realizada en la consulta y la realizada por el propio paciente en el hogar13. Según reportes previos en nuestra región, la prevalencia de HTA se ubica entre 32 y 37%, empleando la medición clínica en estudios descriptivos epidemiológicos7,14; cifra que ascienden hasta 84% en adultos mayores de 55 años15. Sin embargo, los reportes locales y a nivel mundial sobre la prevalencia de HTA utilizndo el MAPA son escasos, probablemente asociado a la poca utilización de este método para tal fin, siendo enfocado principalmente en la determinación y/o cuantificación de la HTA de bata blanca y enmascarada16. Según González-Rojas y cols.17, la prevalencia de HTA empleando el MAPA y con puntos de corte de 140/90mmHg, fue de 75,5% para el sexo femenino y 77,7% en el sexo masculino, cabe recalcar que este estudio fue llevado a cabo en sujetos ancianos (mayores de 55 años), lo cual
es un factor de suma importancia en los altos porcentajes. Similar comportamiento muestra Banegas y cols.18, en 1047 sujetos españoles mayores de 60 años, quienes reportan hasta un 62% de HTA basada en MAPA y además demuestran un importante grado de discordancia entre la prevalencia determinada por MAPA y por medición casual en la consulta médica.
38
menores a los porcentajes reportados por González en pacientes de la consulta de Cardiología del Hospital General del Sur de Maracaibo26. Este comportamiento es de suma importancia tomando en consideración la repercusiones pronosticas y el mayor riesgo de eventos cardiovasculares que exhiben los pacientes con este patrón circadiano de PA27,28. Por lo cual el ajuste farmacológico es uno de los principales objetivos en nuestra consulta con el fin de alcanzar cifras de PA adecuadas al estado de riesgo de cada paciente en particular, efecto que se obtendría con las combinaciones terapéuticas29 y que sería objeto de análisis en futuros estudios.
Es importante resaltar la alta frecuencia de HTA nocturna en el grupo de individuos que no se conocían como hipertensos, considerando la estrecha relación existente entre este patrón de elevación de PA y la aparición de diversas complicaciones cardiovasculares, incluso siendo considerado un mejor predictor que las mediciones diurnas19. Si bien la prevalencia específica no se conoce en nuestra región, diversos reportes plantean que la frecuencia de HTA nocturna aislada es superior en los sujetos de origen asiático20. Hallazgos que deben ser detallados en futuros estudios en nuestra población con el fin de optimizar la prescripción de fármacos tomando en consideración este comportamiento y sus implicaciones étnicas. Asimismo, el porcentaje de sujetos hipertensos controlados en nuestro estudio fue superior al mostrado por Grassi y cols.21, en sujetos de 9 países de Europa del este cuyo nivel de control alcanzo un 35,7% empleado el MAPA. No obstante consideramos que la cantidad de sujetos que no alcanzan las metas de PA en nuestra localidad es elevada, especialmente durante las horas nocturnas, tendencia que debe ser tomada en cuenta dada la mayor asociación que muestra con el desarrollo de eventos cardiovasculares22. Además, es importante considerar en futuros análisis los puntos de corte empleados para definir la presencia de HTA y el control de PA en sujetos hipertensos; con respecto a los primeros, estudios en la población brasileña han llevado a plantear nuevas guías basadas en el estudio IDACO con niveles que se asociarían mejor con los resultados cardiovasculares a largo plazo23. Mientras que para definir a los sujetos como controlados, no existen puntos de corte población específicos, por lo cual en próximos reportes deben determinarse tomando en cuenta el nivel de riesgo cardiovascular individual para cada paciente. Por su parte, es importante resaltar la alta frecuencia de sujetos hipertensos sin tratamiento antihipertensivo al inicio de su diagnóstico, lo cual debe llevar a la concientización por parte del personal de salud no solo para la prescripción adecuada de los fármacos correspondientes, sino también de brindar la información y las medidas educativas concernientes a la adherencia al tratamiento y su implicaciones pronosticas a mediano y largo plazo. Haciendo énfasis en aquellos sujetos que presentan otras comorbilidades que pueden favorecer las diversas complicaciones cardiometabólicas24. En relación a los patrones circadianos evidenciados, el más frecuente fue el patrón non dipper, similar a los resultados del proyecto CRONOPRESS en España con 61,9% 25, pero
Entre las limitaciones de este reporte se encuentra el carácter transversal y netamente descriptivo de nuestros resultados, lo cual imposibilita establecer relaciones de causalidad. Sin embargo, representa el estudio inicial de un grupo de pacientes hipertensos cuyas características reflejan el grado de control, utilidad de la técnica empleada, comportamiento epidemiológico de las cifras de PA y potenciales metas a alcanzar en los diversos centros asistenciales de nuestra localidad. Agradecimientos Al Sr. José Rincón y Amer Chirinos, técnicos en electrocardiografía y MAPA de nuestra institución, por su incansable labor en la instalación, verificación y retiro de equipos; así como en el almacenamiento y creación de la base de datos.
Referencias 1.
Ibrahim MM, Damasceno A. Hypertension in developing countries. Lancet. 2012; 380(9859):611-9.
2.
World Health Organization (WHO). Cardiovascular disease. A global brief on hypertension: silent killer, global public health crisis [Internet]. Geneva: WHO; 2013[Consultado: 2014 Jul 31]. Disponible: http://www.who.int/cardiovascular_diseases/publications/global_brief_ hypertension/en.
3.
Sánchez RA, Ayala M, Baglivo H, et al. Guías Latinoamericanas de Hipertensión Arterial. Rev Chil Cardiol. 2010;29 (1):117-144.
4.
Mancia G, Fagard R, Narkiewicz K, et al. 2013 ESH/ESC Guidelines for the management of arterial hypertension: the Task Force for the management of arterial hypertension of the European Society of Hypertension (ESH) and of the European Society of Cardiology (ESC). J Hypertens. 2013;31(7):1281-357.
5.
Hernández-Hernández R, Silva H, Velasco M, et al. Hypertension in seven Latin American cities: the Cardiovascular Risk Factor Multiple Evaluation in Latin America (CARMELA) study. J Hypertens. 2010;28(1):24-34.
6.
López R, Hurtado ND, López L, et al. Una aproximación a conocer la prevalencia de hipertensión arterial, factores de riesgo cardiovascular y estilo de vida en Venezuela. Avances Cardiol. 2014;34(2):128-134.
7.
Bermúdez V, Rojas J, Añez R, et al. Prevalence, awareness, management of hypertension and association with metabolic abnormalities: the Maracaibo city metabolic syndrome prevalence study. Revista Latinoamericana de Hipertensión. 2012; 7(4): 71-79.
8.
O’Brien E, Parati G, Stergiou G, et al. European Society of Hypertension position paper on ambulatory blood pressure monitoring. J Hypertens. 2013;31(9):1731-68.
Revista Latinoamericana de Hipertensión. Vol. 12 - Nº 2, 2017 9.
De la Sierra A. Advantages of Ambulatory Blood Pressure Monitoring in Assessing the Efficacy of Antihypertensive Therapy. Cardiol Ther. 2015;4(Suppl 1):5-17.
10. Breaux-Shropshire TL, Judd E, Vucovich LA, et al. Does home blood pressure monitoring improve patient outcomes? A systematic review comparing home and ambulatory blood pressure monitoring on blood pressure control and patient outcomes. Integr Blood Press Control. 2015;8:43-9. 11. Millán I, Ruso R, Ball-llovera A, Leyva I, Pérez N. Diseño del Monitor Ambulatorio de Presión Arterial HIPERMAX PLUS. En: V Latin American Congress on Biomedical Engineering CLAIB 2011 May 16-21, 2011, Habana, Cuba. IFMBE Proceedings. 2013; 33: 762-765. 12. Angeli F, Reboldi G, Poltronieri C, Verdecchia P. Interpretation of Ambulatory Blood Pressure Profile: A Practical Approach for Clinicians. J Clin Exp Cardiolog. 2013;4: e128. 13. White WB, Maraka S. Is it possible to manage hypertension and evaluate therapy without ambulatory blood pressure monitoring? Curr Hypertens Rep. 2012;14:366-75. 14. Sulbarán T, Silva E, Calmón G, Vegas A. Epidemiologic aspects of arterial hypertension in Maracaibo, Venezuela. J Hum Hypertens. 2000;14 Suppl 1:S6-9. 15. Melgarejo JD, Mena LJ, Chávez CA, Maestre GE. Prevalence, Treatment and Control of Hypertension in Elderly: The Maracaibo Aging Study. Journal of Hypertension. 2013; 31, e-Supplement A: e1-e601. 16. O’Brien E. Twenty-four-hour ambulatory blood pressure measurement in clinical practice and research: a critical review of a technique in need of implementation. J Intern Med. 2011;269(5):478-95. 17. González-Rojas C, Pino-Ramírez G, Partida AG, Silva ER, Maestre GE. Ambulatory blood pressure and cognitive function in nondemented older adults: Findings of the maracaibo aging study. Alzheimer’s and Dementia. 2010; 6 (4) Supp: S477. 18. Banegas JR, de la Cruz JJ, Graciani A, López-García E, Gijón-Conde T, Ruilope LM, Rodriguez-Artalejo F. Impact of Ambulatory Blood Pressure Monitoring on Reclassification of Hypertension Prevalence and Control in Older People in Spain. 2015 Mar 16. doi: 10.1111/jch.12525.
19. Redon J, Lurbe E. Nocturnal blood pressure versus nondipping pattern: what do they mean? Hypertension. 2008;51:41-42. 20. Li Y, Wang JG. Isolated nocturnal hypertension: a disease masked in the dark. Hypertension. 2013;61(2):278-83. 21. Grassi G, Cifkova R, Laurent S, et al. Blood pressure control and cardiovascular risk profile in hypertensive patients from central and eastern European countries: results of the BP-CARE study. Eur Heart J. 2011;32(2):218-25. 22. Hansen TW, Li Y, Boggia J, Thijs L, Richart T, Staessen JA. Predictive role of the nighttime blood pressure. Hypertension 2011;57(1):3-10 23. Forestiero D, Mauad JL, Forestiero C, Peixoto ML, Ganassin FP, Gonzaga C, Cordeiro AC, Rodrigues GD, Silveira TB, Amodeo C. Impact on hypertension reclassification by Ambulatory Blood Pressure Monitoring (ABPM) according to the V Brazilian Guidelines on ABPM. Arq Bras Cardiol. 2013;100(2):175-9. 24. Grossman E. Ambulatory blood pressure monitoring in the diagnosis and management of hypertension. Diabetes Care. 2013;36 Suppl 2:S307-11. 25. Mediavilla JD, Fernández-Torres C, Arroyo A, Jiménez-Alonso J. Estudio del patrón circadiano de la presión arterial en pacientes hipertensos. An. Med. Interna (Madrid). 2007;24(2): 61-66. 26. González R. Prevalencia de patrón non dipper en pacientes con hipertensión arterial. [Tesis para obtener el grado de Cardiólogo]. LUZ, 2010. Disponible en: http://tesis.luz.edu.ve/tde_busca/arquivo. php?codArquivo=3005 27. Okutucu S, Karakulak UN, Kabakçı G. Circadian blood pressure pattern and cardiac autonomic functions: different aspects of same pathophysiology. Anadolu Kardiyol Derg. 2011;11(2):168-73. 28. Kim BK, Lim YH, Lee HT, et al. Non-Dipper Pattern is a Determinant of the Inappropriateness of Left Ventricular Mass in Essential Hypertensive Patients. Korean Circ J. 2011;41(4):191-7. 29. Cammarata R, Sosa B, Guerrero-Pajuelo J, et al. Efecto de la terapia combinada losartan e hidroclorotiazida en pacientes hipertensos “non dippers”. AVFT. 2004; 23(2): 150-158.
Manuel Velasco (Venezuela) Editor en Jefe - Felipe Alberto Espino Comercialización y Producción Reg Registrada en los siguientes índices y bases de datos:
SCOPUS, EMBASE, Compendex, GEOBASE, EMBiology, Elsevier BIOBASE, FLUIDEX, World Textiles, OPEN JOURNAL SYSTEMS (OJS), REDALYC (Red de Revistas Científicas de América Latina, el Caribe, España y Portugal), LATINDEX (Sistema Regional de Información en Línea para Revistas Científicas de América Latina, el Caribe, España y Portugal) LIVECS (Literatura Venezolana para la Ciencias de la Salud), LILACS (Literatura Latinoamericana y del Caribe en Ciencias de la Salud) PERIÓDICA (Índices de Revistas Latinoamericanas en Ciencias), REVENCYT (Índice y Biblioteca Electrónica de Revistas Venezolanas de Ciencias y Tecnología) SCIELO (Scientific Electronic Library Online), SABER UCV, DRJI (Directory of Research Journal Indexing) CLaCaLIA (Conocimiento Latinoamericano y Caribeño de Libre Acceso), EBSCO Publishing, PROQUEST, SCIENCE
CITATION INDEX EXPANDED (SciSearch)
w w w. r ev i s ta h i p e r te n s i o n . c o m . ve w w w. r ev i s ta d i a b e te s . c o m . ve w w w. r ev i s ta s i n d r o m e . c o m . ve w ww. r ev i s ta av ft. c o m . ve
39
R
ealce por similaridad local para la segmentación computacional del ventrículo derecho en imágenes de tomografía computarizada cardíaca Enhancement by local similarity for right ventricular computed segmentation in computed tomography images 40
Resumen
Yoleidy Huérfano, MgSc1*, Miguel Vera, MgSc, PhD1,2, Antonio Bravo, MgSc, PhD3, Rubén Medina, MgSc, PhD4, Julio Contreras-Velásquez, MgSc2, Atilio Del Mar, MD, MgSc5, José Chacón, MgSc, PhD2, Sandra Wilches-Durán, MgSc2, Modesto Graterol-Rivas, MgSc, PhD2, Daniela Riaño-Wilches, BSc6, Joselyn Rojas, MD, MSc7, Valmore Bermúdez, MD, MSc, MPH, PhD2,8 1 Grupo de Investigación en Procesamiento Computacional de Datos (GIPCD-ULA) Universidad de Los Andes-Táchira, Venezuela. E-mail de correspondencia: yoleidyfismat@gmail.com* 2 Grupo de Investigación Altos Estudios de Frontera (ALEF), Universidad Simón Bolívar, Cúcuta, Colombia 3 Coordinación de Investigación Industrial, Decanato de Investigación, Universidad Nacional Experimental del Táchira, San Cristóbal, 5001, Táchira, Venezuela 4 Grupo de Ingeniería Biomédica (GIBULA), Universidad de Los Andes- Mérida, Venezuela 5 Instituto de Bioingeniería y Diagnóstico Sociedad Anónima (IBIDSA), San Cristóbal, Venezuela 6 Facultad de Medicina, Universidad de los Andes, Bogotá, Colombia 7 Pulmonary and Critical Care Medicine Department. Brigham and Women’s Hospital. Harvard Medical School. Boston, MA. USA 02115 8 Centro de Investigaciones Endocrino-Metabólicas “Dr. Félix Gómez” Facultad de Medicina. Universidad del Zulia, Venezuela
ediante este trabajo se propone una estrategia para segmentar el ventrículo derecho (RV) en imágenes tridimensionales (3-D) de tomografía computarizada multicapa. Esta estrategia consta de las etapas de pre-procesamiento, segmentación y entonación de parámetros. La etapa de pre-procesamiento se divide en dos fases. En la primera, denominada fase de filtrado, se emplea una técnica denominada realce por similaridad local (LSE) con el propósito de disminuir el impacto de los artefactos y atenuar el ruido en la calidad de las imágenes. Esta técnica, combina un filtro promediador, un filtro detector de bordes (denominado black top hat) y un filtro gaussiano (GF). En la segunda, identificada como fase de definición de una región de interés (ROI), se consideran las imágenes filtradas, máquinas de soporte vectorial de mínimos cuadrados e información a priori para aislar las estructuras anatómicas que circundan el RV. Por otra parte, durante la
etapa de segmentación 3-D se implementa un algoritmo de agrupamiento, denominado crecimiento de regiones (RG), el cual es aplicado a las imágenes pre-procesadas. Durante la entonación de parámetros de la estrategia propuesta, el coeficiente de Dice (Dc) es utilizado para comparar las segmentaciones, del RV, obtenidas automáticamente, con la segmentación del ventrículo derecho generada, manualmente, por un cardiólogo. La combinación de parámetros que generó el Dc más elevado considerando el instante de diástole se aplica luego a las 19 imágenes tridimensionales restantes, obteniéndose un Dc promedio superior a 0.85 lo cual indica una buena correlación entre las segmentaciones generadas por el experto cardiólogo y las producidas por la estrategia desarrollada. Palabras clave: Tomografía, Ventrículo derecho, Realce por similaridad local, Segmentación
Abstract
Revista Latinoamericana de Hipertensión. Vol. 12 - Nº 2, 2017
Introducción
his work proposes a strategy to segment the right ventricle (RV) into three-dimensional (3D) multi-layered computed tomography images. This strategy consists of the stages of pre-processing, segmentation and intonation of parameters. The preprocessing stage is divided into two phases. In the first one, called the filtering phase, a technique called Local Similarity Enhancement (LSE) is used in order to reduce the impact of artifacts and attenuate noise in the quality of the images. This technique combines an averaging filter, an edge detector filter (called black top hat) and a Gaussian Filter (GF). In the second, identified as a Region Of Interest definition phase (ROI), filtered images, least squares vector support machines and a priori information are considered to isolate the anatomical structures that surround the RV. On the other hand, a clustering algorithm, called Region Growth (RG), is implemented during the 3-D segmentation stage, which is applied to the preprocessed images. During the intonation of parameters of the proposed strategy, the Dice Coefficient (Dc) is used to compare the segmentations of the RV, obtained automatically, with the segmentation of the right ventricle generated manually by a cardiologist. The combination of parameters that generated the highest Dc considering the instant of diastole is then applied to the remaining 19 three-dimensional images, obtaining an average Dc higher than 0.85 which indicates a good correlation between the segmentations generated by the expert cardiologist and those produced by the strategy developed.
personas por CVD que por cualquier otra enfermedad2. La detección de ciertas CVD y el diagnóstico de la hipertensión pulmonar (PHT), la cual está vinculada con presiones promedio elevadas no sólo del pulmón sino también de la RA, puede llevarse a cabo con exámenes especializados y/o técnicas de imagenología que, por ejemplo, permiten a los cardiólogos extraer las estructuras más relevantes del corazón. Respecto a las mencionadas técnicas, es necesario indicar que existen diversas modalidades de imagenología para analizar los órganos que conforman el cuerpo humano. Una de tales modalidades, que está siendo utilizada para el diagnóstico de la función cardiovascular, es la tomografía computarizada multicapa (MSCT)3. Los cardiólogos que consideran la MSCT deben analizar un número considerable de imágenes y, para ello, realizan un proceso de segmentación manual que les permite identificar las estructuras anatómicas cardiacas de interés. Entre las dificultades que exhibe la segmentación manual se pueden mencionar: empleo de un tiempo excesivo, proceso de alta concentración muy engorroso y es operador dependiente. Por lo expresado en el párrafo anterior, se puede afirmar que la segmentación de estructuras cardiacas es un problema abierto y muy desafiante debido, entre otras razones, a que tales estructuras exhiben, permanentemente, un movimiento altamente complejo. Además la realización de tales segmentaciones se hace aún más difícil debido a que las imágenes provenientes de un estudio clínico, generadas mediante cualquier modalidad, poseen imperfecciones tales como ruido denominado Poisson4, artefactos denominado escalera5 y bajo contraste, que afectan la calidad de la información presente en las imágenes tridimensionales, particularmente, en imágenes MSCT6.
Keywords: Tomography, Right Ventricle, Local Similarity Enhancement, Segmentation
Adicionalmente, es necesario señalar que la principal razón por la cual se considera el proceso de segmentación de estructuras cardiacas, es porque el mencionado proceso permite estimar diversos parámetros relacionados con la función cardiaca y posibilita el diagnóstico de enfermedades del corazón sin necesidad de aplicar métodos invasivos como lo sería intervenir, quirúrgicamente, a un paciente para determinar la condición de su corazón.
a identificación temprana de la disfunción del músculo miocárdico mediante el análisis cuantitativo, permite realizar un diagnóstico confiable de las enfermedades cardiovasculares (CVD). El mencionado análisis se basa en la estimación de diversos parámetros clínicos entre los que se incluyen los volúmenes ventriculares, la fracción de eyección, el gasto cardiaco, el engrosamiento del miocardio y la masa miocárdica. Para la evaluación de tales parámetros se requiere, generalmente, de la correcta delineación de los contornos endocárdicos y epicárdicos de las cavidades cardiacas1.
La motivación generada por este tipo de trabajo se enmarca en el hecho de que las enfermedades del corazón constituyan la principal causa de muerte en el mundo, aunado a los enormes costos que representan la inversión en salud de las personas aquejadas, por una o más enfermedades cardiovasculares, constituyen un potente aliciente para estimular el desarrollo de investigaciones que generen apoyos clínicos para el abordaje de: a) El diagnóstico temprano de las mencionadas enfermedades y b) La planificación de procedimientos de rutinas clínicas tendientes a elevar la calidad de vida de los pacientes cardiacos.
En los contextos clínico y social, revisten gran interés las CVD debido a que, a nivel mundial, cada año mueren más
Por otra parte, se han encontrado numerosas investigaciones acerca de la segmentación de estructuras cardia-
41
cas. En ese sentido, Wang et al.7 proponen un método automático, para segmentar el ventrículo derecho basado en difusión anisotrópica para filtrar las imágenes de resonancia magnética cardíaca. Luego el endocardio es extraído por la segmentación de red neural acoplada a impulsos simplificados. Por último, un conjunto de filtros morfológicos fueron utilizados para obtener el epicardio. Ellos afirman que los resultados del experimento muestran que el método obtiene un buen rendimiento tanto para el endocardio como para la segmentación del epicardio.
42
También, Ringenberg et al.8 presentan un método completamente automático para segmentar el RV con imágenes de resonancia magnética (RM) cardiaca de eje corto. Se utiliza una combinación de una nueva técnica de umbral de acumulación con restricción de ventana, diferencia binaria de filtros gaussianos, umbral óptimo y operadores morfológicos para generar una segmentación preliminar. A priori, se incorporan restricciones de ventana de segmentación para guiar y refinar el proceso, así como para asegurar un confinamiento de área apropiado de la segmentación. Los procesos de entrenamiento y validación se realizaron utilizando un conjunto de 48 bases de datos de pacientes proporcionados por los organizadores del desafío de segmentación de ventrículo derecho denominado MICCAI 2012, lo que permite evaluaciones imparciales y comparaciones de referencia. De acuerdo a los resultados, se observan mejoras marcadas en velocidad y exactitud sobre los métodos existentes. Seguidamente, Avendi et al.9 proponen una técnica para la segmentación automática del ventrículo derecho a partir de las imágenes de RM cardíaca utilizando un método totalmente automático basado en el aprendizaje. El método propuesto utiliza algoritmos de aprendizaje profundo, es decir, redes neuronales convolucionales y autocodificadores apilados, para la detección automática y la segmentación inicial de la cámara RV. La segmentación inicial se combina con los modelos deformables para mejorar la precisión y la robustez del proceso. Entrenaron el algoritmo usando 16 bases de datos de RM cardíaca de la base de datos utilizada en MICCAI 2012 y validaron la técnica utilizando el resto del conjunto de datos (32 sujetos). Para todos los sujetos estudiados se obtuvo un coeficiente de Dice (Dc) promedio de 0.8250 y una distancia Hausdorff promedio de 7.58 mm. Además, considerando el Dc se observó una alta correlación y nivel de concordancia con los contornos de referencia para el volumen diastólico final (0.9800), el volumen sistólico final (0.9900) y la fracción de eyección (0.9300). Vera6 expone una estrategia, identificada como E1, para la segmentación del ventrículo izquierdo (LV) en imágenes de MSCT. E1 se basó en una etapa de pre-procesamiento y una etapa de segmentación. La etapa de preprocesamiento incluye dos fases. En la primera fase, se empleó una estrategia basada en el realce por similaridad local
(LSE) con el propósito de disminuir las imperfecciones de las imágenes. En la segunda fase, del pre-procesamiento, se definió una región de interés que aísla el LV de las estructuras anatómicas circundantes utilizando transformada wavelet10 y máquinas de soporte vectorial de mínimos cuadrados11, para localizar las válvulas del LV. En la segmentación, se consideró un algoritmo de agrupamiento, denominado crecimiento de regiones12, para generar segmentaciones preliminares del LV que fueron afinadas aplicando una técnica variacional, basada en level set13. La técnica propuesta fue comparada con otras 9 estrategias de segmentación. Una explicación detallada de E1 puede ser consultada en6. Finalmente, Huérfano14 propone una estrategia para segmentar estructuras del corazón derecho en imágenes MSCT. Esta estrategia consta de las etapas de preprocesamiento, segmentación, entonación de parámetros y estimación de descriptores cardiacos. La etapa de preprocesamiento se divide en dos fases. En la primera, denominada fase de filtrado, en la cual se empleó la técnica de realce por similaridad global (GSE). En la segunda, identificada como fase de definición de una región de interés (ROI), que aísla las estructuras anatómicas circundantes al corazón derecho. Durante la etapa de segmentación 3-D se implementó un algoritmo de agrupamiento, denominado crecimiento de regiones (RG). Como resultados se obtuvo un Dc promedio de 0.85 ± 5.35 y un tiempo de computo promedio de 5.15 ± 2.18 minutos para cada instante del ciclo cardiaco completo. Finalmente, usando como referencia las segmentaciones 3-D de los instantes diástole y sístole final, se estimaron los descriptores cardiacos de interés que permiten emitir un juicio de valor preliminar acerca del funcionamiento del RV correspondiente al paciente considerado. El presente trabajo tiene como objetivo generar una estrategia, basada en una variante de E1, para la segmentación de estructuras cardiacas del corazón derecho. Dicha estrategia se basa en realce por similaridad local (LSE) para segmentar el RV, tomando en cuenta el enfoque intrasujeto, y considerando las etapas de pre-procesamiento, segmentación y entonación de parámetros. Estas etapas se someten a un proceso de validación que considera el coeficiente de Dice15 para comparar segmentaciones del RV obtenidas automática y manualmente.
Materiales y métodos
Revista Latinoamericana de Hipertensión. Vol. 12 - Nº 2, 2017
Descripción de las bases de datos La base de datos (DB) utilizada fue suministrada por el Laboratoire de Traitement du Signal et de L’Image (LTSI) de la Université de Rennes I, en Francia, y está constituida por imágenes de MSCT cardiaca de un paciente. La DB posee 20 instantes que representan un ciclo cardiaco completo. Cada instante tiene 326 imágenes de resolución espacial 512x512 píxeles, muestreadas a 12 bits por píxel, con vóxeles de tamaño 0.488 mm x 0.488 mm x 0.393 mm. También se cuenta con la segmentación manual del instante diástole final, generada por un cardiólogo, la cual
representa el ground truth del RV que servirá como referencia para validar los resultados. Estrategia propuesta para la segmentación del ventrículo derecho LSE La Figura 1 muestra la estrategia propuesta para generar la morfología del RV. Debido a que tal estrategia está basada en un tipo de realce por similaridad de tipo local, en el contexto del presente artículo, será utilizado el acrónimo LSE para hacer referencia a ella.
Figura 1. Diagrama de bloques de la estrategia LSE la cual constituye una variante de E1
Etapa de pre-procesamiento - Fase de filtrado: En la Figura 1, se ha destacado mediante un recuadro gris la etapa de filtrado basada en realce por similaridad local. Este tipo de realce se aplica, preliminarmente, sobre el instante de diástole final y consiste en: a. Generación de una imagen promediada (Ip), procesando cada imagen original (Io) con un filtro denominado promediador12. El papel de este filtro es minimizar el ruido Poissoniano presente en las imágenes. b. Obtención de una imagen denominada black top hat (Ibth), procesando cada imagen original (Io) con un filtro denominado black top hat16. El papel de este filtro es detectar los bordes de las cavidades cardiacas. c. Aplicación de una función de similaridad local. La función de similaridad local utiliza una vecindad en forma de cruz 3-D en la cual se considera, sucesivamente, la
43
incorporación de cada uno de los seis vecinos directos del voxel central en cada volumen de entrada, que se presentan mediante la figura 2. La finalidad de la similaridad local es minimizar el efecto de los artefactos y preservar la información interna a los bordes. Esta función de similaridad local genera una imagen de similaridad (Is) utilizando la Ecuación (1). Esta imagen representa una medida del contraste entre los valores del nivel de gris de dos imágenes que representan versiones filtradas de la imagen de entrada, como lo son las Ip e Ibth.
(1) d. Generación de una imagen gaussiana (Ig). Debido a que el filtro denominado black top hat puede reforzar el ruido Poisson, presente en las imágenes de MSCT, se aplica a la imagen Is un suavizado basado en el filtro gaussiano 17.
Figura 2
44
- Fase de definición de una región de interés (ROI): La similitud de los niveles de gris de los vóxeles que conforman las estructuras del corazón derecho exige la colocación de superficies que faciliten su segmentación. En el contexto de la estrategia propuesta, considerando las imágenes filtradas, la fase de definición de una región de interés se basa en la consideración de los aspectos abordados, preliminarmente, en18,19 los cuales fueron adaptados en el contexto de la presente investigación, de la siguiente manera:
Para los marcadores el centro de sus respectivas vecindades coincide con las coordenadas manuales de P1 y P2, establecidas anteriormente. Tales vecindades son construidas sobre la vista axial de una imagen sub-muestreada de 64x64 píxeles para P1 y otra para P2. La principal razón por la cual se elige una única imagen, por cada punto de referencia, es porque se desea generar una LSSVM con alto grado de selectividad que detecte sólo aquellos píxeles que posean un alto grado de correlación con el patrón de entrenamiento.
i) Se aplica una técnica de reducción de tamaño, basada en interpolación cúbica, cuyo parámetro se hace coincidir con el factor de reducción óptimo, obtenido en6. Esto permite generar imágenes sub-muestreadas de 64x64 píxeles a partir de imágenes filtradas de 512x512, es decir, el mencionado factor fue de 8.
Luego, cada vecindad es vectorizada y, considerando sus niveles de gris, se calculan los atributos: media (µ), varianza ( ), desviación estándar (σ) y mediana (me). Así, tanto los marcadores como los no marcadores se describen mediante vectores (Va) de atributos estadísticos, dado por: Va = [µ, , σ, me].
ii) Sobre las imágenes sub-muestreadas un cardiólogo selecciona puntos de referencia dados por: la unión de la válvula tricúspide con el RV (P1) y el ápex del RV (P2). Para ambos puntos se establecen las coordenadas manuales que establecen sin ambigüedad su ubicación espacial en cada imagen considerada. En la Figura 3, se identifican los puntos P1 y P2, en dos vistas transversales de imágenes sub-muestreadas.
Adicionalmente, la LSSVM es entrenada considerando como patrón de entrenamiento los vectores Va y entonando los valores de los parámetros que controlan su desempeño, γ y . Este enfoque, basado en atributos, permite que la LSSVM realice su trabajo con mayor eficiencia que cuando se utiliza el enfoque basado en vectores, de mayor tamaño, que sólo considera el nivel de gris de los elementos de una imagen.
iii) Se implementa una LSSVM para reconocer y detectar a P1 y P2. Para ello se desarrollan los procesos de: A) Entrenamiento: Se selecciona como conjunto de entrenamiento vecindades circulares de radio 10 píxeles, trazadas manualmente por un cardiólogo, que contienen tanto los puntos P1 y P2 (marcadores), como regiones que no contienen los referidos puntos (no marcadores).
El conjunto de entrenamiento se construye con una relación de 1:10, lo cual significa que por cada marcador se incluyen 10 no marcadores. La etiqueta +1 se asigna a la clase conformada por los marcadores; mientras la etiqueta -1 se asigna a la clase de los no marcadores, es decir, el trabajo de entrenamiento se hace con base en una LSSVM binaria.
Revista Latinoamericana de Hipertensión. Vol. 12 - Nº 2, 2017 Figura 3. Vista transversal de imágenes sub-muestreadas en las que se identifica mediante un punto verde, encerrado en un círculo rojo: a) La unión de la válvula tricúspide con el RV (P1) y b) El ápex del RV (P2)
45
Durante el entrenamiento, se genera un clasificador dotado de una frontera de decisión para detectar los patrones de entrada a la LSSVM como marcadores ó no marcadores. Posteriormente, debido a la presencia de falsos positivos y negativos, se aplica un proceso que permite incorporar al conjunto de entrenamiento los patrones que la LSSVM clasifica, inicialmente, de manera inapropiada. En este sentido, se consideró un toolbox, denominado LS-SVMLAB, y la aplicación Matlab para implementar un clasificador LSSVM basado en un kernel gaussiano de base radial con parámetros σ y γ. B) Validación: Las LSSVM entrenadas se utilizan para detectar a P1 y P2, en imágenes no usadas durante el entrenamiento. Para ello, se ejecutan las siguientes tareas: I) Reconocimiento de (P1): Una LSSVM entrenada busca este punto de referencia, en el plano axial, desde la primera imagen ubicada en la base del corazón, hasta la imagen que representa la mitad del volumen considerado. II) Reconocimiento del ápex (P2): Una LSSVM entrenada empieza a buscar el ápex desde la imagen que representa la mitad de la base de datos (aproximadamente el ecuador del corazón) hasta la última imagen que conforma dicha base. El proceso de validación efectuado con LSSVM permite identificar las coordenadas automáticas para P1 y P2 las cuales son multiplicadas por un factor de 8 unidades, a fin de poder ubicarlas, en las imágenes de tamaño original. De esta forma, las referidas coordenadas se utilizan para establecer la dirección (normal) del plano tricúspide y la colocación del referido plano en la base del RV. Luego, mediante un proceso de discriminación, se seleccionan o se excluyen los puntos de las bases de datos procesadas que sean de interés, de acuerdo con la estructura anatómica del corazón derecho que se desee segmentar, en este caso, el RV. Etapa de segmentación La ubicación de la semilla, para inicializar el crecimiento de regiones (RG), se calcula usando LSSVM mediante un
proceso análogo al descrito durante la detección de P1 y P2. Para aplicar el RG, a las imágenes pre-procesadas, se hicieron las siguientes consideraciones: a) A la vecindad inicial, que se construye a partir de la semilla, se le asigna forma cúbica cuyo lado depende de un escalar arbitrario r. El parámetro r requiere de un proceso de entonación. b) Como criterio pre-definido, se elige el modelado mediante la Ecuación 2. |I(x) − µ| < mσ
(2)
siendo: I(x) la intensidad del vóxel semilla, µ y σ la media aritmética y la desviación estándar de los niveles de gris de la vecindad inicial y m un parámetro que requiere entonación. Etapa de entonación de parámetros: Obtención de parámetros óptimos Esta etapa permite la obtención de los parámetros óptimos que garantizan un buen desempeño de la estrategia propuesta. Para ello, se modifican los parámetros asociados con la técnica que se desee entonar recorriendo, sistemáticamente, los valores pertenecientes a ciertos rangos tal y como se describen a continuación: Los parámetros asociados al filtro promediador son (ε y Rp). Aquí, ε se hace coincidir con la desviación estándar de la imagen 3-D de entrada al filtro promediador; mientras que, para el radio (Rp) de la vecindad, sobre la cual se calcula el promedio de los niveles de gris, fueron consideradas vecindades 3-D de tamaño impar, dado por las combinaciones: (3×3×3), (5×5×5), (7×7×7), (9×9×9) y (11×11×11). Los filtros de dilatación y erosión tienen como parámetros la forma y el tamaño del elemento estructurante. Con el propósito de reducir el número de posibles combinaciones, se consideró un enfoque isotrópico para establecer el rango de valores, que controlan el tamaño del elemento estructurante, el cual viene dado por las combinaciones: (1×1×1), (2×2×2), (3×3×3), (4×4×4), (5×5×5), (6×6×6), (7×7×7), (8×8×8) y (9×9×9).
son números reales comprendidos entre 0 (mínimo) y 1 (máximo). Entre más cercano a 1 se encuentre el valor del Dc, mejor será el desempeño del procedimiento que no es manual. El modelo matemático que define el Dc, viene dado por la Ecuación 3.
Posterior a ellos, para entonar el filtro gaussiano se debe considerar un parámetro identificado como desviación estándar ( ). En el contexto del presente trabajo, se hace uso de un enfoque isotrópico que asigna el mismo valor de desviación a cada una de las direcciones en las que se aplica el filtro gaussiano. De forma que, se hace coincidir con todos los valores comprendidos en el intervalo real1,4 con un tamaño de paso de 0.25. El otro parámetro del filtro gaussiano, es el tamaño de la vecindad. Tales tamaños son (3x3x3), (5x5x5), (7x7x7) y (9x9x9).
En este punto, es necesario enfatizar que: En el contexto del presente trabajo, el proceso de entonación para la fase de filtrado fue tomada de6 por ser LSE una variante de E1. Para el caso de ROI y RG se hará su respectiva entonación de parámetros.
Los parámetros de las LSSVM, σ y γ, se entonan suponiendo que la función de costo es convexa y desarrollando ensayos basados en los siguientes pasos: Para entonar el parámetro γ se fija arbitrariamente el valor de σ y se asignan, sistemáticamente, valores al parámetro γ. El valor de σ se fija inicialmente en 25. Ahora, se varía γ considerando el rango [0,100] y un tamaño de paso de 0.25. Un proceso análogo se aplica para entonar el parámetro σ, es decir, se le asigna a γ el valor óptimo obtenido en el paso anterior y, se considera un tamaño de paso de 0.25 para asignarle a σ el rango de valores contenidos en el intervalo [0,50]. Los parámetros óptimos de las LSSVM son aquellos valores de γ y σ que corresponden al error relativo porcentual mínimo, calculado considerando las coordenadas manuales y automáticas de los puntos de referencia. Éstas últimas coordenadas son generadas por la LSSVM. Durante la entonación de los parámetros del RG, cada una de las segmentaciones automáticas del RV correspondientes al instante diástole final se compara, usando el Dc, con la segmentación manual del RV generada por un cardiólogo. Los valores óptimos para los parámetros del RG (r y m), se hacen coincidir con aquel experimento que genera el valor más alto para el Dc. El Dc es una métrica que permite comparar segmentaciones de una misma imagen 3-D obtenida por diversas metodologías. En el contexto cardiaco, usualmente, el Dc es considerado para establecer que tan similares son, espacialmente, la segmentación manual (RD) y la segmentación automática (RP) que genera la morfología de cualquier estructura cardiaca. Adicionalmente, el Dc es máximo cuando se alcanza un perfecto solapamiento entre RD y RP pero es mínimo cuando RD y RP no se solapan en absoluto. Además, los valores esperados para el Dc
(3)
En la Tabla 1 se reportan los parámetros fijos optimizados en6, los cuales serán aplicados a los 19 instantes restantes del ciclo cardiaco completo. Tabla 1. Parámetros óptimos, reportados en6, para los filtros que conforman la estrategia LSE. Filtros vinculados con la estrategia LSE Prom. Gme1 Gme2 Gme3 Umbral (e)
Gs
Ero.
*Desviación estándar (enf. isotrópico)
3x3x3 3x3x3 3x3x3 3x3x3
3x3x3
Dila.
Bth
Forma del SE
(1,1,1) (3,3,3) (5,5,5) ( , ,) Tamaño de vecindad
Esférica 3x3x3 7x7x7 Mixto
Simil Tipo No ponderada Caso 4
*Gm=Filtro Gausiano multiescala Gs= Filtro Gausiano simple
Resultados
46
Seguidamente, para el filtro de realce por sililaridad local el único parámetro, requerido por esta función, es el caso que debe elegirse para generar la imagen de similaridad. Se puede elegir cualquiera de las posibilidades dada por los casos: 1, 2, 3, 4, 5, 6; correspondientes a la consideración simultánea de 1, 2, 3, 4, 5 y 6 vecinos, del vóxel objeto de estudio, respectivamente6.
Resultados cuantitativos Respecto a las LSSVM entrenadas se obtuvieron, como parámetros óptimos para γ y los valores 9.00 y 2.50, respectivamente. Estos valores están asociados con un error relativo porcentual mínimo de 2.02%. Los parámetros óptimos del RG fueron: r= 15 píxeles y m= 4.2 y corresponden a un Dc máximo de 0.8500. Las segmentaciones que se obtuvieron con la combinación LSE + GF + ROI + RG reportaron un Dc promedio de 0.85 ± 5.35 y un tiempo de computo promedio de 10.15 ± 1.43 minutos para cada instante del ciclo cardiaco completo. Este valor para el Dc es comparable con el reportado en las referencias Avendi et al. (2017) y Huérfano (2017) tal y como lo muestra la Tabla 2. Tabla 2. Comparación del Dc promedio, para el RV, durante la validación intra-sujeto. Autores
Técnica
Modalidad Dc promedio
Avendi et al.
Algoritmo de aprendizaje
MRI
0.8255
Huérfano.
GSE + MF + ROI + RG
MSCT
0.8666
Huérfano et al.
LSE + GF+ ROI + RG
MSCT
08500
Revista Latinoamericana de Hipertensión. Vol. 12 - Nº 2, 2017
Resultados cualitativos La Figura 4, muestra una vista 2-D del instante de diástole final original, filtrado con la secuencia LSE + GF y cortado con el plano tricúspide. En ellas se aprecia una adecuada definición de las estructuras anatómicas presentes y se muestra el aislamiento del RV(ver flecha). Figura 4. Vista transversal de: a) Imagen original, identificando las 4 cámaras cardiacas; b) Imagen filtrada con realce por similaridad local (LSE); c) Imagen con región de interés definida por el plano tricúspide
descriptores más importantes de la función cardiaca vinculada con el ventrículo derecho. Agradecimientos Los autores agradecen por el apoyo financiero al Consejo de Desarrollo Científico Humanístico Tecnológico y de las Artes (CDCHTA) de la Universidad de Los Andes-Venezuela, (a través del proyecto código NUTA-C-29-15-07-C), a la Universidad Simón Bolívar de Cúcuta-Colombia (a través del proyecto código C2011520216), y al Decanato de Investigación de la Universidad Nacional Experimental del Táchira, San Cristóbal-Venezuela.
Referencias 1. Frangi A, Rueckert D, Duncan J. “Three–dimensional cardiovascular image analysis,” IEEE Transactions on Medical Imaging. 2002; 21(9):1005–1010.
Por otra parte, la Figura 5 muestra la vista 3-D de los 20 instantes que conforman el ciclo cardiaco completo del paciente considerado (validación intra-sujeto). En esta figura se aprecia una excelente representación del RV.
Figura 5. Representación 3-D de las 20 segmentaciones del RV, correspondientes a un ciclo cardiaco completo
2. World Health Organization. (2010). Global status report on non-communicable diseases.Tech. Rep. 3. Kelly D, Hasegawa I, Borders R, Hatabu H, Boiselle P. High–resolution CT using MDCT: Comparison of degree of motion artifact between volumetric and axial methods,” American Journal of Roentgenology. 2004; 182(3): 757–759. 4. Chan R, Chen K. Multilevel algorithm for a Poisson noise removal model with total–variation regularization. International Journal of Computer Mathematics. 2007; 5: 1–18. 5. Kroft L, De Roos A, Geleijns J. Artifacts in ECG–synchronized MDCT coronary angiography. American Journal of Roentgenology. 2007; 189(3):581–591.
Conclusiones
6. Vera M. Segmentación de estructuras cardiacas en imágenes de tomografía computarizada multi-corte [PhD dissertation]. Mérida-Venezuela: Universidad de los Andes; 2014. 7. Wang K, Ma Y, Le R, Yang Z, Ma Y. Automatic right ventricle segmentation in cardiac MRI via anisotropic diffusion and SPCNN. In Eighth International Conference on Graphic and Image Processing (pp. 1022527-1022527). International Society for Optics and Photonics. 2017.
e ha presentado la estrategia LSE cuya entonación permite una segmentación precisa del RV ya que el Dc obtenido, durante la validación intra-sujeto, es comparable con el reportado en la literatura. Esta estrategia puede ser aplicada, con parámetros fijos, en futuras investigaciones, para la segmentación de aurículas, válvulas y arterias del corazón. En un corto plazo, se tiene previsto realizar una validación inter-sujeto, considerando un número importante de bases de datos, para establecer la robustez de la LSE entonada. Las segmentaciones generadas, mediante la aplicación de la estrategia LSE, fueron consideradas para calcular los
8. Ringenberg J, Deo M, Devabhaktuni V, Berenfeld O, Boyers P, Gold J. Fast, accurate, and fully automatic segmentation of the right ventricle in short-axis cardiac MRI. Computerized Medical Imaging and Graphics. 2014; 38(3): 190-201. 9. Avendi M, Kheradvar A, 2 Jafarkhani H. Automatic segmentation of the right ventricle from cardiac MRI using a learning-based approach. [internet] 16 February 2017. Disponible en: https://www.ncbi.nlm.nih.gov/pubmed/28205298 10. Meyer Y. Wavelets and Operators. USA: Cambridge University Press; 1999. 11. Suykens J, Van Gestel T, De Brabanter J. Least Squares Support Vector Machines. LONDON. World Scientific Publishing Co; 2002. 12. Passarielo G, Mora F. Imágenes Médicas, Adquisición, Análisis, Procesamiento e Interpretación. Venezuela: Equinoccio Universidad Simón Bolívar; 1995. 13. Whitaker R. A level-set approach to 3-D reconstruction from range data, Computer Vision.1998; 29(3): 203–231.
47
14. Huérfano Y. Segmentación de estructuras del corazón derecho en imágenes de tomografía computarizada cardiaca. Tesis de Maestría. Venezuela: Universidad Nacional Experimental del Táchira; 2017. 15. Dice L. Measures of the amount of ecologic association between species. Ecology. 1945; 26(3): 297-302. 16. Yu Z, Wei G, Zhen C, Jing T, Ling L. “Medical images edge detection based on mathematical morphology,”. EN: LIBRO DE PONENCIAS: Proceedings of the IEEE Engineering in Medicine and Biology 27th Annual Conference. Shanghai China; 2005: 6492–6495. 17. Meijering, H. Image en hancement in digital X ray angiography [Tesis de Doctorado]. Utrecht University, Netherlands, 2000.
48
18. Vera M, Medina R, Bravo A. Detección del corazón utilizando máquinas de soporte vectorial de mínimos cuadrados. En memorias del X International Conference of Numerical Methods in Engineering and Applied Sciences (Cimenics–2010). Mérida, Venezuela. 2010: 31–36. 19. Bravo A, Clemente J, Vera M, Avila J, Medina R. An hybrid bondary– region left ventricle segmentation in computed tomography. En memorias de la 5th International Conference on Computer Vision Theory and Applications. (Visapp–2010), Angers, France.2010: 107–114.
Manuel Velasco (Venezuela) Editor en Jefe - Felipe Alberto Espino Comercialización y Producción Reg Registrada en los siguientes índices y bases de datos:
SCOPUS, EMBASE, Compendex, GEOBASE, EMBiology, Elsevier BIOBASE, FLUIDEX, World Textiles, OPEN JOURNAL SYSTEMS (OJS), REDALYC (Red de Revistas Científicas de América Latina, el Caribe, España y Portugal), LATINDEX (Sistema Regional de Información en Línea para Revistas Científicas de América Latina, el Caribe, España y Portugal) LIVECS (Literatura Venezolana para la Ciencias de la Salud), LILACS (Literatura Latinoamericana y del Caribe en Ciencias de la Salud) PERIÓDICA (Índices de Revistas Latinoamericanas en Ciencias), REVENCYT (Índice y Biblioteca Electrónica de Revistas Venezolanas de Ciencias y Tecnología) SCIELO (Scientific Electronic Library Online), SABER UCV, DRJI (Directory of Research Journal Indexing) CLaCaLIA (Conocimiento Latinoamericano y Caribeño de Libre Acceso), EBSCO Publishing, PROQUEST, SCIENCE
CITATION INDEX EXPANDED (SciSearch)
w w w. r ev i s ta h i p e r te n s i o n . c o m . ve w w w. r ev i s ta d i a b e te s . c o m . ve w w w. r ev i s ta s i n d r o m e . c o m . ve w ww. r ev i s ta av ft. c o m . ve
Revista Latinoamericana de Hipertensión. Vol. 12 - Nº 2, 2017
T omografía computarizada por rayos X en cardiología
X-ray computed tomography in cardiology
49
Resumen
Abstract
Antonio J. Bravo, MgSc, PhD1*, Felida Roa, MgSc2, Miguel Vera, MgSc, PhD3,4, Julio Contreras-Velásquez, MgSc4, Yoleidy Huérfano, MgSc3, José Chacón, MgSc, PhD4, Sandra Wilches-Durán, MgSc4, Modesto Graterol-Rivas, MgSc, PhD4, Daniela Riaño-Wilches, BSc5, Joselyn Rojas, MD, MSc6, Valmore Bermúdez, MD, MSc, MPH, PhD4,7 1 Coordinación de Investigación Industrial, Decanato de Investigación, Universidad Nacional Experimental del Táchira, San Cristóbal, 5001, Táchira, Venezuela. E-mail de correspondencia: abravo@unet.edu.ve* 2 Grupo de Bioingeniería, Decanato de Investigación, Universidad Nacional Experimental del Táchira, San Cristóbal, 5001, Táchira, Venezuela 3 Grupo de Investigación en Procesamiento Computacional de Datos (GIPCD-ULA) Universidad de Los Andes-Táchira, Venezuela 4 Grupo de Investigación Altos Estudios de Frontera (ALEF), Universidad Simón Bolívar, Cúcuta, Colombia 5 Facultad de Medicina, Universidad de los Andes, Bogotá, Colombia. 6 Pulmonary and Critical Care Medicine Department. Brigham and Women’s Hospital. Harvard Medical School. Boston, MA. USA 02115. 7 Centro de Investigaciones Endocrino-Metabólicas “Dr. Félix Gómez” Facultad de Medicina. Universidad del Zulia, Venezuela.
a tomografía computarizada por rayos X es una modalidad utilizada rutinariamente en la práctica clínica. Esta modalidad genera un conjunto de imágenes en bidimensionales, cada una de las cuales representa una rodaja que incluye información sobre la anatomía interna del paciente. Las imágenes tridimensionales son obtenidas a partir de proyecciones radiológicas mediante técnicas de reconstrucción. Las proyecciones son obtenidas por la exposición del objeto a radiaciones de rayos X según distintos ángulos y por la medición del grado de absorción del haz que atraviesa al objeto. El presente artículo muestra la aplicación de esta tecnología de imágenes médicas y sus avances en cardiología. Palabras clave: tomografía computarizada, rayos X, cardiología
-ray computed tomography is a modality routinely used in clinical practice. This modality generates a set of two-dimensional images, each representing a slice that includes information about the patient’s anatomy. Three-dimensional images are obtained from radiological projections using reconstruction techniques. The projections are obtained by exposing the object to X-ray radiation at different angles and by measuring the degree of absorption of the beam passing through the object. The present article shows the application of this technology of medical images and its advances in cardiology. Keywords: Computerized tomography, X ray, cardiology
Introducción 50
a tomografía computarizada por rayos X (CT) es la más vieja de todas las modalidades imagenológicas tridimensional (3D) y sobre la que probablemente se han realizado la mayor cantidad de desarrollos técnicos1. El desarrollo de la CT en la década de los 70, tuvo un impacto revolucionario en la imagenología diagnóstica con rayos X, debido a proporciona la capacidad de examinar estructuras internas del cuerpo de una forma no invasiva con una alta exactitud y especificidad. Adicionalmente, elimina o minimiza a gran escala los problemas de las técnicas radiológicas convencionales, principalmente asociados a la perdida de detalles originadas por la superposición de la información de estructuras 3D en un detector bidimensional (2D). Además, un alto porcentaje de la radiación detectada es esparcida a lo largo del paciente, produciendo una disminución de la relación señal a ruido de la información registrada. El principal objetivo de la CT es producir una representación en dos dimensiones del coeficiente de atenuación de los rayos X, a lo largo de una delgada sección transversal del cuerpo humano. Los tejidos de diferentes estructuras del cuerpo, presentan una composición elemental diferente, por lo tanto tienden a exhibir diferentes respuestas frente a los rayos X. En consecuencia, una imagen por CT describe varias estructuras del cuerpo, mostrando sus relativas relaciones anatómicas. Cuando un haz de monocromáticos rayos X pasa a través del cuerpo, el mismo es diferencialmente absorbido y esparcido por las estructuras localizadas en la trayectoria que sigue el haz. La cantidad de absorción depende tanto de la densidad física y de la composición anatómica de estas estructuras, como de la energía del haz. En el rango de energía diagnóstica, las interacciones constituyen principalmente en ionización molecular generada por el esparcimiento y la absorción fotoeléctrica2. El esparcimiento es generalmente minimizado por medio de la colimación de los rayos, y la superposición es eliminada por la exploración a través del plano transaxial, es decir, la fuente de rayos X y el detector son colimados, para definir un haz que pasa solamente a través del plano transversal, y son rotados alrededor del cuerpo, tal que, los patrones de absorción de los rayos X, son registrados a partir de diferentes direcciones sobre el plano transversal. Un colimador es un dispositivo útil para obtener un haz de radiación, rayos X, de la sección transversal limitada. Los rayos X transmitidos a través del plano son captados por detectores, los cuales tienen la capacidad de registrar intensidades diferentes con el 0.1 % de exactitud, mientras que los coeficientes de atenuación de estructuras individuales ubicados en la trayectoria del haz, pueden ser determinados con 0.5 % de exactitud, de acuerdo con conjuntos analizados matemáticamente3.
La distribución de los coeficientes de atenuación es determinada por la Ley de la física de radiaciones (Ley de Lambert–Beer), la cual expresa que cuando un haz de rayos X monoenergético, pasa a través de un objeto de densidad variable, el haz es atenuado de acuerdo con una relación exponencial. Técnicas de adquisición CT 2.1. Tomografía Computarizada Convencional La tomografía computarizada por rayos X convencional, produce una imagen bidimensional sencilla de una sección transversal del cuerpo humano a partir de rayos X transmitidos, que posteriormente son registrados desde algún ángulo de vista alrededor del cuerpo. Las imágenes tridimensionales son obtenidas por la repetición de este procedimiento sobre secciones adyacentes, generando así un conjunto continuo de imágenes 2D. Este procedimiento presenta algunas limitaciones, tales como, reposicionamiento del paciente en cada adquisición de las imágenes 2D, ancho de cada sección de corte y movimiento tanto voluntario como involuntario, los cuales ocurren durante el tiempo total requerido para la exploración de todos los cortes1. Las imágenes de corazón obtenidas por tomografía computarizada convencional, no son útiles en la evaluación de la forma y la función de las estructuras cardíacas, debido a que el tiempo de adquisición es de 1 a 3 segundos, y las contracciones normales del corazón ocurren en un tiempo poco superior a 1 segundo, de allí, que este proceso genera representaciones borrosas de las cavidades cardíacas. Diversas tecnologías han sido introducidas para mejorar la calidad visual y diagnóstica de las imágenes de tomografía computarizada por rayos X. El uso de técnicas de sincronización con el electrocardiograma (ECG) ha permitido estudiar el movimiento periódico del corazón, considerando tanto la contracción como la expansión de las paredes de las cavidades. El ECG es simultáneamente obtenido y usado para ordenar los datos de la proyección CT en una ventana de tiempo correspondiente a varias fases del ciclo cardíaco. Este método tiene la ventaja de que puede ser implantado sobre exploradores convencionales realizando modificaciones relativamente sencillas. Adicionalmete, el método ha sido usado en aplicaciones dinámicas en el corazón, tales como contracción miocárdica regional, determinación del espesor de la pared y cuantificación de la fracción de eyección4. 2.2. Tomografía Computarizada de Alta Resolución Temporal Sistemas de CT de alta resolución temporal (Ultrafast Computed Tomography), permiten medir los cambios regionales en forma y dimensión del corazón y de la distribución espacial del flujo de sangre miocárdico5. El volumen es explorado de acuerdo con un conjunto de múltiples, paralelas y finas secciones transversales, en un período de tiempo suficientemente breve, tal que el movimiento
Revista Latinoamericana de Hipertensión. Vol. 12 - Nº 2, 2017
de las estructuras de interés sea aproximadamente menor que un elemento de resolución. Este tipo de sistemas están diseñados para tener una resolución espacial máxima de 1 mm en el corazón. La velocidad de observación está basada en la velocidad de movimiento de la superficie endocárdica en el plano transversal durante la fase de máxima eyección sistólica. Este método de CT dinámica del corazón facilita la valoración exacta de la localización, magnitud y naturaleza de las anormalidades y patologías cardiovasculares, tales como, daño arterial coronario e isquemia miocárdica3.
aproximadamente 224 ms para completar los ocho cortes paralelos, considerando 8 ms necesarios para intervalos de reset entre cada corte. La alta velocidad y la capacidad de captar múltiples cortes ofrecen ventajas significativas sobre métodos de CT convencional, permitiendo obtener imágenes desde el ápex hasta la base del corazón. La principal limitación es que la resolución espacial en la dirección transaxial es mucho menor que en la dirección del plano, la cual frecuentemente corresponde con la dirección transversal. Sin embargo, la EBCT ha sido ampliamente utilizada para la valoración del daño arterial coronario6,7.
2.3. Tomografía Computarizada por Haz de Electrones Una alternativa para el diseño de CT de alta velocidad, es el uso de la deflexión magnética de un haz de electrones para reemplazar el movimiento mecánico de los tubos de rayos X (ver Figura 1), obteniendo sistemas de tomografía computarizada por haz de electrones (Electron Beam Computed Tomography–ECBT)4. La fuente de rayos X consiste de cuatro pares paralelos de anillos semicirculares de tungsteno que alcanzan 210 alrededor del paciente. Haces de electrones de alta intensidad son electromagnéticamente barridos a lo largo de cada una de los anillos en instantes de tiempo diferentes, generando de este modo un haz rotativo de rayos X en forma de abanico. Opuesto a cada fuente de rayos X, múltiples detectores se encargan de registrar la intensidad del haz incidente.
2.4. Tomografía Computarizada Helicoidal La tomografía computarizada helicoidal, es otra alternativa para la detección y cuantificación del daño arterial coronario. Esta modalidad es considerada una modalidad de adquisición volumétrica, en la cual simultáneamente ocurre la traslación del paciente a una velocidad constante a través del equipo, durante la rotación continua del sistema que agrupa a la fuente con el detector como se muestra en la Figura 2. El término CT helicoidal se deriva del hecho de que durante el proceso de exploración, el foco de rayos X describe una trayectoria helicoidal o de forma de espiral alrededor del paciente8. Luego de la adquisición, el conjunto de las proyecciones crudas, son utilizadas para generar imágenes de los planos transaxiales por medio de técnicas convencionales de proyección filtrada hacia atrás, luego de interpolar los datos entre giros adyacentes sobre la trayectoria helicoidal. La reconstrucción de la secuencia de las secciones transaxiales a partir del conjunto de datos resulta en un volumen, que puede ser visualizado con imágenes de planos transaxiales convencionales y métodos tridimensionales9. Aunque en algunos trabajos se desestime la capacidad de la CT helicoidal para la cuantificación de la función cardiovascular, por considerar la técnica como carente de características importantes como sensitividad, exactitud y reproducibilidad10, recientemente se han propuesto trabajos en los cuales la calcificación de las arterias coronarias, ha podido ser cuantificada con el uso de CT helicoidal activada por el ECG11, fundamentados en que estudios patológicos han demostrado una fuerte correlación entre la presencia de calcio y el daño arterial coronario12. Otros que muestran, que es posible obtener una clara morfología de la cavidad ventricular izquierda en 2D y 3D sobre los ejes cardíacos, en diferentes fases del ciclo, permitiendo la valoración exacta de parámetros ventriculares tales como, volúmenes (diastólico final, sistólico final, volumen latido) y fracción de eyección13.
Figura 1. Sistemas de tomografía computarizada por haz de electrones
EBCT opera en tres modos, en los cuales varia el tiempo de adquisición y la resolución espacial. En modo de cine, adquiere cada exploración en 50 ms, a una frecuencia de 17 exploraciones por segundo para cada nivel anatómico. En el modo flujo, cada exploración es adquirida en 50 ms en una fase específica del ciclo cardíaco, en secuenciales o alternativos latidos del corazón. En el modo volumen, ocho cortes transaxiales son explorados, barriendo el haz secuencialmente sobre los anillos y almacenando la intensidad de la radiación X, por medio de dos detectores en anillo fijos, luego de que el haz pasa a través del cuerpo. Velocidades de 50 ms por corte son obtenidas, de allí que se requieren
Como se ha podido observar, existe una amplia variedad de técnicas de adquisición de imágenes por tomografía computarizada por rayos X reportadas, siendo hoy día la tomografía computarizada helicoidal, la más ampliamente utilizada en la valoración de la función cardiovascular, debido a que la calidad de estas imágenes puede abiertamente competir con la calidad mostrada en imágenes por resonancia magnética14.
51
Figura 2. Exploración con CT helicoidal de detector sencillo
52
Reconstrucción de imágenes CT Todos los algoritmos convencionales de reconstrucción requieren que durante la exploración, la fuente de rayos X y el detector queden en el mismo plano del corte a ser reconstruido. La tarea del algoritmo de reconstrucción es determinar geométricamente la trayectoria del haz de rayos X que pasan a través del cuerpo. Una amplia variedad de aproximaciones matemáticas al problema de reconstrucción han sido desarrollados, las cuales pueden ser clasificadas en alguna de las siguientes cuatro categorías15: (1) métodos de suma, (2) métodos de expansión en series, (3) métodos basado en transformadas y (4) métodos analíticos directos. El método más usado para la reconstrucción de imágenes CT, es llamado método de convolución o proyección filtrada hacia atrás. El mismo puede ser clasificado en las categorías 1, 3 y 4, pero es esencialmente considerado como un método de solución analítica directa de la ecuación integral derivada de la fórmula básica de proyección. El método está relacionado con un sencillo método de proyección hacia atrás, pero con una significativa diferencia, ya que la borrosidad producida cuando las proyecciones se han solapado, es corregida al filtrar las mismas, al aplicar un proceso de convolución con una función o filtro apropiado, antes de realizar la proyección hacia atrás o suma de las proyecciones16. Diversas metodologías han sido propuestas para la reconstrucción Taguchi y Aradate17, desarrollan un nuevo algoritmo para la reconstrucción de imágenes de CT helicoidal multisección. El algoritmo permite conseguir imágenes de aceptable calidad y resolución espacial a una velocidad de exploración tres veces mayor que CT de sección sencilla. Para CT helicoidal un procedimiento llamado algoritmo de reconstrucción z-filtering ha sido reportado en Hu18 y Hu et al.19. El mismo está basado en interpolación lineal, y de forma general puede ser descrito como la formación de cortes, por la combinación de distintos cortes previamente reconstruidos, con ayuda de una técnica de reconstrucción por interpolación lineal de dos puntos. La técnica algebraica de la reconstrucción (ART)20 es el algoritmo algebraico iterativo más extensamente usado, debido a su simplicidad y eficacia21.
Métodos estadísticos para la reconstrucción iterativa de vistas tomográficas por rayos X, basados en máxima probabilidad (ML) han sido propuestos22. Nuevos algoritmos han sido propuesto, con la idea de acelerar el algoritmo ML original23,24. Existen dos aspectos importantes en los procesos de reconstrucción de imágenes tomográficas por métodos iterativos, el primero de ellos es que el paso de obtener reconstrucciones aproximadas a reconstrucciones exactas puede ser logrado, y segundo, que es posible el incremento de la velocidad de reconstrucción, ya que es posible la utilización de técnicas de procesamiento paralelo para su implantación25. Visualización de imágenes CT Una convención que ha existido desde los inicios de la CT es reemplazar el valor de atenuación calculado para cada voxel en la matriz de reconstrucción con un número entero denominado número CT, el cual es expresado en unidades Hounsfield (HU). La unidad Hounsfield es una escala relativa que permite que los valores de las intensidades sean linealmente relacionados con el coeficiente de atenuación del agua. En esta escala la máxima atenuación es representada con blanco y la mínima atenuación con negro. La Tabla 1 muestra los valores Hounsfield en diferentes medios. Tabla 1. Número CT en diferentes medios MEDIO NÚMERO CT [HU] Hueso [+400,+1000] Tejidos Blandos [+10,+60] Hígado [+40,+60] Materia blanca +43 Materia gris +40 Músculo [+10,+40] Riñones +30 Agua 0 Tejido adiposo [−50,−100] Pulmones [−600,−400] Aire -1000
La Tabla 2 muestra los diversos factores que afectan la calidad de las imágenes de tomografía computarizada. Los cinco primeros problemas han sido resueltos con los avances logrados en el diseño de equipos basados en nuevas tecnologías, como las señaladas en la sección anterior. Los dos últimos, están básicamente relacionados con el problema de la reconstrucción, que como se ha observado es un problema altamente estudiado. Los factores señalados en la Tabla 2 introducen distorsión o error en la imagen. Tales distorsiones se denominan artefactos26. Wolbarst27 describe a los artefactos como aberraciones que surgen en la interfaz de las estructuras que se exploran con propiedades radiológicas significativamente diferentes.
Revista Latinoamericana de Hipertensión. Vol. 12 - Nº 2, 2017 Tabla 2. Factores que afectan la calidad de la imagen CT FACTOR
AFECTACIÓN
Características del haz inicial.
En el caso de que la radiación sea pequeña, pocos fotones incidirán en los detectores y en consecuencia la varianza del número CT entre vóxeles vecinos será bastante grande.
Niveles de energía.
El aumento de los factores técnicos como el mA o kV disminuye el ruido de la imagen, pero se produce un aumento de la dosis de radiación aplicada al paciente.
Número de proyecciones utilizadas.
Incrementar el número total de proyecciones mejora la resolución de la imagen proyectada en el dominio de Radon pero aumenta la dosis de radiación, la cual debe mantenerse en el mínimo posible.
Espesor de la sección explorada
La reducción del grosor de corte supone un aumento de la resolución espacial, así, cuando el grosor de corte es más fino, la imagen posee más definición.
Esparcimiento del haz de rayos X.
Debido a que los fotones emitidos por el tubo de rayos X cubren un amplio rango en la dirección z, los colimadores restringen el flujo de radiación a una estrecha región. Aproximadamente el 99% de los fotones emitidos por el tubo son bloqueados por el colimador.
Tamaño del vóxel en la reconstrucción.
Reducir el tamaño de vóxel (para aumentar el detalle) aumenta el ruido debido a que un menor número de fotones son absorbidos en cada vóxel
Algoritmo de reconstrucción usado.
La reconstrucción de la imagen es la fase en la cual se procesa el conjunto de datos explorados para producir una imagen. La calidad de la imagen digital depende del algoritmo usado en el proceso de reconstrucción.
Las técnicas de visualización se encargan de llevar la información 3D, incluyendo proyecciones integradas al volumen, sobre una ventana bidimensional. Estas técnicas, además del despliege de los datos CT, deben permitir la manipulación y medición efectiva de información intrínseca y relevante contenida en la imagen multidimensional. En imagenología cardiaca por CT, las técnicas de visualización utilizadas abarcan, recomposición multiplanar28,29, rendering de superficies6 y rendering volumétrico28. Para la aplicación de técnicas de rendering de superficie, es necesario previamente obtener una descripción de la estructura. Tal descripción, es generalmente obtenida por la aplicación de técnicas de segmentación de imágenes. Otra forma de crear representaciones de superficies 3D en imagenología CT, es el uso de sombreado por gradiente30. En este método el contraste de la imagen depende, de la orientación de la superficie. Una vez localizada la superficie, la misma es desplegada usando superficies poligonales o superficies de puntos. En la siguiente sección se muestra los avances logrados en segmentación de estructuras cardíacas por CT. Segmentación de imágenes CT La aplicación de técnicas de preprocesamiento tales como segmentación, es necesaria como paso previo a la visualización, análisis y cuantificación, ya que permite la extracción de una descripción de la superficie de las estructuras cardíacas a partir de la imagen tridimensional. Tal descripción es generalmente utilizada como entrada a un procedimiento de rendering de superficies. Adicionalmente, esta descripción es utilizada en la determinación de los parámetros necesarios para la cuantificación de la función cardiovascular. Diversas metodologías han sido propuestas para mejorar los algoritmos de segmentación de imágenes en cardiología CT. Higgins et al.31, proponen un método basado en morfología matemática 3D, filtros de homogeneidad máxima y
umbralización adaptativa para la extracción de la cavidad ventricular izquierda. McInerney y Terzopoulos32, aplican la teoría de modelos deformables para la segmentación del LV en imágenes CT. Un modelo deformable dinámico por elementos finitos, topológicamente isomorfo a una esfera, denominado balón (balloon model), es considerado como un spline de placa delgada (thin–plate spline). Las fuerzas internas del spline representan los esfuerzos en la superficie del balón y se encarga de imponer la restricción de suavidad en la superficie, mientras que las fuerzas externas del modelo, representadas por el gradiente de las intensidades, fuerza de inflación del balón, y restricciones impuestas interactivamente por el usuario (resortes y puntos fijos), se encargan de ajustar la superficie al LV en la imagen CT. Staib y Duncan33, usan un modelo de parametrización de formas para representar las deformaciones de los objetos en imágenes médicas. La superficie endocárdica del LV es descompuesta por funciones sinusoidales, y su suavidad es controlada por la disminución del número de armónicos de la expansión en series de Fourier. Modelos deformables definidos implícitamente, llamados modelos deformables geodésicos, también han sido aplicados para la segmentación de imágenes cardíacas por CT34. Este tipo de modelos controlan los cambios topológicos, ya que son una representación implícita de los modelos deformables clásicos, pero en imágenes con bordes de bajo contraste o con huecos en los mismos, generalmente se verifican cambios topológicos no deseados y no controlados. Avances en cardiología CT En los últimos años, los sistemas de tomografía computarizada helicoidal multisección han sido introducidos28, ampliamente estudiados y aplicados en imagenología cardiaca 3D.
53
6.1. Tomografía Computarizada Helicoidal Multisección La tomografía computarizada multicapa (MultiSlice Computed Tomography–MSCT) es probablemente el término más comúnmente utilizado para describir los últimos desarrollos en CT helicoidal. Esta tecnología se basa en la adquisición simultánea de más de un solo plano tomográfico y está estrechamente relacionada con la introducción de sistemas de adquisición con múltiples detectores (Figura 3). Figura 3. Exploración con MSCT helicoidal
54
eje longitudinal, permitiendo explorar secciones muy finas en fases arbitrarias del ciclo cardíaco. Para conseguir imágenes de alta calidad, es necesario reducir los efectos introducidos por el movimiento cardíaco, para ello el ritmo del corazón debe ser considerablemente bajo. Los artefactos debidos a movimiento aparecen considerablemente en pacientes con ritmos cardiacos de más de 70 beats/min que en pacientes con ritmos cardiacos más bajos36. Recientemente, se han realizado estudios que evidencian que la reducción de la frecuencia cardiaca por medio de la administración de β–bloqueadores mejora la calidad de la imagen de angiografía por CT37. Adicionalmente, se hace necesario que los retardos en la activación de la adquisición (intervalo R–R), determinados por el sistema de sincronización con el ECG, sean seleccionados apropiadamente dependiendo de la frecuencia cardiaca del paciente29. Básicamente existen dos tipos de sistemas de detección, los cuales permiten el registro simultáneo de cortes tomográficos:
Esta modalidad permite obtener una alta resolución espacial (sub–milimétrica), la cual con una reconstrucción por pos–sincronización sobre el ECG, proporciona una resolución temporal explotable (20 fases temporales por ciclo cardiaco) para la representación de imágenes cardiacas 4D (3D + tiempo). En la actualidad, esta modalidad de imagen scanner es usada en rutina clínica para la evaluación del árbol coronario arterial, y representa además un interés para la cuantificación de la función cardiaca y de la masa ventricular. Desarrollar el análisis de tales imágenes es una tarea difícil debida por una parte a los artefactos de reconstrucción (movimientos rápidos, variación de la frecuencia cardiaca), a la variación del nivel de gris en las imágenes durante el ciclo cardiaco (propagación del producto de contraste y la reconstrucción a partir de varios ciclos) y a la variabilidad entre pacientes. La ubicación y orientación del corazón en el tórax, la variación del campo de vista (FOV) así como la variación de la cobertura cranio–caudal pueden introducir dificultades en el análisis35. Tratar las imágenes de scanner implica igualmente como dificultad el hecho de poder tratar volúmenes importantes de datos dentro de los límites de tiempo compatibles con un uso en clínica. Sistemas mecánicos multisección de CT helicoidad sincronizada con el ECG, con capacidad de adquisición simultánea de cuatro secciones, tiempo de rotación de medio segundo y 250 ms de resolución temporal máxima, han sido recientemente utilizados con el propósito de exploración cardiaca por CT28. Esta técnica permite, por su considerable velocidad, cubrir todo el volumen cardíaco, en comparación con un sistema de exploración de sección sencilla. El incremento de la velocidad de exploración permite la incorporación de secciones finamente colimadas, con lo cual se logra un incremento en la resolución a lo largo del
1. General Electric Medical Systems (GE) presenta una solución técnica la cual posee un arreglo de 16 detectores individuales cada uno de 1.25 mm de ancho38. Esto permite que el espesor de cada corte sea como mínimo 1.25 mm. Adicionalmente, los detectores pueden combinarse para que cada uno de los 4 cortes simultáneos tengan espesor de 2.5 mm, 3.75 mm o 5 mm, como se muestra en la Figura 4a. Este tipo de arreglos se denominan arreglos isotrópicos39. 2. Una solución alternativa la cual representa en principio un enfoque similar al de GE, pero que procura reducir al mínimo la cantidad de detectores fue desarrollado por Siemens en cooperación con Elscint. El diseño fue llamado arreglo adaptativo y se muestra en la Figura 4b, sólo los detectores más internos son definidos de un ancho de 1 mm. Es posible con este tipo de arreglos definir espesores de 2 cortes de 0.5 mm, cuatro cortes de 1 mm, 2.5 mm y 5 mm39.
Revista Latinoamericana de Hipertensión. Vol. 12 - Nº 2, 2017
Figura 4. Sistemas de detección de tomografía computarizada. (a) Arreglo Isotrópico. (b) Arreglo Adaptativo
55
El principio de reconstrucción de las imágenes de MSCT es idéntico al principio utilizado en tomografía helicoidal, sin embargo etapas adicionales de preprocesamiento son necesarias39. Tales etapas no serán discutidas en este trabajo ya que no es el objetivo del mismo. Amplias revisiones sobre el tema pueden ser encontrados en Seeram40,39,41. El aumento en velocidad de exploración se puede utilizar exclusivamente para reducir el tiempo de la exploración, o la capacidad de exploración más rápida se puede inter-
cambiar para obtener colimación más fina, obteniéndose una resolución espacial más alta. Los cambios en estos dos parámetros no son mutuamente excluyentes. A menudo, una combinación en reducción del tiempo de exploración y de incremento de la resolución espacial es ventajosa. Las ventajas de un sistema de adquisición por MSCT frente a otro tipo de tecnología en tomografía computarizada de acuerdo con Rydberg et al.42, Hu et al.43 y Kelly et al.44, pueden resumirse en la Tabla 3.
Tabla 3. Ventajas de los sistemas de adquisición de MSCT VENTAJA
EFECTO
Mejora en la resolución temporal.
Exploración más rápida resulta en una disminución de los artefactos debidos a los movimientos voluntarios e involuntarios. Los tiempos de respiración sostenida son reducidos
Mejora en la resolución espacial en el eje Z.
Secciones finas mejoran la resolución en el eje Z (a lo largo de la mesa) reduciendo los artefactos en el volumen y aumentando la exactitud diagnostica.
Incremento en la concentración de material de contraste intravascular.
Debido a que la exploración se hace más rápidamente, el material de contraste puede administrarse de forma más rápida, mejorándose así la visualización de las arterias, venas, y las condiciones patológicas evidenciadas con el flujo de sangre. Se logra una importante mejora en la visualización de las fases arterial y venosa.
Disminución del ruido.
La región explorada del paciente es mayor en cada rotación, por lo tanto para estudios en los cuales la región de exploración es grande, la corriente del tubo de rayos X puede ser más alta que la registrada en los sistemas de una sola sección. Valores altos de corriente reducen el ruido en la imagen, mejorando su calidad, los cuales son parámetros críticos en los estudios para la exploración de regiones grandes mediante secciones muy delgadas, especialmente en pacientes grandes.
Uso eficiente del tubo de rayos X.
Tiempos de exploración cortos disminuyen el calentamiento del tubo de rayos X, con lo cual se elimina o en su defecto se disminuye los retardos de enfriamiento del tubo al período entre las exploraciones. Se producen más imágenes durante el período de vida ´útil del tubo, disminuyéndose así los costos operativos.
Mayor cobertura anatómica.
Una gran ventaja de los sistemas multisección frente a los sistemas de sección sencilla es que los primeros permiten realizar una cobertura anatómica más amplia. Esto se debe al registro simultáneo de varias secciones durante cada rotación y al incremento en la velocidad de rotación del gantry. La cobertura puede ser hasta ocho veces mayor que la obtenida en CT helicoidal de sección sencilla en el mismo tiempo de la exploración.
Los avances tecnológicos en tomografía computarizada multicapa han permitido tanto el desarrollo de nuevas aplicaciones clínicas como el mejoramiento de
un conjunto de aplicaciones ya existentes45,46,47,48. Tales aplicaciones clínicas en cardiología se resumen en la Tabla 4.
Tabla 4. Aplicaciones en cardiología de la MSCT APLICACIÓN
56
DESCRIPCIÓN
Angiografía por CT.
MSCT aumenta la capacidad diagnóstica de la angiografía por tomografía computarizada ya que: a) permite la realización de estudios multifase del sistema cardiovascular, las fases arterial y venosa pueden ser analizadas debido a la rápidos tiempos de exploración y al uso óptimo del contraste; b) delínea con exactitud las arterias debido a la mejora en la resolución espacial en el Z; y c) la exploración prolongada y el volumen que puede ser cubierto en la exploración mejora la angiografía periférica.
Imagenología 3D.
MSCT ha introducido importantes avances en imagenología 3D debido a la combinación de factores como isotropía en las imágenes, lo que resulta en una disminución de la pérdida de resolución en el eje Z.
Evaluación de perfusión en el cerebro.
Capas múltiples de CT dinámica pueden ser usadas en la valoración y ubicación de las regiones de isquemia cerebral.
Imagenología cardiaca.
El incremento tanto en la resolución espacial como en la temporal, ha permitido el desarrollo de métodos para la valoración del movimiento y las deformaciones asociadas a las paredes de las cavidades del corazón, teniendo como objetivo la cuantificación de la función cardiaca. La Figura 5 muestra imágenes 2D de estructuras cardiacas.
Figura 5. Cortes tomográficos del tórax
exploración con tomografía helicoidal fue iniciada con adquisiciones simultáneas de cuatro secciones colimadas de 1mm, con una velocidad de la mesa del paciente de 3.6 mm/s y tiempo de rotación de 500 ms. Durante la exploración helicoidal, el ECG es digitalmente registrado y almacenado. Los datos de CT helicoidal y el ECG fueron usados para reconstruir retrospectivamente las imágenes transversales, con una resolución temporal constante de 250 ms por sección. Así, distintas reconstrucciones son realizadas, dependiendo del porcentaje del intervalo R-R, luego de la previa onda R, que es utilizado para iniciar la reconstrucción, 30%, 40%, 50%, 60%, 70% y 80% del R-R son utilizados como retardos. La interpretación independiente de las angiografías transversales, es realizada por dos expertos cardiólogos. El árbol coronario fue analizado con base en el modelo sugerido por la American Heart Association (AHA), el cual incluye la arteria coronaria derecha (RCA), anterior izquierda descendente (LDA) y la circunfleja izquierda (LCx).
En trabajos como el reportado por Hong et al.29, se evalúa la efectividad de la reconstrucción retrospectiva de imágenes electrocardiográficamente sincronizadas para angiografía coronaria por CT, en la reducción de los defectos causados por el movimiento cardiaco y en la evaluación de la influencia del ritmo cardiaco en la calidad de las imágenes. La esencia de la técnica es la reconstrucción en el punto del ciclo cardiaco en el cual se verifique el mínimo movimiento. La angiografía CT es realizada con un multidetector Somatom Volume Zoom (Siemens Medical Systems), y la reconstrucción con software comercial HeartView también de Siemens. En este sentido, las arterias coronarias son realzadas con material de contraste no iónico, inyectado a 3 mL/s. La
Sobre cada una de las imágenes retrospectivamente reconstruidas, de acuerdo con el instante de activación del ECG, determinado por el porcentaje del R-R seleccionado, son delicadamente delineadas las tres arterias mayores, tal resultado es comparado con el modelo de la AHA. Para la valoración de la calidad de la imagen, se utiliza una escala de cinco puntos, que va de alta calidad (5) a la no posible identificación de las estructura (1). Un valor superior a 4 es considerado aceptable en términos de calidad de la imagen. Los valores medios para todos los pacientes son correlacionados con los retardos; por otra parte, la correlación entre el ritmo cardiaco y la calidad de la imagen es determinada por el coeficiente de correlación de Spearman. La
Revista Latinoamericana de Hipertensión. Vol. 12 - Nº 2, 2017
calidad máxima fue encontrada en retardos de 50% para RCA, y 60% LCx, para LDA 50% y 60% se obtienen los mismos valores.
función cardiaca. La exactitud de los índices clínicos obtenidos es comparable con los resultados reportados en la literatura.
Según el coeficiente de Spearman, se muestra una correlación negativa entre el ritmo cardiaco y la calidad de la imagen, de allí que la calidad de la imagen disminuye a medida que incrementa el ritmo cardiaco en la mayoría de las arterias coronarias.
Van Assen et al.53 desarrollan un método semi–automático para la segmentación basado en un modelo de forma activa tridimensional. El método tiene la ventaja de ser independiente de la modalidad imagenológica. La forma de LV fue obtenido para todo el ciclo cardiaco en secuencias tridimensionales de MRI y CT. La distancia punto a punto fue una de la métricas utilizadas para la validación, obteniendo errores en las secuencias de CT de 1.85 mm.
Giesler et al.36 realizan otro estudio sobre la influencia del ritmo cardiaco sobre la calidad de la imagen y detección de estenosis en CT multidetector. Ellos concluyen que CT multidetector puede revelar la estenosis coronaria, pero la utilidad de esta técnica como herramienta de apoyo en su evaluación, disminuye a medida que el ritmo cardiaco del paciente aumenta. 6.2. Segmentación de Estructuras Cardiacas Un modelo híbrido para la detección del ventrículo izquierdo en tomografía computarizada (CT) ha sido propuesto por Chen et al.49. El modelo acopla un segmentador basado en modelos a priori de Gibbs y modelos deformables usando un modelo de cubos marchantes (marching cubes). Una fuerza externa basada en gradiente es considerada para alcanzar la convergencia. Ocho estudios de CT se utilizan para probar el enfoque. Los resultados obtenidos en datos 3D reales revelan el buen comportamiento del método. Fleureau et al.50 y Fleureau et al.51 proponen una nueva técnica de propósito general, semi–automática y multi– objeto en imágenes n–dimensionales, aplicada para la extracción de las estructuras cardíacas en MSCT. El propósito del enfoque es usar un esquema multi–agente combinado con un clasificador supervisado a objeto de introducir información a priori y obtener rápidos tiempos de cómputo. El sistema multi–agente se organiza en torno a un agente de comunicación que gestiona una población de agentes (asocia los objetos de interés) encargada de segmentar la imagen a través de interacciones cooperativas y competitivas. La técnica propuesta ha sido probada en varios conjuntos de datos de pacientes, proporcionando los primeros resultados para extraer estructuras cardíacas tales como ventrículo izquierdo, aurícula izquierda, ventrículo derecho y la aurícula derecha. Sermesant et al.52 presentaron un modelo 3D de los ventrículos del corazón que acoplan funciones eléctricas y biomecánicas. Tres tipos de datos se utilizan para construir el modelo: la geometría de miocardio es obtenida a partir de un corazón canino, la orientación de las fibras musculares, y los parámetros de la actividad electrofisiológica son extraídos de las ecuaciones de Fitzhugh–Nagumo. El modelo permite simular la dinámica ventricular considerando la función electromecánica del corazón. Este modelo también se utiliza para la segmentación de secuencias de imágenes seguida por la extracción de los índices de
Un esquema basado en modelos para la detección de las estructuras del corazón es reportado por Ecabert et al.35. El corazón es representado mediante un modelo de rejillas triangulares, incluyendo las aurículas, los ventrículos, el miocardio y los grandes vasos. El modelo del corazón es localmente aproximado a la forma real del órgano usando transformada generalizada de Hough en tres dimensiones. Finalmente, para detectar la anatomía cardiaca son utilizadas adaptaciones paramétricas y deformables sobre el modelo. El error punto a superficie cuando el método basado en modelo es aplicado a 28 volúmenes de CT fue de 0.82 ± 1.00 mm. Bravo et al.54 segmentan los ventrículos del corazón en secuencias de MSCT. El proceso de segmentación se realiza en el espacio tridimensional con el objetivo de garantizar la extracción las todas las características topológicas de las cavidades cardiacas. Los secuencias de MSCT son realzadas usando un esquema de filtrado basado en operadores morfológicos para, posteriormente, ser segmentadas con la aplicación de una técnica de crecimiento de regiones de enlace híbrido. Los resultados obtenidos sobre datos reales muestran la capacidad del método de extraer las mencionadas cavidades con una alta exactitud clínica. Huérfano et al.55 proponen una estrategia para la segmentación automática de la aurícula derecha (RA) usando los 20 instantes del ciclo cardiaco de un paciente en imágenes cardiacas 3D, de tomografía computarizada multi-corte. Tal estrategia está basada en la técnica de similaridad global y consta de las etapas de preprocesamiento, segmentación y entonación de parámetros. La etapa de preprocesamiento se divide en dos fases denominadas filtrado y definición de una región de interés. Durante la segmentación de la RA se consideran las imágenes preprocesadas y una técnica basada en crecimiento de regiones (RG) la cual es inicializada usando un vóxel detectado con máquinas de soporte vectorial de mínimos cuadrados. Durante la entonación de parámetros, se usó el Dc para comparar las segmentaciones de la RA y la segmentación generada, manualmente, por un cardiólogo. Se obtuvo un Dc promedio superior a 0.82 lo cual indica una buena correlación entre las segmentaciones generadas por un experto cardiólogo y las producidas por la estrategia desarrollada.
57
58
Vera et al.56 presentan una técnica para la segmentación automática de la aurícula izquierda en 10 imágenes cardiacas 3D de tomografía computarizada multi-corte, pertenecientes a un mismo sujeto. La mencionada técnica consta de las etapas de preprocesamiento y segmentación. En la etapa de preprocesamiento se emplea una técnica denominada realce por similaridad global. Por otra parte, para generar la morfología 3D de la aurícula izquierda, se aplicó una etapa de segmentación la cual considera las imágenes pre-procesadas y un algoritmo de agrupamiento basado en crecimiento de regiones. Para cuantificar el desempeño de la referida técnica se consideró el coeficiente de Dice obteniéndose una buena correlación entre las segmentaciones automáticas y las manuales generadas por un cardiólogo. Vera et al.57 desarrollaron una técnica para la segmentación automática de la arteria aorta torácica (TAA), denominada también aorta externa descendente, en 10 imágenes cardiacas 3D de tomografía computarizada multicorte, pertenecientes a un mismo sujeto. La mencionada técnica consta de las etapas de filtrado y segmentación. La etapa de filtrado, denominada realce por similaridad global. Este tipo de realce consiste en la aplicación de un banco de filtros, suavizadores y un detector de bordes. Por otra parte, para generar la morfología 3D de la TAA, se aplicó una etapa de segmentación en la cual se consideraron las imágenes filtradas y un algoritmo de agrupamiento basado en crecimiento de regiones. La estrategia propuesta generó las segmentaciones 3D de la TAA en todas las imágenes que conforman el ciclo cardiaco completo del sujeto considerado. Para cuantificar el desempeño de la referida técnica se consideró el coeficiente de Dice obteniéndose una buena correlación entre las segmentaciones automáticas y las manuales generadas por un cardiólogo. Huérfano et al.58 presentaron una estrategia para la segmentación tridimensional (3D) de la válvula pulmonar en 20 imágenes cardiacas de tomografía computarizada multicapa, correspondientes al ciclo cardiaco completo de un sujeto. La mencionada estrategia consta de las etapas de preprocesamiento, segmentación y entonación de parámetros. La etapa de preprocesamiento se aplica, preliminarmente, al instante de diástole final y se divide en dos fases denominadas: Filtrado y Definición de una región de interés (ROI). Durante la etapa de segmentación 3D, de la arteria pulmonar, se implementó un algoritmo de agrupamiento denominado crecimiento de regiones (RG) el cual se aplicó a las imágenes pre-procesadas. Durante la entonación de parámetros usaron una métrica, denominada Dc, la cual arrojó un valor promedio comparable con el reportado en la literatura especializada. Huérfano et al.59 proponen una estrategia para la segmentación tridimensional de la vena cava superior (SVC) en 20 imágenes cardiacas de tomografía computarizada multicapa, correspondientes al ciclo cardiaco completo de un
sujeto. Esta estrategia está basada en la técnica de realce por similaridad global y consta de las etapas de preprocesamiento, segmentación y entonación de parámetros. El pre-procesamiento se aplica, preliminarmente, al instante de diástole final y se divide en dos fases denominadas: Filtrado y Definición de una región de interés. Para la segmentación, de la SVC, se implementó el algoritmo de crecimiento de regiones el cual es aplicado a las imágenes pre-procesadas y se inicializó con un vóxel detectado con máquinas de soporte vectorial de mínimos cuadrados. Durante la entonación de parámetros, se usó el Dc para comparar las segmentaciones automáticas y manuales obteniéndose un Dc promedio superior a 0.9 lo cual indica una excelente correlación entre las segmentaciones generadas por un experto cardiólogo y las producidas por la estrategia desarrollada. 6.3. Estimación del Movimiento de la Pared Ventricular Fan y Chen60 presentan un esquema basado en la integración de la mecánica de medios continuos y teoría de estimación para caracterizar el movimiento complejo no rígido del ventrículo izquierdo sobre secuencias de imágenes 3D obtenidas por CT de alta velocidad. El esquema propuesto es implantado en forma jerárquica tal que, el movimiento local, global y las deformaciones puedan ser analizadas. El movimiento global y las deformaciones son analizados y compensados por la aplicación de modelos basados en superficies de Chen. El modelo de estimación del movimiento local, asume que secciones finas de la superficie endocárdica pueden ser consideradas como un medio incompresible, el cual puede ser caracterizado por las restricciones de incompresibilidad de la mecánica de medios continuos. Estas restricciones son integradas con funciones de correlación derivadas de la teoría de estimación. Las funciones de correlación son calculadas a partir de las intensidades de las imágenes originales, y pueden ser usadas como medidas de la correspondencia de la estimación. La estimación óptima de las deformaciones locales es obtenida por la minimización de una función objetivo, construida como la suma ponderada de la incompresibilidad, la restricción de suavidad de movimiento con la correspondiente función de correlación. El esquema propuesto está entonces basado en un modelofísico, capaz de generar vectores de movimiento 3D consistentes para secuencias de imágenes cardíacas. Shi et al.61 proponen y validan la hipótesis de que el uso de las propiedades de formas diferenciales de la superficie del miocardio, permite el seguimiento de la trayectoria de los campos de desplazamiento 3D densos, de puntos sobre la superficie en todo el ciclo cardiaco. El criterio de seguimiento está basado en la localización y la correspondencia de las características de la superficie por geometría diferencial, así como en una estrategia de optimización por razonamiento matemático, que combina el criterio de correspondencia con un modelo de suavidad localmente coherente, que se encarga de estimar la curvatura de la
Revista Latinoamericana de Hipertensión. Vol. 12 - Nº 2, 2017
Un enfoque para la estimación del campo de deformaciones asociados a la pared ventricular a partir de imágenes cardiacas en cuatro dimensiones (4-D: 3D+t) de tomografía computarizada multicapa es presentado en Bravo et al.62 y Bravo et al.63. Un algoritmo de correspondencia es aplicado a las superficies que representan las paredes endocardica y epicardica extraídas a partir de una base de datos de imágenes en 4–D. Los mapas de correspondencia obtenidos, permiten establecer la relación temporal entre los puntos que definen las superficies ventriculares sobre todo el ciclo. De acuerdo con esa relación, el campo de desplazamientos es obtenido, y a partir de tal información una descripción funcional del movimiento y las deformaciones de la cavidad ventricular es de terminada en términos de par ́metros globales y locales, como volumen ventricular, índices de contracción radial e índice de torsión. El enfoque desarrollado puede considerarse como un enfoque general de acuerdo con el tipo de modalidad de imagenología 4–D utilizada, debido a que la utilización de la información asociada a las intensidades en cada imagen, está solamente contemplada en el proceso de extracción de las superficies ventriculares. El error promedio obtenido al comparar los resultados del campo de deformaciones reconstruido respecto al campo de deformaciones verdadero es del orden de 2.69 mm sobre todos los modelos desarrollados. 6.4. Estimación del Movimiento de la Red Coronaria La determinación de la velocidad de movimiento de las arterias coronarias durante el ciclo cardiaco con EBCT, ha sido propuesta. Achenbach et al.64 desarrollan un nuevo método para determinar el movimiento en el plano, con base en imágenes de EBCT adquiridas en modo cine del corazón. Los resultados demuestran la alta variabilidad de la velocidad de las arterias coronarias durante el ciclo cardiaco. Los patrones fueron diferentes para cada una de las arterias coronarias mayores, probablemente debido a su disposición anatómica. Adicionalmente, se demuestra que los períodos de movimiento relativamente suaves son
encontrados durante la relajación isovolumétrica y durante la segunda mitad de la fase diastólica.
Conclusiones
superficie endocárdica. Esta metodología basada en formas, permite la exacta y objetiva cuantificación de la función dinámica regional y global del ventrículo izquierdo del corazón a partir de imágenes CT 3D. Mediciones de las superficies endocárdica y epicárdica, que incluyen la longitud total de la trayectoria, así como los vectores de desplazamiento con respecto a un estado cardiaco conocido como por ejemplo diástole final, permite estimar la sinergia ventricular. Mediciones del espesor de la pared, son calculadas usando la magnitud de los vectores que cruzan las superficies endocárdica y epicárdica. Es posible adicionalmente estimar, el estrés o esfuerzo y la curvatura de la superficie ventricular. Para validar los resultados de la trayectoria del movimiento obtenidos por el algoritmo basado en formas, se utiliza como estándar a los marcadores de trayectorias, el cual es comparado con el algoritmo reportado sobre estudios agudos en perros.
a tomografía computarizada por rayos X, en las últimas dos décadas, ha constituido la modalidad imagenológica 3D, para el análisis y determinación de la función cardiovascular, que más desarrollos tecnológicos ha tenido. Considerables mejoras en la velocidad de exploración de los sistemas de adquisición se han presentado, lo que conduce al diseño e implantación de nuevas metodologías en los procesos de reconstrucción, permitiendo el desarrollo de nuevas herramientas computacionales para la cuantificación de parámetros asociados a la función dinámica de las estructuras cardiovasculares, con la única idea de mejorar la capacidad diagnóstica del daño que puede presentarse en tales estructuras. Sin embargo, existen áreas en el análisis y determinación de función cardiovascular que no han sido exploradas con esta técnica imagenológica, como por ejemplo la perfusión miocárdica, y otras en las que no se ha conseguido un estándar, como la baja calidad de la imagen debido a los defectos causados por el movimiento. En tal sentido, en cardiología 3D por tomografía computarizada por rayos X existen diversos problemas que pueden motivar amplios trabajos de investigación. Agradecimientos El presente trabajo cuenta con el financiamiento del Decanato de Investigación de la Universidad Nacional Experimental del Táchira, San Cristóbal, Venezuela.
Referencias 1. Hajnal JV, Hill DLG, Hawkes DJ. Medical Image Registration. Philadelphia: CRC Press LLC; 2001. 2. Boyd DP, Farmer DW. (1980). Cardiac computed tomography. En: Collins S, Skorton D. eds. Cardiac Imaging and Image Processing. New York: McGraw Hill Book Company; 1980:57–87. 3. Robb RA, Morin ML. Principles and instrumentation for dynamic X–ray computed tomography. En: Marcus M, Schelbert H, Skorton D, Wolf G. editors: Cardiac Imaging. A Companion to Braunwald’s Heart Disease. Philadelphia: W.B. Saunders Company; 1991:634–668. 4. Boyd DP, Haugland C. Recent progress in electron beam tomography. Medical Imaging Technology. 1993; 11(4):578–585. 5. Budoff MJ, Georgiou D, Brody A, Agatston AS, Kennedy J, Wolfkiel C, Rich S. Ultrafast computed tomography as a diagnostic modality in the detection of coronary artery disease. Circulation. 1996; 93(5): 898-904. 6. Moshage WEL, Achenbach S, Seese B, Bachmann K. y Kirchgeorg M. Coronary artery stenoses: Three–dimensional imaging with electrocardiographically triggered, contrast agent–enhanced, electron–beam CT. Radiology. 1995; 196(3):707–714. 7. Arad Y, Spadaro LA, Goodman K, Lledo-Perez A, Sherman S, Lerner G, Guerci AD. Predictive value of electron beam computed tomography of the coronary arteries. Circulation. 1996; 93(11):1951–1953.
59
8. Kalender WA, Sissler W, Klotz E, Vock P. Spiral volumetric CT with single– breath–hold technique, continuos transport, and continuos scanner rotation. Radiology. 1990; 176(1):181–183. 9. Heiken JP, Brink JA, Vannier MW. Spiral (helical) CT. Radiology. 1993; 189(3):647–656. 10. Baskin KM, Stanford W, Thompsom BH, Tajik J, Heery SD, Hoffman EA. Helical versus electron–beam CT in assessment of coronary artery calcification. Radiology. 1995; 197(1):182–185. 11. Becker C, Jakobs TF, Aydemir, S. Helical and single–slice conventional CT versus electron–beam CT for quantification of coronary artery calcification. American Journal of Roentgenology. 2000; 174(1):1–5.
60
12. Eggen DA, Strong JP, McGill HC. Coronary calcification: relationship to clinically significant coronary lesions and race, sex, and topographic distribution. Circulation. 1965; 32(5):948–955. 13. Mochizuki T, Murase K, Higashino H, Koyama Y, Doi M, Miyagawa M, Nakata S, Shimizu K. y Ikezoe J. Two– and three– dimensional CT ventriculography: A new application of helical CT. American Journal of Roentgenology. 2000; 174(1):203–208. 14. Frangi AJ, Niessen WJ, Viergever MA. Three–dimensional modeling for functional analysis of cardiac images: A review. IEEE Transactions on Medical Imaging. 2001; 20(1):2–25. 15. Brooks RA, Chiro GD. Theory of image reconstruction in computed tomography. Radiology. 1975; 117:561–572. 16. Gore JC, Orr JS. Image formation by back-projection: A reappraisal. Physics in Medicine and Biology. 1979; 24(4):793–801. 17. Taguchi K, Aradate H. Algorithm for image reconstruction in multi–slice helical CT. Medical Physics. 1998; 25(5):550–561. 18. Hu H. Multi-slice helical CT: Scan and reconstruction. Medical Physics. 1999; 26(1):5–18. 19. Hu H, Pan T, Shen Y. Multi–slice helical ct: Image temporal resolution. IEEE Transactions on Medical Imaging. 2000b; 19(5):384–390. 20. Gordon R, Bender R, Herman G. Algebraic reconstruction techniques (ART) for three–dimensional electron microscopy and X–ray photography. Journal of Theoretical Biology. 1970; 29(9):471–482. 21. Jiang M, Wang G. Convergence studies on iterative algorithms for image reconstruction. IEEE Transactions on Medical Imaging. 2003; 22(5):569– 579. 22. Lange K, Carson R. EM reconstruction algorithms for emission and transmission tomography. Journal of Computed Assited Tomography. 1984; 8(3):306–316. 23. Lange K, Fessler JA. Globally convergent algorithms for maximum a posteriori transmission tomography. IEEE Transactions on Image Proceesing. 1995; 4(10):1430–1438. 24. Fessler JA, Ficaro EP, Clinthorne NH, Lange K. Gruoped–coordinate ascent algorithms for penalized–likelihood transmission image reconstruction. IEEE Transactions on Medical Imaging. 1997; 16(2):166–177. 25. Wang G, Crawford CR. Guest editorial: Multirow detector and conebeam spiral/helical CT. IEEE Transactions on Medical Imaging. 2000; 19(9):817–820. 26. Morgan C. Physics of Radiology. Baltimore: University Park Press; 1983. 27. Wolbarst A. Basic Principles of Computed Tomography. St. Norwalk: Appleton & Lange; 1993.
2001; 220(3):712–717. 30. Cline HE, Lorensen WE, Ludke S, Crawford CR, Teeter BC. Two algorithms for three–dimensional reconstruction of tomograms. Medical Physics. 1988; 15(3):320–327. 31. Higgins WE, Chung N, Ritman EL. Extraction of left–ventricular chamber from 3–D CT images of the heart. IEEE Transactions on Medical Imaging. 1990; 9(4):384–395. 32. McInerney T, Terzopoulos D. A dynamic finite element surface model for segmentation and tracking in multidimensional medical images with application to cardiac 4D image analysis. Computerized Medical Imaging and Graphics. 1995; 19(1):69–83. 33. Staib L, Duncan JS. Model–based deformable surface finding for medical images. IEEE Transactions on Medical Imaging. 1996; 15(5):720–731. 34. Niessen WJ, ter Haar Romeny BM, Viergever MA. Geodesic deformable models for medical image analysis. IEEE Transactions on Medical Imaging. 1998; 17(4):634–641. 35. Ecabert O, Peters J, Schramm H, Lorenz C, Berg JV, Walker M, Vembar M, Olszewski M, Subramanyan K, Lavi G, Weese J. Automatic model–based segmentation of the heart in CT images. IEEE Transactions on Medical Imaging. 2008; 27(9):1189–1201. 36. Giesler T, Baum U, Ropers D, Ulzheimer S, Wenkel E, Mennicke M, Bautz W, Kalender WA, Daniel WG, Achenbach S. Noninvasive visualization of coronary arteries using contrast-enhanced multidetector CT: Influence of heart rate on image quality and stenosis detection. American Journal of Roentgenology. 2002; 179(5):911–916. 37. Shim SS, Kim Y, Lim SM. Improvement of image quality with–blocker premedication on ECG–gated 16–MDCT coronary angiography. American Journal of Roentgenology. 2005; 184(2):649–654. 38. General Electric. Advanced CT. A GE HealthCare Publication. 2004; páginas 49–59. 39. Fuchs T, Kachelriess M, Kalender W. Systems performance multislice spiral computed tomography. IEEE Engineering in Medicine and Biology Magazine. 2000; 19(5):63–70. 40. Seeram E. Computed Tomography: Physical Principles, Clinical Applications, and Quality Control. New York: WB. Saunders Company; 2001. 41. Kalender W. Computed Tomography: Fundamentals, System Technology, Image Quality and Applications. Munich: Publicis MCD Verlag; 2000. 42. Rydberg J, Buckwalter KA, Caldemeyer KS, Phillips MD, Conces DJ, Aisen AM, Persohn SA, Kopecky KK. Multisection CT: Scanning techniques and clinical applications. RadioGraphics. 2000; 20(6): 1787–1806. 43. Hu H, He HD, Foley WD, Fox SH. Four multidetector–row helical CT: Image quality and volume coverage speed. Radiology. 2000a; 215(1):55– 62. 44. Kelly DM, Hasegawa I, Borders R, Boiselle PM, Hatabu H. High-resolution CT using MDCT: Comparison of degree of motion artifact between volumetric and axial methods. American Journal of Roentgenology. 2004; 182(3):757–759. 45. Schoenhagen P, Halliburton SS, Stillman AE, Kuzmiak SA, Nissen SE, Tuzcu EM, White RD. Noninvasive imaging of coronary arteries: Current and future role of multidetector row CT. Radiology. 2004; 232(1):7–17. 46. Boiselle PM, Ernst A. Recent advances in central airway imaging. Chest. 2002; 121(5):1651–1660.
28. Ohnesorge B, Flohr T, Becker C, Kopp AF, Schoepf UJ, Baum U, Knez A, Klingenbeck-Regn K, y Reiser MF. Cardiac imaging by means of electrocardiographically gated multisection spiral CT: Initial experience. Radiology. 2000; 217(2):564–671.
47. Hoffmann MHK, Shi H, Schmitz BL, Schmid FT, Lieberknecht M, Schulze R, Ludwig B, Kroschel U, Jahnke N, Haerer W, Brambs H-J, Aschoff AJ. Noninvasive coronary angiography with Multislice Computed Tomography. The Journal of the American Medical Association. 2005; 293(20):2471–2478.
29. Hong C, Becker C, Huber A, Schoepf UJ, Ohnesorge B, Knez A, Rr¨uning, Reiser MF. ECG–gated reconstructed multi–detector row CT coronary angiography: Effect of varying trigger delay on image quality. Radiology.
48. Katz DS, Hon M. CT angiography of the lower extremities and aortoiliac system with a multi–detector row helical CT scanner: Promise of new opportunities fulfilled. Radiology. 2001; 221(1):7–10.
Revista Latinoamericana de Hipertensión. Vol. 12 - Nº 2, 2017 49. Chen T, Metaxas DN, Axel L. 3D cardiac anatomy reconstruction using high resolution ct data. En: Barillot C, Haynor DR, Hellier P. (eds). MICCAI (1). Springer: volumen 3216 de Lecture Notes in Computer Science; 2004: 411–418. 50. Fleureau J, Garreau M, Hernáde, A, Simon A, Boulmier D. (2006). Multi– object and N–D segmentation of cardiac MSCT data using SVM classifiers and a connectivity algorithm. Computers in Cardiology, páginas 817–820. 51. Fleureau J, Garreau M, Hernádez A, Simon A, Boulmier D. (2007). 3D multi–object segmentation of cardiac MSCT imaging by using a multi– agent approach. 29th Conference IEEE EMBS, páginas 817–820. 52. Sermesant M, Delingette H, Ayache N. An electromechanical model of the heart for image analysis and simulation. IEEE Transactions on Medical Imaging. 2006; 25(5):612–615. 53. Van Assen H, Danilouchkine M, Dirksen M, Reiber J, Lelieveldt B. A 3D active shape model driven by fuzzy inference: Application to cardiac CT and MR. IEEE Transactions on Information Technology in Biomedicine. 2008; 12(5):595–605. 54. Bravo A, Vera M, Garreau M, Medina R. Three–dimensional segmentation of ventricular heart chambers from multi–slice computerized tomography: An hybrid approach. In: Editors. Cherifi H, Zain JM, ElQawasmeh E. Proceedings of Digital Information and Communication Technology and Its Applications.Springer, Berlin, Heidelberg: Communications in Computer and Information Science; 2011. P.287–301. 55. Huérfano Y, Vera M, Del Mar A, Vera M-I, Salazar W, Chacón J, Wilches S, Graterol M, Torres M, Arias V, Rojas J, Prieto C, Siguencia W, Angarita L, Ortiz R, Rojas D, Garicano C, Chacín M, Contreras J, Bermúdez W, Bravo A. Segmentación computacional de la aurícula derecha en imágenes de tomografía cardiaca. Latinoamericana de Hipertensión. 2015; 10(4):79-84. 56. Vera M, Huérfano Y, Contreras J, Vera M-I, Del Mar A, Chacón J, Wilches S, Graterol M, Riaño D, Rojas J, Bermúdez W. Segmentación automática de la arteria aorta torácica en imagines de tomografía computarizada cardiaca. 2016a; 11(4):110-116.
57. Vera M, Huérfano Y, Valbuena O, Chacón J, Contreras J, Vera M-I, Wilches S, Graterol M, Riaño D, Salazar J, Rojas J, Bermúdez W. Segmentación automática de la aurícula izquierda en imágenes de tomografía computarizada cardiaca. Latinoamericana de Hipertensión. 2016a; 11(3):5459. 58. Huérfano Y, Vera M, Del Mar A, Vera M-I, Contreras J, Chacón J, Wilches S, Graterol M, Torres M, Arias V, Rojas J, Prieto C, Siguencia W, Angarita L, Ortiz R, Rojas D, Garicano C, Riaño D, Chacín M, Bermúdez W, Bravo A. Modelo computacional de la válvula pulmonar en contextos hipertensivos. Latinoamericana de Hipertensión. 2016a; 11(2):7-11. 59. Huérfano Y, Vera M, Del Mar A, Vera M-I, Chacón J, Wilches S, Graterol M, Torres M, Arias V, Rojas J, Prieto C, Siguencia W, Angarita L, Ortiz R, Rojas D, Garicano C, Riaño D, Chacín M, Contreras J, Bermúdez W, Bravo A. Segmentación computacional de la vena cava superior y procesos hipertensivos. Latinoamericana de Hipertensión. 2016b; 11(2):25-29. 60. Fan L, Chen CW. LV motion estimation based on the integration of continuum mechanics and estimation theory.San Diego: International Society for Optics and Photonics; 1999. 61. Shi P, Sinusas AJ, Constable RT, Ritman E, Duncan JS. Point-tracked quantitative analysis of left ventricular surface motion from 3–D image sequences. IEEE Transactions on Medical Imaging. 2000; 19(1):36–50. 62. Bravo A, Medina R, Passariello G, Garreau M. “Estimation of the deformation field for the left ventricle walls in 4–D multislice computerized tomography”. Lecture Notes in Computer Science. 2005; 3773(1): 348–359. 63. Bravo A, Mantilla J, Clemente J, Vera M, Medina R. “Left Ventricle Segmentation and Motion Analysis in Multi–Slice ComputerizedTomography”, In: Editors: Gonz´alez Fabio, Romero–Castro Eduardo. Biomedical Image Analysis and Machine Learning Technologies: Applications and Techniques. New York, USA: Medical Information Science Reference; 2010. p. 307–322. 64. Achenbach S, Ropers D, Holle J, Muschiol G, Daniel WG, Moshage W. In–plane coronary arterial motion velocity: Measurement with electron– beam CT. Radiology. 2000; 216(2):457–463.
Manuel Velasco (Venezuela) Editor en Jefe - Felipe Alberto Espino Comercialización y Producción Reg Registrada en los siguientes índices y bases de datos:
SCOPUS, EMBASE, Compendex, GEOBASE, EMBiology, Elsevier BIOBASE, FLUIDEX, World Textiles, OPEN JOURNAL SYSTEMS (OJS), REDALYC (Red de Revistas Científicas de América Latina, el Caribe, España y Portugal), LATINDEX (Sistema Regional de Información en Línea para Revistas Científicas de América Latina, el Caribe, España y Portugal) LIVECS (Literatura Venezolana para la Ciencias de la Salud), LILACS (Literatura Latinoamericana y del Caribe en Ciencias de la Salud) PERIÓDICA (Índices de Revistas Latinoamericanas en Ciencias), REVENCYT (Índice y Biblioteca Electrónica de Revistas Venezolanas de Ciencias y Tecnología) SCIELO (Scientific Electronic Library Online), SABER UCV, DRJI (Directory of Research Journal Indexing) CLaCaLIA (Conocimiento Latinoamericano y Caribeño de Libre Acceso), EBSCO Publishing, PROQUEST, SCIENCE
CITATION INDEX EXPANDED (SciSearch)
w w w. r ev i s ta h i p e r te n s i o n . c o m . ve w w w. r ev i s ta d i a b e te s . c o m . ve w w w. r ev i s ta s i n d r o m e . c o m . ve w ww. r ev i s ta av ft. c o m . ve
61
R
ealce por similaridad local para la segmentación computacional de la aurícula derecha en imágenes de tomografía computarizada cardiaca Local similarity enhancement for the computational segmentation of the right atrium in cardiac computed tomography 62
Resumen
Yoleidy Huérfano, MgSc1*, Miguel Vera, MgSc. PhD1,2, Julio Contreras-Velásquez, MgSc2, Atilio Del Mar, MD, MgSc3, José Chacón, MgSc, PhD2, Sandra Wilches-Durán, MgSc2, Modesto Graterol-Rivas, MgSc, PhD2, Daniela Riaño-Wilches, BSc4, Joselyn Rojas, MD, MSc5, Valmore Bermúdez, MD, MSc, MPH, PhD2,6 1 Grupo de Investigación en Procesamiento Computacional de Datos (GIPCD-ULA) Universidad de Los Andes-Táchira, Venezuela. *E-mail de correspondencia: yoleidyfismat@gmail.com 2 Grupo de Investigación Altos Estudios de Frontera (ALEF), Universidad Simón Bolívar, Cúcuta, Colombia 3 Instituto de Bioingeniería y Diagnóstico Sociedad Anónima (IBIDSA), San Cristóbal, Venezuela. 4 Facultad de Medicina, Universidad de los Andes, Bogotá, Colombia 5 Pulmonary and Critical Care Medicine Department. Brigham and Women’s Hospital. Harvard Medical School. Boston, MA. USA 02115 6 Centro de Investigaciones Endocrino-Metabólicas “Dr. Félix Gómez” Facultad de Medicina. Universidad del Zulia, Venezuela
ediante este trabajo se propone una estrategia para segmentar la aurícula derecha (RA) en imágenes tridimensionales (3-D) de tomografía computarizada multicapa. Esta estrategia consta de las etapas de pre-procesamiento, segmentación y entonación de parámetros. La etapa de pre-procesamiento se divide en dos fases. En la primera, denominada fase de filtrado, se emplea una técnica denominada realce por similaridad local (LSE) con el propósito de disminuir el impacto de los artefactos y atenuar el ruido en la calidad de las imágenes. Esta técnica, combina un filtro promediador, un filtro detector de bordes (denominado black top hat) y un filtro gaussiano (GF). En la segunda, identificada como fase de definición de una región de interés (ROI), se consideran las imágenes filtradas, máquinas de soporte vectorial de mínimos cuadrados e información a priori para aislar las estructuras anatómicas que circun-
dan la RA. Por otra parte, durante la etapa de segmentación 3-D se implementa un algoritmo de agrupamiento, denominado crecimiento de regiones (RG), el cual es aplicado a las imágenes pre-procesadas. Durante la entonación de parámetros de la estrategia propuesta, el coeficiente de Dice (Dc) es utilizado para comparar las segmentaciones, de la RA, obtenidas automáticamente, con la segmentación de la aurícula derecha generada, manualmente, por un cardiólogo. La combinación de parámetros que generó el Dc más elevado considerando el instante de diástole se aplica luego a las 19 imágenes tridimensionales restantes, obteniéndose un Dc promedio superior a 0.85 lo cual indica una buena correlación entre las segmentaciones generadas por el experto cardiólogo y las producidas por la estrategia desarrollada. Palabras clave: Tomografía, Aurícula Derecha, Realce por similaridad local, Segmentación
Abstract
Revista Latinoamericana de Hipertensión. Vol. 12 - Nº 2, 2017
his work proposes a strategy to segment the right atrium (RA) into three-dimensional (3-D) multi-layer Computed Tomography (CT) images. This strategy consists of the stages of pre-processing, segmentation and intonation of parameters. The pre-processing stage is divided into two phases. In the first one, called the filtering phase, a technique called Local Similarity Enhancement (LSE) is used in order to reduce the impact of artifacts and attenuate noise in the quality of the images. This technique combines an averaging filter, an edge detector filter (called black top hat) and a Gaussian Filter (GF). In the second, identified as the phase of definition of a Region Of Interest (ROI), we consider filtered images, least squares vector support machines and a priori information to isolate the anatomical structures that surround the RA. On the other hand, a clustering algorithm, called Region Growth (RG), is implemented during the 3-D segmentation stage, which is applied to the preprocessed images. During the intonation of parameters of the proposed strategy, the Dice coefficient (Dc) is used to compare the segmentations, obtained automatically, with the segmentation of the right atrium generated manually by a cardiologist. The combination of parameters that generated the highest Dc considering the instant of diastole is then applied to the remaining 19 three-dimensional images, obtaining an average Dc higher than 0.85 which indicates a good correlation between the segmentations generated by the expert cardiologist and those produced by the strategy developed.
Introducción
Keywords: Tomography, Right atrium, Local similarity enhancement, Segmentation
l corazón es el órgano encargado de impulsar, mediante vasos sanguíneos, la sangre hacia el cuerpo. Este órgano se divide anatómicamente en dos mitades laterales izquierda y derecha las cuales están compuestas por dos cavidades, cada una, denominadas aurículas y ventrículos. Cada aurícula se comunica con el ventrículo correspondiente por medio de una válvula. La sangre fluye de las aurículas a los ventrículos a través de las válvulas mitral y tricúspide y, posteriormente, es direccionada a través de las válvulas aórtica y pulmonar hacia la arteria aorta y pulmonar1.
Las aurículas son cavidades de paredes delgadas. Su superficie es lisa aunque en sus prolongaciones, denominadas orejuelas, aparecen formaciones carnosas y rugosas. El corazón posee dos aurículas, denominadas derecha e izquierda. La aurícula derecha, es una cavidad de forma irregular compuesta por paredes delgadas. En ella se observa la desembocadura de las venas cavas (superior e inferior) y el seno coronario. Mientras que la aurícula izquierda, tiene forma de ampolla cuyo eje mayor está ubicado en el plano transversal. Recibe la sangre proveniente de las cuatro venas pulmonares2. Al igual que la aurícula derecha está, predominantemente, constituida por un conjunto de paredes lisas. Adicionalmente, es importante identificar las enfermedades que se puede producir debido al funcionamiento inadecuado de la aurícula derecha. Entre las enfermedades cardiacas vinculadas con la RA, se encuentran la hipertensión pulmonar, la cual está vinculada con presiones promedio elevadas no sólo del pulmón sino también de la RA, la disfunción de la RA, el aumento de tamaño de las aurículas y la fibrilación auricular. Estas enfermedades cardiacas pueden ser abordadas usando procedimientos clínicos cuya planificación requiere modelos 3-D, usualmente, construidos a partir de la segmentación de la RA3,4. La segmentación es un proceso que se basa en la organización o agrupamiento de un conjunto de formas, donde las principales características usadas en esta organización son la proximidad y similaridad entre tales formas5. La principal razón por la cual se recurre a la segmentación de la RA, es porque posibilita el diagnóstico de diversas enfermedades cardiacas, sin necesidad de aplicar métodos invasivos extremos como lo sería intervenir, quirúrgicamente, a un paciente para determinar la condición de dicha aurícula. Por otra parte, se han encontrado numerosas investigaciones acerca de la segmentación de estructuras cardiacas. A continuación se presenta una síntesis de tales investigaciones. En ese sentido, Chen et al.4, proponen una técnica basada en modelos de apariencia activa y level set, para segmentar la RA en imágenes de resonancia magnética (MRI). En esta investigación, los parámetros de forma, del análisis de componentes principales, se optimizaron utilizando un modelo energético basado en histogramas globales. Sin embargo, ya que los parámetros de forma abarcan un espacio mucho más pequeño, no pueden capturar los detalles finos de los objetos presentes en las imágenes consideradas. Por lo tanto, realizaron una segunda etapa de segmentación, basada en level set, para refinar la segmentación generada mediante el modelo de apariencia activa. Estos autores no reportaron ninguna métrica que permita inferir la calidad de la técnica propuesta. Además, Shahzad et al.6, proponen una técnica, considerando imágenes no contrastadas de tomografía computarizada y un enfoque multi atlas, cuyo propósito fue
63
Por otra parte, Huérfano et al.7, proponen una estrategia para la segmentación automática de la RA aplicada sobre imágenes cardiacas 3-D, de tomografía computarizada multi-corte, pertenecientes a un mismo paciente. Tal estrategia consta de las etapas de preprocesamiento y segmentación. La etapa de preprocesamiento incluye dos fases. En la primera, para elevar la calidad de las imágenes, se emplea una técnica denominada realce por similaridad. En la segunda, se utilizan paradigmas de aprendizaje para definir una región de interés que aísla la RA de estructuras anatómicas circundantes. La etapa de segmentación considera las imágenes preprocesadas y una técnica variacional basada en conjunto de nivel (level set) para generar la morfología 3-D de la RA. Desde la óptica cualitativa, ellos afirmaron que la estrategia propuesta permitió obtener las segmentaciones de la RA, a lo largo de todo el ciclo cardiaco (desempeño intra–sujeto). Tales segmentaciones pueden ser útiles para la planificación de procedimientos clínicos diseñados para abordar ciertas enfermedades cardiacas. Finalmente, Huérfano et al.8, proponen una estrategia para la segmentación automática de la RA usando los 20 instantes del ciclo cardiaco de un paciente en imágenes cardiacas 3-D, de tomografía computarizada multi-corte. Tal estrategia está basada en la técnica de similaridad global y consta de las etapas de preprocesamiento, segmentación y entonación de parámetros. La etapa de preprocesamiento se divide en dos fases denominadas filtrado y definición de una región de interés. Estas fases son aplicadas, preliminarmente, al instante de diástole final y son las encargadas de abordar los problemas de ruido, artefactos y bajo contraste, presentes en las imágenes. Durante la segmentación de la RA se consideran las imágenes preprocesadas y una técnica basada en crecimiento de regiones (RG) la cual es inicializada usando un vóxel detectado con máquinas de soporte vectorial de
mínimos cuadrados. Durante la entonación de parámetros, se usa el coeficiente de Dice (Dc) para comparar las segmentaciones de la RA y la segmentación generada, manualmente, por un cardiólogo. La combinación de técnicas de filtrado que generó el Dc más elevado considerando el instante de diástole se aplicó luego a las 19 imágenes tridimensionales restantes, obteniéndose un Dc promedio superior a 0.82 lo cual indicó una buena correlación entre las segmentaciones generadas por un experto cardiólogo y las producidas por la estrategia desarrollada. El presente trabajo es una extensión de Huérfano et al.7, el cual tiene como objetivo generar una estrategia, basada en una variante de E1 reportado en Vera9, para la segmentación de la aurícula derecha. Dicha estrategia se basa en realce por similaridad local (LSE) para segmentar la RA, tomando en cuenta el enfoque intrasujeto, y considerando las etapas de pre-procesamiento, segmentación y entonación de parámetros. Estas etapas se someten a un proceso de validación que considera el coeficiente de Dice10 para comparar segmentaciones del RA obtenidas automática y manualmente.
Materiales y métodos
64
investigar la viabilidad de la segmentación y cuantificación automáticas de las siguientes estructuras anatómicas cardíacas: aurícula izquierda (LA), ventrículo izquierdo (LV), aurícula derecha, ventrículo derecho (RV) y la raíz aórtica. Los resultados mostraron que la superposición de las segmentaciones obtenidas mediante el método automático y las segmentaciones manuales de referencia tiene un coeficiente de Dice promedio de 0.91 para la aurícula derecha. El error medio de superficie a superficie sobre todas las estructuras cardíacas es de 1.4 ± 1.7 mm. Los volúmenes de cámara cardíaca obtenidos automáticamente utilizando las exploraciones de tomografía computarizada tienen una excelente correlación cuando se comparan con los volúmenes en las exploraciones de angiografía por tomografía computarizada cardiaca con contraste correspondientes, se obtuvo un coeficiente de correlación de Pearson de 0.95. Este método totalmente automático permitió la evaluación a gran escala de estructuras cardíacas en tomografías computarizadas sin contraste.
Descripción de las bases de datos La base de datos (DB) utilizada fue suministrada por el Laboratoire de Traitement du Signal et de L’Image (LTSI) de la Université de Rennes I, en Francia, y está constituida por imágenes de MSCT cardiaca de un paciente. La DB posee 20 instantes que representan un ciclo cardiaco completo. Cada instante tiene 326 imágenes de resolución espacial 512x512 píxeles, muestreadas a 12 bits por píxel, con vóxeles de tamaño 0.488 mm x 0.488 mm x 0.393 mm. También se cuenta con la segmentación manual del instante diástole final, generada por un cardiólogo, la cual representa el ground truth del RV que servirá como referencia para validar los resultados. Estrategia propuesta para la segmentación del ventrículo derecho LSE La Figura 1 muestra la estrategia propuesta para generar la morfología del RA. Debido a que tal estrategia está basada en un tipo de realce por similaridad de tipo local, en el contexto del presente artículo, será utilizado el acrónimo LSE para hacer referencia a ella.
Revista Latinoamericana de Hipertensión. Vol. 12 - Nº 2, 2017 Figura 1. Diagrama de bloques de la estrategia LSE la cual constituye una variante de E110
65
Etapa de pre-procesamiento - Fase de filtrado: En la Figura 1, se ha destacado mediante un recuadro gris la etapa de filtrado basada en realce por similaridad local. Este tipo de realce se aplica, preliminarmente, sobre el instante de diástole final y consiste en: a. Generación de una imagen promediada ( ), procesando cada imagen original (Io) con un filtro denominado promediador11. El papel de este filtro es minimizar el ruido Poissoniano presente en las imágenes. b. Obtención de una imagen denominada black top hat , procesando cada imagen original (Io) con un filtro denominado black top hat12. El papel de este filtro es detectar los bordes de las cavidades cardiacas. c. Aplicación de una función de similaridad local. La función de similaridad local utiliza una vecindad en forma de cruz 3-D en la cual se considera, sucesivamente, la incorporación de cada uno de los seis vecinos directos del voxel central en cada volumen de entrada, que se presentan mediante la Figura 2. La finalidad de la similaridad local es minimizar el efecto de los artefactos y preservar la información interna a los bordes. Figura 2
Esta función de similaridad local genera una imagen de similaridad (Is) utilizando la Ecuación (1). Esta imagen representa una medida del contraste entre los valores del nivel de gris de dos imágenes que representan versiones filtradas de la imagen de entrada, como lo son las e . (1) d. Generación de una imagen gaussiana . Debido a que el filtro denominado black top hat puede reforzar el ruido Poisson, presente en las imágenes de MSCT, se aplica a la imagen Is un suavizado basado en el filtro gaussiano13. - Fase de definición de una región de interés (ROI): La similitud de los niveles de gris de los vóxeles que conforman las estructuras del corazón derecho exige la colocación de superficies que faciliten su segmentación. Considerando vistas coronales de las imágenes filtradas, un cardiólogo identifica, visualmente, 3 puntos de referencia dados por: la unión de la aurícula derecha con el ventrículo derecho (P1), la unión de la RA con la vena cava superior (P2), y el ápex del ventrículo derecho (P3). Para tales puntos se identifican las coordenadas manuales que establecen sin ambigüedad su ubicación espacial en cada imagen considerada. Luego se implementa, computacionalmente, una función discriminante que permite aislar la aurícula derecha de otras estructuras anatómicas circundantes mediante la incorporación de dos planos denominados: a) Plano Tricúspide y b) Plano Cava. Para ello, se aplica el siguiente procedimiento: i) Se considera una técnica de reducción de tamaño, basada en interpolación cúbica, cuyo parámetro se hace coincidir con el factor de reducción óptimo, obtenido en Vera9. Esto permite generar imágenes sub-muestreadas de 64x64 píxeles a partir de imágenes filtradas de 512x512, es decir, el mencionado factor fue de 8.
ii) Sobre las imágenes sub-muestreadas un cardiólogo selecciona puntos de referencia dados por: la unión de la RA con la vena cava superior (P2), y el ápex del ventrículo derecho (P3). Para estos puntos se establecen las coordenadas manuales que establecen sin ambigüedad su ubicación espacial en cada imagen considerada. En la Figura 3, se identifican los puntos P1 y P2, en dos vistas transversales de imágenes submuestreadas. iii) Se implementa una LSSVM para reconocer y detectar a P1, P2 y P3. Para ello se desarrollan los procesos de: 66
A) Entrenamiento: Se selecciona como conjunto de entrenamiento vecindades circulares de radio 10 píxeles, trazadas manualmente por un cardiólogo, que contienen tanto los puntos P1, P2 y P3 (marcadores), como regiones que no contienen los referidos puntos (no marcadores). Para los marcadores el centro de sus respectivas vecindades coincide con las coordenadas manuales de P1, P2 y P3, establecidas anteriormente. Tales vecindades son construidas sobre la vista axial de una imagen sub-muestreada de 64x64 píxeles, por cada punto de referencia. La principal razón por la cual se elige una única imagen, por cada punto de referencia, es porque se desea generar una LSSVM con alto grado de selectividad que detecte sólo aquellos píxeles que posean un alto grado de correlación con el patrón de entrenamiento. Luego, cada vecindad es vectorizada y, considerando sus niveles de gris, se calculan los atributos: media (µ), varianza ( ), desviación estándar (σ) y mediana (me). Así, tanto los marcadores como los no marcadores se describen mediante vectores (Va) de atributos estadísticos, dado por: Va = [µ, , σ, me]. Adicionalmente, la LSSVM es entrenada considerando como patrón de entrenamiento los vectores Va y entonando los valores de los parámetros que controlan su desempeño, γ y . Este enfoque, basado en atributos, permite que la LSSVM realice su trabajo con mayor eficiencia que cuando se utiliza el enfoque basado en vectores, de mayor tamaño, que sólo considera el nivel de gris de los elementos de una imagen. El conjunto de entrenamiento se construye con una relación de 1:10, lo cual significa que por cada marcador se incluyen 10 no marcadores. La etiqueta +1 se asigna a la clase conformada por los marcadores; mientras la etiqueta -1 se asigna a la clase de los no marcadores, es decir, el trabajo de entrenamiento se hace con base en una LSSVM binaria. Durante el entrenamiento, se genera un clasificador dotado de una frontera de decisión para detectar los patrones de entrada a la LSSVM como marcadores o no marcadores. Posteriormente, debido a la presencia de falsos positivos y negativos, se aplica un proceso que permite incorporar al conjunto de entrenamien-
to los patrones que la LSSVM clasifica, inicialmente, de manera inapropiada. En este sentido, se consideró un toolbox, denominado LS-SVMLAB, y la aplicación Matlab para implementar un clasificador LSSVM basado en un kernel gaussiano de base radial con parámetros σ2 y γ. B) Validación: Las LSSVM entrenadas se utilizan para detectar a P1, P2 y P3, en imágenes no usadas durante el entrenamiento. Para ello, se ejecutan las siguientes tareas: I) Reconocimiento de (P1 y P2): Una LSSVM entrenada busca estos puntos de referencia, en el plano axial, desde la primera imagen ubicada en la base del corazón, hasta la imagen que representa la mitad del volumen considerado (ecuador de la base de datos). II) Reconocimiento del ápex (P3): Una LSSVM entrenada empieza a buscar el ápex desde la imagen que representa la mitad de la base de datos (aproximadamente el ecuador del corazón) hasta la última imagen que conforma dicha base. El proceso de validación efectuado con LSSVM permite identificar las coordenadas automáticas para P1, P2 y P3 las cuales son multiplicadas por un factor de 8 unidades, a fin de poder ubicarlas, en las imágenes de tamaño original. De esta forma, las referidas coordenadas se utilizan tanto para establecer la dirección de los planos (tricúspide y cava), como para la colocación de los referidos planos en la base de la RA. Luego, mediante un proceso de discriminación, se seleccionan o se excluyen los puntos de las bases de datos procesadas que sean de interés, de acuerdo con la estructura anatómica del corazón derecho que se desee segmentar, en este caso, la RA. Etapa de segmentación La ubicación de la semilla, para inicializar el crecimiento de regiones11 (RG), se calcula usando máquinas de soporte vectorial de mínimos cuadrados14 (LSSVM) mediante un proceso análogo al descrito durante la detección de los puntos de referencia. Para aplicar el RG, a las imágenes pre-procesadas, se hicieron las siguientes consideraciones: a) A la vecindad inicial, que se construye a partir de la semilla, se le asigna forma cúbica cuyo lado depende de un escalar arbitrario r. El parámetro r requiere de un proceso de entonación. b) Como criterio pre-definido, se elige el modelado mediante la Ecuación 2. |I(x) − µ| < mσ
(2)
siendo: I(x) la intensidad del vóxel semilla, µ y σ la media aritmética y la desviación estándar de los niveles de gris de la vecindad inicial y m un parámetro que requiere entonación. Etapa de entonación de parámetros: Obtención de parámetros óptimos Esta etapa permite la obtención de los parámetros óptimos que garantizan un buen desempeño de la estrategia propuesta. Para ello, se modifican los parámetros asocia-
Revista Latinoamericana de Hipertensión. Vol. 12 - Nº 2, 2017
σ, es decir, se le asigna a γ el valor óptimo obtenido en el paso anterior y, se considera un tamaño de paso de 0.25 para asignarle a σ el rango de valores contenidos en el intervalo [0,50].
dos con la técnica que se desee entonar recorriendo, sistemáticamente, los valores pertenecientes a ciertos rangos tal y como se describen a continuación: Los parámetros asociados al filtro promediador son (ϵ y Rp). Aquí, ϵ se hace coincidir con la desviación estándar de la imagen 3-D de entrada al filtro promediador; mientras que, para el radio (Rp) de la vecindad, sobre la cual se calcula el promedio de los niveles de gris, fueron consideradas vecindades 3-D de tamaño impar, dado por las combinaciones: (3×3×3), (5×5×5), (7×7×7), (9×9×9) y (11×11×11).
Los parámetros óptimos de las LSSVM son aquellos valores de γ y σ que corresponden al error relativo porcentual mínimo, calculado considerando las coordenadas manuales y automáticas de los puntos de referencia. Éstas últimas coordenadas son generadas por la LSSVM. Durante la entonación de los parámetros del RG, cada una de las segmentaciones automáticas del RA correspondientes al instante diástole final se compara, usando el Dc, con la segmentación manual del RA generada por un cardiólogo. Los valores óptimos para los parámetros del RG (r y m), se hacen coincidir con aquel experimento que genera el valor más alto para el Dc.
Los filtros de dilatación y erosión tienen como parámetros la forma y el tamaño del elemento estructurante. Con el propósito de reducir el número de posibles combinaciones, se consideró un enfoque isotrópico para establecer el rango de valores, que controlan el tamaño del elemento estructurante, el cual viene dado por las combinaciones: (1×1×1), (2×2×2), (3×3×3), (4×4×4), (5×5×5), (6×6×6), (7×7×7), (8×8×8) y (9×9×9).
El Dc es una métrica que permite comparar segmentaciones de una misma imagen 3-D obtenida por diversas metodologías. En el contexto cardiaco, usualmente, el Dc es considerado para establecer que tan similares son, espacialmente, la segmentación manual (RD) y la segmentación automática (RP) que genera la morfología de cualquier estructura cardiaca. Adicionalmente, el Dc es máximo cuando se alcanza un perfecto solapamiento entre RD y RP pero es mínimo cuando RD y RP no se solapan en absoluto. Además, los valores esperados para el Dc son números reales comprendidos entre 0 (mínimo) y 1 (máximo). Entre más cercano a 1 se encuentre el valor del Dc, mejor será el desempeño del procedimiento que no es manual. El modelo matemático que define el Dc, viene dado por la Ecuación 3.
Seguidamente, para el filtro de realce por similaridad local el único parámetro, requerido por esta función, es el caso que debe elegirse para generar la imagen de similaridad. Se puede elegir cualquiera de las posibilidades dada por los casos: 1, 2, 3, 4, 5, 6; correspondientes a la consideración simultánea de 1, 2, 3, 4, 5 y 6 vecinos, del vóxel objeto de estudio, respectivamente10. Posterior a ellos, para entonar el filtro gaussiano se debe considerar un parámetro identificado como desviación estándar ( ). En el contexto del presente trabajo, se hace uso de un enfoque isotrópico que asigna el mismo valor de desviación a cada una de las direcciones en las que se aplica el filtro gaussiano. De forma que, se hace coincidir con todos los valores comprendidos en el intervalo real1,4 con un tamaño de paso de 0.25. El otro parámetro del filtro gaussiano, es el tamaño de la vecindad. Tales tamaños son (3x3x3), (5x5x5), (7x7x7) y (9x9x9).
(3) En este punto, es necesario enfatizar que: En el contexto del presente trabajo, el proceso de entonación para la fase de filtrado fue tomada de Dice10 por ser LSE una variante de E1. Para el caso de ROI y RG se hará su respectiva entonación de parámetros. En la Tabla 1, se reportan los parámetros fijos optimizados en Dice10, los cuales serán aplicados a los 19 instantes restantes del ciclo cardiaco completo.
Los parámetros de las LSSVM, y γ, se entonan suponiendo que la función de costo es convexa y desarrollando ensayos basados en los siguientes pasos: Para entonar el parámetro γ se fija arbitrariamente el valor de y se asignan, sistemáticamente, valores al parámetro γ. El valor de σ se fija inicialmente en 25. Ahora, se varía γ considerando el rango [0,100] y un tamaño de paso de 0.25. Un proceso análogo se aplica para entonar el parámetro
Tabla 1. Parámetros óptimos, reportados en 10, para los filtros que conforman la estrategia LSE Filtros vinculados con la estrategia LSE Promediador
*Gme1
Umbral (ε)
Desviación estándar (enf. isotrópico)
Gme2
Gme3
**Gs
Erosión
Dilatación
Bth
(1,1,1)
(3,3,3)
(5,5,5)
3x3x3
3x3x3
3x3x3
(
,
,
Esférica
)
No Ponderada Caso
Tamaño de vecindad 3x3x3
Similaridad Tipo
Forma del SE
*Gme: Filtro Gaussiano multi-escala. **Gs: Filtro Gaussiano simple.
3x3x3
3x3x3
7x7x7
Mixto
4
67
Resultados
Por otra parte, la Figura 4 muestra la vista 3-D de los 20 instantes que conforman el ciclo cardiaco completo del paciente considerado (validación intra-sujeto). En esta figura se aprecia una excelente representación del RA.
Resultados cuantitativos Respecto a las LSSVM entrenadas se obtuvieron, como parámetros óptimos para γ y los valores 3.25 y 1.50, respectivamente. Estos valores están asociados con un error relativo porcentual mínimo de 2.37%.
Figura 4. Representación 3-D de las 20 segmentaciones del RA, correspondientes a un ciclo cardiaco completo
Para la estrategia LSE los parámetros óptimos del RG fueron: r= 10 píxeles y m= 3.5 y corresponden a un Dc máximo de 0.8500.
Este valor para el Dc es comparable con el reportado en las referencias Shahzad et al. 6 y Huérfano et al.7 tal y como lo muestra la Tabla 2. Como se aprecia en la tabla 2, el trabajo de Shahzad et al. 6, superó el resto de trabajos. Además, el resultado reportado en la referencia9 y los obtenidos mediante la estrategia propuesta en el presente trabajo (LSE), están altamente correlacionados y, por tanto, se puede afirmar que son comparables entre sí. Tabla 2. Comparación del Dc promedio, para el RA, durante la validación intra-sujeto. Autores
Técnica
Modalidad
Dc promedio
Shahzad et al.
Multi-atlas
MSCT
0.9100
Huérfano et al.
GSE + MF + ROI + RG
MSCT
0.8200
Huérfano et al.
LSE + GF+ ROI + RG
MSCT
0.8500
Resultados cualitativos La Figura 3, muestra una vista 2-D del instante de diástole final original, filtrado con la secuencia LSE + GF y cortado con el plano tricúspide. Figura 3. Vista transversal de: a) Imagen filtrada con realce por similaridad local (LSE). b) Imagen con región de interés definida por los planos tricúspide y cava
a)
b)
Conclusiones
68
Las segmentaciones que se obtuvieron con la combinación LSE + GF + ROI + RG reportaron un Dc promedio de de 0.85 ± 4.52 y un tiempo de computo promedio de 9.23 ± 2.17 minutos para cada instante del ciclo cardiaco completo.
e ha presentado la estrategia LSE cuya entonación permite una segmentación precisa del RA ya que el Dc obtenido, durante la validación intra-sujeto, es comparable con el reportado en la literatura. Esta estrategia puede ser aplicada, con parámetros fijos, en futuras investigaciones, para la segmentación de la aurícula izquierda, válvulas y arterias del corazón. En el futuro inmediato, se tiene previsto realizar una validación más completa que permita, por una parte, analizar el desempeño de la estrategia propuesta ante la variabilidad inter-sujeto y, por la otra, evaluar la función auricular derecha mediante la estimación de descriptores cardiacos tales como los volúmenes diastólico y sistólico final, el volumen latido, la fracción de eyección y el gasto cardiaco. Agradecimientos Los autores agradecen por el apoyo financiero al Consejo de Desarrollo Científico Humanístico Tecnológico y de las Artes (CDCHTA) de la Universidad de Los Andes-Venezuela, (a través del proyecto código NUTA-C-29-15-07-C), a la Universidad Simón Bolívar de Cúcuta-Colombia (a través del proyecto código C2011520216), y al Decanato de Investigación de la Universidad Nacional Experimental del Táchira, San Cristóbal-Venezuela.
Revista Latinoamericana de Hipertensión. Vol. 12 - Nº 2, 2017
Referencias 1. Latarjet M, Ruíz A. Anatomía Humana. Volumen 2. Buenos Aires: Panamericana; 1983. 2. Barrett KE. Ganong fisiología médica. México: McGraw Hill; 2013. 3. Tazar J, Álvarez, M. Quantification of Right Ventricular Function in Pulmonary Hypertension. Rev. Fed. Arg. Cardiol. 2012; 41(2): 89–95. 4. Chen S, Kohlberger T, Kirchberg K. Advanced level set segmentation of the right atrium in magnetic resonance. in: Proceedings of the SPIE The International Society for Optical Engineering, Volume 7964, (SPIE Homepage). New York, USA. 2011: 89-92. 5. Shapiro L, Stockman G. Computer Vision. New Jersey, USA: Prentice Hall; 2001. 6. Shahzad R, Bos D, Budde R, Van T. Automatic segmentation and quantification of the cardiac structures from non-contrast-enhanced cardiac CT scans. Physics in Medicine and Biology; 62(9): 3798-3813. 7. Huerfano Y, Vera M, Bravo A, Del Mar A, Medina R. Estrategia para la segmentación de la aurícula derecha en tomografía cardiaca. En: Memorias de V Congreso Venezolano de Bioingeniería; 2015: 102-105.
8. Huérfano Y, Vera M, Del Mar A, Vera M, Salazar W, Chacón J. et al. “Segmentación computacional de la aurícula derecha en imágenes de tomografía cardiac”. Revista Latinoamericana de Hipertensión. 2015; 10(4):79-84. 9. Vera M. “Segmentación de estructuras cardiacas en imágenes de tomografía computarizada multi-corte,” Ph.D. dissertation. Mérida: Universidad de los Andes; 2014. 10. Dice, L. Measures of the amount of ecologic association between species. Ecology.1945; vol. 26(3): 297-302. 11. Passarielo G, Mora F. Imágenes Médicas, Adquisición, Análisis, Procesamiento e Interpretación. Venezuela: Equinoccio Universidad Simón Bolívar; 1995. 12. Yu Z, Wei G, Zhen C, Jing T, Ling L. Medical images edge detection based on mathematical morphology. En: Proceedings of the IEEE Engineering in Medicine and Biology 27th Annual Conference. Shanghai China. 2005: pp. 6492–6495. 13. Meijering, H. Image en hancement in digital X ray angiography. Tesis de Doctorado. Utrecht University. Netherlands. 2000. 14. Fischer M, Paredes JL, Arce GR. Weighted median image sharpeners for the world wide web.[Tesis doctoral]. IEEE Transactions on Image Processing; 2002.
Manuel Velasco (Venezuela) Editor en Jefe - Felipe Alberto Espino Comercialización y Producción Reg Registrada en los siguientes índices y bases de datos:
SCOPUS, EMBASE, Compendex, GEOBASE, EMBiology, Elsevier BIOBASE, FLUIDEX, World Textiles, OPEN JOURNAL SYSTEMS (OJS), REDALYC (Red de Revistas Científicas de América Latina, el Caribe, España y Portugal), LATINDEX (Sistema Regional de Información en Línea para Revistas Científicas de América Latina, el Caribe, España y Portugal) LIVECS (Literatura Venezolana para la Ciencias de la Salud), LILACS (Literatura Latinoamericana y del Caribe en Ciencias de la Salud) PERIÓDICA (Índices de Revistas Latinoamericanas en Ciencias), REVENCYT (Índice y Biblioteca Electrónica de Revistas Venezolanas de Ciencias y Tecnología) SCIELO (Scientific Electronic Library Online), SABER UCV, DRJI (Directory of Research Journal Indexing) CLaCaLIA (Conocimiento Latinoamericano y Caribeño de Libre Acceso), EBSCO Publishing, PROQUEST, SCIENCE
CITATION INDEX EXPANDED (SciSearch)
w w w. r ev i s ta h i p e r te n s i o n . c o m . ve w w w. r ev i s ta d i a b e te s . c o m . ve w w w. r ev i s ta s i n d r o m e . c o m . ve w w w. r ev i s ta av ft. c o m . ve
69
S
egmentación automática de la arteria aorta ascendente y la válvula aórtica en imágenes de tomografía computarizada cardiaca Automatic segmentation of the ascending aorta and aortic valve in computed tomography images 70
Resumen
Miguel Vera, MgSc. PhD1,2*, Yoleidy Huérfano, MgSc1, Julio Contreras-Velásquez, MgSc2, Atilio Del Mar, MD3, Johel Rodríguez, MgSc2, Nahid Bautista, MgSc2, Sandra Wilches-Durán, MgSc2, Modesto Graterol-Rivas, MgSc, PhD2, Daniela Riaño-Wilches, BSc4, Joselyn Rojas, MD, MSc5, Valmore Bermúdez, MD, MSc, MPH, PhD2,6 1 Grupo de Investigación en Procesamiento Computacional de Datos (GIPCD-ULA) Universidad de Los Andes-Táchira, Venezuela. 2 Grupo de Investigación Altos Estudios de Frontera (ALEF), Universidad Simón Bolívar, Cúcuta, Colombia. E-mail de correspondencia: veramig@gmail.com*. 3 Instituto de Bioingeniería y Diagnóstico Sociedad Anónima (IBIDSA), San Cristóbal, Venezuela. 4 Facultad de Medicina, Universidad de los Andes, Bogotá, Colombia. 5 Pulmonary and Critical Care Medicine Department. Brigham and Women’s Hospital. Harvard Medical School. Boston, MA. USA 02115. 6 Centro de Investigaciones Endocrino-Metabólicas “Dr. Félix Gómez” Facultad de Medicina. Universidad del Zulia, Venezuela.
ediante el presente trabajo se propone una técnica para la segmentación automática del conjunto anatómico constituido por la arteria aorta ascendente + la válvula aórtica (AAAV) en 10 imágenes cardiacas tridimensionales (3-D) de tomografía computarizada multi-corte, pertenecientes a un mismo sujeto. La mencionada técnica consta de las etapas de pre-procesamiento y segmentación. La etapa de pre-procesamiento incluye dos fases: la primera, minimiza tanto el ruido Poisson como el impacto del artefacto escalera, se emplea una técnica denominada realce por similaridad global, este tipo de realce consiste en la aplicación de un banco de filtros, suavizadores y un detector de bordes, cuyo propósito es generar una imagen en la cual se agrupa la información de las estructuras anatómicas, que conforman las imágenes originales; la segunda fase, considerando las imágenes filtradas, se utiliza información a priori acerca de la localización de la válvula aórtica y un paradigma de aprendizaje, basado en máquinas de soporte vectorial, para definir una región de interés
que aísla la AAAV de estructuras anatómicas vecinas. Por otra parte, para generar la morfología 3-D de la TAA, se aplica una etapa de segmentación la cual considera las imágenes filtradas y un algoritmo de agrupamiento basado en crecimiento de regiones. La estrategia propuesta genera las segmentaciones 3-D de la AAAV en todas las imágenes que conforman el ciclo cardiaco completo del sujeto considerado. Para cuantificar el desempeño de la referida técnica se consideró el coeficiente de Dice obteniéndose una buena correlación entre las segmentaciones automáticas y las manuales generadas por un cardiólogo. Las segmentaciones generadas automáticamente pueden ser útiles en la detección de ciertas patologías que afectan tanto la arteria aorta como estructuras anatómicas, asociadas con ella, tales como la válvula aorta y el ventrículo izquierdo. Palabras clave: Arteria aorta, Válvula aórtica, Tomografía computarizada, Realce por similaridad global, Máquinas de soporte vectorial, Segmentación
he present work proposes a technique for the automatic segmentation of the anatomic set consisting of the ascending aorta + aortic valve (AAAV) in 10 three-dimensional (3-D) cardiac images of multi-cut computed tomography, belonging to the same subject. The mentioned technique consists of the stages of pre-processing and segmentation. The pre-processing stage includes two phases: the first, minimizes both Poisson noise and the impact of the staircase artifact, we use a technique called global similarity enhancement, this type of enhancement consists of the application of a bank of filters, softeners And a border detector, whose purpose is to generate an image in which the information of the anatomical structures, which make up the original images, is grouped together; the second phase, considering the filtered images, uses a priori information about the location of the aortic valve and a learning paradigm, based on vector support machines, to define a region of interest that isolates AAAV from neighboring anatomical structures. On the other hand, to generate the 3-D morphology of the TAA, a segmentation stage is applied which considers the filtered images and a clustering algorithm based on regions growth. The proposed strategy generates the 3-D segmentations of AAAV in all the images that make up the complete cardiac cycle of the subject considered. In order to quantify the performance of the referred technique, the Dice coefficient was considered, obtaining a good correlation between the automatic segmentations and the manual ones generated by a cardiologist. Automatically generated segmentations may be helpful in detecting certain pathologies that affect both the aorta and anatomical structures associated with it, such as the aorta and left ventricle. Keywords: Aortic Artery, Aortic Valve, Computed Tomography, Global Similarity Enhancement, Vector Support Machines, Segmentation
Introducción
Abstract
Revista Latinoamericana de Hipertensión. Vol. 12 - Nº 2, 2017
l corazón se divide en dos mitades laterales, análogamente constituidas: corazón derecho, en el cual circula la sangre venosa, y corazón izquierdo, vinculado con la sangre arterial1. Cada uno de estos corazones se subdivide a su vez en dos mitades, situadas una encima de otra: la cavidad superior llamada aurícula y la cavidad inferior denominada ventrículo. Cada aurícula está conectada con el ventrículo correspondiente, a través de una válvula2. La parte superior del corazón está conectada al resto del aparato circulatorio a través de vasos sanguíneos que conducen sangre hacia el corazón y conducen sangre del corazón al cuerpo. La aorta es la arteria principal que conduce la sangre oxigenada desde el ventrículo izquierdo a otras partes del cuerpo; mientras que la arteria pulmonar conduce la sangre para su oxigenación desde el ventrículo derecho a los pulmones. Muchos de los problemas derivados de las enfermedades del corazón, se deben a las deficiencias en las válvulas cardiacas, en particular las enfermedades de la válvula aórtica3, 4, 5, las cuales se muestran en la Figura 1. La principal razón por la cual se recurre a la segmentación de las válvulas cardiacas, y de los grandes vasos sanguíneos asociados a ellas, es porque posibilita el diagnóstico de diversas enfermedades cardiacas, sin necesidad de aplicar un método invasivo extremo, como lo sería intervenir quirúrgicamente a un paciente para determinar la condición de dichas válvulas. La segmentación de estructuras cardiacas es uno de los procesos que mayor auge ha cobrado en la actualidad debido, entre otras razones, a la presencia de una sociedad altamente tecnificada. Así mismo, a escala mundial, el uso de técnicas de segmentación cada vez más complejas ha permitido la generación automática de cada una de las estructuras anatómicas que conforman ese vital órgano del cuerpo humano denominado corazón. Adicionalmente, el hecho que las enfermedades del corazón constituyan la principal causa de muerte en el mundo6, aunado a los enormes costos que representan la inversión en salud de las personas aquejadas, por una o más enfermedades cardiovasculares, constituyen un potente aliciente para estimular el desarrollo de investigaciones que generen apoyos clínicos para el abordaje de: a) El diagnóstico temprano de las mencionadas enfermedades y b) La planificación de procedimientos de rutinas clínicas tendientes a elevar la calidad de vida de los pacientes cardiacos.
71
Figura 1: Síntesis de las enfermedades que experimenta la arteria aorta
72
Además la realización de tales segmentaciones se hace aún más difícil debido a que las imágenes provenientes de un estudio clínico, generadas mediante cualquier modalidad, poseen imperfecciones tales como ruido, artefactos y bajo contraste, que afectan la calidad de la información presente en las imágenes tridimensionales, particularmente, en imágenes de tomografía computarizada multi-capa (MSCT) cardiaca7. Una síntesis de las investigaciones orientadas hacia la segmentación de la arteria aorta y la válvula aórtica se presentan a continuación. Zheng et al.8, proponen la segmentación automática de la aorta con el propósito de detectar marcadores anatómicos necesarios para el reemplazo de la válvula aórtica. En este sentido, ocho puntos de referencia ubicados en la válvula aórtica fueron detectados, automáticamente, mediante un enfoque de segmentación basado en aprendizaje discriminativo. Bajo la guía de los puntos de referencia detectados los médicos pueden desplegar la prótesis valvular correctamente. Ellos reportan que su propuesta es robusta bajo las variaciones del agente de contraste y es computacionalmente eficiente ya que emplea alrededor de 1.4 segundos para procesar una imagen tridimensional completa. Sasa et al.9, consideran imágenes de MSCT para presentar un modelo completo y modular de las válvulas del corazón que comprenden la anatomía de las válvulas aórtica, mitral, tricúspide y pulmonar, así como sus variaciones morfológicas, funcionales y patológicas. Introducen un modelo multi-lineal de forma restringido, condicionado
por medidas anatómicas, para representar la compleja variación espacio-temporal de las válvulas del corazón. La localización global de las válvulas y el movimiento se computan dentro del espacio de aprendizaje marginal y aprendizajes de trayectoria espectral. Para estimar la precisión del modelo completo de las válvulas, se mide la distancia euclidea de las segmentaciones generadas automáticamente con las generadas manualmente y reportan, para la mencionada distancia, un valor promedio global de 1.24 ± 0.91 mm. Elattar et al.10 segmentan, automáticamente, la raíz aórtica en 20 imágenes de angiografía por tomografía computarizada (CTA) de pacientes candidatos para implantación de válvula aórtica transcatéter (TAVI). En este sentido, para extraer la raíz aórtica de los volúmenes CTA, implementan un algoritmo de segmentación totalmente automatizado que, en primer lugar, detecta el volumen de interés y determina la línea central a través de la aorta ascendente y la línea central de la raíz aórtica; posteriormente, se enmascaran las altas intensidades debidas a calcificaciones. El método fue validado mediante el cálculo del coeficiente de Dice (Dc). El método segmentó, exitosamente, la raíz aórtica en los 20 casos. El algoritmo propuesto mostró resultados precisos en comparación con las segmentaciones manuales ya que el Dc fue de 0.95 ± 0.03. Pouch et al.11, proponen realizar una segmentación y modelado geométrico de la válvula aórtica en 11 imágenes ecocardiográficas 3D. Este trabajo integra modelos de modelado intermedio y técnicas de fusión multi-atlas para delinear y describir cuantitativamente la geometría de la
Revista Latinoamericana de Hipertensión. Vol. 12 - Nº 2, 2017
Materiales y métodos
válvula aórtica en las mencionadas imágenes. La relevancia clínica del método es su capacidad para capturar la geometría de la válvula aórtica con mínima interacción del usuario. Los resultados obtenidos, basados en indicadores estadísticos, demuestran consistencia entre las mediciones derivadas de las segmentaciones automatizadas y manuales.
Descripción de las bases de datos La base de datos (DB) utilizada fue suministrada por el Instituto de Bioingeniería y Diagnóstico Sociedad Anónima (IBIDSA), San Cristóbal, Venezuela, y está constituida por imágenes de MSCT cardiaca de un paciente. La DB posee 10 instantes que representan un ciclo cardiaco completo. Cada instante tiene 324 imágenes de resolución espacial 512x512 píxeles, muestreadas a 12 bits por píxel, con vóxeles de tamaño 0.4297 mm x 0.4297 mm x 0.4000 mm.
También se cuenta con las segmentaciones manuales del ciclo cardiaco completo, generadas por un cardiólogo, las cuales representan los ground truth del conjunto conformado por la arteria aorta ascendente + válvula aórtica (AAAV) que servirán como referencia para validar los resultados. Descripción de la estrategia propuesta para la segmentación de la aurícula izquierda La Figura 2 muestra la estrategia propuesta para generar la morfología de la arteria aórtica + la válvula aórtica. Debido a que tal estrategia está basada en un tipo de realce por similaridad global, en el presente artículo, será utilizado el acrónimo Egs para hacer referencia a ella. Es importante señalar que, en el contexto de Egs, las técnicas que conforman las etapas de filtrado y segmentación se implementaron considerando las siguientes herramientas de software: Lenguaje C++12, Matlab13, Insight toolkit (ITK)14, y Visualization toolkit (VTK)15.
Figura 2. Diagrama de bloques de la estrategia Egs
Etapa de preprocesamiento En el presente trabajo, la etapa de preprocesamiento consta de las fases de filtrado y de definición de una región de interés. Tales fases se describen a continuación: Fase de filtrado A continuación se describen, brevemente, las consideraciones de orden práctico que se establecen en la figura 2 para la aplicación de la fase de filtrado, compuesta por los filtros Gaussiano, magnitud del gradiente, realce por similaridad global (GSE) y mediana. a) Obtener una imagen gausiana (Ig): Para generar Ig, la imagen original (Io) es suavizada mediante la aplicación de un filtro gaussiano cuya función es abordar el problema del ruido. El filtro gaussiano está caracterizado como una técnica espacial lineal que se ha utilizado
clásicamente para minimizar el ruido presente en imágenes. Existe una relación entre la cantidad de ruido que se atenúa mediante la aplicación de este filtro y el desenfoque de la imagen7. Este tipo de filtro emplea una distribución gaussiana discreta la cual puede expresarse mediante una máscara o kernel gaussiano, de tamaño arbitrario. Si se pretende suavizar, por ejemplo, una imagen 3-D los escalares que conforman el referido kernel pueden obtenerse de acuerdo con la Ecuación 1.
(1) Siendo: , n el tamaño del kernel gaussiano, , y las desviaciones estándar para cada dimensión espacial.
73
En la práctica, en el presente trabajo, el filtrado gaussiano se implementa mediante la convolución de la imagen original con el referido kernel gaussiano7. Los parámetros de este filtro son: la desviación estándar de cada una de las dimensiones espaciales y el radio (r) que define el tamaño (n) de la máscara, dado por la Ecuación 2.
74
n = 2r + 1,
(2)
Siendo r un escalar arbitrario b) Generar una imagen gradiente (Igm): A cada imagen Ig se le aplica un filtro basado en el cálculo de la magnitud del gradiente16. El papel de este filtro es detectar los bordes de las estructuras presentes en las imágenes. La magnitud del gradiente se utiliza ampliamente en el análisis de imágenes, principalmente, para identificar los contornos de objetos y la separación de regiones homogéneas. La detección de bordes es la detección de discontinuidades significativas en el nivel de gris o color de una imagen16. Esta técnica calcula la magnitud del gradiente usando las primeras derivadas parciales direccionales de una imagen. El modelo matemático 3-D clásico, para obtener una imagen filtrada por magnitud del gradiente se presenta mediante la Ecuación 3.
donde: i, j, k representa las direcciones espaciales en las que se calcula el gradiente. En la práctica, la magnitud del gradiente de la imagen en cada posición del vóxel, objeto de estudio, se calcula utilizando un enfoque basado en diferencias finitas. Teóricamente, el filtro de magnitud del gradiente basado en los valores de intensidad es muy susceptible al ruido16, por ello, se recomienda filtrar la imagen inicialmente para mejorar el rendimiento del detector con respecto al ruido. c) Aplicar una función de similaridad global: Los volúmenes de entrada de esta función son las imágenes Io e Igm. La finalidad de la similaridad global es abordar el problema de los artefactos. Para ello, se considera la información proveniente de los niveles de gris de vóxeles vecinos, del vóxel actual, en los volúmenes de entrada. La mencionada función produce una imagen de similaridad global (Igs) la cual se calcula mediante el valor absoluto de la resta aritmética de los vóxeles correspondientes a Igm e Io7, 17. El tamaño óptimo de la vecindad 3-D para cada uno de los filtros fue obtenido de manera heurística como se explica en la sección denominada etapa de entonación de parámetros. d) Generar una imagen mediana (Im): La presencia de un filtro de mediana (que se comporta como un filtro suavizador) al final de la fase de filtrado se justifica por
el hecho de que las imágenes de tomografía, consideradas en la presente investigación, son portadoras de ruido Poisson. Además, la incorporación de un filtro que reforza bordes (magnitud del gradiente), puede realzar componentes de alta frecuencia vinculadas con ruido lo cual exige la consideración de un filtro suavizador. Para entonar el filtro de mediana se hace coincidir, sistemáticamente, el parámetro denominado tamaño de vecindad con todos y cada uno de los casos establecidos para tal filtro, es decir, su parámetro se hace variar considerando los tamaños: (3x3x3), (5x5x5) y (7x7x7). Fase de definición de una región de interés (ROI) La similitud de los niveles de gris de los vóxeles que conforman las estructuras del corazón izquierdo tales como ventrículo izquierdo (LV), aurícula izquierda (LA), válvula aórtica (AV) y arteria aórtica (AA); exige la colocación de superficies que faciliten la segmentación de la válvula aórtica. Tales superficies reciben el nombre de planos. Particularmente, el plano que fue considerado para aislar la AAAV se denomina plano aórtico. En el contexto de la estrategia Egs, considerando las imágenes filtradas, la fase de definición de una ROI se basa en los siguientes aspectos: i) Se aplica una técnica de reducción de tamaño, basada en transformada wavelet18, cuyo parámetro se hace coincidir con el factor de reducción óptimo, obtenido en Vera7]. Esto permite generar imágenes sub-muestreadas de 64x64 píxeles a partir de imágenes filtradas de 512x512, es decir, el mencionado factor fue de 8. ii) Sobre las imágenes sub-muestreadas un cardiólogo selecciona puntos de referencia dados por: la unión de la válvula aórtica con el LV (P1) y un punto adicional dado por el ápex del LV (P2). Para ambos puntos se identifican las coordenadas manuales que establecen sin ambigüedad su ubicación espacial en cada imagen considerada. iii) Se implementa una máquina de soporte vectorial de mínimos cuadrados (LSSVM) para reconocer y detectar a P1 y P2. Para ello se desarrollan los procesos de: a) Entrenamiento. Se selecciona como conjunto de entrenamiento vecindades circulares de radio 10 píxeles, trazadas manualmente por un cardiólogo, que contienen tanto los puntos P1 y P2 (marcadores), como regiones que no contienen los referidos puntos (no marcadores). Para los marcadores el centro de sus respectivas vecindades coincide con las coordenadas manuales de P1 y P2, establecidas anteriormente. Tales vecindades son construidas sobre la vista axial de una imagen sub-muestreada de 64x64 píxeles para P1 y otra para P2. La principal razón por la cual se elige una única imagen, por cada punto de referencia, es porque se desea generar una LSSVM con alto grado de selectividad, que detecte sólo aquellos píxeles que
Revista Latinoamericana de Hipertensión. Vol. 12 - Nº 2, 2017
posean un alto grado de correlación con el patrón de entrenamiento. Luego, cada vecindad es vectorizada, y considerando sus niveles de gris, se calculan los atributos: media (µ), varianza (σ2), desviación estándar (σ) y mediana (me). Así, tanto los marcadores como los no marcadores se describen mediante vectores (Va) de atributos estadísticos, dado por: Va = [µ, σ2, σ, me]. Adicionalmente, la LSSVM es entrenada considerando como patrón de entrenamiento los vectores Va y entonando los valores de los parámetros que controlan su desempeño, µ y σ2. Este enfoque, basado en atributos, permite que la LSSVM realice su trabajo con mayor eficiencia, que cuando se utiliza el enfoque basado en vectores de mayor tamaño, que sólo considera el nivel de gris de los elementos de una imagen. El conjunto de entrenamiento se construye con una relación de 1:10, lo cual significa que por cada marcador se incluyen 10 no marcadores. La etiqueta +1 se asigna a la clase conformada por los marcadores; mientras la etiqueta -1 se asigna a la clase de los no marcadores, es decir, el trabajo de entrenamiento se hace con base en una LSSVM binaria. Durante el entrenamiento, se genera un clasificador dotado de una frontera de decisión para detectar los patrones de entrada a la LSSVM como marcadores o no marcadores. Posteriormente, debido a la presencia de falsos positivos y negativos, se aplica un proceso que permite incorporar al conjunto de entrenamiento los patrones que la LSSVM clasifica, inicialmente, de manera inapropiada. En este sentido, se consideró, un toolbox denominado LS-SVMLAB y la aplicación Matlab para implementar un clasificador LSSVM basado en un kernel gaussiano de base radial con parámetros σ2 y g. b) Validación: Las LSSVM entrenadas se utilizan para detectar a P1 y P2, en imágenes no usadas durante el entrenamiento. Para ello, se ejecutan las siguientes tareas: I) Reconocimiento de P1: Una LSSVM entrenada busca este punto de referencia, en la vista axial, desde la primera imagen ubicada en la base del corazón, hasta la imagen que representa la mitad del volumen considerado. II) Reconocimiento del P2: Una LSSVM entrenada empieza a buscar el ápex desde la imagen que representa la mitad de la base de datos (ecuador del corazón) hasta la última imagen que conforma dicha base. El proceso de validación efectuado con LSSVM permite identificar, automáticamente, las coordenadas para P1 y P2 las cuales son multiplicadas por un factor de 8 unidades, a fin de poder ubicarlas, en las imágenes de
tamaño original. De esta forma, las referidas coordenadas se utilizan para establecer la dirección (normal) del plano aórtico y la colocación del referido plano en la base del LV. Luego, mediante un proceso de discriminación, se seleccionan los puntos de las bases de datos procesadas que sean de interés, de acuerdo con la estructura anatómica del corazón izquierdo que se desee segmentar, en este caso, la AAAV. Etapa de segmentación A fin de obtener la segmentación de la arteria aorta + la válvula aórtica a las imágenes filtradas les fue aplicado un algoritmo, basado en técnicas de agrupamiento, que considera un enfoque basado en crecimiento de regiones19. El crecimiento de regiones (RG) es una técnica que permite extraer de una imagen regiones que son conectadas de acuerdo a un criterio predefinido. El RG requiere de un vóxel semilla que puede ser seleccionado manual o automáticamente, de forma que se pueda extraer todos los vóxeles conectados a la semilla19. En este artículo, la mencionada semilla es detectada mediante el uso de una LSSVM siguiendo un procedimiento que se describe posteriormente. Adicionalmente, para efectos del presente trabajo, se consideró como criterio predefinido el dado por la Ecuación 4.
| I(x,y,z)− µ| > m.σ
(4)
Siendo: I(x,y,z) el nivel de gris del vóxel objeto de estudio, μ y σ la media aritmética y la desviación estándar de los niveles de gris de la vecindad (de tamaño arbitrario r), seleccionada alrededor del vóxel semilla y m un número natural arbitrario. Como se aprecia, el desempeño del RG depende, operativamente, de 2 parámetros. Ellos son: aquel que controla el tamaño de la vecindad inicial (r) y el parámetro m que controla la amplitud del rango de intensidades considerado para aceptar o rechazar un vóxel en una región. Tales parámetros deben someterse a un proceso de entonación19. Selección de la semilla para el RG En el contexto de la estrategia Egs, considerando las imágenes filtradas, la selección de la semilla para inicializar el RG se basa en los siguientes aspectos: i) Sobre las imágenes sub-muestreadas un cardiólogo selecciona las coordenadas manuales que establecen sin ambigüedad la ubicación espacial, en cada imagen considerada, del centroide de la arteria aorta + la válvula aórtica. A este centroide se le asigna la etiqueta P3. ii) Se implementa una LSSVM para reconocer y detectar a P3. Para ello se desarrollan los procesos de: a) Entrenamiento. Se selecciona como conjunto de entrenamiento vecindades circulares de radio 20 píxeles, trazadas manualmente por un cardiólogo, que contienen tanto a P3 (marcadores), como regiones que no
75
contienen a P3 (no marcadores). Para los marcadores el centro de sus respectivas vecindades coincide con las coordenadas manuales de P3, establecidas anteriormente. Tales vecindades son construidas sobre la vista axial de una imagen sub-muestreada de 64x64 píxeles para P3. La principal razón por la cual se elige una única imagen, por cada punto de referencia, es porque se desea generar una LSSVM con alto grado de selectividad, que detecte sólo aquellos píxeles que posean un alto grado de correlación con el patrón de entrenamiento.
76
Luego, cada vecindad es vectorizada y, considerando sus niveles de gris, se calculan los atributos: media (µ), varianza (σ2), desviación estándar (σ) y mediana (me). Así, tanto los marcadores como los no marcadores se describen mediante vectores (Va) de atributos estadísticos, dado por: Va = [µ, σ2, σ, me]. Adicionalmente, la LSSVM es entrenada considerando como patrón de entrenamiento los vectores Va y entonando los valores de los parámetros que controlan su desempeño, g y σ2. Este enfoque, basado en atributos, permite que la LSSVM realice su trabajo con mayor eficiencia, que cuando se utiliza el enfoque basado en vectores de mayor tamaño, que sólo considera el nivel de gris de los elementos de una imagen. El conjunto de entrenamiento se construye con una relación de 1:10, lo cual significa que por cada marcador se incluyen 10 no marcadores. La etiqueta +1 se asigna a la clase conformada por los marcadores; mientras la etiqueta -1 se asigna a la clase de los no marcadores, es decir, el trabajo de entrenamiento se hace con base en una LSSVM binaria. Durante el entrenamiento, se genera un clasificador dotado de una frontera de decisión para detectar los patrones de entrada a la LSSVM como marcadores o no marcadores. Posteriormente, debido a la presencia de falsos positivos y negativos, se aplica un proceso que permite incorporar al conjunto de entrenamiento los patrones que la LSSVM clasifica, inicialmente, de manera inapropiada. En este sentido, se consideró, un toolbox denominado LS-SVMLAB y la aplicación Matlab para implementar un clasificador LSSVM basado en un kernel gaussiano de base radial con parámetros σ2 y g. b) Validación: Las LSSVM entrenadas se utilizan para detectar a P3, en imágenes no usadas durante el entrenamiento. Para ello, una LSSVM entrenada empieza a buscar a P3 desde la imagen que representa la mitad de la base de datos (ecuador del corazón) hasta la última imagen que conforma dicha base. El proceso de validación efectuado con LSSVM permite identificar, automáticamente, las coordenadas para P3 las cuales son multiplicadas por un factor de 8 uni-
dades, a fin de poder ubicarlas, en las imágenes de tamaño original obteniéndose de esta forma la mencionada semilla. Etapa de entonación de parámetros: Obtención de parámetros óptimos Esta etapa permite la obtención de los parámetros óptimos que garantizan un buen desempeño de la estrategia propuesta. Para ello, se modifican los parámetros asociados con la técnica que se desee entonar recorriendo, sistemáticamente, los valores pertenecientes a ciertos rangos tal y como se describe a continuación: a) Para entonar el filtro gaussiano se debe considerar un parámetro identificado como desviación estándar (σ). En el contexto del presente trabajo, se hace uso de un enfoque isotrópico que asigna el mismo valor de desviación a cada una de las direcciones en las que se aplica el filtro gaussiano y se considera como σ el valor de la desviación estándar de la imagen original. El otro parámetro del filtro gaussiano, vinculado con el tamaño de la vecindad se fijó en 3x3x3, debido a que ese fue el tamaño de vecindad óptimo, para este filtro, reportado en7. b) Los parámetros de las LSSVM, g y σ2, se entonan suponiendo que la función de costo es convexa y desarrollando ensayos basados en los siguientes pasos: o Para entonar el parámetro g se fija arbitrariamente el valor de σ2 y se asignan, sistemáticamente, valores al parámetro g. El valor de σ2 se fija inicialmente en 25. Ahora, se varía g considerando el rango [0,100] y un tamaño de paso de 0.25. o Un proceso análogo se aplica para entonar el parámetro σ2, es decir, se le asigna a g el valor óptimo obtenido en el paso anterior y, se considera un tamaño de paso de 0.25 para asignarle a σ2 el rango de valores contenidos en el intervalo [0,50]. o Los parámetros óptimos de las LSSVM son aquellos valores de g y σ2 que corresponden al error relativo porcentual mínimo, calculado considerando las coordenadas manuales y automáticas de los puntos de referencia. Éstas últimas coordenadas son generadas por la LSSVM. c) Durante la entonación de los parámetros del RG, cada una de las segmentaciones automáticas de la aurícula izquierda correspondiente al instante diástole final se compara, usando el coeficiente de Dice (Dc) [20], con la segmentación manual de la AAAV generada por un cardiólogo. Los valores óptimos para los parámetros del RG (r y m) se hacen coincidir con aquel experimento que genera el valor más alto para el Dc. Para r y m se considera el rango de valores establecido en7,17, para aplicaciones prácticas que consideran imágenes médicas. En este sentido, m toma valores que pertene-
Revista Latinoamericana de Hipertensión. Vol. 12 - Nº 2, 2017
cen a los números reales comprendidos entre 0 y 10, mientras que r considera valores enteros entre 1 y 20. El Dc es una métrica que permite comparar segmentaciones de una misma imagen 3-D obtenida por diversas metodologías7. En el contexto cardiaco, usualmente, el Dc es considerado para establecer que tan similares son, espacialmente, la segmentación manual (RD) y la segmentación automática (RP) que genera la morfología de cualquier estructura cardiaca. Adicionalmente, el Dc es máximo cuando se alcanza un perfecto solapamiento entre RD y RP pero es mínimo cuando RD y RP no se solapan en absoluto. Además, los valores esperados para el Dc son números reales comprendidos entre 0 (mínimo) y 1 (máximo). Entre más cercano a 1 se encuentre el valor del Dc, mejor será el desempeño del procedimiento que no es manual. El modelo matemático que define el Dc, viene dado por la Ecuación 5.
generadas por un cardiólogo, y las automáticas producidas por la técnica propuesta en la presente investigación. Figura 3: Vista 2D axial para: a) Imagen original. b) Imagen filtrada.
77
Figura 4. Representación 3-D de las segmentaciones de la aorta torácica correspondiente a un ciclo cardiaco completo.
Resultados
En este punto, es necesario enfatizar que en el contexto del presente trabajo, el proceso de entonación para un filtro particular se detiene cuando se identifican los valores de sus parámetros, asociados con la segmentación que genera el Dc de mayor valor. Es decir, la obtención de parámetros óptimos para los filtros se hace de manera indirecta.
Resultados cuantitativos Respecto a las LSSVM entrenadas se obtuvieron, como parámetros óptimos para g y σ2 los valores 1.50 y 1.00, respectivamente. Estos valores están asociados con un error relativo porcentual mínimo de 2.54 %. Los parámetros óptimos del crecimiento de regiones fueron: m= 8.50 y r= 2 y corresponden a un Dc máximo de 0.9012 obtenido para un filtro de mediana de tamaño (5x5x5). Resultados cualitativos La Figura 3, presenta una vista 2-D (axial) relativa a: a) Imagen original. b) Imagen filtrada, en la cual se ha identificado la arteria aorta + válvula aórtica. En esta figura, se observa una importante disminución del ruido y un agrupamiento adecuado de las estructuras anatómicas presentes en la imagen. Por otra parte, la Figura 4 muestra la vista 3-D de los 10 instantes que conforman el ciclo cardiaco completo del paciente considerado (validación intra-sujeto). En la Figura 4, se aprecia una buena representación de la AAAV para la cual se obtuvo un Dc promedio de 0.8937 ± 0.7897. Este valor para el coeficiente de Dice expresa una adecuada correlación entre las segmentaciones manuales,
Conclusiones
(5)
e ha presentado la estrategia Egs cuya entonación permite una segmentación adecuada del conjunto anatómico compuesto por la arteria aorta ascendente + la válvula aórtica y que además permite generar un Dc promedio elevado. En un corto plazo, se tiene previsto realizar una validación inter-sujeto, considerando un número importante de bases de datos, para establecer la robustez de la Egs. Las segmentaciones obtenidas, automáticamente, pueden ser útiles para determinar si el paciente sufre o no enfermedades tales como aneurismas, aterosclerosis, arterosclerosis, estenosis y/o enfermedades propias de la válvula aórtica. Además, la segmentación 3–D de la AAAV, mediante la aplicación de Egs, puede ser considerada para el diseño de modelos 3-D que permitan la planificación de cirugías y/o procesos terapéuticos asociados con las enfermedades que afectan el mencionado conjunto anatómico.
Referencias 1. Latarjet M, Ruíz A. Anatomía Humana. Volumen 2. Buenos Aires, Argentina: Editorial Panamericana; 1983. 2. Guyton A, Hall J. Textbook of Medical Physiology. USA: Elsevier Saunders; 2006. 3. Griepp R, Ergin M, Galla J, Lansman S, McCullough J, Nguyen K, Klein J, Spielvogel D. Natural History of Descending Thoracic and Thoracoabdominal Aneurysms. Ann Torca Durg. 1999; 67(6):1927-30. 4. Coady M, Graeme L, Elefteriades J. Surgical Intervention Critreria for
Thoracic Aortic and Thoracoabdominal Aneurysms. Ann Thoracic Surg. 1999; 67(6):1922-28. 5. Estrera A, Rubenstein F, Miller C, Huynh T, Letsou G, Safi H. Descending Surgical thoracic aortic aneurysm: surgical approach and treatment using the adjuncts cerebrosspinal fluid drainage and distal aortic perfusion. Ann Thoracic Surg 2001; 72(2):481-6. 6. World Health Organization (WHO). Global status report on non communicable diseases.Tech. Rep. 2010. Geneva; 2011. 7. Vera, M. Segmentación de estructuras cardiacas en imágenes de tomografía computarizada multi-corte, Ph.D. dissertation. [Tesis doctoral]. Mérida-Venezuela: Universidad de los Andes; 2014.
78
8. Zheng Y, Matthias J, Liao R, Boese J, Kirschstein U, Georgescu B, Zhou S K, Kempfert J, Walther T, Brockmann G, Comaniciu D. “Automatic aorta segmentation and valve landmark detection in c-arm ct: Application to aortic valve implantation,” in Medical Image Computing and Computer-Assisted Intervention.2010;vol 6361: pp. 476–483 9. Sasa R, Ionasec D, Vitanovski I, Voigt Y, Wang B, Georgescu N, Navab, D Comaniciu. “Complete valvular heart apparatus model from 4d cardiac ct,” Medical Image Analysis. 2012; 16(5): pp. 1003–1014. 10. Elattar M A, Wiegerinck E M, Planken R N, van Assen H C, Baan J, Marquering H. Automatic segmentation of the aortic root in CT angiography of candidate patients for transcatheter aortic valve implantation. Medical & Biological Engineering & Computing. 2014; 52(7): 611–618. 11. Pouch A, Wang H, Takabe M, Jackson B , Sehgal C , Gorman J, Gorman III R , Yushkevich P. Automated segmentation and geometrical modeling
of the tricuspid aortic valve in 3D echocardiographic images. Published in final edited form as: Med Image Comput Comput Assist Interv. 2013; 16(01): 485–492. 12. Stroustrup B, The C++ Programming Language. Addison–Wesley; 2000. 13. Chapman S, MATLAB Programming for Engineers.New York: Thomson; 2004. 14. Johnson H, McCormick M, Ibáñez L. Insight Software Consortium. Insight Segmentation and Registration Toolkit (ITK). http://www.itk.org/, 3 ed. Updated for ITK version 4.5. (2009). 15. Schroeder W, Martin K, Lorensen B, The Visualization Toolkit, An ObjectOriented Approach to 3D Graphics.ciudad? Prentice Hall; 2001. 16. Pratt W. Digital Image Processing. USA: John Wiley & Sons Inc; 2007. 17. Huérfano Y. Segmentación de estructuras del corazón derecho en imágenes de tomografía computarizada cardiaca, [Tesis de Maestría]. Universidad Nacional Experimental Del Táchira: Táchira-Venezuela; 2017. 18. Meyer Y. Wavelets and Operators.USA: Cambridge University Press; 1999. 19. Passarielo G, Mora F. Imágenes Médicas, Adquisición, Análisis, Procesamiento e Interpretación. Venezuela: Equinoccio Universidad Simón Bolívar; 1995. 20. Dice L, Measures of the amount of ecologic association between species. Ecology.1945; 26(3): pp. 297-302.
Manuel Velasco (Venezuela) Editor en Jefe - Felipe Alberto Espino Comercialización y Producción Reg Registrada en los siguientes índices y bases de datos:
SCOPUS, EMBASE, Compendex, GEOBASE, EMBiology, Elsevier BIOBASE, FLUIDEX, World Textiles, OPEN JOURNAL SYSTEMS (OJS), REDALYC (Red de Revistas Científicas de América Latina, el Caribe, España y Portugal), LATINDEX (Sistema Regional de Información en Línea para Revistas Científicas de América Latina, el Caribe, España y Portugal) LIVECS (Literatura Venezolana para la Ciencias de la Salud), LILACS (Literatura Latinoamericana y del Caribe en Ciencias de la Salud) PERIÓDICA (Índices de Revistas Latinoamericanas en Ciencias), REVENCYT (Índice y Biblioteca Electrónica de Revistas Venezolanas de Ciencias y Tecnología) SCIELO (Scientific Electronic Library Online), SABER UCV, DRJI (Directory of Research Journal Indexing) CLaCaLIA (Conocimiento Latinoamericano y Caribeño de Libre Acceso), EBSCO Publishing, PROQUEST, SCIENCE
CITATION INDEX EXPANDED (SciSearch)
w w w. r ev i s ta h i p e r te n s i o n . c o m . ve w w w. r ev i s ta d i a b e te s . c o m . ve w w w. r ev i s ta s i n d r o m e . c o m . ve w ww. r ev i s ta av ft. c o m . ve
Revista Latinoamericana de Hipertensiรณn. Vol. 12 - Nยบ 2, 2017
79
l principio de la resonancia magnética nuclear basado en la utilización de ondas de radio frecuencia y campos magnéticos es el fundamento del proceso de generación de imágenes tridimensionales por resonancia magnética. Los avances alcanzados en esta modalidad imagenológica han permitido su aplicación para la obtención de información tanto morfológica como funcional del sistema cardiovascular. En el presente artículo, se hace una revisión de tales avances y de sus principales aplicaciones en cardiología. Palabras clave: Resonancia magnética nuclear, radio frecuencia, campos magnéticos, cardiología Nuclear magnetic resonance principle based on the use of radio frequency waves and magnetic fields is the basis of the process of generating three-dimensional magnetic resonance imaging. The advances achieved in this imaging modality have allowed its application to obtain both morphological and functional information of the cardiovascular system. In the present article, the review of such advances and their main applications in cardiology is performed. 80
Keywords: Magnetic resonance, radiofrequency, magnetic champs, cardiology a angiografía y la tomografía axial computarizada tienen en común la utilización de rayos X como fuente de energía para la obtención de las imágenes. Los rayos X son un tipo de radiación ionizante capaz de interactuar con la materia, lo cual puede producir mutaciones biológicas en el cuerpo humano. En tal sentido, una de las metas de largo alcance de la imagenología médica, es la de obtener imágenes médicamente diagnosticables sin, o al menos minimizando, la utilización de radiación ionizante. Al igual que otras modalidades imagenológicas, el objeto de la imagenología por resonancia magnética (MRI), es formar un mapa de objetos heterogéneos mostrando su estructura tridimensional. La MRI puede obtener imágenes del cuerpo humano, no solo en el plano transversal o axial sino también en los dos restantes planos ortogonales (sagital y coronal) sin utilización de radiación ionizante puesto que se aprovecha de la variación espacial de la intensidad de la señal de resonancia magnética nuclear (NMR), sobre el objeto de interés. La imagenología por resonancia magnética consiste de la medición de la concentración y el tiempo de relajación de cierto núcleo atómico excitado por la acción de un campo magnético fijo y un campo de radiofrecuencias1. La calidad de las imágenes que pueden ser adquiridas, es un parámetro que constantemente se está mejorando en MRI. Muchos esfuerzos han sido realizados en optimización de la calidad de las imágenes y sobre la minimización de los niveles de señales no deseadas. No obstante, algunos de estos niveles son inevitables en los datos de MRI, a pesar de los grandes avances presentes en los más modernos equipos de exploración. Estos defectos en los datos tridimensionales (3D) pueden ser minimizados bien sea durante el proceso de adquisición o durante la fase de reconstrucción. La resonancia magnética nuclear está basada en la interacción de un núcleo atómico con un campo magnético aplicado externamente y un campo de radiofrecuencias (RF). En la práctica clínica, el hidrógeno constituye el núcleo atómico más utilizado, por ser el elemento más abundante y fácilmente visualizable. El protón o núcleo del hidrógeno tienen un momento angular intrínseco denominado spin. La cantidad de protones móviles de hidrógeno que posee un determinado tejido, con relación al agua, se conoce como su densidad de spin o densidad de protones. Técnicas de adquisición Numerosas técnicas de imagenología por resonancia magnética están disponibles. En imagenología cardiaca se ha adquirido una amplia experiencia en la utilización de sistemas de secuencias de pulsos de ecos de spin (spin–echo pulses sequences) y reconstrucción de la imagen por transformada de Fourier en dos dimensiones2. Imágenes de alta calidad del corazón, han sido generadas por la sincronización de secuencias individuales de imágenes con el ciclo cardiaco3, permitiendo visualizar tejidos con alto contraste, logrando así establecer las diferencias entre el miocardio, el pericardio y las estructuras adyacentes4. La ausencia de señal debida al movimiento de la sangre, permite delinear claramente entre el endocardio y el endotelio sin el uso de agentes de contraste. Típicamente en esta técnica el tiempo de repetición, o TR (corresponde con el período de tiempo entre el instante de inicio de la secuencia de pulsos y el inicio de la subsecuente secuencia), es sincronizado con el ritmo cardiaco del paciente. Cine MRI ha sido otra técnica de adquisición utilizada en cardiología 3D, el método es relativamente rápido proporcionando información dinámica útil de las estructuras y de la función cardiovascular5,6,7. Típicamente múltiples imágenes de una sección sencilla son obtenidas, por consiguiente el número de secciones obtenidas disminuye mientras se incrementa el número de imágenes dentro de determinada sección. Esto representa una ventaja, ya que la resolución temporal aumenta en la sección dada. La información obtenida es almacenada con respecto a un punto de activación derivado del ECG, de allí que los datos crudos pueden ser retrospectivamente procesados y luego interpolados para generar datos sintéticos correspondientes a fases particulares del ciclo cardíaco. Las imágenes pueden entonces ser reconstruidas con transformada de Fourier de la forma usual. El uso de la cine MRI para la valoración de la función cardíaca puede ser limitada por el hecho, de que las imágenes no son adquiridas en tiempo real como en la angiocardiografía o la ecocardiografía, pero supera las mayores limitaciones de