Rlh 4 2016

Page 1

® Registrada en los siguientes índices y bases de datos: SCIENCE CITATION INDEX EXPANDED (SciSearch) JOURNAL CITATION REPORTS/SCIENCE EDITION REDALYC (Red de Revistas Científicas de América Latina, el Caribe, España y Portugal) SCIELO (Scientific Electronic Library Online) LATINDEX (Sistema Regional de Información en Línea para Revistas Científicas de América Latina, el Caribe, España y Portugal) LIVECS (Literatura Venezolana para la Ciencias de la Salud) LILACS (Literatura Latinoamericana y del Caribe en Ciencias de la Salud) ELSEVIER BIBLIOGRAPHIC DATABASES: EMBASE, Compendex, GEOBASE, EMBiology, Elsevier BIOBASE, FLUIDEX, World Textiles, Scopus PERIÓDICA (Índices de Revistas Latinoamericanas en Ciencias) REVENCYT (Índice y Biblioteca Electrónica de Revistas Venezolanas de Ciencias y Tecnología) SABER UCV DRJI (Directory of Research Journal Indexing) CLaCaLIA (Conocimiento Latinoamericano y Caribeño de Libre Acceso) EBSCO Publishing PROQUEST OPEN JOURNAL SYSTEMS OJS

VOLUMEN XI. Nº 4 - 2016

ISSN: 1856-4550 Depósito Legal: PP200602DC2167

4

www.revistahipertension.com.ve



R

Editor en Jefe Manuel Velasco (Venezuela) Editor Adjunto Julio Acosta Martínez Editores Asociados Alcocer Luis (México) Brandao Ayrton (Brasil) Feldstein Carlos (Argentina) Israel Anita (Venezuela) Israili Zafar (Estados Unidos) Levenson Jaime (Francia) Parra José (México) Ram Venkata (Estados Unidos) Comité Editorial Álvarez de Mont, Melchor (España) Amodeo Celso (Brasil) Arciniegas Enrique (Venezuela) Baglivo Hugo (Argentina) Bermúdez Valmore (Venezuela) Bognanno José F. (Venezuela) Briceño Soledad (Venezuela) Contreras Freddy (Venezuela) Contreras Jesús (Venezuela) Crippa Giuseppe (Italia) De Blanco María Cristina (Venezuela) Escobar Edgardo (Chile) Foo Keith (Venezuela) Gamboa Raúl (Perú) Juan De Sanctis (Venezuela) Kaplan Norman (Estados Unidos) Lares Mary (Venezuela) Lenfant Claude (Estados Unidos) López Jaramillo Patricio (Colombia) López Mora (Venezuela) Manfredi Roberto (Italia) Manrique Vestal (Venezuela) Marahnao Mario (Brasil) Marín Melania (Venezuela) Monsalve Pedro (Venezuela) Morr Igor (Venezuela) Mújica Diorelys (Venezuela) Nastasi Santina (Venezuela) Pizzi Rita (Venezuela) Ponte Carlos (Venezuela) Rodríguez Luis Alejandro (Venezuela) Rodríguez de Roa Elsy (Venezuela) Sánchez Ramiro (Argentina) Soltero Iván (Venezuela) Tellez Ramón (Venezuela) Valdez Gloria (Chile) Valencia Delvy (Venezuela) Vidt Donald (Estados Unidos) Zanchetti Alberto (Italia)

Análisis de imágenes cardiacas tridimensionales

Sumario - Volumen 11, Nº 4, 2016

Editores

evista Latinoamericana de Hipertensión Analysis of three-dimensional cardiac images Antonio J. Bravo, Miguel Vera, Delia Madriz, Julio Contreras-Velásquez, Yoleidy Huérfano, José Chacón, Sandra Wilches-Durán, Modesto Graterol-Rivas, Daniela Riaño-Wilches, Joselyn Rojas, Valmore Bermúde.

76

Ultrasonido tridimensional en cardiología Three-dimensional ultrasound in cardiology Antonio J. Bravo, Miguel Vera, Delia Madriz, Julio Contreras-Velásquez, José Chacón, Sandra Wilches-Durán, Modesto Graterol-Rivas, Daniela Riaño-Wilches, Joselyn Rojas, Valmore Bermúdez.

87

Tomografía por emisión nuclear en cardiología Nuclear emission tomography in cardiology Antonio J. Bravo, Miguel Vera, Delia Madriz, Julio ContrerasVelásquez, José Chacón, Sandra Wilches-Durán, Modesto Graterol-Rivas, Daniela Riaño-Wilches, Joselyn Rojas, Valmore Bermúdez.

100

Segmentación automática de la arteria aorta torácica en imágenes de tomografía computarizada cardiaca Automatic segmentation of the thoracic aorta in cardiac computed tomography images Miguel Vera, Yoleidy Huérfano, Julio Contreras, María Vera, Atilio Del Mar, José Chacón, Sandra Wilches-Durán, Modesto Graterol-Rivas, Daniela Riaño-Wilches, J oselyn Rojas, Valmore Bermúdez.

Volumen 11, Nº 4. 2016 Depósito Legal: pp200602DC2167 ISSN: 1856-4550 Sociedad Latinoamericana de Hipertensión Dirección: Escuela de Medicina José María Vargas, Cátedra de Farmacología, piso 3. Esq. Pirineos. San José. Caracas-Venezuela. Telfs. 0212-5619871 E-mail: revistahipertension@gmail.com www.revistahipertension.com.ve Comercialización y Producción: Felipe Alberto Espino Telefono: 0212-881.1907/ 0416-811.6195 / 0412-363.4540 E-mail: felipeespino7@gmail.com Diseño de portada y diagramación: Mayra Gabriela Espino Telefono: 0412-922.25.68

E-mail: mayraespino@gmail.com

110


Instrucciones a los Autores

ALCANCE Y POLÍTICA EDITORIAL

La revista Latinoamericana de Hipertensión es una publicación biomédica periódica, arbitrada, de aparición trimestral, destinada a promover la productividad científica de la comunidad nacional e internacional en el área de Sistema Cardiovascular; así como todas aquellas publicaciones vinculadas a la medicina práctica en esta área. Su objetivo fundamental es la divulgación de artículos científicos y tecnológicos originales y artículos de revisión por invitación del Comité Editorial, asimismo, se admiten informes de investigaciones de corte cualitativo o cuantitativo; todos deben ser trabajos inéditos, no se hayan sometidos o hayan publicados en otra revista. El manuscrito debe ir acompañado de una carta solicitud firmada por el autor principal y el resto de los autores responsables del mismo. Está constituida por un Comité de redacción, organizado por Editor en Jefe, Editores Ejecutivos y Comité Editorial. Los manuscritos que publica pueden ser de autores nacionales o extranjeros, residentes o no en Venezuela, en castellano o en ingles (los resúmenes deben ser en ingles y castellano). Esta revista está incluida en las bases de datos de publicaciones científicas en salud: SCIENCE CITATION INDEX EXPANDED (SciSearch) JOURNAL CITATION REPORTS/SCIENCE EDITION REDALYC (Red de Revistas Científicas de América Latina, el Caribe, España y Portugal) SCIELO (Scientific Electronic Library Online) LATINDEX (Sistema Regional de Información en Línea para Revistas Científicas de América Latina, el Caribe, España y Portugal) LIVECS (Literatura Venezolana para la Ciencias de la Salud) LILACS (Literatura Latinoamericana y del Caribe en Ciencias de la Salud) ELSEVIER BIBLIOGRAPHIC DATABASES: EMBASE, Compendex, GEOBASE, EMBiology, Elsevier BIOBASE, FLUIDEX, World Textiles, Scopus DRJI (Directory of Research Journal Indexing) PERIÓDICA (Índices de Revistas Latinoamericanas en Ciencias) REVENCYT (Índice y Biblioteca Electrónica de Revistas Venezolanas de Ciencias y Tecnología) SABER UCV A tales efectos, los manuscritos deben seguir las instrucciones siguientes: a.- Todo el proceso de revisión, edición y publicación se realiza vía correo electrónico y a través de la red, permitiendo de esta manera agilizar la edición, y que un amplio público pueda acceder de manera rápida y gratuita. b.- Los trabajos deben ser enviados como archivo en formato MS Word u openoffice no comprimido adjunto a un mensaje de correo electrónico en el que deben figurar: Los nombres y apellidos completos de todos los autores y el título del trabajo, el correo electrónico y dirección postal del autor de contacto. Después de haber recibido el trabajo enviaremos un correo electrónico como acuse de recibo. Orientaciones para la publicación Para la publicación de trabajos científicos en la revista Latinoamericana de Hipertensión, los mismos estarán de acuerdo con los requisitos originales para su publicación en Revistas Biomédicas, según el Comité Internacional de Editores de Revistas Biomédicas (Arch. lntern. Med. 2006:126(36):1-47), www.icmje.com. Además, los editores asumen que los autores de los artículos conocen y han aplicado en sus estudios la ética de experimentación Internacional, como es el caso de la Convención de Helsinki. En el caso de estudios clínicos hechos en Venezuela, debe mencionarse en la sección correspondiente a selección del paciente, si el estudio se realizo en apego a la Convención de Helsinki, Ley del ejercicio de la medicina y Normas de Investigación Clínica del Ministerio de Salud y Desarrollo Social, con el consentimiento informado y la aprobación del comité de ética correspondiente. Se aceptan como idiomas el español, francés, portugués e inglés. Los trabajos no deben pasar de un total de 25 páginas de extensión. Se debe revisar el trabajo eliminando todos los formatos ocultos innecesarios. Al comienzo del trabajo se debe incluir, y por este orden: título, autores, afiliación, dirección electrónica, resumen de no más de 200 palabras y listado de palabras clave. A continuación, en el caso de que el idioma no sea el inglés, versión en esta lengua del título (Title), resumen (Abstract) y palabras clave (Key words). Las referencias a artículos o libros figurarán en el texto, entre paréntesis, indicando el apellido del autor/a o autores/as y el año de edición, separados por una coma. Configuración de página Mecanografiar original a doble espacio, papel bond blanco, 216 x 279 mm (tamaño carta) con márgenes, Margen superior 2,4.Márgenes inferior, izquierdo y derecho 3. Encabezado 1,4. Pie de página 1,25. Sin citas a pie de página, en una sola cara del papel. Usar doble espacio en todo el original. Su longitud no debe exceder las 10 páginas, excluyendo el espacio destinado a figuras y leyendas (4-5) y tablas (4-5). Formato texto - Cada uno de los componentes del original deberá comenzar en página aparte, en la secuencia siguiente: a. Página del título. b. Resumen y palabras claves. c. Texto. d. Agradecimientos. e. Referencias. f. Tablas: cada una de las tablas en páginas apartes, completas, con título y llamadas al pie de la tabla. g. Para la leyenda de las ilustraciones: use una hoja de papel distinta para comenzar cada sección. Enumere las páginas correlativamente empezando por el título. El número de la página deberá colocarse en el ángulo superior izquierdo de la misma. La página del título deberá contener: - Título del artículo, en inglés y español conciso pero informativo. a. Corto encabezamiento de página, no mayor de cuarenta caracteres (contando letras y espacios) como pie de página, en la página del título con su respectiva identificación. b. Primer nombre de pila, segundo nombre de pila y apellido (con una llamada para identificar al pie de página el más alto grado académico que ostenta y lugar actual donde desempeña sus tareas el(los) autores. c. El nombre del departamento (s) o instituciones a quienes se les atribuye el trabajo. d. Nombre y dirección electrónica del autor a quien se le puede solicitar separatas o aclaratorias en relación con el manuscrito. e. La fuente que ha permitido auspiciar con ayuda económica: equipos, medicamentos o todo el conjunto. f. Debe colocarse la fecha en la cual fue consignado el manuscrito para la publicación. - La segunda página contiene un resumen en español y su versión en inglés, cada uno de los cuales tendrá de no más de 250 palabras. En ambos textos se condensan: propósitos de la investigación, estudio, método empleado, resultados (datos específicos, significados estadísticos si fuese posible) y conclusiones. Favor hacer énfasis en los aspectos nuevos e importantes del estudio o de las observaciones. Inmediatamente después del resumen, proporcionar o identificar como tales: 3-10 palabras claves o frases cortas que ayuden a los indexadores en la construcción de índices cruzados de su artículo y que puedan publicarse con el resumen, utilice los términos del encabezamiento temático (Medical Subject Heading) del lndex Medicus, cuando sea posible. - En cuanto al texto, generalmente debe dividirse en: introducción, materiales y métodos, resultados y discusión. Agradecimientos, sólo a las personas que han hecho contribuciones reales al estudio. Figuras, tablas y cuadros

- Deben ir centradas y dejar un espacio anterior 12. - Pies: Arial 10 normal justificada. Interlineado sencillo. Sangrado especial primera línea 0,50 cm. Espacio anterior 6 y posterior 12. No utilizar abreviaturas (Ejemplo Fig. 1 ó Tab. 1) sino palabra completa (Ejemplo Figura 1 ó Tabla 1). - Las tablas no deben ocupar más de una página, en caso de necesitar más espacio dividirla en varias y si no es posible incluirla como anexo. - Las figuras tipo imagen deben ser en formato JPG, PNG ó GIF con una resolución mínima aceptable que permita ver claramente su contenido. - Cuando se quiera presentar una sola figura a partir de varios cuadros de texto, seleccione los objetos y agrúpelos. - Es recomendable incluir en el manuscrito una hoja de leyendas de cada figura. Si se trata de microfotografías, citar la magnificación al microscopio ej. 50X y la técnica de coloración empleada. - La publicación de fotografías de pacientes identificables no esta permitida por razones éticas; enmascarar para que no sean identificables los pacientes. Ilustraciones: Deben ser de buena calidad; entregarlas separadas; las fotos, en papel brillante con fondo blanco, generalmente 9 x 12 cm. Las fotografías de especimenes anatómicos, o las de lesiones o de personas, deberán tener suficiente nitidez como para identificar claramente todos los detalles importantes. En caso de tratarse de fotos en colores, los gastos de su impresión correrán a cargo del autor(s) del trabajo. Lo mismo sucederá con las figuras que superen el número de cuatro. - Todas las figuras deberán llevar un rótulo engomado en el reverso y en la parte superior de la ilustración indicando número de la figura, apellidos y nombres de los autores. No escribir en la parte posterior de la figura. Si usa fotografía de personas, trate de que ésta no sea identificable o acompañarla de autorización escrita de la misma. Las leyendas de las ilustraciones deben ser mecanografiadas a doble espacio en página aparte y usar el número que corresponde a cada ilustración. Cuando se usen símbolos y fechas, números o letras para identificar partes en las ilustraciones, identifíquelas y explíquelas claramente cada una en la leyenda. Si se trata de microfotografía, explique la escala e identifique el método de coloración. Para el envío - Envíe un original inédito y dos copias impresas en un sobre de papel grueso, incluyendo copias fotográficas y figuras entre cartones para evitar que se doblen, simultáneamente envíe una versión electrónica en CD o a través del E-mail: revistahipertension@gmail.com, indicando el programa de archivo. Las fotografías deben venir en sobre aparte. Los originales deben acompañarse de una carta de presentación del autor en la que se responsabiliza de la correspondencia en relación a los originales. En ella debe declarar que conoce los originales y han sido aprobados por todos los autores; el tipo de artículo presentado, información sobre la no publicación anterior en otra revista, congresos donde ha sido presentado y si se ha usado como trabajo de ascenso. - Acuerdo de asumir los costos de su impresión en caso de fotos a color, autorización para reproducir el material ya publicado o ilustraciones que identifiquen a personas. - Cuando se refiere a originales, queda entendido que no se enviará artículo sobre un trabajo que haya sido publicado o que haya sido aceptado para su publicación en otra revista. - Todos los trabajos serán consultados por lo menos por dos árbitros en la especialidad respectiva. - La revista Latinoamericana de Hipertensión, no se hace solidaria con las opiniones personales expresadas por los autores en sus trabajos, ni se responsabiliza por el estado en el que está redactado cada texto. - Todos los aspectos no previstos por el presente reglamento serán resueltos por la Junta Directiva de la Revista. Referencias - Las referencias serán individualizadas por números arábicos, ordenados según su aparición en el texto. La lista de referencias llevará por título “Referencias” y su ordenamiento será según su orden de aparición en el texto. Para su elaboración usar el sistema Internacional. - Las citas de los trabajos consultados seguirán los requisitos de uniformidad para manuscritos presentados a revistas Biomédicas, versión publicada en: Ann lntern Med. 2006; 126(36): 1-47, www.icmje.com. No se aceptarán trabajos que no se ajusten a las normas. Las mismas aparecerán al final del artículo y deberán ajustarse al siguiente formato: Libros: Apellido, Iníciales del nombre. (Año de publicación). Título en letra cursiva. Ciudad: Editorial. Cheek, D.A. (1992). Thinking constructively about Science, Technology, and Society education. New York: State University of New York Press. Capítulos de libros: Apellido, Iniciales del nombre. (Año de publicación). Título del capítulo. En Inicial del nombre, Apellido del editor (Ed.), Título del libro en letra cursiva (páginas que comprende el capítulo). Ciudad: Editorial. Solomon, J.P. (1989).The social construction of school science. En R. Millar (Ed.), Doing science: Images of science in science education (pp. 126-136). New York: Falmer Press. Artículos de revistas: Apellido, Iniciales del nombre. (Año de publicación). Título del artículo. Nombre de la revista en letra cursiva, volumen, número, páginas. Rubba, P.A. y J.A. Solomon (1989). An investigation of the semantic meaning assigned to concepts affiliated with STS education and of STS Intructional practices among a sample of exemplary science teachers. Journal of Research in Science Teaching, 4, 26, 687-702. Para cualquier consulta relacionada con el formato de los trabajos dirigirse al editor. Proceso de revisión Los trabajos enviados serán revisados anónimamente por dos evaluadores o revisores. No se aceptan trabajos ya publicados anteriormente, tanto en soporte papel como electrónico. Aceptación y publicación Todos los manuscritos aceptados serán publicados tanto impresa como electrónicamente trimestralmente. La salida de cada número será anunciada previamente a los incluidos en la lista de correos de revistahipertension@gmail.com. No hay gastos de afiliación, de publicación ni de ningún otro tipo en la revista Latinoamericana de Hipertensiónl. La revista apoya las políticas para registro de ensayos clínicos de la Organización Mundial de la Salud (OMS) y del International Committee of Medical Journall Editors (ICMJE), reconociendo la importancia de esas iniciativas para el registro y divulgación internacional de Información sobre estudios clínicos, en acceso abierto. En consecuencia, solamente se aceptarán para publicación, a partir de 2007, los artículos de investigaciones clínicas que hayan recibido un número de identificación en uno de los Registros de Ensayo Clínicos validados por los criterios establecidos por OMS e ICMJE, cuyas direcciones están disponibles en el sitio del ICMJE. El número de Identificación se deberá registrar al final del resumen.


Análisis de imágenes cardiacas tridimensionales

Analysis of three-dimensional cardiac images

Abstract

Resumen

76

Antonio J. Bravo, MgSc, PhD1*, Miguel Vera, MgSc, PhD2,3, Delia Madriz, MgSc, PhD4, Julio Contreras-Velásquez, MSc3, Yoleidy Huérfano, MgSc3, José Chacón, MgSc, PhD2, Sandra Wilches-Durán, MgSc2, Modesto Graterol-Rivas, MgSc, PhD2, Daniela Riaño-Wilches, BSc6, Joselyn Rojas, MD, MSc5, Valmore Bermúdez, MD, MSc, MPH, PhD7* 1 Coordinación de Investigación Industrial, Decanato de Investigación, Universidad Nacional Experimental del Táchira, San Cristóbal, 5001,Táchira, Venezuela. Autor responsable de correspondencia: abravo@unet.edu.ve 2 Grupo de Investigación Altos Estudios de Frontera (ALEF), Universidad Simón Bolívar, Cúcuta, Colombia. 3 Grupo de Investigación en Procesamiento Computacional de Datos (GIPCD-ULA) Universidad de Los Andes-Táchira, Venezuela. 4 Programa Calidad y Productividad Organizacional, Decanato de Investigación, Universidad Nacional Experimental del Táchira, San Cristóbal, 5001, Táchira, Venezuela.. 5 Pulmonary and Critical Care Medicine Department. Brigham and Women’s Hospital. Harvard Medical School. Boston, MA. USA 02115. 6 Facultad de Medicina, Universidad de los Andes, Bogotá, Colombia. 7 Centro de Investigaciones Endocrino-Metabólicas “Dr. Félix Gómez” Facultad de Medicina. Universidad del Zulia, Venezuela.

l análisis de imágenes constituye una herramienta útil para el diagnóstico, tratamiento y monitoreo de diversas enfermedades. Las técnicas de procesamiento de imágenes permiten la evaluación cuantitativa no–invasiva de la fisiopatología humana, proporcionando información morfológica, funcional y dinámica de diferentes estructuras anatómicas. Los progresos tecnológicos recientes sobre las diferentes modalidades de observación han permitido incrementar la calidad del tratamiento al paciente, gracias al uso de técnicas modernas de procesamiento de imágenes tridimensionales. Sin embargo, la adquisición de estas imágenes tridimensionales dinámicas conduce a la producción de grandes volúmenes de datos para procesar, a partir de los cuales, las estructuras anatómicas deben ser extraidas y analizadas, respetando las restricciones impuestas por el contexto clínico. Herramientas de extracción, de visualización tridimensional y de cuantificación son usadas actualmente dentro de la rutina clínica pero, desafortunadamente, necesitan de una interacción importante con el médico. Estos elementos justifican el desarrollo de nuevos algoritmos eficaces y robustos para la extracción de estructuras y estimación de diferentes parámetros clínicos a partir de imágenes tridimensionales. Como resultado colocar a disposición del personal clínico nuevos medios para evaluar, de manera precisa, la anatomía y la fisiopatología a partir de imágenes tridimensionales, representa un avance certero dentro de la investigación conducente a obtener una descripción completa del corazón a partir de un único examen. Palabras Clave: Imágenes tridimensionales, cardiología, preprocesamiento, visualización, análisis, ultrasonido, tomografía por emisión nuclear, tomografía computarizada, resonancia magnética, angiografía por rayos X.

mage analysis is a useful tool for the diagnosis, treatment and monitoring of several diseases. The image processing techniques allow noninvasive quantitative assessment of human pathophysiology, providing morphological, functional and dynamical information of the diferent anatomical structures. Recent technological progress on the diferent modes of observation have increased the quality of patient treatment, through the use of novel processing techniques of three-dimensional images. However, the acquisition of these dynamical three-dimensional images leads to the generation of large volumes of data, from which the anatomical structures are extracted and analyzed, considering the clinical context restrictions. Currently, sophisticated tools for extracting, three-dimensional visualization and quantification are used in clinical routine, but unfortunately, these tools require significant interaction of the specialist. As a result, a set of new methods are available to the clinician in order to accurately assess the anatomy and pathophysiology from threedimensional images, which represents a certain progress in the process leading to obtain a complete description of the heart from a single test. Keywords: Three-dimensional images, cardiology, preprocessing, visualization, analysis, ultrasound, emission tomography, computed tomography, magnetic resonance, X–ray angiography.


Introducción

Revista Latinoamericana de Hipertensión. Vol. 11 - Nº 4, 2016 Figura 2. Secuencias temporales de imágenes (a) Imagen 2-D + t. (b) Imagen 3-D + t.

a imagenología tridimensional está esencialmente referida a los procesos de adquisición digital de muestras de objetos distribuidos a lo largo de un espacio en tres dimensiones. Estas tres dimensiones representan el ancho, largo y la profundidad del objeto a adquirir, y usualmente en el sistema coordenado cartesiano son etiquetadas como (x,y,z). El termino imagenología tridimensional es frecuentemente generalizado, y en él se incluye procesamiento, visualización y análisis del conjunto de datos tridimensionales. Desde el punto de vista matemático, las imágenes son consideradas matrices o funciones discretas cuyas dimensiones corresponden con una coordenada que permite localizar el valor único de la muestra. Smith y Webb1, describen cómo exactamente estas matrices son obtenidas y cómo se relacionan con el mundo real del cual son adquiridas. Cada muestra en la matriz corresponde con un elemento de imagen, el cual, si la imagen es espacialmente bidimensional (2-D), es usualmente llamado píxel (abreviatura de picture element), y si la imagen es espacialmente tridimensional (3-D), es llamado vóxel (volume element). Es importante señalar que, matemáticamente, una imagen 2-D es representada por una matriz M × N píxeles, en la cual la posición de cada píxel es obtenida a partir de la notación común utilizada en las matrices, por ejemplo (m, n). La posición de la fila está dada por el índice m y el de la columna por n. El índice m toma valores entre 0 y M − 1 y el índice n entre 0 y N − 1. En correspondencia con un sistema de coordenadas cartesiano el eje horizontal (eje x) toma valores de izquierda a derecha mientras que el eje vertical (eje y) de arriba hacia abajo (Figura 1a). La Figura 1b muestra la ubicación de un vóxel (l, m, n) en una imagen en el espacio tridimensional. Las matrices de la Figura 1, representan imágenes espacialmente bidimensionales y tridimensionales. En procesos de adquisición de imágenes biomédicas los datos usualmente consisten de secuencias temporales de imágenes 2-D o 3-D. Por ejemplo, en ultrasonido bidimensional o microscopía óptica, la caracterización de un órgano o un tejido requiere de la adquisición de un conjunto de datos 2-D en el tiempo. La Figura 2 ilustra la representación matricial de marcos (frames) temporales 2-D y volúmenes temporales 3-D. Se puede observar en este tipo de imágenes la inclusión de la dimensional temporal t. Figura 1. Representación matricial de imágenes (a) Imagen bidimensional, (b) Imagen tridimensional.

En los procesos de adquisición, las muestras de los objetos 3-D son tomadas con espaciamiento no necesariamente isotrópico. Una imagen tridimensional o los procesos de imagenología tridimensional, algunas veces pueden ser sintetizados a partir de imágenes 2-D, pero idealmente la imagen es adquirida simultáneamente en tres dimensiones y los procesos de imagenología son aplicados congruentemente en tres dimensiones. Las capacidades de adquisición, procesamiento, visualización y análisis cuantitativo de la imagenología tridimensional han incrementado significativamente el desarrollo de procesos de extracción de información, científica y clínica, contenida en imágenes médicas en distintas especialidades. Esto ha permitido focalizar, desde hace más de 10 años, a la imagenología médica, en la consecución de grandes impactos en los procedimientos terapéuticos, no sólo en la obtención del mejor diagnóstico sino también en la generación de modelos 3-D de órganos que desplacen al análisis de cortes 2-D de tales estructuras2. El campo de acción de la imagenología 3-D es considerablemente amplio y puede ser clasificado en tres subcampos básicos: preprocesamiento, visualización y análisis. El objetivo del artículo es mostrar las bases conceptuales que fundamentan los subcampos, cuáles de estas áreas han sido estudiadas en cardiología, y bajo qué modalidad imagenológica lo han hecho. En cuanto a este último aspecto, se presenta un espectro de las modalidades en imagenología cardiaca tridimensional, a saber: ultrasonido (US), tomografía por emisión nuclear (PET y SPECT), tomografía computarizada (CT), resonancia magnética (MRI) y angiografía por rayos X (monoplana: A-Rx, biplana: BA). El artículo está organizado de la siguiente manera: La primera sesión está dedicada a revisar los conceptos que fundamentan los sub-campos del tratamiento de imágenes 3-D. En la segunda sesión se identifican ciertos descriptores de la función cardiaca considerando tanto la dimensionalidad de las imágenes como la modalidad imagenológica utilizada. En la tercera sesión, se desarrolla una discusión relativa al uso de las modalidades imagenológicas de uso más frecuente en el contexto cardiológico. Finalmente, se presentan las conclusiones derivadas del trabajo desarrollado. Fundamentos del tratamiento de imágenes tridimensionales 1. Preprocesamiento El objetivo de las operaciones de preprocesamiento es tomar un conjunto de escenas, procesarlas computacionalmente, y obtener a su salida modelos que representen a los objetos

77


allí contenidos u otro conjunto de escenas. Las operaciones comúnmente usadas son volumen de interés, filtrado, interpolación, registro y segmentación. 1.1. Región de interés El propósito es reducir la cantidad de información mediante la especificación de una región de interés (ROI – Region Of Interest) y/o un rango de intensidades de interés. La operación de volumen de interés convierte una escena dada en otra. Una ROI es especificada por la selección de un subconjunto de muestras contenidas en la imagen.

78

En imágenes 3-D, la ROI es usualmente denominada volumen de interés (VOI – Volume Of Interest), y se refiere a todo el subconjunto de vóxeles, delimitadas por una determinada superficie. Tal superficie puede ser obtenida mediante la ubicación arbitraria de planos que cortan la imagen 3-D o mediante la construcción de polígonos cuyos vértices son posicionados en diferentes elementos de la imagen. Ambos enfoques para la construcción de la superficie delimitante son adaptativos ya que modificando la ubicación de los planos de corte, o adicionando y moviendo la ubicación de los vértices, se puede obtener un mejor volumen de interés. Esto permite definir geometrías complejas cuando se requiere delimitar estructuras muy complejas, como es en la mayoría de los casos en imágenes médicas3. Normalmente, la selección de un VOI es utilizada como etapa de preprocesamiento en técnicas de segmentación, con el objetivo de eliminar ruido y/o datos no deseados en las imágenes a procesar. Si la selección de cierta VOI se orienta a la ubicación de un órgano o estructura anatómica en particular, se estaría tratando con enfoques de segmentación de imágenes. La Figura 3 muestra un VOI obtenido al cortar una imagen cardiaca de tomografía computarizada, con planos ubicados a nivel de las válvulas aórtica y mitral. El objetivo es separar el ventrículo izquierdo de las estructuras cardiovasculares dispuestas sobre su base. Figura 3. (a) Volumen original, (b) Volumen de interés

Para cada l = 0, 1, 2, ..., L − 1. La función delta es definida en la Ecuación (2).

El valor PI (L0) en el histograma proporciona el número de vóxeles en la imagen que poseen el nivel de gris L0. La especificación de un rango de intensidades de interés comienza por la selección de dos niveles de gris, L1 y L2, sobre el histograma de la escena original (I). Si se considera que los niveles de gris menores a L1 y mayores a L2 están asociados con ruido y/o estructuras no deseadas, la escena (IVOI) obtenida al aplicar el rango de intensidades de interés es determinada de acuerdo con la Ecuación (3).

Normalmente, un volumen de interés obtenido al aplicar la Ecuación (3) está compuesto por diferentes regiones disjuntas, por ejemplo los huesos, o un tumor cuya metástasis se dé sobre regiones vecinas. La Figura 4b muestra un rango de intensidades seleccionado sobre el histograma (Figura 4c) de la imagen de tomografía computarizada de corazón humano mostrado en la Figura 4a; el rango de intensidades seleccionado (ver Figura 4d) corresponde con el asociado al sistema óseo, aunque se puede visualizar, en el centro del volumen, información asociada al ventrículo derecho. Por su parte, en la Figura 4e se puede observar, superpuestos, los histogramas de imagen original y de la región de interés establecida mediante el rango de intensidades con L1 = 1700 y L2 = 4095. Figura 4. (a) Imagen de corazón humano, (b) Rango de intensidades de interés, (c) Histograma de la imagen original, (d) Histograma del VOI, (e) Histogramas

Adicionalmente, se puede afirmar que un rango de intensidades de interés es especificado por la designación de un intervalo de intensidades, indicado sobre el histograma de la escena. El histograma de una imagen I de tamaño K × M × N vóxeles y con L niveles de grises puede ser considerado como un gráfico que registra la distribución de valores de intensidad de los vóxeles de una imagen, de acuerdo con la Ecuación (1).


Revista Latinoamericana de Hipertensión. Vol. 11 - Nº 4, 2016

1.2. Filtraje Una de las técnicas de preprocesamiento más utilizada para mejorar la calidad de una escena digital, es la aplicación de algoritmos que permitan eliminar las señales indeseadas (filtros), que por causa del método de adquisición, o de las condiciones bajo las cuales fue captada determinada escena, aparecen en la misma. Este tipo de técnica recibe el nombre de filtraje de imágenes, la cual es clasificada en dos grandes grupos: filtraje lineal y filtraje no lineal. De forma general las técnicas de filtraje permiten realzar la información deseada (objeto) y atenuar la información no deseada (ruido, background, otro objeto). El filtraje convierte una escena dada en otra. Por otra parte, los filtros lineales se basan en la aplicación de una combinación lineal (suma ponderada) de los valores del vóxel en estudio y de sus vecinos para calcular el valor asociado al vóxel de salida. Los vóxeles vecinos pertenecientes a una pequeña vecindad3 del punto en estudio son combinados con una matriz 3-D que describe el proceso lineal a aplicar mediante la técnica de convolución. La matriz que describe el proceso lineal tiene como principal característica su tamaño, el cual depende exclusivamente de la aplicación a implantar, dicha matriz recibe el nombre de ventana o máscara (h). La más elemental combinación de los vóxeles de una vecindad viene dada por una operación que multiplica cada vóxel en la imagen perteneciente al rango de la máscara, con su correspondiente peso en la máscara; se realiza la suma de los productos parciales y se escribe ese resultado en la posición del vóxel central de la vecindad (vóxel en estudio). Por lo tanto, cada uno de los vóxeles es reemplazado por el promedio de los vecinos. Este proceso de convolución es descrito en la Ecuación (4), la cual muestra la relación entre una imagen de entrada I y la imagen filtrada IO, si se establece que los pesos de la máscara no dependen de la posición en la imagen.

Para cada k = 1, 2, ..., K, m = 1, 2, ..., M y n = 1, 2, ..., N , y para la máscara h de tamaño 2r × 2r × 2r. Algunos ejemplos de máscaras incluyen la media (mean), perfilado de bordes (sharpening), suavizamiento (smoothing), reforzador de bordes (operadores basado en derivadas)4. Un ejemplo puntual, es el uso del operador o máscara de Canny para la detección de bordes5. Los filtros lineales tienden a difuminar los bordes y otros detalles en las imágenes, y se desempeñan muy mal frente al ruido no Gaussiano. La Figura 5 muestra los resultados de aplicar algunos filtros lineales a una imagen de tomografía computarizada de corazón humano. Las operaciones de filtraje no lineal combinan valores de los vóxeles vecinos al vóxel en estudio de una forma no lineal para determinar el valor del vóxel de salida. Estas técnicas no pueden ser descritas mediante un proceso de convolución. Los filtros no lineales preservan la información de los bordes, característica ésta que los hace muy eficaces atenuando el rui-

do impulsivo. Adicionalmente, muestran un buen desempeño frente al ruido Gaussiano; sin embargo, son difíciles de diseñar. Por ejemplo, el filtro de mediana, es un filtro no lineal, en el cual al vóxel v en la escena de salida le es asignado un valor que representada el valor medio de las intensidades de los vóxeles en una vecindad en la escena de entrada, una vez arreglados en orden ascendente. Los denominados filtro de mínimos y filtro de máximos, en los cuales el valor de salida se calcula como el valor mínimo o el valor máximo, respectivamente, en una vecindad del vóxel de entrada, son también filtros no lineales. Los filtros no lineales de difusión, específicamente, preservan los bordes del objeto, mientras atenúan el ruido6. Otra clase de operaciones no lineales se deriva de la morfología matemática7. Tales operaciones están descritas en términos de la interacción de una imagen y un elemento estructurante. Los filtros básicos morfológicos son la erosión, dilatación, apertura y clausura, cuyas combinaciones pueden generar herramientas interesantes para el análisis de imágenes. En la Figura 6, se ilustra la aplicación de algunos filtros no lineales a una imagen de corazón humano. Figura 5. Ejemplos de filtraje lineal. (a) Imagen original. Imágenes filtradas, (b) Filtro de Gauss, (c) Filtro de media, (d) Filtro derivador

Figura 6. Ejemplos de filtros no lineales Imagen Original. Imágenes filtradas, (b) Filtro de mediana, (c) Filtro de difusión anisotrópica, (d) Filtro de dilatación

79


80

1.3. Interpolación La interpolación es una de las técnicas de preprocesamiento más relevantes en el tratamiento de imágenes. En imágenes biomédicas, el principal objetivo al aplicar esta técnica, es modificar la frecuencia de muestreo de los vóxeles, operación denominada cambio de escala (rescaling). Normalmente, el cambio de escala se hace necesario cuando los sistemas de adquisición de las imágenes tienen una resolución no homogénea; por lo general, la resolución espacial entre dos planos es menor que la resolución espacial en cada plano, lo cual implica que la imagen está compuesta por un conjunto no isotrópico de muestras. En este caso, los procesos de interpolación son aplicados con el objetivo de cambiar la relación de aspecto de los vóxeles de tal manera que se correspondan con cubos geométricos en el espacio físico. El cambio en la relación de aspecto, se puede lograr modificando la resolución inter-planos para que coincida con la resolución entre los planos, la cual se deja fija, o viceversa. En todo caso, la resolución de la imagen tridimensional se hace homogénea o isotrópica, lo cual resulta en una representación volumétrica del objeto real fácil de manipula Por su naturaleza, el cambio de escala es considerado un proceso de remuestreo (resam-pling) de una imagen. El remuestreo se requiere en la manipulación de imágenes tanto para la alineación geométrica como para el registro, en la mejora de la calidad de la imagen para su visualización, o en el campo de la compresión de imagen con pérdidas en el que algunas muestras o marcos (planos) se descartan durante el proceso de codificación, los cuales deben ser recuperados a partir de la información restante. En los procesos de mejora de la calidad de la imagen, la frecuencia de muestreo se incrementa al sobremuestrear (up-sampling), alcanzando un aumento en la resolución de la imagen. Si en estos procesos, la frecuencia de muestreo se reduce, la imagen de entrada es submuestreada (down-sampling), disminuyendo así la resolución de la misma. Cada vez que una imagen es remuestreada se debe esperar la generación de artefactos; Park y Schowengerdt9, realizan un análisis de la distorsión causada a los datos en procesos de remuestreo. Los procesos antes descritos requieren del uso de técnicas de interpolación para la estimación de las muestras no presentes en los datos originales (en cambio de escala y sobremuestreo), y la selección precisa de las muestras a eliminar (en submuestreo). Thévenaz et al.10 y Lehmann et al.11, presentan un análisis unificado de las técnicas de interpolación y remuestreo fundamentados en la teoría de la aproximación, y una comparación a través de: 1) análisis espacio–frecuencia, 2) complejidad computacional, y 3) determinación cualitativa y cuantitativa del error de interpolación, respectivamente. La generación de cortes (reslicing) es otra de las operaciones relacionadas con la interpolación. Si determinada imagen 3-D tiene una mayor resolución entre cortes que entra–corte, se hace natural analizar la imagen sobre planos paralelos a los cortes de la imagen original. Sin embargo, determinados análisis requieren realizar observaciones de la imagen en planos con otras orientaciones. En el contexto clínico, se hace necesario visualizar los planos axial, coronal y sagital. En general,

para explorar las muestras en cualquier orientación se requiere generar los cortes en tal orientación mediante un proceso de interpolación. Dos tipos de interpolación pueden ser utilizadas: interpolación basada en escena12 e interpolación basada en objetos13. En la primera, la intensidad de un vóxel v en la escena de salida está determinada básicamente por la intensidad de los vóxeles en una vecindad en la entrada. La interpolación basada en objetos requiere, inicialmente, convertir la escena a una escena binaria mediante un proceso de segmentación. Los vóxeles con valor ”1” representan al objeto de interés, mientras que los vóxeles con valor ”0” representan el resto del dominio de la escena. La región en la cual se presente un cambio de “0” a “1” representar la superficie del objeto. 1.4. Registro El registro es una técnica de procesamiento de gran importancia en aplicaciones de visión por computadora. En línea general, el registro corresponde con el alineamiento geométrico de dos imágenes, a saber, imagen referencia e imagen objetivo14. El registro representa una tarea muy importante e interesante debido a la gran cantidad de áreas en que puede ser aplicado, entre las cuales se encuentran: el sensado remoto, compresión de video, seguridad, visión artificial, medicina, entre otros. Es por eso que el desarrollo y evaluación de nuevos métodos de registro se ha convertido en un tema que ofrece un crecimiento sostenido en la investigación moderna14,15,16, considerándose así un campo de gran interés para su exploración, sobre todo en las aplicaciones dirigidas al procesamiento de imágenes médicas. El registro de imágenes médicas ha contribuido al diagnóstico oportuno de enfermedades (mediante el monitoreo de cambios en la intensidad de las regiones objeto de estudio), en el diseño de mejores tratamientos para pacientes con diversos trastornos, así como, en la correcta planificación de intervenciones quirúrgicas17. En tal sentido, se considera que el registro de imágenes médicas puede ser intrasujeto, intermodalidad e intramodalidad. Rutinariamente, para un solo paciente, se adquieren volúmenes múltiples veces con una sola modalidad, o con diferentes modalidades de imágenes médicas. También se hace común las adquisiciones de forma dinámica, las cuales generan secuencias o series de tiempo de imágenes. El registro intermodalidad permite la combinación de información complementaria a partir de diferentes modalidades, mientras el registro intramodalidad permite comparaciones precisas entre imágenes de la misma modalidad. 1.5. Segmentación La segmentación tridimensional trata de agrupar los vóxeles sobre un conjunto de clases, basándose en su intensidad local, localización espacial, vecindad, o de acuerdo con la forma característica de cierta clase de objetos. Las técnicas de segmentación de imágenes se basan en la organización o agrupamiento de un conjunto de formas, considerando como principales características para esa organización la proximidad, similaridad, y continuidad. El proceso de segmentación particiona una imagen en regiones (también llamadas clases o subconjuntos) que son homogéneas con respecto a una o


Revista Latinoamericana de Hipertensión. Vol. 11 - Nº 4, 2016

más características18,19,20. La segmentación está enmarcada en los problemas de visión por computadora, como una herramienta para el reconocimiento de objetos basada en técnicas de extracción de formas, las cuales verifican tres propiedades básicas: ser suficientemente generales para poder describir un amplio rango de formas, permitir la extracción del objeto de la escena que lo contiene, y por último, facilitar la comparación con formas similares21. En análisis de imágenes tridimensionales, la segmentación también puede ser definida como el particionamiento del conjunto de datos del espacio tridimensional, en un conjunto disjunto de regiones o grupos, cuya unión representa dicho espacio. Para ello, debe ser tomado en cuenta un conjunto de puntos o vóxeles de la imagen, a los cuales se les analiza características como: la posición en el espacio de intensidades, las relaciones topológicas y las características de las fronteras entre los conjuntos20,22. El proceso de segmentación se encarga de evaluar si cada muestra en la imagen pertenece o no al objeto de interés. Esta técnica de procesamiento de imágenes genera una imagen binaria, en la cual los puntos que pertenecen al objeto se representan con un valor igual a uno, mientras que los que no pertenecen al mismo se representan con un valor igual a cero. En la literatura, ha sido propuesta una amplia variedad de técnicas de segmentación; sin embargo, no se ha podido establecer un estándar que genere resultados satisfactorios para todas las aplicaciones imagenológicas. Inicialmente debido a que, el desarrollo de la técnica de segmentación, depende tanto del análisis a realizar sobre la escena 3-D como de la representación de los elementos de dicha escena. En tal sentido, las técnicas de segmentación comúnmente reportadas pueden ser clasificadas en tres categorías: (1) segmentación basada en muestras, (2) segmentación basada en contornos y (3) segmentación basada en regiones20,21,23,24. 1.5.1. Segmentación basada en muestras Esta técnica toma en cuenta sólo el valor de gris de un vóxel para decidir si el mismo pertenece o no al objeto de interés. Para ello, se debe encontrar el rango de valores de gris que caracterizan dicho objeto, lo que requiere el análisis del histograma de la imagen25. El objetivo de este método, llamado umbralización, es encontrar de una manera óptima, los valores característicos de la imagen que establecen la separación del objeto de interés con respecto a las regiones que no pertenecen al mismo. Si tal característica, y si los valores de gris del objeto y del resto de la imagen difieren claramente, entonces el histograma mostrar una distribución bimodal con dos máximos distintos. Esto debiera generar la existencia de una zona del histograma ubicada entre los dos máximos, que no presente los valores característicos, y que idealmente fuese igual a cero. Con ello se lograría una separación perfecta entre el objeto y la región de la imagen que lo circunda, al establecer un valor umbral ubicado en esta región del histograma. Por lo tanto, cada vóxel será asignado a una de dos categorías, dependiendo de si el valor umbral es excedido o no. La Figura 7 muestra que el umbral (th) a utilizar en la segmentación debería estar ubicado en el valle entre los dos picos del histograma.

Si el valor umbral ubicado entre los dos máximos es distinto de cero, las funciones de probabilidad de los valores de gris del objeto y de la región restante se solaparan, de tal manera que algunos vóxeles del objeto deberán ser tomados como pertenecientes a la región circundante y viceversa. Conocida la distribución de probabilidad de los vóxeles del objeto y de la región circundante, es posible aplicar análisis estadístico en la búsqueda del umbral óptimo, con un mínimo de correspondencias erróneas. Estas distribuciones pueden ser estimadas por histogramas locales calculados sobre las regiones que definen al objeto y al fondo. Figura 7. Histograma bimodal 81

1.5.2. Segmentación basada en contornos En las técnicas de segmentación basadas en vóxeles, el tamaño del objeto de interés depende del nivel de umbral escogido. Esto debido a que los valores de gris en la vecindad del contorno de un objeto cambian gradualmente, y al ajustar el valor de gris seleccionado como umbral, el borde que genera la técnica basadas en muestras puede irse alejando de los valores límites del objeto o introduciendo en el mismo. Las técnicas basadas en contornos pueden ser usadas para evitar la variación del tamaño del objeto20,22. El objetivo de los algoritmos de detección de contornos, es el de localizar las regiones en las cuales las intensidades de la imagen cambian rápidamente, con lo que se logra preservar la información estructural alrededor de los límites de los objetos que la escena contiene. En tal sentido, el principio de las técnicas basadas en contorno es la búsqueda del valor máximo del gradiente, sobre cada línea que forma la imagen. Cuando un máximo es encontrado, un algoritmo de trazado trata de seguir el máximo del gradiente alrededor del objeto, hasta encontrar de nuevo el punto inicial, para luego buscar el próximo máximo en el gradiente correspondiente a otro objeto4. La determinación de un buen contorno dependerá de la fuente de radiación, la iluminación y la distancia del objeto a la fuente de radiación. De allí, es necesario aplicar a la imagen operaciones de filtrado que realcen los cambios en los valores de gris y atenúen las áreas´ de la imagen en las cuales existan valores de grises constantes, para posteriormente introducir el resultado de esta operación a un detector de borde4,25. Los métodos más usados para la implantación de detectores de borde son aquellos que utilizan operadores de filtrado de tipo


lineal, los cuales realizan la detección independientemente de su dirección. Entre este tipo de operadores se encuentran: el operador gradiente, y el operador de Laplace. El operador gradiente, Ecuación (5), se basa en el cálculo de la primera derivada de la imagen 3–D, I(x, y, z), mientras que el operador de Laplace realiza el reforzamiento de bordes, con base en el Laplaciano de una imagen 3–D de acuerdo con la Ecuación (6).

82

Siendo tivamente.

, vectores unitarios en dirección x, y y z respec-

En imagenología discreta, los operadores gradiente y de Laplace se aproximan con base en diferencias finitas, generando un arreglo de pesos que corresponde a los valores de la diferencia sobre una vecindad local de la imagen; este arreglo es conocido como máscara, ventana o kernel del operador. La aplicación de la forma discreta de tales operadores se realiza con procesos de convolución (descrito en la sección). El lector puede referirse a Pratt4, para encontrar una serie de máscaras utilizadas para estimar la primera derivada. Los procesos de detección de contornos sirven para simplificar el análisis de imágenes, realizando una reducción drástica de la cantidad de datos a ser procesados, mientras que al mismo tiempo preservan la información estructural alrededor de los límites del objeto. 1.5.3 Segmentación basada en regiones En segmentación basado en vóxeles, la idea funda-mental es clasificar una muestra como perteneciente al objeto, considerando solamente el valor de gris que el mismo tiene asociado, lo cual lleva a que puntos aislados o pequeñas áreas puedan ser clasificadas como pertenecientes a la región de interés, es decir, allí no se toma en cuenta la conectividad como característica importante del objeto. La segmentación basada en regiones toma en cuenta un conjunto de puntos de la imagen, a los cuales se les analiza características como, la posición en el espacio de intensidades, las relaciones topológicas y las características de las fronteras entre dos conjuntos. Dependiendo de cómo sea analizada la posición en el espacio y las relaciones espaciales existentes entre los vóxeles, se pueden encontrar segmentación de regiones por clasificación22 y segmentación por crecimiento de regiones20. En la segmentación de regiones por clasificación, es inicialmente determinada una partición del espacio de intensidades y luego se establecen las relaciones de conectividad, para determinar una región. En crecimiento de regiones, se utilizan de manera simultánea los dos tipos de información. La Figura 8 muestra el resultado de segmentar el ventrículo izquierdo en una imagen de tomografía computarizada usando crecimiento de regiones. De forma general, el uso de técnicas de segmentación, con el objetivo de discriminar estructuras anatómicas de interés

frente a las demás estructuras presentes en una imagen médica, ha constituido en los últimos años un problema abierto en el área de procesamiento de imágenes. Si bien tales técnicas, han permitido obtener representaciones más reales de la forma de las estructuras, capaces de mejorar el valor diagnóstico de las imágenes, aún deben superar problemas como robustez, complejidad computacional e interacción con el operador. La segmentación automatizada y robusta (con una intervención mínima del operador) de las estructuras es necesaria para explotar la capacidad diagnóstica de exámenes cardiacos obtenidos por resonancia magnética (MRI), tomografía computarizada multicortes (MSCT) o ecocardiografía. Por otra parte, los numerosos métodos que han sido propuestos en la literatura son difíciles de comparar y evaluar de manera común. Esta problemática se aprecia también con respecto a la cuantificación de dinámica global y local de la función cardiaca. 2. Visualización La visualización 3-D generalmente se refiere a la transformación y el despliegue de objetos 3-D que representan efectivamente la naturaleza 3-D de dichos objetos. Los dispositivos de despliegue consideran desde gráficos 2-D sombreados, dispositivos estereoscópicos que requieren lentes especiales, hasta ambientes de realidad virtual. El objetivo de las operaciones de visualización es permitir la extracción de información importante a partir de los datos volumétricos, por medio de la presentación de estos datos con suficiente detalle y alta velocidad. 2.1. Rendering de superficies Las técnicas de rendering de superficies requieren que la imagen 3-D sea inicialmente reducida a una descripción de superficies, de allí que técnicas de clasificación y segmentación de imágenes deben ser aplicadas antes del proceso de rendering. Cada vóxel o grupo de vóxeles debe ser manual o automáticamente clasificado como perteneciente o no a la superficie que delimita la estructura a visualizar. Una vez que los órganos han sido segmentados, la superficie es representada por la conexión de primitivas geométricas, generalmente triángulos, las cuales son cubiertas por pequeñas piezas de superficie, a las cuales se les asigna color y textura, para representar adecuadamente la correspondiente estructura anatómica. Este tipo de enfoque puede generar errores en la visualización de la estructura, dada la alta posibilidad de generar falsos positivos o negativos en el proceso de colocación de las piezas de superficie. En tal sentido, se han propuesto representaciones más complejas, en las cuales la topología de la estructura y su correspondiente geometría 3-D son conservadas26,27. 2.2. Recomposición o reconstrucción multiplanar Más que la visualización de solamente la superficie de la estructura, como en la técnica de rendering de superficie, la técnica de recomposición multiplanar proporciona imágenes que representan secciones de corte extraídas de la imagen 3-D. Para extraer algún plano en una determinada posición del volumen 3-D, y con una orientación arbitraria, es necesario establecer correctamente las transformaciones y rotaciones del sistema coordenado28. Esto permite al especialista una evaluación retrospectiva de la anatomía, particularmente,


Revista Latinoamericana de Hipertensión. Vol. 11 - Nº 4, 2016

visualizando planos arbitrarios, perpendiculares al eje primario de exploración y otras orientaciones no posibles durante la adquisición. Debido a que los planos extraidos, generalmente, no coinciden con alguno de los planos originales, son necesarios procesos de interpolación para proporcionar una imagen similar a su correspondiente imagen 2-D adquirida. 2.3. Rendering volumétrico El rendering volumétrico es una técnica de computación grafica usada para obtener una representación 2-D del interior de un conjunto de datos volumétricos29. Este método permite la visualización de un objeto 3-D, sin la necesidad de conocer previamente su superficie, preservando los valores de los datos de la imagen 3-D original30. El rendering volumétrico está basado en algoritmos de ray–tracing, cuyo propósito es definir la geometría de un conjunto de rayos de luz, lanzados desde una fuente, a través de la escena 3-D31. Cada rayo es definido por la conexión mediante una línea recta de la fuente con el plano de la imagen, cada rayo así definido intersecta la imagen 3-D y pasa por uno de los píxeles definidos sobre el plano de proyección, como se muestra en la Figura 9. La interacción de la luz con el material o los materiales encontrados por el rayo, determinan el valor asignado al píxel intersectado sobre el plano imagen. Las propiedades del objeto 3-D tales como color (niveles de gris en este caso), profundidad y otros factores de sombreado determinan la intensidad asociada al píxel32. Las propiedades de la escena como sombras, pueden ser establecidas, al calcular el valor asignado a los píxeles de acuerdo con un modelo de iluminación, el cual considera la intensidad y la orientación de la fuente o fuentes de luz, reflexión, texturas y orientación de las superficies33. El rendering de superficie puede ser dinámicamente determinado por variaciones en el ray– tracing y de las condiciones de reconocimiento de superficies durante el proceso de rendering. El despliegue de superficies sombreadas es obtenido al calcular el valor de los vóxeles de acuerdo con un modelo de luz, aplicado donde los rayos intersectan la escena, el cual considera la intensidad y la orientación de la fuente o fuentes de luz, reflexión, texturas y orientación de las superficies. Figura 8. Segmentación por crecimiento de regiones del ventrículo izquierdo de corazón humano

Figura 9. Diagrama de la geometría del ray–tracing

83

3. Análisis El principal propósito en las operaciones de análisis es la generación de una descripción cuantitativa de la morfología y función de los sistemas de objetos a partir de un conjunto de escenas. En diagnóstico por imágenes, un gran número de parámetros cuantitativos que pueden ser extraídos a partir de imágenes dinámicas son de relevancia clínica. El análisis de la función cardiaca, puede ser dividido en análisis funcional clásico y en análisis de deformación/movimiento34. El análisis funcional clásico está principalmente relacionado con la estimación de parámetros asociados a toda la estructura ventricular izquierda, también denominados parámetros globales, mientras que el análisis del movimiento/deformaciones frecuentemente se realiza de forma local al analizar tal comportamiento en determinada región de interés sobre la estructura cardiaca. De forma general, la estimación de parámetros que describen la función cardiovascular se realiza tradicionalmente con ayuda de modelos geométricos de las cavidades ventriculares, construidos a partir de imágenes 2-D o 3-D, los cuales proporcionan una representación geométrica en el espacio 3-D de esas estructuras (Figura 10). Para obtener tales representaciones han sido utilizados desde simples formas elipsoidales hasta técnicas basadas en modelos geométricos espacio–temporales34,35. El desarrollo de modelos de las cavidades cardiacas ha sido realizado sobre diferentes modalidades imagenológicas y con objetivos distintos al análisis de la función cardiovascular. Los modelos dinámicos de las estructuras cardiacas han sido utilizados en la visualización y animación29 y la simulación y planificación de intervenciones quirúrgicas36. Los parámetros que cuantifican, detallan y caracterizan la función cardiovascular pueden ser clasificados según su dimensionalidad en descriptores lineales, de superficie y volumétricos37: • Descriptores lineales. Representan distancias entre puntos de la superficie cardiaca, como espesor de pared e índices de contracción radial y longitudinal. Estos descriptores son generalmente determinados sobre secciones de la imagen si la modalidad imagenológica es 3–D, o sobre segmentos de la cavidad cardiaca o de sus paredes si la modalidad es 2–D. • Descriptores de superficie. Cuantifican las deformaciones que caracterizan el movimiento no rígido de las cavidades


cardiacas. Para su determinación es necesario obtener una representación 3-D de la superficie que describa la cavidad a partir de modalidades de imagenología cardiaca 2-D o 3-D. Las deformaciones son definidas como los cambios en las posiciones relativas de los puntos que define la superficie. Se consideran descriptores de superficie la torsión, la curvatura y los esfuerzos.

84

• Descriptores volumétricos. Representan una medida global de la forma del corazón o sus cavidades. Los descriptores volumétricos más comunes son los volúmenes y la masa ventricular, la fracción de eyección y el gasto cardiaco. En imagenología cardiaca 2-D, tales descriptores son generalmente calculados por la aproximación de formas geométricas conocidas a la forma de la cavidad ventricular. En la actualidad, la valoración de la función cardiaca aún se realiza por medio de la medición de descriptores (parámetros) pertenecientes al análisis funcional clásico, tales como: volumen del ventrículo izquierdo (LVV), volumen total del ventrículo izquierdo (VT), masa del ventrículo izquierdo (LVM), volumen stroke o latido (SV), fracción de eyección (EF), y gasto cardiaco (CO). Adicionalmente, se han ido incorporando parámetros, con ayuda del desarrollo de métodos para la estimación de descriptores asociados al movimiento y la deformaciones del corazón, como: espesor de la pared (WT), índices de contractibilidad miocárdica (a1, a2 y a3), índice de torsión (τ), curvatura media y gaussiana (H,K), índice de forma y curvatura (s,c), y análisis de esfuerzos (SA). Resultados vinculados con descriptores de la función cardiaca En la literatura ha sido propuesta una innumerable cantidad de métodos y técnicas que son utilizadas en el desarrollo de sistemas eficientes de imagenología médica tridimensional. En cardiología, por ejemplo, problemas como análisis de la función dinámica del ventrículo izquierdo y evaluación cuantitativa del movimiento del flujo han sido tratados. Para ello es necesario extraer de cada una de las vistas, a partir de las cuales se forma la imagen tridimensional, información de las estructuras a analizar, para luego integrar esa incompleta e inconsistente información a una representación tridimensional sencilla. Ambas son tareas típicas de problemas mal condicionados en visión por computadora (ill–posed problem). En cardiología, casi todos los tipos de modalidades imagenológicas son usadas, y algunas de ellas tienden a medir el mismo parámetro funcional de diferentes formas. Por ejemplo, cineangiografía por rayos X monoplana (A–Rx) y bi-plana (BA), ultrasonido (US) y resonancia magnética pueden ser utilizadas para la valoración de las anormalidades en el movimiento de la pared ventricular. Ultrasonido, resonancia magnética, y tomografía computarizada mul-ticortes (MSCT) permiten visualizar las malformaciones cardiacas. Angiografía coronaria, tomografía por emisión nuclear pueden ser útiles para evaluar la perfusión miocárdica. Adicionalmente, algunas de las técnicas de medición cuantitativa en diferentes modalidades son similares: 1. Una estimación geométrica del tamaño ventricular y de la fracción de eyección puede ser aplicada en ultrasonido, cineangiogramas

y en imágenes por resonancia magnética; 2. Flujo de sangre y caracterización del árbol coronario, pueden ser evaluados a partir de coronografía de contraste y tomografía por emisión (PET y SPECT) de positrones empleando modelos cinéticos similares; 3. El comportamiento temporal del movimiento regional de la pared ventricular puede ser analizado a partir de cineangiogramas y resonancia magnética considerando técnicas de análisis similares. El comportamiento hemodinámico global del corazón puede ser evaluado, en muchos casos, por la determinación de la función ventricular izquierda. Métodos computacionales para la valoración de la función ventricular izquierda y medición de parámetros globales, tales como volúmenes ventriculares, volumen latido, y fracción de eyección, han sido ampliamente adoptados por cardiólogos, y son rutinariamente usados como parte de sus investigaciones clínicas. Técnicas geométricas y densitométricas han sido usadas para cuantificar la función ventricular a partir de imágenes angiográficas, ultrasonido, tomografía computarizada (CT) y resonancia magnética. El análisis de la función cardiaca con técnicas de imagenología dinámica, no está limitado a la evaluación del movimiento del músculo cardiaco, y algunas de estas técnicas permiten realizar la medición y la evaluación de los patrones cinéticos del flujo de sangre a través de las cavidades ventriculares y los grandes vasos. Perfiles de velocidad de flujo pueden ser, adicionalmente obtenidos a partir de estudios ecocardiográficos y a partir de cine–resonancia magnética. La Tabla 1, muestra la clasificación según su dimensionalidad de los descriptores de la forma y función cardiaca previamente señalados, además se indica sobre que modalidades de imagenología cardiaca 2-D o 3-D se han determinado. Tabla 1. Descriptores de la función cardiaca según su dimensionalidad y su modalidad imagenológica Descriptor Lineal Superficie Volumétrico

Modalidad

2-D 3-D

LVV

X

US, A–RX, BA, MRI, CT, PET, SPECT

X

X

VT

X

US, A–RX, BA, MRI, CT

X

X

LVM

X

X

X

EF

X

X

X

CO

X

X

X

X

X

X X X X X X X X X

WT

X

a1 a2 a3 τ H K S C SA

X X X

X X X X X X

US, A–RX, BA, MRI, CT US, A–RX, BA, MRI, CT US, A–RX, BA, MRI, CT US, A–RX, BA, MRI, CT, PET, SPECT US, MRI US, MRI US, MRI MRI US, MRI, CT US, MRI, CT CT CT US, MRI, CT


Revista Latinoamericana de Hipertensión. Vol. 11 - Nº 4, 2016

Discusión relativa al uso de las modalidades imagenológicas de uso más frecuente en el contexto cardiológico La imagenología cardiaca tridimensional por ultrasonido constituye una modalidad imagenológica multidimensional con grandes perspectivas en el diagnóstico cardiaco clínico. Diversos avances en adquisición, preprocesamiento, análisis y visualización ubican al ultrasonido 3-D en una posición competitiva con respecto a otras modalidades imagenológicas. Pero, el tratamiento de este tipo de imágenes sigue siendo un problema abierto, con diversas tendencias en el campo de investigación. Todas esas tendencias tienen que enfrentarse con dos problemas complejos a resolver: costo computacional vs exactitud de los resultados obtenidos. Y a todo esto se puede sumar, la difícil tarea de realizar una validación clínica bastante eficiente de los sistemas computacionales propuestos o por proponer.

el análisis y determinación de la función cardiovascular, que más desarrollos tecnológicos ha tenido. Considerables mejoras en la velocidad de exploración de los sistemas de adquisición se han presentado, lo que conduce al diseño e implantación de nuevas metodologías en los procesos de reconstrucción, permitiendo el desarrollo de nuevas herramientas computacionales para la cuantificación de parámetros asociados a la función dinámica de las estructuras cardiovasculares, con la única idea de mejorar la capacidad diagnóstica del daño que puede presentarse en tales estructuras. Sin embargo, existen áreas en el análisis y determinación de función cardiovascular que no han sido exploradas con esta técnica imagenológica, como por ejemplo la perfusión miocárdica, y otras en las que no se ha conseguido un estándar, como la baja calidad de la imagen debido a los defectos causados por el movimiento. En tal sentido, en cardiología 3-D por tomografía computarizada por rayos X existen diversos problemas que pueden motivar amplios trabajos de investigación.

La tomografía computarizada por emisión nuclear es una modalidad imagenológica que ha ampliado su campo de aplicación en los últimos años en el área de cardiología. La tomografía por emisión de positrones (PET) y tomografía por emisión de fotones sencillos (SPECT) pasaron de ser técnicas de generación de imágenes funcionales a ser utilizadas para la obtención de modelos físicos de las estructuras cardiacas y para la obtención de parámetros que cuantifican la función ventricular. Diferentes sistemas para el análisis y diagnóstico por tomografía por emisión nuclear han sido propuestos, validados y utilizados rutinariamente en cardiología clínica. Sin embargo, el tratamiento de estas modalidades imagenológicas, al igual que en el ultrasonido, es un problema abierto en el campo de la investigación.

La tomografía computarizada por rayos X, en las ultimas´ dos décadas, ha constituido la modalidad imagenológica 3-D, para

Conclusiones

A pesar de que la angiografía por rayos X es la modalidad imagenológica que por mayor tiempo ha sido usada para la valoración de la función cardiovascular, y que ha sido reconocida como un estándar en cardiología, pocos han sido los avances alcanzadas en tal modalidad en imagenología 3-D en la actualidad. Esto esencialmente debido a que es una modalidad 2-D y a que se deben realizar múltiples consideraciones para lograr recobrar la forma 3-D a partir de por lo menos dos proyecciones mutuamente ortogonales. La angiografía por rayos X en su modo rotacional, presenta como principal ventaja en cardiología, la capacidad de recuperar la anatomía 3-D de las arterias coronarias, adicionalmente permiten realizar el análisis de la dinámica del movimiento cardiaco. El principal problema asociado al análisis de la dinámica de las arterias coronarias es la construcción de un modelo de retropropagación que permita asociar a un punto de la imagen su correspondiente punto en el espacio 3-D. Este proceso requiere el desarrollo de protocolos de calibración de los aparatos de angiografía rotacional que permitan extraer los parámetros necesarios para la construcción del sistema geométrico de proyección perspectiva asociado al sistema de adquisición. Por otro lado, el análisis de las cavidades cardiacas requiere de una alta dosis de productos de contraste con el objetivo de realizar la adquisición de una secuencia temporal con la resolución necesaria para contrastar las cavidades frente a las demás estructuras anatómicas presentes en la escena.

La resonancia magnética en cardiología es muy útil para la detección de enfermedades congénitas agudas, detección y seguimiento de enfermos con tumores en el corazón, y en enfermedades agudas y crónicas de la aorta; tiene utilidad para la detección de masas cardiacas, cardiomiopatías y la cuantificación de la incompetencia valvular; es una alternativa a otras técnicas para evaluar la función ventricular, test de estrés, evaluación de prótesis valvulares biológicas y en embolismo. No se puede usar en la detección del infarto agudo de miocardio en caso de endocarditis o cuando se ha producido un rechazo a un trasplante de corazón. La técnica está contraindicada en el caso de que el paciente tenga implantado un desfibrilador o un marcapasos o sea claustrofóbico, sin embargo, es mejor que la ecocardiografía porque consigue imágenes de todos los pacientes, al contrario de ésta, que depende de la ecogenicidad del enfermo. Los principales problemas son el costo, sin embargo, es importante considerar aspectos como el ahorro que supone contar con una técnica no invasiva para detectar ciertos problemas y que permite orientar el corte de exploración, obtener imágenes en movimiento, analizar el flujo sanguíneo y realizar el contraste con tejidos activos sin flujo. Son numerosos los desarrollos realizados para el análisis de la función cardiovascular utilizando MRI, lo que ha llevado a que la resonancia magnética sea considerada como un estándar dentro de las modalidades imagenológicas tridimensionales.

omo se ha podido observar, en el análisis de imágenes cardiovasculares son diversas las modalidades imagenológicas usadas. Estas diversas modalidades imagenológicas tridimensionales han sido empleadas para el procesamiento, visualización, análisis y posterior comprensión del comportamiento dinámico o no de diferentes estructuras anatómica del cuerpo humano. En el caso del corazón y los grandes vasos, debido a que son órganos´ en movimiento, cuya función es la de empujar mecá-

85


nicamente grandes volúmenes de sangre a través del sistema vascular, es necesario el uso de técnicas de análisis espacio– temporal para cuantificar su comportamiento hemodinámico. Ultrasonido, tomografía por emisión nuclear, tomografía computarizada, resonancia magnética y radiología han sido utilizadas para la cuantificación de la función ventricular izquierda y la medición de parámetros globales (volúmenes ventriculares, volumen latido (SV) y fracción de eyección), para la valoración de las anormalidades en el movimiento de la pared ventricular (sinergia ventricular), para la visualización de malformaciones cardiacas, o para evaluar la perfusión miocárdica.

86

Referencias 1. Smith NB, Webb A. Introduction to Medical Imaging: Physics, Engineering and Clinical Applications. Cambridge: Cambridge University Press; 2011. 2. Sakas G. (2002). Trends in medical imaging: from 2D to 3D. Computers & Graphics. 2002; 26(4):577-587. 3. Fuchs R, Welker V, y Hornegger J. Non–convex polyhedral volume of interest selection. Journal of Computerized Medical Imaging and Graphics. 2009;34(2):105–113.

2003; 22(11):1341–1343. 16. Zitová B, Flusser J. Image registration methods: a survey. Image and Vision Computing. 2003;21(11):977-1000. 17. Bankman I. Handbook of Medical Imaging: Processing and Analisys. San Diego: Academic Press; 2000. 18. Fu KS, Mui JK. A survey on image segmentation. Pattern Recognition. 1981;13(1):3-16. 19. Mitiche A, Aggarwal J K. Image segmentation by conventional and information integrating techniques: a synopsis. Image and Vision Computing. 1985; 3(2):50–62. 20. Haralick RA, Shapiro L. Computer and Robot Vision. Boston: Addison-Wesley Publishing Company; 1992. 21. Ballard DH, Brown CM. Computer Vision. USA: Prentice Hall; 1982. 22. Horaud R, Monga O. Vision par ordinateur, outils fondamentaux. Paris: HERMES;1995. 23. González R, Woods R. Digital Image Processing. New Jersey: Pearson Education, Inc; 2008. 24. Brend J. Digital Image Processing. Berlin: Springer–Verlag; 1993. 25. Coto E. Métodos de segmentación de imágenes médicas. Universidad Central de Venezuela: Lecturas en Ciencias de la Computación. 2003; 1: 9-15. 26. Lorensen WE, Cline HE. Marching cubes: A high resolution 3D surface con-struction algorithm. New York: Computer Graphics; 1987. 27. Kaufman AE. Volume visualizacion in medicine. San Diego: Handbook of Medical Imaging. Academic Press; 2000.

4. Pratt W. Digital Image Processing. New Jersey: John Wiley-Sons; 2007.

28. Nelson T R, y Elvins T T. Visualization of 3D ultrasound data. IEEE Computer Graphics and Applications.1993; 13(6):50–57.

5. Canny J. A computational approach to edge detection. IEEE Transaction on Pattern Analysis and Machine Intelligence.1986; 8 (6): 679–698.

29. Robb R A. Three–dimensional visualization in medicine and biology. San Diego: Handbook of Medical Imaging: Processing and Analysis; 2000.

6. Perona P, Malik J. Scale-space and edge detection using anisotropic diffusion. 7. Serra J. Image Analysis and Mathematical Morphology. London: A Press; 1982.

30. Stytz MR, Frieder G, Frieder O. Three–dimensional medical imaging: algorithms and computer systems. ACM Computing Surveys. 1991;23(4):421–499.

8. Thévenaz P, Blu T, Unser M. Interpolation revisited. IEEE Transactions on Medical Imaging. 2000b;19(7):739 758.

31. Kajiya J, Von-Herzen B. Ray tracing volume densities. ACM SIGGRAPH Computer Graphics. 1984;18(3):165-174.

9. Park SK, Schowengerdt RA. Image sampling, reconstruction, and the effect of samplescene phasing. Applied Optics. 1982; 21(17):3142–3151.

32. Lichtenbelt B, Crane R, Naqvi S. Introduction to Volume Rendering. New jersey: Prentice Hall; 1998.

10. Thévenaz P, Blu T, Unser M. Image interpolation and resampling. In: Bankman I. (Ed). Handbook of Medical Imaging: Processing and Analysis. San Diego: Aca-demic Press; 2000a: 393–420.

33. Hauser H, Mroz L, Bischi GI, Groller ME. Two–level volume rendering. IEEE Transactions on Visualization and Computer Graphics. 2001;7(3):242–252.

11. Lehmann T, G¨onner C, y Spitzer K. Survey: Interpolation methods in medical image processing. IEEE Transactions on Medical Imaging. 1999; 18(11):1049 1073.

34. Frangi AJ, Niessen WJ, Viergever MA. Three–dimensional modeling for functional analysis of cardiac images: A review. IEEE Transactions on Medical Imaging. 2002; 20(1):2–25.

12. Higgins W, Orlick C, Ledell B. Nonlinear filtering approach to 3-D gray-scale image interpolation. IEEE Transactions on Medical Imaging. 1996;15(4):580–587.

35. Lelieveldt B. Anatomical models in cardiovascular image analysis [Tesis doctoral]. Netherlands: University of Leiden, 1999.

13. Herman G, Zheng J, Bucholtz C. Shape–based interpolation. IEEE Computer Graphics and Applications. 1992;12(3):69–79.

36. Dawson SL, Cotin S, Meglan D, Shaffer DW, Ferrell MA. Designing a computer– based simulator for interventional cardiology training. Catheterization and Cardiovascular Interventions. 2000;51(4):522-527.

14. Hajnal JV, Hill DLG, Hawkes DJ. Medical Image Registration. San Diego: Academic press; 2000. 15. Pluim JPW, Fitzpatrick JM. Image registration. IEEE Transactions on Medical Imaging.

37. Weber KT, Hawthorne EW. Descriptors and determinants of cardiac shape: An overview. Federation proceedings. 1981;40(7):2005–2010.

Manuel Velasco (Venezuela) Editor en Jefe - Felipe Alberto Espino Comercialización y Producción Reg Registrada en los siguientes índices y bases de datos:

SCOPUS, EMBASE, Compendex, GEOBASE, EMBiology, Elsevier BIOBASE, FLUIDEX, World Textiles, OPEN JOURNAL SYSTEMS (OJS), REDALYC (Red de Revistas Científicas de América Latina, el Caribe, España y Portugal), LATINDEX (Sistema Regional de Información en Línea para Revistas Científicas de América Latina, el Caribe, España y Portugal) LIVECS (Literatura Venezolana para la Ciencias de la Salud), LILACS (Literatura Latinoamericana y del Caribe en Ciencias de la Salud) PERIÓDICA (Índices de Revistas Latinoamericanas en Ciencias), REVENCYT (Índice y Biblioteca Electrónica de Revistas Venezolanas de Ciencias y Tecnología) SCIELO (Scientific Electronic Library Online), SABER UCV, DRJI (Directory of Research Journal Indexing) CLaCaLIA (Conocimiento Latinoamericano y Caribeño de Libre Acceso), EBSCO Publishing, PROQUEST.


Ultrasonido tridimensional

Revista Latinoamericana de Hipertensión. Vol. 11 - Nº 4, 2016

en cardiología

Three-dimensional ultrasound in cardiology

Abstract

Resumen

Antonio J. Bravo, MgSc, PhD1*, Miguel Vera, MgSc, PhD2,3, Delia Madriz, MgSc, PhD4, Julio Contreras-Velásquez, MSc3, José Chacón, MgSc, PhD2, Sandra Wilches-Durán, MgSc2, Modesto Graterol-Rivas, MgSc, PhD2, Daniela Riaño-Wilches, BSc6, Joselyn Rojas, MD, MSc5, Valmore Bermúdez, MD, MSc, MPH, PhD7* 1 Coordinación de Investigación Industrial, Decanato de Investigación, Universidad Nacional Experimental del Táchira, San Cristóbal, 5001, Táchira, Venezuela.. Autor responsable de correspondencia: abravo@unet.edu.ve 2 Grupo de Investigación Altos Estudios de Frontera (ALEF), Universidad Simón Bolívar, Cúcuta, Colombia. 3 Grupo de Investigación en Procesamiento Computacional de Datos (GIPCD-ULA) Universidad de Los Andes-Táchira, Venezuela. 4 Programa Calidad y Productividad Organizacional, Decanato de Investigación, Universidad Nacional Experimental del Táchira, San Cristóbal, 5001, Táchira, Venezuela. 5 Pulmonary and Critical Care Medicine Department. Brigham and Women’s Hospital. Harvard Medical School. Boston, MA. USA 02115. 6 Facultad de Medicina, Universidad de los Andes, Bogotá, Colombia. 7 Centro de Investigaciones Endocrino-Metabólicas “Dr. Félix Gómez” Facultad de Medicina. Universidad del Zulia, Venezuela.

l análisis de imágenes cardiovasculares constituye una herramienta útil para el diagnóstico, tratamiento y monitoreo de enfermedades cardiovasculares. Las técnicas de procesamiento de imágenes permiten la evaluación cuantitativa no-invasiva de la función cardiaca, proporcionando información morfológica, funcional y dinámica. Los progresos tecnológicos recientes en ultrasonido han permitido incrementar la calidad del tratamiento al paciente, gracias al uso de técnicas modernas de procesamiento y análisis de las imágenes. Sin embargo, la adquisición de estas imágenes tridimensionales (3D) dinámicas conduce a la producción de grandes volúmenes de datos para procesar, a partir de los cuales las estructuras cardiacas deben ser extraídas y analizadas durante el ciclo cardiaco. Herramientas de extracción, de visualización tridimensional, y de cuantificación son usadas actualmente dentro de la rutina clínica, pero desafortunadamente necesitan de una interacción importante con el médico. Estos elementos justifican el desarrollo de nuevos algoritmos eficaces y robustos para la extracción de estructuras y estimación del movimiento cardiaco a partir de imágenes tridimensionales. Como resultado, poner a disposición del personal clínico nuevos medios para evaluar de manera precisa la anatomía y la función cardiaca a partir de imágenes tridimensionales, representa un avance certero dentro de la investigación de una descripción completa del corazón a partir de un ´único examen. El objetivo de este artículo es mostrar cuáles han sido los avances en imagenología cardiaca 3D por ultrasonido y adicionalmente observar qué áreas han sido estudiadas bajo esta modalidad imagenológica. Palabras clave: Ultrasonido, adquisición, visualización, procesamiento, reconstrucción, cardiología.

ardiac images analysis is a useful tool for the diagnosis, treatment and monitoring of cardiovascular diseases. Image processing techniques allow cardiac function non-invasive quantitative evaluation, providing morphological, functional and dynamic information. The recent technological advances in ultrasound and the emergent techniques of processing and analysis of the images, have allowed increasing the patient treatment quality. However, the acquisition of these dynamic three-dimensional (3D) images generates large data volumes for processing, from which, the cardiac structures must be extracted and analyzed during the entire cardiac cycle. Extraction, 3D visualization, and quantification tools are currently used within the clinical routine, but unfortunately need significant interaction with the physician. These elements justify the development of new efficient and robust algorithms for the cardiac structures extraction and cardiac motion estimation from threedimensional images. As a result, the clinicians are provided with new means to accurately assess the anatomy and cardiac function from three-dimensional images, which represents a breakthrough within the investigation of a complete description of the heart from a single examination. The objective of this article is to show the advances in 3D cardiac ultrasound imaging and to further observe which areas have been studied under this imaging modality. Keywords: Ultrasound, acquisition, visualization, processing, reconstruction, cardiology.

87


Introducción 88

n las últimas tres décadas, la construcción y visualización de imágenes tridimensionales a partir de datos de ultrasonido ha constituido un tópico de interés para un gran grupo de investigadores inspirados, básicamente, en que el ultrasonido (US) 3D permite visualizar planos de la imagen los cuales no son accesibles en ultrasonido 2D1. Las imágenes de ultrasonido son esencialmente una medida de la respuesta acústica de un impulso a una particular frecuencia. Para altas frecuencias alrededor de 15 MHz, se obtiene muy buena resolución, pero la exploración es de pocos centímetros de profundidad mientras que para bajas frecuencias, alrededor de 3 MHz, generan imágenes de muy pobre

resolución permitiendo explorar tejidos a profundidades de 25 cm o más. Cada imagen de ultrasonido está compuesta de un conjunto de franjas adquiridas secuencialmente en tiempo y espacio. Cada franja representa la amplitud de la respuesta de un impulso de ultrasonido en el lugar y en la dirección que es generado (se asume el sonido de velocidad constante para relacionar esta respuesta con la profundidad dentro del paciente). Puesto que la magnitud decae exponencialmente con la profundidad, un operador logarítmico con un factor de peso asociado, debe ser aplicado a la franja antes de ser cuantificada y representada como una imagen en escala de grises. La imagen así generada corresponde a un B–scan, la cual constituye una de las distintas imágenes producidas utilizando ultrasonido. Los tipos dependen de la forma como es desplegada la respuesta al impulso acústico, de allí que existen modo ‘A’, ‘B’, ‘C’ y ‘M’. La Figura 1 esquematiza el proceso de generación de una imagen de ultrasonido, una descripción más detallada del proceso puede ser observada en Kremkau2

Figura 1. Generación de una imagen de ultrasonido

El proceso de adquisición de imágenes por ultrasonido 2D asume que los pulsos de ultrasonido barren el tejido a lo largo de una línea recta y que la velocidad del sonido es constante, lo cual no es del todo cierto, debido a que la interacción del ultrasonido con el tejido vivo genera efectos anisotrópicos y no lineales tales como: absorción, difracción, refracción y reflexión, alterando adicionalmente la velocidad de propagación de la onda acústica2. Parámetros tales como: atenuación del tejido, frecuencia, longitud del pulso, resolución, ancho de banda, amplitud del pulso, forma de los pulsos transmitidos y la frecuencia de repetición, están todos interrelacionados en el proceso de generación de imágenes de ultrasonido. Diversas fuentes de ruido, incluyendo el ruido térmico de los circuitos de amplificación, ruido acústico, efectos de fase (ruido speckle), así como también el tipo, tamaño y textura del transductor, constituyen elementos de distorsión que generan artefactos en las imágenes por ultrasonido3. Sin embargo, la calidad de la imagen gracias a la evolución tecnológica, está continuamente mejorando4,5,6,7,8,9. La mayor ventaja del ultrasonido 2D es su flexibilidad, lo cual permite al especialista manipular el transductor y visualizar la sección anatómica deseada.

Con el uso del ultrasonido convencional 2D solamente una sección muy fina del paciente puede ser visualizada al mismo tiempo, y la localización de ese plano imagen es controlada por la orientación manual del transductor. Esto implica que el operador debe realizar una integración mental de algunas imágenes 2D a objeto de generar la anatomía o patología 3D, lo cual hace a este proceso de generación de imágenes lento, no reproducible en el tiempo; y lo más importante, sujeto a la experiencia del operador10. El objetivo de la imagenología por ultrasonido 3D es superar estas limitaciones proporcionando técnicas que reduzcan la variabilidad introducida por las técnicas convencionales, y permitir al especialista visualizar la anatomía en 3D. El incremento de la importancia que el ultrasonido ha tenido en el diagnóstico clínico, sumado al diseño óptimo de transductores, a las rápidas mejoras en el desempeño de las computadoras y su relación de costo, está empujando rápidamente a la imagenología clínica convencional hacia la imagenología 3D, lo que en consecuencia, ha permitido explotar el gran potencial del ultrasonido 3D en el diagnóstico clínico y las aplicaciones terapéuticas11,12,13,14,15,16, hasta conseguir que los sistemas de


Revista Latinoamericana de Hipertensión. Vol. 11 - Nº 4, 2016

imagenología 3D por ultrasonido sean rutinariamente utilizados en los estudios clínicos17. En el presente artículo, se describe la utilidad clínica y los avances tecnológicos de la imagenología 3D por ultrasonido, particularmente orientándose a la comprensión y visualización de las estructuras del corazón y sus variaciones a través del ciclo cardiaco. Se exponen las técnicas de adquisición principalmente utilizadas, luego se hace una revisión de los diversos métodos usados en los procesos de reconstrucción y visualización 3D, y por último se muestran algunos de los avances obtenidos en ecocardiografía tridimensional (3DE). Técnicas de adquisición tridimensional En un sistema de ultrasonido 3D, la localización de la señal acústica es conocida en tres dimensiones. Esto permite obtener una representación completa del volumen de la estructura o tejido a visualizar. En general, el ultrasonido es una modalidad imagenológica a tiempo real, y el ultrasonido 3D también tiene la gran posibilidad de desplegar información a velocidades muy cercanas al tiempo real, lo que básicamente se debe al retardo introducido por los sistemas de procesamiento. Altas velocidades de adquisición del orden de 10 - 60 imágenes por segundo pueden ser proporcionadas por algunos sistemas de ultrasonido 3D18. La mayoría de los sistemas de ultrasonido 3D usa un transductor de ultrasonido convencional para adquirir una serie de imágenes 2D y difieren solamente del método usado para determinar la posición y la orientación de esas imágenes 2D con respecto al volumen examinado. Estos transductores están compuestos por un arreglo lineal 1D (N × 1) de más de 100 elementos electrónicos que dirigen y focalizan el haz de ultrasonido. Para este tipo de sistemas, han sido reportados dos métodos de adquisición: freehand y geometría fija. Otros sistemas de ultrasonido 3D usan transductores com-

puestos por arreglos 2D, que permiten realizar una adquisición de múltiples planos de un determinando volumen en tiempo real. Adicionalmente, es posible realizar la exploración de las patologías vasculares, con ayuda de sistemas de adquisición que utilizan ultrasonido intravascular. 2.1. Adquisición Freehand Las imágenes son adquiridas con posición y dirección arbitrarias controladas por el operador. En exploración freehand el movimiento del transductor es controlado por el operador de la misma manera que en ultrasonido convencional. La posición y la orientación del transductor son determinadas por un sensor de posición fijado al transductor. La especial ventaja de esta técnica con respecto a la de geometría fija, es que el operador puede seleccionar vistas y orientaciones óptimas, ajustando el transductor a la superficie compleja del paciente. Diversas tecnologías han sido desarrolladas para la determinación de la posición: magnética, acústica, óptica y eléctrica. 2.1.1. Magnética El principio de funcionamiento de estos dispositivos es la medición de la energía del campo magnético generado por la corriente eléctrica enviada a través de tres pequeños alambres ortogonales, los cuales constituyen un transmisor remoto, dispuestos en una estructura cúbica colocada muy cerca del paciente19. El receptor es colocado sobre el transductor y está integrado por un conjunto de alambres de aproximadamente 2.5 cm en cada dimensión. La Figura 2a muestra el esquema de un sistema de posicionamiento basado en el método magnético. Por medición del campo magnético, el ángulo y la posición del receptor relativo al transmisor pueden ser determinadas. Existen dos tipos de sensores; uno que usa corriente alterna (AC), y otro corriente continua (DC). Cada uno de estos sensores es afectado por la presencia de determinados materiales (metales, quirúrgicos, sondas de ultrasonido) cerca de ellos; materiales metálicos afectan a los sensores AC, mientras que materiales ferromagnéticos a sensores DC20.

Figura 2. Diagramas esquemáticos que muestran los tres métodos básicos para la obtención de la posición y la orientación de los transductores de ultrasonido para la técnica de adquisición freehand: a) magnética en ultrasonido, b) acústica y c) eléctrica.

89


90

2.1.2. Acústica El método acústico trabaja por la unión de un emisor de ondas en un rango acústico al transductor y la recolección de esas señales por tres micrófonos remotos, posicionados en diferentes orientaciones (no necesariamente ortogonales), y típicamente colocado sobre el paciente. Un esquema de esta tecnología de posicionamiento puede ser observada en la Figura 2b. El operador mueve libremente el transductor sobre el paciente mientras el dispositivo de emisión de sonido es activado. Conociendo la velocidad del sonido en el aire, la posición de los micrófonos y el tiempo de vuelo de los pulsos de sonido, el ángulo y la posición del transductor pueden ser continuamente monitoreados21. Una de las limitaciones de este método de posicionamiento es que los micrófonos deben ser colocados cerca del paciente, de tal manera que no exista obstrucción de las líneas de vista del emisor con el receptor, y a su vez deben estar lo suficientemente cercanos al transductor para ser capaces de detectar los pulsos de sonido. 2.1.3. Óptica El método óptico trabaja de una manera similar al acústico, excepto que el emisor es reemplazado por al menos tres LED infrarrojos. Un diodo emisor de luz infrarroja (Light Emitting Diode–LED) es un componente opto–electrónico capaz de emitir luz fuera del espectro visible cuando se hace circular una corriente eléctrica. El principal problema con el método óptico es que las líneas de vista entre los LED y el sensor óptico nunca pueden perderse22. 2.1.4. Eléctrica Diversos sistemas han usado brazos mecánicos con distintos grados de libertad18,23. El transductor es montado en un sistema de brazo mecánico con múltiples articulaciones móviles, como se muestra en la Figura 2c, lo cual permite que el operador manipule el transductor de una manera compleja, para seleccionar la vista y la orientación deseada. Un conjunto de potenciómetros son colocados en las articulaciones del brazo mecánico, y cualquier movimiento en las articulaciones es registrado y almacenado. A partir de los registros, el ángulo y la posición del transductor pueden ser continuamente calculados y monitoreados.

2.2. Adquisición por Geometría Fija En exploración por geometría fija el movimiento del transductor es parcial o completamente controlado por un sistema mecánico basado en motores de paso; en tal sentido, la posición y la orientación del transductor están preestablecidas. Los sistemas mecánicos producen conjuntos de datos muy regulares, lo que simplifica el procesamiento posterior y garantiza una cobertura uniforme del volumen explorado. Por otra parte, este tipo de sistemas permite explorar volúmenes tan grandes como el mismo lo admita. Las coordenadas del marco de referencia se establecen de acuerdo con el mecanismo de alojamiento del motor de paso; mientras más grande sea éste se tiene una mayor área de exploración. Sistemas muy grandes son difíciles de manipular en la práctica, puesto que el transductor debe mantener un buen contacto con la superficie de la piel todo el tiempo. Excesos de presión por el contacto del transductor con la piel puede causar que la línea base anatómica se mueva, generando el registro de datos errados. Los sistemas de ultrasonido que incorporan este tipo de técnica de adquisición, utilizan un mecanismo de accionamiento motorizado que traslada o rota el transductor mientras imágenes de ultrasonido 2D son adquiridas en intervalos espaciales predefinidos. La geometría predefinida para el proceso de adquisición de las imágenes bidimensionales, permite una rápida y exacta reconstrucción 3D de la imagen inmediatamente después de la exploración. Como la imagen 3D es producida a partir de una serie de imágenes de ultrasonido 2D convencional, su resolución no será isotrópica. En la dirección paralela a los planos de las imágenes 2D adquiridas, la resolución es la misma que la de las imágenes 2D, pero en la dirección de la exploración 3D dependerá de la frecuencia de muestreo espacial, que en este tipo de sistemas define la máxima resolución del transductor. Por lo tanto, la resolución de la imagen 3D generalmente será inferior en la dirección de la exploración. Típicamente 200 imágenes son adquiridas a intervalos de 0.5 mm para B–scan 3D. Esta tecnología ha sido implantada en básicamente tres tipos de movimiento: lineal, abanico y rotacional, como se esquematiza en la Figura 3.

Figura 3. Diagramas esquemáticos de los tres tipos básicos de movimiento usados en sistemas de ultrasonido 3D con tecnología de adquisición de geometría fija: a) lineal, b) abanico y c) rotacional.


Revista Latinoamericana de Hipertensión. Vol. 11 - Nº 4, 2016

2.2.1. Lineal El transductor es mecánicamente trasladado en forma lineal, paralelo a la piel del paciente y perpendicular al plano de la imagen. Las imágenes 2D adquiridas son paralelas entre sí y separadas por intervalos predefinidos, como se muestra en la Figura 3a, lo cual establece una mínima degradación de la información 3D, permitiendo un proceso de reconstrucción considerablemente eficiente.

nido 3D. Sin embargo, deben superarse algunos problemas como los rangos de operación bajos, aproximadamente 2.5 MHz, debido a la gran cantidad de pequeños elementos (N ×M) que se deben incorporar y a su difícil proceso de conectividad18,25. Figura 4. Diagrama esquemático que muestra un arreglo 2D usado en un sistema de ultrasonido 3D

2.2.2. Abanico La Figura 3b muestra un transductor que es rotado sobre su dirección axial, permitiendo así realizar un barrido angular, generando un abanico de planos que son adquiridos con una separación angular preestablecida y que definen el volumen explorado. La ventaja de esta técnica es que los mecanismos que la integran pueden producirse lo suficientemente pequeños, de forma tal que sea fácil su manipulación. 2.2.3. Rotacional En esta geometría de exploración, el transductor es colocado sobre un sistema mecánico que lo rota sobre su eje central (ver Figura 3c). De esta manera, las imágenes adquiridas se ubican sobre el paciente de acuerdo con un cono en forma de hélices. Los planos adquiridos, se intersectan en el centro del cono a lo largo del eje de rotación, por lo cual no se admite ningún movimiento en el momento de la exploración debido a que esto causaría una inconsistencia en los planos adquiridos, generando la distorsión de la imagen resultante en su centro, a lo largo del eje de rotación. 2.3 Adquisición por Arreglos Bidimensionales En las dos secciones anteriores, se ha mostrado que un volumen 3D puede ser construido por traslación, rotación y por el balanceo del transductor de ultrasonido con la ayuda de un dispositivo mecánico, tal que la relación espacial entre las imágenes 2D adquiridas es conocida. Alternativamente, el volumen 3D puede ser creado por la manipulación freehand del transductor, cuya orientación es almacenada continuamente por medio de un localizador 3D inalámbrico. Indiferentemente del mecanismo de localización del transductor, tales soluciones son lentas en comparación con la dinámica de algunos órganos tales como el corazón. Sistemas asistidos por electrocardiograma y señales respiratorias han sido diseñados para la reconstrucción de imágenes 3D del corazón en múltiples ciclos cardiacos, pero tales datos aún presentan distorsiones, generadas por las arritmias cardiacas y la respiración irregular. La adquisición de imágenes de ultrasonido en tiempo real constituye uno de los más recientes avances en imagenología por ultrasonido. En este tipo de tecnología es necesario utilizar transductores compuestos por arreglos 2D (N ×M), los cuales permiten dirigir y focalizar dinámicamente el haz de ultrasonido como una pirámide (ver Figura 4), produciendo un volumen de datos24. La información en las tres dimensiones es localizada por el movimiento físico del transductor, bien sea usando medios mecánicos o por operación manual. Los ecos que generan la forma piramidal, son procesados para generar la información 3D en tiempo real25. Esto representa grandes ventajas en la adquisición de imágenes de ultraso-

91

2.3. Adquisición Intravascular La imagenología por ultrasonido intravascular (IVUS) es una técnica relativamente nueva, que permite la visualización de estructura interna de las arterias, de una manera altamente detallada11,26, con la ayuda de transductores de ultrasonido en miniatura colocados en la punta de un catéter, cuya principal característica es que corresponde con el mismo que es usado en la coronagrafía de contraste. El catéter es introducido en el sistema arterial del paciente a través de una arteria en el muslo, maniobrando por la aorta descendente, alrededor del arco aórtico y hacia dentro de las arterias coronarias. Por rotaciones del transductor se generan imágenes de secciones de corte al emitir pulsos de ultrasonido (20–50 MHz) los cuales luego de un retardo de tiempo son recibidos como ecos. La principal ventaja del IVUS sobre el angiograma de contraste es que puede generar imágenes de la estructura interna de la pared de la arteria. Claramente, la mayor ventaja de IVUS 3D es que proporciona imágenes 3D detalladas con una alta resolución sobre pequeñas regiones vasculares de interés (1–5 cm3). La Tabla 1 muestra un resumen acerca de los métodos de exploración de ultrasonido tridimensional.


Tabla 1. Métodos de exploración de ultrasonido tridimensional Método de exploración Método de adquisición de la imagen Magnética Acústica

Medición del tiempo de vuelo de la señal sonora emitida en el transductor y recogida por micrófonos ubicados cerca del paciente.

óptica

Medición de rayos infrarrojos emitidos por un arreglo de LED ubicados en el transductor que son enviados a receptores ubicados cerca del paciente.

Freehand

Eléctrica Lineal Geometría fija

92

Arreglos 2D Intravascular

Medición del campo magnético generado por un transmisor colocado al lado del paciente con el receptor ubicado sobre el transductor.

Abanico

Medición del ángulo entre brazos móviles. Las imágenes 2D adquiridas son paralelas entre sí e igualmente espaciadas. Las imágenes 2D adquiridas forman un abanico de planos con ángulo de separación fijo.

Rotacional Las imágenes adquiridas barren un volumen cónico en forma de hélices. Arreglos 2D transmiten un haz piramidal y los ecos retornados son desplegados como múltiples planos en tiempo real. Las imágenes son adquiridas por rotación de un transductor miniatura que es colocado en la punta de un catéter, el cual es introducido en el sistema arterial.

Reconstrucción tridimensional La reconstrucción se refiere al proceso mediante el cual las imágenes 2D adquiridas son colocadas en correcta posición y orientación en el volumen 3D, y con los valores asociados a sus píxeles se determina el valor del vóxel en la correspondiente imagen 3D. El primer paso es determinar el sistema coordenado donde las imágenes 2D son integradas a la imagen volumen, colocando cada píxel en su correspondiente coordenada 3D (x, y, z). Este proceso puede implantarse con modelos de transformación espacial27, los cuales difieren tanto en exploración por freehand como por geometría fija. Basándose en las coordenadas 2D (x, y) de cada píxel en su imagen 2D, en la posición y la orientación obtenidas a partir del método de exploración usado en la etapa de adquisición freehand. Hay que considerar que en adquisición por geometría fija la ubicación espacial de los píxeles de la imagen es conocida. El valor de los vóxeles puede ser determinado aplicando un proceso de interpolación. Los pesos asociados al proceso de interpolación pueden ser calculados previamente y colocados en una tabla de búsqueda, permitiendo así que la reconstrucción sea considerablemente rápida18. En ultrasonido 3D se distinguen básicamente dos métodos de reconstrucción: reconstrucción basada en características y reconstrucción basada en vóxeles. Figura 5. Sistemas coordenados usados en la reconstrucción 3D

3.1. Sistema Coordenado en Exploración Freehand 3D En la Figura 5 se muestran los cuatro sistemas coordenados usados para la reconstrucción. I es el sistema coordenado de la imagen 2D. El eje x en la dirección lateral, y el eje y en la dirección axial. R es el sistema coordenado del sensor de posición y T el sistema coordenado del transmisor. El volumen creado a partir de las imágenes 2D adquiridas toma la forma de un arreglo V de vóxeles 3D, colocado sobre el sistema coordenado V. Cada píxel (Ix), es transformado primero en el sistema coordenado del receptor R, luego al transmisor T y, finalmente, al volumen reconstruido V. Todo el proceso de transformación puede ser expresado como la multiplicación de matrices de transformación homogéneas, de acuerdo con la Ecuación 1. ,

(1)

siendo,

.

(2)


Revista Latinoamericana de Hipertensión. Vol. 11 - Nº 4, 2016

Una notación estándar es adoptada, KTL es la transformación del sistema coordenado L al sistema K. u y v representan los índices de las columnas y filas de la imagen 2D, y sx y sy los factores de escala en mm/píxel. Vx representa la ubicación del vóxel en el sistema coordenado V. Una transformación entre dos sistemas coordenados tridimensionales presenta seis grados de libertad: tres traslaciones (x, y, z) y tres rotaciones (a,b,g). Cada una de las matrices de la ecuación 1, juega un papel diferente en la reconstrucción. TTR es obtenida directamente por la lectura del sensor. VTT es considerada una transformación de conveniencia. Puede ser omitida al asumir que el volumen a reconstruir está alineado con el transmisor, lo que podría causar problemas si, por ejemplo, el B–scan pasa por el origen de V, generando un gran vóxel vacío. Este tipo de efecto puede corregirse estableciendo una transformación VTT arbitraria, definida en cada exploración. RTP y los factores de escala sx y sy son determinados por calibración28. Luego la posición del vóxel Vx puede ser calculada a partir de la Ecuación 1, para luego asignarle un valor de acuerdo con las intensidades de los píxeles que lo intersectan29,30,31. 3.2. Sistema Coordenado en Exploración por Geometría Fija En exploración por geometría fija, el transductor está montado de una forma rígida sobre un dispositivo mecánico, que de acuerdo con un determinado protocolo, generalmente controlado por una computadora, explora el objeto por traslación, movimiento en abanico y rotación del transductor. Una revisión extensiva de las transformaciones de los sistemas de geometría fija, para la obtención de la ubicación del vóxel en el espacio reconstruido puede ser encontrada en Tong32 y Cardinal33. 3.3. Reconstrucción Basada en Características En este método, una característica específica es determinada inicialmente y luego reconstruida sobre la imagen 3D. En ecocardiografía u obstetricia, el ventrículo o la estructura fetal puede ser delineada (manual o automáticamente) en las imágenes 2D, para luego hacer la reconstrucción de la superficie a partir de tales contornos. La segmentación de las estructuras en las imágenes 2D, es considerada el paso más importante en este tipo de reconstrucción debido a que no existe un método eficiente y estable que permita extraer con exactitud los bordes de la estructura anatómica. Distintas técnicas para la detección de los bordes epicárdicos y endocárdicos a partir de imágenes de ultrasonido han sido reportadas. Modelos basados en campos aleatorios de Markov34,35, lógica difusa36, redes neurales6,37, filtros morfológicos38, y contornos activos39,40,41,42, han sido propuestos. Técnicas similares han sido usadas en los procesos de reconstrucción tridimensional de imágenes por ultrasonido intravascular11,26. 3.4. Reconstrucción Basada en Vóxel En este tipo de método, no es necesaria la extracción de cierta característica para realizar la reconstrucción. A partir del conjunto de imágenes 2D adquiridas, se construye una imagen basada en vóxeles (regilla regular cartesiana de elementos de volumen en tres dimensiones). Entonces, el valor del vóxel puede ser establecido de acuerdo con las intensidades de los píxeles que lo intersectan. En general, esto puede ser tratado como un problema de optimización, en el cual dado

un criterio de similaridad o criterio de calidad del registro, se debe encontrar su óptimo global en un espacio de transformaciones geométricas predefinido, que corresponde con la imagen volumen. Una de las primeras aplicaciones basadas en similaridad de vóxeles para el registro de volúmenes de ultrasonido fue propuesta por Rohling29. Adicionalmente, han sido propuestos métodos basados en gradientes30 y otros basados en deformaciones de superficies31. El método basado en vóxel garantiza la preservación de información originalmente contenida en las imágenes 2D adquiridas. De allí, que si se realizan apropiadas secciones de corte de la imagen 3D, la imagen 2D original puede ser recuperada. Por otro lado, si en el proceso de exploración el muestreo de la estructura 3D no se realiza adecuadamente, de tal manera que se produzcan vacíos entre las imágenes 2D, en el resultado de la reconstrucción los vóxeles describirán estos vacíos que no representan la verdadera anatomía. Técnicas de interpolación de intensidades han sido usadas para completar estos vacíos, lo que introduce información falsa degradando la resolución de la imagen reconstruida. Una de las grandes ventajas de este enfoque de reconstrucción, es que la información original no es modificada, lo cual permite que la imagen pueda ser repetidamente procesada. Es posible aplicar diversas técnicas de rendering, segmentación y clasificación, y medición de volúmenes. 3.5. Efectos de Errores en la Reconstrucción Excepto para los sistemas que usan arreglos 2D, las imágenes de ultrasonido 3D son reconstruidas a partir de múltiples imágenes 2D, conociendo su posición y orientación relativa. En tal sentido, distorsiones geométricas en la reconstrucción pueden generarse debido a errores en la ubicación espacial de las imágenes 2D. Tales distorsiones, pueden generar errores en la medición de longitudes, áreas y volúmenes de las estructuras anatómicas contenidas en estas imágenes43. Un gran número de problemas debe ser resuelto cuando se combinan imágenes 2D sobre un conjunto de datos 3D. Estos problemas pueden ser divididos en dos categorías: no uniformidad de intensidades y no uniformidad espacial. 3.5.1. No uniformidad de intensidades El promedio y la distribución de las intensidades para una imagen 2D dependen tanto del sistema de generación de la imagen de ultrasonido como de las propiedades del material. Las intensidades de la imagen también dependen de la geometría, tamaño, frecuencia del pulso, amplitud del pulso y del tipo de forma de focalización del haz por el transductor. Efectos como sombreado y realce también afectan el promedio de las intensidades de la imagen. Entre los parámetros que deben ser controlados en un sistema de ultrasonido se encuentran: 1) ganancia global, 2) rango dinámico de despliegue, 3) parámetros de focalización, 4) densidad de la línea de exploración, 5) amplitud del pulso, 6) rango angular de exploración y 8) reescalamiento espacial de la imagen. Todas estas características de la tecnología de ultrasonido ocasionan la variación de los valores asignados a las intensidades entre imágenes 2D. Estos efectos son difíciles de modelar y por lo tanto de remover. La idea fundamental entonces para

93


reducir estos efectos, es realizar una correcta entonación de los parámetros de adquisición del ultrasonido30. Otro enfoque que ha sido propuesto en la literatura es visualizar el proceso de compensación de los errores de adquisición como un procedimiento de optimización, basándose en que la inconsistencia de los datos genera discontinuidades en el objeto reconstruido. Considerando un modelo de superficie deformable, que represente el objeto a reconstruir, es razonable pensar que los errores de adquisición pueden ser compensados por la minimización del funcional de energía asociado al modelo 2D, con respecto a la posición de los planos explorados37.

94

3.5.2. No uniformidad espacial Las dimensiones de los vóxeles se ven reflejadas en la resolución espacial de las imágenes. Sin embargo, la resolución axial, lateral y de muestreo del ultrasonido 3D son todas diferentes. Un vóxel de tamaño menor a la resolución más baja, minimizaría la pérdida de detalles en la imagen. En muchos sistemas de exploración, vóxeles de grandes tamaños son usados para reducir la cantidad de memoria de almacenamiento y los tiempos de rendering. Técnicas para el llenado de vacíos pueden ser requeridas en regiones del volumen con baja resolución de muestreo. Alternativas como, interpolación de elementos vecinos29, o convolución de las imágenes 2D con un filtro Gaussiano10, para completar los vacíos entre las imágenes, pueden ser usados. En general, la interpolación de los datos es necesaria para obtener un arreglo de vóxeles regulares, tal que los objetos reconstruidos se puedan desplegar y/o comparar con otras modalidades imagenológicas29.

nalmente, la herramienta permite controlar el punto de intersección, el ángulo de visualización, el número de planos 2D, y la escala. La Figura 6 muestra un ejemplo de este tipo de técnica de visualización. Figura 6. Recomposición multiplanar por planos ortogonales

4.2.2. Vista de cubo La imagen es presentada como un poliedro, el cual representa las fronteras del volumen reconstruido (Figura 7). Cada una de las múltiples caras del poliedro es determinada por el rendering de la apropiada imagen 2D, usando técnicas de mapeo de textura. Las herramientas de visualización permiten seleccionar cualquier cara y moverla hacia dentro o hacia afuera del volumen. Figura 7. Recomposición multiplanar vista de cubo

Visualización tridimensional Existe una gran variedad de métodos computacionales para la visualización 3D de imágenes médicas en investigación y aplicaciones clínicas44,45,46. La efectividad de la técnica depende esencialmente de la fuente generadora de la imagen y de la fidelidad de la reconstrucción tridimensional. Probablemente el factor más importante en el desarrollo de técnicas de visualización de volúmenes, es que los datos tienen una dimensión más que la capacidad de despliegue de la computadora, de allí, que la técnica de visualización usada, frecuentemente juega un papel muy importante en la determinación de la información que es transmitida al operador. En ultrasonido 3D, tres diferentes técnicas de visualización han sido utilizadas: rendering de superficies, recomposición multiplanar y rendering volumétrico. 4.1. Rendering de Superficies Diversos métodos semi-automáticos39,42,26 y automáticos11,35,36,41, han sido propuestos para la identificación de estructuras cardiovasculares. Para los procesos de restauración de superficies cardiovasculares en ultrasonido 3D, se han utilizado técnicas de filtrado espacial12, técnicas de visión por computadora y redes neurales37, generación de conjunto de mallas47 y superficies deformables26,48. 4.2. Recomposición Multiplanar En ultrasonido 3D, ha sido reportado el uso de dos técnicas de recomposición multiplanar: planos ortogonales y vista de cubo. 4.2.1. Planos ortogonales Esta herramienta de visualización permite desplegar simultáneamente, la intersección de tres planos ortogonales. Adicio-

4.2. Rendering Volumétrico El rendering volumétrico ha sido utilizado para visualizar el resultado de aplicación de segmentación 3D del ventrículo izquierdo35,49, de filtrado 3D de imágenes de las cámaras del corazón50. Aproximaciones basadas en proyecciones de máxima intensidad en las cuales solamente el vóxel de máxima intensidad a lo largo de cada rayo es desplegado, han sido usadas para visualizar imágenes de ultrasonido intravascular51. Avances en ecocardiografía tridimensional Los alcances logrados en imagenología cardíaca tridimensional por ultrasonido en los últimos años, abarcan distintas áreas tales como: sistemas de adquisición 3D52,53, técnicas de preprocesamiento26,47,50, cuantificación49,54, y fusión con otras modalidades imagenológicas51.


Revista Latinoamericana de Hipertensión. Vol. 11 - Nº 4, 2016

5.1. Sistemas de Adquisición Las tendencias para el mejoramiento de los sistemas de adquisición de imágenes de ultrasonido 3D, se inclinan hacia el desarrollo de nuevas tecnologías de arreglos de transductores, que permiten reducir el alto costo en la implantación de tales diseños, ganando altas velocidades de adquisición 3D, con un alto grado de exactitud52. Por otra parte, el diseño de sistemas asistidos por robot para el diagnóstico médico por ultrasonido, forma parte también de las nuevas tendencias de implantación de sistemas de adquisición 3D53. 5.1.1 Nuevas tecnologías de arreglos de transductor Hossack et al.52 han propuesto un sistema de diagnóstico por ultrasonido usando arreglos de transductor modificados, en los cuales los datos del ultrasonido 3D son adquiridos de forma exacta a partir de múltiples imágenes 2D. El sistema está basado en el uso de un arreglo de fase lineal, cuya estructura comprende un arreglo central unidimensional (1D) lineal, que se encarga de adquirir la imagen. En ambos lados del arreglo 1D, orientados perpendicularmente, son colocados arreglos para el seguimiento del movimiento. Todos los arreglos obtienen imágenes por B–scan. Las imágenes adquiridas por los arreglos de seguimiento son esencialmente coplanares, y por consiguiente apropiadas para ajustar características entre imágenes 2D adquiridas consecutivamente. Esta capacidad es utilizada para la identificación del movimiento, por la búsqueda de algún tipo de correlación entre imágenes adquiridas sucesivamente. Un algoritmo de la suma mínima de las diferencias absolutas (MSDA) de las imágenes obtenidas por los arreglos de seguimiento, es usado para obtener una estimación del movimiento. Los tres arreglos son diseñados de forma tal, que la frecuencia central sea la misma y que sus elementos estén igualmente espaciados. La formación del haz de ultrasonido es controlada en forma programada, permitiendo que los tres arreglos de transductores operen como un simple transductor. Si la definición del tamaño de la apertura del haz es cuidadosamente controlada, nunca ocurrirán cruces de los canales de emisión y/o recepción de cada uno de los tres arreglos. El sistema ha sido utilizado para la adquisición 3D rápida de ultrasonido en Doppler a color, en la estimación de estenosis en las arterias carótidas, permitiendo la visualización por rendering de superficie de dichas estructuras. El promedio de tiempo de adquisición fue de 12 minutos, comparado con los 45 minutos requeridos por un sonógrafo duplex convencional. Este nuevo método fue sometido a una pequeña validación clínica, cuyos resultados indican que el sistema puede ser clínicamente utilizado en la adquisición de datos de ultrasonido 3D, de una forma rápida y con un alto grado de exactitud. 5.1.2. Sistemas de ultrasonido asistidos por robot Un sistema de diagnóstico por ultrasonido, asistido por robot, ha sido desarrollado por Abolmaesumi et al.53, con la finalidad de adquirir y desplegar imágenes de ultrasonido 3D en tiempo real, incorporando la capacidad de realizar el seguimiento automático de determinada característica ubicada dentro la imagen 3D. El sistema consiste de un controlador maestro manual, un manipulador esclavo sobre el cual se encuentra montado el transductor de ultrasonido, y un sistema contro-

lado por computadora que permite al operador posicionar remotamente el transductor de ultrasonido con respecto al cuerpo del paciente. Este robot inicialmente se ha utilizado para examinar las arterias carótidas, en el diagnóstico de oclusiones en las ramas de dichas arterias. El sistema usa un control compartido que es capaz simultáneamente de adquirir las imágenes, y controlar la movilidad y la fuerza del brazo mecánico. La habilidad de guiar automáticamente el transductor de ultrasonido como una función de las imágenes por él adquiridas, constituye una característica útil en las exploraciones diagnósticas, cuando es usado en conjunción con un control supervisado, para reducir la fatiga del operador. Durante la exploración, el operador con la interfaz gráfica y con el controlador manual, genera una serie de comandos los cuales son coordinados por un servo–sistema visual, que se encarga de controlar al robot y así el movimiento del transductor de ultrasonido. Las imágenes de ultrasonido son adquiridas en tiempo real y desplegadas en la interfaz del usuario, usando rendering de superficie, junto a un modelo 3D por rendering volumétrico del transductor. Características de la imagen de ultrasonido son seleccionadas con ayuda del ratón, las cuales son utilizadas como entradas al controlador de seguimiento de características, que se encarga de guiar los movimientos del robot. Cinco tipos de modelos de seguimiento de características son presentados: algoritmo de correlación cruzada, detección de similaridad espacial, el algoritmo Star, algoritmo Star–Kalman y un modelo activo discreto. Estos métodos han sido comparados en el seguimiento de las arterias carótidas, siendo el método de detección de similaridad y el algoritmo de Star–Kalman los que demostraron una excelente capacidad para el seguimiento de características con movimientos mayores a 200 píxeles/s, sin embargo, el algoritmo de Star– Kalman requiere menos tiempo de cómputo. Los algoritmos de correlación cruzada y Star no fueron capaces de seguir las características en las arterias. El modelo activo discreto no fue capaz de seguir características con movimientos mayores a 100 píxeles/s. El sistema ha demostrado ser aplicable en reconstrucción 3D y en teleultrasonido. Otras aplicaciones potenciales son: las intervenciones guiadas por imágenes, la exploración y registro con imágenes obtenidas con otras modalidades imagenológicas. 5.2. Técnicas de Preprocesamiento Técnicas de filtrado y algoritmos de segmentación, constituyen las principales áreas de investigación y desarrollo, sobre técnicas de preprocesamiento, exploradas en los últimos años en imagenología tridimensional por ultrasonido. 5.2.1 Filtrado y realce de imágenes Tang et al.50 proponen un algoritmo de realce de imágenes multidimensionales, basado en un método de realce de dominios difusos, así como también en la implantación de filtros paso bajos recursivos y separables. Transformaciones en el dominio difuso han sido empleadas para representar o manipular datos que no son distintos, pero si altamente difusos. Se emplea la lógica difusa como una simple transformación tanto del rango dinámico como de las variaciones locales de los niveles de gris, sobre el dominio difuso, mediante la gene-

95


ración de una imagen difusa usando técnicas de suavizamiento de imágenes. Generalmente, las imágenes suavizadas son obtenidas por la aplicación de métodos basados en kernel , tales como operadores de promedio u operadores Gaussianos; pero la complejidad computacional, especialmente en imágenes 3D, aumenta considerablemente, cuando el tamaño del kernel es incrementado (el tamaño del kernel debe ser menor a 5×5 píxeles.). Dos filtros paso bajo son introducidos, uno basado en filtros paso bajo de Butterworth separables y otro basado en el principio de Deriche–Monga, que satisface el criterio de diseño de Canny.

96

La imagen difusa así obtenida es transformada al dominio difuso utilizando distintas funciones de membresía, las cuales se encargan de transformar el rango dinámico de la imagen, transformar los detalles de la imagen, y transformar los detalles de una imagen ruidosa. Después de transformar el rango dinámico y las componentes de la imagen al dominio difuso, es posible definir una función de realce, que depende del grado de fusificación de la imagen transformada y que tiene la capacidad de ajustar el rango dinámico de la imagen y de realzar o filtrar los detalles de la misma. Aplicando una transformación inversa del dominio difuso es posible obtener la imagen realzada resultante. El realce es frecuentemente utilizado en conjunción con otros algoritmos de procesamiento de imágenes, tales como segmentación, extracción de características y visualización. El filtrado y realce de imágenes 3D es un paso importante para mejorar la visualización tridimensional. Realzar las imágenes mientras se reduce la influencia del fondo y de los niveles de ruido, mejora la visualización de la información estructural usando técnicas de rendering volumétrico. El algoritmo de realce ha sido probado en imágenes de ultrasonido de las cavidades cardíacas, siendo computacionalmente eficiente y mostrando un realce suave y natural. La implantación en tiempo real es posible debido a que el procedimiento de suavizamiento es separable en cada dimensión y puede ser realizado recursivamente con un bajo costo computacional. 5.2.2. Algoritmos de segmentación en ultrasonido intravascular El ultrasonido intravascular (IVUS) proporciona una descripción anatómica directa de las arterias coronarias, incluyendo placas y áreas, lo cual es importante en los estudios cuantitativos del daño arterial coronario. Tradicionalmente estos estudios son realizados de forma manual, lo cual constituye un procedimiento laborioso, que consume tiempo y que está sujeto a la variabilidad inter e intra-observador. Klingensmith et al. (2000) han propuesto una nueva técnica llamada segmentación por superficies activas, que elimina muchos de los problemas antes mencionados, al desarrollar un algoritmo de segmentación semiautomático para la identificación de los bordes en imágenes de IVUS. La superficie activa es una extensión de los modelos de contorno activo en 3D. Dado un modelo 3D inicial, el mismo es sometido a deformaciones, controladas por procesos de minimización de la energía asociada a tal modelo. El modelo inicial corresponde con una superficie cilíndrica, la cual es generada por la interpolación lineal de contornos establecidos manualmente en la primera, última y algunas imágenes intermedias, con un número fijo de vértices.

El modelo activo 3D considera que el funcional de energía a minimizar, debe controlar tanto la continuidad como la curvatura del modelo 3D final, y adicionalmente, debe tener la posibilidad de seguir determinada característica de la imagen, que en este caso está definida por la transición en dirección radial de una región clara hacia una oscura, la cual corresponde a la transición de los bordes de la pared arterial. El método ha sido sometido a validación clínica, logrando una exacta descripción de la morfología coronaria. 5.2.3. Algoritmos de segmentación de las arterias carótidas Gill et al.47 han reportado un método semiautomático para la segmentación de imágenes de ultrasonido 3D de las arterias carótidas. El método está basado en un modelo de balón dinámico representado por una malla triangularizada. La malla es manualmente colocada en el interior de las carótidas, para luego ser empujada hacia la pared de las arterias, por la aplicación de una fuerza de inflación a los vértices de la malla en dirección normal a la superficie de la misma. Cuando el equilibrio es alcanzado entre las fuerzas de inflación, el modelo final representa la forma apropiada de la arteria. Este modelo final es posteriormente deformado por medio de una fuerza definida a partir de los datos de la imagen, la cual atrae el modelo a los contornos 3D, con la propiedad de que el mínimo de esa fuerza es alcanzado cuando la malla coincide con la pared de la arteria. El método de segmentación semiautomático es comparado con un método de segmentación completamente manual, encontrando que la técnica semiautomática es más estable en cuanto a la variabilidad intra-observador del método manual. Adicionalmente, examinan la exactitud de su método por la comparación con superficies ideales, determinadas por el promedio de superficies segmentadas manualmente por distintos especialistas. Se demuestra que el método para la segmentación de las arterias carótidas a partir de ultrasonido 3D por freehand, produce mallas que se aproximan de una manera eficiente al promedio de superficies manualmente segmentadas, con variabilidad local como función de la posición del modelo inicial, pero menos variable que la segmentación manual. 5.3. Cuantificación Angelini et al.49 han presentado un método de análisis espacio temporal en cuatro dimensiones (4D) (3D + tiempo), para el filtrado y realce de ultrasonido tridimensional en tiempo real, y para la evaluación cuantitativa de la función ventricular por ultrasonido cardíaco. El ruido spleckle (efectos de fase) distorsiona los datos de ultrasonido por la introducción de cambios abruptos en los perfiles de intensidad en la imagen, mientras varía la atenuación de las intensidades de estructuras cardíacas idénticas. Esto hace que el dominio espacial de imagen sea no homogéneo, y sugiere que las mediciones estén basadas en información de fase más que en perfiles de intensidad. Una nueva familia de wavelets llamadas funciones brushlet, basadas en expansión por transformadas de Fourier, son utilizadas para obtener una representación redundante de la imagen. Esta representación multiescala redundante es apropiada en el análisis y realce de imágenes, debido a que permite descomponer la imagen en distintos patrones en forma de ar-


Revista Latinoamericana de Hipertensión. Vol. 11 - Nº 4, 2016

mónicos orientados, los cuales son invariantes a intensidad y rangos de contraste. Por otro lado, la transformación es un homomorfismo entre los puntos de localización de los datos en el conjunto original y la posición de los coeficientes en cada característica o patrón proyectado. Para extraer las características de interés y eliminar componentes de ruido speckle, se le aplica un proceso de umbralización a los coeficientes en el dominio transformado. A la imagen una vez filtrada y realzada, se le aplica un proceso de segmentación de contornos por modelos deformables. Un modelo de balón es implantado, utilizando un esquema de diferencias finitas. El contorno inicial es definido por un círculo con radio igual a cinco píxeles ubicado dentro de la cavidad a segmentar. El centro del círculo fue identificado por una transformada de Hough aplicada a los contornos extraídos con un filtro de Prewitt por cada diez imágenes 2D del volumen. Después de la segmentación, la cavidad ventricular izquierda es reconstruida y son calculados los volúmenes en diástole y sístole final, así como también la fracción de eyección. El sistema ha sido validado con una base de datos de seis casos clínicos de imágenes de resonancia magnética, y con un conjunto de imágenes de ecocardiogramas de contraste en phantoms. Los autores concluyen por el conjunto de experimentos realizados, que es posible extraer los bordes endocárdicos del ventrículo izquierdo usando modelos deformables en 2D y es posible cuantificar volúmenes de interés con grado de exactitud mayor que aquellos encontrados por técnicas manuales. Los autores pretenden extender el proceso de segmentación a dimensiones superiores, y con ello garantizar la continuidad de los datos de ultrasonido en el tiempo y el espacio. 5.4. Fusión con Otras Modalidades Imagenológicas El objetivo del registro multimodal de imágenes y la fusión (agrupamiento de tipos de datos) es el de combinar tipos de información provenientes de modalidades imagenológicas complementarias. Wahle et al.51 combinan la información geométrica obtenida a partir de angiografía biplana con los datos volumétricos derivados del ultrasonido intravascular, para la reconstrucción de las arterias coronarias. La trayectoria del catéter es extraída y reconstruida a partir de angiografía biplana y usada para proyectar el ultrasonido intravascular en sus localidades. Para el proceso de reconstrucción de las imágenes biplanas, es necesario tener una descripción exacta de la geometría de la imagen. El sistema de reconstrucción adoptado ha sido desarrollado en el German Heart Institute de Berlín. Un algoritmo para extraer la trayectoria del catéter, basado en programación dinámica, y que permite manipular libremente las regiones de interés, es derivado de splines de Catmull–Rom. Las imágenes de ultrasonido 2D son segmentadas por un algoritmo basado en búsqueda de grafos en una región de interés elíptico dada. El proceso completo es automático, excepto por la definición de la región de interés. La localización de los marcos de ultrasonido intravascular y las orientaciones relativas de una con respecto a la otra, es calculada usando una aproximación discreta de la fórmula de Frenet–Serret de la geometría diferencial. La orientación absoluta del conjunto de imágenes es establecida, usando las imágenes del catéter como una marca artificial. La fusión ha

sido extensivamente validada en simulaciones computacionales, phantoms y en corazones de cerdos. Conclusiones La imagenología cardíaca tridimensional por ultrasonido constituye una modalidad imagenológica multidimensional con grandes perspectivas en el diagnóstico cardíaco clínico. Diversos avances en adquisición, preprocesamiento, análisis y visualización ubican al ultrasonido 3D en una posición competitiva con respecto a otras modalidades imagenológicas. Pero, el tratamiento de este tipo de imágenes sigue siendo un problema abierto, con diversas tendencias en el campo de investigación. Todas esas tendencias tienen que enfrentarse con dos problemas complejos a resolver: costo computacional vs exactitud de los resultados obtenidos. Y a todo esto se puede sumar la difícil tarea de realizar una validación clínica bastante eficiente de los sistemas computacionales propuestos o por proponer. Agradecimientos El presente trabajo cuenta con el financiamiento del Decanato de Investigación de la Universidad Nacional Experimental del Táchira, San Cristóbal, Venezuela.

Referencias 1. Nelson TR, Downey DB, Pretorius DH y Fenster A. Three–Dimensional Ultrasound. USA: Lippincott Williams & Wilkins; 1999.

2. Kremkau FW. (1993). Diagnostic Ultrasound: Principles and Instruments. Philadelphia: W. B. Saunders Company; 1993. 3. Geiser EA, Oliver LH. (1980). Echocardiography physics and intrumentation. En: Collins S, Skorton D. (Eds). Cardiac Imaging and Image Processing.New York: McGraw Hill; 1980: 24–38. 4. Crawford D, Bell D, Bamber J. Compensation for the signal processing characteristic of ultrasound b-mode scanners in adaptative speckle reduction. Ultrasound in Medicine & Biology. 1993; 19(6):469-485. 5. Nelson T, Pretorius D. 3D ultrasound image quality improvement using spatial compounding and 3D filtering. Medical Physics. 1994; 21(6):998–999. 6. Kotropoulos C, Magnisalis X, Pitas I, Strintzis MG. Nonlinear ultrasonic image processing based on signal–adaptive filters and self–organizing neural networks. IEEE Transactionson Image Processing. 1994; 3(1):65– 77. 7. Gronningsaeter A, Angelsen BAJ, Gresli A, Torp HG. Blood noise reduction in intravascular ultrasound imaging. IEEE Transactions on Ultrasonics, Ferroelectrics, and Frequency Control. 1995; 42(2):200–209. 8. Fortes JMP. A closed loop ML algorithm for phase aberration correction in phased array imaging systems. I. Algorithm synthesis and experimental results [Ultrasound medical imaging]. IEEE Transactions on Ultrasonics, Ferroelectrics, and Frequency Control. 1997; 44(2):259–270. 9. Achim A, Bezerianos A, Tsakalides P. Novel bayesian multiscale method for speckle removal in medical ultrasound images. IEEE Transaction on Medical Imaging. 2001; 20(8):772–783. 10. Hajnal JV, Hill DLG, Hawkes DJ. (2001). Medical Image Registration. New York: CRC Press LLC; 2001. 11. Zhang X, McKay CR, Sonka M. Tissue characterization in intravascu-

97


lar ultrasound image. IEEE Transaction on Medical Imaging. 1998; 17(6):889–899. 12. Canals R, Lamarque G, Chatain P. Volumetric ultrasound system for left ventricle motion imaging. IEEE Transactions on Ultrasonics, Ferroelectrics, and Frequency Control. 1999; 46(6):1527–1538.

98

29. Rohling R, Gee A, Berman L. A comparison of freehand three–dimensional ultrasound reconstruction techniques. Medical Image Analysis. 1999; 3(4):339–359. 30. Aiger D, Cohen-Or D. Mosaicing ultrasonic volumes for visual simulation. IEEE Computer Graphics and Applications. 2000; 20(2):53–61.

13. Light ED, Idriss SF, Wolf PD, Smith SW. Real–time three–dimensional intracardiac echocardiography. Ultrasound in Medicine & Biology. 2002; 27(9):1177–1183.

31. Krücker JF, Meyer CR, LeCarpentier GL, Fowlkes JB, Carson PL. 3D spatial compounding of ultrasound images using image–based nonrigid registration. Ultrasound in Medicine & Biology. 2000; 26(9):1475–1488.

14. Xiao G, Brady JM, Noble JA, Burcher M, English R. Nonrigid registration of 3–D free–hand ultrasound images of the breast. IEEE Transaction on Medical Imaging. 2002a; 21(4):405–412.

32. Tong S, Cardinal HN, McLoughlin RF, Downey DB, Fenster A. Intra– and inter–observer variability and reliability of prostate volume measurement via two–dimensional and three–dimensional ultrasound imaging. Ultrasound in Medicine & Biology. 1998; 24(5):673–681.

15. Deng J, Sullivan ID, Yates R, Vogel M, Mcdonald D, Linney AD, Rodeck CH, Anderson RH. Real–time three–dimensional fetal echocardiography – optimal imaging windows. Ultrasound in Medicine & Biology. 2002; 28(9):1099–1105. 16. Volkmer BG, Nesslauer T, Kuefer R, Engel O, Kraemer SC, Gottfried HW. Visualization of urinary stones by 3–D ultrasound with surface rendering. Ultrasound in Medicine & Biology. 2002; 28(2):143–147. 17. Pretorius DH, Nelson TR. Three-dimensional ultrasound. Ultrasound in Obstetrics and Gynecology. 1995; 5:219–221. 18. Fenster A, Downey DB. 3–D ultrasound imaging: A review. IEEE Engineering in Medicine and Biology. 1996; 15(6):41–51.

33. Cardinal HN, Gill JD, Fenster A. Analysis of geometrical distortion and statistical variance in length, area, and volume in a linearly scanned 3–D ultrasound image. IEEE Transactions on Medical Imaging. 2000; 19(6):632–651. 34. Dias JMB, Leitao JMN. Wall position and thickness estimationfrom sequences of echocardiographic images. IEEE Transactions on Medical Imaging. 1996; 15(1):25–38. 35. Xiao G, Brady M, Noble JA, Zhang Y. Segmentation of ultrasound bmode images with intensity inhomogeneity correction. IEEE Transactions on Medical Imaging. 2002b; 21(1):48–57.

19. Raab FH, Blood EB, Steiner TO, Jones HR. Magnetic position and orientation tracking system. IEEE Transaction on Aerospace and Electronic Systems. 1979; 15(15):709–717.

36. Setarehdan GK, Soraghan JJ. Automatic cardiac LV boundary detection and tracking using hybrid fuzzy temporal and fuzzy multiscale edge detection. IEEE Transactions on Biomedical Engineering. 1999; 46(11): 1364–1378.

20. Birkfellner W, Watzinger F, Wanschitz F, Enislidis G, Kollmann C, Rafolt D, Nowotny R, Ewers R, Bergmann H. Systematic distortions in magnetic position digitizers. Medical Physics. 1998; 25(11):2242–2248.

37. Coppini G, Poli R, Valli G. Recovery of the 3–D shape of the left ventricle from echocardiographic images. IEEE Transactions on Biomedical Engineering. 1996; 14(2):301–317.

21. Moritz WE, Pearlman AS, McCabe DH, Medema DK, Ainsworth ME, Boles MS. An ultrasonic technique for imaging the ventricle in three dimensions and calculating its volume. IEEE Transaction on Biomedical Engineering. 1983; 30(8):482–492.

38. Detmer PR, Bashein G, Martin RW. Matched filter identification of leftventricular endocardial borders in transesophageal echocardiograms. IEEE Transactions on Medical Imaging.1990; 9(4):396–404.

22. Sato Y, Nakamoto M, Tamaki Y, Sasana T, Sakita I, Nakajima Y, Monden M, Tamura S. Image guidance of breast cancer surgery using 3D ultrasound images and augmented reality visualization. IEEE Transaction on Medical Imaging. 1998; 17(5):681–693. 23. Martin RW, Bashein G, Detmer PR, Moritz WE. Ventricular volume measurement from a multiplanar transesophageal ultrasonic imaging systems: an in vitro study. IEEE Transaction on Biomedical Engineering. 1990; 37(5):442–449. 24. Smith SW, Pavy HE, von Ramm OT. (1991). High speed ultrasound volumetric imaging system part I: transducer design and beam steering. IEEE Transactions on Ultrasonics Ferroelectrics and Frequency Control.1991; 38(2):100–108. 25. Light ED, Davidsen RE, Fiering JO, Hruschka TA, Smith SW. Progress in two dimensional arrays for real time volumetric imaging. Ultrasonic Imaging. 1998; 20(1):1–18. 26. Klingensmith JD, Shekhar R, Vince DG. Evaluation of three–dimensional segmentation algorithms for the identification of luminal and medial– adventitial borders in intravascular ultrasound images. IEEE Transactions on Medical Imaging. 2000; 19(10):996–1011. 27. Woods R. (2000). Handbook of Medical Image Processing and Analysis. San Diego:Academic Press; 2000. 28. Prager RW, Rohling RN, Gee AH, Berman L. Rapid calibration for 3–D freehand ultrasound. Ultrasound in Medicine & Biology. 1998; 24(6):855–869.

39. Chalana V, Linker DT, Haynor DR, Kin. A multiple active contour model for cardiac boundary detection on echocardiographic sequence. IEEE Transactions on Medical Imaging. 1996; 15(6):290–298. 40. Mikic I, Krucinski S, Thomas JD. Segmentation and tracking in echocardiographic sequences: active contours guided by optical flow estimates. IEEE Transactions on Medical Imaging. 1998; 17(2):274–284. 41. Malassiotis S, Strintzis MG. Tracking the left ventricle in echocardiographic images by learning heart dynamics. IEEE Transactions on Medical Imaging.1999; 18(3):282–290. 42. Jacob G, Noble JA, Behrenbruch C, Kelion AD, Banning AP. A shape– space–based approach to tracking myocardial borders and quantifying regional left–ventricular function applied in echocardiography. IEEE Transactions on Medical Imaging. 2000; 21(3):226–238. 43. Goldstein A. Errors in ultrasound digital image distance measurements. Ultrasound in Medicine & Biology. 2000; 26(7):1125–1132. 44. Stytz MR, Frieder G, Frieder O. Three–dimensional medical imaging: algorithms and computer systems. ACM Computing Surveys. 1991; 23(4):421–499. 45. Nelson TR, Elvins TT. Visualization of 3D ultrasound data. IEEE Computer Graphics and Applications. 1993; 13(6):50–57. 46. Hauser H, Mroz L, Bischi GI, Groller ME. Two–level volume rendering. IEEE Transactions on Visualization and Computer Graphics. 2001; 7(3):242–252.


Revista Latinoamericana de Hipertensión. Vol. 11 - Nº 4, 2016 47. Gill JD, Ladak HM, Steinman DA, Fenster A. Accuracy and variability assessment of a semiautomatic technique for segmentation of the carotid arteries from three–dimensional ultrasound images. Medical Physics. 2000; 27(6):1333–1342. 48. Bardinet E, Cohen L, Ayache N. Tracking and motion analysis of the left ventricle with deformable superquadrics. Medical Image Analysis. 1996; 1(2):129–149. 49. Angelini ED, Laine AF, Takuma S, Holmes JW, Homma S. LV volume quantification via spatiotemporal analysis of real–time 3–D echocardiography. IEEE Transactions on Medical Imaging. 2001; 20(2):457–469. 50. Tang H, Zhuang T, Wu EX. Realizations of fast 2–D/3–D image filtering and enhancement. IEEE Transactions on Medical Imaging. 2001; 20(2):132–140. 51. Wahle A, Prause GPM, DeJong SC, Sonka M. Geometrically correct 3–D reconstruction of intravascular ultrasound images by fusion with biplane angiography: methods and validation. IEEE Transactions on Medical Imaging. 1999; 18(8):686–699. 52. Hossack JA, Sumanaweera TS, Napel S, Ha JS. Quantitative 3–D diagnostic ultrasound imaging using a modified transducer array and an automated image tracking technique. IEEE Transactions on Ultrasonics Ferroelectrics and Frequency Control. 2002; 38(2):1029–1038. 53. Abolmaesumi P, Salcudean SE, Zhu W, Sirouspour MR, DiMaio SP. Image–guided control of a robot for medical ultrasound. IEEE Transaction on Robotics and Automation. 2002; 18(1):11–23. 54. Gérard O, Billon AC, Rouet JM, Jacob M, Fradkin M, Allouche C. Efficient model–based quantification of left ventricular function in 3–D echocardiography. IEEE Transactions on Medical Imaging. 2002; 21(7): 1059–1068.

Manuel Velasco (Venezuela) Editor en Jefe - Felipe Alberto Espino Comercialización y Producción Reg Registrada en los siguientes índices y bases de datos:

SCOPUS, EMBASE, Compendex, GEOBASE, EMBiology, Elsevier BIOBASE, FLUIDEX, World Textiles, OPEN JOURNAL SYSTEMS (OJS), REDALYC (Red de Revistas Científicas de América Latina, el Caribe, España y Portugal), LATINDEX (Sistema Regional de Información en Línea para Revistas Científicas de América Latina, el Caribe, España y Portugal) LIVECS (Literatura Venezolana para la Ciencias de la Salud), LILACS (Literatura Latinoamericana y del Caribe en Ciencias de la Salud) PERIÓDICA (Índices de Revistas Latinoamericanas en Ciencias), REVENCYT (Índice y Biblioteca Electrónica de Revistas Venezolanas de Ciencias y Tecnología) SCIELO (Scientific Electronic Library Online), SABER UCV, DRJI (Directory of Research Journal Indexing) CLaCaLIA (Conocimiento Latinoamericano y Caribeño de Libre Acceso), EBSCO Publishing, PROQUEST.

99


Tomografía por emisión nuclear en cardiología

Nuclear emission tomography in cardiology

Antonio J. Bravo, MgSc, PhD1*, Miguel Vera, MgSc, PhD2,3, Delia Madriz, MgSc, PhD4, Julio Contreras-Velásquez, MSc3, José Chacón, MgSc, PhD2, Sandra Wilches-Durán, MgSc2, Modesto Graterol-Rivas, MgSc, PhD2, Daniela Riaño-Wilches, BSc6, Joselyn Rojas, MD, MSc5, Valmore Bermúdez, MD, MSc, MPH, PhD7* 1 Coordinación de Investigación Industrial, Decanato de Investigación, Universidad Nacional Experimental del Táchira, San Cristóbal, 5001, Táchira, Venezuela. Autor responsable de correspondencia: abravo@unet.edu.ve 2 Grupo de Investigación Altos Estudios de Frontera (ALEF), Universidad Simón Bolívar, Cúcuta, Colombia. 3 Grupo de Investigación en Procesamiento Computacional de Datos (GIPCD-ULA) Universidad de Los Andes-Táchira, Venezuela. 4 Programa Calidad y Productividad Organizacional, Decanato de Investigación, Universidad Nacional Experimental del Táchira, San Cristóbal, 5001, Táchira, Venezuela.. 5 Pulmonary and Critical Care Medicine Department. Brigham and Women’s Hospital. Harvard Medical School. Boston, MA. USA 02115. 6 Facultad de Medicina, Universidad de los Andes, Bogotá, Colombia. 7 Centro de Investigaciones Endocrino-Metabólicas “Dr. Félix Gómez” Facultad de Medicina. Universidad del Zulia, Venezuela.

Abstract

Resumen

100

a tomografía por emisión nuclear en medicina cardiovascular juega un papel muy importante debido a que el daño cardiaco, inicialmente, se manifiesta como un conjunto de cambios bioquímicos y fisiológicos, que posteriormente se presentan como cambios estructurales, visualizables con modalidades tales como ecocardiografía, tomografía computarizada, resonancia magnética o angiografía. Estos cambios bioquímicos y fisiológicos son detectados por el análisis de la perfusión miocárdica, la cual describe el proceso de circulación sistémica, que se encarga de transportar sustancias nutrientes, llevarse los productos de desecho y conducir hormonas entre la sangre y el líquido intersticial. En este artículo se realiza una descripción de los avances en imagenología por emisión nuclear, en sus modalidades tomografía por emisión de positrones (PET) y tomografía por emisión de fotones sencillos (SPECT), para la evaluación del flujo de sangre en el tejido miocárdico. Palabras clave: Tomografía por emisión nuclear, tomografía por emisión de positrones (PET), tomografía por emisión de fotones sencillos (SPECT), cardiología n cardiology, nuclear emission tomography plays a very impor-

tant role because cardiac diseasse initially manifests as a set of biochemical and physiological changes, which subsequently presents the structural changes, visualized with modalities such as echocardiography, computed tomography, magnetic resonance imaging or angiography. These biochemical and physiological changes are detected by myocardial perfusion analysis, which describes the process of systemic circulation, which is responsible for transporting nutrients, carry waste products and carry hormones between the blood and the interstitial fluid. In this paper a description of the advances in nuclear emission imaging for the evaluation of blood flow in myocardial tissue is presented. This description considers the PET and SPECT modalities. Keywords: Nuclear emission tomography, single photon emission computed tomography, positron emission tomography, cardiology


Introducción

Revista Latinoamericana de Hipertensión. Vol. 11 - Nº 4, 2016

a imagenología nuclear es una modalidad imagenológica funcional, considerada como una técnica diagnóstica para la medición de la actividad metabólica de las células del cuerpo humano. Las imágenes funcionales representan la biodistribución de la radioactividad farmacéutica, introducida en el cuerpo por inyección, inhalación o ingestión1. Tomografía por emisión de positrones (PET) y tomografía por emisión de fotones sencillos (SPECT), son modalidades 3D de imagenología nuclear, no invasivas, que proporcionan información clínica a partir de procesos bioquímicos y fisiológicos en los pacientes. Estas técnicas se basan en la visualización y cuantificación de la distribución de rayos gamma o de los positrones (electrón cargado positivamente) emitidos por radioisótopos (átomo radiactivo) en el cuerpo humano2. Estos radioisótopos son utilizados para marcar substratos, drogas, anticuerpos, neurotransmisores y otros compuestos, que se encargan de seguir o trazar procesos bioquímicos o fisiológicos específicos. Por ejemplo el isótopo 15O se emplea en combinación con H2O como trazador para estudiar la perfusión cerebral, o el 11C con flumazenil para examinar los receptores cerebrales. Para el estudio del metabolismo, el radioisótopo más utilizado es el flúor 18 (18F) y como trazador, un análogo de la glucosa llamado flúordesoxi-glucosa. Las dos categorías en que se divide la tomografía por emisión, PET y SPECT, dependen de los procesos físicos asociados a la disminución de los núcleos radiactivos, y del proceso de detección. Los fotones emitidos por el núcleo en SPECT resultan de una transición energética, y son detectados por una gamma cámara. PET toma en cuenta los pares de fotones que surgen de la destrucción de un positrón con un electrón. En tal sentido, la característica que distingue a la PET de la SPECT, es que los núcleos radiactivos decaen por la emisión de positrones más que por la emisión directa de fotones; el positrón destruido por el electrón produce dos fotones en direcciones exactamente opuestas, con lo cual las imágenes PET presentan una mayor relación señal a ruido, y su resolución espacial es relativamente uniforme, independiente a la profundidad del tejido3,4. En la circulación sistémica, las arterias se encargan de transportar sangre a una presión elevada a los tejidos. Las arteriolas constituyen las ramas más pequeñas del sistema arterial, y actúan como conductos de control a través de los cuales la sangre pasa a los capilares. La función de los capilares es intercambiar líquido, nutrientes, electrolitos, hormonas y otras sustancias entre la sangre y el líquido intersticial. Para esta función, las paredes capilares son muy delgadas y poseen numerosos diminutos poros capilares permeables al agua y otras moléculas pequeñas. Las técnicas de perfusión nuclear identifican efectivamente los defectos en regiones del tejido miocárdico captados por un trazador radioactivo5. En general, la perfusión miocárdi-

ca nuclear tiene como objetivo detectar la presencia de daño arterial coronario, permitiendo adicionalmente, obtener información acerca del estado del músculo cardiaco. Las tres principales aplicaciones clínicas de la imagenología por emisión nuclear son: (1) detección cuantitativa del daño arterial coronario, (2) medición de la respuesta de las intervenciones quirúrgicas para el aumento de la perfusión y (3) cuantificación de la perfusión miocárdica absoluta. Para ello, los estudios de imagenología médica por emisión nuclear deben superar limitaciones como la pobre resolución espacial6, la baja relación señal a ruido7, y la frecuentemente escasa capacidad por parte de los marcadores de captar el daño del tejido8. Tomografía por emisión de positrones La tomografía por emisión de positrones (PET) ofrece diversas y únicas ventajas para el estudio no invasivo del corazón humano. Un ilimitado número de trazadores es utilizado para explorar y definir aspectos específicos de la función del tejido miocárdico. La concentración de estos trazadores en la sangre y en el miocardio, y sus cambios en el tiempo, pueden ser cuantificados no invasivamente por imágenes PET9. La generación de imágenes PET del miocardio, comienza con la inyección intravenosa de una molécula biológica que contiene un isótopo con capacidad de emitir positrones (por ejemplo, 11C, 13N, 15O, o 18F). Dentro de unos minutos, el isótopo se acumula en un área, por la cual, la molécula tiene alguna afinidad8. Por ejemplo, la glucosa etiquetada con 11C, o con 18 F, se acumula en regiones sanas del miocardio. La etiqueta radioactiva emite positrones, cada uno de los cuales colisiona y aniquila un electrón libre, usualmente ubicado a 1 mm del punto de la emisión. Este evento permite la conversión de la materia en energía, en forma de rayos gamma que emergen del punto de la colisión en direcciones opuestas. Estos rayos gamma son detectados por un arreglo de detectores colocados alrededor del paciente, los cuales definen una línea a lo largo de la cual debe quedar el punto de emisión. Luego de 500.000 eventos, la distribución de los trazadores que emiten positrones en el plano imagen es determinada por algoritmos de reconstrucción de imágenes de tomografía por emisión. 2.1. Sistemas de Instrumentación PET Los sistemas que crean imágenes a partir de emisión de positrones trazadores, usan el principio de colimación electrónica. Estos sistemas toman como ventaja, el hecho de que los positrones emitidos a partir de los radionucleótidos usualmente interactúan con electrones de la órbita, donde la masa del electrón y el par de positrones es usualmente convertido en energía en forma de dos fotones con carga energética igual a la masa de un electrón (511 keV cada uno), pero que viajan en direcciones exactamente opuestas. El principio general de cómo estos fotones son utilizados para crear imágenes tomográficas, es tener pares de detectores opuestos uno del otro que se encarguen de detectar los dos fotones. Así que si los dos detectores captan un evento en una predetermina ventana de tiempo, entonces la emisión debe haber tenido lugar sobre una línea recta entre los dos detectores. Algoritmos de reconstrucción localizan la distribución de los isótopos emitidos en el espacio y forman imágenes de sus concentraciones en los tejidos.

101


2.1.1. PET longitudinal Los primeros sistemas de tomografía por emisión de positrones consistían de dos gamma cámaras orientadas en forma paralela, como lo muestra la Figura 1. Los planos tomográficos son creados asumiendo que todos los eventos originados por pares de fotones, coinciden en un plano específico, lo que es indicativo de que la fuente generadora de ese evento se encuentra sobre ese plano. No obstante, fuentes fuera del plano resultarán en una representación borrosa de la misma sobre el plano activo, como se puede observar en la Figura 2. Figura 1. Esquema de un detector longitudinal para PET 102

Figura 2. Formación de planos tomográficos en PET longitudinal

2.1.2. PET de sección transversal El hecho de que la PET longitudinal no permite cuantificar datos para todos los objetos, y que la doble gamma cámara presenta una limitada capacidad para manejar gran cantidad de eventos, ha llevado al desarrollo de multidetectores para PET de sección transversal (Figura 3). Estos sistemas permiten la adquisición de una o más imágenes transaxiales de forma simultánea. 2.2. Reconstrucción de la Imagen PET En general, los datos obtenidos a partir de cualquier sistema de tomografía por emisión, aproximan una integral de línea

de la distribución de los trazadores radioactivos, y que consiste en un conjunto de rayos o líneas de respuesta en el espacio tridimensional, los cuales requieren ser procesados para obtener una imagen 3D. En esencia, la teoría de reconstrucción de imágenes tomográficas postula que la imagen volumen en el espacio 3D puede ser reconstruida a partir de una serie de imágenes bidimensionales, adquiridas sobre un número suficiente de posiciones alrededor del objeto a ser visualizado, generalmente a lo largo de un arco que alcanza por lo menos 180 grados10. Los elementos de imagen o píxeles resultantes del proceso de adquisición, representan la suma de los elementos de volumen o vóxeles en un ángulo perpendicular a las gamma cámaras, de allí que una estimación de la actividad de los radioisótopos en un vóxel, está dada por la suma pesada de todos los rayos que pasan a través de él. Cada fila de cada proyección (imagen 2D) es visualizada como una representación unidimensional de la proyección del objeto. Los perfiles unidimensionales son modificados matemáticamente, o filtrados, y luego proyectados hacia atrás sobre la imagen bidimensional en su ángulo respectivo, este método se conoce como proyección filtrada hacia atrás (filtered back-projection– FBP). Los perfiles bidimensionales de las proyecciones hacia atrás, son juntados para formar la imagen transversal bidimensional reconstruida11. La implantación práctica depende en gran parte de la naturaleza del objeto, pero frecuentemente la reconstrucción involucra un proceso de convolución de las proyecciones unidimensionales con un apropiado filtro12. Este procedimiento no brinda una verdadera solución a la distribución de la actividad, sino que muestra una versión considerablemente borrosa de la misma13,14. En la siguiente sección se realiza una descripción más detallada de este método de reconstrucción, mostrando su efectividad en los procesos de reconstrucción de imágenes de estructuras cardiovasculares, obtenidas por tomografía computarizada por rayos X. Las imágenes PET pueden ser adicionalmente reconstruidas por procesos iterativos, que se encargan de maximizar una función de probabilidad (Maximum Likelihood–ML)15,16, debido a que el ruido en datos PET puede ser modelado por distribuciones de Poisson. La distribución de la emisión tomográfica es matemáticamente modelada por medio de una densidad de emisión desconocida, la cual es generada y reconstruida por la suma de todos los valores en cada línea de respuesta. Una aproximación a la densidad de emisión es estimada, maximizando la probabilidad de observar el valor de la línea de respuesta sobre todas las posibles densidades. Debido a que la calidad de la solución, dada por el método de reconstrucción ML, tiende a perder suavidad, recientemente han sido introducidas mejoras a dicho método17,18. La transformada wavelet ha sido usada para la reconstrucción de imágenes PET19. Los procesos de Poisson con función de intensidad desconocida, son usados como mecanismos aleatorios de generación de proyecciones PET, mientras que una descomposición de wavelet–vaguelette es usada para la estimación de las funciones de intensidad que describen los procesos de emisión. Este método genera reconstrucciones estables y proporciona mejores características en cuanto a resolución espacial y ruido que el método FBP.


Revista Latinoamericana de Hipertensión. Vol. 11 - Nº 4, 2016

Una vez reconstruida la imagen, la actividad de los radioisótopos es filtrada para mejorar la calidad de las imágenes PET 3D20, 21. 2.3. Visualización de Imágenes PET Mapas polares han sido desarrollados como una forma de desplegar los datos cuantificados de la perfusión del ventrículo izquierdo en una sola imagen. Adicionalmente, las representaciones 3D son adoptadas como una forma más natural de presentar la información tomográfica22,23. 2.3.1. Mapas polares Los mapas polares son una técnica estándar para la visualización de perfiles circunferenciales24. Este tipo de representación, da una apreciación de todas las muestras circunferenciales de las proyecciones 2D, por medio de la combinación de las mismas sobre un código de colores. A los puntos de cada perfil circunferencial, se le asigna un color basado en valores del código, y los perfiles coloreados son formados sobre anillos concéntricos. La proyección más apical forma el centro del mapa polar, y cada sucesivo perfil de cada sucesiva proyección es desplegado como un nuevo anillo alrededor del anterior. Mientras que la proyección más basal del ventrículo izquierdo forma el anillo más extremo del mapa polar (Figura 4). Los mapas polares distorsionan el tamaño y la forma del miocardio, pero permiten identificar de forma rápida, con ayuda del color, áreas anormales.

Figura 3. Esquema de un detector de sección transversal para PET

Figura 4. Mapa polar PET del ventrículo izquierdo

2.3.2. Imágenes tridimensionales Para desplegar la distribución de la actividad de los radioisótopos, el primer paso es construir el objeto 3D del ventrículo izquierdo a partir del conjunto original de proyecciones de emisión nuclear. La construcción del objeto 3D puede realizarse por interpolación de las proyecciones entre proyecciones originales25. El próximo y más importante paso es extraer los contornos y los datos cuantitativos contenidos en todas las proyecciones. Para ello, ha sido propuesta una amplia variedad de algoritmos con regularización no local26. Se trata de método basado en contornos el cual permite, dado un modelo inicial, que los puntos correspondientes a las siguientes estimaciones puedan ser localizados aplicando métodos de descenso del gradiente, al encontrar los mínimos locales de una función de costo. Se asume que los objetos son regiones suaves, penalizando los gradientes locales en cada región, más que aquellos ubicados muy cerca del contorno. Tal método ha sido implantado usando morfología matemática 3D27, técnicas de umbralización28 y análisis de grupos (clustering) entre otros29. Una vez extraídos, los contornos son conectados en triángulos o cuadriláteros, generando una superficie poligonal que representa la superficie endocárdica y/o epicárdica. Cuando la superficie es generada, la perfusión es desplegada por la asignación a cada triángulo o cuadrilátero de un color correspondiente al valor extraído del miocardio en cada muestra durante el proceso de cuantificación. Los colores pueden ser interpolados entre los triángulos para producir continuidad sobre el miocardio25. La Figura 5a, muestra la superficie reconstruida del ventrículo izquierdo usando un mapa de cinco colores (blanco, rojo, amarillo, verde y negro), en la cual el área roja representa la actividad normal captada. Por su parte, la Figura 5b muestra un ventrículo de un paciente que ha sufrido un ataque cardiaco (se utiliza el mismo mapa de colores del ventrículo normal), las áreas amarillas y verdes representan regiones de baja actividad (daño cardiaco). 2.4. Avances en Cardiología PET Modelos dinámicos de las estructuras cardíacas30,31, cuantificación de la función ventricular32 y fusión con otras modalidades imagenológicas33, constituyen las áreas donde se han presentado los mayores avances en imagenología cardiaca PET 3D. En las siguientes secciones se describen algunos trabajos en estas áreas.

Figura 5. Ventrículo izquierdo. a) Normal, b) Con daño cardiaco

103


Figura 6. Comparación de tomografías de thallium-201 (fila superior) y technetium-99m (fila inferior)

104

2.4.1. Modelos dinámicos Klein y Huesman31 proponen un modelo basado en la mecánica lagrangiana para el análisis dinámico del movimiento no rígido de la estructura miocárdica en cardiología PET. Debido a que el miocardio es una estructura no rígida que se deforma durante el ciclo cardiaco, modelos simples de movimiento describen inadecuadamente su comportamiento durante todo el ciclo. Un algoritmo basado en teoría de flujo óptico bidimensional es empleado para determinar un campo de desplazamiento que describe el movimiento relativo de cada vóxel entre dos conjuntos de datos. La estimación está basada en la minimización de una función de costo de dos componentes. La primera de las restricciones de la función de costo controla las fuerzas que causan la deformación al empujar los vóxeles del volumen fuente, al comparar el resultado de la deformación con el volumen no deformado. La segunda componente impone una regularización del campo de desplazamiento, tratando adicionalmente de restringir el dominio de las posibles deformaciones a aquellas consideradas como más suaves y más probables. La función de regularización es definida con base en los esfuerzos de un material elástico isotrópico linealmente uniforme, lo cual permite expresar la regularización en función del módulo de elasticidad de Young, que relaciona la tensión del objeto con su dilatación en una misma dirección, y la relación de Poisson, que expresa la razón entre la contracción lateral y la extensión axial del objeto. El funcional de energía total es expresado como una expansión en series de Taylor, lo cual deriva en una ecuación de Euler–Lagrange, que es resuelta por técnicas de diferencias finitas y gradiente conjugado; tal solución representa el proceso de minimización del modelo. Se concluye luego de probar su modelo en phantoms, que para encontrar una estimación exacta de la dinámica de la estructura miocárdica, se hace necesario obtener un modelo exacto de las propiedades físicas del tejido cardiaco. Klein et al.30 proponen un método para la compensación del desplazamiento de la posición del corazón. Este movimiento puede degradar la calidad de la imagen en cardiología PET sincronizada con el ciclo respiratorio. El método propuesto empieza por la adquisición de las imágenes, usando un sistema en el cual los datos son restrospectivamente sincronizados tanto por el ciclo respiratorio como cardiaco, obteniendo un arreglo bidimensional de volúmenes reconstruidos. Una de las componentes del arreglo representa el corazón en ocho distintas posiciones respiratorias y el otro representa dos diferentes

fases del ciclo cardiaco. Las imágenes 3D así obtenidas, son recombinadas asumiendo un modelo de movimiento rígido. Se propone un modelo de movimiento global de 12 parámetros. Además de los seis parámetros de rotación y traslación, el modelo permite tres parámetros de escala y tres parámetros de inclinación. Por medio de la animación del movimiento entre dos imágenes adyacentes en el tiempo, se obtiene una estimación robusta del movimiento en 4 dimensiones a partir de la secuencia de las imágenes PET. Los parámetros del modelo son iterativamente calculados, usando una función de costo que expresa las diferencias por mínimos cuadrados de los vóxeles, y la cual es penalizada por los valores arrojados por el modelo predictivo de movimiento. Este modelo predictivo fue calculado asumiendo la velocidad constante entre imágenes adyacentes. El modelo reportado muestra que el movimiento del corazón no puede ser modelado solamente por movimiento rígido durante el ciclo respiratorio, y se demuestra la exactitud del modelo ampliado cuando se realiza una recombinación de todas las sincronizaciones hechas en el momento de la adquisición. 2.4.2. Cuantificación de la función ventricular Rajappan et al.32 hacen una comparación de la medición de los volúmenes y la función ventricular usando PET y tomando como referencia resonancia magnética cardiaca. La resonancia magnética cardiovascular proporciona exactitud y reproducibilidad en la medición de la función ventricular, a través de la adquisición de imágenes tomográficas de alta resolución espacial y temporal y libre de exposiciones a radiación ionizante. La información de la función ventricular también puede ser obtenida a partir de cardiología por tomografía por emisión de positrones, a pesar de que esta técnica es más ampliamente utilizada para la visualización y cuantificación del metabolismo, perfusión y la densidad de los receptores a nivel miocárdico. Se utiliza C15O como radioisótopo administrado por inhalación a razón de 500 mL/min por un período de 4 min. La adquisición comienza al mismo tiempo de la administración, debido a que el gas tiene una vida media de 2.06 min, y por un período de 11 min. El sistema de adquisición permite obtener los datos en modo de lista de forma sincronizada con la onda R del electrocardiograma (ECG). La lista está compuesta por ocho muestras por ciclo cardiaco medido entre intervalos R–R. La atenuación y el esparcimiento de los datos son corregidos, para luego ser reconstruidos usando el método de proyección filtrada hacia atrás, usando filtros de Hann. Un algoritmo de detección de contornos basado en umbral es utilizado para calcular los volúmenes de los ventrículos derecho (RV) e izquierdo (LV). El análisis comparativo permitió concluir, que PET tiende a subestimar el volumen diastólico (EDV) final tanto para el LV como el RV, mientras sobreestima el volumen sistólico final (ESV) del LV y lo subestima para el RV. Generando así errores, al comparar el volumen latido (SV) obtenido por PET con los obtenidos por resonancia magnética cardiovascular, debido a que el mismo es calculado a partir de los volúmenes en diástole y sístole final. 2.4.3 Fusión con otras modalidades Behloul et al.33 proponen un sistema asistido por computadora para la determinación de la viabilidad miocárdica luego de la aplicación de un proceso de revascularización. El sistema


Revista Latinoamericana de Hipertensión. Vol. 11 - Nº 4, 2016

fusiona modalidades imagenológicas tales como resonancia magnética (MRI) y PET. La fusión toma lugar en nivel abstracto o simbólico. La descripción abstracta es usada para definir los diferentes parámetros de la función miocárdica tales como: contractibilidad, perfusión y metabolismo. El primer parámetro es extraído de MRI, y los restantes de PET. La descripción abstracta es definida por medio de una semántica, que consiste de una lista en la cual se describe la función miocárdica y su correspondiente valor lingüístico. Un proceso de decisión combina diversos parámetros extraídos a partir de diferentes modalidades, derivando una imagen diagnóstica. Un sistema adaptativo neuro–difuso es utilizado para combinar las variables del sistema y generar las zonas de viabilidad miocárdica sobre un mapa polar, donde adicionalmente se observan los contornos definidos sobre las correspondientes imágenes MRI. Tomografía por emisión de fotones sencillos La tomografía computarizada por emisión de fotones sencillos (SPECT), proporciona una medición directa de la función regional de determinado órgano, usando para ello agentes radiactivos tales como thallium-201 (201Tl) o technetium-99m (99Tc)8, que emiten fotones sencillos con cada decaimiento nuclear. Las imágenes SPECT pueden ser obtenidas en pacientes tanto en reposo como sometidos a ejercicio o estrés farmacológico34 (inducido por ejemplo con, dipyridamole, adenosine o dobutamine), para diagnosticar la presencia de daño arterial coronario35,36, para la evaluación de la importancia funcional de la estenosis de las arterias coronarias antes y después de la angioplastia (procedimiento utilizado para dilatar una arteria ocluida, total o parcialmente, con el fin de restaurar el flujo sanguíneo)37 y para la medición de la masa miocárdica perfundida38.

El thallium–201 es uno de los primeros isótopos usados en imagenología nuclear, su actividad decae una vez que un electrón de la órbita es alojado en el núcleo al combinarse con un protón, descargando energía en forma de rayos X. Típicamente, el 2.1 % de la dosis del 201Tl es acumulada en el corazón por 10 minutos luego de su inyección. El músculo cardiaco normal extrae activamente de 80–90 % del thallium utilizado, siendo la captación del isótopo generalmente proporcional al flujo de sangre. No obstante, el músculo isquémico bajo las mismas condiciones de flujo de sangre, extrae menor cantidad del isótopo (70–80 %)8. Aunque la extracción de thallium es altamente proporcional al flujo de sangre coronario, existen sus excepciones. Subestimaciones del flujo coronario son obtenidas tanto para rangos de flujo bajo, como para altos rangos de flujo. Intervalos óptimos para la estimación exacta por captación de thallium o technicium 99m están en el rango de 2−3 ml • min−1 • g−1. Technetium sestamibi (99Tc) es el otro isótopo más utilizado en imagenología SPECT. Su uso mejora la calidad de la imagen debido a sus propiedades físicas. La dosimetría de radiación, la cual está dada por una vida media corta (6 horas vs 73 horas del 201Tl), permite la administración de hasta 30 mCi de 99 Tc comparado con la máxima dosis de 201Tl de 3.5 mCi. Esta alta dosis permite una mayor distribución del trazador en el plano imagen, reduciendo así el ruido en la imagen3. Diversos protocolos de administración de los radioisótopos han sido reportados para la comparación de imágenes de perfusión SPECT de 201Tl y 99Tc 39,40. La Tabla 1 muestra la superioridad del agente de perfusión 99Tc sobre el 201Tl. La Figura 6 muestra la calidad superior de una imagen de 99Tc frente a una imagen de 201Tl en el mismo paciente.

Tabla 1. Características de imágenes del miocardio en SPECT SPECT

Característica

201

Resolución espacial (mm) Sensitividad relativa

Estrés Descanso

% de esparcimiento Atenuación promedio

3.1. Sistemas de Instrumentación SPECT Los sistemas SPECT generan imágenes a partir de fotones sencillos de rayos gamma y rayos X, emitidos por radioisótopos trazadores2. Estos sistemas usan el principio de colimación mecánica3. En principio, un colimador con algunos agujeros es usado para permitir el paso de fotones en una dirección preferencial, hacia un arreglo de tubos fotomultiplicadores que se encargan de convertir la energía de los fotones emitidos en luz visible. El resultado de esta interacción, en cada una de las proyecciones del órgano a visualizar, es almacenado, y más tarde reconstruido generalmente usando proyección hacia atrás11. La calidad de la imagen está limitada por el número de fotones detectados. Cuando los órganos a visualizar son pequeños, tal como es el caso del corazón, la cantidad de

Tl (3.5 mCi) 19 1.0 0.5 40 4.9

99

Tc (15 mCi) 15 1.6 1.5 22

3.8

fotones detectados es menor. Una forma de incrementar el número de fotones detectados es usar colimadores en forma de abanico o de cono, para magnificar la proyección del órgano a ser detectado. El costo de incrementar la cantidad de fotones detectados es una reducción en los campos de vistas axiales y transversales, o en ambos41. La mayoría de los sistemas SPECT incorpora el uso de una o más gamma cámaras rotativas las cuales pueden ser equipadas con colimadores de haz en forma de cono para mejorar la compensación entre la resolución espacial y la sensitividad42. 3.2. Reconstrucción de la Imagen SPECT Las imágenes SPECT están basadas en procesos de reconstrucción de imágenes tomográficas (sección 2.2)43,44,45. Adicional-

105


mente, modelos de reconstrucción iterativos han sido usados, los cuales se basan en la estimación de la probabilidad actual de cierta cantidad de radioactividad en un punto particular en cada proyección. La ventaja de este tipo de modelos es que pueden considerarse los problemas físicos tales como: resolución espacial del sistema, atenuación, y esparcimiento46. Redes neurales47, simulated annealing48, modelos de placa plana (splines suaves)49, modelos de Bayes50, han sido usados en los procesos de reconstrucción de imágenes de SPECT.

106

3.3. Visualización de Imágenes SPECT En imagenología cardíaca 3D por SPECT han sido utilizadas diversas técnicas de visualización, tales como: visualización de proyecciones, mapas polares (sección 2.3), rendering de superficies y rendering volumétrico51. 3.3.1. Visualización de proyecciones Constituye la más simple y común técnica de visualización 3D. Múltiples proyecciones transaxiales, sagitales y coronales son desplegadas. Esta forma de visualización tiene la ventaja de que los datos son presentados sin ningún tipo de modificación y que es posible realizar una integración de la información de la imagen. 3.3.2. Rendering de superficies Este es un proceso binario, en el cual el primer paso es examinar cada vóxel de la imagen 3D y decidir si el mismo se encuentra dentro o fuera del objeto a ser visualizado, el resto de la información es típicamente desechada. Diversos modelos han sido propuestos para la detección de las superficies miocárdicas52,53,54,55,56, siendo éste un problema aún sin resolver debido a que ninguno de los métodos propuestos ha sido sometido a una extensiva validación clínica. Puesto que en medicina nuclear la información clínica está contenida en los bordes, y a que la exactitud de las técnicas de rendering de superficies depende del proceso de definición de los bordes de las estructuras cardíacas, esta técnica de visualización no es considerada como la más aplicable en imagenología SPECT57,58. 3.3.3. Rendering volumétrico En este tipo de técnica, la información a visualizar es generada a partir del volumen de datos. Técnicas de proyección de rayos (ray–tracing) sobre la escena 3D son incorporadas con el fin de extraer la información a visualizar. Los errores debidos a la baja definición de los contornos son sustancialmente reducidos. En general, el rendering volumétrico representa la combinación de la luz generada por la iluminación de algunas superficies con las propias superficies y la sombra definida previamente por gradientes y rangos de información (rendering basado en composición volumétrica), o representa la combinación del grosor del objeto con la distribución de la radioactividad (rendering basado en proyecciones)22. 3.4. Avances en Cardiología SPECT En la actualidad, la imagenología cardiaca por SPECT ha sido ampliamente utilizada para la cuantificación de la función ventricular, de allí que ha sido necesario identificar las estructuras cardíacas presentes en las imágenes tomográficas. Debreuve et al.56 proponen un método de segmentación altamente eficiente para el reconocimiento de las estructuras miocárdicas. Por otra lado, se han generado diversos sistemas

que permiten la determinación de los parámetros asociados a la función cardiovascular; en tal sentido, se hizo necesario el desarrollo de metodologías que permitan la comparación de dichos sistemas, tales como los reportados por Nakajima et al.59 y Taki et al.60. Además, se han realizado esfuerzos para mejorar la calidad diagnóstica del daño arterial coronario por medio de la perfusión miocárdica por SPECT61,62. 3.4.1. Segmentación de imágenes SPECT Debreuve et al.56 presentan un nuevo método basado en cálculo variacional para la segmentación de objetos en movimiento sobre un fondo fijo, y que pertenecen a una secuencia de imágenes en dos o tres dimensiones. El método se focaliza en la búsqueda del conjunto de píxeles/vóxeles que forman el objeto, los elementos restantes conforman el fondo. Para ello, han desarrollado un criterio de segmentación espacio-temporal, que toma en cuenta como dominio espacial del objeto cada imagen de la secuencia, y que introduce restricciones geométricas que controlan los cambios topológicos, por medio de la derivación de la ecuación de Euler–Lagrange, lo que en consecuencia representa, cómo evoluciona la velocidad con la que varían los contornos del objeto. Esto implica entonces un proceso de contorno activo, tal que la segmentación de cada imagen de la secuencia pueda ser interpretada como un contorno cerrado del objeto (un isonivel de un conjunto de hipersuperficies) para luego integrar toda esa información sobre la secuencia completa. El método de segmentación espacio–temporal ha sido probado sobre secuencias SPECT simuladas y sobre tomografías miocárdicas 3D, permitiendo calcular parámetros dinámicos tales como espesor de la pared (WT) o fracción de eyección, a partir de los bordes epicárdicos y endocárdicos segmentados en cada imagen de la secuencia. 3.4.2. Cuantificación de la función ventricular Las imágenes de perfusión miocárdica por SPECT han sido utilizadas para calcular la fracción de eyección (EF), volumen diastólico final (EDV), volumen sistólico final (ESV), siendo estos resultados correlacionados con métodos convencionales afirman Nakajima et al.59 en su trabajo. Diversos sistemas programados han sido desarrollados y aplicados en la práctica clínica, para la cuantificación de parámetros como EF, EDV y ESV. Sin embargo, pocos estudios han sido realizados para la comparación de los distintos sistemas con los mismos datos de SPECT. Nakajima et al.59 validan la exactitud en la cuantificación de la EF y de los volúmenes de cuatro programas de cálculo de parámetros cardivasculares por SPECT, en modelos matemáticos del corazón y casos clínicos evaluando la correlación cruzada entre los programas. La forma del corazón fue modelada matemáticamente por una estructura cilíndrica que representa la base, más una hemiesfera para representar el ápex. El miocardio fue localizado en el centro del cilindro. A la imagen del modelo se le aplica un filtro Gaussiano para introducir borrosidad, y se le adiciona ruido con distribución de Poisson como mecanismo para la generación de proyecciones SPECT. Para simplificar el modelo se asume ausencia de atenuación y de esparcimiento. Volúmenes de 263, 150, 74, 34 mL fueron generados. Las imágenes tomográficas son reconstruidas con filtros rampa y filtros de Butterworth. Los casos clínicos consisten de 30 pacientes evaluados con angiografía de


Revista Latinoamericana de Hipertensión. Vol. 11 - Nº 4, 2016

radionucleótidos, realizando el estudio en proyección oblicuo izquierda anterior, oblicuo derecha anterior y lateral izquierda. Los cuatro métodos de cuantificación correlacionan bien con el estudio angiográfico.

3.4.3. Perfusión miocárdica SPECT El movimiento del paciente durante la perfusión miocárdica por SPECT, puede producir imágenes que presentan defectos en la captación del radioisótopo. La relación entre el grado de movimiento y la extensión de los defectos de la perfusión no es parámetro conocido. Matsumoto et al.61 estudian el patrón y la extensión de los defectos inducidos en perfusión SPECT por movimiento simulado, validando adicionalmente un nuevo programa para la corrección automática de tal movimiento. Para movimiento simulado, se muestra que desplazamientos de 1 píxel usualmente no producen defectos. Adicionalmente, se muestra que la extensión de los defectos presenta una gran relación con el tipo, cantidad, duración del movimiento y el número de detectores de la gamma cámara. El programa

Santana et al.62 comparan la valoración visual de superficies tridimensionales de color modulado, con valoración visual de proyecciones tomográficas oblicuas, de la distribución de la perfusión miocárdica SPECT, en la detección y localización del daño arterial coronario. Las superficies 3D son generadas por el modelo propuesto en Faber et al.63. El valor máximo de la actividad de los radioisótopos en cada segmento muestreado es usado como el código de colores de la superficie desplegada. La porción apical fue muestreada en coordenada polares y el resto del miocardio en coordenadas cilíndricas. Las coordenadas de cada punto muestreado son conectadas por triángulos, modelando el ventrículo izquierdo como una superficie poligonal de triángulos a los cuales se les asigna un color correspondiente al código de colores de acuerdo con el valor extraído en el proceso de cuantificación de la radioactividad. Los valores asignados a los triángulos son interpolados para crear colores continuos. Iluminación artificial es utilizada para dar las sombras 3D. Análisis de áreas y desviación estándar son utilizados para comparar los dos métodos de valoración. Los resultados indican que no existen diferencias significativas entre la interpretación visual de superficies 3D y la interpretación visual de las proyecciones tomográficas. Estos resultados preliminares indican que la interpretación visual de la distribución 3D de la perfusión miocárdica SPECT puede en el futuro, reemplazar la valoración visual convencional por proyecciones sin perder exactitud diagnóstica.

Conclusiones

Taki et al.60 realizan una investigación en la cual pretenden determinar cuál de los parámetros cuantitativos entre espesor de la pared (WT) y movimiento de la pared ventricular, es más apropiado para la evaluación de la función cardiaca local, especialmente en la región septal de pacientes sometidos a cirugía coronaria para la implantación de un bypass. El estudio incluye 35 pacientes, a quienes se les aplicó un estudio por SPECT antes y de 3 a 5 semanas después de la implantación del bypass. En cada proyección, 12 marcos sincronizados con el ECG son adquiridos por cada ciclo cardiaco. Las imágenes tomográficas son reconstruidas usando el método de proyección filtrada hacia atrás usando filtros rampa. Luego los datos son analizados con un software comercial de procesamiento automático de imágenes de perfusión SPECT. La perfusión es expresada como un porcentaje del valor máximo de la distribución de los radioisótopos en el miocardio. El movimiento de la pared fue expresado como el movimiento interno del miocardio (en milímetros) desde diástole final a sístole final. El grosor de la pared fue expresado como el porcentaje en el cual aumenta dicho grosor de diástole final a sístole final. Para el análisis funcional por regiones las áreas distal, medial y basal del miocardio son divididas en 6 segmentos cada una, mientras que dos segmentos representan el ápex. Estos segmentos son representados en un mapa polar, lo que facilita su posterior análisis. El análisis funcional global, es decir, el grosor y el movimiento total de la pared son calculados al sumar las contribuciones de los 20 segmentos. La relación entre la perfusión y los parámetros funcionales (movimiento y grosor de la pared) y entre la fracción de eyección y dichos parámetros, son evaluados usando regresión lineal. El estudio revela que el análisis del movimiento de la pared luego de implantación quirúrgica del bypass, subestima la función septal y a su vez sobreestima la función lateral, debido a un desplazamiento anteromedial en fase sistólica. Además, el grosor pared por regiones correlaciona mejor con el porcentaje de captación del radioisótopo de lo que lo hace el movimiento de la pared. Por consiguiente, para la evaluación cuantitativa de la función ventricular por regiones después de la implantación de un bypass, se recomienda el análisis por grosor de la pared.

de corrección automática de movimiento, fue aplicado a 130 estudios de pacientes, en los cuales se verificaba movimiento. La efectividad del algoritmo fue de más del 90 %. De allí, que el algoritmo desarrollado efectivamente compensa tanto el movimiento simulado como el movimiento clínico moderado en sistemas con detectores simples y dobles, mejorando así la interpretación de la perfusión SPECT.

a tomografía computarizada por emisión nuclear es una modalidad imagenológica que ha ampliado su campo de aplicación en los últimos años en el área de cardiología. PET y SPECT pasaron de ser técnicas de generación de imágenes funcionales a ser utilizadas para la obtención de modelos físicos de las estructuras cardíacas y para la obtención de parámetros que cuantifican la función ventricular. Diferentes sistemas para el análisis y diagnóstico por tomografía por emisión nuclear han sido propuestos, validados y utilizados rutinariamente en cardiología clínica. No obstante, es necesario señalar que la gran mayoría de estudios por radionucleótidos para la valoración de la perfusión miocárdica son realizados con SPECT. Sin embargo, el tratamiento de estas modalidades imagenológicas, al igual que en el ultrasonido, es un problema abierto en el campo de la investigación. Agradecimientos El presente trabajo cuenta con el financiamiento del Decanato de Investigación de la Universidad Nacional Experimental del Táchira, San Cristóbal, Venezuela.

107


Referencias 1. Reba RC. Nuclear medicine. The Journal of the American Medical Association.1993; 270(2):230-3. 2. Budinger TF. Physics and instrumentation for emission imaging. En: Collins S, Skorton D. (Eds.). Cardiac Imaging and Image Processing. New York: McGraw Hill; 6 edición.1980:41. 3. García EV. Physics and instrumentation of radionuclide imaging. En: Marcus M, Schelbert H, Skorton D, Wolf G. (editors): Cardiac Imaging. Philadelphia a Companion to Braunwald’s Heart Disease. W.B. Saunders Company; 1991:1244-55. 4.

108

5.

Schelbert HR. Principles of positron emission tomography. En: Marcus M, Schelber H, Skorton D, Wolf G. (Eds). Cardiac Imaging. A Companion to Braunwald’s Heart Disease.Philadelphia: W.B. Saunders Company; 1991:1140-68. Demer L. (1991). Evaluation of myocardial blood flow in cardiac disease. En: Marcus M, Schelbert H, Skorton D, Wolf G. (editors). Cardiac Imaging.Philadelphia: A Companion to Braunwald’s Heart Disease. W.B. Saunders Company;1991:905-7.

6.

Muzic RF, Chen C, Nelson AD. A method to correct for scatter, spillover and parcial volume effects in region of interest analysis in PET. IEEE Transactions on Medical Imaging. 1998;17(2):202-13.

7.

Feng D, Li X, Huang S. A new double modeling approach for dynamic cardiac pet studies using noise and spillover contaminated LV measurements. IEEE Transactions on Biomedical Engineering. 1996;43(3):319-26.

8.

Pearlman JD, Laham RJ, Post M, Leiner T, Simons M. Medical imaging techniques in the evaluation of strategies for therapeutic angiogenesis. Current Pharmaceutical Desing. 2002;(8):1467-96.

9. Gould KL. Pet perfusion imaging and nuclear cardiology. The Journal of Nuclear Medicine. 1991;32(4):579-603. 10. Brooks RA, Chiro GD. (1975). Theory of image reconstruction in computed tomography. Radiology. 1975;117:561-72. 11. Gore JC, Orr JS. Image formation by back-projection: A reappraisal. Physics in Medicine and Biology.1979;24(4):793-801. 12. Rogers JG, Harrop R. The theory of three–dimensional image reconstruction for PET. IEEE Transactions on Medical Imaging. 1987; 6(3):239-43. 13. Colsher JG. Fully three–dimensional positron emission tomography. Physics in Medicine and Biology. 1980;25(1):103-15. 14. Defrise M, Kinahan PE, Townsend DW. Exact and approximate rebinning algorithms for 3–D PET data. IEEE Transactions on Medical Imaging. 1997;16(2):145-58. 15. Shepp LA, Vardi Y. Maximum likelihood reconstruction for emission tomography. IEEE Transactions on Medical Imaging. 1982;1(2):113-22. 16. Hebert T, Leahy R. A generalized EM algorithm for 3D bayesian reconstruction from poisson data using gibbs priors. IEEE Transactions on Medical Imaging. 1989; 8(2):194-6. 17. Johnson CA, Seidel J, Sofer A. Interior–point methodology for 3-D PET reconstruction. IEEE Transactions on Medical Imaging. 2000;19(4):271-85. 18. Pierro ARD, Beleza ME. Fast EM–like for maximum a posteriori estimates in emission tomography. IEEE Transactions on Medical Imaging. 2001;20(4):280-8. 19. Choi Y, Koo J-Y, Lee N-Y. Image reconstruction using wavelet transform for positron emission tomography. IEEE Transactions on Medical Imaging. 2001;20(11):1188-93. 20. Farquhar TH, Chin G, Hoh CK, Huang S. A nonlinear, image domain filtering method for cardiac PET images. IEEE Transactions on Nuclear Science. 1998;45(4):2073–9. 21. Kitamura K, Iida H, Shidahara M, Miura S, Kanno I. Noise reduction in PET attenuation correction using non–linear gaussian filters. IEEE Transactions on Nuclear Science. 2000;47(3):994-9. 22. Wallis JW, Miller TR. Three–dimensional display in nuclear medicine and radiology. The Journal of Nuclear Medicine. 1991;32(3):534-46.

23. Gershon ND. Visualizing 3D PET images. IEEE Computer Graphics and Application. 1991;11(5):11–13. 24. Miller TR, Starren JB, Grothe RA. Three–dimensional display of positron emission tomography of the heart. Journal of Nuclear Medicine.1988;29(4):530-7. 25. Kehtarnavaz N, Philippe EA, Figueiredo RJP. A novel surface reconstruction and display method for cardiac PET imaging. IEEE Transactions on Medical Imaging.1984;3(3):108-15. 26. Yu DF, Fessler JA. Edge–preserving tomographic reconstruction with nonlocal regularization. IEEE Transactions on Medical Imaging. 2002;21(2):159-73. 27. Riddell C, Brigger P, Carson RE, Charach SL. The watershed algorithm: A method to segment noisy PET transmision images. IEEE Transactions on Nuclear Science.1999;46(3):713-7. 28. Bilger K, Kupferschlager J, Muller-Schauenburg W, Nusslin F, Bares R. (2001). Threshold calculation for segmented attenuation correction in PET with histogram fitting. IEEE Transactions on Nuclear Science. 2001;48(1):43-50. 29. Wong K, Feng D, Meikle SR, Fulham MJ. Segmentation of dynamic PET images using cluster analysis. IEEE Transactions on Nuclear Science. 2002;49(1):200–7. 30. Klein GJ, Reutter BW, Huesman RH. Four–dimensional affine registration models for respiratory–gated PET. IEEE Transactions on Nuclear Science. 2001;48(3):756–60. 31. Klein GJ, Huesman RH. Elastic material model mismatch effects in deformable motion estimation. IEEE Transactions on Nuclear Science. 2000;47(3):1000–5. 32. Rajappan K, Livieratos L, Camici PG, Pennell DJ. Measurement of ventricular volumes and function: A comparison of gated PET and cardiovascular magnetic resonance. Journal of Nuclear Medicine. 2002;43(6):806–10. 33. Behloul F, Lelieveldt BPF, Boundraa A, Jainer MF, Revel D, Reiber JHC. Neuro–fuzzy systems for computer–aided myocardial viability assessment. IEEE Transactions on Medical Imaging. 2001;20(12):1302–13. 34. Holman BL, Tumeh SS. Single photon emission computed tomography (SPECT): applications and potencial. The Journal of the American Medical Association.1990;263(4):561-5. 35. Poe ND, Eber LM, Norman AS, Selin CE, Terao EN. Myocardial images in nonacute coronary and noncoronary heart diseases. The Journal of Nuclear Medicine. 1977;18(1):18-23. 36. Sharir T, Bacher-Stier C, Lewin HC, Miranda R, Friedman JD, Germano G, Berman DS. Identification of severe and extensive coronary artery disease by post–exercise regional wall motion abnormalities in tc–99m sestamibi gated single photon emission computed tomography. American Journal of Cardiology. 2000;86(11):1141– 1148. 37. Rodés-Cabau J, Candell-Riera J, Domingo E, Castell-Conesa J, Anívarro I, Angel J, Aguadé-Bruix S, Padilla F, Soto A, Soler- Soler J. Frequency and clinical significance of myocardial ischemia detected early after coronary stent implantation. The Journal of Nuclear Medicine. 2001;42(12):1768–72. 38. Faber TL, Cooke CD, Folks RD, Vansant JP, Nichols KJ, DePuey EG, Pettigrew RI, Garcia EV. Left ventricular function and perfusion from gated SPECT perfusion images: an integrated method. The Journal of Nuclear Medicine. 1999;40(4):650–9. 39. Villanueva-Meyer J, Mena I, Narahara KA. Simultaneous assessment of left ventricular wall motion and myocardial perfusion with technetium–99m–methoxy isobutyl isonitrile at stress and rest in patients with angina: comparison with thallium–201 SPECT. The Journal of Nuclear Medicine. 1990;31(4):457-63. 40. Heo J, Wolmer I, Kegel J, Iskandrian AS. Sequential dual–isotope SPECT imaging with thallium–201 and technetium–99m–sestamibi. The Journal of Nuclear Medicine. 1994;35(4):549-53. 41. Gullberg GT, Zeng GL, Datz FL, Christian PE, Tung C-H, Morgan HT. (1992). Review of convergent beam tomography in single photon emission computed tomography. Physics in Medicine and Biology. 1992;37(3):507-34. 42. Hawman PC, Haines EJ. The cardiofocal collimator: a variable–focus collimator for cardiac SPECT. Physics in Medicine and Biology. 1994;39(3):439–50. 43. Galt JR, Cullom SJ, Garcia EV. SPECT quantification: a simplified method of attenuation and scatter correction for cardiac imaging. The Journal of Nuclear Medicine. 1992;33(12):2232-37.


Revista Latinoamericana de Hipertensión. Vol. 11 - Nº 4, 2016 44. Haddad M, Porenta G. Impact of reorientation algorithms on quantitative myocardial SPECT perfusion imaging. The Journal of Nuclear Medicine. 1998;39(11):1864-69.

56. Debreuve E, Barlaud M, Aubert G, Laurette I, Darcourt J. Space–time segmentation using level set active contours applied to myocardial gated SPECT. IEEE Transactions on Medical Imaging. 2001;20(7):643-59.

45. Bruyant PP. Analytic and iterative reconstruction algorithms in SPECT. The Journal of Nuclear Medicine. 2002;43(10):1343-58.

57. Keyes J. Three–dimensional display in nuclear medicine: Advantages and problems. The Journal of Nuclear Medicine. 1990;31(8):1428-30.

46. Groch MW, Erwin WD. SPECT in the year 2000: Basic principles. The Journal of Nuclear Medicine Technology. 2000;28(4):233–44.

58. Links J, Devous M. Three–dimensional display in nuclear medicine: A more useful depiction of reality, or only a superficial rendering? The Journal of Nuclear Medicine. 1995;36(4):703-4.

47. Gopal SS, Hebert TJ. Pre–reconstruction restoration of SPECT projection images by a neural network. IEEE Transactions on Nuclear Science. 1993;41(4):1620-5. 48. Webb S. SPECT reconstruction by simulated annealing. Physics inMedicine and Biology. 1989;34(3):259-81. 49. Lee SJ, Hsiao IT, Gindi GR. The thin plate as a regularizer in bayesian SPECT reconstruction. IEEE Transactions on Nuclear Science. 1997;44(3):1381-7. 50. Weir I. Fully bayesian reconstructions from single photon emission computed tomography. Journal of the American Statistical Association. 1997;92(1):49-60. 51. Wallis JW, Miller TR, Lerner CA, Kleerup EC. Three–dimensional display in nuclear medicine. IEEE Transactions on Medical Imaging. 1989;8(4):297-303. 52. DePuey EG, Garcia EV, Ezquerra NF. Three–dimensional techniques and artificial inteligence in thalium–201 cardiac imaging. American Journal of Roentgenology. 1989;152(6):1161-68. 53. Faber T, Stokely E, Templeton G, Akers M, Parkey R, Corbett J. Quantification of three–dimensional left ventricle segmental wall motion and volumes from gated tomographic. The Journal of Nuclear Medicine. 1989;30(5):638-49. 54. Hurn MA, Mardia KV, Hainsworth TJ, Kirkbride J, Berry E. Bayesian fused classification of medical images. IEEE Transactions on Medical Imaging.1996;15(6):850-8.

59. Nakajima K, Higuchi T, Taki J, Kawano M, Tonami N. Accuracy of ventricualr volume and ejection fraction mesured by gated myocardial SPECT: Comparison of 4 software programs. The Journal of Nuclear Medicine. 2001;42(10):1571-8. 60. Taki J, Higuchi T, Nakajima K, Matsunari I, Hwang E-H, Bunko H, Kawasuji M, Watanabe G, Tonami N. Electrocardiographic fated 99tc–MIBI SPECT for functional assessment of patients after coronary artery bypass surgery: Comparison of wall thickening and wall motion analysis. The Journal of Nuclear Medicine. 2002;43(5):589-95. 61. Matsumoto N, Berman DS, Kavanagh PB, Gerlach J, Hayes SW, Lewin HC, Friedman JD, Germano G. Quantitative assessment of motion artifacts and validation of new motion–correction program for myocardial perfusion SPECT. The Journal of Nuclear Medicine. 2001;42(5): 687-94. 62. Santana CA, García EV, Vansant JP, Krawczynska EG, Folks RD, Cooke CD, Faber TL. Three–dimensional color–modulated display of myocardial distributions accurately assesses coronary artery disease. The Journal of Nuclear Medicine. 2000;41(12):1941-6. 63. Faber T, Cooke C, Peifer J, Pettigrew R, Vansant J, Leyendecker J, Garcia E. Three–dimensional display of left ventricle epicardial surface from standard cardiac SPECT perfusion quantification techniques. The Journal of Nuclear Medicine.1995;36(4):697–703.

55. Hebert TJ. Fast iterative segmentation of high resolution medical images. IEEE Transactions on Nuclear Science. 1997;44(3):1362-67.

Manuel Velasco (Venezuela) Editor en Jefe - Felipe Alberto Espino Comercialización y Producción Reg Registrada en los siguientes índices y bases de datos:

SCOPUS, EMBASE, Compendex, GEOBASE, EMBiology, Elsevier BIOBASE, FLUIDEX, World Textiles, OPEN JOURNAL SYSTEMS (OJS), REDALYC (Red de Revistas Científicas de América Latina, el Caribe, España y Portugal), LATINDEX (Sistema Regional de Información en Línea para Revistas Científicas de América Latina, el Caribe, España y Portugal) LIVECS (Literatura Venezolana para la Ciencias de la Salud), LILACS (Literatura Latinoamericana y del Caribe en Ciencias de la Salud) PERIÓDICA (Índices de Revistas Latinoamericanas en Ciencias), REVENCYT (Índice y Biblioteca Electrónica de Revistas Venezolanas de Ciencias y Tecnología) SCIELO (Scientific Electronic Library Online), SABER UCV, DRJI (Directory of Research Journal Indexing) CLaCaLIA (Conocimiento Latinoamericano y Caribeño de Libre Acceso), EBSCO Publishing, PROQUEST.

109


S egmentación automática de la arteria aorta torácica en imágenes

de tomografía computarizada cardiaca Automatic segmentation of the thoracic aorta in cardiac computed tomography images 110 Miguel Vera, MgSc, PhD1,2*, Yoleidy Huérfano, MgSc1, Julio Contreras, MgSc2, María Vera, BSc1, Atilio Del Mar3, José Chacón, MgSc, PhD2, Sandra Wilches-Durán, MgSc2, Modesto Graterol-Rivas, MgSc, PhD2, Daniela Riaño-Wilches, BSc4, Joselyn Rojas, MD, MSc5, Valmore Bermúdez, MD, MSc, MPH, PhD6 1 Grupo de Investigación en Procesamiento Computacional de Datos (GIPCD-ULA) Universidad de Los Andes-Táchira, Venezuela. Grupo de Investigación Altos Estudios de Frontera (ALEF), Universidad Simón Bolívar, Cúcuta, Colombia. Autor responsable de correspondencia: veramig@gmail.com*. 3 Instituto de Bioingeniería y Diagnóstico Sociedad Anónima (IBIDSA), San Cristóbal, Venezuela. e-mail: atiliodelmar@yahoo.com. 4 Facultad de Medicina, Universidad de los Andes, Bogotá, Colombia. 5 Pulmonary and Critical Care Medicine Department. Brigham and Women’s Hospital. Harvard Medical School. Boston, MA. USA 02115. 6 Centro de Investigaciones Endocrino-Metabólicas “Dr. Félix Gómez” Facultad de Medicina. Universidad del Zulia, Venezuela.

Abstract

Resumen

2

l artículo propone una técnica para la segmentación automática de la arteria aorta torácica (TAA), denominada también aorta externa descendente, en 10 imágenes cardiacas tridimensionales (3-D) de tomografía computarizada multi-corte, pertenecientes a un mismo sujeto. La mencionada técnica consta de las etapas de filtrado y segmentación. La etapa de filtrado, denominada realce por similaridad global, se utiliza con el propósito de minimizar tanto el ruido Poisson como el impacto del artefacto escalera en la calidad de las imágenes. Este tipo de realce consiste en la aplicación de un banco de filtros, suavizadores y un detector de bordes, cuya finalidad es generar una imagen en la cual se agrupa la información de las estructuras anatómicas, que conforman las imágenes originales. Por otra parte, para generar la morfología 3-D de la TAA, se aplica una etapa de segmentación la cual considera las imágenes filtradas y un algoritmo de agrupamiento basado en crecimiento de regiones. La estrategia propuesta genera las segmentaciones 3-D de la TAA en todas las imágenes que conforman el ciclo cardiaco completo del sujeto considerado. Para cuantificar el desempeño de la referida técnica se consideró el coeficiente de Dice obteniéndose una buena correlación entre las segmentaciones automáticas y las manuales generadas por un cardiólogo. Las segmentaciones generadas automáticamente pueden ser útiles en la detección de ciertas patologías que afectan tanto la arteria aorta como estructuras anatómicas, asociadas con ella, tales como la válvula aorta y el ventrículo izquierdo. Palabras clave: Arteria aorta externa descendente, Tomografía computarizada, Realce por similaridad global, Segmentación

he article proposes a technique for automatic segmentation of the thoracic aorta (TAA), also called the descending external aorta, in 10 three-dimensional (3-D) cardiac images of multi-cut computed tomography, belonging to the same subject. The mentioned technique consists of the stages of filtering and segmentation. The filtering step, called global similarity enhancement, is used to minimize both Poisson noise and the impact of the ladder artifact on image quality. This type of enhancement consists in the application of a bank of filters, softeners and a border detector, whose purpose is to generate an image in which the information of the anatomical structures that make up the original images are grouped together. On the other hand, to generate the 3-D morphology of the TAA, a segmentation stage is applied which considers the filtered images and a clustering algorithm based on regions growth. The proposed strategy generates the 3-D segmentations of TAA in all the images that make up the complete cardiac cycle of the subject considered. In order to quantify the performance of the referred technique, the Dice coefficient was considered, obtaining a good correlation between the automatic segmentations and the manual ones generated by a cardiologist. Automatically generated segmentations may be helpful in detecting certain pathologies that affect both the aorta and anatomical structures associated with it, such as the aorta and left ventricle. Keywords: Aortic descending external artery, Computed tomography, Global similarity enhancement, Segmentation


Introducción

Revista Latinoamericana de Hipertensión. Vol. 11 - Nº 4, 2016

Por otra parte, la aorta puede experimentar una serie de enfermedades3,4,5 sintetizadas, en el presente trabajo, mediante la Figura 1.

l corazón está conformado por dos partes anatómicas. La parte derecha, relacionada con la sangre venosa, y la parte izquierda, relacionada con la sangre arterial. Estas mitades se dividen en otras dos, situadas una encima de otra: la cavidad superior llamada aurícula y la cavidad inferior denominada ventrículo. Cada aurícula está conectada con el ventrículo correspondiente a través de una válvula1. Además, la válvula aórtica y la arteria aorta sirven de canal para que la sangre oxigenada, proveniente del ventrículo izquierdo (LV) se distribuya a diversas partes del cuerpo humano. La aorta es la arteria de mayor calibre del cuerpo y tiene su origen en la válvula aortica, en la salida del LV. La mencionada arteria se sitúa en la región anterior del tórax, inmediatamente detrás del esternón, y se denomina aorta ascendente. Después realiza una curvatura en forma de semicircunferencia (cayado aórtico) y se localiza en la región posterior del tórax (aorta torácica), justo a la izquierda de la columna vertebral2.

Como se observa en la Figura 1, la arteria aorta puede sufrir una variedad de patologías que hace de la caracterización de tal arteria un hecho relevante en el contexto clínico. A manera de ejemplo, con la extensión retrógrada de un aneurisma disecante torácico a la válvula aórtica se puede provocar insuficiencia valvular aguda o rotura supra-perivalvular5. Adicionalmente, realizar segmentaciones vinculadas con la TAA es una tarea compleja debido a que las imágenes, provenientes de cualquier estudio imagenológico, poseen imperfecciones las cuales se transforman en problemas que afectan la calidad de la información presente en las imágenes cardiacas. Particularmente, en imágenes cardiacas de tomografía computarizada multicapa (MSCT), tales problemas están vinculados con ruido Poisson, artefacto escalera y bajo contraste entre las estructuras del corazón6. Una síntesis de las investigaciones orientadas hacia la segmentación de la arteria aorta se presentan en el Cuadro 1.

Figura 1. Síntesis de las enfermedades que experimenta la arteria aorta

Cuadro 1. Investigaciones orientadas hacia la segmentación de la arteria aorta Autores

Descripción del estudio

Kurogol et al. [7]

Segmentan, en el espacio tridimensional, la aorta utilizando una técnica que incluye transformada de Hough y el método de level set considerando 45 imágenes 3-D de MSCT. Ellos reportan un error promedio, de correspondencia punto a punto, de 0.52 ± 0.10 mm lo cual muestra la excelente correlación entre las segmentaciones generadas por la técnica propuesta y las manuales generadas por un cardiólogo.

Avila et al. [8]

Presentan un enfoque bidimensional, basado en programación dinámica, para la segmentación de la TAA en imágenes no contrastadas de MSCT. Tal segmentación se realiza con el propósito de detectar la calcificación de la aorta. Estos autores no mencionan ninguna métrica que permita inferir el nivel de desempeño del enfoque presentado.

Kurogol et al. [9]

Proponen una metodología computacional 3-D que explota la robustez del level set y técnicas de umbralización para caracterizar la morfología de la aorta e identificar la presencia de acumulaciones de calcio en 2500 imágenes de CT. La referida metodología genera un coeficiente de Dice promedio de 0.92 ± 0.01 indicando una altísima correspondencia entre las segmentaciones manuales y automáticas.

111


Materiales y métodos 112

2.1. Descripción de las bases de datos La base de datos (DB) utilizada fue suministrada por el Instituto de Bioingeniería y Diagnóstico Sociedad Anónima (IBIDSA), San Cristóbal, Venezuela, y está constituida por imágenes de MSCT cardiaca de un paciente. La DB posee 10 instantes que representan un ciclo cardiaco completo. Cada instante tiene 324 imágenes de resolución espacial 512x512 píxeles, muestreadas a 12 bits por píxel, con vóxeles de tamaño 0.4297 mm x 0.4297 mm x 0.4000 mm. También se cuenta con las segmentaciones manuales del ciclo cardiaco completo, generadas por un cardiólogo, las cuales representan los ground truth de la TAA que servirán como referencia para validar los resultados. 2.2. Descripción de la estrategia propuesta para la segmentación de la aorta torácica La Figura 2 muestra la estrategia propuesta para generar la morfología de la TAA. Debido a que tal estrategia está basada en un tipo de realce por similaridad global, en el presente artículo, será utilizado el acrónimo Egs para hacer referencia a ella. Es importante señalar que, en el contexto de Egs, las técnicas que conforman las etapas de filtrado y segmentación se implementaron considerando las siguientes herramientas de software: Lenguaje C++ 10, Matlab11, Insight toolkit (ITK)12, y Visualization toolkit (VTK)13. Etapa de filtrado En la Figura 2, se ha destacado mediante un recuadro azul la etapa de filtrado basada en realce por similaridad global (GSE). Este tipo de realce se aplica, preliminarmente, sobre el instante de diástole final y consiste en: a) Generar una imagen gradiente (Igm): A cada imagen original (Io) se le aplica un filtro basado en el cálculo de la magnitud del gradiente14. El papel de este filtro es detectar los bordes de las estructuras presentes en las imágenes. La magnitud del gradiente se utiliza ampliamente en el análisis de imágenes, principalmente, para identificar los contornos de objetos y la separación de regiones homogéneas. La detección de bordes es la detección de discontinuidades significativas en el nivel de gris o color de una imagen14. Esta técnica calcula la magnitud del gradiente

Figura 2. Diagrama de bloques de la estrategia Egs

usando las primeras derivadas parciales direccionales de una imagen. El modelo matemático 3-D clásico, para obtener una imagen filtrada por magnitud del gradiente se presenta mediante la Ecuación 1.

donde: i, j, k representa las direcciones espaciales en las que se calcula el gradiente. En la práctica, la magnitud del gradiente de la imagen en cada posición del vóxel, objeto de estudio, se calcula utilizando un enfoque basado en diferencias finitas. Teóricamente, el filtro de magnitud del gradiente basado en los valores de intensidad es muy susceptible al ruido14, por ello, se recomienda filtrar la imagen inicialmente para mejorar el rendimiento del detector con respecto al ruido. b) Aplicar una función de similaridad global: Los volúmenes de entrada de esta función son las imágenes Igm e Io. La finalidad de la similaridad global es abordar el problema de los artefactos. Para ello, se considera la información proveniente de los niveles de gris de vóxeles vecinos, del vóxel actual, en los volúmenes de entrada. La mencionada función produce una imagen de similaridad global (Igs) la cual se calcula mediante el valor absoluto de la resta aritmética de los vóxeles correspondientes a Igm e Io 6. El tamaño óptimo de la vecindad 3-D para cada uno de los filtros fue obtenido de manera heurística como se explica en la sección denominada etapa de entonación de parámetros. c) Obtener una imagen gausiana (Ig): Para producir este tipo de imagen se utiliza un filtro gausiano cuya función es abordar el problema del ruido. El filtro gaussiano está caracterizado como una técnica espacial lineal que se ha utilizado clásicamente para minimizar el ruido presente en imágenes. Existe una relación entre la cantidad de ruido que se atenúa mediante la aplicación de este filtro y el desenfoque de la imagen6. Este tipo de filtro emplea una distribución gaussiana discreta la cual puede expresarse mediante una máscara o kernel gaussiano, de tamaño ar-


Revista Latinoamericana de Hipertensión. Vol. 11 - Nº 4, 2016

bitrario. Si se pretende suavizar, por ejemplo, una imagen 3-D los escalares que conforman el referido kernel pueden obtenerse de acuerdo con la Ecuación 2. (2)

Siendo: gaussiano, cada dimensión espacial.

, n el tamaño del kernel las desviaciones estándar para

En la práctica, en el presente trabajo, el filtrado gaussiano se implementa mediante la convolución de la imagen Igs con el referido kernel gaussiano6. Los parámetros de este filtro son: la desviación estándar de cada una de las dimensiones espaciales y el radio (r) que define el tamaño (n) de la máscara, dado por la Ecuación 3.

n = 2r + 1,

Siendo r un escalar arbitrario.

(3)

Etapa de segmentación A fin de obtener la segmentación de la TAA a las imágenes filtradas les fue aplicado un algoritmo, basado en técnicas de agrupamiento, que considera un enfoque basado en crecimiento de regiones15. El crecimiento de regiones (RG) es una técnica que permite extraer de una imagen regiones que son conectadas de acuerdo a un criterio predefinido. El RG requiere de un vóxel semilla que puede ser seleccionado manual o automáticamente, de forma que se pueda extraer todos los vóxeles conectados a la semilla16. En este artículo, la mencionada semilla es detectada mediante el uso de una LSSVM siguiendo un procedimiento que se describe posteriormente. Adicionalmente, para efectos del presente trabajo, se consideró como criterio predefinido el dado por la Ecuación 4. | I(x,y,z)− µ| > m.σ

(4)

Siendo: I(x,y,z) el nivel de gris del vóxel objeto de estudio, μ y σ la media aritmética y la desviación estándar de los niveles de gris de la vecindad (de tamaño arbitrario r), seleccionada alrededor del vóxel semilla y m un número natural arbitrario. Como se aprecia, el desempeño del RG depende, operativamente, de 2 parámetros. Ellos son: aquel que controla el tamaño de la vecindad inicial (r) y el parámetro m que controla la amplitud del rango de intensidades considerado para aceptar o rechazar un vóxel en una región. Tales parámetros deben someterse a un proceso de entonación16. Selección de la semilla para el RG En el contexto de la estrategia Egs, considerando las imágenes filtradas, la selección de la semilla para inicializar el RG se basa en los siguientes aspectos: i) Se aplica una técnica de reducción de tamaño, basada en transformada wavelet17, cuyo parámetro se hace coincidir con el factor de reducción óptimo, obtenido en6. Esto permite generar imágenes sub-muestreadas de 64x64 píxeles a partir de imágenes filtradas de 512x512, es decir, el mencionado factor fue de 8.

ii) Sobre las imágenes sub-muestreadas un cardiólogo selecciona las coordenadas manuales que establecen sin ambigüedad la ubicación espacial, en cada imagen considerada, del centroide de la TAA. A este centroide se le asigna la etiqueta P1. iii) Se implementa una LSSVM para reconocer y detectar a P1. Para ello se desarrollan los procesos de: a) Entrenamiento. Se selecciona como conjunto de entrenamiento vecindades circulares de radio 20 píxeles, trazadas manualmente por un cardiólogo, que contienen tanto a P1 (marcadores), como regiones que no contienen a P1 (no marcadores). Para los marcadores el centro de sus respectivas vecindades coincide con las coordenadas manuales de P1, establecidas anteriormente. Tales vecindades son construidas sobre la vista axial de una imagen sub-muestreada de 64x64 píxeles para P1. La principal razón por la cual se elige una única imagen, por cada punto de referencia, es porque se desea generar una LSSVM con alto grado de selectividad, que detecte sólo aquellos píxeles que posean un alto grado de correlación con el patrón de entrenamiento. Luego, cada vecindad es vectorizada y, considerando sus niveles de gris, se calculan los atributos: media (µ), varianza (σ2), desviación estándar (σ) y mediana (me). Así, tanto los marcadores como los no marcadores se describen mediante vectores (Va) de atributos estadísticos, dado por: Va = [µ, σ2, σ, me]. Adicionalmente, la LSSVM es entrenada considerando como patrón de entrenamiento los vectores Va y entonando los valores de los parámetros que controlan su desempeño, µ y σ2. Este enfoque, basado en atributos, permite que la LSSVM realice su trabajo con mayor eficiencia, que cuando se utiliza el enfoque basado en vectores de mayor tamaño, que sólo considera el nivel de gris de los elementos de una imagen. El conjunto de entrenamiento se construye con una relación de 1:10, lo cual significa que por cada marcador se incluyen 10 no marcadores. La etiqueta +1 se asigna a la clase conformada por los marcadores; mientras la etiqueta -1 se asigna a la clase de los no marcadores, es decir, el trabajo de entrenamiento se hace con base en una LSSVM binaria. Durante el entrenamiento, se genera un clasificador dotado de una frontera de decisión para detectar los patrones de entrada a la LSSVM como marcadores ó no marcadores. Posteriormente, debido a la presencia de falsos positivos y negativos, se aplica un proceso que permite incorporar al conjunto de entrenamiento los patrones que la LSSVM clasifica, inicialmente, de manera inapropiada. En este sentido, se consideró, un toolbox denominado LS-SVMLAB y la aplicación Matlab para implementar un clasificador LSSVM basado en un kernel gaussiano de base radial con parámetros σ2 y g. b) Validación: Las LSSVM entrenadas se utilizan para detectar a P1, en imágenes no usadas durante el entrenamiento. Para ello, una LSSVM entrenada empieza a buscar a P1 desde la imagen que representa la mitad de la base de datos (ecuador del corazón) hasta la última imagen que conforma dicha base. El proceso de validación efectuado con LSSVM permite identificar, automáticamente, las coordenadas para P1 las

113


cuales son multiplicadas por un factor de 8 unidades, a fin de poder ubicarlas, en las imágenes de tamaño original obteniéndose de esta forma la mencionada semilla.

ca. Adicionalmente, el Dc es máximo cuando se alcanza un perfecto solapamiento entre RD y RP pero es mínimo cuando RD y RP no se solapan en absoluto. Además, los valores esperados para el Dc son números reales comprendidos entre 0 (mínimo) y 1 (máximo). Entre más cercano a 1 se encuentre el valor del Dc, mejor será el desempeño del procedimiento que no es manual. El modelo matemático que define el Dc, viene dado por la Ecuación 5.

2.3. Etapa de entonación de parámetros: Obtención de parámetros óptimos Esta etapa permite la obtención de los parámetros óptimos que garantizan un buen desempeño de la estrategia propuesta. Para ello, se modifican los parámetros asociados con la técnica que se desee entonar recorriendo, sistemáticamente, los valores pertenecientes a ciertos rangos tal y como se describe a continuación:

b) Los parámetros de las LSSVM, g y gv fvcxesƒ .p?|?{| , se entonan suponiendo que la función de costo es convexa y desarrollando ensayos basados en los siguientes pasos: 1. Para entonar el parámetro g se fija arbitrariamente el valor de σ2 y se asignan, sistemáticamente, valores al parámetro g. El valor de σ2 se fija inicialmente en 25. Ahora, se varía g considerando el rango [0,100] y un tamaño de paso de 0.25; 2. Un proceso análogo se aplica para entonar el parámetro σ2, es decir, se le asigna a g el valor óptimo obtenido en el paso anterior y, se considera un tamaño de paso de 0.25 para asignarle a σ2 el rango de valores contenidos en el intervalo [0,50]; 3. Los parámetros óptimos de las LSSVM son aquellos valores de g y σ2 que corresponden al error relativo porcentual mínimo, calculado considerando las coordenadas manuales y automáticas de los puntos de referencia. Éstas últimas coordenadas son generadas por la LSSVM. c) Durante la entonación de los parámetros del RG, cada una de las segmentaciones automáticas de la aurícula izquierda correspondiente al instante diástole final se compara, usando el coeficiente de Dice (Dc)18, con la segmentación manual de la LA generada por un cardiólogo. Los valores óptimos para los parámetros del RG (r y m) se hacen coincidir con aquel experimento que genera el valor más alto para el Dc. Para r y m se considera el rango de valores establecido en236, para aplicaciones prácticas que consideran imágenes médicas. En este sentido, m toma valores que pertenecen a los números reales comprendidos entre 0 y 10, mientras que r considera valores enteros entre 1 y 20. El Dc es una métrica que permite comparar segmentaciones de una misma imagen 3-D obtenida por diversas metodologías. En el contexto cardiaco, usualmente, el Dc es considerado para establecer que tan similares son, espacialmente, la segmentación manual (RD) y la segmentación automática (RP) que genera la morfología de cualquier estructura cardia-

(5)

En este punto, es necesario enfatizar que en el contexto del presente trabajo, el proceso de entonación para un filtro particular se detiene cuando se identifican los valores de sus parámetros, asociados con la segmentación que genera el Dc de mayor valor. Es decir, la obtención de parámetros óptimos para los filtros se hace de manera indirecta.

Resultados

114

a) Para entonar el filtro gaussiano se debe considerar un parámetro identificado como desviación estándar (σ). En el contexto del presente trabajo, se hace uso de un enfoque isotrópico que asigna el mismo valor de desviación a cada una de las direcciones en las que se aplica el filtro gausiano y se considera como σ el valor de la desviación estándar de la imagen original. El otro parámetro del filtro gausiano, vinculado con el tamaño de la vecindad se fijó en 3x3x3, debido a que ese fue el tamaño de vecindad óptimo, para veste filtro, reportado en6.

3.1. Resultados cuantitativos Respecto a las LSSVM entrenadas se obtuvieron, como parámetros óptimos para g y σ2 los valores 1.25 y 0.50, respectivamente. Estos valores están asociados con un error relativo porcentual mínimo de 1.46%. Los parámetros óptimos del crecimiento de regiones fueron: m= 6.0 y r= 2 y corresponden a un Dc máximo de 0.9361. 3.2 Resultados cualitativos La Figura 3, presenta una vista 2-D (axial) relativa a: a) Imagen original. b) Imagen filtrada, en la cual se ha identificado la arteria aorta torácica. En esta figura, se observa una importante disminución del ruido y un agrupamiento adecuado de las estructuras anatómicas presentes en la imagen. Por otra parte, la Figura 4 muestra la vista 3-D de los 10 instantes que conforman el ciclo cardiaco completo del paciente considerado (validación intra-sujeto). En la figura 4, se aprecia una buena representación de la TAA para la cual se obtuvo un Dc promedio de 0.9154 ± 0.2751. Este valor para el coeficiente de Dice expresa una adecuada correlación entre las segmentaciones manuales, generadas por un cardiólogo, y las automáticas producidas por la técnica propuesta en la presente investigación.


Revista Latinoamericana de Hipertensión. Vol. 11 - Nº 4, 2016 Figura 3. Vista 2D axial para: a) Imagen original. b) Imagen filtrada

Figura 4. Representación 3-D de las segmentaciones de la aorta torácica correspondiente a un ciclo cardiaco completo

Conclusiones

115

e ha presentado la estrategia Egs cuya entonación permite una segmentación adecuada de la arteria aorta torácica y que además permite generar un Dc promedio elevado. En un corto plazo, se tiene previsto realizar una validación inter-sujeto, considerando un número importante de bases de datos, para establecer la robustez de la Egs. Las segmentaciones obtenidas, automáticamente, pueden ser útiles para determinar si el paciente sufre o no enfermedades tales como aneurismas, aterosclerosis, arterosclerosis y/o estenosis. Además, la segmentación 3–D de la TAA, mediante la aplicación de Egs, puede ser considerada para el diseño de modelos 3-D que permitan la planificación de cirugías y/o procesos terapéuticos asociados con las enfermedades que afectan la mencionada arteria.

Referencias 1.

Latarjet M, Ruíz A. Anatomía Humana. Volumen 2. Argentina: Panamericana; 1983.

2.

Barrett K, Brown S, Biotano S, Brooks H. Fisiología Médica. New York: MacGraw–Hill; 1986.

3.

Griepp R, Ergin M, Galla J, Lansman S, McCullough J, Nguyen K, Klein J, Spielvogel D. Natural History of Descending Thoracic and Thoracoabdominal Aneurysms. The Annals of Thoracic Surgery. 1999;67(6):1927-30.

4.

Coady M, Graeme L, Elefteriades J. Surgical Intervention Critreria for Thoracic Aortic and Thoracoabdominal Aneurysms. The Annals of Thoracic Surgery. 1999;67(6):1922-28.

5.

Estrera A, Rubenstein F, Miller C, Huynh T, Letsou G, Safi H. Descending Surgical thoracic aortic aneurysm: surgical approach and treatment using the adjuncts cerebrosspinal fluid drainage and distal aortic perfu-


sion. The Annals of Thoracic Surgery. 2001;72(2):481-6. 6.

Vera M. Segmentación de estructuras cardiacas en imágenes de tomografía computarizada multi-corte [Tesis doctoral]. Mérida-Venezuela: Universidad de los Andes, 2014.

7. Kurugol S, San Jose R, Ross J, Washko G. Aorta segmentation with a 3D level set approach and quantification of aortic calcifications in non-contrast chest CT. In: Engineering in Medicine and Biology Society (EMBC), 2012 Annual International Conference of the IEEE. 2012: 2343-6.

116

8.

Avila O, Kurkure U, Nakazato R, Berman D, Dey D, Kakadiaris I. Segmentation of the thoracic aorta in noncontrast cardiac CT images. IEEE journal of biomedical and health informatics. 2013; 17(5):936-49.

9.

Kurugol S, Come C, Diaz A, Ross J, Kinney G, Black-Shin J, Hokanson J, Budoff M, Washko G, San Jose R. Automated quantitative 3D analysis of aorta size, morphology, and mural calcification distributions. Medical physics. 2015;42(9):5467-78.

10. Stroustrup B. The C++ Programming Language. Michigan:AddisonWesley;2000. 11. Chapman S. MATLAB Toronto:Thomson;2004.

Programming

for

Engineers.

12. Ibanes L, Schroeder W, Ng L. Insight Segmentation and Registration Toolkit (ITK) Software Guide. 2003. Avalaible in: http://www.itk.org/ 13. Schroeder W, Martin K, Lorensen B. The Visualization Toolkit, An Object-Oriented Approach to 3D Graphics. New Jersey:Prentice Hall;2001. 14. W Pratt. Digital Image Processing. New Jersey: John Wiley & Sons Inc; 2007. 15. Passarielo G, Mora F. Imágenes Médicas, Adquisición, Análisis, Procesamiento e Interpretación. Baruta, Venezuela: Equinoccio Universidad Simón Bolívar;1995. 16. Huérfano Y, Vera M, Segundo A, Chacón J, Vera MI, Bautista N, et al. Método de segmentación de imágenes cardiacas: Fundamentos y alcance. Revista Latinoamericana de Hipertensión. 2015;10(3):77-87. 17. Meyer Y. Wavelets and Operators. New York:Cambridge University Press;1999. 18. Dice L. Measures of the amount of ecologic association between species. Ecology. 1945;26(3):297-302.

Manuel Velasco (Venezuela) Editor en Jefe - Felipe Alberto Espino Comercialización y Producción Reg Registrada en los siguientes índices y bases de datos:

SCOPUS, EMBASE, Compendex, GEOBASE, EMBiology, Elsevier BIOBASE, FLUIDEX, World Textiles, OPEN JOURNAL SYSTEMS (OJS), REDALYC (Red de Revistas Científicas de América Latina, el Caribe, España y Portugal), LATINDEX (Sistema Regional de Información en Línea para Revistas Científicas de América Latina, el Caribe, España y Portugal) LIVECS (Literatura Venezolana para la Ciencias de la Salud), LILACS (Literatura Latinoamericana y del Caribe en Ciencias de la Salud) PERIÓDICA (Índices de Revistas Latinoamericanas en Ciencias), REVENCYT (Índice y Biblioteca Electrónica de Revistas Venezolanas de Ciencias y Tecnología) SCIELO (Scientific Electronic Library Online), SABER UCV, DRJI (Directory of Research Journal Indexing) CLaCaLIA (Conocimiento Latinoamericano y Caribeño de Libre Acceso), EBSCO Publishing, PROQUEST.




Turn static files into dynamic content formats.

Create a flipbook
Issuu converts static files into: digital portfolios, online yearbooks, online catalogs, digital photo albums and more. Sign up and create your flipbook.