® Registrada en los siguientes índices y bases de datos: SCIENCE CITATION INDEX EXPANDED (SciSearch) JOURNAL CITATION REPORTS/SCIENCE EDITION REDALYC (Red de Revistas Científicas de América Latina, el Caribe, España y Portugal) SCIELO (Scientific Electronic Library Online) LATINDEX (Sistema Regional de Información en Línea para Revistas Científicas de América Latina, el Caribe, España y Portugal) LIVECS (Literatura Venezolana para la Ciencias de la Salud) LILACS (Literatura Latinoamericana y del Caribe en Ciencias de la Salud) ELSEVIER BIBLIOGRAPHIC DATABASES: EMBASE, Compendex, GEOBASE, EMBiology, Elsevier BIOBASE, FLUIDEX, World Textiles, Scopus PERIÓDICA (Índices de Revistas Latinoamericanas en Ciencias) REVENCYT (Índice y Biblioteca Electrónica de Revistas Venezolanas de Ciencias y Tecnología) SABER UCV DRJI (Directory of Research Journal Indexing) CLaCaLIA (Conocimiento Latinoamericano y Caribeño de Libre Acceso) EBSCO Publishing PROQUEST OPEN JOURNAL SYSTEMS OJS
ISSN: 1856-4550
VOLUMEN XI. Nº 3 - 2016
Depósito Legal: PP200602DC2167
3
www.revistahipertension.com.ve
R
Editor en Jefe Manuel Velasco (Venezuela) Editor Adjunto Julio Acosta Martínez Editores Asociados Alcocer Luis (México) Brandao Ayrton (Brasil) Feldstein Carlos (Argentina) Israel Anita (Venezuela) Israili Zafar (Estados Unidos) Levenson Jaime (Francia) Parra José (México) Ram Venkata (Estados Unidos) Comité Editorial Álvarez de Mont, Melchor (España) Amodeo Celso (Brasil) Arciniegas Enrique (Venezuela) Baglivo Hugo (Argentina) Bermúdez Valmore (Venezuela) Bognanno José F. (Venezuela) Briceño Soledad (Venezuela) Contreras Freddy (Venezuela) Contreras Jesús (Venezuela) Crippa Giuseppe (Italia) De Blanco María Cristina (Venezuela) Escobar Edgardo (Chile) Foo Keith (Venezuela) Gamboa Raúl (Perú) Juan De Sanctis (Venezuela) Kaplan Norman (Estados Unidos) Lares Mary (Venezuela) Lenfant Claude (Estados Unidos) López Jaramillo Patricio (Colombia) López Mora (Venezuela) Manfredi Roberto (Italia) Manrique Vestal (Venezuela) Marahnao Mario (Brasil) Marín Melania (Venezuela) Monsalve Pedro (Venezuela) Morr Igor (Venezuela) Mújica Diorelys (Venezuela) Nastasi Santina (Venezuela) Pizzi Rita (Venezuela) Ponte Carlos (Venezuela) Rodríguez Luis Alejandro (Venezuela) Rodríguez de Roa Elsy (Venezuela) Sánchez Ramiro (Argentina) Soltero Iván (Venezuela) Tellez Ramón (Venezuela) Valdez Gloria (Chile) Valencia Delvy (Venezuela) Vidt Donald (Estados Unidos) Zanchetti Alberto (Italia)
Sumario - Volumen 11, Nº 3, 2016
Editores
evista Latinoamericana de Hipertensión Segmentación automática de la aurícula izquierda en imágenes de tomografía computarizada cardiaca Automatic segmentation of the left atrium in cardiac computed tomography Miguel Vera,Yoleidy Huérfano, Oscar Valbuena, José Chacón, Julio Contreras, María Vera, Sandra Wilches-Durán, Modesto Graterol, Daniela Riaño-Wilches, Juan Salazar, Joselyn Rojas, Valmore Bermúdez.
54
Técnicas de Preprocesamiento de Imágenes Cardiacas: Fundamentos y Alcance Medical Imaging Preprocessing Techniques: Foundations and scope Miguel Vera, Yoleidy Huérfano, Julio Contreras, Oscar Valbuena, José Chacón, María Vera, Sandra Wilches-Durán, Modesto Graterol, Daniela Riaño-Wilches, Juan Salazar, Joselyn Rojas, Valmore Bermúdez.
60
Evaluación de técnicas para la detección de la cavidad ventricular izquierda en imágenes de angiografía cardiaca por rayos X Evaluation of techniques for the detection of the left ventricular cavity in X-ray images of cardiac angiography Antonio J. Bravo, MgSc, Rubén Medina, Miguel Vera, Julio ContrerasVelásquez, MSc3, José Chacón, Sandra Wilches-Durán, Modesto GraterolRivas, Daniela Riaño-Wilches, Joselyn Rojas, Valmore Bermúdez.
Volumen 11, Nº 3. 2016 Depósito Legal: pp200602DC2167 ISSN: 1856-4550 Sociedad Latinoamericana de Hipertensión Dirección: Escuela de Medicina José María Vargas, Cátedra de Farmacología, piso 3. Esq. Pirineos. San José. Caracas-Venezuela. Telfs. 0212-5619871 E-mail: revistahipertension@gmail.com www.revistahipertension.com.ve Comercialización y Producción: Felipe Alberto Espino Telefono: 0212-881.1907/ 0416-811.6195 / 0412-363.4540 E-mail: felipeespino7@gmail.com Diseño de portada y diagramación: Mayra Gabriela Espino Telefono: 0412-922.25.68
E-mail: mayraespino@gmail.com
67
Instrucciones a los Autores
ALCANCE Y POLÍTICA EDITORIAL
La revista Latinoamericana de Hipertensión es una publicación biomédica periódica, arbitrada, de aparición trimestral, destinada a promover la productividad científica de la comunidad nacional e internacional en el área de Sistema Cardiovascular; así como todas aquellas publicaciones vinculadas a la medicina práctica en esta área. Su objetivo fundamental es la divulgación de artículos científicos y tecnológicos originales y artículos de revisión por invitación del Comité Editorial, asimismo, se admiten informes de investigaciones de corte cualitativo o cuantitativo; todos deben ser trabajos inéditos, no se hayan sometidos o hayan publicados en otra revista. El manuscrito debe ir acompañado de una carta solicitud firmada por el autor principal y el resto de los autores responsables del mismo. Está constituida por un Comité de redacción, organizado por Editor en Jefe, Editores Ejecutivos y Comité Editorial. Los manuscritos que publica pueden ser de autores nacionales o extranjeros, residentes o no en Venezuela, en castellano o en ingles (los resúmenes deben ser en ingles y castellano). Esta revista está incluida en las bases de datos de publicaciones científicas en salud: SCIENCE CITATION INDEX EXPANDED (SciSearch) JOURNAL CITATION REPORTS/SCIENCE EDITION REDALYC (Red de Revistas Científicas de América Latina, el Caribe, España y Portugal) SCIELO (Scientific Electronic Library Online) LATINDEX (Sistema Regional de Información en Línea para Revistas Científicas de América Latina, el Caribe, España y Portugal) LIVECS (Literatura Venezolana para la Ciencias de la Salud) LILACS (Literatura Latinoamericana y del Caribe en Ciencias de la Salud) ELSEVIER BIBLIOGRAPHIC DATABASES: EMBASE, Compendex, GEOBASE, EMBiology, Elsevier BIOBASE, FLUIDEX, World Textiles, Scopus DRJI (Directory of Research Journal Indexing) PERIÓDICA (Índices de Revistas Latinoamericanas en Ciencias) REVENCYT (Índice y Biblioteca Electrónica de Revistas Venezolanas de Ciencias y Tecnología) SABER UCV A tales efectos, los manuscritos deben seguir las instrucciones siguientes: a.- Todo el proceso de revisión, edición y publicación se realiza vía correo electrónico y a través de la red, permitiendo de esta manera agilizar la edición, y que un amplio público pueda acceder de manera rápida y gratuita. b.- Los trabajos deben ser enviados como archivo en formato MS Word u openoffice no comprimido adjunto a un mensaje de correo electrónico en el que deben figurar: Los nombres y apellidos completos de todos los autores y el título del trabajo, el correo electrónico y dirección postal del autor de contacto. Después de haber recibido el trabajo enviaremos un correo electrónico como acuse de recibo. Orientaciones para la publicación Para la publicación de trabajos científicos en la revista Latinoamericana de Hipertensión, los mismos estarán de acuerdo con los requisitos originales para su publicación en Revistas Biomédicas, según el Comité Internacional de Editores de Revistas Biomédicas (Arch. lntern. Med. 2006:126(36):1-47), www.icmje.com. Además, los editores asumen que los autores de los artículos conocen y han aplicado en sus estudios la ética de experimentación Internacional, como es el caso de la Convención de Helsinki. En el caso de estudios clínicos hechos en Venezuela, debe mencionarse en la sección correspondiente a selección del paciente, si el estudio se realizo en apego a la Convención de Helsinki, Ley del ejercicio de la medicina y Normas de Investigación Clínica del Ministerio de Salud y Desarrollo Social, con el consentimiento informado y la aprobación del comité de ética correspondiente. Se aceptan como idiomas el español, francés, portugués e inglés. Los trabajos no deben pasar de un total de 25 páginas de extensión. Se debe revisar el trabajo eliminando todos los formatos ocultos innecesarios. Al comienzo del trabajo se debe incluir, y por este orden: título, autores, afiliación, dirección electrónica, resumen de no más de 200 palabras y listado de palabras clave. A continuación, en el caso de que el idioma no sea el inglés, versión en esta lengua del título (Title), resumen (Abstract) y palabras clave (Key words). Las referencias a artículos o libros figurarán en el texto, entre paréntesis, indicando el apellido del autor/a o autores/as y el año de edición, separados por una coma. Configuración de página Mecanografiar original a doble espacio, papel bond blanco, 216 x 279 mm (tamaño carta) con márgenes, Margen superior 2,4.Márgenes inferior, izquierdo y derecho 3. Encabezado 1,4. Pie de página 1,25. Sin citas a pie de página, en una sola cara del papel. Usar doble espacio en todo el original. Su longitud no debe exceder las 10 páginas, excluyendo el espacio destinado a figuras y leyendas (4-5) y tablas (4-5). Formato texto - Cada uno de los componentes del original deberá comenzar en página aparte, en la secuencia siguiente: a. Página del título. b. Resumen y palabras claves. c. Texto. d. Agradecimientos. e. Referencias. f. Tablas: cada una de las tablas en páginas apartes, completas, con título y llamadas al pie de la tabla. g. Para la leyenda de las ilustraciones: use una hoja de papel distinta para comenzar cada sección. Enumere las páginas correlativamente empezando por el título. El número de la página deberá colocarse en el ángulo superior izquierdo de la misma. La página del título deberá contener: - Título del artículo, en inglés y español conciso pero informativo. a. Corto encabezamiento de página, no mayor de cuarenta caracteres (contando letras y espacios) como pie de página, en la página del título con su respectiva identificación. b. Primer nombre de pila, segundo nombre de pila y apellido (con una llamada para identificar al pie de página el más alto grado académico que ostenta y lugar actual donde desempeña sus tareas el(los) autores. c. El nombre del departamento (s) o instituciones a quienes se les atribuye el trabajo. d. Nombre y dirección electrónica del autor a quien se le puede solicitar separatas o aclaratorias en relación con el manuscrito. e. La fuente que ha permitido auspiciar con ayuda económica: equipos, medicamentos o todo el conjunto. f. Debe colocarse la fecha en la cual fue consignado el manuscrito para la publicación. - La segunda página contiene un resumen en español y su versión en inglés, cada uno de los cuales tendrá de no más de 250 palabras. En ambos textos se condensan: propósitos de la investigación, estudio, método empleado, resultados (datos específicos, significados estadísticos si fuese posible) y conclusiones. Favor hacer énfasis en los aspectos nuevos e importantes del estudio o de las observaciones. Inmediatamente después del resumen, proporcionar o identificar como tales: 3-10 palabras claves o frases cortas que ayuden a los indexadores en la construcción de índices cruzados de su artículo y que puedan publicarse con el resumen, utilice los términos del encabezamiento temático (Medical Subject Heading) del lndex Medicus, cuando sea posible. - En cuanto al texto, generalmente debe dividirse en: introducción, materiales y métodos, resultados y discusión. Agradecimientos, sólo a las personas que han hecho contribuciones reales al estudio. Figuras, tablas y cuadros
- Deben ir centradas y dejar un espacio anterior 12. - Pies: Arial 10 normal justificada. Interlineado sencillo. Sangrado especial primera línea 0,50 cm. Espacio anterior 6 y posterior 12. No utilizar abreviaturas (Ejemplo Fig. 1 ó Tab. 1) sino palabra completa (Ejemplo Figura 1 ó Tabla 1). - Las tablas no deben ocupar más de una página, en caso de necesitar más espacio dividirla en varias y si no es posible incluirla como anexo. - Las figuras tipo imagen deben ser en formato JPG, PNG ó GIF con una resolución mínima aceptable que permita ver claramente su contenido. - Cuando se quiera presentar una sola figura a partir de varios cuadros de texto, seleccione los objetos y agrúpelos. - Es recomendable incluir en el manuscrito una hoja de leyendas de cada figura. Si se trata de microfotografías, citar la magnificación al microscopio ej. 50X y la técnica de coloración empleada. - La publicación de fotografías de pacientes identificables no esta permitida por razones éticas; enmascarar para que no sean identificables los pacientes. Ilustraciones: Deben ser de buena calidad; entregarlas separadas; las fotos, en papel brillante con fondo blanco, generalmente 9 x 12 cm. Las fotografías de especimenes anatómicos, o las de lesiones o de personas, deberán tener suficiente nitidez como para identificar claramente todos los detalles importantes. En caso de tratarse de fotos en colores, los gastos de su impresión correrán a cargo del autor(s) del trabajo. Lo mismo sucederá con las figuras que superen el número de cuatro. - Todas las figuras deberán llevar un rótulo engomado en el reverso y en la parte superior de la ilustración indicando número de la figura, apellidos y nombres de los autores. No escribir en la parte posterior de la figura. Si usa fotografía de personas, trate de que ésta no sea identificable o acompañarla de autorización escrita de la misma. Las leyendas de las ilustraciones deben ser mecanografiadas a doble espacio en página aparte y usar el número que corresponde a cada ilustración. Cuando se usen símbolos y fechas, números o letras para identificar partes en las ilustraciones, identifíquelas y explíquelas claramente cada una en la leyenda. Si se trata de microfotografía, explique la escala e identifique el método de coloración. Para el envío - Envíe un original inédito y dos copias impresas en un sobre de papel grueso, incluyendo copias fotográficas y figuras entre cartones para evitar que se doblen, simultáneamente envíe una versión electrónica en CD o a través del E-mail: revistahipertension@gmail.com, indicando el programa de archivo. Las fotografías deben venir en sobre aparte. Los originales deben acompañarse de una carta de presentación del autor en la que se responsabiliza de la correspondencia en relación a los originales. En ella debe declarar que conoce los originales y han sido aprobados por todos los autores; el tipo de artículo presentado, información sobre la no publicación anterior en otra revista, congresos donde ha sido presentado y si se ha usado como trabajo de ascenso. - Acuerdo de asumir los costos de su impresión en caso de fotos a color, autorización para reproducir el material ya publicado o ilustraciones que identifiquen a personas. - Cuando se refiere a originales, queda entendido que no se enviará artículo sobre un trabajo que haya sido publicado o que haya sido aceptado para su publicación en otra revista. - Todos los trabajos serán consultados por lo menos por dos árbitros en la especialidad respectiva. - La revista Latinoamericana de Hipertensión, no se hace solidaria con las opiniones personales expresadas por los autores en sus trabajos, ni se responsabiliza por el estado en el que está redactado cada texto. - Todos los aspectos no previstos por el presente reglamento serán resueltos por la Junta Directiva de la Revista. Referencias - Las referencias serán individualizadas por números arábicos, ordenados según su aparición en el texto. La lista de referencias llevará por título “Referencias” y su ordenamiento será según su orden de aparición en el texto. Para su elaboración usar el sistema Internacional. - Las citas de los trabajos consultados seguirán los requisitos de uniformidad para manuscritos presentados a revistas Biomédicas, versión publicada en: Ann lntern Med. 2006; 126(36): 1-47, www.icmje.com. No se aceptarán trabajos que no se ajusten a las normas. Las mismas aparecerán al final del artículo y deberán ajustarse al siguiente formato: Libros: Apellido, Iníciales del nombre. (Año de publicación). Título en letra cursiva. Ciudad: Editorial. Cheek, D.A. (1992). Thinking constructively about Science, Technology, and Society education. New York: State University of New York Press. Capítulos de libros: Apellido, Iniciales del nombre. (Año de publicación). Título del capítulo. En Inicial del nombre, Apellido del editor (Ed.), Título del libro en letra cursiva (páginas que comprende el capítulo). Ciudad: Editorial. Solomon, J.P. (1989).The social construction of school science. En R. Millar (Ed.), Doing science: Images of science in science education (pp. 126-136). New York: Falmer Press. Artículos de revistas: Apellido, Iniciales del nombre. (Año de publicación). Título del artículo. Nombre de la revista en letra cursiva, volumen, número, páginas. Rubba, P.A. y J.A. Solomon (1989). An investigation of the semantic meaning assigned to concepts affiliated with STS education and of STS Intructional practices among a sample of exemplary science teachers. Journal of Research in Science Teaching, 4, 26, 687-702. Para cualquier consulta relacionada con el formato de los trabajos dirigirse al editor. Proceso de revisión Los trabajos enviados serán revisados anónimamente por dos evaluadores o revisores. No se aceptan trabajos ya publicados anteriormente, tanto en soporte papel como electrónico. Aceptación y publicación Todos los manuscritos aceptados serán publicados tanto impresa como electrónicamente trimestralmente. La salida de cada número será anunciada previamente a los incluidos en la lista de correos de revistahipertension@gmail.com. No hay gastos de afiliación, de publicación ni de ningún otro tipo en la revista Latinoamericana de Hipertensiónl. La revista apoya las políticas para registro de ensayos clínicos de la Organización Mundial de la Salud (OMS) y del International Committee of Medical Journall Editors (ICMJE), reconociendo la importancia de esas iniciativas para el registro y divulgación internacional de Información sobre estudios clínicos, en acceso abierto. En consecuencia, solamente se aceptarán para publicación, a partir de 2007, los artículos de investigaciones clínicas que hayan recibido un número de identificación en uno de los Registros de Ensayo Clínicos validados por los criterios establecidos por OMS e ICMJE, cuyas direcciones están disponibles en el sitio del ICMJE. El número de Identificación se deberá registrar al final del resumen.
S
egmentación automática de la aurícula izquierda en imágenes de tomografía computarizada cardiaca Automatic segmentation of the left atrium in cardiac computed tomography
54
Abstract
Resumen
Miguel Vera, MgSc, PhD1,2*, Yoleidy Huérfano, MgSc1, Oscar Valbuena, MgSc3, José Chacón, MgSc, PhD2, Julio Contreras, MgSc2, María Vera, BSc1, Sandra Wilches-Durán, MgSc2, Modesto Graterol, MgSc, PhD2, Daniela Riaño-Wilches, BSc6, Juan Salazar, MD4, Joselyn Rojas, MD, MSc5, Valmore Bermúdez, MD, MSc, MPH, PhD4* 1 Grupo de Investigación en Procesamiento Computacional de Datos (GIPCD-ULA) Universidad de Los Andes-Táchira, Venezuela. 2 Grupo de Investigación Altos Estudios de Frontera (ALEF), Universidad Simón Bolívar, Cúcuta, Colombia. E-mail de correspondencia: veramig@gmail.com*. 3 Universidad de Pamplona, Facultad de Ciencias Básicas, Departamento de Matemática, Villa del Rosario, Colombia. 4 Centro de Investigaciones Endocrino-Metabólicas “Dr. Félix Gómez” Facultad de Medicina. Universidad del Zulia, Venezuela. 5 Pulmonary and Critical Care Medicine Department. Brigham and Women’s Hospital. Harvard Medical School. Boston, MA. USA 02115. 6 Facultad de Medicina, Universidad de los Andes, Bogotá, Colombia.
ediante el presente trabajo se propone una técnica para la segmentación automática de la aurícula izquierda (LA) en 10 imágenes cardiacas tridimensionales (3-D) de tomografía computarizada multi-corte, pertenecientes a un mismo sujeto. La mencionada técnica consta de las etapas de preprocesamiento y segmentación. La etapa de pre-procesamiento incluye dos fases. En la primera fase, a fin de minimizar tanto el ruido Poisson como el impacto del artefacto escalera, se emplea una técnica denominada realce por similaridad global. Este tipo de realce consiste en la aplicación de un banco de filtros, suavizadores y un detector de bordes, cuyo propósito es generar una imagen en la cual se agrupa la información de las estructuras anatómicas, que conforman las imágenes originales. En la segunda fase, considerando las imágenes filtradas, se utiliza información a priori acerca de la localización de la válvula mitral y un paradigma de aprendizaje, basado en máquinas de soporte vectorial, para definir una región de interés que aísla la LA de estructuras anatómicas vecinas. Por otra parte, para generar la morfología 3-D de la aurícula izquierda, se aplica una etapa de segmentación la cual considera las imágenes pre-procesadas y un algoritmo de agrupamiento basado en crecimiento de regiones. La estrategia propuesta genera las segmentaciones 3-D de la aurícula izquierda en todas las imágenes que conforman el ciclo cardiaco completo del sujeto considerado. Para cuantificar el desempeño de la referida técnica se consideró el coeficiente de Dice obteniéndose una buena correlación entre las segmentaciones automáticas y las manuales generadas por un cardiólogo. Palabras clave: Aurícula izquierda, Tomografía computarizada, Realce por similaridad global, Segmentación.
he present work proposes a technique for the automatic segmentation of the left atrium (LA) in 10 three-dimensional (3-D) cardiac images of multi-cut computed tomography, belonging to the same subject. The mentioned technique consists of the stages of pre-processing and segmentation. The pre-processing step includes two phases. In the first phase, in order to minimize both Poisson noise and the impact of the staircase artifact, a technique called global similarity enhancement is used. This type of enhancement consists in the application of a bank of filters, softeners and a border detector, whose purpose is to generate an image in which the information of the anatomical structures that make up the original images are grouped. In the second phase, considering the filtered images, we use a priori information about the location of the mitral valve and a learning paradigm, based on vector support machines, to define a region of interest that isolates LA from neighboring anatomical structures. On the other hand, to generate the 3-D morphology of the left atrium, a segmentation stage is applied which considers the pre-processed images and a clustering algorithm based on regions growth. The proposed strategy generates 3-D segments of the left atrium in all images that make up the complete cardiac cycle of the subject considered. In order to quantify the performance of the referred technique, the Dice coefficient was considered, obtaining a good correlation between the automatic segmentations and the manual ones generated by a cardiologist. Keywords: Left atrium, Computerized tomography, Global similarity enhancement, Segmentation.
aurícula izquierda en imágenes de MSCT. Este modelo está fuertemente limitado por la forma media lo cual hace que la alta variabilidad de la morfología que exhibe la LA no pueda ser representada por esta técnica. Adicionalmente, en8, se segmenta la aurícula izquierda haciendo uso de un enfoque basado en información que proporcionan imágenes de resonancia magnética. En este enfoque la piscina de sangre correspondiente a la LA es dividida en diversas regiones las cuales luego son caracterizadas considerando como criterio que la LA está conformada por estructuras que se conectan mediante estrechamientos. Aunque este método genera resultados aceptables falla al momento de generar la morfología de la LA en aquellas estructuras donde no ocurren tales estrechamientos, como por ejemplo, en la conexión entre las venas pulmonares.
l corazón está conformado por dos mitades. Una mitad derecha, relacionada con la sangre venosa, y una mitad izquierda, relacionada con la sangre arterial. Estas mitades se dividen en otras dos, situadas una encima de otra: la cavidad superior llamada aurícula y la cavidad inferior denominada ventrículo. Cada aurícula está conectada con el ventrículo correspondiente a través de una válvula1. Las aurículas son cavidades de paredes delgadas y lisas aunque en sus prolongaciones aparecen formaciones carnosas y rugosas. El corazón posee dos aurículas, denominadas derecha e izquierda. La aurícula derecha es una cavidad de forma irregular compuesta por paredes delgadas. En ella se observa la desembocadura de las venas cavas y el seno coronario; mientras que la aurícula izquierda (LA) es una cavidad que tiene forma de ampolla cuyo eje mayor está ubicado en el plano transversal y tiene como función principal recibir la sangre proveniente de las cuatro venas pulmonares y dejarla pasar hacia el ventrículo izquierdo (LV) a través de la válvula mitral2. En el ámbito clínico, la caracterización de la LA es relevante ya que su dilatación ha sido relacionada con elevados riesgos de que un paciente experimente enfermedades cardiovasculares tales como accidente cerebrovascular, fibrilación auricular, insuficiencia cardiaca y morbimortalidad cardiovascular. Además, tal caracterización puede ser útil en el pronóstico y la planeación terapéutica en pacientes con hipertensión e insuficiencia mitral3. También, la estimación de las dimensiones reales de la LA puede contribuir en la obtención de un análisis más completo de la función ventricular izquierda4. Adicionalmente, la segmentación de estructuras cardiacas es un problema abierto y muy desafiante debido, entre otras razones, a que tales estructuras exhiben un movimiento altamente complejo. Además, la realización de tales segmentaciones se hace aún más difícil debido a que las imágenes, provenientes de cualquier estudio imagenológico, poseen imperfecciones las cuales se transforman en problemas que afectan la calidad de la información presente en las imágenes cardiacas. Particularmente, en imágenes cardiacas de tomografía computarizada multicapa (MSCT), tales problemas están vinculados con ruido Poisson, artefacto escalera y bajo contraste entre las estructuras del corazón5. Recientemente, se ha hecho patente la relevancia de segmentar la LA mediante la convocatoria presentada en6, la cual ha colocado a disposición de la comunidad científica el reto de generar la morfología tridimensional de la aurícula izquierda considerando imágenes tanto de MSCT como de resonancia magnética y estableciendo, de manera unívoca, protocolos de validación claramente definidos y de obligatorio uso para los investigadores que consideren esa opción. Una síntesis de las investigaciones orientadas hacia la segmentación de la aurícula izquierda se presenta a continuación. Así, Berg et al.7, utilizan una técnica de segmentación basada en un modelo deformable para obtener la morfología de la
Finalmente, Zheng et al.9 propone un modelo de forma activa (ASM) para segmentar la LA. En este modelo la LA se considera conformada por 3 grandes regiones: la orejuela, las venas pulmonares y la cámara auricular izquierda propiamente dicha. El proceso de segmentación se basa en la evolución del ASM la cual permite obtener la morfología de la aurícula izquierda, de manera jerárquica, empezando por la mencionada cámara, luego la orejuela y por último las referidas venas. La presente investigación es una variante del trabajo presentado en5. Los principales aportes son: a) Definición automática de una región de interés para aislar la aurícula izquierda. b) Segmentación automática de la mencionada aurícula. c) Evaluación de la robustez de la técnica propuesta ante la variabilidad intra–sujeto.
Materiales y métodos
Introducción
Revista Latinoamericana de Hipertensión. Vol. 11 - Nº 3, 2016
Descripción de las bases de datos La base de datos (DB) utilizada fue suministrada por el Instituto de Bioingeniería y Diagnóstico Sociedad Anónima (IBIDSA), San Cristóbal, Venezuela, y está constituida por imágenes de MSCT cardiaca de un paciente. La DB posee 10 instantes que representan un ciclo cardiaco completo. Cada instante tiene 324 imágenes de resolución espacial 512x512 píxeles, muestreadas a 12 bits por píxel, con vóxeles de tamaño 0.4297 mm x 0.4297 mm x 0.4000 mm. También se cuenta con las segmentaciones manuales del ciclo cardiaco completo, generadas por un cardiólogo, las cuales representan los ground truth de la LA que servirán como referencia para validar los resultados. Descripción de la estrategia propuesta para la segmentación de la aurícula izquierda La Figura 1 muestra la estrategia propuesta para generar la morfología de la aurícula izquierda. Debido a que tal estrategia está basada en un tipo de realce por similaridad global, en el presente artículo, será utilizado el acrónimo Egs para hacer referencia a ella. Es importante señalar que, en el contexto de Egs, las técnicas que conforman las etapas tanto de preprocesamiento como de segmentación se implementaron considerando las siguientes herramientas de software: Lenguaje C++ 10, Matlab11, Insight toolkit (ITK)12, y Visualization toolkit (VTK)13.
55
del gradiente usando las primeras derivadas parciales direccionales de una imagen. El modelo matemático 3-D clásico, para obtener una imagen filtrada por magnitud del gradiente se presenta mediante la ecuación 3.
Figura 1. Diagrama de bloques de la estrategia Egs
donde: i, j, k representa las direcciones espaciales en las que se calcula el gradiente.
56
Etapa de preprocesamiento En el presente trabajo, la etapa de preprocesamiento consta de las fases de filtrado y de definición de una región de interés. Tales fases se describen a continuación: Fase de filtrado: En la Figura 1, se ha destacado mediante un recuadro azul la etapa de filtrado basada en realce por similaridad global (GSE). Este tipo de realce se aplica, preliminarmente, sobre el instante de diástole final y consiste en: a) Obtener una imagen gausiana (Ig): Para producir este tipo de imagen se utiliza un filtro gausiano cuya función es abordar el problema del ruido Poisson. El filtro gaussiano está caracterizado como una técnica espacial lineal que se ha utilizado clásicamente para minimizar el ruido presente en imágenes. Existe una relación entre la cantidad de ruido que se atenúa mediante la aplicación de este filtro y el desenfoque de la imagen5. Este tipo de filtro emplea una distribución gaussiana discreta la cual puede expresarse mediante una máscara o kernel gaussiano, de tamaño arbitrario. Si se pretende suavizar, por ejemplo, una imagen 3-D los escalares que conforman el referido kernel pueden obtenerse de acuerdo con la ecuación 1.
(1) Siendo: , n el tamaño del kernel gaussiano, , y las desviaciones estándar para cada dimensión espacial. En la práctica, el filtrado gaussiano se implementa mediante la convolución de la imagen original con el referido kernel gaussiano40. Los parámetros de este filtro son: la desviación estándar de cada una de las dimensiones espaciales y el radio (r) que define el tamaño (n) de la máscara, dado por la ecuación 2. n = 2r + 1,
(2)
Siendo r un escalar arbitrario. b) Generar una imagen gradiente (Igm): A cada imagen Ig se le aplica un filtro basado en el cálculo de la magnitud del gradiente14. El papel de este filtro es detectar los bordes de las estructuras presentes en las imágenes. La magnitud del gradiente se utiliza ampliamente en el análisis de imágenes, principalmente, para identificar los contornos de objetos y la separación de regiones homogéneas. La detección de bordes es la detección de discontinuidades significativas en el nivel de gris o color de una imagen14. Esta técnica calcula la magnitud
c) En la práctica, la magnitud del gradiente de la imagen en cada posición del vóxel, objeto de estudio, se calcula utilizando un enfoque basado en diferencias finitas. Teóricamente, el filtro de magnitud del gradiente basado en los valores de intensidad es muy susceptible al ruido14, por ello, se recomienda filtrar la imagen inicialmente para mejorar el rendimiento del detector con respecto al ruido. d) Aplicar una función de similaridad global: Los volúmenes de entrada de esta función son las imágenes Igm e Io. La finalidad de la similaridad global es abordar el problema de los artefactos. Para ello, se considera la información proveniente de los niveles de gris de vóxeles vecinos, del vóxel actual, en los volúmenes de entrada. La mencionada función produce una imagen de similaridad global (Igs) la cual se calcula mediante el valor absoluto de la resta aritmética de los vóxeles correspondientes a Igm e Io5. El tamaño óptimo de la vecindad 3-D para cada uno de los filtros fue obtenido de manera heurística como se explica en la sección denominada etapa de entonación de parámetros. Fase de definición de una región de interés (ROI): La similitud de los niveles de gris de los vóxeles que conforman las estructuras del corazón izquierdo tales como ventrículo izquierdo (LV), aurícula izquierda (LA), válvula aórtica (AV) y arteria aórtica (AA); exige la colocación de superficies que faciliten la segmentación de la válvula aórtica. Tales superficies reciben el nombre de planos. Particularmente, el plano que fue considerado para aislar la LA se denomina plano mitral. En el contexto de la estrategia Egs, considerando las imágenes filtradas, la fase de definición de una ROI se basa en los siguientes aspectos: i) Se aplica una técnica de reducción de tamaño, basada en transformada wavelet15, cuyo parámetro se hace coincidir con el factor de reducción óptimo, obtenido en5. Esto permite generar imágenes sub-muestreadas de 64x64 píxeles a partir de imágenes filtradas de 512x512, es decir, el mencionado factor fue de 8. ii) Sobre las imágenes sub-muestreadas un cardiólogo selecciona puntos de referencia dados por: la unión de la válvula mitral con el LV (P1) y un punto adicional dado por el ápex del LV (P2). Para ambos puntos se identifican las coordenadas manuales que establecen sin ambigüedad su ubicación espacial en cada imagen considerada. iii) Se implementa una LSSVM para reconocer y detectar a P1 y P2. Para ello se desarrollan los procesos de: a) Entrenamiento. Se selecciona como conjunto de entrenamiento vecindades circulares de radio 10 píxeles, trazadas
Revista Latinoamericana de Hipertensión. Vol. 11 - Nº 3, 2016
manualmente por un cardiólogo, que contienen tanto los puntos P1 y P2 (marcadores), como regiones que no contienen los referidos puntos (no marcadores). Para los marcadores el centro de sus respectivas vecindades coincide con las coordenadas manuales de P1 y P2, establecidas anteriormente. Tales vecindades son construidas sobre la vista axial de una imagen sub-muestreada de 64x64 píxeles para P1 y otra para P2. La principal razón por la cual se elige una única imagen, por cada punto de referencia, es porque se desea generar una LSSVM con alto grado de selectividad, que detecte sólo aquellos píxeles que posean un alto grado de correlación con el patrón de entrenamiento. Luego, cada vecindad es vectorizada y, considerando sus niveles de gris, se calculan los atributos: media (µ), varianza (σ2), desviación estándar (σ) y mediana (me). Así, tanto los marcadores como los no marcadores se describen mediante vectores (Va) de atributos estadísticos, dado por: Va = [µ, σ2, σ, me]. Adicionalmente, la LSSVM es entrenada considerando como patrón de entrenamiento los vectores Va y entonando los valores de los parámetros que controlan su desempeño, µ y σ2. Este enfoque, basado en atributos, permite que la LSSVM realice su trabajo con mayor eficiencia, que cuando se utiliza el enfoque basado en vectores de mayor tamaño, que sólo considera el nivel de gris de los elementos de una imagen. El conjunto de entrenamiento se construye con una relación de 1:10, lo cual significa que por cada marcador se incluyen 10 no marcadores. La etiqueta +1 se asigna a la clase conformada por los marcadores; mientras la etiqueta -1 se asigna a la clase de los no marcadores, es decir, el trabajo de entrenamiento se hace con base en una LSSVM binaria. Durante el entrenamiento, se genera un clasificador dotado de una frontera de decisión para detectar los patrones de entrada a la LSSVM como marcadores ó no marcadores. Posteriormente, debido a la presencia de falsos positivos y negativos, se aplica un proceso que permite incorporar al conjunto de entrenamiento los patrones que la LSSVM clasifica, inicialmente, de manera inapropiada. En este sentido, se consideró, un toolbox denominado LS-SVMLAB y la aplicación Matlab para implementar un clasificador LSSVM basado en un kernel gaussiano de base radial con parámetros σ2 y g. b) Validación: Las LSSVM entrenadas se utilizan para detectar a P1 y P2, en imágenes no usadas durante el entrenamiento. Para ello, se ejecutan las siguientes tareas: I) Reconocimiento de P1: Una LSSVM entrenada busca este punto de referencia, en la vista axial, desde la primera imagen ubicada en la base del corazón, hasta la imagen que representa la mitad del volumen considerado. II) Reconocimiento del P2: Una LSSVM entrenada empieza a buscar el ápex desde la imagen que representa la mitad de la base de datos (ecuador del corazón) hasta la última imagen que conforma dicha base. El proceso de validación efectuado con LSSVM permite identificar, automáticamente, las coordenadas para P1 y P2 las cuales son multiplicadas por un factor de 8 unidades, a fin de
poder ubicarlas, en las imágenes de tamaño original. De esta forma, las referidas coordenadas se utilizan para establecer la dirección (normal) del plano mitral y la colocación del referido plano en la base del LV. Luego, mediante un proceso de discriminación, se seleccionan los puntos de las bases de datos procesadas que sean de interés, de acuerdo con la estructura anatómica del corazón izquierdo que se desee segmentar, en este caso, la aurícula izquierda. Etapa de segmentación: A fin de obtener la segmentación de la aurícula izquierda a las imágenes pre–procesadas les fue aplicado un algoritmo, basado en técnicas de agrupamiento, que considera un enfoque basado en crecimiento de regiones16. El crecimiento de regiones (RG) es una técnica que permite extraer de una imagen regiones que son conectadas de acuerdo a un criterio predefinido. El RG requiere de un vóxel semilla que puede ser seleccionado manual o automáticamente, de forma que se pueda extraer todos los vóxeles conectados a la semilla17. En este artículo, la mencionada semilla es detectada mediante el uso de una LSSVM siguiendo un procedimiento análogo al desarrollado para la definición de la ROI ya descrita. Adicionalmente, para efectos del presente trabajo, se consideró como criterio predefinido el dado por la Ec. 4. | I(x,y,z)− µ| > m.σ
(4)
Siendo: I(x,y,z) el nivel de gris del vóxel objeto de estudio, μ y σ la media aritmética y la desviación estándar de los niveles de gris de la vecindad (de tamaño arbitrario r), seleccionada alrededor del vóxel semilla y m un número natural arbitrario. Como se aprecia, el desempeño del RG depende, operativamente, de 2 parámetros. Ellos son: aquel que controla el tamaño de la vecindad inicial (r) y el parámetro m que controla la amplitud del rango de intensidades considerado para aceptar o rechazar un vóxel en una región. Tales parámetros deben someterse a un proceso de entonación17. Etapa de entonación de parámetros: Obtención de parámetros óptimos. Esta etapa permite la obtención de los parámetros óptimos que garantizan un buen desempeño de la estrategia propuesta. Para ello, se modifican los parámetros asociados con la técnica que se desee entonar recorriendo, sistemáticamente, los valores pertenecientes a ciertos rangos tal y como se describe a continuación: a) Para entonar el filtro gaussiano se debe considerar un parámetro identificado como desviación estándar (σ). En el contexto del presente trabajo, se hace uso de un enfoque isotrópico que asigna el mismo valor de desviación a cada una de las direcciones en las que se aplica el filtro gausiano y se considera como σ el valor de la desviación estándar de la imagen original. El otro parámetro del filtro gausiano, vinculado con el tamaño de la vecindad se fijó en 3x3x3, debido a que ese fue el tamaño de vecindad óptimo, para este filtro, reportado en5. b) Los parámetros de las LSSVM, g y σ2, se entonan suponiendo que la función de costo es convexa y desarrollando
57
58
ensayos basados en los siguientes pasos: 1. Para entonar el parámetro g se fija arbitrariamente el valor de σ2 y se asignan, sistemáticamente, valores al parámetro g. El valor de σ2 se fija inicialmente en 25. Ahora, se varía g considerando el rango [0,100] y un tamaño de paso de 0.25; 2. Un proceso análogo se aplica para entonar el parámetro σ2, es decir, se le asigna a g el valor óptimo obtenido en el paso anterior y, se considera un tamaño de paso de 0.25 para asignarle a σ2 el rango de valores contenidos en el intervalo [0,50]; 3. Los parámetros óptimos de las LSSVM son aquellos valores de g y σ2 que corresponden al error relativo porcentual mínimo, calculado considerando las coordenadas manuales y automáticas de los puntos de referencia. Éstas últimas coordenadas son generadas por la LSSVM. c) Durante la entonación de los parámetros del RG, cada una de las segmentaciones automáticas de la aurícula izquierda correspondiente al instante diástole final se compara, usando el coeficiente de Dice (Dc)18, con la segmentación manual de la LA generada por un cardiólogo. Los valores óptimos para los parámetros del RG (r y m) se hacen coincidir con aquel experimento que genera el valor más alto para el Dc. Para r y m se considera el rango de valores establecido en236, para aplicaciones prácticas que consideran imágenes médicas. En este sentido, m toma valores que pertenecen a los números reales comprendidos entre 0 y 10, mientras que r considera valores enteros entre 1 y 20. El Dc es una métrica que permite comparar segmentaciones de una misma imagen 3-D obtenida por diversas metodologías. En el contexto cardiaco, usualmente, el Dc es considerado para establecer que tan similares son, espacialmente, la segmentación manual (RD) y la segmentación automática (RP) que genera la morfología de cualquier estructura cardiaca. Adicionalmente, el Dc es máximo cuando se alcanza un perfecto solapamiento entre RD y RP pero es mínimo cuando RD y RP no se solapan en absoluto. Además, los valores esperados para el Dc son números reales comprendidos entre 0 (mínimo) y 1 (máximo). Entre más cercano a 1 se encuentre el valor del Dc, mejor será el desempeño del procedimiento que no es manual. El modelo matemático que define el Dc, viene dado por la Ec. (3).
(3) En este punto, es necesario enfatizar que en el contexto del presente trabajo, el proceso de entonación para un filtro particular se detiene cuando se identifican los valores de sus parámetros, asociados con la segmentación que genera el Dc de mayor valor. Es decir, la obtención de parámetros óptimos para los filtros se hace de manera indirecta. Resultados cuantitativos Respecto a las LSSVM entrenadas se obtuvieron, como parámetros óptimos para g y σ2 los valores 2.75 y 1.25, respectivamente. Estos valores están asociados con un error relativo porcentual mínimo de 3.34%. Los parámetros óptimos del crecimiento de regiones fueron: r = 0.10 y m= 0.25 y corresponden a un Dc máximo de 0.8809. Resultados cualitativos La Figura 2, presenta una vista 2-D (axial) relativa a: a) Imagen filtrada. b) Imagen en la que se ha definido una región de interés (ROI) para la aurícula izquierda. En ella, se observa la detección de bordes sobre la imagen filtrada y el aislamiento de la aurícula izquierda. El mencionado aislamiento se aprecia mediante la región negra que aparece en el literal b) de la Figura 2. De acuerdo a la anatomía cardiaca, la aurícula izquierda y el ventrículo izquierdo están conectados mediante la válvula mitral lo cual hace que ambas estructuras presenten niveles de gris altamente correlacionados dificultando la extracción de la morfología de cualquiera de estas dos estructuras cardiacas. En este sentido, la ROI establecida es adecuada ya que interrumpe la conexión física entre la aurícula izquierda y el ventrículo izquierdo, facilitando así la posterior segmentación de la referida aurícula. Por otra parte, la Figura 3 muestra la vista 3-D de los 10 instantes que conforman el ciclo cardiaco completo del paciente considerado (validación intra-sujeto). En esta figura se aprecia una buena representación de la aurícula izquierda para la cual se obtuvo un Dc promedio de 0.8622±0.5300.
Figura 2. Vista 2D axial para: a) Imagen filtrada. b) Imagen en la que se ha definido una región de interés para la aurícula izquierda
Revista Latinoamericana de Hipertensión. Vol. 11 - Nº 3, 2016 Figura 3. Representación 3-D de las segmentaciones de la aurícula izquierda correspondiente a un ciclo cardiaco completo
Conclusiones
59
5. Vera M. Segmentación de estructuras cardiacas en imágenes de tomografía computarizada multi-corte [Tesis doctoral]. Mérida-Venezuela: Universidad de los Andes, 2014.
e ha presentado la estrategia Egs cuya entonación permite una segmentación adecuada de la aurícula izquierda. No obstante, el Dc promedio obtenido es comparable con la mayoría de los reportados en la literatura especializada. En un corto plazo, se tiene previsto realizar una validación inter-sujeto, considerando un número importante de bases de datos, para establecer la robustez de la Egs. Las segmentaciones obtenidas automáticamente pueden ser útiles para calcular diversos descriptores vinculados con la función auricular izquierda cardiaca tales como volúmenes diastólicos y sistólicos, volumen latido y fracción de eyección. La segmentación 3–D de la aurícula izquierda, mediante la aplicación de Egs, puede ser considerada para el diseño de modelos 3-D que permitan abordar, clínicamente, enfermedades como la fibrilación auricular izquierda mediante, por ejemplo, procedimientos de ablación.
Referencias 1. Latarjet M, Ruíz A. Anatomía Humana. Volumen 2. Buenos Aires: Panamericana; 1983. 2. Barrett KE. Ganong fisiología médica. México: McGraw Hill; 2013. 3.
4.
Maddukuri P, Vieira M, De Castro S, Maron M, Kuvin J, Patel A. What Is the Best Approach for the Assessment of Left Atrial Size? Comparison of Various Unidimensional and Two-dimensional Parameters with Three-dimensional Echocardiographically Determined Left Atrial Volume. J Am Soc Echocardiogr. 2006;19(1):1026-32. Rossi A, Vassanelli C. Left atrium: no longer neglected. Ital Heart J. 2005;6(11):881-5.
6. Tobon C, Geers A, Peters J, Weese J, Pinto K, et al. Benchmark for Algorithms Segmenting the Left Atrium From 3D CT and MRI Datasets. IEEE Transactions on Medical Imaging. 2015;34(7):1460-73. 7.
Berg J, Lorenz C. Accurate left atrium segmentation in multislice CT images using a shape model. Proc. of the SPIE. 2005;5747(1):351-60.
8. John M, Rahn N. Automatic-left atrium segmentation by cutting the blood pool at narrowings. MICCAI. 2005:798-805. 9. Zheng Y, Wang T, John M, Zhou S, Boese K, Comaniciu D. Multi-part left atrium modeling and segmentation in C-arm CT volumes for atrial fibrillation ablation. MICCAI. 2011: 487-95. 10. Stroustrup B. The C++ Programming Language. USA: Addison–Wesley; 2000. 11. Chapman S. MATLAB Programming for Engineers. USA: Thomson; 2004. 12. Johnson H, McCormick M, Ibáñez L. Insight Software Consortium. Insight Segmentation and Registration Toolkit (ITK). 3 ed. Updated for ITK version 4.5. 2009. Available in: http://www.itk.org/, 13. Schroeder W, Martin K, Lorensen B. The Visualization Toolkit, an ObjectOriented Approach to 3D Graphics. USA: Prentice Hall; 2001. 14. Pratt W. Digital Image Processing. USA: John Wiley & Sons Inc; 2007. 15. Meyer Y. Wavelets and Operators. Cambridge: Cambridge University Press; 1999. 16. Passarielo G, Mora F. Imágenes Médicas, Adquisición, Análisis, Procesamiento e Interpretación. Venezuela: Equinoccio Universidad Simón Bolívar;1995. 17. Huérfano Y, Vera M, Del Mar A, Chacón J, Vera MI, Bautista N, et al. Método de segmentación de imágenes cardiacas: Fundamentos y alcance. Revista Latinoamericana de Hipertensión. 2015;10(3):77-87. 18. Dice L. Measures of the amount of ecologic association between species. Ecology. 1945;26(3):297-302.
T
écnicas de preprocesamiento de imágenes cardíacas: fundamentos y alcance Medical imaging preprocessing techniques: foundations and scope
Abstract
Resumen
60
Miguel Vera, MgSc, PhD1,2*, Yoleidy Huérfano, MgSc1, Julio Contreras, MgSc 2, Oscar Valbuena, MgSc 3, José Chacón, MgSc, PhD2, María Vera, BSc1, Sandra Wilches-Durán, MgSc2, Modesto Graterol, MgSc, PhD2, Daniela Riaño-Wilches, BSc6, Juan Salazar, MD4, Joselyn Rojas, MD, MSc5, Valmore Bermúdez, MD, MSc, MPH, PhD4* 1 Grupo de Investigación en Procesamiento Computacional de Datos (GIPCD-ULA) Universidad de Los Andes-Táchira, Venezuela. 2 Grupo de Investigación Altos Estudios de Frontera (ALEF), Universidad Simón Bolívar, Cúcuta, Colombia. E-mail de correspondencia: veramig@gmail.com*. 3 Universidad de Pamplona, Facultad de Ciencias Básicas, Departamento de Matemática, Villa del Rosario, Colombia. 4 Centro de Investigaciones Endocrino-Metabólicas “Dr. Félix Gómez” Facultad de Medicina. Universidad del Zulia, Venezuela. 5 Pulmonary and Critical Care Medicine Department. Brigham and Women’s Hospital. Harvard Medical School. Boston, MA. USA 02115. 6 Facultad de Medicina, Universidad de los Andes, Bogotá, Colombia.
n imagenología cardiaca 3–D, la tomografía computarizada multicapa (MSCT) se destaca por su utilidad clínica para generar información relativa a la morfología del corazón. Típicamente, mediante MSCT se producen imágenes cardiacas con resoluciones espaciales sub–milimétricas las cuales exhiben ciertos problemas vinculados con ruido, artefactos y bajo contraste que afectan tanto la identificación adecuada de las diversas estructuras anatómicas, de interés para los cardiólogos, como la evaluación de la función cardiaca. Debido a que el análisis de la función cardiaca puede verse afectado por los mencionados problemas, diversas técnicas de preprocesamiento han sido propuestas para abordarlos. En este sentido, para reducir el efecto del ruido y de los artefactos se recurre a técnicas de filtrado; mientras que para sortear el problema del bajo contraste se consideran técnicas que permiten definir regiones de interés (ROI). La mayoría de estas técnicas están orientadas hacia la disminución del impacto negativo, en la calidad de tales imágenes, del ruido y de los artefactos producidos por movimientos (voluntarios e involuntarios) del paciente y aquellos generados por objetos localizados en su cuerpo. Sin embargo a pesar de los esfuerzos, de los desarrolladores de software y de las casas fabricantes de tomógrafos, para corregir tal impacto aún persisten ciertos factores que habilitan su generación y, por ende, su aparición notoria en las imágenes de MSCT afectando la información presente en ellas. Por ello, en el presente trabajo, se analizan tanto los problemas que afectan las imágenes de MSCT cardiaca como los fundamentos teóricos de las técnicas de preprocesamiento (filtrado + definición de ROI) más utilizadas en el área médica para afrontar los mencionados problemas. Palabras clave: Tomografía computarizada multicapa, ruido, artefactos, técnicas de preprocesamiento, función cardíaca.
n 3-D cardiac imaging, Multi-Slice Computed Tomography (MSCT) stands out for its clinical utility to generate information relative to the morphology of the heart. Typically, MSCT produces cardiac images with sub-millimetric spatial resolutions which exhibit certain problems related to noise, artifacts and low contrast that affect both the adequate identification of the various anatomical structures of interest to cardiologists and the evaluation of the cardiac function. Because the analysis of cardiac function may be affected by the aforementioned problems, several preprocessing techniques have been proposed to address them. In this sense, to reduce the effect of noise and artifacts, filtering techniques are used; While to overcome the problem of low contrast are considered techniques that define Regions Of Interest (ROI). Most of these techniques are aimed at reducing the negative impact on the quality of such images, noise and artifacts produced by movements (voluntary and involuntary) of the patient and those generated by objects located in his body. However, in spite of the efforts of software developers and the manufacturers of scanners, in order to correct such an impact, certain factors still exist that enable their generation and, consequently, their notorious appearance in the images of MSCT affecting the present information in them. Therefore, in the present work, we analyze both the problems that affect the MSCT images of the heart and the theoretical foundations of the preprocessing (filtering + definition of ROI) techniques most used in the medical area to deal with the mentioned problems. Keywords: Multislice computerized tomography, noise, artifacts, preprocessing techniques, cardiac function.
Introducción
Revista Latinoamericana de Hipertensión. Vol. 11 - Nº 3, 2016
n el área del procesamiento digital de imágenes cardiacas, se considera el uso de técnicas de preprocesamiento como una etapa previa al proceso de segmentación de las estructuras anatómicas que conforman el corazón. Es importante indicar que los principales problemas que afectan, particularmente, las imágenes de tomografía computarizada cardiaca multicapa (MSCT) son el ruido (de tipo Poisson), artefactos (banda oscura, sombreado, anillo y escalera) y el bajo contraste entre las estructuras anatómicas que conforman el corazón.
Adicionalmente, el ruido producido por la emisión de fotones de rayos X es conocido como ruido cuántico y debido a que su generación sigue una ley de función de distribución de probabilidad de Poisson, habitualmente, se le denomina ruido Poisson o Poissoniano3. La Figura 1 muestra este tipo de ruido en una imagen cardiaca de MSCT. Figura 1. Vista axial de una imagen cardiaca de MSCT afectada por ruido Poisson
61
Tales problemas, generalmente, se generan durante las fases de adquisición o reconstrucción y su impacto, en la calidad de las imágenes, puede minimizarse usando técnicas de preprocesamiento las cuales pueden estar constituidas por técnicas de filtrado y técnicas para la definición de regiones de interés. La importancia de este tipo de técnicas radica en el hecho que su utilización cuidadosa y sistemática puede mejorar, sustancialmente, la calidad de la información presente en una escena puesto que tales técnicas tienen la propiedad de modificar los atributos de las mencionadas imágenes. El objetivo de este trabajo es presentar una descripción de los problemas que exhiben las imágenes de MSCT cardiaca, así como la revisión detallada de los fundamentos teóricos que sustentan las técnicas de preprocesamiento digital de este tipo de imágenes. En ese sentido, en la Sección 1 se describen los problemas que presenten las imágenes de MSCT cardiaca. Adicionalmente, la Sección 2 presenta los principios teóricos que fundamentan las técnicas de preprocesamiento considerando aquellas técnicas orientadas hacia el filtrado y las que permiten definir regiones de interés. Finalmente, se construyen las conclusiones derivadas del proceso de revisión de las referidas técnicas. 1. Breve descripción de los problemas que exhiben las imágenes cardiacas de MSCT vinculados con ruido, artefactos y bajo contraste. A. Ruido presente en imágenes de MSCT El ruido puede ser definido como la variación aleatoria de una señal que contamina la información presente en una imagen1. La calidad de una imagen digital se ve afectada por el ruido que se introduce en ella mediante diversos procesos los cuales, normalmente, dependen tanto de la arquitectura del equipo de adquisición como del protocolo de obtención de las imágenes2. Particularmente, las imágenes de MSCT se obtienen mediante la emisión de una radiación electromagnética compuesta por fotones de rayos X. En tales imágenes, el ruido se manifiesta mediante la aparición de intensidades aleatorias, de aspecto granuloso, que se producen por efectos inherentes a la naturaleza del fenómeno de emisión de fotones y al equipo usado durante la adquisición3.
El ruido Poisson es de naturaleza no aditiva y se caracteriza por ser dependiente de la intensidad que posee cada vóxel en la imagen. Así, los vóxeles de mayor intensidad están en riesgo de ser más afectados por el ruido, es decir, tales vóxeles tienen mayor probabilidad estadística de ser corrompidos por el ruido Poissoniano4. Una manera de recrear este tipo de ruido es mediante la construcción de data sintética también conocida como phantoms numéricos. Un phantom numérico puede ser considerado como un modelo artificial en el cual se re-crea la estructura y/o las características de un modelo real5. En ese sentido, la Figura 2, muestra un par de imágenes sintéticas que ilustran la ausencia y presencia de ruido Poisson. Así, la Figura 2 (a) corresponde a un phantom numérico libre de ruido tipo Poisson; mientras que la Figura 2 (b) muestra el phantom contaminado con este tipo de ruido, usando para ello uno de los algoritmos propuestos en6. Figura 2. Vista axial de imágenes sintéticas obtenidas de un phantom numérico: (a) Imagen sin ruido. (b) Imagen con ruido Poisson
Por otra parte, durante la generación de las imágenes de MSCT se considera una serie de técnicas de reconstrucción con el propósito de minimizar la aparición de este tipo de ruido en tales imágenes. Sin embargo, a pesar de los avances tecnológicos estas técnicas solo pueden ofrecer una relación fija entre resolución espacial y ruido, por ejemplo, considerando la reconstrucción que involucra vóxeles de gran tamaño combinados con reconstrucción multiplanar se puede reducir el ruido pero a expensas de la inevitable pérdida de detalles finos en estructuras de reducida resolución especial3.
62
Adicionalmente, y de acuerdo con2,3, diversos algoritmos de reducción de ruido han sido considerados a fin de disminuir el impacto del ruido Poisson en imágenes digitales. Algunos de esos algoritmos consideran la aplicación de: 1. Enfoques convencionales y/o adaptativos basados en suavizado isotrópico y filtraje anisotrópico2; 2. Técnicas basadas en el método de regularización de variación total, extendido para la atenuación del ruido Poisson3; 3. Transformadas Anscombe y wavelet secundadas por procesos de umbralización y la correspondiente reconstrucción derivada de las transformadas inversas2. Es importante señalar que algunos de estos algoritmos serán analizados en la Sección 2 del presente trabajo.
La información del Cuadro 1 fue construida considerando las referencias8,9. En ella se destacan los artefactos más comunes que se manifiestan en las referidas imágenes y se presenta, de manera resumida, tanto las posibles causas para la generación de tales artefactos como recomendaciones puntuales para disminuir el impacto, en la calidad de las imágenes de MSCT, de los artefactos considerados. Cuadro 1. Síntesis de los artefactos comúnmente observados en imágenes de MSCT Artefacto
Banda oscura
Sombreado
B. Artefactos presentes en imágenes de MSCT Debido a la importancia que reviste, para el presente trabajo, el problema que representa la presencia de artefactos en imágenes cardiacas de MSCT, a continuación se realiza un análisis de los artefactos, presentando algunas de sus generalidades las cuales se estructuraron en términos de su definición, posibles causas y efectos sobre la calidad de las imágenes. El análisis cualitativo de imágenes de MSCT permite afirmar que la calidad de la información contenida en ellas puede ser influenciada, negativamente, por la presencia de artefactos. En imágenes de MSCT, el termino artefacto es atribuido, teóricamente, a una discrepancia sistemática entre los valores de intensidad (niveles de gris) pertenecientes a las imágenes obtenidas luego de la reconstrucción tomográfica y los verdaderos valores para los coeficientes de atenuación de los objetos presentes en la imagen real7. Adicionalmente, las imágenes de MSCT cardiacas, sincronizadas con la onda R del electrocardiograma (ECG), son fuertemente sensitivas a cambios del latido cardiaco. En este sentido, debido a fallos en tal sincronización se puede producir tanto la superposición de capas como artefactos debidos al movimiento del corazón. Además, la adquisición de imágenes en fases inconsistentes del ciclo cardiaco puede generar artefactos que se visualizan, fácilmente, en las vistas axiales de tales imágenes8. La literatura especializada reporta un buen número de artefactos que, dependiendo de diversos factores, pueden ser observados en imágenes de MSCT en grado variable de importancia. Así, por ejemplo, en8,9 se describen diversos artefactos, se establecen las principales causas por las cuales dichos artefactos aparecen en imágenes de MSCT y se proponen estrategias, de tipo operativo, aplicadas durante la generación de las imágenes para minimizar su efecto.
Anillo
Escalera
Posibles causas
Acciones técnicas para minimizar su efecto
Cambio de energía de los rayos-X
Pre filtrar los rayos de baja energía
Insuficiencia de fotones
Filtrar antes de reconstruir
Movimientos del paciente
Reducir tiempo de exploración
Paciente con objetos metálicos
Usar secciones delgadas en adquisición
Movimientos del paciente
Retener respiración en la adquisición
Proyecciones incompletas
Corregir posición del paciente
Fenómeno de volumen parcial
Usar secciones delgadas en adquisición
Tomógrafo con limitaciones técnicas
Servicio correctivo del tomógrafo
Detectores con calibración deficiente
Re calibración de detectores
Manejo inadecuado de la colimación
Usar secciones delgadas en adquisición
Errores en la reconstrucción
Reconstruir considerando solapamiento
Es necesario puntualizar que las acciones recomendadas en8,9 son todas de tipo técnico, y de aplicación durante la adquisición y/o reconstrucción de las imágenes. Sin embargo, tales acciones no son infalibles y casi siempre las imágenes generadas luego de considerar tales acciones siguen exhibiendo parcial o totalmente uno o varios de los artefactos analizados. Así, en imágenes de MSCT los artefactos que se visualizan con mayor frecuencia son el artefacto escalera (stair–step) y el artefacto banda oscura (streak). Las causas por las cuales se producen tales artefactos son diversas. En particular, el artefacto streak puede generarse debido al cambio que se produce en el espectro de energía de los rayos–X, cuando pasan a través de estructuras que contienen hueso o medios de contraste9; mientras que el artefacto stair– step puede producirse debido a un solapamiento de las imágenes durante el proceso de reconstrucción o a una selección errónea de la fase de disparo del ECG8. Cuando el artefacto stair–step está presente en las imágenes de MSCT puede ser visualizado debido a que produce alteraciones abruptas en la continuidad de los contornos que delimitan uno o varios objetos presentes en tales imágenes10. Este tipo de artefacto deteriora, dramáticamente, la apariencia de dichos objetos y puede afectar las dimensiones (diámetro, superficie o volumen) sobre todo de estructuras de pequeño tamaño presentes en las imágenes adquiridas bajo esta modalidad11.
Revista Latinoamericana de Hipertensión. Vol. 11 - Nº 3, 2016
Por otra parte, el artefacto streak se manifiesta mediante una o varias rayas o bandas de tonalidad oscura que se observan, fácilmente, en las vistas coronal y sagital de las imágenes en las cuales dicho artefacto puede percibirse de manera visual. Para ilustrar el efecto de tales artefactos, en imágenes de MSCT, se presenta las Figuras 3 y 4. Figura 3. Presencia del artefacto streak en imágenes cardiacas de MSCT. (a) Vista coronal. (b) Vista sagital
Figura 4. Presencia del artefacto stair–step en imágenes cardiacas de MSCT. (a) Vista coronal. (b) Vista sagital
2. Fundamentos de las técnicas de preprocesamiento usadas frecuentemente en imágenes cardiacas Las técnicas de preprocesamiento (filtrado + definición de ROI) se caracterizan por realizar tareas tales como: a) atenuar distorsiones que afectan la calidad de la imagen considerada, b) realzar los contornos que delimitan los objetos que se desean segmentar, c) uniformar la información contenida en el interior de tales contornos, d) excluir objetos o estructuras no deseadas generando regiones claramente delimitadas que contienen el objeto de interés. Es importante señalar que, las tres primeras tareas se desarrollan mediante técnicas de filtrado; mientras que la última tarea se ejecuta mediante técnicas para la definición de una ROI. En el ámbito del procesamiento digital de imágenes, la consideración de técnicas de filtrado constituye un proceso fundamental para el análisis de la información contenida en una imagen. El proceso de filtrado de imágenes consiste en la aplicación de algoritmos denominados, usualmente, filtros los cuales se caracterizan por modificar en cierto grado las características o atributos de una imagen de entrada con el propósito de minimizar las posibles imperfecciones presentes en ella12.
Los filtros operan sobre las imágenes con el fin de: a) realzar algún tipo de información deseada la cual puede estar vinculada, por ejemplo, con una estructura u objeto de interés; b) minimizar o suprimir la información no deseada la cual puede corresponderse con artefactos, ruido, fondo u otros objetos distintos del objeto de interés13. Generalmente, luego de la aplicación de un filtro, se genera una imagen de salida en la cual pueden aparecer suavizados ó realzados algunos atributos presentes en la imagen original. De acuerdo con ello, las técnicas de filtrado podrían clasificarse, de manera preliminar, en técnicas de filtrado para el realce de información de interés y técnicas de filtrado para la remoción de información no deseada5. Los filtros de realce (conocidos también como filtros paso–alto) más usados son los basados en el reforzamiento de contornos, los cuales, por una parte, tienden a enfatizar los bordes de las estructuras presentes en la imagen de entrada y, por la otra, atenúan los valores de intensidad casi constantes de las regiones que conforman la imagen que está siendo procesada13. Adicionalmente, los filtros para remoción de información no deseada (denominados filtros paso–bajo) más comunes son los que aplican operaciones de suavizamiento orientadas, principalmente, hacia la eliminación del ruido presente en la imagen considerada12. A continuación se describen los fundamentos de ciertas técnicas de filtrado, de uso frecuente en imágenes cardiacas. En el contexto del filtrado, frecuentemente, se utilizan los términos vecindades, máscaras, ventanas y kernels los cuales pueden considerarse como sinónimos. Las vecindades son simplemente grupos de elementos pertenecientes a la imagen que se desea procesar y que cumplen con la condición de ser vecinos (estar en las proximidades) de un elemento particular denominado elemento objeto de estudio o elemento actual14. Las mencionadas vecindades se diseñan considerando diversas topologías, tamaños arbitrarios y, en ciertos casos, la asignación (dentro de la máscara) de escalares que se obtienen empíricamente o mediante la aplicación de modelos matemáticos pre-establecidos14. Las técnicas de filtrado se pueden clasificar en filtros lineales y filtros no lineales. Los filtros lineales generan una imagen de salida (imagen filtrada) mediante un proceso denominado convolución, basado en la combinación lineal (LC) de las intensidades que poseen los elementos de la imagen de entrada12. Los coeficientes que permiten operacionalizar tal LC se hacen coincidir con los escalares de una vecindad centrada en el elemento objeto de estudio. Usualmente, la imagen que se desea filtrar es analizada elemento por elemento repitiendo iterativamente el mencionado proceso14. Por otra parte, los filtros no lineales, también consideran vecindades (sin escalares) del elemento objeto de estudio. Sin embargo, su operación se basa directamente en los valores de intensidad de los elementos que conforman tales vecindades13. A continuación se describen algunas de las técnicas de filtraje más utilizadas en el procesamiento de imágenes médicas, particularmente, en imágenes cardiacas.
63
A. Filtro basado en difusión anisotrópica Los filtros de difusión anisotrópica, y su implementación discreta basada en la aproximación de derivadas parciales, mediante diferencias finitas, fueron introducidos en el procesamiento de imágenes por Perona y Malik15. La aplicación de tales filtros tiene como objetivo abordar el problema del ruido suavizando la información contenida dentro de las regiones delimitadas por los bordes de los objetos presentes en una imagen.
64
Los filtros anisotrópicos utilizan un detector de bordes que guía el proceso de difusión mediante un esquema explicito que permite suavizar la imagen, de manera iterativa, en cada incremento de tiempo. Ahora bien, en presencia de contornos ruidosos los filtros de difusión presentan una tendencia a degradar los bordes de las imágenes que ellos procesan en relación proporcional con la cantidad de iteraciones. Por esta razón el número de iteraciones debe elegirse, cuidadosamente, de tal forma que la referida degradación no sea excesiva16. B. Filtro basado en la variación total de una imagen La difícil tarea de preservar los bordes de los objetos presentes en una imagen mientras se minimiza el ruido, ha sido abordada por Rudin et al.17 mediante la creación de un filtro basado en la variación total de las intensidades de una imagen. En17, a partir de una imagen ruidosa (I0) se plantea la tarea de generar una imagen restaurada (Ir), minimizando la norma de la variación total de Ir sujeta a restricciones que involucran parámetros relacionados con el ruido de I0, es decir, se está en presencia de un proceso de optimización. La variación total representa la cantidad de cambio que contiene la imagen en sus intensidades. Teóricamente, al resolver el mencionado problema de optimización, se espera que en la imagen restaurada se minimice el ruido presente en I0 y se preserva la información de los bordes pertenecientes a los objetos presentes en la imagen procesada17. C. Filtro de mediana El filtro de mediana clásico, es una técnica de filtrado no lineal, que se utiliza para reducir el ruido presente en las imágenes considerando los valores de intensidad de los vecinos del elemento, objeto de estudio, contenidos en una vecindad de tamaño arbitrario12. A tal vecindad, también se le conoce como ventana de observación. Para generar el nuevo valor del elemento de la imagen, objeto de estudio, los valores de intensidad mencionados son colocados en un arreglo vectorial ordenado al cual se le determina el estadístico denominado mediana. Así, la intensidad del elemento actual se hace coincidir con el valor de tal mediana, repitiéndose este proceso, iterativamente, para cada elemento presente en la imagen de entrada18. Una característica importante de este filtro es que tiende a mantener la información relevante de la imagen, atenuando las variaciones impulsivas aleatorias. Este filtro tiene la propiedad de preservar, de manera moderada, los bordes de los objetos presentes en una imagen14.
Una variante del filtro de mediana es el filtro de mediana ponderada. A diferencia del filtro de mediana clásico, en este tipo de filtro se ponderan mediante pesos (coeficientes), la información de los píxeles ó vóxeles adyacentes al elemento objeto de estudio. Las ponderaciones permiten realzar y/o despreciar la importancia de las muestras en la ventana de observación19. Otra variante del filtro de mediana clásico es el filtro de mediana basado en pesos permutados. Esta variante, permite ajustar las ponderaciones de los niveles de gris de los vóxeles con base en el orden de los niveles de gris, presentes en la ventana de observación18,20. Las mencionadas variantes del filtro de mediana, exhiben 2 propiedades intrínsecas importantes: la preservación de los contornos y la efectiva atenuación del ruido presente en las imágenes18,19,20. D. Filtro promediador El filtro promediador es una técnica de filtrado espacial no lineal que ha sido usada para atenuar ruido de tipo aleatorio. Este filtro requiere para su operacionalización de un cierto umbral (ε). Mediante esta técnica se reemplaza el nivel de gris del elemento actual (I(x)) de una imagen de entrada por el nivel de gris promedio (μ) de una vecindad, de radio (Rp) variable, del elemento actual si y solo si se cumple que el valor absoluto de la resta aritmética de I(x) y μ supera el valor de ε.14. Es importante señalar que el radio de la referida vecindad debe elegirse, cuidadosamente, pues si es muy pequeño el efecto del filtro puede ser despreciable y si es muy grande puede introducir una borrosidad inadecuada en la imagen suavizada. E. Filtro Gausiano El filtro Gausiano está caracterizado como una técnica lineal que se ha utilizado, clásicamente, para minimizar el ruido presente en imágenes. Existe una relación entre la cantidad de ruido que se atenúa mediante la aplicación de este filtro y el desenfoque de la imagen5. Este tipo de filtro emplea una distribución Gausiana discreta la cual puede expresarse mediante una máscara o kernel Gausiano, de tamaño arbitrario. Si se pretende suavizar, por ejemplo, una imagen 3–D los escalares que conforman el referido kernel pueden obtenerse de acuerdo con el modelo matemático que rige lo que se entiende en estadística como una curva normal21. En la práctica, el filtrado Gausiano se implementa mediante la convolución de la imagen original con el referido kernel Gausiano. Los parámetros de este filtro son: la desviación estándar de cada una de las dimensiones espaciales y el radio (r) que define el tamaño (n) de la máscara, dado por la ecuación 1. n = 2r + 1,
(1)
siendo r un escalar arbitrario. F. Transformada wavelet (WT) Los fundamentos teóricos de la transformada wavelet (WT) fueron introducidos principalmente por Meyer22, Daubechies23 y Mallat24. Tales fundamentos son bastante sólidos y están vin-
Revista Latinoamericana de Hipertensión. Vol. 11 - Nº 3, 2016
culados con conceptos de algebra y análisis matemático, lo cual ha despertado el interés en la WT de una buena cantidad de investigadores pertenecientes a diversas áreas. La WT se ha constituido, en la actualidad, en una de las técnicas de filtrado más usadas debido a que, por una parte, se comporta eficientemente durante el análisis local de funciones no estacionarias de rápida transitoriedad y, por la otra, posee la capacidad de generar representaciones tiempo-escala de la función analizada preservando su aspecto temporal25. Las wavelets son funciones base de la WT que se generan a partir de una función wavelet básica mediante traslaciones y cambios de escala espacial (dilataciones o contracciones)23. La wavelet básica recibe, usualmente, denominaciones tales como ondita, onda pequeña, ondaleta o wavelet madre. Entre las ondaletas más importantes se encuentran las siguientes: Morlet, Gaussiana compleja, Haar, Daubechies, Coiflet, sombrero mexicano, Shannon compleja y symlet. En el área específica de las imágenes, la transformada wavelet permite la representación de una imagen mediante descomposiciones o coeficientes que miden el grado de correlación o similitud entre la imagen original y versiones escalada y trasladada de la wavelet madre24. Existen varias formas de obtener los mencionados coeficientes, una de ellas es mediante la aplicación de un banco de filtros (paso bajo y paso alto) sobre una imagen en su resolución original24. Los referidos coeficientes pueden visualizarse mediante imágenes denominadas de aproximación y de detalle24,25. G. Máquina de soporte vectorial
Conclusiones La revisión detallada de la literatura especializada, indica que si bien es cierto se ha abordado, en cierta medida, el problema del ruido Poisson (presente en las imágenes de MSCT cardiaca) aún persisten situaciones problemáticas dadas por la presencia de ruido, artefactos y el bajo nivel de contraste que exhiben las mencionadas imágenes. Tales situaciones no han sido abordadas, adecuadamente, mediante las técnicas de preprocesamiento analizadas. Por tanto, el bajo contraste y la aparición de artefactos en las imágenes cardiacas de CT, serán considerados como los principales problemas que aún quedan sin abordar. La situación descrita, anteriormente, plantea como reto proponer técnicas de preprocesamiento que permitan enfrentar, de manera efectiva, los problemas que exhiben las imágenes cardiacas de MSCT. Particularmente, la técnica de preprocesamiento que se proponga, posteriormente, debería minimizar el efecto tanto de los artefactos como del ruido en la calidad de la imagen y brindar una alternativa al problema del bajo nivel de contraste que exhiben ciertas estructuras anatómicas cardiacas mediante, por ejemplo, la definición de regiones de interés. Tal alternativa podría basarse en la delimitación automática, mediante planos, de regiones de interés que aísle cualquiera de las cámaras cardiacas del resto de estructuras que las circundan lo cual, indudablemente, permitirá una segmentación más efectiva de cualquiera de las estructuras anatómicas de interés para el cardiólogo.
Referencias
Las máquinas de soporte vectorial (SVM) son paradigmas que se someten a procesos de entrenamiento y detección, y están basados tanto en la teoría de aprendizaje de Vapnik–Chervonenkis como en el principio de minimización que considera el riesgo estructural26. Las SVM pueden ser consideradas como herramientas de clasificación y de aproximación funcional27,28.
1. Hardin CW, Kruger RA, Anderson FL, Bray BE, Nelson JA. Real-time digital angiocardiography using a temporal high-pass filter. Radiology. 1984;151(2):517-520.
Una variante de las SVM, denominada máquina de soporte vectorial de mínimos cuadrados (LSSVM), puede obtenerse utilizando estadística robusta, análisis discriminante de Fisher y reemplazando el sistema de inecuaciones que rigen a las SVM, por un sistema equivalente de ecuaciones lineales, que puede ser resuelto más eficientemente29,30. Adicionalmente, a diferencia de otros sistemas de clasificación basados en aprendizaje como las redes neurales artificiales (NN), las LSSVM utilizan el criterio de minimización del riesgo estructural, que eleva a niveles óptimos la capacidad de generalización de las referidas máquinas, haciendo posible que las LSSVM se desempeñen adecuadamente en el proceso de validación superando en este aspecto a las NN, las cuales utilizan el riesgo empírico31.
3. Maier A, Wigström L, Hofmann HG, Hornegger J, Zhu L, Strobel N, Fahrig R. Three‐dimensional anisotropic adaptive filtering of projection data for noise reduction in cone beam CT. Medical physics. 2011;38(11):5896-5909.
Usualmente, las regiones de interés se definen construyendo una técnica hibrida que considera la WT y las LSSVM para aislar la estructura anatómica cardiaca de interés y facilitar enormemente la generación automática de la morfología 3D de cualquiera de tales estructuras.
2. Zanella R, Boccacci P, Zanni L, Bertero M. Efficient gradient projection methods for edge-preserving removal of Poisson noise. Inverse Problems. 2009;25(4):1-4.
4. Chan RH, Chen K. Multilevel algorithm for a Poisson noise removal model with total-variation regularization. International Journal of Computer Mathematics. 2007;84(8):1183-1198. 5. Vera M. Segmentación de estructuras cardiacas en imágenes de tomografía computarizada multi-corte [Tesis doctoral]. Mérida-Venezuela: Universidad de los Andes, 2014. 6. Devroye L. Non–Uniform Random Variate Generation. New York: Springer–Verlag; 1986. 7. Hsieh J. Image artifacts: appearances, causes, and corrections. En: SPIE Press Computed tomography: principles, design, artifacts, and recent advances, Bellingham,WA, USA, 2003:167-240. 8. Kroft LJM, De Roos A, Geleijns J. Artifacts in ECG-synchronized MDCT coronary angiography. American Journal of Roentgenology. 2007;189(3):581-91. 9. Barrett JF, Keat N. Artifacts in CT: recognition and avoidance 1. Radio-
65
graphics. 2004;24(6):1679-1691. 10. Wang G, Vannier MW. Stair-step artifacts in three-dimensional helical CT: an experimental study. Radiology. 1994;191(1):79-83. 11. Rubin GD, Paik DS, Johnston PC, Napel S. Measurement of the aorta and its branches with helical CT. Radiology. 1998;206(3):823-829. 12. Pratt W. Digital Image Processing. USA: John Wiley & Sons Inc; 2007.
66
21. Meijering HW. Image enhancement in digital X–ray angiography [Tesis de Doctorado]. Netherlands: Utrecht University, 2000. 22. Meyer Y. Wavelets and Operators. USA: Cambridge University Press; 1999. 23. Daubechies I. Ten lectures on wavelets. Philadelphia: Society for Industrial and Applied Mathematics; 1992.
13. González R, Woods R. Digital Image Processing. USA: Prentice Hall; 2001.
24. Mallat S. A theory for multiresolution signal decomposition: the wavelet representation. IEEE Transactions on Pattern Analysis and Machine Intelligence. 1989;11(7):674–93.
14. Passarielo G, Mora F. Imágenes Médicas, Adquisición, Análisis, Procesamiento e Interpretación. Venezuela: Equinoccio Universidad Simón Bolívar;1995.
25. Vetterli M, Herley C. Wavelets and filter banks: Theory and design. IEEE transactions on signal processing. 1992;40(9):2207-32.
15. Perona P, Malik J. Scale-space and edge detection using anisotropic diffusion. IEEE Transactions on pattern analysis and machine intelligence. 1990;12(7):629-639. 16. Coupé P, Yger P, Prima S, Hellier P, Kervrann C, Barillot C. An optimized blockwise nonlocal means denoising filter for 3-D magnetic resonance images. IEEE transactions on medical imaging. 2008;27(4):425-441. 17. Rudin LI, Osher S, Fatemi E. Nonlinear total variation based noise removal algorithms. Physica D: Nonlinear Phenomena. 1992;60(1-4):259268. 18. Fischer M, Paredes JL, Arce GR. Weighted median image sharpeners for the world wide web. IEEE Transactions on Image Processing. 2002;11(7):717-727. 19. Arce GR. A general weighted median filter structure admitting negative weights. IEEE Transactions on signal processing. 1998;46(12):31953205. 20. Aysal TC, Barner KE. Quadratic weighted median filters for edge enhancement of noisy images. IEEE Transactions on Image Processing. 2006;15(11):3294-310.
26. Vapnik V. Statistical Learning Theory. New York: John Wiley & Sons; 1998. 27. Osuna E, Freund R, Girosi F. Training support vector machines: an application to face detection. En: Conference on Computer Vision and Pattern Recognition (CVPR ’97), San Juan, Puerto Rico, 1997:130–6. 28. Smola A. Learning with kernels [Tesis de Doctorado]. Berlin: Technische Universitt, 1998. 29. Scholkopf B, Smola A. Learning with Kernels: Support Vector Machines, Regularization,Optimization, and Beyond. Cambridge: The MIT Press; 2002. 30. Suykens J, Gestel TV, Brabanter JD. Least Squares Support Vector Machines. UK: World Scientific Publishing Co.; 2002. 31. Oren M, Papageorgiou C, Sinha P, Osuna E, Poggio T. Pedestrian detection using wavelet templates. En: Conference on Computer Vision and Pattern Recognition (CVPR 97). Washington, DC: IEEE Computer Society, 1997:193–200.
Manuel Velasco (Venezuela) Editor en Jefe - Felipe Alberto Espino Comercialización y Producción Reg Registrada en los siguientes índices y bases de datos:
SCOPUS, EMBASE, Compendex, GEOBASE, EMBiology, Elsevier BIOBASE, FLUIDEX, World Textiles, OPEN JOURNAL SYSTEMS (OJS), REDALYC (Red de Revistas Científicas de América Latina, el Caribe, España y Portugal), LATINDEX (Sistema Regional de Información en Línea para Revistas Científicas de América Latina, el Caribe, España y Portugal) LIVECS (Literatura Venezolana para la Ciencias de la Salud), LILACS (Literatura Latinoamericana y del Caribe en Ciencias de la Salud) PERIÓDICA (Índices de Revistas Latinoamericanas en Ciencias), REVENCYT (Índice y Biblioteca Electrónica de Revistas Venezolanas de Ciencias y Tecnología) SCIELO (Scientific Electronic Library Online), SABER UCV, DRJI (Directory of Research Journal Indexing) CLaCaLIA (Conocimiento Latinoamericano y Caribeño de Libre Acceso), EBSCO Publishing, PROQUEST.
E
Revista Latinoamericana de Hipertensión. Vol. 11 - Nº 3, 2016
valuación de técnicas para la detección de la cavidad ventricular izquierda en imágenes de angiografía cardiaca por rayos X Evaluation of techniques for the detection of the left ventricular cavity in X-ray images of cardiac angiography
67
Abstract
Resumen
Antonio J. Bravo, MgSc, PhD1*, Rubén Medina MgSc, PhD2, Miguel Vera, MgSc. PhD3,4, Julio Contreras-Velásquez, MSc3, José Chacón, MgSc, PhD3, Sandra Wilches-Durán, MgSc3, Modesto Graterol-Rivas, gSc, PhD3, Daniela Riaño-Wilches, BSc6, Joselyn Rojas, MD, MSc5, Valmore Bermúdez, MD, MSc, MPH, PhD7* 1 Grupo de Bioingeniería, Universidad Nacional Experimental del Táchira, San Cristóbal, 5001, Venezuela. Autor responsable de correspondencia: abravo@unet.edu.ve 2 Grupo de Ingeniería Biomédica (GIBULA), Universidad de Los Andes- Mérida, Venezuela. 3 Grupo de Investigación Altos Estudios de Frontera (ALEF), Universidad Simón Bolívar, Cúcuta, Colombia. 4 Grupo de Investigación en Procesamiento Computacional de Datos (GIPCD-ULA) Universidad de Los Andes-Táchira, Venezuela. 5 Pulmonary and Critical Care Medicine Department. Brigham and Women’s Hospital. Harvard Medical School. Boston, MA. USA 02115. 6 Facultad de Medicina, Universidad de los Andes, Bogotá, Colombia. 7 Centro de Investigaciones Endocrino-Metabólicas “Dr. Félix Gómez” Facultad de Medicina. Universidad del Zulia, Venezuela.
n este trabajo, se compara el desempeño de tres (3) técnicas diseñadas para la detección de la cavidad ventricular izquierda en imágenes de angiografía cardiaca, con el fin de obtener la información necesaria para cuantificar la función ventricular. Las técnicas se basan en a) aproximación lineal (AL), b) modelos de cuerpos deformables (snake), y c) relaciones funcionales y técnicas de agrupamiento (RFTA). La comparación se establece tomando como referencia los contornos trazados por especialistas cardiólogos que definen la cavidad ventricular, y siguiendo una metodología que permite cuantificar la diferencia entre la forma final obtenida por cada método propuesto y la forma real trazada por el especialista. Los resultados comprueban que la técnica basada en modelos de cuerpos deformables es más robusta frente a cambios topológicos tales como suavidad y curvatura presentes en la forma ventricular izquierda en comparación con las otras dos técnicas propuestas. Sin embargo, la técnica basada en snake, al igual que la basada en AL, necesita un conjunto de puntos iniciales establecidos de forma manual cerca de la forma a extraer, a diferencia de la técnica de RFTA, la cual extrae la forma ventricular de manera automática. Palabras clave: detección de contornos, aproximación lineal, modelos de cuerpos deformables, relaciones funcionales, técnicas de agrupamiento, estimadores de forma.
n this work, the performance of three (3) techniques designed for left ventricular cavity detection applied in cardiac angiography images are compared. The techniques obtain the necessary information for quantifying ventricular function, based on a) linear approximation, b) deformable models (snake), and c) clustering techniques and functional relations. Comparison is established following a methodology that allows quantifying the final shape obtained by each proposed method with respect to the real shape traced by a cardiologist. Experimental results show that techniques based on deformable models are more robust than the other two proposed techniques. These models accurately match the smoothness and curvature features of the left ventricular shapes. However, the snake and the linear programming technique require an initial set of points traced manually near the shape to be extracted, while the clustering techniques and the functional relations approach are able to extract automatically the ventricular shape. Keywords: Edge detection, linear programming, deformable models, functional relations, clustering techniques.
Introducción 68
básicamente cuatro (4) etapas: 1. Trazado del contorno inicial; 2. Extracción de una subimagen rectangular; 3. Detección de los puntos del contorno; 4. Trazado del contorno ventricular estimado. a mayoría de los métodos de detección de la cavidad ventricular izquierda se basan en el trazado de una curva que delimite dicha estructura, lo cual permite discriminar las regiones de la imagen que conforman el ventrículo con respecto a las demás estructuras que aparecen en la misma1,2,3. Otro tipo de técnicas, se basa en la aplicación de métodos clásicos de clasificación de patrones, en los cuales la imagen es sometida a procesos de agrupamiento hasta representarla como un conjunto no solapado de dos regiones, una de ellas constituye el objeto de interés, y la otra el fondo de la imagen4,5. La discriminación de la forma ventricular izquierda frente a las demás estructuras presentes en una imagen angiográfica, por medio de la aplicación de técnicas computacionales, ha constituido en los últimos años un problema abierto en el área de procesamiento digital de imágenes. Numerosos modelos desarrollados bajo nuevas y poderosas teorías, han sido introducidos en este campo, sin lograr aún establecer un estándar que se ajuste a los requerimientos de una validación clínica. La importancia de establecer un modelo clínicamente valido radica en que al obtener la forma ventricular izquierda se pueden desarrollar algoritmos para cuantificar automáticamente la función ventricular a partir de tal información5,6. 2. Materiales y métodos En este trabajo se hace una evaluación cuantitativa del desempeño de tres técnicas de detección de la cavidad ventricular izquierda. Para ello, se implanta un procedimiento cuyo objetivo fundamental, es la búsqueda de una metodología que permita generar un estándar de detección que disminuya los grados de variabilidad al momento de obtener los contornos de referencia por parte del especialista. Esta metodología se basa fundamentalmente en la promediación de diversos contornos trazados por múltiples expertos. Un segundo objetivo es la proposición de una métrica que permita cuantificar las diferencias existentes entre el contorno de referencia y el contorno estimado por el algoritmo. Para ello se evalúan ciertas métricas ya existentes, como son la distancia absoluta media7 y el error suma8. 2.1. Fuente de Datos Los datos utilizados corresponden con secuencias de imágenes ventriculográficas mono-planas adquiridas mediante un sistema digital de imagenología intervencional por rayos X de panel plano INNOVATM 4150 de General Electric Medical System. Se utilizan 6 secuencias mono-planas adquiridas de acuerdo con la proyección oblicua derecha anterior (RAO 30°). Cada imagen tiene una resolución de 512 × 512 píxeles con un tamaño de píxel de 0.285 × 0.285 mm y cada píxel está representado por 8 bits (256 niveles de gris). 2.2. Técnica de Aproximación Lineal Este método es implantado con un algoritmo que requiere
2.2.1. Trazado del contorno inicial Se considera como entrada una imagen adecuadamente preprocesada, con el propósito de optimizar la visualización de la estructura a segmentar. Sobre tal imagen, se realiza el trazado del contorno inicial procediendo de manera interactiva, al marcar un conjunto de puntos sobre el contorno ventricular. Los elementos de este conjunto son utilizados como puntos de control Pi de un procedimiento de interpolación por b-spline9, dicho conjunto es denotado por la Ecuación 1.
donde T, denota la transposición y el segmento de curva iesimo se calcula como un promedio pesado de cuatro puntos de control vecinos Pi+r (r = -2, -1,0,1), cuyas coordenadas parametrizadas en t para un punto Qi(t) en tal segmento están dadas por la Ecuación 2.
(2)
siendo una función escalar de base, correspondiente a un polinomio en t en el cual b1 y b2 intervienen como coeficientes. Las funciones de base se obtienen al introducir restricciones geométricas de continuidad entre los segmentos i e i+1, tanto del segmento b-spline Qi(t) como de sus respectivas primera y segunda derivada, Q’i(t) y Q’’i(t), las condiciones se muestran en la Ecuación 3.
(3) En este trabajo se consideran b1 = 1 y b2 =0 a objeto de simplificar la representación de las funciones de base10, y optimizar el tiempo de cálculo de las coordenadas de cada uno de los segmentos. 2.2.2. Extracción de la imagen rectangular El contorno obtenido mediante interpolación es dividido en segmentos de igual tamaño definiendo de esta forma un conjunto de puntos {(x1,y1);(x2,y2);……(xn,yn)}, que representan el inicio y fin de cada segmento. Por cada punto perteneciente al conjunto, se traza una recta perpendicular al contorno inicial, definiendo de esta manera una franja que contiene al contorno ventricular, como lo muestra la Figura 1. Una vez trazada la franja que contiene al contorno ventricular, se procede a la extracción de la información generando una subimagen rectangular que contiene los niveles de gris de dicha franja.
Revista Latinoamericana de Hipertensión. Vol. 11 - Nº 3, 2016
Donde, Icontorno(i) es el nivel de gris asociado a la posición i de la línea de tamaño m.
Figura 1. Franja que contiene el contorno ventricular
2.2.4. Trazado del contorno ventricular estimado El conjunto de valores {xc} representa las posiciones del contorno ventricular sobre la subimagen rectangular. Como existe una correspondencia unívoca entre los puntos de la subimagen rectangular y la imagen original, a partir del conjunto {xc} es posible determinar las coordenadas del contorno ventricular en la imagen original {xo}. Mediante la interpolación por b-spline se genera el contorno ventricular estimado utilizando como puntos de control los elementos del conjunto {xo}.
2.2.3. Detección de los puntos del contorno La subimagen rectangular es tratada con un filtro de mediana11, para luego ser procesada con un operador gradiente12 a lo largo de cada línea l, ello permite obtener una nueva imagen con el contorno realzado. La Ecuación 4 define el gradiente según las líneas.
(4) La imagen rectangular una vez procesada usando el operador de gradiente se transforma en una imagen en la cual el contorno aparece realzado, sin embargo, se requiere definir sobre cada línea de la subimagen, un solo punto representativo del contorno. Si se observa el contenido de una línea de la imagen realzada (Figura 2), se puede verificar que varios puntos son candidatos a representar el contorno buscado. Se considera el centroide de gravedad de cada línea como indicativo del punto del contorno. De allí, la imagen realzada es procesada por un algoritmo que se encarga de calcular los centroides de gravedad asociados a cada línea de acuerdo con la Ecuación 5.
La extracción de los datos contenidos en la franja mostrada en la figura 1, corresponde a la subimagen rectangular de la Figura 3a. En esta franja se observa la información pertinente al contorno ventricular, sin incluir cualquier otro contorno perteneciente a posibles estructuras anatómicas presentes en la imagen al momento de la adquisición. Luego de procesar estos datos, se obtiene la imagen mostrada en la Figura 3b, la cual representa el resultado de aplicar el operador detector de contorno, definido por la ecuación 2. Se puede observar que existe sobre cada línea una región sobre la cual pudiese estar ubicado el punto de contorno buscado. Sin embargo, tanto la amplitud como la ubicación varían apreciablemente de una línea a otra. La aplicación del algoritmo de cálculo de centroide de gravedad sobre cada línea, permite definir claramente el contorno ventricular estimado, como se muestra en la Figura 3c. Figura 3. (a) Subimagen rectangular original (b) Subimagen procesada por operador gradiente (c) Contorno obtenido.
(5)
Figura 2. Contenido de una línea de la imagen realzada
2.3. Modelos de Cuerpos Deformables Un modelo deformable está constituido por un conjunto de puntos de control conectados por líneas. Cada punto de control tiene una posición representada por las coordenadas (x,y) del plano imagen, por lo tanto el modelo s (snake o spline de energía minimizante) se puede representar de forma parámetrica como . En esta expresión, es el vector que contiene a las coordenadas (x, y) de un determinado snake.
69
En el modelo propuesto, la energía asociada está formada por energía interna y energía de imagen de acuerdo con Ecuación 6. (6) siendo Eint la energía interna del spline y Eimage la energía asociada a las fuerzas de imagen.
70
La energía interna en el modelo obedece a la Ecuación 7, en la cual v es un arreglo que contiene las coordenadas de los puntos que conforman al modelo y los subíndices asociados a dicho arreglo denotan derivación. Los factores de peso a y b constituyen los coeficientes de elasticidad y rigidez asociados a un cuerpo deformable utilizados para ponderar la suavidad y la curvatura que el modelo activo puede adoptar.
(7) La energía de imagen se establece de acuerdo con la Ecuación 8. (8) Esta expresión está fundamentada en la teoría de detección de bordes propuesta por Marr y Hildreth, 198013, en la cual se establece que los cambios en las intensidades de una determinada imagen pueden ser detectados encontrando los máximos o mínimos de , para una imagen I, siendo G una distribución Gaussiana de dos dimensiones. Este análisis involucra la selección de la dirección a la cual debe ser asociada la primera derivada. Esta dirección debe coincidir con la orientación formada localmente por sus máximos o mínimos, siempre que se cumpla la condición de variación lineal14, la cual establece que la variación de la intensidad cerca y paralela a la línea del máximo o mínimo debe ser localmente lineal. Los filtros Gaussianos pueden ser implantados por operadores discretos binomiales, los cuales convergen rápidamente a una función Gaussiana, por lo tanto para valores discretos, la distribución Gaussiana puede ser remplazada por la distribución binomial14. De allí, los filtros Gaussianos no son más que filtros de suavizamiento utilizados rutinariamente en procesamiento digital de imágenes para suprimir ruido presente en las escenas. Adicionalmente, estos filtros incorporan borrosidad a los contornos de las imágenes, la cual se incrementa al aumentar valor de la desviación estándar asociado al filtro, lo cual muchas veces ocasiona que estructuras muy finas pueden ser suprimidas de la escena. La utilización de este tipo de filtraje en el modelo propuesto explota la capacidad del filtro de disminuir los niveles considerables de ruido y de definir los contornos del ventrículo izquierdo sobre un amplio rango espacial, tratando de atenuar las regiones de la imagen donde no se encuentre cambios bruscos de intensidad. A la imagen suavizada por el filtro Gaussiano se le aplica un operador basado en técnicas de gradiente, el cual se encarga de enfatizar los bordes de las componentes de la escena mientras atenúa los valores del nivel de gris de las regiones casi constantes en la imagen. El cálculo del gradiente debe realizarse tal que, su sensibilidad frente a la presencia de ruido
sea considerablemente baja, ya que existe la posibilidad de que la imagen suavizada por el operador Gaussiano contenga componentes de ruido que el mismo no ha podido eliminar. Por ello, se utiliza como operador gradiente el operador de Sobel de 5´511. El proceso dinámico de deformación del modelo es controlado por las reglas básicas de la física. La primera de tales reglas corresponde con la primera Ley de Newton, la cual por ser el modelo discreto, puede asociarse a cada punto vi según la Ecuación 9. (9) La fuerza esta básicamente formulada sobre la base de tres (3) componentes, Ecuaciones 10, 11 y 12. La primera encargada de establecer la suavidad que el cuerpo deformable debe adquirir (fsuavidad), otra que establece los niveles de curvatura del modelo (fcurvatura), y una última, encargada de que la curva se ajuste al contorno del objeto que se quiere extraer (fimagen). Las dos primeras componentes de la fuerza se encargan de minimizar la energía del spline (ecuación 6) mientras que la última componente se encuentra asociada a la energía de imagen (Ecuación 7). (10) (11) (12) La fuerza total aplicada al modelo activo está formada por la suma pesada de las tres (3) componentes de fuerza antes señaladas, Ecuación 13. (13) siendo af, bf, y gf factores de peso que controlan la elasticidad, la rigidez, y la capacidad que el cuerpo deformable tiene para ser atraído hacia los contornos de los objetos que se quieren extraer. Al combinar las ecuaciones 9 y 13 se tiene como única incógnita la aceleración en cada punto del modelo. La masa de los puntos del modelo se puede considerar como un factor de ponderación de la fuerza, por lo tanto, la misma se asume igual a la unidad para cada punto. La primera ecuación que interviene en el proceso dinámico corresponde con la Ecuación 14, que establece que la aceleración en un instante t + Dt, viene dada por la fuerza en el instante t anterior dividida la masa. (14) Una segunda regla básica de la física a utilizar, esta dada por la ecuación 15. (15) Donde la velocidad ui asociada a cada punto del modelo, se obtiene con base en la velocidad inicial u0, y la aceleración obtenida por los puntos, en un incremento de tiempo Dt. Para el instante inicial, se asume la velocidad igual a cero en todos
Revista Latinoamericana de Hipertensión. Vol. 11 - Nº 3, 2016
los puntos del modelo, debido a que el modelo inicial es un cuerpo estático. Al analizar la Ecuación 15, se puede observar que el término Dt, constituye un factor de ponderación de la aceleración, entonces, Dt se escoge como la unidad. La última regla de la física que interviene en el proceso de deformación viene representada por la ecuación 16, en la cual la posición de los puntos vi en un instante de tiempo t + Dt, puede obtenerse, como una función de la posición y de la velocidad de los puntos, en el instante anterior.
2.4. Relaciones Funcionales y Técnicas de Agrupamiento Un modelo de regresión lineal (IRL) es aplicado para analizar la relación funcional15 entre los datos de la imagen original (IO) y los datos de una versión suavizada por un filtro promediador (IP), tal como lo establece la Ecuación 19. (19)
(16)
donde b0 y b1 son llamados parámetros o coeficientes de regresión15 y son determinados a partir de la imagen original (IO) y su versión suavizada (IP) de acuerdo con las siguientes relaciones.
Sustituyendo en las ecuaciones 14 a la 16, los valores de mi, u0 y de Dt establecidos, se obtiene el siguiente conjunto de ecuaciones:
(20)
(21) (17) a partir de las cuales se puede establecer que las variaciones de posición que van a sufrir los puntos que conforman el modelo durante el proceso de deformación, se expresan según la relación de la Ecuación 18.
(18) El proceso dinámico de deformación del modelo es detenido cuando todos sus puntos alcanzan su estado estacionario, lo cual se logra para condiciones de fuerza nula. El estado estacionario de nuestro modelo, puede cuantificarse, con ayuda de la norma Euclideana del vector fuerza, la cual representa la diferencia, que puede encontrase entre dos posiciones discretas del modelo en el tiempo. Debido a que la deformación de la curva constituye un proceso discreto, existe la posibilidad de que la fuerza no alcance valores nulos para todos los puntos, por lo tanto, debe cuantificarse la diferencia del vector fuerza en dos instantes de tiempo consecutivos. Para diferencias muy pequeñas, entonces se puede establecer que el modelo ha alcanzado su estado estable. En el presente trabajo no se propone un método automático para la escogencia de los valores de los factores de peso (af, bf, y gf). La forma de establecer estos valores sigue un procedimiento basado en el método heurístico, tal procedimiento comienza por fijar ciertos valores iniciales a los parámetros, los cuales son posteriormente modificados. Cada conjunto de valores de los parámetros permite encontrar un contorno que cumple con el proceso de deformación hasta alcanzar un estado estable de energía para el modelo. Cada contorno final encontrado es posteriormente comparado con un modelo trazado de forma manual por el cardiólogo y que se considera un contorno patrón. Para la comparación, se utilizan estimadores de forma que cuantifican la diferencia que existe entre los dos contornos comparados. El conjunto de parámetros af, bf, y gf que minimizan los valores de los estimadores de forma es escogido en el modelo de contorno activo propuesto.
El proceso de agrupamiento es implantado usando la técnica de crecimiento de regiones por enlace múltiple16 y el mismo se realiza en cuatro (4) etapas. El proceso de agrupamiento se realiza en cuatro etapas. En la primera de ellas se emplea un criterio de similaridad que establece la diferencia entre los niveles de gris de la imagen de regresión lineal y la imagen promediada. Este criterio estable que para un píxel en estudio en la posición (i,j), y su vecino directo en la posición (i,j+1), las correspondientes intensidades en la IRL, denotadas por x y y, y las intensidades asociadas a los mismos píxeles en la IP, denotadas por a y b, pueden combinarse generando una imagen de similaridad (IS) de acuerdo con la Ecuación 22.
(22) Una segunda etapa esta constituida por la generación de una función densidad de datos17. Al convolucionar los datos calculados en la etapa anterior, con una máscara de densidad unimodal K se obtiene la imagen ID (Ecuación 23). (23) La función de densidad establece que tan dispersos se encuentran los datos obtenidos al aplicar el criterio de similaridad. Una distribución Gaussiana isotrópica con desviación estándar s, se establece como máscara de densidad, tal como se muestra en la Ecuación 24.
(24) Donde, n representa el tamaño de la máscara. La tercera etapa se encarga de identificar los candidatos a grupos, y es observada como un proceso de segmentación inicial basado en crecimiento de regiones por enlace sencillo. Si la diferencia entre dos píxeles vecinos es menor a un umbral, determinado por la desviación estándar del grupo de datos ID, entonces esos dos píxeles son agrupados. Este proceso se realiza sobre toda la matriz de densidad ID, estableciendo así un primer conjunto de regiones en la imagen original.
71
72
La última etapa del proceso de agrupamiento se basa en depurar el conjunto de regiones obtenidas en el proceso de segmentación inicial, aplicando el método de crecimiento de regiones por enlace múltiple. A cada región obtenida en la etapa anterior, se le asigna un vector propiedad, cuyas componentes representan un conjunto de atributos predefinidos, tales como área, media del nivel de gris, y centroide. Así, las regiones adyacentes que poseen vectores características similares son agrupadas. Esto genera una nueva segmentación la cual es entonces usada como entrada a este proceso iterativo. En segmentación de imágenes ventriculográficas por agrupamiento, se desea obtener solo dos regiones, una que defina la cavidad ventricular, y otra el fondo de la imagen, de allí que el proceso de depuración iterativa se realiza hasta obtener dos regiones. 2.5. Establecimiento del contorno patrón La forma real del objeto que se desea extraer es a menudo definida por un proceso de segmentación manual dirigido por un especialista del área médica. El resultado de la aplicación de este proceso manual contiene alto grado de variabilidad cuando una imagen es segmentada por varios observadores expertos. Este problema es parcialmente resuelto acá, al promediar un conjunto de contornos trazados por dos expertos, dando como resultado un contorno de referencia o patrón para cada instante de la secuencia angiográfica en un ciclo cardiaco. La Figura 4 muestra el contorno obtenido luego de la promediación de los contornos trazados por los distintos especialistas. Figura 4. Contorno Ideal o de Referencia
las mismas (Suri y col., 2005). Este estimador representa una métrica para medir la distancia entre dos contornos a y b. Si estos contornos son definidos por un conjunto de puntos a = {a1,a2,a3,,......an} y b={b1,b2,b3,,......bn}, siendo ai y bi un par ordenado de coordenadas (x,y). Se define la distancia del punto más próximo (DCP - distance of the closest point) del punto ai de la curva a, a la distancia que se expresa según la Ecuación 25.
(25) Esta distancia es calculada para todos los puntos de los dos contornos y, a través de una media de estos valores, se obtiene una distancia media absoluta (MAD - mean absolute distance) entre esas dos curvas la cual se expresa según la Ecuación 26.
(26) El segundo estimador, el error suma, cuantifica la diferencia entre dos contornos basándose en la área asociada a cada objeto que describe la forma, la idea de aplicarlo es la de cuantificar la diferencia entre las áreas no contenidas por ambos contornos8. Inicialmente se calcula el área definida por el conjunto de puntos del contorno manual no incluido en el contorno calculado. Luego se estima el área asociada con la forma definida por los puntos del contorno resultante de los algoritmos propuestos y que no hayan sido incluidos en el contorno manual. La suma de estas dos áreas mide la máxima diferencia entre los objetos que forman los contornos analizados. El error suma (e) es expresado de acuerdo con la Ecuación 27.
(27) siendo: M y |M|, el conjunto de píxeles dentro del contorno manual y la área correspondiente a estos píxeles, respectivamente; A y |A|, el conjunto de píxeles dentro del contorno automático y la área correspondiente a estos píxeles, respectivamente; A , complemento del conjunto de píxeles A; M , complemento del conjunto de píxeles M. 2.6. Evaluación cuantitativa de las técnicas de detección El desempeño de cada uno de los esquemas de detección es determinado a través de la implantación de un proceso sistemático que trata de resolver el problema de la cuantificación de la diferencia entre la forma que describe el objeto que se desea representar o extraer y la forma patrón o de referencia. Escoger un parámetro de comparación constituye el primer paso a seguir para la definición de un cuantificador o estimador comparativo de forma. La distancia absoluta media y el error suma son parámetros que han sido utilizados como factores de comparación de forma separada. El primero de ellos se deriva al comparar directamente dos curvas dadas al alinearlas con respecto al centroide de masa de la curva patrón, este parámetro establece la similaridad espacial entre las curvas, sin considerar el área encerrada por
Como se ha señalado, los dos estimadores de forma antes señalados buscan cuantificar la diferencia entre dos curvas que constituyen un objeto en el plano bidimensional, una basándose en la similaridad espacial, y otro por diferencia de sus áreas. En tal sentido, valores pequeños de la distancia absoluta media y del error suma están asociados al algoritmo de discriminación con mejor desempeño. 3. Resultados y discusión En la Figura 5 se muestran los resultados de aplicar el proceso de detección considerando las tres (3) técnicas a comparar a una imagen en fase diastólica de ventrículo izquierdo mostrada en la Figura 2. Para el modelo deformable el conjunto de parámetros obtenido de acuerdo con el proceso heurístico descrito en la sección 2.3 corresponde con (af, bf, y gf) = (0.5, 0.085, 0.00625).
Revista Latinoamericana de Hipertensión. Vol. 11 - Nº 3, 2016
La Tabla 1 muestra los valores obtenidos luego de comparar usando las métricas, los contornos obtenidos por las técnicas descritas en este trabajo, con respecto al contorno ideal o de referencia. Las segmentaciones obtenidas usando el enfoque basado en relaciones funciones y técnicas de agrupamiento contienen información tanto del ventrículo izquierdo como de la base de la aorta (Figura 5c), tales segmentaciones requieren ser delimitadas a objeto de considerar solo la cavidad ventricular en el proceso de evaluación de desempeño, para ello se usa como límite de la base aórtica el promedio de los puntos que el especialista trazó sobre los contornos patrones en todo un ciclo cardiaco. Se muestran el error suma y la distancia absoluta media para cada técnica. Esta tabla muestra los valores promedios de los errores y sus respectivas desviaciones estándar (entre paréntesis), considerando las imágenes de diástole para las seis bases de datos utilizadas.
Figura 6. Diferencia visual entre el resultado obtenido por los algoritmos propuestos y el contorno de referencia. (a) Aproximación lineal, (b) Modelos deformables, (c) Relaciones funcionales y agrupamiento.
Figura 7. Resultado al aplicar las técnicas de segmentación en tele-sístole (a) Aproximación lineal, (b) Modelos deformables, (c) Relaciones funcionales y agrupamiento
Figura 5. Resultado al aplicar las técnicas de segmentación en tele-diástole (a) Aproximación lineal (b) Modelos deformables (c) Relaciones funcionales y agrupamiento
Tabla 2. Errores entre los resultados de las técnicas propuestas y el contorno patrón en sístole final Técnica de segmentación Tabla 1. Errores entre los resultados de las técnicas computacionales y el contorno de referencia Técnica de segmentación
e
e
(%)
Aproximación lineal
(mm) 0.94 (0.15)
9.23 (8.68)
Modelos deformables
1.16 (0.31)
5.84 (5.24)
Relaciones funcionales y agrupamiento
0.91 (0.28)
15.23 (9.47)
Por su parte la Figura 6, muestra la comparación de los contornos analizados, el contorno oscuro representa el contorno ideal, mientras que el más claro representa el obtenido por la técnica correspondiente. Adicionalmente los algoritmos de detección propuestos son aplicados a imágenes captadas al iniciarse la fase sistólica, los resultados de este proceso se pueden observar en la Figura 7. En la Tabla 2, se cuantifican las diferencias entre los contornos obtenidos y una curva ideal para sístole final. Se muestran los promedios de los errores y sus respectivas desviaciones estándar (entre paréntesis), considerando las imágenes de sístole para las seis bases de datos utilizadas. Se puede observar que la técnica que presenta menores errores para nuestra comparación es la basada en aproximación lineal.
e
(mm)
e
(%)
Aproximación lineal
1.43 (0.17)
8.12 (6.56)
Modelos deformables
1.65 (0.66)
9.91 (7.13)
Relaciones funcionales y agrupamiento
1.96 (0.76)
9.41 (9.93)
Por último, en la figura 8 se muestran las imágenes donde se superponen los contornos obtenidos por los métodos propuesto con el contorno ideal para una imagen en sístole final. Se puede claramente observar, que la técnica basada en modelos de cuerpos deformables asocia una curva a la forma ventricular en diástole mucho más suave que los resultados arrojados por las otras dos (2) técnicas. El modelo basado en técnicas de aproximación lineal se ajusta topológicamente mejor a la forma ventricular en sístole, mientras que el resultado al aplicar modelos de cuerpos deformables tiende en ciertas regiones a alejarse de la forma ventricular ideal. Por su parte, el contorno obtenido por técnicas de agrupamiento presenta considerables irregularidades, perdiendo así características esenciales de los contornos ventriculares tales como suavidad y curvatura. Los resultados obtenidos muestran que la técnica basada en modelos de cuerpos deformables se ajusta mejor al contorno ideal o de referencia cuando se analizan imágenes en diástole final. Uno de los inconvenientes que dicha técnica presenta, es la necesidad de una aproximación inicial para poder ejecutar el algoritmo que se encarga de realizar el proceso de de-
73
formación. Por su parte, el algoritmo de aproximación lineal no difiere considerablemente de la forma ventricular ideal fase diastólica y se ajustan considerablemente bien, según el estimador propuesto a la forma de la cavidad ventricular izquierda en la fase sistólica; pero al igual que los snake, necesitan una aproximación inicial para definir los puntos que generan la franja. Si bien, la técnica de RFTA es la que mayor error genera al realizar la comparación; la misma corresponde a la única de las técnicas estudiadas que se implanta de manera totalmente automática.
Las características de los métodos descritos demuestran la complementaridad de las técnicas, sugiriendo que podrían ser combinadas para aprovechar las ventajas que cada una presenta, con la finalidad de generar un nuevo método con las propiedades de cada uno de los métodos comparados. Agradecimientos El presente trabajo cuenta con el financiamiento del Decanato de Investigación de la Universidad Nacional Experimental del Táchira, San Cristóbal, Venezuela.
Conclusiones
74
Figura 8. Diferencia visual entre el resultado obtenido por los algoritmos propuestos y el contorno de referencia en sístole final (a) Aproximación lineal, (b) Modelos deformables, (c) Relaciones funcionales y agrupamiento
La técnica fundamentada en una relación funcional y agrupamiento no supervisado constituye la única técnica automática considerada en el presente artículo. El método propuesto ha sido probado en ventriculogramas reales, el mismo utiliza herramientas de estadística clásica para realizar un preprocesamiento de la imagen a segmentar. El resultado de esta primera etapa, constituye la entrada de un proceso de agrupamiento no supervisado por comparación de los niveles de gris, que se encarga de realizar una segmentación inicial. Los grupos generados por este proceso, son ingresados a una segunda etapa de agrupamiento que utiliza la técnica de crecimiento de regiones por enlace múltiple de manera iterativa a objeto de encontrar la región asociada al ventrículo izquierdo y el fondo.
Referencias 1. Kervrann C, Heitz F, Statistical deformable model-based segmentation of image motion. IEEE Transaction on Image Processing. 1999; 8(4): 583-588.
e acuerdo con los resultados obtenidos de la implantación computacional del modelo de contorno activo propuesto, se puede entonces afirmar que el modelo propuesto permite reconocer formas de objetos incluidos en imágenes bidimensionales, basado en la teoría de los modelos de contorno activo o modelos deformables, también denominados snake. El proceso de deformación del snake propuesto, es inicializado de forma manual, no se propone, un procedimiento automático para la obtención del contorno inicial que modelo deformable requiere. Es computacionalmente sencillo pues, alcanza valores estables de energía en pocas iteraciones. El proceso de deformación se basa en las leyes esenciales de la física, ya que las fuerzas asociadas al modelo, se pueden representar como el gradiente de los distintos funcionales de energía asociados al mismo. Y permite discriminar, considerablemente bien, la forma de la cavidad ventricular. El método basado en aproximación lineal es conceptualmente simple y permite encontrar el contorno ventricular de una forma adecuada siguiendo un procedimiento semi-automático. Como el operador gradiente se aplica a solo una pequeña región de la imagen, el tiempo de cómputo resulta considerablemente bajo. El resultado permite discriminar apropiadamente la región ventricular de manera robusta frente al posible ruido presente en la imagen o la existencia de otras estructuras anatómicas que resultan muy difíciles de excluir mediante métodos de segmentación automáticos.
2. Sui L, Haralick R, Sheehan F. A knowledge–based boundary delineation system for contrast ventriculograms. IEEE Transaction on Information Technology in Biomedicine. 2001; 5(2):116-132. 3. Suzuki K, Horiba I, Sugie N, Nanki M. Extraction of left ventricular contours from left ventriculograms by means of a neural edge detector. IEEE Transaction on Medical Imaging. 2004; 23(3): 330-339. 4. Oost, E, Koning G, Sonka M, Oemrawsingh P V, Reiber J H C, Lelieveldt B P F. Automated contour detection in X-ray left ventricular angiograms using multiview active appearance models and dynamic programming. IEEE Transaction on Medical Imaging. 2006; 25(9): 1158-1171. 5. Bravo A, Medina R. An unsupervised clustering framework for automatic segmentation of left ventricle cavity in human heart angiograms. Computerized Medical Imaging and Graphics. 2008; 32(5): 396-408. 6. Kennedy J, Trenholme S, Kaiser I,Wash S. Left Ventricular Volume and mass from single-plane cineangiogram. A comparison of anteroposterior and right anterior oblique methods. American Heart Journal. 1970; 80(3): 343-352. 7. Suri J, Wilson D, Laxminarayan S. Handbook of Biomedical Image Analysis. New York:Kluwer Academic/Plenum Publishers; 2005. 8. Lilly P, Jenkins J, Bourdillon P. Automatic Contour Definition on Left Ventriculograms by Image Evidence and a Multiple Template-Based Model. IEEE Transaction on Medical Imaging. 1989; 8(2):173-185. 9. Barsky BA. Computer Graphics and Geometric Modeling Using BetaSplines. Berlin: Springer-Verlag;1988. 10. Ammeraal L. Programming Principles in Computer Graphics. New
Revista Latinoamericana de Hipertensión. Vol. 11 - Nº 3, 2016 York: John Wiley & Sons; 1992. 11. Pratt W K. Introduction to Digital Image Processing.New York: CRC Press; 2014. 12. Gonzalez R C, Woods R E. Digital Image Processing Using MALAB. New Jersey: Pearson Education; 2008. 13. Marr D, Hildreth E. Theory of the Edge Detection. Proccedings of the Royal Society of London. 1980; 207(1167): 187-217. 14. Brend C, Huang HK, Wong A, Tagawa J, Hall T, Bazzill T, et al. Implementation of a large-scale picture archiving and communication system. Computerized Medical Imaging and Graphics. 1993; 17(1): 1-11. 15. Neter J, Wasserman W, Whitmore G A. Applied Statistics. Aurora: Allyn and Bacon; 1988. 16. Haralick R A, Shapiro L. Computer and Robot Vision. Boston: Addison-Wesley Publishing Company; 1992. 17. Pauwels E J, Frederix G. Finding Salient Regions in Images: Non-Parametric Clustering for Image Segmentation and Grouping.Journal of Computer Vision and Image Understanding. 1999; 75(1-2): 73-85.
Manuel Velasco (Venezuela) Editor en Jefe - Felipe Alberto Espino Comercialización y Producción Reg Registrada en los siguientes índices y bases de datos:
SCOPUS, EMBASE, Compendex, GEOBASE, EMBiology, Elsevier BIOBASE, FLUIDEX, World Textiles, OPEN JOURNAL SYSTEMS (OJS), REDALYC (Red de Revistas Científicas de América Latina, el Caribe, España y Portugal), LATINDEX (Sistema Regional de Información en Línea para Revistas Científicas de América Latina, el Caribe, España y Portugal) LIVECS (Literatura Venezolana para la Ciencias de la Salud), LILACS (Literatura Latinoamericana y del Caribe en Ciencias de la Salud) PERIÓDICA (Índices de Revistas Latinoamericanas en Ciencias), REVENCYT (Índice y Biblioteca Electrónica de Revistas Venezolanas de Ciencias y Tecnología) SCIELO (Scientific Electronic Library Online), SABER UCV, DRJI (Directory of Research Journal Indexing) CLaCaLIA (Conocimiento Latinoamericano y Caribeño de Libre Acceso), EBSCO Publishing, PROQUEST.
75