La atenuación y la historia de la computación

Page 1

UNIVERSIDAD NACIONAL MAYOR DE SAN MARCOS (Universidad del Perú, DECANA DE AMERICA) Facultad de Medicina San Fernando Escuela Académico Profesional de Tecnología Médica Área de Radiología

La atenuación y la historia de la computación. Informática Médica

Autor: García Zavaleta Robert Iván Lima – Perú 2014


INTRODUCCION Teniendo claro que el tecnólogo medico en radiología, debe estar capacitado para responder a las demandas y exigencias tecnológicas en el cual se evidencia profesionalismo, es fundamental un conocimiento amplio y actualizado en informática médica siendo esta parte de la base de muchos ámbitos en la radiología actual, es por ello que el presente trabajo tiene como objetivo conocer de forma concisa y clara el desarrollo de la computación a través de la historia y el fundamento de la atenuación como origen de la obtención de imágenes radiológicas. Desde el principio de los tiempos, el hombre ha sentido la necesidad de contar y de hacer cálculos con los objetos que le rodean. Es esta necesidad la que conllevo a muchos pioneros a dar origen a la computación. Comenzando por mecanismo sencillos como el Abaco hasta la aparición de los chips que sería parte fundamental de las nuevas generaciones en computadoras, siendo estas en la actualidad de vital importancia para el desarrollo de la humanidad, de las ciencias y comunicaciones. Como profesionales en imageneologia es de gran importancia saber que la atenuación es la reducción de la intensidad del haz de rayos x, al penetrar a través de la materia. Pudiendo ser dispersada o absorbida según el mecanismo que se haya llevado a cabo en la interacción del haz de radiación y la materia, ya que este fenómeno sería fundamental para la obtención de las imágenes radiológicas, que nos permitirán a portar de forma correcta al diagnóstico médico.


ATENUACION La atenuación de los rayos x se refiere a la disminución de la intensidad que se lleva acabo cuando la radiación atraviesa la materia. El haz de rayos x al atravesar la materia interacciona con los átomos mediante cinco mecanismos: dispersión coherente, efecto Compton, efecto fotoeléctrico, producción de pares y fotodesintegración. La frecuencia relativa de la interacción para cada uno de estos mecanismos depende principalmente del número atómico de los átomos, de la densidad de masa y de la energía de los rayos x. La atenuación del haz de rayos x es ocasionada básicamente por dos fenómenos físicos diferentes: dispersión y absorción. • Dispersión: Se debe a una absorción parcial de los cuantos de rayos X, produciendo además que el rayo x emergente de la interacción se desplace en una dirección diferente de la del rayo x incidente. Esto reduce la intensidad en la dirección original. La dispersión puede ser elástica o puede conllevar una pérdida de energía o variaciones en la longitud de onda, esto es, dispersión inelástica. Los dos mecanismos en los cuales se lleva a cabo la dispersión son el efecto Compton y la dispersión coherente. •

Absorción: Toda la energía de los cuantos de rayos X se transfiere a los átomos o moléculas del material irradiado en forma de energía de ionización o excitación. El fenómeno fotoeléctrico, producción de pares y desintegración fotonica son procesos de absorción.

Los rayos x son atenuados de forma exponencial, lo que significa que no muestra un rango fijo en los tejidos. Los rayos x son reducidos en número de forma porcentual para cada aumento del espesor del tejido que atraviesan. La cifra de rayos x emergentes desde cualquier espesor del absorbente nunca alcanzar el valor cero. Cada espesor que es atravesado puede atenuar el haz de rayos x únicamente en una cantidad fraccionaria, y la fracción de cualquier número positivo es superior a cero


Si R0 es la tasa de conteo original delante del atenuador y R es la tasa de conteo detrás del atenuador, se puede cuantificar la transmisión de radiación para caracterizar la permeabilidad de un atenuador usando: R T = R0 ………………………..(I) Cuanto mayor sea la denominada transmitancia de un atenuador, menor será su capacidad de atenuar. La transmitancia depende del espesor del atenuador. Si suponemos que las propiedades de la radiación incidente no se alteran a pesar de la atenuación, un aumento del espesor x en un valor dx provocará una disminución de la transmitancia T en un valor dT. La reducción relativa de la transmitancia es proporcional al incremento absoluto del espesor: dT ¿ T = µ . dx …………………..(II) El factor de proporcionalidad µ recibe el nombre de coeficiente de atenuación lineal. Dado que la transmitancia T = 1 para x = 0, la integración de la ecuación (II) nos da −u.x T= e ………………….. (III) ó lnT = −µ ⋅ x …………...….. (IV) Esta relación es conocida como la Ley de atenuación de Lambert, en honor a Johann Heinrich Lambert, filósofo y científico del siglo XVIII.


HISTORIA DE LA COMPUTACION El primer dispositivo mecánico para contar fue el ábaco, cuya historia se remonta a las antiguas civilizaciones griega y romana. Al desplazar las cuentas sobre varillas, sus posiciones representan valores almacenados, y es mediante dichas posiciones que este representa y almacena datos. Otro de los inventos mecánicos que marcaría los inicios de la computación fue la Pascalina inventada por Blaise Pascal en el año 1642 y la de Gottfried Wilhelm von Leibniz en el año 1694. Con estas máquinas, los datos se representaban mediante las posiciones de los engranajes, y los datos se introducían manualmente estableciendo dichas posiciones finales de las ruedas. En el año 1822 Charles Babbage creo la primera computadora analítica. La idea nació debido a que la elaboración de las tablas matemáticas era un proceso tedioso y propenso a errores. En 1823 el gobierno Británico lo apoyo para crear el proyecto de una máquina de diferencias, un dispositivo mecánico para efectuar sumas repetidas. Mientras tanto Charles Jacquard, fabricante de tejidos, había creado un telar que podía reproducir automáticamente patrones de tejidos leyendo la información codificada en patrones de agujeros perforados en tarjetas de papel rígido. Al enterarse de este método Babbage abandonó la máquina de diferencias y se dedicó al proyecto de la máquina analítica que se pudiera programar con tarjetas perforadas para efectuar cualquier cálculo con una precisión de 20 dígitos. La tecnología de la época no bastaba para hacer realidad sus ideas.

En 1854 el matemático inglés George Boole sienta las bases de lo que conocemos hoy como Teoría de la Información, con la publicación de su obra maestra, Una Investigación de las Leyes del Pensamiento sobre las cuales se fundamentan las Teorías Matemáticas de la Lógica y las Probabilidades. En su obra, Boole expresa la lógica como una forma extremadamente simple de álgebra, en la cual se lleva a cabo el razonamiento mediante la manipulación de fórmulas más sencillas que aquéllas utilizadas en el álgebra tradicional. Su teoría de la lógica, que reconoce tres operaciones básicas: Y, O y NO. Para el censo norteamericano de 1890, el ingeniero mecánico Herman Hollerith diseñó un sistema compuesto de una lectora eléctrica de tarjetas perforadoras, una clasificadora rudimentaria y una unidad tabuladora para realizar las sumas e imprimir los resultados. La máquina censadora o tabuladora tuvo un gran éxito y fue capaz de concluir el recuento del censo de 1890 en menos de tres años. En 1911, Hollerith funda la Tabulating-Recording Machine Company, que posteriormente, reorganizada por Thomas J. Watson sería el preludio de la fundación de IBM. En el año 1944 se construyó en la Universidad de Harvard, la Mark I, diseñada por un equipo encabezado por Howard H. Aiken. Esta máquina no está considerada como computadora electrónica debido a que no era de propósito general y su funcionamiento estaba basado en dispositivos electromecánicos llamados relevadores.


En la Universidad de Pennsylvania la ENIAC (Electronic Numerical Integrator And Calculator) en el año 1947 se construyó lo que fue la primera computadora electrónica, el equipo de diseño lo encabezaron los ingenieros John Mauchly y John Eckert. Esta máquina ocupaba todo un sótano de la Universidad, tenía más de 18 000 tubos de vacío, consumía 200 KW de energía eléctrica y requería todo un sistema de aire acondicionado, pero tenía la capacidad de realizar cinco mil operaciones aritméticas en un segundo. Las ideas de von Neumann resultaron tan fundamentales para su desarrollo posterior, que es considerado el padre de las computadoras. La EDVAC (Electronic Discrete Variable Automatic Computer) fue diseñada por este nuevo equipo. Tenía aproximadamente cuatro mil bulbos y usaba un tipo de memoria basado en tubos llenos de mercurio por donde circulaban señales eléctricas sujetas a retardos. La idea fundamental de von Neumann fue: permitir que en la memoria coexistan datos con instrucciones, para que entonces la computadora pueda ser programada en un lenguaje, y no por medio de alambres que eléctricamente interconectaban varias secciones de control, como en la ENIAC. Todo este desarrollo de las computadoras suele divisarse por generaciones.

.

Primera generación (1950-1960) Los ordenadores se construían con válvulas y eran muy grandes y costosos. Las unidades de entrada eran tarjetas perforadas. Estaban destinados, casi de manera exclusiva, a los ámbitos científico y militar.

Segunda generación (1960-1964) El descubrimiento, en 1947, del transistor permitió reemplazar las válvulas de vacío y conseguir así unos ordenadores más baratos, rápidos y menos voluminosos.

Tercera generación (1964-1974) La evolución de los transistores dio lugar al circuito integrado (chip) y en 1964 la empresa IBM lanzó la serie 360, caracterizada por tener memoria virtual. La demanda de estos equipos, miniordenadores, fue tan grande que se comenzaron a producir en masa.

Cuarta generación (1974-1982) La evolución de los chips continuó, apareció el microprocesador, construido en un único circuito. Los equipos bajaron de precio, y descendió el consumo que producían, además, aumentó su velocidad de cálculo.

Quinta generación (1982-actualidad) Parece que el futuro es la Inteligencia Artificial (IA). Fue hacia 1982 cuando se comenzó a hablar de ordenadores basados en IA. Son experimentales y pretenden utilizar el lenguaje natural, tener una alta velocidad de proceso y un largo etcétera.


BIBLIOGRAFIA

Gallegos C. El ordenador introducción histórica. Tecnologías de la información y comunicación. 1° ed. Madrid: Editex; 2011. p. 5.

Bushong C. Interacción de los rayos x con la materia. Manual de radiología para técnicos. 9° ed. Barcelona: Elsevier Mosby; 2010. p. 174 – 175.

LD Didactic GmbH. Física y atenuación de rayos x [pdf en internet]*. Alemania; 2004 [acceso 13 de agosto de 2014]. Disponible en: http://downloads.gphysics.net/leybold/EXP/HB/S/P6/P6321S.PDF

Hernandez G. Historia de las computadoras [pdf en intenet]*. Mexico; 2005 [acceso 13 de agosto del 2014]. Disponible en: http://www.uv.mx/personal/gerhernandez/files/2011/04/historiacompuesta.pdf

Martinez R. Breve historia de la informatica [pdf en intenet]*. España; 2000 [acceso 13 de agosto del 2014]. Disponible en: http://ocw.upm.es/ciencia-de-la-computacion-e-inteligenciaartificial/fundamentosprogramacion/otrosrecursos/brevehistoriainformatica.pdf


Turn static files into dynamic content formats.

Create a flipbook
Issuu converts static files into: digital portfolios, online yearbooks, online catalogs, digital photo albums and more. Sign up and create your flipbook.