Biofisica

Page 1




Índice

Palabras de los Editores e Introducción a la Biofísica

El ADN se queda sin basura Primera Membrana Artificial

Potenciales en el Epitelio Gingival Diseño de una interfaz mioeléctrico

Fármaco contra el Alzheimer Tratamiento de las enfermedades neurodegenerativas

MyoTrac Infiniti + MyoTrac3 Control de movimientos mediante estimulación eléctrica

Desarrollo “a medida” de una prótesis de núcleo vertebral Avances biomecánicos brindan oportunidad de moverse a parapléjicos

i

1

5

9

13

17


Sistema portátil mantiene 10 horas los pulmones Pletismógrafo Optoelectrónico Bts Oep

La Hipertensión empieza en el cerebro Conservación y Tratamiento de Alimentos Potenciales Aplicaciones en Biotecnología

Oscilador Láser de Titanio Argus II: El Primer Ojo Biónico Gafas políglotas

21

25

31

37 Termómetro Infrarrojo para Smartphones Geometría Cerebral y Termorregulación Calor Residual y Microvatios de Energía eléctrica

Advertencia para Usuarios de Celulares Nueva generación de Aceleradores Lineales Cáncer: Terapia por captura neutrónica en boro (BNCT)

43

49

Índice

Regeneración de Células Ciliadas Sonoquímica Supersonic Shear Imaging (SSI)


La biofísica es una ciencia molecular e intenta explicar las funciones biológicas en términos de estructuras moleculares y de las propiedades de moléculas específicas. Otros estudiosos consideran que existen ramas de la física que deben desarrollarse a profundidad como problemas físicos específicamente relacionados con la materia viviente. Así, por ejemplo, las polímeros biológicos (como las proteínas) no son lo suficientemente grandes como para poderlos tratar como un sistema mecánico, a la vez que no son lo suficientemente pequeños como para tratarlos como moléculas simples en solución. Los cambios energéticos que ocurren durante una reacción química catalizada por una enzima, o fenómenos como el acoplamiento químico-osmótico parecen requerir más de un enfoque físico teórico profundo que de una evaluación biológica. Entre esos dos extremos aparecen problemas como la generación y propagación del impulso nervioso donde se requiere un pensamiento biológico, más un pensamiento físico así como algo cualitativamente nuevo que aparece con la visión integradora del problema. En las siguiente páginas podrán observar diversos avances e innovaciones científicas y tecnológicas en la Biofísica que han influenciado en los últimos meses. Esperamos que sea de su completo agrado.

i

Biofísica

La biofísica es el campo del conocimiento que utiliza los principios de la física y la química, así como los métodos del análisis matemático y de la modelación por computadora, para comprender cómo funcionan los mecanismos de los sistemas biológicos.


Los genes son recetas para hacer proteínas y cuando una célula necesita una en particular, los genes se aseguran de que se fabrique. En aquel entonces, sin embargo, la gran revelación consistió en descubrir que los segmentos del libro que tenían ese tipo de instrucción constituían apenas el 1,5 por ciento de todo el material genético. El resto fue descartado como ADN basura. Era como si el 97 por ciento de este recetario fueran garabatos sin sentido. Sin embargo, el pasado 5 de Septiembre se presentó los resultados del proyecto ENCODE (acrónimo de ENCyclopedia Of DNA Elements) que constituyen un hito histórico en el campo de la investigación genómica. Más de 400 científicos de todo el mundo han dado un “gran paso” en la comprensión del funcionamiento del genoma humano. Un equipo de investigadores biomédicos ha descubierto que la mayoría de lo que ahora se conocía como”ADN basura” es, en realidad, información útil e importante. De hecho, es esencial para que los genes humanos funcionen ya que regula su actividad.

ENCODE se trata de un proyecto de análisis exhaustivo del genoma humano, que comenzó con un proyecto piloto en el que se estudió sólo el 1% del total. Es un proyecto fundado por el National Human Genome Research Institute (NHGRI) en los Estados Unidos en 2003 y codirigido junto al EMBLEuropean Bioinformatics Institute (EMBLEBI) en el Reino Unido. El principal reto de ENCODE es la identificación de todas las regiones de transcripción, factores asociados a transcripción, la estructura de la cromatina y las modificaciones histónicas en la secuencia del genoma humano; en definitiva, la identificación de todos los elementos funcionales del genoma humano.

Katherine Córdoba

Uno de los momentos más cruciales de la ciencia se dio hace 12 años cuando se logró decodificar por primera vez la secuencia del ADN de una persona. Lo que se descubrió es equivalente a descifrar un libro con 3 billones de letras que forman el manual de instrucciones para crear un ser de la complejidad del homo sapiens.

1


Ahora, con el mapa descrito por ENCODE, se concluye que cerca del 80% del genoma está activamente haciendo algo, es decir, contiene elementos relacionados con algún tipo de función bioquímica, hasta un total de 120 funciones diferentes. Este descubrimiento echa por tierra la idea vigente hasta ahora de que la mayor parte del genoma está formado por residuos genéticos sin utilidad, a los que despectivamente se llamaba ADN basura. Este ADN basura, se demuestra ahora, tiene en realidad un gran valor, ya que regula cómo funcionan los genes. De él depende que los genes adecuados se activen en el momento adecuado en las células adecuadas y que, por ejemplo, una célula de hígado funcione como una célula de hígado y que una neurona funcione como una neurona. En este 80% largo del genoma que ahora sale a la luz se han encontrado alteraciones genéticas relacionadas con un gran número de enfermedades. Si en el pasado no se sabía cómo interpretar las alteraciones en regiones del genoma que se consideraban inactivas, ahora queda claro que pueden producir averías en el funcionamiento de las células. Para el proyecto, que costó 288 millones dólares, se realizaron 1.600 experimentos que buscaban entender lo que pasaba en este supuesto basurero genético. En total se estudiaron 147 tipos de células humanas. Y el resultado básicamente es que esta parte del genoma que antes se creía inocuo hace las funciones de un interruptor que activa y desactiva genes y, en general, orquesta la manera como trabaja todo este complejo sistema. Esta información ha ayudado a los científicos a entender mejor cómo se regula la expresión de los genes, qué factores determinan que las proteínas se produzcan en las células apropiadas y en el momento adecuado, y permitirá nuevos avances en la comprensión de dolencias como la enfermedad de Crohn (del sistema inmunológico, de origen desconocido).

Fuente Bibliográfica 

2


Las células son parte fundamental de todo proceso natural. El ser humano está compuesto por cientos de billones de estas, de este modo, se podría decir que estos microscópicos organismos son la esencia de la vida. La membrana celular de una típica célula animal está compuesta por un 50% de lípidos y un 50% de proteínas. Sin embargo, como las proteínas son mucho más voluminosas que los lípidos hay 50 moléculas de estos últimos por cada molécula de proteína. La función de la membrana es la de proteger el interior de la célula frente al líquido extracelular que tiene una composición diferente y de permitir la entrada de nutrientes, iones u otros materiales específicos. También se intercomunica con otras células a través de las hormonas, neurotransmisores, enzimas, anticuerpos, etc. Con la fabricación de la primera membrana celular auto-ensamblada, los científicos se han acercado más a la posibilidad de crear vida de forma artificial, demostrando también, algunas teorías sobre el verdadero origen de la vida.

Fiori Paiva

Científicos de la Universidad de San Diego y la Universidad de Harvard han dado un paso más hacia el camino de la creación, desarrollando la primera membrana celular utilizando una reacción química jamás antes vista.

Aún se desconoce de dónde o de qué manera se formó la célula que le dio vida al primer organismo que haya existido sobre la tierra; pero avances como el descubierto por el equipo de Deal Devaraj, profesor asistente de química en la Universidad de San Diego, podrán revelar la forma en la que un organismo originalmente inerte pasó a tener vida.

3


¿Cómo lo hicieron? En principio se utilizó una solución acuosa de aceite y detergente; luego, iones de cobre fueron añadidos a la mezcla para después observar la aparición de vesículas y túbulos en pequeñas gotitas de aceite formadas por esta combinación; al cabo de 24 horas, esas minúsculas gotas se habían consumido debido al auto-ensamblaje de las membranas artificiales. En otras palabras, los científicos crearon un ambiente idóneo para alimentar lo que evolucionaría en una membrana celular viviente.

Otro equipo del Instituto Craig Venter, había proclamado con anterioridad la producción de una célula bacteriana que se auto replicaba; sin embargo, esta “primera” célula artificial no era del todo artificial: El genoma que actuó como vehículo de información de esta fue lo único creado por el hombre, ya que el resto pertenecía a una célula de origen natural que se utilizó para el experimento. El Profesor Deveraj restó importancia a este descubrimiento al llamarlo banal y cotidiano. No cabe duda que, como humanidad, nos acercamos cada vez más a conocer nuestro verdadero origen. Hecho que cambiará todos los conceptos que tenemos sobre la religión y el papel que jugamos en el tejido de la creación.

Fuente Bibliográfica 

4


Debido a que las células epiteliales pueden interconvertirse entre una capa y otra, se cree que su potencial de estado estacionario también se altera debido a cambios en la composición de las proteínas transportadoras de membrana.

Nellys Aranda

El cuerpo posee células epiteliales en distintas ubicaciones. El epitelio gingival de las encías está encargado de sostener a los dientes y es una barrera bacteriana. Como otras células epiteliales, se divide en capas, entre las cuales se interconvierte: superficial, crevicular y de unión. Las células epiteliales, como cualquier otra tiene proteínas transportadoras de membrana que crean gradientes de concentración a través de ella por el movimiento de iones Na+, K+ y Ca2+. El potencial de estado estacionario está principalmente determinado por la Na+/K+ ATPasa que mueve iones Na+ fuera de la célula e iones K+ dentro de ella, creando los gradientes electroquímicos.

Los potenciales de membrana de las células epiteliales pueden expresarse en la siguiente ecuación, basados en que la membrana contiene bombas iónicas (Na+/K+ ATPasa):

Vm: potencial de membrana; EK/ENa: potenciales de Nernst de K+ y Na+; RK/RNa: resistencia de K+ y Na+; Ip: corriente

Científicos realizaron pruebas sobre los cambios de potencial de membrana en las distintas capas del epitelio gingival. Se usó desoxicolato de sodio, DOC, un detergente aniónico. Los exámenes mostraron que DOC causó una despolarización de las . células epiteliales superficiales, pero en las creviculares causó una . hiperpolarización. El sitio de acción del DOC para estos efectos es . en la Na+/K+-ATPasa.

5


También se hicieron pruebas con dodecil sulfato de sodio (SDS), un detergente usado comúnmente en dentífricos. Contrario a DOC, causó una hiperpolarización de las células epiteliales superficiales. Esto permitió inferir que la SDS incrementa la actividad de la bomba al reducir la resistencia al potasio y causando un consecuente cambio en el potencial de membrana. En las células creviculares, la SDS causó una hipopolarización luego de su primera aplicación.

◄ En la imagen: potenciales de membrana de epitelio crevicular (superior) y superficial (inferior) al usar desoxicolato de sodio DOC.

Estos experimentos permitieron confirmar la teoría de que los potenciales de membrana del epitelio gingival se ven afectados por las interconversiones entre las capas que lo conforman. La magnitud de los potenciales sigue un orden decreciente: epitelio superficial (22.9 mV), epitelio crevicular (9.3 mV) y epitelio de unión (2.8 mV). En todos los experimentos llevados a cabo, las células epiteliales gingivales no mostraron excitabilidad ni algún potencial de acción.

Fuente Bibliográfica 6


brazo donde se colocan los electrodos de superficie. La figura 2 muestra el encaje protésico personalizado que incluye la localización de los elementos de adquisición de datos y control de energía. Las señales electromiográficas (EMG) también conocidas como mioeléctricas, son señales eléctricas que se producen en los músculos cuando estos se contraen o distiende . Estas señales, a pesar de presentar niveles de voltaje pequeños, pueden ser empleadas para diagnosticar patologías del sistema muscular y controlar interfaces con el propósito de devolver a las personas afectadas parte de la funcionalidad del miembro ausente, dando así al paciente la posibilidad de mejorar su calidad de vida. Presentar alguna discapacidad músculo-esquelética, ya sea por malformación congénita o por accidente, requiere del uso de sustitutos o prótesis que suplan la función del miembro afectado, donde el encaje protésico o socket tiene una gran importancia, ya que su función es conectar el muñón o parte residual de la extremidad y la prótesis. El encaje tiene como función principal la sujeción óptima de la prótesis con el muñón para proporcionar una correcta posición del miembro artificial o reemplazo, además de tratar de reproducir la funcionalidad de la extremidad original para realizar actividades de la vida cotidiana.

Karla Porteous

Las medidas principales que se consideran para el diseño del modelo para el caso de estudio son la distancia longitudinal de la prótesis y el diámetro de la base (Ascencio, 2007). Así se tiene el inicio de la mano, luego se continúa con la creación de

7


En el caso de encajes para manos articuladas se consideran distintos factores tales como: fuerzas de fricción, sujeción del muñón con el encaje y problemas de excesiva sudoración . Los controles electrónicos de una prótesis mioeléctrica pueden ser de dos tipos encendido y apagado (ON-OFF) y multicanal. Para la adquisición de las señales EMG se establece una metodología con 6 etapas: 1) seleccionar el método de captación de las señales EMG; 2) escoger los electrodos a utilizar e identificar los músculos donde se colocarán; 3) la preparación de la zona de detección ya que las mediciones son afectadas si la zona no está lo suficientemente limpia; 4) con base en la normatividad de SENIAM (Surface ElectroMyoGraphy for the Non-Invasive Assessment of Muscles por sus siglas en inglés), la posición longitudinal es la forma más práctica de trabajar, los electrodos de captación se colocan a unos 20 mm de distancia entre centros y el electrodo de referencia se ubica en cualquier parte de la muñeca; 5) posterior a esto, se alimentan los circuitos necesarios para proceder a conectar los electrodos y realizar el proceso de adquisición de señales; 6) etapa de pre-amplificación, amplificación y filtrado. En los resultados obtenidos se puede apreciar que las señales EMG son magnitudes muy inestables que varían de persona a persona, ya que cada una de ellas presenta distintas respuestas que dependen del esfuerzo aplicado al músculo y además cada músculo presenta distintos tipos de magnitud de fatiga haciendo que la señal se debilite. Con base en lo anterior se recalca la importancia que tienen la ubicación precisa de los electrodos sobre el músculo, para correr menos riesgos de obtener señales con ruido, y la preparación de la piel del paciente, ya que esta presenta altas impedancias que dificultan el paso de las señales eléctricas.

Dentro del desarrollo del trabajo se utilizó una interfaz que capta, manipula y procesa las señales EMG provenientes de los músculos a nivel superficial. La caracterización de las señales mioeléctricas fue realizada a través de sistemas electrónicos discretos, dichas señales fueron integradas dentro de un sistema embebido con capacidad de interpretar y generar las señales que controla un prototipo que emula una prótesis de mano.

Fuente Bibliográfica 8


Este fármaco, que recibe el nombre de „Nitromemantina‟, es la combinación de dos medicamentos aprobados por la agencia americana del medicamento (FDA por sus siglas en inglés) y según el autor del trabajo, el doctor Stuart A. Lipton, su utilización podría frenar “la destructiva cascada de cambios que se producen en el cerebro cuando se tiene la enfermedad” y que provocan la pérdida de memoria y el deterioro cognitivo. Los resultados de este estudio abren la posibilidad de fijar un nuevo objetivo en el tratamiento de la enfermedad de Alzheimer, diferente de las placas de proteína beta amiloide y de los ovillos neurofibrilares donde, según se afirma en la publicación, las aproximaciones de investigación aún no han dado los frutos esperados. En este caso, y siempre según la opinión de Lipton, el paciente podría recuperar las conexiones de las células nerviosas Incluso con placas de proteína beta amiloide y ovillos neurofibrilares ya formados en su cerebro.

María Alejandra Concepción

El último número de la revista Proceedings of the National Academy of Sciences (PNAS) ha publicado un estudio realizado por investigadores del Instituto de Investigación Médica Stanford-Burnham de La Jolla, en California, en el que se muestra que un nuevo fármaco experimental podría restaurar las conexiones neuronales que se han perdido con la progresión de la enfermedad de Alzheimer.

9


Los investigadores han descubierto que los péptidos de beta amiloide, que hasta ahora se habían considerado perjudiciales para las sinapsis neuronales, lo que hacen es liberar un neurotransmisor llamado glutamato. El laboratorio de Lipton había descubierto previamente cómo un medicamento llamado Memantina puede ser dirigido a los receptores para retardar la hiperactividad vista en la enfermedad de Alzheimer. Sin embargo, la eficacia de la Memantina ha sido limitada y la razón, según los investigadores, fue que es una molécula de carga positiva, y por tanto es repelida por una de carga similar en el interior de las neuronas enfermas y por el receptor de la superficie neuronal. En este estudio, los investigadores encontraron que un fragmento de la molécula de la nitroglicerina, usado comúnmente para tratar la angina de pecho en pacientes con enfermedad coronaria, podría unirse a otro sitio que el grupo de Lipton descubrió en los receptores. Por lo tanto, mediante la combinación de los dos se ha creado un nuevo fármaco de doble función. Al cerrar los receptores hiperactivos en las neuronas enfermas, „NitroMemantina‟ restaura las sinapsis entre las neuronas. Como siempre, desde aquí hacemos un llamamiento a la prudencia ante este tipo de estudios, puesto que aunque se trata de un avance esperanzador, sigue siendo un fármaco en fase experimental.

Fuente Bibliográfica 10


Las enfermedades neurodegenerativas son aquellas que afectan al sistema nervioso mediante la perdida de neuronas por muerte celular o las alteraciones de sinapsis nerviosa principalmente causada por alguna irregularidad en los niveles de neurotransmisores. Entre estas enfermedades tenemos la enfermedad de Alzheimer, Parkinson, Huntington, entre otras. De estas enfermedades aún se sabe muy poco acerca de su fisiopatología, pero los datos recogidos hasta hoy sugieren que, como ya mencionamos es causada por alteraciones sinápticas. En la enfermedad de Alzheimer se da una deficiencia en el neurotransmisor acetilcolina, lo cual conlleva a una progresiva pérdida de las capacidades cognitivas, la memoria y en ocasiones ataxia. Las recientes investigaciones se han enfocado en encontrar fármacos que aumenten los niveles de este neurotransmisor mediante mecanismos como: el aumento de la síntesis de Acetilcolina y en con mayor frecuencia utilizados los inhibidores de las enzimas encargadas de catalizar este neurotransmisor como la acetilcolinesterasa, entre ellos están o la tacrina, el donepezilo, la rivastigmina y la galantamina.

Christian Matteo

Hoy en día son muchas las enfermedades que afectan a la población, tanto enfermedades infectocontagiosas, enfermedades crónicas no transmisibles, pero en la que nos enfocaremos en este artículo será en las enfermedades neurodegenerativa.

11


En cuanto a la enfermedad de Parkinson lo que ocurre es la disminución de la capacidad intelectual, así como la progresiva aparición de movimientos musculares involuntarios, la rigidez de algunas articulaciones, lentitud para iniciar algunos movimientos. Esto ocurre debido a una disminución del neurotransmisor dopamina, lo que conlleva a un aumento de los niveles de acetilcolina. Las investigaciones actuales se centran en elaborar fármacos: precursores de la dopamina como la levodopa, potenciadores de su liberación en los botones sinápticos como la amantadina, agonistas de receptores dopaminergicos e inhibidores de las enzimas encargadas de catalizar la dopamina como como la monoamino oxidasa B (MAO B, la selegilina, o la enzima catecol-O-metiltransferasa (COMT) siendo utilizados los fármacos entacapona y la tolcapon. Al ver la gravedad de estas enfermedades nos damos cuenta de la importancia que tiene poder investigar y descubrir más sobre los mecanismos patológicos de las mismas, ya que hoy en día tenemos algunas maneras de controlarlas, mas no combatirlas o curarlas. Los investigadores pasan día a día experimentando en busca de una manera de sino curar la enfermedad al menos frenarla, ya que su característica más mortífera es su avance progresivo y degenerativo.

Fuente Bibliográfica 12


Mónica Yang

Nuestros dispositivos 2 de los canales se utilizan como una parte esencial de muchos tratamientos terapéuticos y los protocolos de evaluación clínica para la incontinencia y la rehabilitación muscular. Ellos le permiten medir electromiografía de superficie de alta resolución (SEMG). MyoTrac Infiniti lleva a cabo la estimulación eléctrica (EENM) en un gran número de configuraciones. El MyoTrac Infiniti se distingue de la competencia también combinar estas dos modalidades de diversas maneras. Se lleva a cabo entre otros estímulos SEMG-accionada (ETS).

13


El MyoTrac Infiniti es la vanguardia de la mano, de doble canal de electromiografía de superficie (SEMG), combinada con estimulación muscular (STIM), para la contracción de los músculos y de orina incontinencia. Un primer enfoque simple ha sido adoptado en el diseño de la MyoTrac Infiniti para que sea tan fácil y más rápido posible para obtener los resultados clínicos deseados de este potente dispositivo. Personalización del MyoTrac Infiniti a sus necesidades clínicas no podría ser más sencilla; todos los usuarios de entrada se dirigen a través de una serie de pantallas intuitivas y guiadas que utilizan la tecnología de pantalla táctil. La asociación del MyoTrac Infiniti con el software PC BioGraph Infiniti refuerza aún más el poder y la flexibilidad de la MyoTrac Infiniti. Este vínculo le permite transferir datos de la sesión a la PC para su visualización, análisis y presentación de informes, en tiempo real o una sesión posterior. Mientras que el MyoTrac3 con la suite de rehabilitación es una, automatizado, interfaz sEMG de doble canal portátil de alta sensibilidad. El software de protocolo de la continencia basado en Windows permite a los médicos evaluar la flexibilidad y la capacidad de personalizar las aplicaciones. El MyoTrac 3 permite a los médicos controlar dos sitios musculares al mismo tiempo. El software exclusivo continencia se puede utilizar con cualquier ordenador portátil y Windows 95, 98 o XP para el control fácil y portátil. Los médicos ahora tienen la máxima flexibilidad para definir sus propios protocolos de evaluación. Los protocolos personalizados se pueden guardar para uso futuro. La unión de estos dos dispositivos hará que la biofísica muscular mejore y brinde a los pacientes una mejor calidad de vida. Este avance ha logrado un gran aporte a la rehabilitación de los músculos para las personas que han sufrido algún daño muscular.

Fuente Bibliográfica 

14


Aunque los daños en la espina dorsal evitan que las señales eléctricas del cerebro lleguen a los músculos, las personas con parálisis por estos daños a menudo tienen intactos los nervios y músculos de sus miembros. Una técnica llamada estimulación eléctrica funcional (FES), en la que unos electrodos implantados aplican una corriente eléctrica para provocar contracciones musculares, ofrece un modo de volver a establecer esta conexión. Los dispositivos capaces de restaurar la función manual y el control de la vejiga a algunos pacientes con parálisis ya han sido aprobados por la FDA (Food and Drug Administration) en EEUU. Los pacientes utilizan movimientos musculares residuales para controlar conscientemente estos sistemas; un sistema que funciona bien para algunas aplicaciones pero limita la complejidad del movimiento que se puede realizar. Por ejemplo, un dispositivo FES permite a las personas encoger un hombro para activar un movimiento más atrevido con la mano, pero no tienen el suficiente control como para tomar objetos.

Nigel Castillo

Un novedoso sistema diseñado para traducir las señales del cerebro en movimientos musculares complejos en tiempo real ha sido presentado en el congreso de la Sociedad de Neurociencia en Chicago. El sistema podría permitir que las personas con daños en la espina dorsal controlen sus propios miembros. Según Krishna Shenoy, neurocientífica de la Universidad de Stanford es un gran avance y supone la primera demostración de un sistema de estimulación eléctrica controlada corticalmente realizando una tarea que finalmente será de utilidad para un paciente humano.

Ahora, combinando la tecnología FES con implantes cerebrales, los científicos están intentando crear un sistema más intuitivo para controlar los miembros paralizados.

15


Los investigadores dieron a cada mono un anestésico local para bloquear temporalmente la función de los nervios de los flexores en sus brazos. Los animales tenían cables implantados en sus brazos para administrar estímulos eléctricos a los músculos, como harían los nervios, y una fila de electrodos implantada en el cerebro para registrar la actividad eléctrica de la corteza motora. Primero se entrenó a los monos para asir una bola y ponerla en un agujero a cambio de un premio. Utilizando la actividad cerebral grabada durante esta tarea, los científicos desarrollaron algoritmos especializados de descifrado que traducirían la actividad cerebral relacionada con el movimiento de los diferentes músculos en un estímulo eléctrico para cada uno de los cinco músculos flexores del brazo en tiempo real, permitiendo al mono realizar la tarea. "Podemos predecir qué está intentando hacer el mono con sus músculos y estimular los músculos en función de eso, dando al mono control voluntario a través del ordenador en lugar de sus nervios", señala Miller. Por lo general, con el brazo paralizado, los animales tuvieron dificultades para completar la tarea, consiguiendo meter la bola en su destino únicamente el 10% d ellas veces, en comparación con el 100% que mostraron antes del bloqueo de los nervios. La activación del sistema FES aumentó la tasa de éxito en los animales paralizados hasta un 77%. Los investigadores mostraron también que podían lograr que el mono moviera la muñeca en distintas direcciones; ahora quieren ver si pueden repetir los resultados con los músculos que controlan el alcance. Las pruebas con humanos podrían no estar lejos. Los implantes corticales ya se han probado en pacientes humanos. Kirsch y Miller todavía no han establecido un cronograma específico para combinar ambos sistemas –los implantes corticales y los FES– en humanos, pero según Miller, sería técnicamente viable en un año. No obstante, quieren esperar hasta que los científicos hayan desarrollado una versión inalámbrica totalmente implantable del implante cortical, actualmente en desarrollo en la Universidad de Brown. Los implantes actuales tienen cables que sobresalen, lo que aumenta el riesgo de infección y limita la movilidad de los pacientes.

Fuente Bibliográfica 16


Ninguna de las soluciones desarrolladas hasta la fecha es capaz de reproducir el comportamiento biomecánico del disco intervertebral natural y, por ello, se detectó una oportunidad de innovación en la tecnología de reemplazo del núcleo pulposo y se propuso el desarrollo de una nueva prótesis de núcleo para disco lumbar que mejorara el comportamiento biomecánico y clínico de las prótesis existentes.

Lyssie L. Lasso

El dolor lumbar es una de las patologías más comunes en nuestra sociedad. Las causas del dolor pueden ser múltiples, aunque la mayoría de los dolores lumbares se produce como consecuencia de una lesión o trauma en la espalda, o debido a enfermedades degenerativas asociadas al envejecimiento. Las patologías más comunes que afectan al disco intervertebral son la hernia discal y la enfermedad degenerativa del disco. La hernia discal consiste en la rotura del anillo fibroso, acompañada de la expulsión de parte de la zona central del disco, también conocida como núcleo pulposo. La degeneración del disco es un proceso asociado a la alteración del metabolismo de los tejidos, que se caracteriza por una pérdida de hidratación progresiva de las estructuras del disco y que, en fases avanzadas, afecta a la biomecánica de la columna y produce dolor.

En primer lugar se establecieron los requisitos de diseño que debía cumplir la nueva prótesis. Los principales requisitos de diseño se pueden resumir en:  Implantación de forma mínimamente invasiva.  Reproducción de la antropometría del segmento lumbar afectado.  Reproducción de la cinemática natural propia de la columna lumbar.  Restablecimiento de la distribución normal de cargas en la columna.  Minimización de los riesgos de extrusión y de hundimiento del implante.

17


Tras la finalización del proceso de diseño y la fabricación de los primeros prototipos, la nueva prótesis de núcleo se sometió a un proceso de evaluación de su comportamiento biomecánico con el fin de validar su diseño. La validación se dividió en dos etapas: validación real (ensayos puramente mecánicos sobre el implante y ensayos biomecánicos in vitro sobre especímenes cadavéricos de columna lumbar), y validación virtual, mediante simulación numérica con un modelo de elementos finitos de la columna lumbar. Dentro del grupo de ensayos de caracterización mecánica del implante se realizaron: • Ensayos de rigidez y resistencia estática para caracterizar el comportamiento viscoelástico de la prótesis. • Ensayo de resistencia a fatiga y de desgaste para expresar la durabilidad y resistencia a largo plazo de la prótesis. Las principales ventajas de esta nueva prótesis son: • Facilidad de implantación mediante cirugía mínimamente invasiva, con abordaje posterior y practicando una incisión quirúrgica reducida. • Diseño personalizado que permite responder mejor a las necesidades específicas de cada paciente, ya que favorece la óptima transmisión de las cargas al anillo y al resto de estructuras del segmento lumbar tratado y, al mismo tiempo, minimiza el riesgo de extrusión del implante, uno de los factores clave en el éxito de este tipo de implantes y donde diseños anteriores han fracasado.

Evaluación mecánica virtual de una prótesis de disco personalizada mediante un modelo de elementos finitos paramétrico que reproduce la anatomía de la columna lumbar del paciente.

Fuente Bibliográfica 18


La sra. Scheuermann, que fue diagnosticada con un trastorno degenerativo del cerebro hace 13 años, dijo que no había sido capaz de levantar o mover cualquier cosa por una década. "Es tan cool... No es una cuestión de pensar en qué dirección ya, es sólo una cuestión de pensar, Yo quiero hacer eso '", dijo a una conferencia de prensa. Los expertos lo llaman un gran paso adelante para prótesis controladas directamente por el cerebro. Otros sistemas ya han permitido a los pacientes paralizados que escribir o escribir en mano alzada con sólo pensar en las cartas que quieren. En el mes pasado, investigadores de Suiza también utilizan electrodos implantados directamente en la retina para que un paciente ciego a leer. El desarrollo de interfaces cerebro-máquina se está moviendo rápidamente, y los científicos predicen que la tecnología podría utilizarse para evitar daños en los nervios y volver a despertar propios músculos paralizados de una persona.

Christian Jiménez

Los avances tecnológicos han impresionado continuamente al público, sin embargo, algunas de estas progresiones más recientes superan las expectativas actuales. Andrew Schwartz, profesor y neurocientífico de la Universidad de Pittsburg, ha desarrollado un brazo robótico controlado completamente por la mente. El primer usuario humano era una mujer llamada Jan Scheuermann, que es un tetrapléjica.

Jan Scheuermann, que tiene tetraplejia, trae una barra de chocolate a la boca usando un brazo robot guió con sus pensamientos.

19


Este brazo, creado por el Dr. Schwartz tiene todas las capacidades de un brazo humano. Se puede mover en todas las direcciones, los dedos pueden moverse e incluso pueden enviar mensajes al cerebro que describe la sensación del objeto que está tocando. Cuando se utiliza el brazo, Scheuermann puede recoger objetos, dar la mano y ejercicios prácticos para ajustar el brazo. Desafortunadamente, a fin de que el brazo deba ser totalmente operativo por la mente, uno debe someterse a una cirugía y tener chips electrónicos insertados en el cerebro. A pesar de que es arriesgado, la operación es a menudo un éxito. La conexión entre el brazo y el cerebro es similar a un conexión en un toma corriente. Los pacientes como Scheuermann tienen pequeños archivos adjuntos en la parte superior de su cráneo, que están conectados a un cable que envía señales al brazo. A pesar de este avance ya ha sorprendido a la comunidad médica, los desarrolladores tienen grandes planes para el futuro. Diseños similares podrían crear exoesqueletos que permiten parapléjicos y tetrapléjicos a caminar, o permiten a las personas ciegas a leer o incluso tratan a los que han sufrido derrames cerebrales u otros daños en los nervios. A pesar de los beneficios de este tipo de innovaciones, hay controversia en el aspecto ético. A algunos les preocupa el uso potencial de estos desarrollos en las personas sanas para las competiciones atléticas o el aumento de las capacidades de las cuestiones académicas. Sin embargo, esta investigación sigue madurando y puede resultar en la atención preventiva de la enfermedad o lesión grave.

Jan Scheuermann saludando al Dr. Schwartz, verificando así los movimientos del brazo mecánico.

Fuente Bibliográfica 20


La revista The Lancet publica hoy un artículo que recoge 12 casos, tres de los cuales fueron realizados por el equipo de trasplante pulmonar del hospital madrileño. Fue en uno de estos casos en el que se consiguió mantener unos pulmones durante ese periodo de tiempo. La reducción en el riesgo se consigue gracias a un sistema denominado Sistema de Cuidado de Órganos portátil (OCS). Se trata de una máquina en la que se introducen los pulmones nada más ser extraídos del cuerpo del donante. Los pulmones funcionan a temperatura corporal, mediante un respirador y una bomba que impulsa una solución de preservación mezclada con sangre. Esto consigue trasladar los pulmones 'respirando', es decir, en una situación prácticamente idéntica a la que tendrían si estuvieran ya implantados en el organismo del receptor. Tal y como explica Javier Moradiellos, cirujano torácico del Puerta del Hierro y coautor del artículo, “estos órganos provenían de un donante de las Islas Canarias y fueron implantados con éxito a un paciente en Madrid. Es el primer caso registrado de implante de unos pulmones que han permanecido tanto tiempo fuera del cuerpo conectados a un sistema de perfusión exvivo”.

Marjorie Víquez

Un equipo internacional de investigadores, liderados por expertos del Hospital Universitario Puerta de Hierro Majadahonda de Madrid, han conseguido trasplantar con éxito unos pulmones tras 10 horas en el sistema de perfusión ex vivo pulmonar portátil (PEPP).

21


La técnica acorta distancias El sistema PEPP-OCS consigue minimizar el riesgo de deterioro de los pulmones durante el transporte desde el hospital de origen donde se encuentra el donante hasta el hospital receptor donde serán implantados.

Gracias a esta técnica, el tiempo de isquemia –preservación en frío del órgano– casi desaparece, y con él, los riesgos de que el órgano sufra daños durante su traslado. Además, una ventaja adicional es la de aumentar la calidad de los pulmones que se trasplanten ya que los órganos pueden evaluarse exhaustivamente antes de ser implantados. Asimismo, órganos que en principio eran desechados por encontrarse excesivamente lejos del hospital donde se encontraba el receptor –por ejemplo, las Islas Canarias o el resto de Europa–, podrán empezar a utilizarse y beneficiar a más pacientes.

Fuente Bibliográfica 22


Celia Yau

El sistema OEP estudia la mecánica de la respiración mediante el registro de los movimientos de la región torácico-abdominal. Cámaras de TV especialmente diseñadas son capaces de determinar con exactitud la posición tridimensional de los marcadores reflectantes colocados en el tórax y abdomen. Mediante el uso de algoritmos avanzados, el sistema proporciona una medida fiable del volumen de la pared torácica y las variaciones durante la respiración. El Sistema OEP es una tecnología innovadora que permite la adquisición de datos únicos mediante:  La medida exacta de los parámetros ventilatorios sin coacciones rígidas posturales y sin la necesidad de boquillas y clips de nariz.  Las medidas continuas y prolongadas en cada ciclo respiratorio de variaciones de volumen absoluto pulmonar, permitiendo la cuantificación continua de hiperinsuflación dinámica sin requerir maniobras respiratorias y sin problemas relevantes de flujo.  Las medidas exactas de las contribuciones de los compartimentos en la respiración (p.ej., caja torácica superior e inferior y abdomen, lado derecho e izquierdo del tórax). Esto permite la cuantificación de las distorsiones de la pared torácica y de las fases de distorsión entre compartimentos. Al ser un sistema no invasivo, el OEP vence las restricciones de las técnicas normalmente usadas para la evaluación de la ventilación pulmonar y, por lo tanto, puede ser usada en diferentes posiciones (sentado, caminando, supina, prona) y puede ser aplicada durante situaciones de descanso, ejercicio, sueño, ventilación mecánica, en niños, con estímulo funcional eléctrico, en la fonación, en el canto, en la utilización de instrumentos de viento y en oscilaciones forzadas.

23


Características • Detallado: El Sistema OEP proporciona una medida fiable de los diferentes compartimentos de la región torácico-abdominal (caja torácica pulmonar, caja torácica abdominal, abdomen, divididos en sus partes derecha e izquierda). Los compartimentos pueden ser también definidos por el usuario haciendo posible el desarrollo de estudios de cinemática respiratoria. • No invasivo: Sistema OEP no requiere ningún sistema de conexión con el paciente, como boquillas o máscaras faciales que podrían reducir la movilidad del paciente alterando los patrones naturales de la mecánica respiratoria o introducir espacios muertos adicionales, durante el estudio. • Para pacientes que no cooperan: No se requiere la cooperación activa del paciente, como en los casos de pacientes en unidades de cuidados intensivos, donde el paciente está sedado, durmiendo; o cuando el paciente es un niño. • Adquisiciones prolongadas: Es el sistema adecuado para realizar adquisiciones prolongadas de medidas sin influencia de factores ambientales (temperatura, humedad y composición gaseosa). • Integrado: El Pletismógrafo Optoelectrónico puede ser combinado con otros datos como flujos, presiones, concentraciones gaseosas, EMG, ultrasonografías, hemodinámicas, sonidos, etc. Por ejemplo, la combinación de los volúmenes obtenidos con el Sistema OEP con las presiones esofágica y gástrica hace posible el estudio de la dinámica y la energética de los músculos que intervienen en el proceso respiratorio. Asimismo, la combinación con medidas de flujo, permite calcular el volumen de los intercambios de sangre desde el tórax hasta las extremidades y viceversa.

Fuente Bibliográfica 24


Sofía Rodríguez

Una de las técnicas más empleadas para la conservación de alimentos ha sido el procesado por calor, que permite un aumento de la vida útil de los alimentos procesados aunque puede modificar en gran medida las propiedades nutricionales y los atributos sensoriales del producto. Estas limitaciones se han intentado superar con aditivos químicos y con el procesado higiénico en la preparación y acabado de los productos alimentarios. El procesado ideal sería aquel que desactivara los microorganismos, ralentizando el deterioro causado por las enzimas, sin alterar de manera negativa los atributos de calidad de los alimentos. El desarrollo tecnológico, junto a la creciente demanda por parte de los consumidores de alimentos más seguros y mínimamente procesados, ha estimulado el interés por la utilización de métodos no térmicos para la conservación de alimentos. La aplicación de altas presiones hidrostáticas (AAPH) es un proceso físico que se realiza tanto a temperatura ambiente como con temperaturas inferiores a ésta, y que se puede utilizar para desactivar ciertos microorganismos presentes en los alimentos. Es una tecnología que permite una reducción del consumo de energía, un aumento de la vida útil de los alimentos y puede evitar los efectos negativos del tratamiento térmico.

25


La AAPH también genera una percepción positiva por los consumidores al no ser una tecnología del todo desconocida para ellos. El efecto de la AAPH en los alimentos se basa en los principios de Le Chatelier y la isostaticidad. El principio de Le Chatelier expone que cualquier fenómeno en el que se dé una disminución del volumen de un gas, se ve incrementado por un aumento de la presión y viceversa. El principio de la isostaticidad dice que la presión se transmite de manera uniforme a través de todo el sistema físico tratado, sin importar el tamaño y la geometría del sistema.

Las partes principales de un sistema de presurización son: un recipiente de soportar la presión, un fluido para transmitir la presión, un sistema generador de presión, un dispositivo de control de temperatura y el sistema de entrada de productos. La inactivación microbiana es el principal objetivo de la AAPH y desde el punto de vista microbiológico, se considera que la membrana celular es la más afectada por ésta. Se acepta de forma general que la pérdida de constituyentes intracelulares a través de la membrana celular es la primera razón para la inactivación inducida por la alta presión. También se da la inhibición de las reacciones que producen energía y la desnaturalización de las enzimas clave para su supervivencia. Esta técnica es bastante efectiva en mohos y levaduras y otros microorganismos aunque no tanto así con las esporas.

Algunos productos que han sido beneficiados por esta técnica son los productos cárnicos, procesados de fruta, lácteos, zumos, platos preparados, entre otros.

Fuente Bibliográfica 26


Se llama “un nuevo paradigma” hacer frente a la epidemia de la hipertensión en todo el mundo, esta idea de sus raíces podría dar esperanza a los millones de personas que actualmente aflige. La hipertensión ocurre cuando la fuerza de la sangre contra las paredes de los vasos crece lo suficientemente fuerte como para causar problemas tales como ataque al corazón, accidente cerebrovascular y enfermedad cardiaca o renal. El corazón bombea con dificultad, ya menudo la hormona angiotensina II (Ang II) consigue la cocción a presión mediante la activación de las células nerviosas que contraen los vasos sanguíneos. “Sabíamos que el sistema nervioso central organiza este proceso, y ahora . hemos encontrado el conductor”, dijo Robin Davisson, el profesor . Andrew Dickson White de Fisiología Molecular

Paola Samaniego

Cuando el corazón trabaja demasiado, el cerebro puede ser el culpable, según un nuevo estudio de Cornell que está cambiando cómo los científicos observan la presión arterial alta (hipertensión). El estudio, publicado en la revista Journal of Clinical Investigation, en noviembre, deja huellas de la hipertensión a una fuente celular recién descubierta en el cerebro, y muestra que los tratamientos dirigidos a esta área pueden revertir la enfermedad.

27


Si algo va mal en una celda, el ER activa los procesos de adaptación al estrés. Estrés a largo plazo ER puede causar una enfermedad crónica, y los factores de estrés que varios ER responde que se han conectado a la hipertensión. Laboratorio Davisson encontró que los altos niveles de AngII poner la tensión en la sala de emergencias, el cual responde mediante la activación de la cascada de señales neuronales y hormonales que comienzan hipertensión. Pero ER no es cualquier célula que puede llevar a cabo esta compleja orquesta. Aquellos que pueden desencadenar la cascada de señales se agrupan cerca de la parte inferior del cerebro en una estructura gatelike llamado el órgano subfornical (SFO). A diferencia de la mayor parte del cerebro, la SFO cuelga fuera de una barrera protectora que impide que la mayoría de las partículas circulantes entren en el cerebro. La OFS puede interactuar con las partículas como AngII que son demasiado grandes para atravesar y también puede comunicarse con cámaras internas del cerebro. Esta es una buena noticia para el desarrollo de terapias, porque la OFS se encuentra fuera de la barrera, se puede llegar a través de estas rutas normales de tratamiento como pastillas o inyecciones en lugar de los procedimientos más riesgosos del cerebro. Laboratorio Davisson mostraron que los tratamientos que inhiben el estrés ER en la OFS puede detener completamente AngII basada en la hipertensión y la presión arterial a niveles normales. “Nuestro trabajo proporciona la primera evidencia de que los altos niveles de estrés causa AngII ER en la OFS, que este hipertensión causas, y que podemos hacer algo al respecto”, dijo Davisson. “Este hallazgo también puede sugerir un papel para el estrés ER en los tipos de hipertensión que no implican AngII, como algunas formas espontáneas o genética” *Explicación: La sangre es un fluido real, de tipo no newtoniano y la hidrostática estudia los fluidos y por ende esto incluye a la sangre, y esta no es lineal, es un pseudoplástico, es decir que en algún momento puede cambiar su viscosidad, la sangre tiene movimiento pulsátil, porque el corazón se contrae a a intervalo de tiempo, cada vez que el volumen sistólico sale, distiende la pared y se crea una onda de pulso, la sangre ejerce la presión hacia el vaso.

Fuente Bibliográfica 28


Ahora, una nueva etapa se dedica a las aplicaciones biológicas, como:

1. Aplicación a los alimentos en relación a su Alerginicidad y digestibilidad Se ha propuesto que la proteólisis parcial a alta presión de productos lácteos aumenta su digestibilidad y reduce su alergenicidad. Cuando la proteólisis enzimática es llevada bajo alta presión, las proteínas como la beta-lacto globulina son más susceptibles a las enzimas como pepsina, tripsina, quimo tripsina, pronasa, y termolisina, disminuyendo su alergenicidad Sin embargo se ha descubierto que la técnica no solo es limitada a productos lácteos ya que también puede reducir la actividad alergénica de alimentos en general, como el arroz, en este caso, las células del endospermo presentes en los granos de arroz se destruyen parcialmente bajo alta presión, la cual conduce a la liberación de los principales alérgenos de arroz

Jaime Cham

En comparación a la temperatura, el desarrollo de la presión como una herramienta en el campo de la investigación es reciente. Después de varios desarrollos en física y química durante la primera mitad del siglo XX, alta presión hidrostática eran aplicada en el procesamiento de alimentos, especialmente en Japón. El objetivo principal era para lograr la descontaminación de alimentos conservando sus propiedades organolépticas.

2. Desinfectante de biomateriales La aplicación de presión a biomateriales como prótesis, placas óseas, ligamentos artificiales podría ser utilizada como desinfectante. Por ejemplo, se demostró que un tratamiento de presión de 300 MPa a 4 ° C durante 30 minutos es suficiente para esterilizar los tornillos estándar contaminados con S. aereus. Sustitutos materiales de fosfato de calcio de los huesos también pueden ser esterilizados por alta presión a través de un tratamiento de dos ciclos, espaciados a un intervalo de 24 horas, de 5 minutos cada uno a 140 MPa.

29


3. Controlador de actividad enzimática La presión hidrostática puede regular la actividad enzimática, por ejemplo la termolisina en 200 MPa muestra un aumento de actividad 45 veces más en comparación con presión ambiental, por el contrario un presión por encima de 200 MPa no hay actividad enzimática debido a la deformación estructural de la enzima. Pero se ha determinado que una combinación de calor leve más presión podría definir nuevos parámetros en la optimización de las enzimas dando como resultado mejor velocidad de reacción y mayor producción de productos, por ejemplo la actividad enzimática de alfaquimiotripsina a 50 º C se incrementa en 30 veces cuando se lleva a cabo a una presión de 360 Mpa.

4. Potencial Desarrollo de vacunas A menudo se planteó la hipótesis de que los agentes patógenos inactivadas por presión serían capaces de estimular el sistema inmunológico y por lo tanto podría ser utilizado como una vacuna, ya que las proteínas sometidas a alta presión produce un desplegamiento estructural, desenmascarando sitios antigénicos y por lo tanto incrementando las propiedades inmunogénicas Entre estas vacunas se encuentran las vacunas terapéuticas contra el cáncer basadas en células cancerígenas, por ejemplo Las células EL-4-leukemia, tratados en condiciones de 120-150 MPa en 15 min son más inmunogénicas. Ratones inyectados con esas células mostraron retrasos en el desarrollo de tumor y una mayor tasa de supervivencia. En conclusión la presión hidrostática puede ser una herramienta útil tanto en la investigación básica o en el desarrollo de nuevas aplicaciones biotecnológicas. Ha demostrado ser útil en la comprensión de algunos procesos biológicos, tales como plegamiento de proteínas. Además, el procesamiento a alta presión muestra un gran potencial para los diferentes sectores industriales, desde alimentos hasta desarrollo de vacunas

Fuente Bibliográfica 30


El resonador óptico permite extraer la energía creada en la cavidad amplificadora, el espejo 100% reflejante impide que los fotones se escapen y el espejo 90% reflejante permite que 10% de los fotones sean transmitidos fuera del resonador óptico en forma de un haz de luz intenso, monocromático, coherente y altamente direccional, mejor conocido como luz láser. En el siguiente artículo presento el primer oscilador láser construido utilizando solamente óptica comercial, manufacturado por Rosa Weigand, Miguel Miranda, y Helder Crespo en España. Los osciladores láser de dos ciclos poseen un espectro ancho de más de una octava y emisión de pulsos de 1.3 nJ de energía con duración de 5.9 femtosegundos. Utilizan espejos especiales llamados “Double-Chirped Mirror” o DCM, que recién han comenzado a ser comercializados por ciertas empresas. Tienen una frecuencia de repetición de aproximadamente 80-100n MHz, por eso la cavidad de amplificación debe ser larga, basándose en la ecuación f= c/2L (donde f es la frecuencia de repetición, c es la velocidad de la luz y L es la longitud de la cavidad. El láser utilizado emite a 532 nm y con 5.5 W de potencia. El haz del sistema de bombeo se enfoca con una lente de 5cm de .distancia focal. Se utilizaron 4 DCM y 2 lentes de subcavidad en la . disposición mostrada en la figura de la siguiente página.

Alessandra Castillo

Un oscilador óptico u oscilador láser es una cavidad amplificadora de fotones con un sistema de bombeo a la que se le colocan dos espejos, uno en cada extremo. Un espejo posee una superficie casi 100% reflejante y el otro una superficie 90% reflejante. A estos espejos se les llama resonador óptico.

31


El láser resultado del trabajo de estos tres científicos proporciona pulsos separados 12.8 ns, lo que significa que tiene una frecuencia de repetición de 78 MHz, tiene una emisión de energía de 1.3 nJ por pulso con duración de 6 fs, el oscilador funciona de manera estable. Se utilizo un analizador óptico que operaba entre 600 y 1200 nm para medir el espectro del haz de luz, los resultados fueron que el espectro abarcaba de 650 a 1050 nm, lo que significa que se extiende sobre una zona espectral de una octava. El laser puede estabilizarse sin necesidad de una fibra fotónica. Las características temporales (duración de los pulsos) fueron medidas con una nueva técnica llamada d-scan, la cual es muy buena para medir pulsos muy cortos con espectros complejos, como es el caso de éste láser.

En conclusión, Rosa Weigand (del Departamento de Óptica, Facultad de Ciencias Físicas, Universidad Complutense de Madrid), Miguel Miranda (IFIMUP-IN e Departamento de Física y Astronomía, Facultad de Ciencias, Universidad de Porto, Portugal; Department of Physics, Lund University, Suecia) y Helder Crespo (IFIMUP-IN e Departamento de Física y Astronomía, Facultad de Ciencias, Universidad de Porto, Portugal), fueron exitosos en la construcción del primer oscilador láser de España con sólo materiales de óptica comercial.

Fuente Bibliográfica 32


La aprobación de la FDA supuso que Argus II estaba finalmente a disposición de la sociedad, o al menos de los pacientes que lo necesitaran. El sistema les sirve para poder ayudarles a detectar diferencias entre luz y oscuridad, consiguiendo que identifiquen el movimiento y la localización de objetos.

Lemniz González

Hace tan solo unos meses, la Food and Drug Administration de los Estados Unidos, más conocida como FDA, aprobaba la utilización de un dispositivo médico que volvía a despertar las ilusiones y esperanzas de aquellas personas que por una causa u otra hubieran perdido la visión. El sistema, denominado Argus II, había sido producido por la compañía Second Sight Medical Products, con el objetivo de tratar a pacientes que sufrieran de una enfermedad conocida como retinitis pigmentaria. Más que un síndrome determinado, esta patología puede ser considerada como un abanico de males oculares de tipo crónico, cuyo origen es genético. Se caracteriza por la degeneración progresiva de la retina, lo que supone la pérdida gradual de los conos y bastones, las principales células que forman parte de esta estructura. El dispositivo, según el propio informe de la FDA publicado en febrero, cuando dieron su aprobación inicial, consiste en unas gafas en las que va acoplada una videocámara. Esta capta las imágenes, que luego son convertidas en forma de señal eléctrica, que estimulará la retina de los pacientes que usen este dispositivo. El sistema, por lo tanto, está formado por tres partes: 1. Un minúsculo dispositivo electrónico insertado en el ojo 2. Una pequeña videocámara acoplada a las gafas 3. Una unidad de procesamiento del vídeo que convierte las imágenes grabadas en señales eléctricas que estimularán las retinas de los pacientes

33


Argus II comenzará a ser probado como el primer ojo biónico del mundo en 12 centros hospitalarios seleccionados de los Estados Unidos, entre los que se encuentra el University Hospitals Eye Institute. Estos reclutarán a los primeros pacientes que recibirán esta prótesis biónica que nos acerca, como decíamos hace un momento, al ser humano-ciborg que soñó Asimov.

Décadas de investigación que se hacen por fin realidad Llegar al punto en el que estamos, donde Argus II por fin comienza a ser utilizado como dispositivo para tratar la retinitis pigmentaria, no ha sido fácil. Tras más de dos décadas de investigación, el primer ojo biónico llega a los primeros pacientes, no sin antes haber sido un ejemplo de colaboración y trabajo entre el sector público y el privado. Para desarrollar este dispositivo, y conseguir la aprobación final de la FDA, Second Sight realizó tres ensayos clínicos, que demostraron su eficacia e inocuidad. Además, la administración pública norteamericana también creyó desde el primer momento en este nuevo avance de la biónica, al invertir más de 100 millones de dólares procedentes del National Eye Institute, el Department of Energy, y la National Science Foundation. A nivel privado, la inversión también ha rondado los 100 millones de dólares. Argus II es el resultado de los trabajos de investigación en el sector público y privado de la biónica. Esta ciencia, o más bien, aplicación de la ciencia, que nos recuerda en parte a los avances y diseños asombrosos de Leonardo Da Vinci, está viendo cómo, después de muchos años, dan los frutos. Y es que el mismo Da Vinci, fijándose en los organismos vivos, construyó máquinas y sistemas de ingeniería realmente increíbles. Unos avances que, sin duda, redundarán en el beneficio y la calidad de vida de los pacientes, como por ejemplo de aquellos afectados por retinitis pigmentaria. Aunque Argus II no les devolverá la visión por completo, lo cierto es que sí facilitará un poco más su rutina y hábitos diarios. Y sólo ese pequeño paso, por minúsculo que sea, ya es un avance importantísimo de la ciencia y la tecnología.

Fuente Bibliográfica

34


Joritzel Quijano

La retina de los vertebrados es un tejido sensible a la luz, situado en la superficie interior del ojo. Es similar a una tela donde se proyectan las imágenes. La luz que incide en la retina desencadena una serie de fenómenos químicos y eléctricos que finalmente se traducen en impulsos nerviosos que son enviados hacia el cerebro por el nervio óptico. La retina tiene una estructura compleja. Está formada básicamente por varias capas de neuronas interconectadas mediante sinapsis. Las únicas células sensibles directamente a la luz son los conos y los bastones. La retina humana contiene 6.5 millones de conos y 120 millones de bastones. Los bastones funcionan principalmente en condiciones de baja luminosidad y proporcionan la visión en blanco y negro, los conos sin embargo están adaptados a las situaciones de mucha luminosidad y proporcionan la visión en color

La empresa nipona NEC ha desarrollado unas gafas que permiten traducir cualquier idioma foráneo a la lengua materna del usuario y proyectarlo directamente en su retina. El dispositivo, dicen sus creadores, permitiría hablar con cualquier persona sin necesidad de aprender su idioma y sin la participación de un intérprete, en tiempo real, haciendo que la comunicación sea más fluida.

35


Ejemplo de las Gafas Poliglotas

El equipo de NEC cuenta con un proyector y un micrófono adheridos a las gafas, además de un pequeño ordenador que puede ser transportado en un bolsillo. Según el fabricante, esta es la primera vez que se aplica tecnología para proyectar imágenes enviando luz directamente a la retina. El proceso consiste en que a medida que nos hablan se va proyectando la traducción en las lentes de nuestras gafas. En ausencia de una pantalla que leer activamente, las gafas permiten que los interlocutores se miren durante la conversación.

Fuente Bibliográfica  

36


Los termómetros infrarrojos funcionan de acuerdo al fenómeno físico por el cual los cuerpos calientes emiten calor en forma de radiación electromagnética. La cantidad de energía emitida es proporcional a la temperatura y la emisividad, que es la proporción de radiación térmica emitida por una superficie u objeto, y que puede tener un valor de 0 como un espejo brillante, reflector perfecto a 1,0 como un radiador de Planck, emisor perfecto. Todo cuerpo por encima del cero absoluto emite radiación.

Karla Escobar

La Corporación Fraden encabezada por el Dr. Jacobo Fraden a quien se le acredita la tecnología del termómetro infrarrojo para uso médico, ha presentado un nuevo módulo de infrarrojo que podrá adaptarse a la cámara de los smartphones para tomar la temperatura de la superficie de cualquier objeto, y pueda ser utilizado en diversos campos como en la cocina, baño, la construcción, la industria y por supuesto el médico.

En resumen los termómetros infrarrojos utilizan una serie de lentes para recoger la luz infrarroja emitida por el objeto enfocándola hacia un detector que convierte esta energía en una señal eléctrica para su lectura.

37


La cámara de infrarrojos del dispositivo de Fraden mide 5 x 5 x 5 mm de tamaño, por lo que es posible su uso en los teléfonos inteligentes, tiene un rango de -30 ° C a 204 ° C, suficiente para comprobar desde si el niño tiene fiebre hasta saber si la cocción del pavo es la adecuada y todo esto con una respuesta en menos de un segundo. “La mayoría de los modelos de teléfonos inteligentes difieren poco unas de otras, con sólo pequeños cambios evolutivos. El proveedor con funciones innovadoras para el uso cotidiano mundo real, como la lectura de la temperatura de un niño, puede distanciarse de sus competidores. Creemos que esta nueva patente puede ser un diferenciador competitivo importante para un fabricante de teléfonos inteligentes”, dijo el Dr. Fraden.

Este no es el primer dispositivo infrarrojo para tomar la temperatura desde un smartphone, anteriormente habíamos hablado del Thermodock el cual es un dispositivo periférico especialmente para el iPhone o el iPad que usa la misma tecnología. La diferencia es que además de ser un accesorio, tiene un costo de $96 dólares pero por las palabras del Dr. Fraden tal vez la próxima generación de smartphones ya cuente con esta tecnología de forma nativa.

Fuente Bibliográfica 38


Emiliano Bruner, responsable del Laboratorio de Paleoneurobiología del Centro Nacional de Investigación sobre la Evolución Humana (CENIEH), propone una técnica de análisis de la distribución del calor de la cavidad craneal en función de la forma del cerebro para desentrañar los mecanismos de termorregulación cerebral. El trabajo, publicado recientemente en la revista AmericanJournal of Human Biology, presenta un método de cuantificación de las diferencias entre especies, utilizando como caso-estudio humanos modernos y chimpancés mediante simulaciones numéricas y moldes endocraneales.

Ashley Pérez

El investigador del Centro Nacional de Investigación Sobre Evolución Humana de Burgos (CENIEH) Emiliano Bruner ha publicado en la revista American Journal of Human Biology un artículo en el que ofrece avances sobre los mecanismos de termorregulación del cerebro humano.

“Aunque la regulación de la temperatura cerebral dependa de muchos factores fisiológicos que no se pueden investigar en los fósiles, este método permite por lo menos analizar cómo y cuánto ha podido influir el cambio de la geometría cerebral a lo largo de la evolución humana”, afirma Bruner. A pesar de la importancia de la gestión energética del cerebro, todavía se desconocen los mecanismos de regulación de su temperatura y existen muchas discrepancias acerca de la capacidad de refrigeración selectiva del volumen cerebral.

39


Como explica Bruner, se presume que arterias y venas tienen un papel importante, pero los datos son escasos y las teorías muy especulativas, y “aunque suponemos que el sistema vascular es el componente principal responsable de la termorregulación, la geometría del cerebro también es determinante en el patrón de distribución de calor”. Anatomía digital Este problema también se ha discutido en la evolución humana y la Simulación computarizada de la relación existente entre la geometría cerebral y la termorregulación Paleoneurología, disciplina de la que Bruner es un especialista, especulando sobre los posibles cambios asociados con la encefalización de los homínidos. En los fósiles, la única información que queda sobre el cerebro es su forma geométrica, que hoy en día se puede reconstruir con técnicas de anatomía digital utilizando recursos biomédicos como la tomografía computada. Mediante simulaciones numéricas y moldes endocraneales, Bruner presenta un método de cuantificación de las diferencias entre especies, utilizando como caso-estudio humanos modernos y chimpancés. Bruner concluye que "aunque la regulación de la temperatura cerebral dependa de muchos factores fisiológicos que no se pueden investigar en los fósiles, éste método permite por lo menos analizar cómo y cuánto ha podido influir en éste proceso el cambio de la geometría cerebral a lo largo de la evolución humana".

Fuente Bibliográfica 40


Generadores termoeléctricos, que convierten la energía térmica en electricidad, se han promocionado como un "sin complicaciones" y como una alternativa ecológica a las baterías. Estos dispositivos utilizan el calor del cuerpo - o cualquier objeto con un gradiente de temperatura - como fuente de energía, y por lo tanto están libres de los costes de funcionamiento y tienen una vida útil prácticamente ilimitada. En el corazón de cada generador termoeléctrico es un arreglo de termopares que son responsables de la conversión de la energía térmica en energía eléctrica. Telururo de bismuto y sus aleaciones se utilizan comúnmente en los termopares, pero, por desgracia, estos materiales son difíciles de producir y trabajar con ellos. El proceso de fabricación también es incompatible con el óxido de arquitectura de semiconductores de metal complementario (CMOS por sus siglas en inglés) en que se basa la electrónica moderna.

Edgardo Rivas

La mayoría de los dispositivos electrónicos utilizan baterías como fuente de energía, pero para los sensores inalámbricos y los implantes médicos, un reemplazo de la batería puede ser un proceso difícil y costoso. Las baterías convencionales también producen una gran cantidad de materiales de desecho y productos químicos, por lo que una tecnología alternativa para la alimentación de los dispositivos electrónicos es muy buscada.

Jin Xie y compañeros de trabajo en el Instituto de A*STAR de Microelectronics han construido un generador termoeléctrico basado en termopares de polisilicio mediante un proceso de microfabricación que es totalmente compatible con CMOS. Los investigadores fueron capaces de fabricar el generador termoeléctrico y circuitos en un solo chip en el mismo tiempo y con el mismo material.

41


Xie y su equipo depositados polisilicio en un chip de un centímetro cuadrado por un proceso llamado deposición de vapor químico. A continuación, se secan grabada la capa de polisilicio y se implanta con fósforo y boro átomos para producir una gran variedad de más de 125.000 termopares que convierten la energía térmica en energía eléctrica. Para maximizar la eficiencia de conversión de energía, los investigadores también incorporan tres características únicas en su generador termoeléctrico. En primer lugar, se sellan los termopares entre dos cavidades de vacío para optimizar el flujo de calor. En segundo lugar, que recubren el lado frío del dispositivo con un material disipador de calor para dispersar el calor y maximizar la diferencia de temperatura, y la tercera, que incluyen una cavidad periférica para aislar el calor del sustrato de silicio circundante.

El nuevo generador termoeléctrico es compacto y barato de producir. Simulaciones y experimentos mostraron que un generador termoeléctrico experimenta una diferencia de temperatura de 5 º C genera una tensión de 16,7 voltios a una potencia de salida de 1,3 microvatios. Este nivel de eficiencia de conversión de energía es casi el doble que para los generadores termoeléctricos convencionales. "Mediante la acumulación de esta energía a través del tiempo, el generador puede ayudar a prolongar la vida de la batería y reciclar el calor residual de los dispositivos", dice Xie. Se cree que la tecnología es particularmente adecuado para dispositivos CMOS autoalimentados que tienen requisitos de bajo consumo de energía.

Fuente Bibliográfica 42


Katherine De León

Nuestra capacidad de oír se basa en las células ciliadas de la cóclea, estas pequeñas células sensoriales están ubicadas en el oído interno. Las células ciliadas son llamadas así debido a sus extensiones parecidas a pelo, denominadas estereocilios. Estos paquetes de pelos convierten las vibraciones de los sonidos en señales eléctricas que se dirigen al cerebro por medio de los nervios. Cuando las células ciliadas están dañadas ya sea por lesiones, enfermedad o por envejecimiento, una persona experimenta pérdida auditiva, a veces profunda. A pesar de que los anfibios, peces y aves pueden regenerar este tipo de células, los mamíferos no pueden hacerlo por su propia cuenta. A través de la terapia génica e investigaciones en células madres, los científicos han sido capaces de generar células ciliadas en animales de laboratorio, en ciertos casos restaurando la audición a mamíferos sordos. Estos prometedores resultados han llevado a los investigadores a preguntarse si nosotros podríamos ser capaces de regenerar nuestras propias células ciliadas. Datos Interesantes: -Más del 90 por ciento de la pérdida de audición se produce cuando se destruyen cualquiera de las células ciliadas o de las células del nervio auditivo. Los científicos creen que las células ciliadas en los mamíferos no podían ser reemplazadas si fueron heridos o destruidos. -Los primeros estudios sugirieron que cuando una célula ciliada se desarrolla, ésta inhibe a su célula vecina que, en cambio, se convierte en una célula de apoyo. Los científicos se preguntaban si las células de apoyo tendrían la capacidad de convertirse en células ciliadas si las células vecinas resultaron heridas.

43


Para probar esta teoría, los científicos destruyen las células ciliadas en el oído interno del ratón. Una fotografía mostró células de apoyo migrando a la región de células ciliadas y empezó a crecer pelo en la superficie.

Actualmente: La pérdida de audición afecta a las personas desde el nacimiento hasta la edad adulta, y hay una necesidad imperiosa de investigación para abordar el problema. El CDC estima que del dos al tres de cada 1.000 bebés nacidos en los Estados Unidos cada año tienen una pérdida auditiva detectable, que puede afectar el habla, el lenguaje y el desarrollo cognitivo.

Los científicos han hecho una serie de descubrimientos importantes sobre el crecimiento de las células ciliadas que están contribuyendo a las nuevas ideas sobre la posibilidad de regenerar las células ciliadas. Sabiendo que las células de apoyo tienen la capacidad de convertirse en células ciliadas bajo ciertas condiciones, los científicos se centraron en la identificación de moléculas específicas que pudieran estar implicadas para que una célula ciliada se convirtiera a partir de una célula de apoyo. Con el estudio de los animales experimentales, los científicos han identificado los genes que son necesarios para la formación y función de la célula ciliada. En algunos casos, encontraron que estos genes fueron similares a pesar de que procedían de diferentes animales.

Fuente Bibliográfica 44


Hoy en día, sabemos que no podemos vivir sin agua, nos compone en un 60% aproximadamente. El no tomar agua puede causarnos diversas complicaciones como la deshidratación y piedras en los riñones. Pero, debido a nuestros estilos de vida, las altas contaminaciones que han provocado el desarrollo tanto como por causas naturales, no debemos de tomar el agua así mismo como lo encontramos, ya sea en un lago o pozo. Para evitar consecuencias por ingestión del agua en este estado, existen las plantas potabilizadoras. Normalmente, Recientemente, se ha desarrollado un nuevo método para la descontaminación de las aguas para el consumo.

El proceso de potabilización consta de los principales pasos: - Clarificación: separación sólido-líquido - Coagulación: desestabilización - Floculación: las partículas se aglomeran, cambiando el pH, temperatura, etc. - Precipitación o Sedimentación: separación del floculo por gravedad hasta un tanque sedimentador. - Filtración: el agua pasa por un centro poroso. - Desinfección: destrucción de patógenos mediante luz solar, filtración en capas terrestres, calor, rayos ultravioleta, cloro, yodo, bromo, ozono, entre otros métodos.

Rebecca Serracín

Muchos filósofos a lo largo de la historia han considerado al agua como la fuente de vida. La concepción del agua de Tales de Mileto- uno de los primeros filósofos- era que el origen de las cosas era el agua, que todo estaba lleno de dioses “gérmenes de vida”. Más adelante, a mediados del siglo XX, aparece Oparín y su teoría quimiosintética con su “caldo primitivo”: metano, hidrógeno, nitrógeno, oxígeno y agua, el más abundante de todos.

45


La clarificación y filtración, en resumen, se encargan de disminuir la concentración bacteriana; pero, en la desinfección debe de ser la parte más eficaz. En cambio, muchos de los métodos utilizados normalmente, son contaminantes del medio ambiente. Debido a este problema, se ha desarrollado otra vía más ecológica: la utilización de utlrasonidos. En México, el Licenciado en Química y Magister en Química, Luis A. Kieffer, del Grupo de Química Ambiental del INTEC (Instituto de Desarrollo Tecnológico para la Industria Química- CONICET – UNL), investiga el uso de esta nueva técnica, y así modificar las reacciones químicas. Este nuevo método de desinfección consiste en la utilización de ondas con alta frecuencia (superiores a 18 Khertz), las cuales el oído humano es incapaz de captarlo. Esta frecuencia provoca el colapso y cavitación de microburbujas. La cavitación consiste en la compresión y expansión del fluido, ocurriendo que alcance la presión de vapor del mismo, así las moléculas cambian a este estado, “burbujas”. Estas burbujas se trasladan a las zonas de mayor presión y regresan a estado líquido de forma abrupta, a esto se le llama implosión. Al implotar las burbujas, las ondas viajan en el líquido y chocan con los patógenos y/o contaminantes, y los elimina al liberar gran cantidad de energía térmica y de presión. El ultrasonido es fuente de radicales. Aunque este método no puede destruir partículas grandes, muchos antecedentes demuestran que las ondas ultrasónicas pueden convertir contaminantes en compuestos orgánicos inocuos o al menos disminuir su peligro.

Fuente Bibliográfica  

46


La ciencia ha buscado incansablemente una cura para este letal padecimiento pero no se ha logrado nada concreto y totalmente eficiente. Sin embargo, existen métodos que son utilizados con el fin de evitar que la enfermedad se desarrolle y complique, evitando así el descontrol de los tumores cancerígenos. Es así como surgen nuevas tecnologías que ayudan al diagnóstico y facilitan el tratamiento de esta enfermedad, siendo una de éstas la técnica conocida como Supersonic Shear Imaging (SSI). La misma fue desarrollada por el egresado en Ingeniería Electrónica de la Universidad del Valle y Doctor en Física del Ultrasonido de la Universidad Paris Diderot (Paris VII), Heldmuth Latorre Ossa, quien tenía la inquietud por desarrollar una tecnología que aportara al avance de la medicina. La funcionalidad de la técnica Supersonic Shear Imaging está fundamentada en una propiedad intrínseca de los tejidos: la elasticidad, la cual es cuantificada en tiempo real mediante el uso de un ultrasonido que monitorea el progreso de tratamientos aplicados para combatir el cáncer, como lo es la quimioterapia y la radioterapia, de forma económica y rápida, brindando así información sustancial del estado y dureza del tejido.

Ninoshka Véliz

Uno de los graves problemas de salud que enfrenta la sociedad en la actualidad es el progresivo desarrollo de las llamadas Enfermedades Crónicas No Transmisibles, las cuales han llegado a ser las principales causas de muertes a nivel mundial. El cáncer es una de ellas. El cáncer consiste en la proliferación desmedida de células cuyas capacidades originales se pierden, al adquirir otras que no le corresponden y que son desfavorables para el organismo, pues llegan al punto de formar tumores que invaden a los tejidos y órganos circundantes, y en casos más graves, terminan diseminándose por todo el cuerpo.

47


¿Pero cómo funciona exactamente? Mediante el uso de haces de ultrasonidos, se pueden generar remotamente fuentes de vibración mecánicas radiantes de baja frecuencia, que envían ondas hacia dentro de los tejidos, moviéndose a una velocidad supersónica. En analogía con el "boom sónico" (creado por un avión supersónico), las ondas resultantes crean dos intensas ondas de corte plano. Estas ondas se propagan a través del medio y se distorsionan progresivamente por la heterogeneidad del tejido. Debido a que los tumores cancerígenos por lo general se hacen más duros a medida que avanza la enfermedad, la técnica permitiría detectar cuándo hay zonas afectadas o si el tratamiento anticáncer está siendo efectivo. Un prototipo de escáner ultrarrápido es capaz de generar tanto esta fuente y la imagen (aproximadamente 5000 cuadros / s) de la propagación de las ondas de corte resultantes. Luego, mediante el uso de algoritmos de inversión, la elasticidad del medio puede ser mapeada cuantitativamente. Dicho mapeo permite obtener la elasticidad del tejido en menos de 20 ms, incluso en medios fuertemente viscosos como el de una mama.

De esta manera la imagen final del ultrasonido en la pantalla muestra en colores la elasticidad del área inspeccionada. Latorre probó su nueva técnica en un grupo de 23 mujeres quienes se sometieron a quimioterapia por cáncer de mama. Como resultados, el científico logró caracterizar los tejidos biológicos y evaluar los cambios en la elasticidad del tejido afectado por el cáncer durante el tratamiento de quimioterapia.

Fuente Bibliográfica

48


Como muchas personas, la Dra. Davis simplemente no creía en la posibilidad de que los teléfonos celulares fueran peligrosos hasta que lo estudió. Y ahora, con la evidencia toxicológica y epidemiológica que respaldan sus afirmaciones, está tratando de hacer que el mundo entienda que la radiación de los celulares no sólo es peligrosa, sino que puede ser mortal. La Dra. Davis explica cómo el impacto biológico de su teléfono celular no está relacionado con su poder, ya que en realidad es bastante débil, sino más bien con la naturaleza errática de su señal y su capacidad de alterar la resonancia e interferir con la reparación del ADN. En la actualidad se cree que esta es la teoría más plausible para la comprensión de la amplia gama de impactos a la salud descubiertos hasta ahora, los cuales incluyen al cáncer.

Betsy Bonilla

La Dra. Devra Davis, autora del libro llamado, “The Secret History of the War on Cancer”, ha estado investigado los peligros de las radiaciones que emanan de los teléfonos celulares.

49


Por qué es una mala idea ponerse el teléfono celular en cualquier parte del cuerpo… Independientemente del área expuesta a la continua radiación emitida por su teléfono celular, existe el potencial de daño, a pesar de que ciertas áreas claramente son más vulnerables que otras. Por ejemplo, la investigación publicada en el 2009 mostró evidencia acerca de que ponerse el celular en la cadera podría debilitar la pelvis ii . Por medio de la técnica de los rayos-X utilizada en el diagnóstico y monitoreo de los pacientes con osteoporosis, los investigadores midieron la densidad ósea pélvica en 150 hombres que por lo regular se ponían su teléfono celular en el cinturón pegado a la cadera. Los hombres que llevaban el celular por un promedio de 15 horas al día y lo habían hecho por un promedio de seis años. Los investigadores descubrieron que la densidad mineral ósea había disminuido del lado de la pelvis en donde se ponían el celular, aumentando la posibilidad de que la densidad ósea podría verse afectada de manera negativa por los campos electromagnéticos emitidos por los celulares. Es importante darse cuenta que mientras su celular se encuentra encendido, emite radiación de manera intermitente, incluso aunque usted no esté utilizándolo. Así que ponerse el celular en la cintura durante 15 horas al día le dará a esa área de su cuerpo una continua exposición a la radiación. Puede ayudar a minimizar la exposición a la radiación de los celulares y otros dispositivos móviles siguiendo los siguientes consejo:

 Reduzca el uso de teléfonos celulares.  Mantenga su celular alejado de su cuerpo cuando se encuentre encendido.  Utilice un teléfono fijo en la casa y el trabajo.

Fuente Bibliográfica 50


Giniva Castro

La radioterapia contra el cáncer está experimentando una revolución de la mano de una nueva generación de aceleradores lineales que no sólo suponen una rebaja radical en los tiempos de tratamiento, sino que permiten tratar tumores en movimiento con una precisión desconocida hasta ahora y abren la puerta a que en el futuro inmediato, algunos tumores puedan tratarse con una única sesión de irradiación. Además, esta nueva tecnología permite también el tratamiento de enfermos con metástasis en fases iniciales con expectativas de curación, una posibilidad inabordable hasta ahora por la oncología radioterápica. Los especialistas de la Unidad de Oncología Radioterápica de la Clínica La Luz, encabezados por el doctor Felipe Calvo, detallaron en Madrid los últimos resultados obtenidos con esta nueva tecnología, cuyo principal exponente es el acelerador de partículas True Beam, que acaba de llegar a Madrid de la mano de la Clínica La Luz, que se ha convertido así en el primer centro de la sanidad regional pública y privada en instalar uno de estas plataformas. El True Beam de La Luz empezará a tratar a sus primeros pacientes a finales de este mes de mayo. El sistema True Beam®, fabricado por la compañía estadounidense Varian Medical Systems, tiene aplicación en prácticamente todos los tipos de cáncer, aunque su papel es especialmente relevante en los tumores de pulmón, mama, próstata y cabeza y cuello, entre otros, tal como explicó el doctor Calvo en la rueda de prensa. Según el doctor Calvo, los distintos estudios realizados hasta el momento demuestran, entre otras cosas, que en cáncer de próstata y de mama este nuevo sistema iguala la supervivencia de tratamientos más caros y prolongados; mientras que en cáncer de pulmón controla el 80% de lesiones primarias inoperables por criterios anestésicos o quirúrgicos y logra un 25% de supervivientes a largo plazo.

51


Asimismo, en personas con metástasis iniciales esta nueva generación de aceleradores logra unas tasas de supervivencia a largo plazo de entre el 20% y el 30%. Según el doctor Calvo, estos resultados, recientemente recogidos en la literatura científica, “suponen un cambio de paradigma en la atención médica oncológica: la enfermedad oligometastásica hay que identificarla, clasificarla y evaluarla de forma personalizada en comités interdisciplinares y ofrecer un componente de radioterapia precisa con dosis ablativa en multitarget”.

Plazos más Cortos El True Beam integra radioterapia y radiocirugía guiada por imagen, lo que le permite tratar tejidos en movimiento con unos niveles de precisión y velocidad sin precedentes. De esta forma, con este sistema los tratamientos se acortan en un 50% respecto a los tiempos que emplea la tecnología convencional, lo que supone no sólo un mayor confort para el paciente, sino una eficacia mucho mayor porque el tumor tiene menos tiempo para moverse (debido al movimiento corporal producido por la respiración y otros factores) en el momento en el que está recibiendo una dosis de radiación. En la práctica, la enorme precisión del True Beam® junto con su sistema de guía por imagen permite que los especialistas puedan tratar un tumor en movimiento, por ejemplo en el pulmón, con la misma eficacia que si el órgano fuera estático. Esto es posible, según señala por su parte la radiofísica Elisa Lavado, debido a la mayor precisión del haz de radiación (inferior al milímetro) y al hecho de que el aparato monitoriza la marcha de cada tratamiento una vez cada diez milisegundos gracias a sus 100.000 puntos de muestreo que le proporcionan datos de forma constante. Por último, el director gerente de La Luz, doctor Joaquín Martínez, consideró que la instalación del primer True Beam de Madrid en La Luz demuestra una vez más la apuesta del centro por la excelencia y la tecnología punta, y sitúa a la Clínica a la vanguardia en el tratamiento del cáncer.

Fuente Bibliográfica 52


La cruzada científica contra el cáncer recientemente logró una victoria en la Universidad de Missouri bajo el liderazgo del Profesor M. Frederick Hawthorne. Hawthorne y su equipo han desarrollado una nueva forma de radioterapia que logra poner con éxito el cáncer en remisión en ratones. Este innovador tratamiento no produjo ninguno de los nocivos efectos secundarios de la quimioterapia convencional y radioterapia contra el cáncer. Esta técnica alternativa de radioterapia, que podría tener ciertas ventajas sobre las formas tradicionales, es la terapia por captura de neutrones en boro (BNCT).

Roberto Hau

Una terapia ideal para el tratamiento del cáncer es aquella en la que se destruyen las células cancerosas sin afectar el tejido sano. Para que la terapia tenga éxito, se debería eliminar a la mayoría de las células malignas, ya sea mediante el tratamiento en sí o con la ayuda del sistema inmunológico del paciente, de manera de minimizar la probabilidad de que el tumor se regenere a partir de las células malignas sobrevivientes.

53


Conceptualmente, la técnica es sencilla: se trata de administrar al paciente una droga, unida al boro-10, un isótopo estable del boro, que se concentre selectivamente en el tumor a tratar. Una vez conseguido esto se irradia al paciente con un haz de neutrones de energías bajas. El boro-10 absorbe fácilmente un neutrón y se convierte en un isótopo inestable, que decae emitiendo una partícula cargada, denominada partícula alfa. Esta deposita toda su energía en una distancia muy pequeña, es decir dentro de la zona a tratar, y su poder destructivo es muy superior a los electrones, rayos X o protones; el tejido sano – donde la concentración de la droga es muy baja– recibe una dosis muy pequeña, ya que los neutrones, por ser partículas sin carga, interactúan muy poco con el tejido. “Desde la década de 1930, los científicos han buscado el éxito con un tratamiento del cáncer conocida como terapia por captura neutrónica en boro (BNCT)”, dijo Hawthorne, un reciente ganador de la Medalla Nacional de Ciencias otorgado por el presidente Obama en la Casa Blanca. “Nuestro equipo de MU Internacional del Instituto de Medicina Nano Molecular finalmente encontró la manera de aplicar el BNCT mediante el aprovechamiento de la biología de una célula cancerosa con nanoquímica”. Los primeros tratamientos con BNCT se hicieron en el laboratorio Brookhaven, en los Estados Unidos, en 1951. Desde esa época se han desarrollado varios estudios de carácter experimental. Las dificultades mayores que presenta el tratamiento radican en la toxicidad química del boro, y en lograr una droga que deposite a este selectivamente en el tumor. Desde principios de la década de 1980 se han realizado avances en la síntesis de compuestos de boro, y en los haces de neutrones disponibles que han estimulado el resurgimiento de estudios experimentales de BNCT.

Fuente Bibliográfica 54




Turn static files into dynamic content formats.

Create a flipbook
Issuu converts static files into: digital portfolios, online yearbooks, online catalogs, digital photo albums and more. Sign up and create your flipbook.