UN Periodico No. 148

Page 1

Educación “Soy un convencido de la bondad de la educación pública en Colombia”.

14

Ciencia y tecnología Por primera vez se medirán aerosoles en el país.

15

Salud Modifican molécula para combatir la tuberculosis.

20

Agro Hongo controla severa enfermedad del arroz.

http://www.unperiodico.unal.edu.co • un_periodico@unal.edu.co Bogotá D.C. No. 148, domingo 11 de septiembre de 2011

Publicación de la Universidad Nacional de Colombia • ISSN 1657-0987

Sacarán energía

de suelos volcánicos La Universidad Nacional de Colombia, Ingeominas, Isagen y Colciencias desarrollan desde hace 20 meses el proyecto más ambicioso de energía geotérmica que se haya realizado en el país. Este recurso natural, de bajo impacto ambiental, se obtiene del calor interno de la Tierra. Las primeras fuentes ya se identificaron en el volcán Nevado del Ruiz.

Pág. 12 Colágeno de pescado, fórmula para la juventud Con el paso de los años, la proteína encargada de proporcionar fuerza a los huesos, la piel, el cabello, las uñas y los músculos, conocida como colágeno, se reduce. Ingenieros químicos encontraron en el pescado un secreto para restituirla.

Pág. 21

Andrés Felipe Castaño / Unimedios

6


Internacional

La década del día después Hace 10 años, aviones civiles con cientos de pasajeros a bordo se convirtieron en misiles: el corazón financiero de Estados Unidos y el Pentágono, símbolo del poderío militar norteamericano, fueron objetivos terroristas. Millones de personas en el mundo presenciaron con incredulidad la transmisión en directo de la caída de las Torres Gemelas en Nueva York. Al día siguiente, las respuestas del presidente George W. Bush al ataque intensificaron la erosión de la supremacía y el liderazgo estadounidense en el mundo en la primera década del siglo XXI.

AFP

2

Los ataques del 11S son síntomas, y no causas, de un proceso de incertidumbre y caos internacional que venía incubándose desde el fin de la Guerra Fría, y que está lejos de haber concluido.

Andrés Molano Rojas,

Profesor de Relaciones Internacionales Universidad del Rosario Catedrático Academia Diplomática de San Carlos Ministerio de Relaciones Exteriores

Existe una tendencia muy extendida a sobrestimar el impacto directo que tuvieron los ataques terroristas perpetrados hace 10 años por Al Qaeda en territorio estadounidense, como si los acontecimientos de aquel 11 de septiembre del 2001 hubieran constituido un verdadero punto de inflexión en la historia de la humanidad. Con demasiada frecuencia se infiere de la “novedad” y el carácter verdaderamente inédito de los atentados contra las Torres Gemelas y el Pentágono, un giro radical que se atribuye, sin mayor reflexión, al curso que desde entonces ha venido siguiendo el devenir de la política internacional. En realidad, los ataques de Al Qaeda deben verse más como síntomas, no como causas, de un proceso de larga duración que venía desarrollándose desde tiempo atrás y que está lejos de haber concluido. Un proceso de cambio profundo y rápida transformación del sistema internacional que, si bien no fue provocado por la acción intrépida y suicida de los 19 terroristas que ese

día convirtieron 4 aviones comerciales en misiles, sí pudo haber sido catalizado por lo que vino enseguida, el día después de los ataques: la respuesta de los Estados Unidos al primer “acto de guerra” sufrido en su territorio continental desde la contienda con Gran Bretaña en 1812.

El Bush que no fue Esa respuesta supuso, en primer lugar, una franca desviación de la hoja de ruta que se había propuesto el presidente George W. Bush, desde su campaña, en materia de política exterior. Con una clara apuesta por la preservación de una ventaja militar incontestable sobre el resto del mundo, Bush esperaba sin embargo marcar distancia ante lo que consideraba un excesivo y oneroso despliegue del poderío estadounidense, practicado por la administración Clinton en Bosnia, Somalia y Haití. Su idea de una “gran estrategia” estadounidense estaba más cerca del compromiso selectivo que de la aspiración al dominio global, y de ella formaban parte tanto el libre comercio como el reforzamiento de los vínculos con sus aliados tradicionales y el involucramiento de las otras potencias en la promo-

ción y mantenimiento de la paz. Pese a ello, la “guerra global contra el terror”, proclamada en Washington como respuesta a la agresión del 11S, dio al traste con esas intenciones iniciales. La política exterior acabó siendo formalmente securitizada en la Estrategia de Seguridad Nacional (2002) y en la Estrategia Nacional para Combatir el Terrorismo (2003). Había que derrotar al terrorismo (en abstracto), donde fuera y como fuera, por las buenas o las malas, con el apoyo internacional o sin él; y todas las amenazas –desde la proliferación nuclear hasta la retórica antiamericana de algunos gobiernos– y los demás temas de la agenda de la política exterior estadounidense, fueron reinterpretados en clave antiterrorista. Guerra anticipatoria, unilateralismo, globalismo, reforzamiento militar y de inteligencia, eje del mal, imposición de la democracia y cambio de régimen se convirtieron en los principios rectores de una estrategia encaminada a asegurar, demostrar y reafirmar la supremacía y la invulnerabilidad de la superpotencia tras los osados ataques de Al Qaeda.

Consecuencias paradójicas En la práctica, la respuesta de la administración Bush al desafío de Bin Laden acabó teniendo consecuencias paradójicas. Quizá haya logrado evitar la realización de otro ataque significativo contra los EE. UU. o sus intereses. De hecho, es altamente improbable que algo semejante al 11S vaya a repetirse en el corto o mediano plazo. A fin de cuentas, Al Qaeda perdió el santuario del que gozaba en Afganistán, y Bin Laden fue eliminado en un operativo espectacular de las Fuerzas Especiales de la Marina estadounidense en su refugio de Abbottabad (Paquistán) en mayo pasado. Pero el “terrorismo” no ha sido eliminado de la faz de la Tierra (¿cómo podría serlo?). Y en términos netos, durante la última década se ha intensificado la erosión de la supremacía y el liderazgo estadounidense a escala global. En efecto, las guerras de Afganistán y de Iraq distan mucho de constituir un éxito cumplido y el panorama en estos países es cada vez más incierto, a medida que se aproxima la fecha de la “retirada” de las tropas estadounidenses. Ni Kabul ni Bagdad parecen convertirse en puntales de un Medio Oriente y un Asia Central democráticos y estables, in-

munizados contra el fundamentalismo. La intervención en Iraq, además, acabó alterando sustancialmente el equilibrio de poder en la región al suprimir un importante contrapeso al régimen de Teherán y, más bien, habría allanado el camino a la extensión y diversificación de su influencia. Para rematar, si se considera el precedente sentado por una y otra guerra, muchas naciones podrían concluir que el único seguro contra el intervencionismo estadounidense (y por extensión, occidental) estriba en el desarrollo de programas nucleares abiertamente ofensivos, o por lo menos sospechosos. (Una conclusión que al margen de su plausibilidad podrían ver confirmada en los recientes sucesos de Libia). Por otro lado, el enorme costo de la “guerra global contra el terror” –recientemente estimado por el Servicio de Investigación del Congreso en 1,3 trillones de dólares– constituye una de las principales fuentes de la presión presupuestaria que soportan actualmente los estadounidenses, precisamente cuando su economía atraviesa uno de los momentos más críticos de su historia desde la Gran Depresión de 1929. Un costo que no se compadece, en opinión de muchos, con la metástasis experimentada por Al Qaeda en lugares tan diversos como el Magreb, Nigeria, la península Arábiga, entre otros, ni con el riesgo creciente que representa una nueva generación emergente de terroristas “locales”, o frente a desafíos más concretos e inminentes de orden interno, por mucho que estén dispuestos a admitir avances significativos en materia de seguridad fronteriza, capacidad de anticipación y reacción, e incluso, en la eficacia de la cooperación internacional en la lucha contra el terrorismo.

La herencia de Obama Aún hoy el legado de la política exterior fraguada por Bush como secuela del 11S pesa en la agenda de su sucesor, Barack Obama, que a pesar de sus promesas no ha podido liquidar esa herencia con beneficio de inventario. Afganistán e Iraq siguen desvelando a Washington, que tiene que lidiar al mismo tiempo con la incógnita paquistaní, el chantaje norcoreano y la contumacia iraní, en tanto China parece capitalizar los réditos del desgaste estadounidense e intenta eludir tanto como puede los costos y las responsabilidades de su propio “ascenso pacífico”.

Director: Carlos Alberto Patiño Villa

148 11 de septiembre de 2011

Coordinación periodística y editorial: Nelly Mendivelso Rodríguez Comité editorial: Jorge Echavarría Carvajal � Egberto Bermúdez � Paul Bromberg � Alexis de Greiff � Fabián Sanabria Diagramación: Jonny Flórez Murillo Corrección de estilo: Verónica Barreto Riveros Gestión administrativa: Jaime Lesmes Fonseca Impresión: CEET, Casa Editorial El Tiempo Las opiniones expresadas por los autores y sus fuentes no comprometen los principios de la Universidad Nacional de Colombia ni las políticas de UN Periódico

Página Web: http://www.unperiodico.unal.edu.co Versión Internet: UNDigital Correo electrónico: un_periodico@unal.edu.co Teléfonos: 316 5348 - 316 5000 extensión: 18384 / Fax: 316 5232 Edificio Uriel Gutiérrez Carrera 45 Nº 26-85, piso 5º. ISNN1657-0987


Internacional

Exageran problema de deuda pública en Estados Unidos En el debate del Congreso de los Estados Unidos sobre la deuda federal, la mayoría de los legisladores de ambos partidos, igual que el Presidente Barack Obama, comparten las mismas premisas dudosas sobre la naturaleza del problema y las acciones necesarias, a pesar del gran fervor de las discusiones sobre los detalles de la respuesta. La deuda del Gobierno federal alcanzó el techo de USD$ 14,3 billones autorizado por el Congreso, generando la exhortación del Presidente a subirlo antes del 2 de agosto para evitar un default parcial, y a la negociación sobre las medidas a tomar para bajar el déficit presupuestal del Gobierno. Desde la presidencia de Ronald Reagan en la década del 80, hay dos causas principales para el disparo de la deuda: grandes recortes a los impuestos de los sectores más ricos y a las corporaciones, y el aumento continuo del gasto militar. Ambos factores fueron acelerados aún más durante la presidencia de George W. Bush (2001-2008). Tanto los ajustes “temporales” a los impuestos de Bush, como sus costosas guerras en Iraq y Afganistán, continúan en la administración Obama. A esto hay que agregar alrededor de USD$ 13 billones para los rescates de los bancos y otras instituciones financieras desde la crisis de 20072008. Las soluciones propuestas por ambos partidos no contemplan modificaciones significativas en ninguna de estas áreas. Obama propone (pero no lo ha conseguido) leves aumentos en los impuestos a los ricos y a las corporaciones, que estarían muy por debajo de los niveles vigentes hasta la década del 80. Los recortes al presupuesto militar acordado entre los dos partidos no compensan los grandes aumentos de los últimos diez años, por el contrario, lo dejarían más alto que antes de las guerras actuales. Mientras tanto, las políticas proacreedor como los rescates de las instituciones financieras siguen en marcha, reforzadas por la tímida reforma financiera del 2010. El acuerdo aprobado en el Congreso aumenta el techo de la deuda en tres fases hasta finales del 2012. Requiere, en primer lugar, recortes presupuestales de casi USD$ 1 billón durante los próximos diez años. Adicionalmente, se formaría un comité compuesto por tres demócratas y tres republicanos de cada cámara del Congreso para negociar recortes adicionales de entre USD$ 1,2 billones y USD$ 1,5 billones hasta el 2021. Si no llegan a un acuerdo, habrá reajustes automáticos en cada categoría del presupuesto, con exenciones para algunos programas de salud, pensiones y otros subsidios sociales que benefician a personas mayores y poblaciones vulnerables. Sin embargo, Obama

Aunque la deuda federal de los norteamericanos se acerca al 90% del PIB anual, el país está en capacidad de pagarla. El problema se ha sobredimensionado, y efectos negativos como la inflación y las altas tasas de interés no están ocurriendo ni amenazando la economía.

La deuda del Estado Federal pasó de 10 billones de dólares en septiembre del 2008, a 12 billones en noviembre del 2009 y a 14 billones en diciembre del 2010.

ha indicado que está dispuesto a negociar disminución del gasto también en estos programas.

Efectos en el corto y largo plazo Se ha exagerado mucho el problema de la deuda, y aunque se acerca al 90% del PIB anual del país, solo requiere el 1,4% del PIB en los pagos anuales de intereses. Sin duda, su magnitud es indeseable, sobre todo porque no fue contraída para inversiones públicas que generan crecimiento y bienestar para las presentes y futuras generaciones, ni para ayudar a producir los excedentes para pagarla; al contrario, corresponde a un periodo de reducciones en estos sectores. No obstante, los efectos negativos que se asocian a ella, como la inflación y las altas tasas de interés, no están ocurriendo ni amenazando la economía. Hay más peligro de deflación que de inflación, y las tasas de interés son muy bajas. Las empresas privadas tienen amplia capacidad ociosa y podrían expandir su producción si quisieran; el obstáculo no es la competencia con el Estado por crédito o recursos, sino la falta de demanda por los productos. Se pueden anticipar efectos muy negativos de los recortes al presupuesto, así: en el corto plazo, en el actual contexto de estancamiento de la actividad económica y la alta tasa de desempleo (encima del 9%), la economía requiere estímulos a la demanda. Es el momento para un impulso fiscal con aumentos en el gasto público, aún si esto incremen-

ta el déficit fiscal en el corto plazo, para reactivar la economía. También se podría estimular la demanda con impuestos más progresivos y alivios a los deudores. En contraste, los recortes reducirán la demanda agregada con las consecuencias lógicas sobre la producción y el empleo. Incluso, pueden causar aún mayor endeudamiento público, porque la disminución de la actividad económica se asocia con menor recaudación de impuestos y mayores gastos estatales automáticos. En el largo plazo, la reducción en la ya disminuida inversión pública es un mal augurio para la capacidad productiva y el crecimiento futuro. Gran parte del gasto “discrecional no relacionado con la seguridad” (la mayor parte del primer recorte de USD$ 1 billón) representa inversión pública en áreas de altos retornos económicos y sociales como la educación, la infraestructura y la investigación en ciencias y salud. Aunque se argumenta que la alta deuda perjudica a las futuras generaciones, la inversión pública las beneficia, entretanto su disminución deja menor capital público y humano y peores condiciones económicas y sociales.

Estados Unidos sí puede pagar El discurso de ambos partidos también contiene la falacia de que el país está en peligro de no poder pagar sus deudas si siguen incrementando. En realidad, cualquier gobierno siempre puede pagar sus créditos con la denominación de la

moneda que él mismo emite, y en el caso de los Estados Unidos, se incluyen todos, tanto internos como externos. El único riesgo de impacto es si se decidiera no pagar. Esta posibilidad, de manera parcial, fue utilizada por ambos partidos como herramienta de negociación, pero nunca fue real. La mayoría de los legisladores están conscientes de que un default parcial tendría efectos devastadores para la economía nacional e internacional, y también perjudicaría los intereses de Wall Street, principal patrocinador de las campañas de casi todos los congresistas de ambos partidos, de la de Obama y de su rival republicano. En este contexto, es muy cínica la decisión de Standard and Poors, una de las tres grandes empresas calificadoras de riesgo, de bajar la calificación de los Bonos de Tesoro de los Estados Unidos, considerados la inversión más segura del mundo. En su explicación reveló su verdadero criterio político: argumentó poco sobre la capacidad o la voluntad de pago (supuestamente lo que evalúa), refiriéndose principalmente al clima político y lo que la empresa considera insuficiencia del tamaño de los recortes. Aunque hay oposición minoritaria en ambos partidos –de los demócratas más progresistas y de los republicanos más conservadores–, la prioridad de la mayoría de los congresistas parece ser continuar el fallido proyecto neoliberal, con sus grandes beneficios para las élites económicas y los costos de la crisis asumidas por los trabajadores, la clase media y los sectores populares.

148 11 de septiembre de 2011

Profesor Asociado Facultad de Ciencias Económicas Universidad Nacional de Colombia

AFP

Stanley Simon Malinowitz,

3


4

Coyuntura

Ajustes a salud no resuelven la crisis

Prestadoras de Salud (IPS) y sus distribuidoras de medicamentos. Es decir, han integrado el aseguramiento con la prestación de los servicios, lo cual le resta transparencia al sistema. Como cuarto punto, se ha detectado la desviación de recursos de la salud hacia otros negocios. En virtud de la intervención de la Superintendencia de Salud a Saludcoop, esta empresa inicialmente había sido sancionada y obligada a restituir $ 627.000 millones a su tesorería para atender los gastos en salud de sus afiliados. Esos dineros, provenientes del sistema de aseguramiento, se habían utilizado en gastos diferentes a los previstos por la ley, como la construcción de clínicas y campos de golf. Otro hallazgo fue el giro de $ 100 millones al equipo de fútbol La Equidad, y de $ 10 millones a la campaña de Cambio Radical en el 2010; no se puede olvidar que el hermano de Germán Vargas Lleras, ministro del Interior, hace parte de los cuadros directivos de Saludcoop. La nueva intervención de la Supersalud se realizó porque la entidad presentó información no fidedigna: en su contabilidad aparecían como pagadas las deudas a los proveedores, cuando estas no se habían efectuado o se habían hecho con cheques sin fondos. Según la EPS, la cartera vencida era de $ 109.000 millones, pero en realidad ascendía a $ 370.000 millones. Un elemento que se suma al descrédito del sistema es el comportamiento del ministro de Hacienda, Juan Carlos Echeverry, quien participó en la expedición de la Ley Ordinaria en Salud (Ley 1438 de 2011) y no se declaró impedido a pesar de que con su firma EConcept, Esguerra Barrera Arriaga Asesores Jurídicos y Murano Consultores, elaboró un trabajo de consultoría para Saludcoop. En el informe Análisis Integral del Sistema de Salud en Colombia. Conclusiones sobre el presente y el futuro del sistema en condiciones actuales. Propuestas integrales para la sostenibilidad del sistema, recomienda a la entidad explorar mecanismos para una mayor integración con miras a rentabilizar el negocio (alcanzar un “uso de la red interna al 40% y 60% de la contratación”). Así se propendía por favorecer la integración vertical, la consolidación de un monopolio y el manejo poco transparente de los recursos de salud, tal como lo detectaron los órganos de control (Fiscalía y Procuraduría).

A pesar de las dos reformas aprobadas por el Gobierno, el sistema de salud en el país se encuentra sumido en una profunda crisis que le resta legitimidad social. Además de los vacíos en cobertura derivados de la estructura adoptada por el mercado laboral, y de las formas de asignación de recursos públicos, se evidencian graves problemas de operación. Óscar Rodríguez Salazar,

Grupo de Protección Social Centro de Investigaciones para el Desarrollo (CID) Universidad Nacional de Colombia

En primer lugar, se destaca el excesivo crecimiento de los recobros al Fosyga por servicios no Plan Obligatorio de Salud (POS), que pasaron de $ 300 mil millones en el 2007 a $ 2,4 billones en el 2010. Parte de este incremento se explica por abusos cometidos por diferentes agentes. Se descubrió la red de corrupción instaurada en el Ministerio de la Protección Social y el Fosyga, que cobraba comisiones para levantar glosas, presentar cuentas a nombre de personas inexistentes, aumentar de manera exagerada los valores de medicamentos y procedimientos, avalar que una misma factura fuese cancelada varias veces y recobrar procedimientos que no se efectuaron. Según la Superintendencia de Salud, durante los últimos cinco años las Empresas Promotoras de Salud (EPS) recobraron 4,5 millones de dosis de insulina en el tratamiento de diabetes, equivalentes a $ 51.000 millones, cifras que resultan sospechosas frente al número

de personas que sufren la enfermedad. Varios ejemplos se pueden señalar sobre el exagerado precio de los medicamentos recobrados, entre ellos el Sorafenib, fármaco biológico para el tratamiento del cáncer de hígado –producido por un solo laboratorio–, que en el mercado tiene un costo de $ 6.177.579 y es recobrado por valores que oscilan entre $ 10.170.600 y $ 14.393.760. Igualmente, la investigación que abrió la Procuraduría a 34 gerentes de EPS por el manejo doloso de los recursos públicos es síntoma de la desviación de los dineros de la salud. En segundo término, se puede señalar el detrimento de la competencia entre aseguradoras, examinado en la investigación realizada por la Superintendencia Financiera a la Asociación Colombiana de Empresas de Medicina Integral (Acemi) y 14 de sus afiliadas. En la Resolución 10958 del 2009, este organismo expresa que encontró indicios de que dicha asociación coordinaba y manipulaba la información que sus afiliadas enviaban al Ministerio de la Protección Social para que se fijara un valor de la Unidad de Pago por Capitación (UPC), superior al que se hubiese

obtenido de no haberse presentado este comportamiento. También se manifiestan sospechas de colusión entre las EPS con el fin de establecer barreras a los usuarios para acceder a los servicios.

Recursos desviados a otros negocios En tercer lugar está el incremento en los valores utilizados para el cálculo de la UPC, encontrado en un estudio realizado por el CID y el Grupo de Investigaciones Clínicas de la Facultad de Medicina de la Universidad Nacional de Colombia, en el 2011. Allí se descubrió que entre el 2008 y el 2009 el costo de salud fue inflado por algunas EPS. Se halló que en términos per cápita, Saludcoop reportó gastos en medicamentos por un valor de $ 208.654, Cafesalud por $ 220.155, Cruz Blanca por $ 194.562 (estas empresas hacen parte del Grupo Saludcoop) y Famisanar por $ 122.342, mientras que el promedio de gastos en medicamentos de las demás aseguradoras fue de $ 40.772. La situación llama la atención por cuanto estas EPS tienen sus propias Instituciones

Fotos: Andrés Felipe Castaño / Unimedios

148 11 de septiembre de 2011

Alianzas parlamentarias

Según Supersalud, durante los últimos cinco años las EPS recobraron 4,5 millones de dosis de insulina en el tratamiento de diabetes, equivalentes a $ 51.000 millones, cifras que resultan sospechosas frente al número de personas que sufren la enfermedad.

Por último, cabe subrayar la relación de las EPS con algunas bancadas parlamentarias. Dieff Maloof, uno de los ponentes de la Ley 1122 del 2007 –pero además hombre de confianza de alias Jorge 40 y organizador del movimiento político Colombia Viva, que en las elecciones del 2002 logró elegir 13 congresistas, 12 de ellos actualmente presos por parapolítica–, estaba vinculado con la ESE Clínica Prudencio Padilla, que tenía el 50% de cooperativas de trabajo asociado, la mayoría controladas por este ex senador. En el caso de la Ley Ordinaria, el representante Holguer Díaz, miembro de la Comisión Séptima, fue denunciado por cobrar honorarios a Saludcoop. Según el periodista Daniel Coronell, Díaz le remite a Carlos Palacino, gerente de la EPS, el siguiente correo: “Buenas noches, te envío el texto definitivo del proyecto aprobado


Coyuntura

5

Como no existen enfermedades sino enfermos, de seguro coexistirán en la misma persona enfermedades cubiertas y no cubiertas por el POS. Entonces, ¿cómo será posible distinguir financieramente complicaciones de salud que médicamente no se pueden diferenciar?

Frente a debacle, medidas radicales “Atención para todos, sin importar la enfermedad” titula la edición del diario El Tiempo del pasado 13 de agosto. A este pronunciamiento del Gobierno sobre cobertura universal en salud se suman las acciones tendientes a cumplir las órdenes de la Corte Constitucional prescritas en la Sentencia T-760 de 2008, entre las que se encuentran la actualización del POS y la unificación de los planes de beneficios. Al respecto, el Gobierno sostiene que en noviembre del presente tendrá lista la actualización incluyendo nuevas tecnologías, en abril del 2012 se conocerá un nuevo POS basado en patologías y en ese mismo año se logrará la unificación de los POS contributivo y subsidiado. No obstante, el entusiasmo que genera un llamado a la universalidad y a la unificación de planes de beneficios deja interrogantes. Como no existen enfermedades sino enfermos, de seguro coexistirán en la misma persona enfermedades cubiertas y no cubiertas. Entonces, ¿cómo es posible distinguir financieramente complicaciones de salud que médicamente no se pueden diferenciar?, ¿no será un camino para modificar los “paseos de la muerte”? Otro interrogante se refiere al tratamiento de la discapacidad, pues según los datos sobre carga de enfermedad, el 76% corresponde a padecimientos crónicos, y de este porcentaje, el 84,2% es de dis-

capacidad (Cendex‐PUJ, 2008). La alta incidencia y sus devastadores efectos sobre los grupos de bajos ingresos conllevan a preguntar: ¿Cuál es el estatus de la discapacidad en un POS basado en patologías? De los anuncios del Gobierno se deriva la preocupación sobre sus efectos en los gastos de bolsillo. Aún no se han presentado cálculos del impacto financiero del POS por patologías, pero el Ministro de la Protección Social se comprometió a no incrementar las cotizaciones. Si la solución es determinar un techo financiero para el tratamiento de cada patología, se genera el riesgo de insuficiencia de recursos para algunos individuos, de modo que el gasto se aumentaría por tener que incurrir en la compra de una póliza de medicina prepagada o acudir a sus ahorros cuando el riesgo se manifieste. Con esta perspectiva, el panorama muestra un aumento de las tutelas en salud, aunque por razón de la aplicación de la Regla Fiscal, aprobada como norma constitucional, el acceso mediante este instrumento se hará más difícil, lo que significa que se puede estar ante una negación del derecho a la salud para la población sin capacidad de pago.

¿Respuesta al TLC? Tanto en el Plan de Desarrollo como en la Ley Ordinaria el Gobierno reafirma la idea de fortalecer el aseguramiento, definido como un

mecanismo de gestión del riesgo. Sin embargo, un elemento central en las declaraciones es mantener la compensación como uno de los incentivos para atraer capital privado al negocio de la salud. El principio de la compensación fue consignado en el artículo 156 de la Ley 100 de 1993, en el que se estipula que en el Régimen Contributivo “las Entidades Promotoras de Salud recaudarán las cotizaciones obligatorias de los afiliados, por delegación del Fondo de Solidaridad y Garantía. De este monto descontarán el valor de las Unidades de Pago por Capitación (UPC) fijadas para el Plan de Salud Obligatorio y se trasladará la diferencia al Fondo de Solidaridad y Garantía, a más tardar el primer día hábil siguiente a la fecha límite establecida para el pago de las cotizaciones. En caso de que la suma de las Unidades de Pago por Capitación sea mayor que los ingresos por cotización, el Fondo de Solidaridad y Garantía deberá cancelar la diferencia el mismo día a las Entidades Promotoras de Salud que así lo reporten”. Recientemente, en su edición del 24 de mayo, el periódico El Tiempo reseñó cómo cuatro EPS (Red Salud, Salud Colombia, Golden Group y Multimédicas) pasaron afiliados del régimen subsidiado al contributivo para “sacarle al Fosyga una prima, por cada miembro de la familia”. El procedimiento es bastante sencillo, la EPS dice a sus futuros afiliados que el Gobierno paga las

cotizaciones fijadas sobre un salario mínimo, pero la EPS –que es la que cotiza– luego recupera este aporte a través de la afiliación al Fosyga; este fondo, por la cuenta de compensación, le devuelve una prima (UPC) de $ 500.538 por cada uno de los miembros de la familia del nuevo afiliado, que si consta de cinco personas, la EPS recibe $ 2,5 millones mensuales. La aplicación del principio de compensación hace que el riesgo financiero sea asumido en últimas por el Estado vía el Fosyga, y que las empresas aseguradoras en salud sean proclives a la contención de costos, creando barreras de acceso, de modo que no se ponga en peligro su utilidad o su capital por la prestación del servicio. Es difícil creer que el riesgo sea asumido por estas, cuando el comportamiento gerencial se dirige a garantizar la utilidad contemplada en la UPC y tiene un techo de gasto en cada patología. Finalmente, se menciona la reducción del número de EPS y, en consecuencia, el aumento del tamaño de la afiliación para aquellas que continúen operando. Promover esta concentración, cuando justamente la EPS más grande es la de mayores dificultades, resulta contradictorio y más bien permite pensar en el ambiente en que se generan las reformas. Por ejemplo, ¿no será que los cambios son una manera de facilitar la llegada de nuevas aseguradoras en salud, y que el sistema responda a las cláusulas del tratado de libre comercio, TLC?

Los ajustes a la salud incrementarán las tutelas, pero dada la aplicación de la regla fiscal, serán más escasos los fallos a favor de los pacientes. Esto significa que la población sin capacidad de pago seguirá siendo la más afectada.

148 11 de septiembre de 2011

en la Comisión Séptima, te quiero molestar porque hace dos meses no han vuelto a consignar, NIT 804010319-3. Muchas gracias. Holguer”. El representante fue miembro de la comisión de conciliación que eliminó el artículo que prohibía a las EPS contratar con sus propias clínicas (Semana, 25 de julio - 1 de agosto del 2011). Como se mencionó, con el Plan de Desarrollo y con la Ley Ordinaria en Salud, la administración del Presidente Santos y su Ministro de Protección Social tuvieron dos oportunidades para rediseñar el sistema. No se trata solo de responder a los escándalos registrados en los medios de comunicación, sino de resolver los problemas de operación y las fuertes limitantes del sistema. Entre estas últimas sobresale la dependencia respecto a la extensión de la relación salarial (en la actualidad el Régimen Contributivo cuenta con 18,9 millones de afiliados, y el Régimen Subsidiado con 23,2 millones) y los magros incrementos salariales (reducción de los salarios reales en 1,6% en los dos últimos años).


6

Educación

“Soy un convencido de la bondad de la educación pública en Colombia” La disciplina en el trabajo, el rigor científico en la investigación, la profundidad del conocimiento y la ética en el desarrollo de todas las actividades son la base del éxito de los ingenieros de la Universidad Nacional de Colombia, dijo Luis Carlos Sarmiento, egresado de la alma máter, durante la celebración de los 150 años de la Facultad de Ingeniería de la UN. Este es un aparte de su discurso. Luis Carlos Sarmiento Angulo,

lombia. Lo que en la actualidad es la facultad es el resultado de la labor de estos 150 años. De ella se han graduado cerca de 20.000 ingenieros, destacados por su extraordinario desempeño en los escenarios nacional e internacional, entre otras cosas por su altísima producción en cuanto a investigación: solamente en el último año, los 47 grupos de investigación que existen en la facultad gestionaron 106 proyectos. La importancia de los ingenieros en la vida nacional es evidente. Varios presidentes de la República han tenido esta formación; son innumerables los ingenieros que han sido directivos de las empresas más importantes del país, ministros de obras públicas y de otras carteras, así como distinguidísimos académicos.

148 11 de septiembre de 2011

Ingeniero Civil Egresado Universidad Nacional de Colombia

Aportes de la ingeniería al país

Víctor Manuel Hólguín / Unimedios

No hay duda de que la labor de la Universidad Nacional ha sido y es base fundamental para el desarrollo de Colombia. En la era moderna, hemos visto cómo los países que han tomado la determinación de progresar, para lograr mejores condiciones de vida para sus habitantes, como China, India, Malasia y, más cerca a nosotros, Chile y Brasil, lo primero que se proponen es que sus economías crezcan a tasas muy superiores a las de sus promedios históricos y a las de los países con similares grados de desarrollo. Resulta evidente que en todos estos casos, la clave para lograrlo ha sido la educación. Generan así pacíficas pero muy exitosas revoluciones internas, que se reflejan prontamente en la reducción de la pobreza y en el mejoramiento de su calidad de vida. Frecuentemente surgen críticas contra los esfuerzos para lograr mejores índices de crecimiento, aduciendo que este solo no garantiza la redistribución del ingreso para disminuir la pobreza. Tal afirmación es apenas obvia, pero en presencia del crecimiento, será factible adoptar las medidas necesarias para una mejor distribución del ingreso; en cambio, si no se producen los ingresos necesarios, ni las más inteligentes regulaciones podrán mejorar su redistribución y la disminución de la pobreza. De modo que es claro que el solo crecimiento no garantiza la eliminación de las diferencias, pero que sí lo permitirá si se toman las medidas adecuadas. Por otra parte, la experiencia muestra que los países que no han logrado mejorar sus índices de crecimiento tampoco han logrado salir del subdesarrollo. Se concluye, entonces, que únicamente en presencia de un alto nivel de crecimiento y de las políticas adecuadas se consigue salir de la pobreza, y que el nivel de educación de la población es el diferenciador fundamental entre los países desarrollados y los subdesarrollados. Muy estudiado a nivel internacional ha sido el tema de los llamados “retornos a la educación” (cuánto ingreso adicional se obtiene en valor presente neto gracias a la mayor educación). Se estima que dicho “retorno” está entre cuatro y cinco veces el valor de la inversión, en el caso de la educación universitaria. Hoy en día, con sus cerca de 49.000 estudiantes matriculados en 435 programas de pregrado y posgrado, la UN es un referente para toda la comunidad. Queriendo avanzar aún mucho más que con su ya importante labor a nivel de pregrado, ofrece hoy 50 programas de doctorado y 135 de maestría en sus diferentes sedes del país. En

En la justicia colombiana se requiere un grupo de “no-abogados”, liderado por los mejores ingenieros, para implantar una verdadera “revolución en la justicia”, dice el empresario Luis Carlos Sarmiento Angulo.

el 2010, la Institución contaba con casi 3.000 docentes de planta, de los cuales una tercera parte había obtenido doctorado. Esto resulta en una relación de 16 alumnos por cada profesor, que al compararla con las mejores universidades públicas del mundo, dan cuenta del grado de excelencia en la educación que, desde hace muchos años, ofrece la Universidad Nacional: en las mejores universidades públicas de Estados Unidos, como la Universidad de California en Berkeley, o la Universidad de California en Los Ángeles y la Universidad de Virginia, la relación varía entre 15 y 17 alumnos por cada profesor.

Los 150 años de la Facultad de Ingeniería Por paradójico que parezca, la Facultad de Ingeniería se fundó antes que la propia Universidad Nacional. Su antecedente es la Escuela

Politécnica del Colegio Militar, que fue creada por el General Tomás Cipriano de Mosquera el 24 de agosto de 1861. Solo seis años después, el Congreso autorizó al poder ejecutivo, mediante la Ley 66 de 1867, para organizar una universidad en la capital de la República que llevaría el nombre de Universidad Nacional de los Estados Unidos de Colombia, e incorporó a la misma la Escuela Politécnica como base de la Escuela de Ingenieros. En ese momento, con la creación de la Universidad se cerró el Colegio Militar. Dentro de la UN, la Facultad de Ingeniería es la más grande con más de 5.600 estudiantes de pregrado, 713 de posgrado y 272 profesores. De estos últimos, un 32% tiene formación en doctorado y un 48% en maestría, indicador que demuestra que el cuerpo de docentes de la facultad es el de más alta calificación cuando se compara con cualquier otra facultad de Ingeniería en Co-

Los que tomamos la decisión de ingresar a la Facultad de Ingeniería hemos tenido una serie de oportunidades asombrosas. Nadie podría haber previsto el impacto que la tecnología ha tenido en las empresas y en la vida cotidiana durante este periodo. Es notorio, y de permanente comprobación, que la ingeniería aparece como elemento imprescindible en otras actividades para las cuales, en el pasado, ni siquiera se hubiera pensado que pudiera tener aplicación. Es lo que ocurre en campos como la medicina, a la que la ingeniería biomédica se encarga de transferirle los principios y técnicas de la ingeniería, y ni hablar de su insustituible presencia en toda la tecnología moderna de las comunicaciones y de la informática. Igual, su participación en todos los campos de la administración de empresas y de la presentación sistematizada de datos. Al respecto, es posible mencionar un ejemplo: uno de los grandes problemas de la actualidad colombiana, posiblemente el mayor de todos, es el de las fallas en la aplicación de la justicia. Tenemos allí un grave problema de análisis, de organización industrial, de presentación oportuna y confiable de la información, de sistematización de los procesos, de obtener conclusiones que permitan optimizar toda esta problemática. En resumen, me atrevería a decir un caso clarísimo para aplicar los más modernos avances de la tecnología, en que los ingenieros son los más expertos de los profesionales que la manejan. Creo poder decir, sin temor a equivocarme, que en este aspecto particular de la aplicación de la justicia se necesitan mucho más ingenieros que abogados. Así como en las instituciones educativas se necesita un grupo de “no-educadores” para que ponga


7

Víctor Manuel Hólguín / Unimedios

Educación

Juan Manuel Santos, presidente de la República, asistió a la ceremonia de grado de la Facultad de Ingeniería y entregó el diploma a los graduandos.

Las bases para el éxito

Facultad de Ingeniería: la disciplina en el trabajo, el rigor científico en la investigación, la profundidad del conocimiento y, finalmente, el más importante de todos, la ética en el desarrollo de todas las actividades.

avanzados, en todas las ramas de la ciencia, en programas de maestría y doctorado. Hasta hace poco, las limitaciones económicas solamente permitían a Colfuturo enviar un promedio de 140 profesionales al año a estudiar al exterior, pero desde hace ya dos años, gracias a la comprensión y a la decisión política del gobierno anterior, hemos podido otorgar créditos-beca a más de 1.000 estudiantes por año y actualmente estamos empeñados en un nuevo programa, con el respaldo y el apoyo del gobierno del Presidente Juan Manuel Santos, para incrementar gradualmente el número de becarios hasta llegar a los 2.000 anuales a partir del 2014. Valga la pena destacar que, por la excelente calidad de su preparación académica y porque en general los estudiantes de la Universidad Nacional pertenecen a la población de menos recursos económicos, deberían ser justamente los graduados de esta Institución los que mayoritariamente utilizaran los recursos y oportunidades que ofrece Colfuturo.

Aportes a la educación superior Formé parte del grupo de fundadores y benefactores de la Escuela Colombiana de Ingeniería, que se organizó justamente con respetados y muy competentes profesores, en su mayoría ingenieros que habían sido parte del cuerpo docente de la UN. Adicionalmente, desde hace cerca de quince años presido el consejo directivo de Colfuturo, entidad constituida con aportes mayoritarios de los empresarios del sector privado, entre los cuales también participé, y dedico una parte significativa de mi actividad personal para lograr el propósito de esta institución, que consiste en enviar profesionales colombianos a las mejores universidades del mundo y financiarlos con un crédito beca, para adquirir los conocimientos más

Con mucho orgullo

Andrés Felipe Castaño / Unimedios

Debo decir, sin reservas de ninguna clase, que soy un convencido de la bondad de la educación pública en Colombia. Mis estudios de bachillerato los realicé en el Colegio Nacional de San Bartolomé, donde obtuve mi grado en 1948, y a los 15 años inicié mi carrera en la Facultad de Ingeniería de esta universidad, de donde me gradué con honores a los 21 años. Recuerdo con nostalgia el último año, cuando ya estaba al borde de terminar esa imborrable etapa, e internamente vivía, día a día, el temor y la preocupación de tratar

de adivinar cuál sería mi destino. En esa época solamente se ofrecía la carrera de Ingeniería Civil, con una duración de seis años. No se había iniciado en Colombia la era de las especializaciones que existen en la actualidad, como una constante universal. Además de la inmejorable instrucción de las cátedras propias de la carrera, recibimos una muy interesante formación en diferentes ámbitos que han sido de mucha utilidad en mi vida. En particular, las cátedras de organización de empresas, economía y contabilidad complementaron de manera importante mi preparación, y fueron las bases que me permitieron ampliar el trabajo propio del ingeniero y fundar toda clase de empresas, primero de construcción y de obras civiles, y luego de otras ramas, principalmente en el sector financiero, pero también en compañías industriales. En la Universidad Nacional de Colombia recibí mucho más que un cúmulo de conocimientos. En mis reflexiones he identificado una serie de intangibles que considero el fundamento para el éxito profesional de los egresados de la

Egresados de la Facultad de Ingeniería se han unido para adelantar proyectos de modernización de la planta física de la Universidad y mejorar los procesos de formación e investigación científica y tecnológica.

En este mismo sentido, de compromiso con la educación, en el 2008 entregué a la Universidad Nacional de Colombia, a título de donación, el Edificio de Ciencia y Tecnología de la Facultad de Ingeniería, en el cual, en cerca de 9.000 metros cuadrados de construcción, se reúnen las bibliotecas de ingeniería de todas las especialidades, se encuentra el auditorio y se dispone de aulas para clase. Me causa una profunda satisfacción saber que hoy ese ejemplo lo están siguiendo un grupo de prestantes ingenieros egresados de la UN, quienes asumieron el compromiso de restaurar y actualizar el edificio insignia de la facultad, conocido cariñosamente por la comunidad académica como “ingeniería viejo”, que ha sido declarado por el Ministerio de Cultura como “bien de interés cultural del orden nacional”. A los graduandos y a nosotros los egresados nos enorgullece nuestra alma máter. Los años que pasamos fueron muy exigentes, pero llenos de desafíos intelectuales, que nos formaron profundamente y nos han permitido trabajar en el desarrollo de nuestra patria.

148 11 de septiembre de 2011

los procedimientos en orden, y en los hospitales se requiere un grupo de “no-médicos” para la misma labor, en la justicia colombiana se requiere un grupo de “no-abogados”, liderado por los mejores ingenieros, para que determinen las causas de la ineficiencia e ineficacia de la justicia y propongan los mejores procesos, sistemas tecnológicos y de información, y los mejores sistemas de control y gestión para implantar una verdadera “revolución en la justicia”.


8

Educación

La UN no puede convertirse en instrumento de inequidad Sin la financiación adecuada, la Universidad Nacional de Colombia puede convertirse en factor de inequidad. Esto significaría traicionar su historia, construida a partir de dos ejes: generar conocimiento y ser un instrumento de movilidad social e igualdad. El rector de la UN, Moisés Wasserman, reconstruye el impacto que en el país ha tenido la Facultad de Ingeniería en sus 150 años. Este es un aparte de su discurso en la ceremonia de grados del pasado 24 de agosto. Moisés Wasserman Lerner,

nocimiento, empezaron a llegar a posiciones de liderazgo social que antes les eran negadas. Esos dos desarrollos estaban sin duda en la cabeza de los fundadores de la Facultad de Ingeniería y de la Universidad Nacional de Colombia, que no los delegaron en instituciones privadas y confesionales existentes en el país ya por más de 200 años, sino que constituyeron nuevas organizaciones, de carácter republicano, y alineadas con la construcción de una sociedad justa, democrática y abierta. Más tarde, la Universidad Nacional recibió un impulso decisivo por parte del presidente López Pumarejo, quien concentró en el primer campus colombiano, la Ciudad Blanca, a un conjunto de diferentes facultades y disciplinas en un ámbito de interacción creativa.

Rector Universidad Nacional de Colombia

148 11 de septiembre de 2011

Cimientos de la universidad moderna Durante el siglo XIX, varios modelos de universidad se desarrollaron en Europa y América. Distintos enfoques sobre la manera de educar, pero todos con respuesta a las expectativas de una sociedad cambiante. La universidad asumió tareas nuevas en dos grandes campos. El primero llevó a transformar a la institución transmisora de conocimiento en

Educación, herramienta de igualdad social

Los egresados de la UN tienen una formación integral sólida porque, además de su educación profesional, han tenido acceso a actividades culturales y artísticas, intercambios con universidades extranjeras y sobre todo al ejemplo de sus profesores. Si por motivos presupuestales la calidad de la oferta pública se hace inferior a la privada, la educación superior se convertirá, paradójicamente, en un factor de inequidad más.

una generadora del mismo. Eso le dio a la universidad un papel crucial en el desarrollo industrial y posindustrial de Occidente. Y se transformó en un agente activo del desarrollo económico, social, cultural y artístico de las naciones. La investigación científica se incorporó a su actividad como espina dorsal del proceso formativo de sus estudiantes y de la actividad académica de sus profesores. El segundo, muy relacionado con el surgimiento de los regímenes democráticos, fue su consolidación como instrumento de

movilidad social y de equidad. La universidad no tuvo esa tarea en sus orígenes, pero ella se volvió central cuando las naciones de Occidente empezaron a evolucionar hacia la participación amplia de su población en los esfuerzos de crecimiento y en el goce de sus productos. Los estudios universitarios, que tradicionalmente habían sido un instrumento para la transferencia generacional de privilegios, se volvieron, por el contrario, una puerta de entrada para los jóvenes capaces que, a través del co-

Víctor Manuel Hólguín / Unimedios

Hoy en día se habla del mundo global, de la internacionalización, de la sociedad del conocimiento, y pensamos que todo es un invento nuestro y reciente. La verdad es que estamos involucrados en esos procesos hace tiempo, y la Facultad de Ingeniería de la Universidad Nacional, que celebra el sesquicentenario, es prueba de ello. El 24 de agosto de 1861, hace 150 años, el presidente Tomás Cipriano de Mosquera creó y adscribió al Colegio Militar una nueva escuela politécnica para preparar ingenieros civiles, que consideraba esenciales en el desarrollo del país. En 1867, el presidente Manuel María de los Santos Acosta vinculó esa escuela politécnica, como una facultad de Ingeniería, a la recién creada Universidad Nacional de los Estados Unidos de Colombia. Santos Acosta, general radical y médico, revivía la Universidad Central fundada por Santander pero con un sentido distinto. Desde un principio, sus estatutos le daban un carácter nacional, con un sistema de becas que les permitía a jóvenes de las regiones estudiar en ella. Por ese mismo tiempo, la universidad, una institución que ya tenía 800 años de existencia en Europa, sufría una transformación profunda relacionada con el surgimiento de los nuevos Estados: repúblicas democráticas y monarquías parlamentarias. En 1862, el presidente Lincoln en Estados Unidos, en medio de una guerra civil y con peligro de una secesión, sancionó el famoso Acto Morill o “Lands Grant Act” que creó, con una inversión sin antecedentes en ninguna parte, el sistema de universidades públicas americano, hoy el más grande y productivo del mundo. De esta manera, dio el ejemplo más contundente sobre la conveniencia de priorizar la educación, incluso en épocas de conflicto y crisis económica.

En la actualidad, la sociedad colombiana y sus gobernantes tienen la ardua tarea de avanzar en esos desarrollos y de fortalecer a la universidad en general y a la estatal muy particularmente. Nada está asegurado. Nuestro sistema de educación, en el que confluyen lo público y lo privado, está en un delicado equilibrio. Si por motivos presupuestales la calidad de la oferta pública se hace inferior a la privada, dejará de ser la educación superior ese instrumento de equidad que construyeron Mosquera, Santos Acosta y López Pumarejo, para convertirse, paradójicamente, en un factor de inequidad más. Es adecuado citar al presidente Alberto Lleras Camargo (Doctor Honoris Causa de esta Institución), quien hace exactamente 50 años, celebrando el centenario de la Facultad de Ingeniería, decía: “Podría considerarse que es casi desproporcionada la importancia que le atribuimos al mejoramiento de las condiciones financieras del país, ante la muy escasa que le estamos dando a la preparación de los colombianos para una nueva era de dominio sobre sus propias circunstancias”. Y continuaba más adelante: “Cualquiera que sea el procedimiento que los colombianos escojan para hacer de su patria una unidad apreciable dentro del mundo y un país amable para las generaciones venideras, hay que empeñarse en dominar los instrumentos de la ciencia y la técnica en estos años próximos, con un sentido de urgencia que no tiene precedentes en nuestra historia,


Educación sino tal vez en la guerra de Independencia, cuando se trataba de crear y defender una república nacida prácticamente de la Nada”.

Ingeniería, símbolo de la modernidad

conjunto con la Facultad de Minas en la UN en Medellín para el manejo territorial en La Mojana sucreña. Todo eso demuestra que ha sido eficiente en todas sus tareas, apoyando la generación de conocimiento propio y generando acceso a los más capaces y más interesados de los jóvenes colombianos, independientemente de los recursos económicos de sus familias. El grupo de 400 graduandos que el pasado 24 de agosto recibieron sus diplomas son la mejor celebración de los 150 años para la Facultad de Ingeniería. Ellos salen a enriquecer a la sociedad colombiana con sus capacidades y conocimientos y a construir sus vidas y sus familias; algunos seguramente continuarán estudios de posgrado,

otros se incorporarán a la dinámica económica y social del país. Lo cierto es que se gradúan de la UN con una formación integral sólida porque, además de su formación profesional, han tenido acceso a conocimientos adicionales, actividades culturales y artísticas, intercambios con universidades extranjeras y sobre todo al ejemplo de sus profesores, hombres y mujeres exitosos y éticos. Espero que la Facultad de Ingeniería y la Universidad Nacional de Colombia, tesoros de la nación, sigan muchos años más liderando la academia y formando los mejores ingenieros y posgraduados del país. Espero, asimismo, que pueda seguir cumpliendo bien con su misión de formación, generación de conocimiento y promoción de la equidad social.

Andrés Felipe Castaño / Unimedios

La historia de la Facultad de Ingeniería y de la Universidad Nacional es una respuesta decidida a las grandes tareas de la universidad moderna. Decenas de miles de ingenieros se han formado, con la más alta calidad que ofrece el país. Los indicadores que detentan hoy la Facultad y la Universidad son los mejores del país: acreditación de alta calidad en todos los programas de pregrado acreditables; acreditación institucional; exámenes de Estado sobresalientes todos los semestres; 47 grupos

de investigación en esta facultad de 272 profesores; la mayor presencia colombiana en publicaciones científicas del ramo con nuestras otras facultades de Ingeniería; nueve programas de pregrado, siete doctorados, 14 maestrías y siete especializaciones, y más de 5.600 estudiantes activos de pregrado y 700 de posgrado. De igual forma, la facultad ha recibido premios nacionales e internacionales a invenciones de estudiantes y profesores; ha adelantado convenios de movilidad nacionales e internacionales con universidades americanas, francesas, alemanas y austriacas, además de coordinar acciones decisivas en proyectos de importancia ciudadana como el reciente concepto sobre el metro de Bogotá acogido por el Conpes y el convenio en

9

148 11 de septiembre de 2011

La Facultad de Ingeniería de la Universidad Nacional de Colombia graduó a 400 estudiantes de pregrado y posgrado.


10

Educación

Lo ideal y lo práctico en la educación de las ciencias

Frank Safford, profesor de la Universidad de Northwestern, experto en historia económica y política de Colombia en el siglo XIX, recibió el pasado mes de agosto el Doctorado Honoris Causa que le otorgó la Universidad Nacional de Colombia por su excepcional aporte a la memoria histórica del país. En entrevista con UN Periódico habla sobre la coyuntura política de América Latina. Guillermo Parada,

148 11 de septiembre de 2011

UN Periódico: ¿Cómo empezó su recorrido para convertirse en uno de los grandes colombianistas? Frank Safford: Mi carrera es accidental. Vine por primera vez a Colombia buscando un tema para mi tesis de PhD. Leí el libro de Luis Eduardo Nieto, Economía y cultura en la historia de Colombia, en donde dice que se pueden comprender las diferencias entre los partidos tradicionales colombianos a partir de sus intereses económicos. Aunque rápidamente encontré que Nieto estaba equivocado, hice investigaciones sobre empresas en la región de Bogotá y sobre el comercio. Ante esto, decidí escribir sobre historia empresarial. Terminé mi tesis en 1965 y en el mismo año regresé a la capital para hacer más investigaciones. Trabajé en el archivo de la Academia Colombiana de Historia porque tenía los documentos del general Herrán, quien había invertido en una fábrica en Bogotá entre 1830 y 1840. Aunque no encontré temas interesantes, hallé un paquete de cartas del militar y otras personas que habían enviado a sus hijos a estudiar bajo su cuidado, en Estados Unidos. En las cartas se referían al tipo de educación que querían para los jóvenes. Decían: “A mí no me importa si mi hijo saca un grado, hay que meterlo en una fábrica para que aprenda cosas prácticas”. Esta clase de sentimientos solo están escritos, pues no es la percepción que se tiene sobre la clase alta de América Latina en el siglo XIX. Por esa sorpresa abandoné la idea de un libro sobre la vida empresarial y empecé a escribir artículos sobre aquellos jóvenes en Nueva York. Esta investigación, por la que me concedieron el título Honoris Causa, se convirtió en libro El ideal de lo práctico, estudio histórico sobre el desarrollo de la educación en ciencias naturales y en ingeniería en el siglo XIX en Colombia. UNP: ¿Cómo se siente ante la entrega de este reconocimiento? F.S.: Estoy agradecido por el grado Honoris Causa. El decano Diego Hernández es muy enérgico y es consciente de que los ingenieros y profesionales de las ciencias naturales en Colombia tienen que internacionalizarse y relacionarse con centros importantes en tecnología. Él ha enfatizado en la necesidad de enviar profesores a países en Europa o Estados Unidos y tiene programas de intercambio con otras universidades en el extranjero. UNP: ¿Piensa que usted se ha

Víctor Manuel Holguín / Unimedios

Unimedios

Entre las publicaciones de Frank Safford están El ideal de lo práctico: el desafío de formar una élite técnica y empresarial en Colombia (1976) y Colombia, país fragmentado, sociedad dividida (2002), con Marco Palacios.

convertido en un personaje muy importante para Colombia gracias al mencionado libro? F.S.: En realidad todo esto me sorprende. Cuando lo publiqué, un amigo colombiano me preguntó: ¿Por qué le dio por escribir sobre un tema tan raro? No esperaba que fuera gran cosa, lo escribí porque me interesaba el tema. UNP: Usted pensó en hacer un libro y su tesis de grado en Argentina, pero acabó en Colombia. ¿Cómo percibe su interés en Latinoamérica? F.S.: Casi nunca he dictado una clase sobre la historia de Colombia, quizá no habría sido de mucho interés entre los estudiantes. Siempre enseñaba cursos sobre América Latina en general y en algunas clases incluía a esta nación. Me considero no solo

historiador de este país sino de América Latina. UNP: ¿Cómo ve a América Latina hoy? F.S.: Cuando Ronald Reagan –que yo considero más o menos un idiota– hizo una visita a tres países de Latinoamérica, dijo con gran sorpresa que todos son muy diferentes. Cuando vine con mi esposa a Colombia por primera vez, lo hicimos en autobús. Primero habíamos visitado Ciudad Juárez y Costa Rica, y encontramos que los cinco países pequeños de América Central son muy distintos cultural y políticamente. Pero así como Brasil es un megapoder económico, otros tienen muchas dificultades. UNP: Pero un presidente de los Estados Unidos, John Fitzgerald Kennedy, de alguna manera

estaba pensando lo contrario y planteó indistintamente la Alianza para el Progreso. F.S.: Nosotros estuvimos aquí cuando llegaron los primeros voluntarios de paz y cuando Kennedy y Jacqueline vinieron a Bogotá en 1961. No estoy seguro de que él pensara que todos los países eran iguales. Aunque es posible que tuviera esta percepción porque en los Estados Unidos existe poco conocimiento sobre América Latina. UNP: ¿Qué mirada tiene de Colombia y su incapacidad para lograr la paz? F.S.: Es un problema muy difícil. Uribe hizo mucho para llevar a la guerrilla hacia las márgenes del país y despertó el afecto entre la población de las cuatro grandes ciudades de Colombia, según las encuestas en Bogotá, Cali, Medellín y Barranquilla. Pero nunca hacen encuestas a los campesinos, entonces no sabemos qué piensan. Uribe contó con un importante apoyo político durante su presidencia con el 70% y 80% de las personas encuestadas, pero él tenía otra cara. A mí no me gustaba la idea de una segunda presidencia contra las reglas de la Constitución, eso fue un gran error. Los únicos que lo apoyaron fueron los que trabajaron en su gobierno. Además, se dieron aspectos negativos que ahora están saliendo a la luz. UNP: ¿Cómo podríamos analizar a una América Latina que ya no se siente el patio trasero de los Estados Unidos? F.S.: Eso es saludable. No es bueno concebirse como una región dependiente de los Estados Unidos. Los países que están en el circuncaribe, como México, Colombia y Venezuela, son muy dependientes de Norteamérica porque tienen una economía pequeña y la mayoría de su comercio se produce con ese país. En cambio Brasil, Chile, Argentina o Perú tienen un comercio diversificado con Estados Unidos, Europa y Asia. De esta forma no son tan dependientes y pueden desafiar a los EE. UU. UNP: Pasando al tema de la droga, ¿será que tendremos que legalizarla algún día? F.S.: En esto voy a citar a mi señora, quien fue fiscal en los EE. UU. Ella piensa que se podría legalizar la marihuana, porque no tiene efectos tan negativos. También, legalizar la heroína porque no crea agresividad. Pero el consumo de cocaína puede ser demasiado peligroso porque sí genera agresividad y problemas psicológicos.


Educación

11

¿la aprobación del proyecto de ley será cuestión de simple trámite?

La Comisión Sexta de la Cámara de Representantes ha convocado a rectores y representantes de la educación superior para conocer sus posiciones sobre la propuesta de reforma a la Ley 30 de 1992.

Lo que le dejó el tránsito de legislatura a la educación superior

Con el inicio de la nueva legislatura en el Congreso de la República el pasado 20 de julio del 2011, algunos proyectos de ley sobre educación superior y ciencia y tecnología tuvieron que ser archivados, dando cumplimiento al artículo 190 de la Ley 5 de 1992. El país sigue expectante a que en el actual periodo legislativo se entreguen resultados contundentes en temas como la adecuada financiación de las universidades públicas y un verdadero fomento a la investigación. Miguel Silva Moyano,

un concepto favorable, señalando que la iniciativa se ajustaba al marco fiscal de mediano plazo, hoja de ruta en cuanto a la disponibilidad de recursos. Para entonces, parecía que la reforma promovida por el gobierno Uribe no tenía marcha atrás.

abierta el pasado 10 de marzo. El espectro de temas se amplió y retomó algunos puntos financieros de la ex ministra Vélez, Uno de los proyectos engavea pesar de la oposición de rectotados por tránsito de legislatura res de las universidades públicas. fue radicado1 por la ex ministra de Contrario a lo que se esperaba, la Educación, Cecilia María Vélez, reforma a la Ley 30 de 1992 no ha pocos días después de la instalasido entregada al Congreso de ción del nuevo Congreso de la República, incluso a pesar la República (20 de julio del 2010), y justo antes de culmi- Por recomendación de la Mesa de del llamado a los congresistas nar el mandato presidencial Unidad Nacional, el gobierno Santos para que presentaran sus prode Álvaro Uribe (7 de agosto retiró de su propuesta de reforma yectos al inicio de la segunda del 2010). Este planteaba una la iniciativa que permitiría el funcio- legislatura el 20 de julio del reforma a la financiación de namiento de IES privadas con ánimo 2011. El tiempo sigue pasando y, al parecer, el Ministerio de las universidades públicas al Educación espera encontrar incrementar su base presu- de lucro. el momento propicio para inipuestal, así: el 1% sobre el Sin embargo, a pesar de que ciar el trámite en el Congreso. Índice de Precios al Consumidor Mientras el país está pendien(IPC) en el 2012, el 2% en el 2013 y la administración actual nunca el 3% entre el 2014 y el 2019. Pero, atacó directamente dicho proyec- te de la radicación de la reforma, con la salida del gobierno Uribe, la to, en conjunción con la Comisión surgen una serie de inquietudes: suerte estaba echada y la supervi- Sexta de Senado, lo dejó morir. ¿Cuál será el papel de las nuevas vencia de esta iniciativa dependía Ni la mesa directiva de esta co- mesas directivas de la Comisión de la voluntad del Presidente Juan misión, presidida por el senador Sexta del Senado, presidida por del Partido de la U Plinio Olano, Olga Lucía Suárez Mira del ParManuel Santos. El 13 de septiembre del 2010, ni el senador ponente del mismo tido Conservador, y de la ComiCarlos Ferro, senador del Partido partido, Carlos Ferro, insistieron sión Sexta de Cámara, presidida de la U, presentó en la Comi- en realizar el primer debate a la por el representante José Caicedo sión Sexta una ponencia positiva iniciativa. Un año después, la re- del Partido de la U?, ¿cuál seal proyecto de ley. Una semana forma fue archivada por tránsi- rá el papel de las bancadas que después, a solicitud del mismo to de legislatura, allanando así componen la llamada mesa de congresista, el Ministro de Ha- el terreno para el trámite de la unidad nacional? Con el control cienda y Crédito Público, Juan nueva propuesta gubernamental de las mayorías absolutas en las Carlos Echeverry, emitió también de reforma, sometida a discusión comisiones y en ambas cámaras, Politólogo, Universidad Nacional de Colombia

Con el ingreso del Partido Verde a la coalición de unidad nacional, el Presidente Juan Manuel Santos garantizó el control del 85% de la Cámara de Representantes y el 78% del Senado de la República. Estas cifras son relativas si se tiene en cuenta, por un lado, que pueden disminuir por los conatos de división que suelen protagonizar algunos congresistas de los partidos Conservador y de la U, y por el otro, que pueden aumentar dado el apoyo vergonzante, pero permanente, del Partido de Integración Nacional (PIN), que en el Senado tiene una participación cercana al 9% y en la Cámara de Representantes del 5%. En las comisiones sextas, en donde debe iniciar el trámite del proyecto de reforma, las mayorías de la unidad nacional siguen siendo aplastantes. En la del Senado controlan el 69% de la votación, mientras en la Cámara tienen el 89%. No obstante, se debe insistir en que estos porcentajes de participación son relativos, tanto por las razones expuestas anteriormente como por un elemento adicional: en las comisiones constitucionales, donde se presenta el primer debate a los proyectos de ley, se dan encarnizadas discusiones que ponen a prueba la solidez de las bancadas. Ante esto surge otra pregunta: ¿Apoyarán el posible nuevo proyecto de ley aquellos congresistas que en el pasado se opusieron a la reforma a la Ley 30 y obtuvieron su escaño gracias a las movilizaciones estudiantiles en defensa de la educación pública? Además de dejar archivar sigilosamente el proyecto de reforma a la Ley de Educación Superior, promovido en las postrimerías del gobierno Uribe, otras iniciativas que también conciernen a la educación superior sucumbieron al archivo del tránsito de legislatura: el Proyecto de Ley 101 de 2010 de Senado, “por medio del cual se protegen los derechos adquiridos por los estudiantes universitarios y se dictan otras disposiciones”, y el 38 de 2009 de Senado (237/11 en Cámara), “por medio del cual se garantiza la educación de posgrado a los 50 mejores promedios académicos graduados en las instituciones de educación superior (IES) públicas”. Estos proyectos podrían ser revividos por sus autores y ponentes, volviéndolos a presentar, pero hasta el momento no están en el plan de los congresistas. Entre otros temas pendientes se encuentran el Proyecto de Ley 192 de 2010 de Senado, “por el cual se organiza el servicio público de la educación abierta y a distancia”, y el 185 de 2011 de Cámara, “por medio del cual se establece el pago de las pasantías y prácticas empresariales a los estudiantes de educación superior”. A esta lista habrá que sumar, por un lado, el proyecto de la ministra de Educación, María Fernanda Campo, y por el otro, aquel que reglamentará la reforma a las regalías, en donde una porción de recursos están destinados a ciencia, tecnología e innovación. ¿Cuál será la posición de los congresistas por los que cada uno de nosotros votó en los temas mencionados? Congreso de la República. La Gaceta 474 de 2010, 2 de agosto. 1

148 11 de septiembre de 2011

Andrés Felipe Castaño / Unimedios

Sobre la nueva legislatura


12

Medioambiente

El Nevado del Ruiz se apunta como generador de energía en Colombia.

Sacarán energía de suelos volcánicos La Universidad Nacional de Colombia, Ingeominas, Isagen y Colciencias desarrollan desde hace 20 meses el proyecto más ambicioso de energía geotérmica que se haya realizado en el país. Este recurso natural, de bajo impacto ambiental, se obtiene del calor interno de la Tierra. Las primeras fuentes ya se identificaron en el volcán Nevado del Ruiz.

tarlo; tercero, una roca permeable a través de la cual pueda circular el fluido, y, por último, una capa sello (roca impermeable) que no deje escapar el agua. Estos elementos fueron analizados desde la geología, la geofísica y la geoquímica en la zona volcánica de la Cordillera Central en las fronteras de Caldas y Tolima. “La información obtenida en los estudios técnicos y científicos permite considerar la existencia de dos sistemas hidrotermales. El primero proviene de una fuente de calor ubicada debajo del cráter principal del volcán Nevado del Ruiz, y otro localizado en su suroccidente”, asegura Carlos Zuluaga, profesor del Departamento de Geociencias de la UN.

Costos y riesgos

Catalina Ávila Reyes,

148 11 de septiembre de 2011

Unimedios

El calor que existe en el núcleo de la Tierra es transferido a la superficie en una particular forma de energía llamada geotérmica, cuya principal manifestación ocurre en zonas aledañas a los volcanes. Allí hay rocas candentes que aumentan la temperatura del agua lluvia, y su filtración en el subsuelo es la que genera dicha energía. Este proceso, conocido como sistema hidrotermal, es aprovechado también para baños medicinales, turismo y agricultura. Para generar electricidad, la temperatura del vapor, agua o rocas hidrotermales deben superar los 150 ºC. La extracción del calor se realiza a través de la perforación de pozos que llegan a las rocas más profundas, llamadas reservorios. El agua y/o vapor se conducen por medio de tuberías a una turbina que mueve un generador eléctrico. El contenido sobrante es reinyectado nuevamente al reservorio, de manera cíclica y natural. Así, la energía producida se envía a la red eléctrica nacional para atender la demanda energética. Colombia, por sus características geológicas y la presencia de 13 volcanes activos, tiene un gran potencial para obtener energía geotérmica. Las fuentes de aguas termales que rodean estas zonas así lo ratifican.

El Ruiz, más que un “león dormido” En medio de valles estrechos, profundos y altas pendientes, rodeado de especies únicas en el mundo como el perico de los nevados y el colibrí de páramo, se encuentra el volcán Nevado del Ruiz, el más grande de la Cordillera Central y uno de los más activos del planeta. Con sus 5.321 metros de altura y una ubicación que cobija los departamentos de Caldas y Tolima, se caracteriza por presentar erupciones explosivas periódicamente y por tener múltiples capas de lava endurecida (piroclastos) y cenizas volcánicas. En su interior existen tres cráteres y la cima está cubierta por un volumen de hielo de entre 1.200 y 1.500 millones de metros cúbicos. Las importantes fuentes termales y fumarolas de su contorno representan la posibilidad de obtener la energía geotérmica que, desde la década del 60, buscan científicos colombianos y extranjeros. Sin embargo, hasta el momento ningún proyecto había podido confirmar la existencia de un sistema hidrotermal necesario para sustraer el recurso. Por esta razón, la Universidad Nacional de Colombia, Ingeominas, Isagen y Colciencias, desde hace 20 meses exploran sus alrededores, en

el proyecto más ambicioso de energía geotérmica que se haya desarrollado en el país, cuyo objetivo es aprovechar este recurso natural. Para generar dicha energía se requieren cuatro factores: primero, una fuente de calor; segundo, un fluido como el agua para transpor-

El proyecto es a largo plazo, costoso y representa riesgos. El desarrollo de las fases que determinarán la posibilidad de generar la energía dura cinco años. Los costos de los estudios hasta la fase de exploración podrían ascender a 30 millones de dólares, sin que se garantice la existencia del recurso. Sin embargo, el potencial del vol-

Con la inversión de capital público y privado, nacional y extranjero, la meta hacia el 2018 es lograr que la capacidad de generación aumente en 3.000 MW, para incrementar la cobertura nacional. Se tienen previstas exportaciones a Centroamérica.


en países como Filipinas, Estados Unidos, Italia, Nueva Zelanda, Islandia, Costa Rica, El Salvador, Guatemala y Rusia. En estas naciones, el promedio de generación de energía es de 8.000 MW, lo cual resuelve una porción significativa de la demanda eléctrica. “En el 2005, cerca de 24 países producían energía eléctrica a partir de la geotermia, y 78 la generaban para usos indirectos como calefacción, refrigeración, centros de salud, piscicultura e industria”, dice el profesor de la UN. En Colombia se han identificado otras zonas potenciales como la del volcán Azufral, en el sur del

país; en la región nororiental de Boyacá (Paipa y zonas aledañas), y en el volcán Nevado de Santa Isabel, también en la Cordillera Central. Sin embargo, este proyecto, por el desarrollo de todas las fases y posteriores perforaciones, será el que confirme si Colombia podrá contar con otra fuente energética que no solo beneficie al medioambiente, sino que tenga la capacidad de producir constantemente energía limpia y de alta calidad, sin depender de factores climáticos o combustibles fósiles. El recurso ampliaría la cobertura y el suministro energético nacional.

Recurso con más de cien años La capacidad de generación eléctrica en el país es de aproximadamente 14.000 megavatios (MW) por año. Debido a que el país cuenta con suficiente recurso hídrico, el 70% de la energía se produce por fuentes hidroeléctricas; sin embargo, ello no garantiza que no se presenten restricciones en el suministro, como ocurrió en los años 90, cuando se racionó el servicio por falta de agua en los embalses. La otra parte proviene de energía térmica generada por gas, carbón y otros combustibles. Por esta dependencia, Isagen y otras empresas promueven el desarrollo de fuentes no convencionales, como la geotérmica, que se caracteriza por ser una de las energías más limpias, pues no emite contaminantes al aire, no genera residuos sólidos ni arroja líquidos a quebradas o ríos, lo cual reduce los efectos del cambio climático y la eliminación de gases de efecto invernadero. La utilización de la geotermia, que se remonta a más de un siglo, ha aumentado considerablemente

La temperatura de la Tierra es mayor en las grandes profundidades. El proyecto de energía geotérmica busca aprovechar este recurso natural para producir electricidad de manera constante y de alta calidad, como complemento de las demás fuentes energéticas. Las centrales eléctricas geotérmicas pueden generar desde 100 KW hasta 1.000 MW, dependiendo de la demanda y de la energía disponible. De acuerdo con la capacidad de la planta, tiene usos rurales de electrificación, miniconexión o interconexión nacional.

www.agenciadenoticias.unal.edu.co

INFORMACIÓN INNOVADORA, OPORTUNA , CONCISA Y CONSTANTE.

148 11 de septiembre de 2011

cán es alto, pero solo hasta finalizar el modelo se sabrá si existe la fuente para producirla. “El mundo entero está en busca de fuentes energéticas renovables no convencionales que protejan el medioambiente. Este tipo de energía es constante, y esa es una gran ventaja frente a otras fuentes que se agotan. Por otra parte, al ser un recurso del subsuelo, el Estado colombiano debe asumir su exploración regional por etapas, ello con el fin de reducir el riesgo económico del proyecto −que es muy alto−. Sin embargo, al recuperar la inversión inicial, los costos se reducirían significativamente, ya que solo se requerirían gastos de operación y mantenimiento, compensando así los valores generados”, afirma Claudia Alfaro, jefe del proyecto Exploración de Recursos Geotérmicos, de Ingeominas. Con este se pretende crear un modelo del sistema hidrotermal magmático: “Definiremos la actual composición del volcán, distribución de los fluidos y componentes del sistema (como el magma), la presencia de rocas permeables y capa sello”, agrega el profesor Zuluaga, investigador principal.

Luis Alberto Posada, director de Desarrollo de Proyectos en Isagen S.A., explica: “Así, identificaremos con más certeza la localización y distribución de la fuente de calor, su profundidad y la temperatura que genera, con lo cual concluiremos si existen las características necesarias para la explotación geotérmica”. La fase de exploración iniciará en el 2012 con la perforación de cinco pozos con profundidades de 2 a 3 km (cada uno con un costo estimado de 5 millones de dólares). Si se comprueba la existencia del recurso, se perforarán los pozos de producción y de reinyección del agua, al finalizar el 2013. El paso siguiente será la construcción de una planta de generación de energía eléctrica, que sería operada por Isagen. En cada etapa se reduce el riesgo. Para Javier Alonso Méndez, funcionario de Isagen, es necesario invertir y desarrollar toda la tecnología, conocimiento y experiencia que se requiere, porque no existen más formas de saber si en Colombia podemos contar con esta fuente, de la cual desconocemos también su cantidad y características.

13

Jonny F. Flórez / Unimedios

Fotos: Archivo particular

Medioambiente


Ciencia y tecnología

Por primera vez medirán aerosoles en el país Hermann Sáenz, Unimedios

Alrededor de un churrasco en un restaurante en Buenos Aires, Argentina, comenzó la historia del fotómetro (telescopio capaz de medir la intensidad de la luz), que por primera vez se instalará en el país, gracias a un acuerdo entre la Nasa y la Universidad Nacional de Colombia. Los profesores Rodrigo Jiménez, de la Facultad de Ciencias de la UN en Bogotá, y Álvaro Bastidas, de la Facultad de Ciencias de la UN en Medellín, fueron invitados a un evento en la capital gaucha, copatrocinado por la Agencia Espacial Europea y la Nasa. En el momento del almuerzo, los docentes entablaron una conversación con miembros de la agencia estadounidense y les manifestaron la necesidad de que en Colombia existiera un instrumento que suministrara la información precisa sobre las partículas microscópicas que flotan en el aire, conocidas como aerosoles. “Nos pidieron que les escribiéramos la propuesta, y en diciembre del año pasado nos aprobaron el plan para comenzar a desarrollarlo en octubre de este año”, dice el profesor Jiménez. La Nasa proveerá el equipo y le hará la revisión técnica y de recalibración cada año.

A través de un fotómetro, instrumento para medir la intensidad de la luz solar, se podrá conocer el tamaño real del material particulado que flota en la atmósfera colombiana, y que es causante del cambio climático y de enfermedades como el cáncer de pulmón.

Víctor Manuel Holguín / Unimedios

14

La medición de aerosoles en la atmósfera de ciudades como Bogotá permitirá conocer su tamaño y movimiento. De esta manera se podrá medir su impacto en la salud pública.

148 11 de septiembre de 2011

Este organismo norteamericano dedica el 80% de su presupuesto a la observación de la Tierra, y la medición de aerosoles es uno de sus focos de interés. “Para validar desde la superficie la información que llega del satélite (registros sobre clima, calentamiento global, etc.), el fotómetro se enfoca hacia el sol, y su capacidad es tal, que detecta la cantidad de aerosoles que afectan la atmósfera y la cantidad de luz que llega al suelo. Con esos datos se pueden predecir propiedades de las partículas como tamaño y movimiento. Este aspecto es muy importante en salud pública, pues algunos materiales desprendidos del hollín, como el proveniente de la combustión vehicular, son muy pequeños y pueden afectar el sistema respiratorio, hasta generar cáncer de pulmón. Las mediciones de calidad del aire realizadas en Colombia permiten cuantificar la concentración de partículas a nivel del suelo, pero se desconoce lo que ocurre con los procesos de la atmósfera durante la noche, cuando las partículas se acumulan en su parte superior y recirculan el día siguiente. Por ello, en ocasiones un día contaminado conlleva a que el siguiente lo sea más.

Origen e impacto Los aerosoles pueden formarse por acción de la naturaleza o por la actividad humana, y de ello depende también su composición. La erupción del Nevado del Ruiz

Archivo particular

¿Para qué sirve el aparato?

El fotómetro estará en Bogotá, luego en Medellín y después se rotará en las demás sedes de la UN.

en 1985 no solo produjo la avalancha en Armero, sino que enfrió el planeta una décima de grado porque los aerosoles (de óxido de azufre) llegaron hasta la parte alta de la atmósfera y se quedaron allí. Actualmente funcionan como paraguas que no dejan pasar la luz del sol. En el país hay una docena de volcanes activos. La quema provocada de biomasa también forma aerosoles. Estudios señalan que el 20% de las emisiones de CO2 que llegan a la atmósfera del planeta se deben al fenómeno de la deforestación por la incineración de los bosques. En Colombia el tema es crítico. De acuerdo con datos satelitales, los incendios forestales destruyen 14.000 km2 de vegetación al año, con mayor impacto en los Llanos Orientales, señala un estudio adelantado en el Departamento de Biología de la UN en Bogotá. Esta práctica es común en África, donde los campesinos queman el suelo para limpiarlo y luego cultivar. En periodo se-

co, el Amazonas no escapa a este procedimiento, y la vegetación es destruida para implementar ganadería extensiva. Por eso los expertos consideran importante tener un sitio de observación en Leticia, y a través del fotómetro identificar cómo están evolucionando los aerosoles en esta zona. Otro componente del material particulado del aire, en ciudades como Bogotá, proviene de las calles sin pavimentar y de las laderas sin bosque.

El experimento iniciará en Bogotá Tanto en el ámbito urbano como en el rural las mediciones tienen un efecto significativo. Además de predecir el cambio climático, permiten establecer políticas en salud pública acordes a la composición y distribución de los aerosoles. Estas microscópicas partículas atmosféricas tienen una dinámica característica: pueden engordar, coagularse y precipitarse al suelo. Por eso hay

que monitorearlas a tiempo. Después de la erupción del volcán chileno Puyehue, la densidad de las cenizas puso en aprietos al servicio meteorológico argentino porque no sabía cuándo darle permiso a los aviones para volar. Según el profesor Jiménez, “gracias al uso del fotómetro se pudo establecer cuándo era razonable el nivel de aerosoles para la operación aérea”. El fotómetro comenzará a funcionar en Bogotá, luego pasará a Medellín y rotará por otras ciudades del país. Funcionará todos los días, durante seis meses y las doce horas que sale el sol. Así, se podrán obtener mediciones confiables y se conocerá la dinámica de estos contaminantes en la atmósfera colombiana.

Con la instalación de la estación en el campus de la Sede Medellín, el país comienza a formar parte de una red mundial liderada por la Nasa llamada Aeronet.


Salud

Modifican molécula para combatir la tuberculosis El Grupo Bioquímica y Biología Molecular de las Micobacterias de la UN diseñó una molécula que haría más efectivos los medicamentos antituberculosos, reduciendo el tiempo de tratamiento y los efectos secundarios que generan en el organismo.

15

Usualmente la infección se trata con antibióticos antituberculosos de primera línea como Isoniacida, Rifampicina y Etambutol. En caso de que no funcionen debido a las diferentes etapas de desarrollo de la enfermedad o la resistencia bacteriana, se usan medicamentos de segunda línea como Capreomezina, Biomicina o Canamicina. El problema está en que sus resultados no son tan efectivos y pueden generar efectos adversos en el organismo, principalmente complicaciones hepáticas.

Los bioquímicos se han dedicado desde el 2005 al estudio de la genética molecular.

Alejandro Borráez, Unimedios

La tuberculosis, enfermedad infecciosa provocada por un microorganismo de nombre Mycobacterium, cada año causa la muerte de dos millones de personas en el mundo, según la Organización Mundial de la Salud. En Colombia la tasa de contagio se acerca a 25 casos por cada 100 mil habitantes, revela el informe Vigilancia de la resistencia de Mycobacterium tuberculosis a los medicamentos, del Instituto Nacional de Salud para el año 2006. Sin embargo, existe un alto subregistro y la cifra real podría alcanzar los 53 casos por cada 100 mil

habitantes infectados, puntualiza el investigador Carlos Yesid Soto, director del Grupo Bioquímica y Biología Molecular de las Micobacterias, del Departamento de Química de la Universidad Nacional de Colombia. Este aumento de la enfermedad, asociado al virus del sida y otras afecciones que alteran el sistema inmune, conllevó a que el grupo de investigadores enfocara su interés en la posible creación de nuevos fármacos antituberculosos, más efectivos que los existentes y con menos riesgos para la salud. Un paso importante lo acaban de dar con la modificación estructural de unas moléculas similares a las proteínas, pero más pequeñas,

llamadas péptidos, presentes en la primera línea de defensa del sistema inmunológico del cuerpo contra las infecciones, pues un ataque indiscriminado puede incluso afectar las células buenas del organismo. “A través de la bioinformática, herramienta que permite analizar datos biológicos mediante programas virtuales, logramos alterar químicamente dichas moléculas para que ataquen específica y efectivamente a las bacterias tuberculosas”, explica la investigadora Luz Mary Salazar. Los resultados parciales han sido exitosos, y según Soto, se convierten en pilar para la creación de nuevos medicamentos contra la Mycobacterium.

Esta investigación fue premiada como mejor trabajo en el “32nd Annual Congress of the European Society of Mycobacteriology”, celebrado en la ciudad alemana de Lübeck, el pasado mes de junio.

Los péptidos son cadenas ordenadas de aminoácidos (compuestos orgánicos que se combinan para formar proteínas). “Nosotros hemos identificado aminoácidos clave para que reconozcan el bacilo, y lo que hacemos es combinar su orden para que actúen únicamente sobre este objetivo”, asegura el investigador, que junto a su grupo lleva cuatro años desarrollando el estudio. Al modificar su estructura y su forma, las moléculas son capaces de romper las paredes celulares de las bacterias infecciosas. Salazar explica, a modo de ejemplo, la efectividad del experimento: “Si una concentración de molécula nativa mata mil bacterias, la nuestra, con menos cantidad, mata un millón, lo que permite reducir los efectos secundarios y potenciar los medicamentos que ya existen”. Estos resultados han sido producto del análisis de 12 moléculas modificadas en su estructura, sintetizadas y caracterizadas. Posteriormente fueron sometidas a pruebas MTT, que permiten comparar visualmente (por colores de reactivos químicos) su nivel de desempeño. “Obtuvimos logros promisorios en el desempeño antimicobacterial, pero también en los niveles de toxicidad que fueron bajos (1,2%), así como las concentraciones (50 microgramos por mililitro). Ello implica también una reducción de los daños colaterales ocasionados por los medicamentos antituberculosos y de los tiempos de tratamiento, una de las razones que conlleva a la resistencia bacteriana”, asegura el director del grupo. Aunque la molécula aún no está lista para ser utilizada en pacientes (pues debe ser sometida a más pruebas), abre la puerta a nuevos estudios que avancen en la consolidación de un péptido que permita mejorar los medicamentos existentes. La expectativa del Grupo Bioquímica y Biología Molecular de las Micobacterias es que su investigación sirva para formular un biofármaco exclusivo y potencialice mejoras en la condición de los pacientes, en los costos para los hospitales y en los efectos secundarios. Igualmente, que contribuya a mitigar el problema de salud pública en que se ha convertido la tuberculosis en el mundo.

148 11 de septiembre de 2011

Fotos: Andrés Felipe Castaño / Unimedios

Péptidos antituberculosos


16

Salud

Software permite predecir anormalidades del cuerpo La reacción del cuerpo ante el uso de prótesis, los problemas motrices, de cadera, rodilla o cualquier otra anormalidad podrán ser detectados con tan solo analizar el movimiento de las articulaciones a través de un computador. Un proceso ágil, sencillo y objetivo que hace más eficaz el diagnóstico médico.

148 11 de septiembre de 2011

Mercedes Valencia sufrió una caída con graves consecuencias para su pie izquierdo, y tuvo que ser enyesada por un mes. Cuando pensó que se había recuperado intentó caminar, pero le resultó imposible por el intenso dolor que le provocaba pisar. El daño era más grave de lo que parecía, por eso los especialistas, en un intento por salvarle la pierna, le retiraron todos los nervios, pero de nada sirvió. Tuvieron que amputarle el pie. Doña Mercedes asiste a controles con el ortopedista, el reumatólogo, el especialista en el manejo del dolor y el psicólogo. Por medio de terapias ha iniciado un proceso en el que intenta entender que su pie ya no está, y se prepara para caminar, pero con una prótesis. “Me han explicado sobre este aparato que me ayudará a caminar, pero me preocupa que no funcione o no se ajuste a las medidas que tenía mi pie y vuelva a sentir dolor”, manifiesta. Según la médica cirujana Alejandra Hurtado, especialista en Reumatología, “esta inseguridad es común en quienes han sufrido una amputación y requieren aparatos de ortopedia para mejorar su actividad corporal. Sin embargo, en la mayoría de casos, ni el paciente ni las instituciones médicas se preparan para diagnosticar el grado de confiabilidad, satisfacción o precisión con los que dichos equipos van a adaptarse y a funcionar en la persona que los requiera”. Por esta razón, el grupo Control y Procesamiento Digital de Señales (CPDS) de la Universidad Nacional de Colombia en Manizales, coordinado por el investigador Germán Castellanos, acaba de inventar un nuevo software que permite a los especialistas en salud analizar el movimiento humano y la rehabilitación y habituación de un paciente a este tipo de dispositivos, antes de ser adaptado. Ello como complemento a los exámenes médicos. Ante la presencia de cuerpos extraños, es común que en la extremidad afectada se presente inflamación, infección por proliferación de bacterias y dolor, cuando el artefacto no se ajusta al tamaño del órgano mutilado. Para Genaro Daza Santacoloma, ingeniero electrónico, PhD en Ingeniería e integrante del grupo CPDS, ahondar en el estudio del movimiento del cuerpo humano es muy importante, pues cada señal que envía puede revelar distintas situaciones. “Por ejemplo, cuando alguien cojea, no necesariamente se debe al mal funcionamiento de sus articulaciones (cadera o pie),

Análisis de movimiento humano

Capturas 3D

Extracción no lineal de características Cortesía Grupo Control y Procesamiento Digital de Señales UN en Manizales

Unimedios

Programa virtual asistido para diagnosticar con mayor precisión problemas de movimiento.

Archivo particular

Fanny Lucía Pedraza Valencia,

No todos los problemas se deben al mal funcionamiento de las articulaciones, algunos pueden obedecer a disfunciones en la columna o enfermedades neurológicas.

sino que puede obedecer a disfunciones en la columna vertebral o problemas neurológicos asociados a enfermedades como Alzheimer y Parkinson, principalmente”. A partir de los modelos computacionales propuestos, se puede apoyar el diagnóstico y verificar la evolución de dicho tipo de anomalías, de tal forma que se tengan resultados más acertados y se ejecuten procedimientos menos

invasivos, asegura Daza Santacoloma. La novedosa herramienta está basada en la técnica Inmersión Localmente Lineal (LLE, por sus siglas en inglés), a través de la cual se puede estudiar la respuesta que tendrá un sistema biológico o vivo ante un estímulo externo (prótesis), argumenta el ingeniero electrónico. Sin embargo, “encontramos

tres aspectos de la LLE que tuvimos que mejorar: la sintonización de parámetros libres (el usuario de la técnica debe conocer y establecer unos valores iniciales para que los resultados sean verdaderamente concluyentes, como el número de cuadros de video adyacentes a considerar y la cantidad de regularización aplicada), la función de costo (análisis objetivo e interpretación correcta de datos) y el manejo simultáneo de múltiples variables (posibilidad de examinar diversos datos al mismo tiempo para hacer comparaciones)”, señala el integrante del grupo en CPDS. Es necesario anotar que hay una excesiva cantidad de medidas que definen las características de cualquier tipo de movimiento, por ejemplo, la cadencia, la duración del ciclo, la velocidad, flexión/ extensión de cadera, flexión/extensión de rodilla, dorsiflexión/ plantarflexión de tobillo, entre otras. Al no tener precisión en el análisis de estas medidas, se pueden hacer apreciaciones equivocadas de la afección momentánea que presenta una persona, o desconocer situaciones que, a través del tiempo (degeneramiento de las articulaciones y los huesos), inciden en el problema reciente. La técnica diseñada permite hacer un modelo computacional del comportamiento que tiene el paciente al emplear una prótesis. Los movimientos que ejecutan estos individuos son el primer paso para evaluar su progreso durante un proceso de rehabilitación. La evaluación se enfoca al diagnóstico asistido en ortopedia, que, entre otras particularidades, se puede desarrollar con la captura de los movimientos articulación por articulación (rodillas, caderas, tobillos, muñeca, hombros, etc.), con el fin de ofrecer una valoración más completa. Daza Santacoloma explica que, “al hacer una captura del movimiento de la persona y analizarlo a través de la técnica, podemos averiguar si presenta desviación de la columna, problemas de cadera, de rodilla o cualquier otra anormalidad. Además, ayuda a cuantificar objetivamente la rehabilitación de pacientes que hayan sido tratados por este tipo de dolencias, permitiendo una etapa más eficiente de recuperación”. A propósito de la relación entre los problemas motores y los neurológicos, el software podría ser decisivo para predecir y detectar desde temprana edad si una persona presentará una enfermedad como el Parkinson, o si está expuesta a una dificultad neurológica desconocida.


17

Andrés Felipe Castaño / Unimedios

Salud

En Latinoamérica, los países que encabezan la lista de consumo de antibióticos son Argentina, Venezuela, Perú, México y Chile. El más bajo se presenta en Brasil, Colombia y Uruguay.

Uso inapropiado de antibióticos aumenta mortalidad Unimedios

Los antibióticos son los principales medicamentos empleados para combatir las bacterias que causan infecciones en el organismo, por ejemplo, por el uso de catéteres, agujas y otros implementos del ámbito clínico. También sirven para el tratamiento de úlceras y virus, entre otras patologías. Sin embargo, la resistencia que generan los microorganismos a dichos medicamentos (producto de su velocidad de cambio genético) los hace perder su efectividad, propiciando la necesidad de aplicar dosis más fuertes en su composición química y por periodos más prolongados. Esta situación fue declarada por la Organización Mundial de la Salud (OMS) como problema de salud pública desde el 2008. A partir del análisis realizado entre la Universidad Nacional de Colombia, la Secretaría de Salud Distrital y Colciencias, se evidenció que el uso indiscriminado de antibióticos en el país es preocupante. En 13 hospitales de alto nivel (adecuados para tratar enfermedades críticas), aumentó hasta 300 veces el consumo de carbapenémicos como el Meropenem (utilizados para infecciones severas). Según Aura Lucía Leal, microbióloga de la UN y coordinadora del estudio, ello revela la necesidad de recurrir a estos anticuerpos para combatir el aumento de la resistencia bacteriana. “Las opciones se están limitando, y por ello los médicos nos vemos obligados a variar las dosis o a aplicar simultáneamente diferentes tipos de antibióticos para contrarrestar las bacterias. Esto trae otro tipo de consecuencias”, advierte Leal. En el cuerpo tenemos millones de bacterias que se ubican en la garganta, en los intestinos,

Un estudio realizado por la Universidad Nacional de Colombia, en el que se analizó el impacto del consumo de antibióticos y la resistencia bacteriana en 17 hospitales pertenecientes a la Red Distrital de Salud de Bogotá, demostró que la mortalidad y la estancia hospitalaria de los pacientes aumentaron hasta en un 14%.

en la piel, etc., y son necesarias porque también funcionan como mecanismo de protección del organismo. Los antibióticos no son selectivos, y atacan indiscriminadamente los microorganismos, llevándose a su paso los benéficos. El resultado es un proceso llamado “presión selectiva”, es decir, la permanencia de las bacterias resistentes. Otra de las consecuencias se evidenció con la presencia de dos de las bacterias más peligrosas en las unidades de cuidado intensivo: el estafilococo (presente en la mucosa y la piel) aumentó su nivel de mortalidad del 46% al 57%, mientras incrementó los periodos de hospitalización de los pacientes, de 26 a 37 días. Para el caso de la Pseudomona (de transmisión intrahospitalaria), su incremento fue del 46% al 61% en mortalidad, y en hospitalización, de 33 a 43 días.

El mal uso El consumo inadecuado de estos medicamentos en la comunidad también genera alerta. En el estudio liderado por la profesora Leal, el 20% de los pacientes consultados (526) había consumido antibióticos antes de la hospitalización, lo que llama la atención ante el denominado “uso prudente de los antibióti-

cos”, con el fin de disminuir la resistencia bacteriana. “Es necesario que se formulen solo cuando el paciente los requiera realmente, usar guías de diagnóstico, determinar dosis justas y periodos de consumo exactos. Desde el punto de vista económico, los antibióticos ocupan los primeros puestos en costos en los servicios de salud, pues se consumen en altas cantidades”, señala la docente. Las cifras hablan por sí solas: las infecciones intrahospitalarias le cuestan al país 727 mil millones de pesos al año. Por otra parte, la microbióloga de la UN advierte que, en Colombia, la gente se sabe el nombre de los antibióticos, sobre todo de los betalactámicos (derivados de la penicilina) como la ampicilina, amoxicilina, bactrin, etc., y los consume por sugerencia de familiares, amigos, del farmaceuta del barrio, etc. “Cuando la enfermedad se complica, llegan a los hospitales con bacterias resistentes que generan de nuevo complicaciones, no solo para ellos sino para los demás enfermos”, destaca Leal. Roberto Tamara, médico de la unidad de infectología del Hospital San Ignacio, subraya otros elementos de influencia en la prescripción de antibióticos: la expectativa del paciente por

recibir el medicamento el día de la consulta (es más frecuente la prescripción en días festivos), el temor de riesgo, la distorsión del cuadro clínico (exageración de los síntomas), entre otros que resalta en el informe Factores psicosociales que influyen en la prescripción de antibióticos. Las bases no farmacológicas de la terapéutica.

Lavado de manos para controlar infecciones Entre las recomendaciones de la OMS para controlar la diseminación de las bacterias resistentes, la Secretaría de Salud Distrital –junto a grupos de investigación especializados, entre los que se destacan los liderados por la doctora Aura Lucía Leal y Carlos Arturo Álvarez, profesor asociado de la UN– insiste en el lavado de manos como el método más simple y efectivo para controlar la problemática. “Desde el siglo XIX, Iganz Semmelweis observó que la mortalidad obstétrica era muy alta en pacientes atendidas por estudiantes de medicina que venían directamente de la morgue, con un olor desagradable en sus manos. Al exigir su lavado con una solución de cloro, la mortalidad materna disminuyó drásticamente del 13% al 2%”, explica Álvarez. Pero a pesar de los estudios específicos que califican esta acción como una medida para evitar la proliferación de bacterias, incluso en el gremio médico, existe rechazo a esta disposición. Ante la imposibilidad cercana de crear nuevas moléculas para combatir las bacterias resistentes, y la dificultad para minimizar su diseminación en ambientes clínicos y comunitarios, los expertos consideran necesario tomar medidas que permitan evitar el aumento de su resistencia, dentro de las posibilidades existentes.

148 11 de septiembre de 2011

Alejandro Borráez,


18

Ecología

Naturaleza vulgar en la Web Botánicos lanzan Primer diccionario virtual de nombres comunes de plantas, que recoge información completa de 8.000 especies colombianas. Algunas como amanzajusticia, sauco, palo santo y quiebrabarrigo, utilizadas para calmar dolores, adelgazar y hasta para la buena suerte, ahora podrán consultarse con apenas hacer un clic. Elizabeth Vera Martínez, Cerca de 8.000 especies de plantas descritas desde la Expedición Botánica hasta hoy, con sus apelativos comunes o vulgares, las regiones donde se pueden encontrar y los diferentes usos que la sabiduría popular les ha dado, se podrán consultar en el mundo virtual. Se trata del primer diccionario de plantas de Colombia en internet, cuya principal característica es que está escrito en lenguaje sencillo y amigable, para que todos los usuarios, sin importar su grado de conocimiento, puedan acceder fácilmente a la información con tan solo ingresar el nombre común de la especie. Los expertos pueden realizar la búsqueda por el nombre científico, como Taraxacum officinale (género y nombre específico, respectivamente). Esta obra reúne más de 18.000 nombres comunes y está basada en un extenso trabajo que se gestó hace más de 15 años con el botánico Rodrigo Bernal, ex docente del Instituto de Ciencias Naturales (ICN) de la UN. Desde entonces, se han venido uniendo al proyecto profesores y estudiantes, entre ellos la botánica Gloria Galeano, los biólogos Helena Sarmiento, Ángela Rodríguez, Mauricio Gutiérrez y Lauren Raz, directora del Grupo de Informática de la Biodiversidad del ICN, quien está a cargo del herbario virtual. En esta gigantesca edición, los autores tomaron tres fuentes importantes para recopilar los datos: revisión de la literatura relacionada con plantas colombianas, bibliografía botánica, costumbrista y diferentes obras relacionadas con plantas. En el Herbario Nacional Colombiano y en el Herbario Amazónico del Instituto Amazónico de Investigaciones Científicas (Sinchi), encontraron referencias y bases de datos que emplearon para complementar la información de cada una de las especies.

148 11 de septiembre de 2011

Conocimiento nativo La tercera fuente fue directamente en campo, donde se consultaron los usos medicinales que tradicionalmente se les han dado a las plantas. “Para ello contamos con los campesinos y sabedores, quienes son los verdaderos expertos”, indica la bióloga Sarmiento. Infusiones de diente de león para adelgazar, tratar la artritis o bajar los niveles de colesterol, agua de sauco para calmar la tos, el insomnio y las migrañas, entre cientos de recetas que la sabiduría popular ha adaptado a sus necesidades. Según la profesora Sarmiento, cada uno de los 32 departamentos del país tiene una diversidad botánica particular, y en cada sitio una misma especie vegetal recibe un nombre característico, por eso

Andrés Felipe Castaño / Unimedios

Unimedios

La obra reúne más de 18.000 nombres comunes en español de plantas de Colombia, e incluye otros en inglés raizal de San Andrés y Providencia.

su trabajo se centra en el conocimiento de los nombres vulgares, con el fin de que todos los usuarios puedan conocer fácilmente dicha riqueza natural. A pesar de que el diccionario virtual del ICN es el más completo de este estilo realizado hasta ahora, sus autores reconocen que todavía queda mucho por incluir. “Es un proceso que no termina, pues cada día se colectan más plantas y se describen nuevas especies que irán complementando el catálogo”.

Informática y biodiversidad Para la profesora Lauren Raz, la informática es una herramienta muy importante en el conocimiento de la biodiversidad, pues “permite actualizar constantemente la información y estar al día con

cada registro botánico nuevo”. De hecho, su uso es indispensable en todas las ciencias del saber. “Ningún investigador puede realizar investigación y plasmar los datos únicamente en el papel. Cada experto tiene su propia base de datos y herramientas de procesamiento”, manifiesta Patrick Bryan Heidorn, director de la Escuela de Recursos Informáticos y Ciencia Bibliográfica de la Universidad de Arizona. Heidorn, quien se desempeña como presidente de la JRS Biodiversity Foundation, una fundación filantrópica privada en los Estados Unidos que apoya el desarrollo de software para la conservación de la biodiversidad, aseguró que la ciencia gira en torno a los datos y por eso la información, el conocimiento y la tecnología se complementan para ampliar el espectro del conocimiento de la naturaleza.

egún Patrick Bryan Heidorn, Sinvitado por el Instituto de Ciencias Naturales a la Universidad Nacional de Colombia, la gran tecnología de la información del siglo XV era la imprenta, desarrollada en 1440 por Johaness Gutemberg, aunque los chinos lo hicieran mucho antes. Esto causó gran revolución en la manera de difundir la información de la biología. El experto explica que “los científicos desarrollaron esquemas de clasificación que les permitían organizar especímenes. Para ello utilizaban catálogos de tarjetas y cuadernos de notas. Determinaban cuidadosamente la localización de las especies en mapas de papel que se podían copiar e incluir en impresos. Esta era la tecnología de información más avanzada de ese entonces”.

Cuando usted ingresa al diccionario http://www. biovirtual.unal.edu.co/nombrescomunes/index. php?option=com_wrapper&view=wrapper&Itemi d=3&lang=es, se despliega una ventana con tres campos que le sugieren escribir el nombre común o el nombre científico de la especie y la región de origen. Por ejemplo, si ingresa la palabra “destrancadera” y en el campo región escoge “Cundinamarca”, además de las fotos correspondientes podrá ver: Destrancadera (Hypoestesphyllostachya – Aantáceas) Origen del nombre

(Por sus reputados efectos para la buena suerte)

El nombre se aplica a esta especie en: Cundinamarca, Tolima

Hypoestesphyllostachya también se conoce como abrecaminos estrancadera pecas pintor polca


Ecología

19

Gimena Ruiz Pérez,

Se han mapeado 130 mil individuos en 25 hectáreas de bosque.

Al rescate de los bosques amazónicos

Una fuerte sequía ocurrida durante el 2010 en la selva amazónica ocasionó la muerte de árboles en la parcela Amacayacu. Toneladas de dióxido de carbono se liberaron a la atmósfera, según expertos forestales que estudian la dinámica natural de estos bosques para saber cuál ha sido su respuesta ante cambios abruptos del clima.

zona caracterizada por sus selvas vírgenes, su diversidad de fauna y flora y sus paisajes multicolores, proveerá al país, según Duque, de herramientas únicas para entender el complejo funcionamiento de los sistemas naturales boscosos de la Región Amazónica y de las tierras bajas húmedas tropicales. Los resultados obtenidos hasta el momento dan cuenta del aumento de muertes en especies de madera dura, como respuesta a las últimas sequías ocurridas en la Amazonia. El estudio señala que, durante el 2010, la mortalidad de los árboles se duplicó, ocasionando un impacto fuerte. “Cuando los árboles mueren dejan de ser receptores de CO2, por lo tanto este es liberado a la atmósfera. Estudios realizados por investigadores de la Universidad de Leeds (Inglaterra) revelan que los bosques del Amazonas no absorberán sus habituales 1.500 millones de toneladas de CO2 de la atmósfera entre el 2010 y el

2011, y que otras 5.000 millones de toneladas serán lanzadas a la atmósfera en los próximos años, una vez los árboles se pudran”, cita el investigador del Sinchi.

Trabajo mundial Este es un proyecto de largo aliento que empezó hace cinco años con trabajo juicioso y búsqueda continua de información. Posteriormente, se busca vincular otras instituciones del país y abrir nuevas rutas de investigación que permitan replicar a escala local, regional y global opciones de manejo de los bosques de la Amazonia colombiana. A la investigación se han sumado unos 35 estudiantes de pregrado y posgrado de la UN que apoyan la medición y recolección de muestras, la identificación de especies y el análisis de materiales. La parcela Amacayacu hace parte de la red mundial Center

for Tropical Forest Sciences, de la que hacen parte otras 22 parcelas, y cuyo fin es reflexionar acerca de fenómenos actuales como el cambio ambiental global, la sostenibilidad y el manejo de los recursos forestales en el contexto mundial.

El camino continúa Conscientes de la importancia de seguir explorando y conociendo la historia de vida de las especies arbóreas de la Región Amazónica, los investigadores de la UN en Medellín y del Sinchi buscan llegar a la identificación genética de cada especie. Es una tarea ardua debido a que se trata de vegetación ubicada en parques naturales. Describir una especie es tan solo un primer paso, dice el profesor Álvaro Duque. Por eso, conocer su estructura genética y química permitirá entender mejor los potenciales reales que puede tener el bosque.

148 11 de septiembre de 2011

Miles de hojas de diferentes formas y tamaños, frutos variados y profundos caminos sombreados por árboles que sirven de refugio a coloridas aves hacen parte del paisaje de la parcela Amacayacu, uno de los lugares con mayor diversidad arbórea en el mundo, que también está sufriendo los estragos del cambio climático. Así lo señala un monitoreo sobre demografía, funcionamiento y variedad de especies vegetales, adelantado por investigadores de la Universidad Nacional de Colombia en Medellín y el Instituto Amazónico de Investigaciones Científicas (Sinchi), en este espacio verde de la Amazonia colombiana. “La clasificación permite identificar, entre otros aspectos, la diversidad de especies vegetales a nivel local y regional, aquellas que están amenazadas, las que son nuevas para la ciencia y las maderables y no maderables”, explica Álvaro Duque, docente del Departamento de Ciencias Forestales. Al respecto, el investigador del Sinchi Dairon Cárdenas señala que “uno de los principales beneficios del estudio en Amacayacu es el aporte al Inventario Nacional de Biodiversidad y a la Estrategia Mundial para la Conservación de Plantas, en la medida en que se han identificado especies con algún grado de amenaza como el Cedro (Cedrela odorata), maderable sometido históricamente a grandes presiones por sobreexplotación”. Hasta el momento se han mapeado 125 mil individuos en 25 hectáreas de bosque, de los cuales se han identificado las características morfológicas de alrededor de 1.000 especies, entre las que aparecen tipos con potencial maderable como las Lauráceas, Miristicáceas y Lecitidáceas. También se han reconocido variedades vegetales con propiedades útiles para el desarrollo de productos cosméticos como cremas de manos y champús, y para la elaboración de productos farmacéuticos y médicos. “Hemos encontrado especies como el asaí (Euterpe precatoria), importante desde el punto de vista nutricional y comercializada por su potencial antioxidante; milpesos o seje (Oenocarpus bataua), oleaginosa a la que se le atribuyen propiedades medicinales y cosméticas; chuchuwasa (Maytenus amazonica), de uso medicinal; el inchi (Caryodendron orinocense), promisorio aceite vegetal; el caucho (Hevea brasiliensis), producto de uso masivo en la industria automotriz, entre otras, puntualiza Cárdenas. “Nos interesa estudiar la dinámica natural de estos bosques tan diversos y saber cuál es su respuesta ante cambios abruptos como los fenómenos climáticos”, argumenta Duque. Para avanzar en su objetivo, los investigadores se han dedicado a detallar e inventariar cada uno de los individuos arbóreos leñosos que tengan más de 1 centímetro de diámetro y 1,30 centímetros de altura. Así, evalúan las características de sus hojas, frutos y troncos.

Fotos: Archivo particular

Unimedios

CO2 a la atmósfera A partir de esta muestra, se analizan fenómenos como el impacto del calentamiento global sobre las especies, pues algunas plantas tienen mejor respuesta que otras, cuya muerte ocurre rápidamente. La iniciativa, que acogió a una

La muestra permitirá analizar el impacto del calentamiento global sobre estos ecosistemas.


20

Agro Jeinst Campo Rivera,

Uno de los productos básicos de la canasta familiar de los colombianos indudablemente es el arroz. Solo, acompañado, como postre o incluso en bebidas, este cereal tiene un lugar privilegiado en el mundo, pues según la Organización de las Naciones Unidas para la Alimentación y la Agricultura (FAO), el consumo per cápita por habitante es de 58 kilogramos, y en el 2010 tuvo una producción mundial de 466 millones de toneladas. Una vasta producción concentrada especialmente en el continente asiático, que aporta cerca del 65% de la producción total de arroz (China siembra un 33% y la India un 32%). En Colombia, la Federación Nacional de Arroceros (Fedearroz) contabilizó en el 2009 una producción de 2.154.671 toneladas, emanadas de las 468 mil hectáreas sembradas en todo el territorio nacional. Una cantidad que se reparte entre los 45 millones de habitantes que tiene el país y cuyo consumo per cápita asciende a 39 kg. Sin embargo, aspectos como el cambio de temperatura, la erosión de los suelos, la deficiencia de nutrientes y, principalmente, algunas plagas o enfermedades como el ‘tizón de la vaina’ y el ‘vaneamiento de la espiga’, han sido determinantes en la disminución de su producción a nivel mundial. Una tesis del Doctorado en Ciencias Agropecuarias de la Universidad Nacional de Colombia en Palmira, realizada por Ana Teresa Mosquera Espinosa, bajo la dirección del profesor Joel Tupac Otero Ospina, identificó en las orquídeas a unos hongos capaces de defender los cultivos del arroz de la peligrosa enfermedad conocida como ‘tizón de la vaina’, cuyo incremento durante los últimos diez años ha disminuido entre 30% y 50% el rendimiento de arroz en el país.

148 11 de septiembre de 2011

Alerta por enfermedades Desde julio del 2011, por declaración del Instituto Colombiano Agropecuario (ICA), el territorio colombiano se encuentra en emergencia fitosanitaria debido al ‘vaneamiento de la espiga’, que tiene azotado al sector arrocero porque afecta la calidad del grano y la productividad del cultivo hasta en un 60%. Asimismo, la dirección de sanidad vegetal de la misma entidad ha advertido sobre los efectos del ‘tizón de la vaina’, que, al igual que la anterior patología, se activa con los cambios de temperatura. Hasta el momento el control más efectivo para esta enfermedad se realiza con fungicidas químicos de síntesis (elaborados industrialmente) que afectan el medioambiente e incrementan los costos de producción del cereal. Luis Santos, profesional del ICA, explica que “el tizón es causado por el hongo Rhizoctonia solani y su acción comienza a nivel del agua, luego se extiende a la parte superior de la planta, afecta el tallo y mancha el grano, lo cual incide en la calidad del producto final”. No obstante, dentro de los Rhizoctonia también hay hongos benéficos, y uno de ellos lo descubrió Ana Teresa Mosquera.

Fotos: Archivo particular

Unimedios

Inoculación de Ceratobasidium (biocontrolador) y R. solani (patógeno) sobre planta de arroz.

Hongo controla severa enfermedad del arroz En la raíz de las orquídeas, agrónomos encontraron un hongo capaz de controlar el ‘tizón o añublo de la vaina’, una enfermedad de alto riesgo que afecta el rendimiento de los cultivos de arroz en América Latina y ocasiona pérdidas hasta del 40% en su producción total.

Aislamiento en cultivo puro de Ceratobasidium.

Lo sacó de las orquídeas En el 2008, la agrónoma encontró el hongo en las raíces de

Corte transversal de raíces de orquídeas con presencia de hongos micorrízicos.

plantas de orquídeas sembradas en diferentes hábitats, y al evaluar 12 aislamientos comprobó que también tiene efectos positivos. En laboratorio se identificó, a través de técnicas moleculares, que pertenecía al género Ceratobasidium, y en invernadero se evidenció su papel como controlador biológico. Durante la siguiente fase los investigadores quisieron comprobar lo contrario, es decir, si el género hallado tenía patogenicidad (capacidad de causar enfermedad) sobre las plantas del arroz. “Inoculamos los 12 aislamientos del hongo en cultivos sanos y, sorpresivamente, el porcentaje de severidad fue menor al 2%”, sostiene la profesora Mosquera. El experimento incluyó otras pruebas: analizar, bajo las mismas condiciones de invernadero, el impacto de Ceratobasidium en plantas infectadas con el potente ‘tizón de la vaina’. También se inoculó el dañino R. solani en plantas sanas de arroz con 21 días de desarrollo y, dos días después, se aplicó el Ceratobasidium para reconocer

su potencial biocontrolador de la enfermedad. En las pruebas de control, realizadas en el Centro Internacional de Agricultura Tropical (CIAT), los científicos encontraron que inoculando solamente el R. solani se obtenía un porcentaje de severidad del 16% en las plantas; mientras que aplicándolo con el hongo Ceratobasidium, este porcentaje se reducía, incluso a un 5%. “Fue un resultado sorprendente que demostró que el Rhizoctonia en su forma benéfica puede llegar a contrarrestar hasta un 50% del R. solani”, afirma el profesor Tupac Otero. Ana Teresa Mosquera señala que es la primera vez que se evidencia el uso de Ceratobasidium de orquídeas como biocontrolador de patógenos en cultivos agrícolas. Así, este trabajo se constituye en base para el desarrollo de estrategias de manejo integrado de enfermedades, tendientes a disminuir el uso de productos que deterioren el medioambiente y la calidad de los productos que van a parar a la mesa del consumidor.


Agro

Colágeno de pescado, fórmula para la juventud

21

Con el paso de los años, la proteína encargada de proporcionar fuerza a los huesos, la piel, el cabello, las uñas y los músculos, conocida como colágeno, se reduce, y aunque métodos artificiales aseguren contrarrestar su efecto, ingenieros químicos encontraron en la piel de pescado un secreto natural para restituirla. Elizabeth Vera Martínez,

La producción mundial de tilapia, trucha y cachama ha crecido en un 29%. En los primeros nueve meses del 2009, las exportaciones de la primera especie fueron de 176.500 toneladas, de las cuales 91.600 llegaron a Estados Unidos, según un informe de la Organización de las Naciones Unidas para la Alimentación y la Agricultura (FAO) en el 2010. Colombia no se ha quedado atrás: pasó de producir 16.634 toneladas en 1993, a 43.292 en el 2005, mientras en el primer semestre del 2006 alcanzó las 5.536 toneladas. La tilapia aportó el 71% de la producción nacional, y la cachama el 15%. En estos importantes porcentajes se centró la investigación. Bajo la dirección del ingeniero Mario Enrique Velásquez Lozano, docente del Departamento de Ingeniería Química y Ambiental de la UN, Serrano planteó un innovador proceso que permite obtener el colágeno de esta especie piscícola. Para su estudio seleccionó pescados con piel de color negro, especies de mayor producción en el país, pero como uno de los objetivos era conservar el color blanco que caracteriza al colágeno, en el procedimiento incluyó una etapa de blanqueamiento con cantidades específicas de hipoclorito de sodio y de enzimas proteolíticas, sustancias naturales que se encuentran en la piel y descomponen proteínas diferentes al colágeno logrando su purificación. Así, eliminó el tradicional uso de hidróxido de sodio (sustancia química conocida como soda caústica). Para garantizar que la proteína permaneciera intacta, la piel

representa 880 toneladas de piel que no se están aprovechando”. El país produce anualmente 70 mil toneladas de cachama y tilapia, lo que significa que hay disponibles 4.900 toneladas para procesamiento industrial. Según Álvarez, “a mediano plazo se proyecta la construcción de una planta productora de colágeno de alta calidad, con miras a exportarlo a mercados de Europa, Estados Unidos y Asia”.

El colágeno representa el 30% del peso total de la proteína humana. Es responsable de la elasticidad, la firmeza, la consistencia y la humedad de la piel, y de la regeneración continua de sus células. Ayuda a disminuir los dolores de las articulaciones causados por la artritis, el reumatismo y el sobrepeso. Adicionalmente, contribuye a detener la degradación de los tejidos y proporciona tersura y lozanía a la piel. de cachama y tilapia fue sometida a temperatura ambiente (20 ºC), pues un nivel calórico más alto provocaría el efecto llamado desnaturalización térmica, que destruye su actividad biológica. Los resultados preliminares permitieron obtener colágeno tipo I, abundante en la dermis, el hueso, el tendón, la dentina y la córnea de los peces. Existen cerca de 26 tipos de colágeno que se diferencian según la estructura donde se encuentra la proteína (hueso, membranas, etc.).

Aprovechamiento de residuos Hace más de un año, el Ministerio de Agricultura y Desarrollo Rural destinó mil millones

de pesos para apoyar este proyecto en el que participan la Universidad Nacional de Colombia en alianza con las empresas Metafish Food Company S.A. y Acuioriente. El objetivo es tecnificar la obtención de colágeno a partir de los residuos del fileteo de los pescados, ya que subproductos como la piel superan las 904 toneladas al año. Hasta el momento se emplean en la obtención de aceite, producción de ensilaje (sobrantes para la alimentación de ganado) y manufactura de fertilizantes orgánicos. Javier Enrique Álvarez Barrera, gerente de Acuioriente, asegura que en los Llanos Orientales se producen aproximadamente 11 mil toneladas de filete. “Al final de cada cosecha, ello

Impacto en tres frentes

El colágeno comienza a reducirse progresivamente con el paso del tiempo.

La ingeniera industrial Jimena Beltrán Ramírez, quien también participa en el proyecto, destaca que “el uso de ingredientes naturales y la reducción de químicos de síntesis (elaborados industrialmente) durante el proceso de extracción del colágeno, disminuye el impacto ambiental”. En el ámbito comercial, Colombia tendrá la oportunidad de reabrir los mercados que se han cerrado ante el rechazo del colágeno tradicional, promovido por aspectos culturales y de salud, y estrenarse en otros que ven con buenos ojos el empleo de ingredientes totalmente diferentes a los convencionales. Beltrán subraya que desde el punto de vista de la economía, el proyecto jalonaría tanto la cadena piscicultora como la cosmética y farmacéutica, entretanto se ampliaría la posibilidad de explorar otros campos comerciales como el de los biomateriales y el de los productos nutracéuticos, alimentos saludables con altos nutrientes proveídos por la propia naturaleza.

148 11 de septiembre de 2011

De piel de pescado

Con una tonelada de piel de pescado (cachama y tilapia) se pueden producir hasta 100 kilogramos de colágeno.

Víctor Manuel Hplguín / Unimedios

Tradicionalmente, el colágeno se ha obtenido de los cerdos y las vacas, sin embargo, investigadores buscan nuevas fuentes de esta proteína que en el ser humano constituye el 80% del tejido conectivo (piel, huesos, cartílagos, tendones, ligamentos y vasos sanguíneos), pero que con el tiempo se agota. Jenifer Carolina Serrano, ingeniera química de la Universidad Nacional de Colombia, propuso obtenerla de la tilapia negra (Oreochromis sp.) y la cachama (Piaractus brachypomus). Para ello ingenió un método de extracción que le permitió caracterizar la piel de estos peces, y confirmar que la cachama tiene un alto contenido de dicha proteína fibrosa en comparación con la tilapia o la carpa plateada (Cyprinus carpio), de la cual sacan colágeno en Europa.

Fotos: Archivo particular

Unimedios


22

Agro Giovanni Clavijo Figueroa, Entre el 18% y el 20% de las vacas de la zona lechera más importante de Cundinamarca (Valle de Ubaté, Sabana de Bogotá, Madrid y Mosquera) padecen de mastitis bovina, una enfermedad bacteriana que afecta directamente la calidad composicional de la leche: concentración de grasa y proteína, reducción de calcio, fósforo y caseína, e incremento de cloro y sodio. Así lo señala un estudio adelantado por el grupo Genética Molecular de Patógenos (Gempa), de la Facultad de Medicina Veterinaria y de Zootecnia de la Universidad Nacional de Colombia, que además halló, por primera vez en leche cruda, el gen mecA de la bacteria Staphylococcus aureus, altamente resistente a los antibióticos. “La leche proveniente de bovinos con mastitis constituye un riesgo potencial para la salud humana, no solo por la transmisión de agentes patógenos, sino por la presencia de residuos antimicrobianos usados para el tratamiento de la enfermedad”, asegura el médico veterinario Diego Benavides. Por ser una fuente de nutrientes, la leche y sus derivados son considerados mundialmente como alimentos que contribuyen a la salud humana. La importancia de su comercio en el país se refleja en las cifras presentadas por el Consejo Nacional de Política Económica y Social (Conpes), que señala que, durante el 2008, se comercializaron más de 5.500 millones de litros. De ahí que se requiera garantizar su calidad desde la producción primaria, es decir, desde el ordeño, hasta el consumo. Ello involucra aspectos composicionales (grasa, proteína y sólidos totales) relacionados con su potencial nutricional e industrial, y riesgos microbiológicos, referidos a la presencia de microorganismos que pueden afectar la salud del consumidor.

148 11 de septiembre de 2011

Resistencia El riesgo potencial de aparición y propagación de microorganismos resistentes ha sido objeto de investigaciones científicas y de intervenciones normativas. La Organización de las Naciones Unidas para la Agricultura y la Alimentación (FAO), la Organización Mundial de Sanidad Animal (OIE) y la Organización Mundial de la Salud (OMS) han abordado los problemas de salud pública relacionados con el uso de antimicrobianos en animales productores de alimentos, de ahí la importancia de monitorear las resistencias tanto en el campo humano como en el veterinario. En consecuencia, la presencia de residuos de medicamentos favorece la aparición de microorganismos resistentes. Según la investigadora Jenny Hernández, uno de estos es el S. aureus, cuyo gen mecA codifica la resistencia del microorganismo a la meticilina –SARM–. Por otra parte, los antibióticos beta-lactámicos incluyen un grupo de antibióticos de uso común en medicina humana y veterinaria, principalmente penicilinas y cefalosporinas. “La resistencia de las bacterias ante estos antimicrobianos dificulta el tratamiento de las enfermedades infecciosas, por tal razón es prioridad su estudio y prevención”, enfatiza Martha Suárez, directora del grupo Gempa.

Fotos: Archivo particular

Unimedios

En la investigación se aíslan y caracterizan los agentes causales de la mastitis en 16 hatos lecheros del departamento de Cundinamarca.

Hallan gen que afecta calidad de la leche En vacas con mastitis, médicos veterinarios de la UN descubrieron un gen que afecta severamente la calidad nutricional de la leche. Detección del gen Al evaluar la susceptibilidad de los microorganismos a los tratamientos médicos, se evidenció que los patrones de resistencia de las cepas aisladas se dan con mayor frecuencia frente a las penicilinas. Por lo tanto, asegura Hernández, la detección del gen mecA de S. aureus en muestras de leche proveniente directamente de la producción primaria es relevante y conlleva a enfatizar en la importancia del control y prevención de los peligros químicos y microbiológicos desde la granja. “Con frecuencia, este gen es evaluado en S. aureus provenientes de pacientes humanos, pero nunca se había estudiado en los alimentos (en este caso la leche), y menos durante su producción primaria. Esta es una bacteria patógena de amplia distribución en la naturaleza, y se asocia con infecciones locales, sistémicas y brotes alimentarios en la población”, enfatiza la investigadora. Suárez explica que “en los bovinos la infección que produce el S. aureus en la glándula mamaria, conocida como mastitis, puede persistir durante toda la lactancia”. Ante esta problemática que presentan los hatos de Cundinamarca, el grupo de expertos de la UN sugiere realizar un manejo apropiado de los antimicrobianos en la granja, así: suministrar al bovino las dosis completas del anti-

biótico y en el tiempo prescrito por el médico veterinario. También es necesario que, mientras la vaca esté en tratamiento, la leche que produce no sea destinada a consumo humano. De esta manera disminuye la posibilidad de que los microorganismos se vuelvan resistentes y se presenten residuos antimicrobianos en el producto lácteo y sus derivados. La investigación realizada por

la Facultad de Medicina Veterinaria y de Zootecnia de la UN, con el apoyo financiero de Colciencias y el Sena, en alianza con el Consejo Nacional de la Calidad de la Leche y la Prevención de la Mastitis (CNLM), contribuye al conocimiento de las causas de la enfermedad en los bovinos y al estudio de las resistencias antimicrobianas en esta importante zona lechera del departamento de Cundinamarca.

El gen MecA de la bacteria Staphylococcus aureus se estudia por primera vez en el país a partir de muestras de leche de vacas con mastitis.


Academia

Colombia,

ingreso por alumno en la educación superior, el país se encuentra muy por debajo de los otros mencionados.

en el abismo del saber

Ciencia y tecnología

José Luis Barragán Duarte,

Unimedios

Aunque centenaria, la tradición de evaluar el desempeño académico de las universidades por medio de escalafones tomó fuerza en la primera década del siglo XXI con la creación de varios listados de cobertura mundial, entre los que destaca el Academic Ranking of World Universities (ARWU), realizado por la Universidad Shanghai Jiao Tong. En su edición 2011, este presentó las 500 primeras instituciones de educación superior, con un resultado que muestra noticias poco favorables para América Latina y ni siquiera menciona a Colombia. Este escalafón, aparecido en el 2003, evalúa la producción científica de las universidades por medio de una serie de indicadores como el presupuesto destinado para la investigación, el número de ganadores de premios Nobel y de la Medalla Field (para descubrimientos sobresalientes en matemáticas), así como la citación en publicaciones académicas, entre otros factores. A partir de esta información produce el listado, en el que el liderazgo continúa siendo de las universidades de las principales potencias mundiales, especialmente las que integran el G7 (USA, Japón, Francia, Alemania, Inglaterra, Canadá e Italia). En efecto, el ranking ratifica el poderío de la educación superior

de Estados Unidos, que ubica a 53 de sus instituciones entre los 100 primeros lugares, 8 entre los 10 y 4 entre los 5. Luego aparecen países como Inglaterra, Alemania, Canadá, Australia, Japón, Francia e Italia. En contraste, de América Latina solo se registran nueve instituciones: siete de Brasil (Universidad de Sao Paulo, Universidad Estatal de Campinas, Universidad Federal de Minas Gerais, Universidad Federal de Río de Janeiro, Universidad Estatal de Sao Paulo, Universidad Estatal de Rio Grande Do Sul y Universidad Federal de Sao Paulo), una de México (Universidad Nacional Autónoma de México) y otra de Argentina (Universidad de Buenos Aires). Para Colombia, el ARWU es meramente enunciativo porque ninguna de sus universidades aparece en dicho listado. A la hora de evaluar las potenciales causas de esta situación, aparece como primera y fundamental el presupuesto que destina cada Estado para los sistemas de educación y de ciencia y tecnología.

Educación En el primer ámbito, el indicador base es el gasto público en educación como porcentaje del PIB, que mide el gasto corriente y de capital del Gobierno en instituciones públicas y privadas. En el 2007, según cifras del Instituto de

Estadísticas de la Unesco, mientras en Colombia se alcanzaba el 4,1%, en Estados Unidos llegaba a 5,5%, en Canadá a 4,9% y en Alemania a 4,5%. Comparado con las naciones latinas que aparecen en el listado ARWU 2011, la desventaja es evidente ya que en Brasil era de 5,1%, en Argentina de 4,9% y en México de 4,8%. Esta diferencia es abismal, si se tiene en cuenta que el PIB anual de la mayoría de los países de primer mundo supera el billón de dólares y hasta el trillón, como en la Unión Americana, mientras el de Colombia, en ese año, llegaba a 207.410 millones. Otro indicador que deja en evidencia la brecha es el gasto por alumno del nivel terciario como porcentaje del PIB per cápita. En términos porcentuales, en el 2006 Colombia alcanzaba el 19,6%, Estados Unidos el 25%, Francia el 33,3% y Reino Unido el 28,8%, por citar solo a tres países del G7. Se superó a Argentina que llegó a 14,2% y fue inferior a México, con 35,3%. Sin embargo, a la hora de evaluar el impacto en valores absolutos, nuevamente la brecha es superior. Mientras en Colombia el PIB per cápita en el 2006 era de USD$ 3.725, en Estados Unidos era de USD$ 44.663, en Inglaterra de USD$ 40.329, en Francia de USD$ 35.558, en México de UD$ 9.137 y en Argentina de USD$ 5.474. Por ende, a la hora de establecer el real

En el campo de la producción de valor agregado al conocimiento académico, Colombia se encuentra también en desventaja frente a los otros países. Así se observa al mostrar el indicador estrella de la inversión en Investigación y Desarrollo (I+D), como porcentaje del PIB: en el 2007 invirtió 0,16%, mientras Japón 3,44%, Estados Unidos 2,72%, Alemania 2,54% y Canadá 1,90%. Frente a los países latinoamericanos, Colombia estuvo por debajo de México (0,37%), Argentina (0,51%), y Brasil (1,10%). Teniendo en cuenta los valores absolutos del PIB, nuevamente la diferencia es notable. Por ejemplo, si el país quisiera igualar a Alemania, debería invertir el 44,44% del total del PIB; a Estados Unidos, el 210%; a Brasil, el 6,7%, y a Argentina, el 0,61%. Al mirar el histórico de la primera década del presente siglo, publicado por el Observatorio Colombiano de Ciencia y Tecnología (OCyT), la inversión colombiana en I+D se ha mantenido entre 0,106% en el 2000 y 0,160% en el 2010. Y aunque el Gobierno del Presidente Santos anunció que destinaría el 10% de las regalías para este rubro (en el 2010 alcanzaron los 6 billones de pesos), el incremento apenas se acercaría al 0,4%. Otro indicador que ahonda la diferencia es el número de investigadores dedicados a I+D por cada millón de habitantes1. En el 2006, en Colombia había 151, mientras que Argentina tenía 8.960, Estados Unidos 4.663, Francia 3.440, Alemania 3.392 y Brasil 629. Si se tiene en cuenta el total de la población nacional en ese año (43.704.486 habitantes), se alcanzaba un total de 6.493 investigadores, mientras que los países mencionados, con mayor población –salvo Argentina– sumaban más personas en este campo, así: Estados Unidos 1.389.574, Alemania, 278.144 investigadores, Francia 209.840, Brasil 118.252 y Argentina 34.944. Una tercera variable son las exportaciones de alta tecnología, que en el 2009 alcanzaban los USD$ 466 millones, cifra evidentemente inferior con respecto a Alemania (USD$ 142.449 millones), Estados Unidos (USD$ 141.518 millones), Francia (USD$ 83.826 millones), México (USD$ 37.353 millones), Brasil (USD$ 8.315 millones) y Argentina (USD$ 1.548 millones). Frente a este problema estructural, la meta del Gobierno de cambiar el estatus de país periférico que tiene Colombia, para insertarlo en el primer mundo, debe empezar por plantear un cambio profundo en la escala de inversión para estos sectores, tema que no se refleja en el proyecto de reforma de la Ley 30 de 1992, que pronto será radicado ante el Legislativo.

División de Población de las Naciones Unidas. Perspectivas de la Población Mundial: Revisión de 2008 y Revisión de 2006, Eurostat, oficinas estadísticas nacionales y estimaciones del personal del Banco Mundial a partir de diversas fuentes, como informes de censos, oficinas estadísticas nacionales, Perspectivas de la Población Mundial y encuestas a los hogares realizadas por los organismos nacionales y Macro International. 1

148 11 de septiembre de 2011

Archivo Unimedios

En el Ranking de Shanghai 2011, que presenta las mejores 500 universidades del mundo, apenas aparecen nueve instituciones latinoamericanas, y ninguna colombiana.

23


24

Reseñas Nicolás Quevedo Rachadell. Un músico de la independencia Autora: Ellie Anne Duque Comisión Bicentenario Vicerrectoría Académica Universidad Nacional de Colombia Con la reciente clasificación del archivo de partituras musicales de la Casa Museo Quevedo Zornosa, ubicada en Zipaquirá, se develó la obra musical del compositor venezolano Nicolás Quevedo Rachadell, quién llegó a Santafé de Bogotá con Simón Bolívar en 1827. Quevedo se quedó en el país el resto de sus días y formó musicalmente a su hijo Julio Matías Quevedo Arvelo, uno de los

compositores colombianos más prolíficos de la segunda mitad del siglo XIX. Con el descubrimiento de sus composiciones se aclara la naturaleza de la formación de Julio, la aparición de piezas como trisagios, pésames y responsiones en la literatura musical religiosa de la capital, y se adquieren importantes luces sobre la práctica de danzas de salón en la vida social de Bogotá en la primera mitad del siglo XIX.

Con sus notas, Quevedo Rachadell esclarece un periodo sobre el cual se tenía poca ilustración sonora: los años de la Independencia. En esta publicación el lector encontrará sus datos biográficos, un análisis de su música y copias de sus composiciones, en versión facsimilar de los manuscritos originales, y en versión contemporánea de uso, editada por la autora.

Indicadores DEA (Data Envelopment Analysis) de eficiencia y productividad para las actividades de extensión universitaria. Aplicación en la Universidad Nacional de Colombia Autora: Gloria Isabel Rodríguez Lozano Facultad de Ciencias Económicas Universidad Nacional de Colombia Expone la metodología para establecer indicadores relativos de eficiencia y productividad de las actividades de extensión en la Universidad Nacional de Colombia. Aunque su aplicación se llevó a cabo en la Institución, la metodología está diseñada para ser implementada en cualquier universidad interesada en conocer el desempeño de aquellas unidades administrativas y/o académicas encargadas de adelantar ese tipo de actividades, con la virtud de integrar tal desempeño en un solo número (en términos porcentuales), considerando la variedad en los recursos y en los resultados pro-

pios de la extensión universitaria. La necesidad de contar con indicadores para las diferentes actividades desarrolladas en una organización no es extraña a las universidades. El hecho es que, unas y otras, se ven abocadas a solucionar el mismo problema: es difícil tomar decisiones acertadas respecto a actividades complejas teniendo como referencia indicadores tradicionales, pues el gran número de estas relaciones imprime un alto grado de dificultad y riesgo. La metodología expuesta en esta investigación cuenta con la fortaleza de evaluar, mediante un solo indicador numérico, el desempeño de actividades complejas, abar-

cando múltiples recursos necesarios para adelantar su gestión y múltiples productos obtenidos mediante esta misma gestión. Este es un indicador relativo que se genera mediante la aplicación de la técnica de programación lineal avanzada llamada “Análisis envolvente de datos” (Data Envelopment Analysis – DEA). El estudio se convierte en una primera propuesta para abordar de diferente manera la evaluación del quehacer universitario, dejando atrás los indicadores tradicionales y facilitando el proceso de toma de decisiones para los decanos, directores, vicerrectores e incluso el mismo Rector.

La cuestión colonial Editor: Heraclio Bonilla Comisión Bicentenario Universidad Nacional de Colombia La Universidad Nacional de Colombia, con ocasión del Bicentenario de la Independencia, organizó el Seminario Internacional La Cuestión Colonial, dedicado al examen de la génesis, el funcionamiento y las consecuencias de la dominación colonial impuesta por Europa sobre los pueblos de las Américas, de África y Asia desde inicios del siglo XVI hasta su culminación en la segunda mitad del siglo XX. El encuentro reabrió el examen de un problema que estuvo en el centro de los debates del pensamiento social de la primera mitad del siglo XX, y que después fue puesto de lado debido a otras preocupaciones en la agenda de la investigación y la reflexión. Este

reexamen es necesario por el peso del legado colonial en vastas regiones del planeta, cuya población afronta dificultades económicas y sociales por las brechas crecientes producidas por una globalización en curso. El libro recoge las ponencias presentadas en las sesiones de trabajo de distinguidos historiadores y especialistas de las ciencias sociales, quienes han contribuido a mejorar la comprensión histórica y política de la cuestión colonial. En las reflexiones sobre el “Nuevo Mundo” se recopilan las presentaciones de Perry Anderson, Jack Greene, Kris Lane, Medófilo Medina, Francisco Ortega, Javier Tantaleán, Carlos Marichal, Antonio Ibarra,

Tras el concierto de las ranas Matices. Historias detrás de la investigación

148 11 de septiembre de 2011

Autor: Unidad de Medios de Comunicación - Unimedios. Universidad Nacional de Colombia En medio de la espesa vegetación de la Reserva Nacional Forestal Bosque de Yotoco (propiedad de la UN en Palmira), mora un anfibio que ha vivido por millones de años y ha sido inspiración de cuentos y canciones infantiles: las ranas. Estos animales, también conocidos como anuros, son considerados una fuente importante de alimento para algunos depredadores del bosque. Pequeños en tamaño pero grandes controladores de insectos, actualmente se encuentran en la lista roja de las especies en peligro de extinción a nivel mundial, según la Unión Internacional para la Conservación de la Naturaleza (UICN), debido a la destrucción de su hábitat, el cambio climático y un potente hongo que las está matando en gran parte del planeta. El Grupo de Investigación en Recur-

sos Zoogenéticos de la UN en Palmira se ha preocupado por la conservación de esta especie y realiza desde hace dos años un programa de monitoreo en dicha reserva, con el objetivo de evaluar su cambio poblacional. Árboles de más de diez metros de longitud, abundantes enredaderas de monte, serpientes, arañas y mosquitos son algunos de los obstáculos que este grupo de investigadores debe sortear para seguir el canto de las ranas y conocer qué está pasando con sus poblaciones en este importante relicto de bosque del Valle del Cauca. Esta es la historia publicada en la edición número 30 de Matices: historias detrás de la investigación, donde se muestra cómo los científicos se han dedicado incansablemente a trabajar con este grupo de especies, símbolo de los ecosistemas colombianos, con la pasión que los impulsa a seguir escuchando su encantador concierto.

Ángelo Alves Carrara, Jean Casimir, Georges Lommé y Juan Marchena. Las discusiones sobre “Los Otros Mundos” son recogidas en las exposiciones de Saurabh Dube, Pradip Kumar Datta, Pierre Brocheux, Mamadou Diouf, Benjamin Stora y William M. Mathew. Finalmente, los debates planteados sobre “El Legado” son expuestos en las ponencias de Maurice Godelier, Bernard Lavallé, Max S. Hering Torres, Sabine MacCormack, Adelino Braz, Christine Hünefeldt & Hanni Jalil, Ángel G. Quintero, Frank Moya Pons, Herbert S. Klein, Javier Iguiñiz Echeverría, Itala De Maman & Luis Oporto, Nadja Vuckovic y Emir Sader.


Turn static files into dynamic content formats.

Create a flipbook
Issuu converts static files into: digital portfolios, online yearbooks, online catalogs, digital photo albums and more. Sign up and create your flipbook.