Enero del 2015
Año 8. No. 22. ISSN 1659-3383
-PROFESORES TEC-
TEC mantiene valiosa relación académica con universidad alemana (página 2)
UniTransfer: un programa para la formación de gestores de vinculación (página 7)
Mediciones y análisis de vibraciones en el puente del Virilla (página 16)
Cursos bimodales y presenciales: ¿Existen diferencias en los aprendizajes del estudiantado del TEC? (página 3)
En la Universidad de Stanford: Joven costarricense combina investigación en genómica y biofísica (página 9)
Proyecto de investigación básica genera conocimiento sobre virulencia de Brucella abortus (página 21)
La importancia de la estadística en la investigación (página 5)
Relación con TUHH contribuye a elevar calidad de la investigación en el TEC (página 11)
La influencia del arte en el marketing (página 22)
Apuntes perplejos (página 5)
Investiga.TEC es una
publicación cuatrimestral de la Vicerrectoría de Investigación y Extensión del Instituto Tecnológico de Costa Rica.
Editora: Marcela Guzmán O.
Comité Editorial: Dagoberto Arias A. Marcela Guzmán O. Silvia Hidalgo S. Ileana Ma. Moreira G. Edgar Ortiz M.
Teléfonos: (506) 2550-2315 ó (506) 2550-2151 Correo electrónico: vie-tec@itcr.ac.cr Apartado postal 159-7050, Cartago, Costa Rica Diseño gráfico: María José Montero V. Xinia Varela S.
Diagramación e impresión: Grafos S.A. Teléfono 2551-8020 info@grafoslitrografia.com
2
Investiga TEC - ENERO 2015
T
EC mantiene valiosa relación académica con universidad alemana
Marcela Guzmán O. Editora mguzman@itcr.ac.cr Una valiosa relación académica con la Universidad Técnica de Hamburg-Harburg (TUHH), de Alemania, ha construido a lo largo de diez años el Instituto Tecnológico de Costa Rica (TEC), por intermedio de la Escuela de Ingeniería Electrónica. Hoy, la relación se ha fortalecido y un importante número de profesores y estudiantes de maestría del TEC han podido obtener posgrados y desarrollar trabajos académicos, especialmente en el Instituto de Nanoelectrónica y Electrónica Médica de la universidad alemana.
otros grupos académicos en el TEC, como son los siguientes: Cursos bimodales y presenciales: ¿Existen diferencias en los aprendizajes del estudiantado del TEC?; Mediciones y análisis de vibraciones en el puente del Virilla; y Proyecto de investigación básica genera conocimiento sobre virulencia de Brucella abortus. Publicamos otros artículos que de seguro serán de interés, dado que tienen que ver con temas que hoy se discuten mucho en el país, como es el caso de las microempresas, las pequeñas empresas y las medianas empresas (mipymes), una de cuyas vertientes se discute en el artículo La dinámica de la iniciativa empresarial en Costa Rica ¿Cuáles empresas crecen más y cuáles generan más fuentes de empleo? Igualmente presentamos un artículo que trata de un caso de capacitación para la necesaria vinculación entre la universidad y el sector productivo, titulado UniTransfer: un programa para la formación de gestores de vinculación.
En el presente número de Investiga.TEC ofrecemos un breve resumen de los trabajos conjuntos que se han desarrollado en los últimos meses y que prometen aumentar y fortalecerse durante el 2015.
Investiga.TEC es una revista cuyo objetivo es divulgar avances y resultados de proyectos de investigación ejecutados en el TEC y en otras organizaciones. Lo que busca es mantener informados a los lectores sobre distintos aspectos científicos y tecnológicos que pueden ser de su interés y que le ayudarán a formar criterio sobre diversos temas.
También ofrecemos a nuestros lectores artículos que dan cuenta de resultados y avances de proyectos de investigación ejecutados por
Los autores de los artículos están en la mejor disposición de recibir sus consultas por medio del correo electrónico.
Fotografía de portada Puente sobre el río Virilla. En el detalle se muestra la instalación de un sensor de fibra óptica FBG para medir la deformación de la estructura. Estas fotografías corresponden al artículo de la página 18, Mediciones y análisis de vibraciones en el puente del Virilla.
C
Proyecto de investigación
ursos bimodales y presenciales: ¿Existen diferencias en los aprendizajes del estudiantado del TEC?
Natalia Rodríguez Granados* nrodriguez@itcr.ac.cr Julia Espinoza Guzmán** juliaespinoza@itcr.ac.cr Tania Elena Moreira Mora*** tmoreira@itcr.ac.cr Introducción Mucho se habla y se propone respecto a los cursos bimodales y virtuales, sobre todo por las bondades que ofrecen las tecnologías de información y comunicación (TIC) para disminuir las barreras de tiempo y distancia, dar autonomía al estudiante y acceso a recursos educativos, entre otras (Cabero, 2006; González, 2008; Santoveña, 2007). Múltiples estudios han analizado el impacto de las TIC en la educación y sus efectos en los estudiantes (Arraz, Aguado y Lucía, 2008; Imbernón, Silva, & Guzmán, 2011). Por ello, es fundamental para una institución de educación superior como el Instituto Tecnológico de Costa Rica (TEC), el estudio sobre el aprendizaje de los estudiantes en cursos de modalidades diversas, que den luz para la toma de decisiones respecto a la oferta académica y el uso de las TIC. Más aún al considerar que el Plan Estratégico 2011-2015 incluye objetivos, acciones e indicadores para la virtualización de cursos. En otros estudios se ha encontrado que el diseño instruccional es un factor clave para una formación de calidad en los diferentes entornos educativos (Cabero, 2006; Gustafson y Branch, 2002). En general, el diseño instruccional es un proceso sistémico, planificado, sinérgico y estructurado que se debe llevar a cabo antes de impartir el curso para la educación presencial o en línea (Agudelo, 2009, Gustafson y Branch, 2002). Desde esta perspectiva, algunos autores destacan que es un esquema organizativo de los diferentes procesos educativos, que especifica
objetivos, tecnología e infraestructura requeridas, métodos necesarios para la instrucción; se encarga también de la selección y organización de contenidos, del diseño de situaciones de aprendizaje y de evaluación, tomando en cuenta las características del que aprende y los resultados esperados del aprendizaje (Cabero, 2006; Gil, 2004). Metodología El diseño de la investigación fue cuasi experimental al seleccionar dos grupos del curso de Cálculo y Álgebra Lineal (CAL) de la Escuela de Matemática, impartido por la misma docente y en el mismo periodo, durante el segundo semestre del 2013 en la sede de Cartago. La muestra estuvo constituida por 33 estudiantes (presencial tradicional) y por 31 del bimodal (tratamiento) y su participación se dio por la condición de matrícula en el curso. El estudio se desarrolló en dos etapas, la primera enfocada en la construcción de una escala para medir las variables del diseño instruccional desde el punto de vista de los estudiantes y la segunda en la evaluación integral de los aprendizajes del estudiantado inscrito en el curso bimodal y presencial. Precisamente, en este artículo se reporta parte de los resultados de esta segunda fase. Resultados En esta sección se incorporan los análisis multivariados de los datos con el fin de evaluar la efectividad de la modalidad presencial y bimodal en los aprendizajes del estudiantado inscrito en un curso bimodal y presencial de CAL. Tomando en cuenta que la ausencia de aleatoriedad genera sesgos, principal limitación de los diseños cuasiexperimentales, se aplicó el modelo propensity score matching (PSM), estimado con una regresión probit, para calcular directamente los efectos del tratamiento en una nueva muestra apareada de sujetos tratados y de control lo más parecidos posibles con el método del vecino más cer-
cano (nearest neighbor matching). Como lo explica Rodríguez (2012) la clave es buscar y construir un grupo válido de comparación (contrafactual) para calcular la diferencia de los resultados entre los tratados y de control que sean lo más similares desde el punto de vista observacional. Por esta razón los estudiantes se clasificaron en: tratados (bimodal) y de control (presencial) y se emparejaron según historial académico en el TEC (promedio), cantidad de materias matriculadas (canmate), edad y puntuación de cada uno en la escala del diseño instruccional (DI10) y como variable dependiente la nota del curso. Este modelo fue calculado con la herramienta STATA12 y según los resultados la única característica asociada a la nota del curso fue el historial académico (promedio); esto significa que, con un nivel de confianza del 95%, el promedio del curso de CAL está relacionado con el desempeño histórico del estudiantado en el TEC. Además, como se muestra en la tabla 1, no hubo evidencias para rechazar la hipótesis nula de igualdad de promedios de la nota (notacal), porque la t student (-1,76) del grupo apareado entre los tratamientos y los controles (ATT) fue menor al valor crítico (1,96). Si se calcula la t student sin el emparejamiento de los sujetos (Unmatched), entonces la hipótesis nula de igualdad de promedios se rechazaría (-2,40). Este hallazgo muestra la relevancia del PSM cuando se busca comprobar el efecto de un tratamiento en grupos que no se han conformado de manera aleatoria, como son en realidad los grupos universitarios. El segundo análisis multivariado se realizó con la intención de obtener evidencias adicionales de las variables asociadas al rendimiento académico del estudiantado con base en un modelo de regresión lineal múltiple. Las evidencias confirman que el tratamiento del curso (bimodal y presencial) no se relaciona con la nota del curso CAL. En este modelo, la puntuación dada por el estudiante al
Tabla 1. Resumen de la prueba de T student estimada en el propensity score matching. Variable notacal
Sample
Treated
Controls
Unmatched 67.9411765 76.8 ATT 67.9411765 75.5882353
Difference
S.E.
T-stat
-8.85882353 -7.64705882
3.68519717 4.34774986
-2.40 -1.76
Note: S.E. does not take into account that the propensity score is estimated. ENERO 2015 -
Investiga TEC 3
Proyecto de investigación diseño instruccional del curso fue la variable más importante y con significancia estadística; esto es, que a mayor puntuación en los cinco componentes del diseño (objetivos, materiales didácticos, recursos, actividades de aprendizaje y evaluación), en promedio, los estudiantes tienden a obtener 6,3 puntos más en la nota final del curso, controlando el efecto de las otras variables del modelo. Tal resultado es relevante para esta investigación, al demostrar que el desarrollar apropiadamente el diseño instruccional -PROFESORES TEC- de un curso se incrementan las probabilidades de un mejor logro de los objetivos del estudiantado. La otra variable con significancia estadística es la edad de los jóvenes que, en promedio, por cada aumento de año tendió a disminuir su promedio en 4,2 puntos. Consideraciones finales Uno de los objetivos de la investigación fue evaluar de manera integral el nivel de logro de los aprendizajes de los estudiantes de ambas modalidades, cuyos resultados demostraron que el tratamiento no se asocia con el rendimiento de los estudiantes en el curso de cátedra de CAL. En este estudio empírico fue muy útil el uso del modelo PSM para la comparación de grupos y la inclusión de aquellas características observables vitales
para el emparejamiento y relacionadas con el desempeño académico del estudiantado universitario. La segunda conclusión de este estudio es que el diseño instruccional como marco de referencia para cualquier tipo de curso es un factor que incide positivamente en el desempeño académico y para potenciar el aprendizaje autónomo en los cursos bimodales es necesario diferenciar los recursos didácticos, las actividades y las estrategias de evaluación. Las investigadoras agradecen el aporte y colaboración de los estudiantes participantes, las escuelas de Matemática e Ingeniería en Computación, el TEC Digital y el Departamento de Orientación y Psicología. Referencias bibliográficas Agudelo, M. (2009). Importancia del diseño instruccional en ambientes virtuales de aprendizaje. En J. Sánchez (Ed.): Nuevas Ideas en Informática Educativa, Volumen 5, pp. 118 – 127, Santiago de Chile. Arranz, V., Aguado, D., y Lucía, B. (2008). La influencia del tutor en el seguimiento de programas eLearning. Estudio de acciones en un caso práctico The influence of the e-tutor on an e-learning program. follow-up: Guidelines from a working environment. Revista de Psicología del Trabajo y de las Organiza-
ciones, 24(1), 5. Cabero, J. (2006). Bases pedagógicas del elearning. Revista de Universidad y Sociedad del Conocimiento, 3 (1), 1- 10. Díaz, F. y Hernández R. (2002). Estrategias Docentes para un Aprendizaje Significativo (2ª ed.). México: McGraw-Hill. Gil, C. (2004). Modelo de Diseño Instruccional para programas Educativos a Distancia. Revista Perfiles Educativos, XXVI (104), 93-114. González, J. (2008). TIC y la transformación de la práctica educativa en el contexto de las sociedades del conocimiento. RU&SC. Revista de Universidad y Sociedad del Conocimiento, (2). Gustafson, K. L., & Branch, R. M. (2002). What is instructional design. Trends and issues in instructional design and technology, 16-25. Imbernón, F., Silva, P., & Guzmán, C. (2011). Competencias en los procesos de enseñanza-aprendizaje virtual y semipresencial. Comunicar, 18(36), 107-114. Rodríguez, M. (2012). Técnicas de Evaluación de Impacto: Propensity Score Matching y Aplicaciones Prácticas con Stata. Recuperado de http://www.ief.es/documentos/ recursos/publicaciones/documentos_trabajo/2012_02.pdf Santoveña, S. (2007). El Proceso de Virtualización en las disciplinas de la UNED. Edutec. Revista Electrónica de Tecnología Educativa, 12. *Natalia Rodríguez Granados es docente de la Escuela de Matemática del TEC, graduada del bachillerato y la licenciatura en Enseñanza de la Matemática Asistida por Computadora del Instituto Tecnológico de Costa Rica y de la maestría académica en Matemática Educativa de la Universidad de Costa Rica. **Julia Espinoza Guzmán es docente de la Escuela de Computación y coordina la capacitación en e-learning del TEC Digital. Es ingeniera en computación del TEC y licenciada en educación de la UNED. ***Tania Elena Moreira Mora tiene un doctorado en educación de la UNED, una maestría en Evaluación Educativa de la Universidad de Costa y Rica y una licenciatura en Literatura y Lingüística de la Universidad Nacional. Labora en el Departamento de Orientación y Psicología del TEC, destacada en el Comité de Examen de Admisión.
4
Investiga TEC - ENERO 2015
L
Opinión
a estadística y su importancia en investigación
“Una cifra concentra una realidad cuyo sentido no aparece cabal si no decimos algo de la complejidad que la rodea.” Luis Cardoza y Aragón. Oscar Federico Nave Herrera* fnave@digi.usac.edu.gt A través de la experiencia de interactuar con investigadores como asesor estadístico, he tenido la oportunidad de encontrar toda una amplia gama de situaciones que reflejan, a su vez, una variedad de conceptos, ideas, juicios y prejuicios sobre la estadística, su importancia y utilidad. En estas líneas trataré de resumir algunas de estas situaciones que se repiten con cierta regularidad cuando se realiza investigación. Para iniciar me voy a referir al caso del investigador que se desentiende de la parte estadística de sus proyectos, siendo común escuchar frases como “de estadística no me acuerdo” o “para eso está el estadístico”, por lo que se deja esta parte como en una nebulosa que solo el estadístico es capaz de escudriñar e interpretar. En la práctica de la asesoría estadística esto es un gran problema, porque al estadístico se le hace muy difícil que sus observaciones, sugerencias y explicaciones puedan llegar a tener eco, o lo que es peor, que se incorporen como sustento de las investigaciones. Desafortunadamente, se pueden ver trabajos en los cuales la estadística es solo considerada como “un mal necesario” para fines de publicación y no se toma en cuenta como fundamento en la discusión y las conclusiones: se indica la metodología estadística en materiales y métodos, a veces ni se menciona en resultados y a menudo desaparece en la discusión. Otra complicación es dejar las soluciones estadísticas exclusivamente a criterio del estadístico y tomar su interpretación como la receta infalible, sin pasar por el ojo crítico de los conocimientos no estadísticos del problema y, sobre todo, la compatibilidad entre la significación estadística y la signifi-
Apuntes perplejos
Emprender, sí... ¿pero para quién? A veces es una insignificancia que dispara el esclarecimiento: un comentario, un gesto, el voltear de una mirada que, de pronto, te hacer unir los puntos y completar la intuición para transformarla en convicción. Es esta por supuesto una imagen muy trillada, característica de un manual de budismo zen. Pero lo común no deja de ser válido e indispensable, al igual que cualquier hábito, como lavarse los dientes o comer sano. En este caso, a mí me vino la chispa de una entrevista a Andre Geim, premio Nobel por sus descubrimientos con el grafeno, al preguntársele por qué no había patentado sus hallazgos. Y si bien la declaración de Geim es pedestre, casi rayando en mercantilista (y muy lejos del altruismo del nobel argentino César Milstein –también de padres rusos, paradójicamente– que cedió al mundo su descubrimiento de los anticuerpos monoclonales), fue tajante y filosa al punto de revelar el peligroso tránsito que hace la ciencia en la actualidad: “No patenté el grafeno”, parafraseo a Geim, “porque el dueño de una firma de alta tecnología me afirmó amablemente que en unos años ellos tendrían tantas patentes y abogados trabajando en el tema, que pasaría el resto de mi vida y de mi fortuna demandándolos.” Ante tal realidad, conviene entonces preguntarse: ¿a qué tanto discurso y motivación, tanto TED Talk sobre emprendimiento e innovación, si al final todo es asunto de abogados y corporaciones? ¿Es realmente esto de investigar algo que premie el esfuerzo y la audacia, o solo un confite para gente ilusa que termina o en la calle o regalando su esfuerzo a los de siempre? Primero, conviene aclararlo, que la ciencia –el inevitable discurso ideológico más bien que la acuerpa, como a cualquier actividad humana según Althusser– ha devenido en una mitología inseparable hoy de la imagen que tenemos de la humanidad. Algo inevitable, porque somos animales míticos, que necesitamos de narrativas que otorguen sentido a nuestra existencia: narrativas que pueden llamarse de distintos nombres, pero que comparten el poderoso fin de orientarnos en
la irregular y temible existencia. Pero sin detenernos en la conveniencia o no de dichas narrativas (y aquí conviene estar atentos, que las mitologías dominantes nunca se aceptan como tales sino como enfoques objetivos de la realidad, y así como dudar de la narrativa cristiana en la edad media europea valía ser torturado y abrasado lentamente en la hoguera, hoy le cuesta a muchos la cabeza –figurativa y literalmente hablando– dudar de otras mitologías religiosas, incluyendo la de la ciencia como faro de progreso inexorable hacia a una vida mejor (recomiendo al respecto leer a John N. Gray o al infaltable Foucault), conviene sajar la piel hasta el fondo y tratar de ver qué hay detrás del discurso de la innovación y el emprendedurismo, de esa búsqueda incesante de los nuevos Einstein y Edison, aunque en realidad se llamen Jobs, Zuckermann y Gates. Un discurso que más parece a veces un circo, la ciencia showbiz, un culto por derecho propio con sus santos y sus reliquias (ver el artículo “From Isaac Newton to the Genius Bar, de Darrin M. McMahon” al respecto), con sus reality shows y sus divas, traídas en aviones de primera clase de un lugar a otro para proponer la próxima idea salvadora de África, del mundo, de la economía mundial (pero es muy fácil sentirse tentado por la invitación en jet privado a pasar unos días hablando del futuro del mundo en un centro vacacional de esquí suizo). Es decir, que por un lado seguimos con la sacrosanta imagen del científico o científica haciendo maravillas en su laboratorio, pero ahora transformado en un glamoroso entrepreneur: ¡la gloria para los mejores! Claro, una simplista visión socio-darwinista (y aclaro que sé bien que fue Herbert Spencer quien propuso el modelo evolutivo como organizador social, no Darwin, quien siempre supo mantener su teoría dentro del ámbito de la biología y un ejemplo aleccionador para quienes pretender extender sus hipótesis cientifistas fuera del mundo natural). Y es que puede parecer hasta motivador pensar tal como Nassim Taleb (que tanto se cuida en otras ocasiones de la falacia natuENERO 2015 -
Investiga TEC 5
cación práctica; incluso no se les llega a sacar provecho a aquellos casos en los que los análisis muestran el fatídico resultado de “no significativo” y se piensa que eso representa la sepultura de las esperanzas de publicación. Una situación muy peligrosa para la investigación, y que ocurre en la práctica, es iniciar con un diseño, cambiarlo en el desarrollo de la investigación (por cualquier motivo) y luego tratar de rescatar los resultados, aplicando incorrectamente las técnicas estadísticas, o como algunos dicen en broma “torturando los datos lo suficiente hasta que confiesan”. Cabe citar en este punto a Darrell Huff de su libro “Cómo mentir con estadísticas”, publicado por primera vez en 1954 pero con mucha vigencia aún: “Si no puedes probar lo que quieres probar, demuestra otra cosa y pretende que es lo mismo, en el aturdimiento que sigue a la colisión de las estadísticas con la mente humana, casi nadie notará la diferencia”. No obstante su desafortunado título, lo que Huff enseña en su libro es a aprender de este tipo de casos para no dejarnos engañar y hacer las cosas correctamente. Hace algunos años tuve la oportunidad de escuchar a un destacado académico en una disertación, quien citó este libro diciendo que las estadísticas son tan engañosas que hasta hay un libro que nos dice cómo mentir con ellas, demostrando su total desconocimiento del contenido de esta obra, que ha vendido mayor número de copias que cualquier otro texto sobre estadística que hasta la fecha se haya editado; recomiendo su lectura a todo aquel que le llame la atención este campo. También está el investigador muy interesado en la estadística y que se involucra directamente en el desarrollo de los análisis; es más, si tiene acceso a algún programa de cómputo estadístico, no duda en aplicarlo. Esto puede llevar a situaciones en las que luego de haber analizado los datos, los resultados obtenidos no se comprenden a cabalidad, se reportan las salidas de computador sin las modificaciones necesarias o se interpretan inadecuadamente. Hay que tener claro que el saber operar un paquete estadístico no crea conocimiento estadístico, como indica el profesor uruguayo radicado en Cuba, Luis Carlos Silva Ayçaguer: “los ordenadores aportan más potencialidades productivas, pero a la vez multiplican la capacidad de estropicio”; cualquiera que tenga conocimientos y habilida6
Investiga TEC - ENERO 2015
ralista), o Steve Jobs, y admirar un modelo económico sólido donde los individuos viven inseguramente (el modelo de Taleb, de que muchos restaurantes frágiles vuelven antifrágil al negocio de los restaurantes, puede resultar convincente, pero un restaurante no es una persona y aún el dueño de un restaurante quebrado puede emplearse como chef en otro lugar). Pensemos. Facebook pagó US$19 mil millones por WhattsApp, una empresa de 55 empleados (de paso, se ha mostrado ya que las empresas tecnológicas tienden a tener muchos menos empleados que las tradicionales; es decir, que la alta tecnología no soluciona el desempleo). ¿Qué se oculta detrás de tanto dinero? ¿Vale tanto WhattsApp fuera de Wall Street (es decir, si valdrá tanto como, digamos, la vacuna contra el sida?). Pensemos en Fausto y su trato. ¿Venderse? ¿Hasta dónde? ¿Qué significa realmente la E de TED? (muchos dicen que significa en realidad “Economía”, pero no una nueva economía, sino la economía del consumismo: diseñar nuevos productos para que la gente gaste más dinero, o venderlos al estamento militar y farmacéutico: drones, el genoma, las semillas patentables y los bebés a pedido). Y entre alboroto y entretenimiento, ¿decimos la verdad sobre el sacrificio real del emprendedurismo a nuestros futuros inves-
tigadores? ¿Nos hemos preguntado alguna vez si es realmente innovación comercial lo que debe perseguir la investigación con fondos públicos? ¿No debería haber un retorno social tangible? ¿Sabemos siquiera cuántos emprendedores realmente logran el éxito? (Según la fuente, entre un 90% y un 75% de las start-ups de alta tecnología fracasan de una u otra manera. No importa, dicen otros: las que tienen suceso, multiplican generosamente las inversiones; las start-ups exitosas, según Hufftington Post, se venden por US$198 millones en promedio). Pero, ¿qué pasa con los que no lo logran? ¿Los cientos o miles que no logran ser WhattsApp? Habrá que reflexionar seriamente sobre si es conveniente motivar a nuestros jóvenes investigadores a dedicarse a un sueño en el que invertirán muchos años y del que, según el modelo económico actual, saldrán lo más probablemente cansados, sin dinero y, lo que es peor, sin trabajo, y con sus ideas en manos de una multinacional. Aclaro: no creo que la innovación tecnológica sea mala (mal haría entonces escribiendo en esta revista). Pero debemos buscar las formas de asegurarnos de que sus beneficios sean tanto para los que ponen el sudor –tengan éxito comercial o no– como para la sociedad que les brindó su apoyo, y no para unos cuantos multimillonarios sentados en sus poltronas.
des en computación puede hacer los análisis, sin saber estadística. Existe otro caso que no puedo dejar de mencionar, ya que puede llevar a desviar las investigaciones, y es el hecho de que, en los procesos de revisión de proyectos e informes de investigación (a nivel de pregrado, postgrado o por instituciones financieras), los revisores se ven tentados a realizar sugerencias que a veces atentan contra la lógica estadística o que le dan un giro distinto a los objetivos del trabajo (aumentar el número de muestra sin fundamento o hacer comparaciones no planificadas, por ejemplo). Ante estas situaciones, cabe preguntarse: ¿qué es lo más conveniente? A criterio del epidemiólogo y bioestadístico Andrew J. Vickers, lo mejor es buscar asesoría estadística, idealmente, desarrollar una colaboración a largo plazo con un estadístico que comprenda el trabajo que se realiza en la investigación. Debemos recordar que la estadística acompaña a la in-
vestigación desde la planificación o diseño hasta el análisis e interpretación de resultados. El reto es encontrar un punto medio en el cual el estadístico se comunique con el investigador y comprenda a profundidad los objetivos del estudio y que, a su vez, el investigador comprenda las soluciones estadísticas que se sugieren y que las sepa interpretar, logrando que tanto los más experimentados como los novatos, puedan tener un acercamiento y, sobre todo, un mejor entendimiento con el estadístico a través de la asesoría; esto, sin descartar la posibilidad de que puedan asistir a cursos o seminarios de actualización sobre temas estadísticos o de metodología de la investigación para beneficio de sus investigaciones y de los productos que estas generarán. * Oscar Federico Nave Herrera es químico biólogo y estadístico. Forma parte del Programa de Asesoría Estadística para Investigación de la Dirección General de Investigación de la Universidad de San Carlos de Guatemala.
U
niTransfer: un programa para la formación de gestores de vinculación
Silvia Hidalgo Sánchez* shidalgo@itcr.ac.cr Jorge Quesada Araya**
El rol universitario en la sociedad Las universidades, en su amplia concepción, son entidades que deben evolucionar conforme los requerimientos del entorno. Esto quiere decir que no deben estar abstraídas de los fenómenos y de los problemas que afectan el desarrollo de un país o de una sociedad en particular. Desde sus diferentes ámbitos de acción: docencia, investigación y extensión, estas deben proyectar su quehacer en busca del mejoramiento de la calidad de vida y de la generación de conocimiento que será utilizado para resolver problemas en las empresas, mejorar las comunidades o estimular el desarrollo intelectual y cultural de las personas. Una universidad como el Instituto Tecnológico de Costa Rica (TEC) ha tenido muy claro el objetivo de fortalecer su vinculación estratégica con los diferentes sectores y, muy particularmente, con el sector productivo. Esto le ha permitido trabajar de cerca con empresarios, gobiernos locales y gobierno central, la sociedad civil y una gran variedad de instituciones académicas, con el fin de conocer más de cerca sus necesidades y trabajar juntos en la búsqueda de las mejores soluciones. Para trabajar de esta manera, es necesario agilizar procesos y cambiar modelos internos que permitan incrementar el número de proyectos de investigación atinentes con la vinculación y transferencia tecnológica pero que, además, dicha vinculación se dé de forma exitosa. En este sentido el TEC, conjuntamente con la Universidad Fachhochschule de Münster, Alemania, y la Universidad Autónoma del Estado de Hidalgo, México, coordinó un programa ejecutivo
Como parte de las actividades de UniTransfer los participantes realizaron visitas a laboratorios y centros de investigación de las universidades. En la foto se aprecia al doctor Iván Vargas (centro) mientras explica a coordinadores y estudiantes del curso el Programa de Investigación en Plasma y la forma en que se vincula con el sector productivo.
internacional denominado UniTransfer cuyo fin fue formar gestores de vinculación en las universidades públicas. ¿Por qué es importante formar gestores de vinculación en las universidades públicas? El programa UniTransfer reunió a un grupo de profesionales de unidades de vinculación y otras dependencias de las universidades participantes, con el fin de mejorar sus capacidades para comprender el entorno en el cual se desenvuelven, entender a fondo el rol de la universidad en la sociedad y elaborar o mejorar los mecanismos de transferencia de tecnología y de conocimiento. Durante el programa se desarrollaron actividades en las cuales los participantes recibieron conferencias y retroalimentación de especialistas en temas de vinculación universidad-sociedad, pero también realizaron visitas a laboratorios, centros de investigación y empresas que les permitieron conocer y evaluar sus mecanismos de vinculación. Todo ello fue la base para que, durante los tres módulos del programa, desarrollaran un proyecto ejecutable en sus dependencias.
Participantes El programa contó con la participación de 20 estudiantes, de los cuales diez fueron de las cuatro universidades públicas de Costa Rica, un participante de la Universidad Nacional de Ingeniería de Nicaragua y nueve de México, procedentes de la Universidad Autónoma del Estado de Hidalgo, la Universidad Veracruzana, la Universidad Autónoma de San Luis Potosí y la Universidad Autónoma de Nuevo León. Módulos del programa Previo a la realización de los módulos de trabajo se elaboraron sus contenidos con base en criterios de expertos de Alemania, México y Costa Rica. El trabajo previo sentó las bases de la metodología, los temas a desarrollar, las evaluaciones y el desarrollo del Proyecto de Aplicación Personal. A continuación se amplía sobre cada uno de estos módulos. Módulo A: se desarrolló en la Universidad Fachhochschule de Münster, Alemania, y se denominó “Science-to Business Marketing”. En este se expusieron temas como la ENERO 2015 -
Investiga TEC 7
transferencia de conocimiento, la estructura organizacional, estudios de mercado, el emprendimiento y las habilidades blandas. Este módulo fue importante porque integró al grupo de estudiantes y de facilitadores en el inicio de una experiencia nueva de capacitación internacional enfocada específicamente en el tema de la vinculación de la universidad con el sector socio-productivo. En este módulo los participantes definieron sus Proyectos de Aplicación Personal. Módulo B: denominado “Estructura de las Instituciones de Educación Superior”, fue desarrollado en el TEC y algunas de las temáticas abordadas fueron los retos y desafíos de la vinculación universidad empresa, las estrategias de comunicación y redes sociales, varios casos de emprendimiento, las estrategias para la creatividad y la estructura y organización de las unidades de vinculación. Se desarrollaron visitas a centros de investigación de las universidades participantes, laboratorios y empresas privadas; estas visitas abordaron la vinculación desde la perspectiva académica y empresarial, lo que enriqueció los contenidos del programa con casos reales. Este módulo sirvió para realizar una evaluación del Proyecto de Aplicación Personal, realizar correcciones e incorporar las experiencias de vinculación en Alemania y Costa Rica.
Módulo C: fue desarrollado en la Universidad Autónoma del Estado de Hidalgo, México, y algunas de las temáticas abordadas fueron la transferencia tecnológica, la propiedad intelectual, la negociación tecnológica y varios estudios de casos de éxito, entre otros. Fue un módulo importante porque en este se presentaron los resultados de los Proyectos de Aplicación Personal y con ello se creó el material que servirá de base para la posterior edición de un libro que incluye todas las experiencias y proyectos desarrollados en UniTransfer.
cia Tecnológica y Educación Continua de la Sede de San Carlos. Los proyectos de aplicación personal presentados por estas instancias fueron los siguientes: 1. Centro de Vinculación Universidad-Empresa: “Estrategia de aceleración de la vinculación de las escuelas y centros de investigación del Tecnológico de Costa Rica con el sector empresarial”.
El desarrollo de los tres módulos y del programa en general fue auspiciado por el Servicio Alemán de Intercambio Académico (DAAD). En el caso particular de Costa Rica, también se contó con el apoyo de los Fondos del Sistema del Consejo Nacional de Rectores (CONARE).
3. Dirección de Cooperación: “Enfoque para la atracción de fondos internacionales de terceras partes para el financiamiento de proyectos de investigación vinculados al mercado”.
La participación del TEC en UniTransfer Como se mencionó antes, como uno de los requisitos del programa los participantes debieron elaborar un Proyecto de Aplicación Personal para mejorar procesos en sus lugares de trabajo. En el caso del TEC, las oficinas participantes fueron el Centro de Vinculación, la Dirección de Proyectos, la Dirección de Cooperación y el Centro de Transferen-
Uno de los objetivos de UniTransfer fue que cada participante desarrollara un Proyecto de Aplicación Personal (PAP) del cual mostraron avances durante las sesiones en Costa Rica. El ingeniero Carlos Alvarado, del Centro de Vinculación y docente de la Escuela de Biología, presenta el avance de su PAP al resto de los participantes y evaluadores.
8
Investiga TEC - ENERO 2015
2. Dirección de Proyectos: “Hacia una investigación vinculada en el Instituto Tecnológico”.
4. Centro de Transferencia Tecnológica y Educación Continua (San Carlos): “Modelo de transferencia tecnológica para las pequeñas y medianas empresas”. Conferencia final Por último, los proyectos se presentaron en una conferencia final de UniTransfer realizada en Costa Rica, en setiembre del 2014. El éxito de UniTransfer radicará en la aplicación práctica de los proyectos en cada una de las oficinas de vinculación de las universidades participantes. Sin duda, este esfuerzo será un propulsor en la dirección correcta hacia la vinculación de la universidad con los sectores productivos. *Silvia Hidalgo se desempeña como gestora de proyectos en el Centro de Vinculación Universidad-Empresa del TEC y es la coordinadora del programa UniTransfer en Costa Rica. Cuenta con experiencia en el tema de propiedad intelectual y la vinculación con los sectores productivos, gobierno local y central y coordina, además, la estrategia de desarrollo económico local, Zona Económica Especial Cartago. **Jorge Quesada se desempeña como gestor de cooperación y proyectos en el Centro de Vinculación Universidad Empresa del TEC. Desde el 2005 coordina la atención de empresarios e inversionistas extranjeros que visitan la institución con el fin de dar a conocer la oferta académica y la oferta tecnológica institucional para fortalecer la promoción de la inversión extranjera directa y la vinculación de las empresas nacionales y trasnacionales con el TEC. Cuenta con experiencia en la gestión de la vinculación de las instituciones y empresas nacionales e internacionales con la institución.
Proyecto de investigación
En la Universidad de Stanford
J
oven costarricense combina investigación en genómica y biofísica
El 2014 fue un buen año en materia de publicaciones para el Dr. Carlos Luis Araya Pereira, investigador del Departamento de Genética de la Universidad de Stanford, y ex-alumno de ingeniería en biotecnología del Instituto Tecnológico de Costa Rica (TEC). El académico publicó tres artículos en Nature y Nature Biotechnology. Como miembro de dos laboratorios distintos (Michael Snyder y William Greenleaf) en la universidad mencionada, este doctor en genómica desarrolla investigación científica que abarca temas en biofísica, evolución, genómica y, actualmente, cáncer. Los artículos se pueden revisar en los siguientes enlaces: http://www.nature.com/nbt/journal/v32/n6/ full/nbt.2880.html http://www.nature.com/nature/journal/v512/ n7515/full/nature13497.html http://www.nature.com/nature/journal/v512/ n7515/full/nature13668.html Los artículos más recientes (Araya et al.[1] y Boyle et al.[2]) –desarrollados como parte de ENCODE/modENCODE (http://www.genome.gov/encode/)– analizan la actividad de las proteínas que regulan la síntesis de genes. En Boyle et al.[2], el equipo evaluó la localización de más de 300 proteínas regulatorias en el genoma de células humanas y dos de los principales modelos multicelulares, el nemátodo C. elegans y el díptero D. melanogaster. La actividad de estos reguladores en diferentes contextos a lo largo de 1019 experimentos (de ChIP-seq; imuno-precipitación de cromatina y secuenciamiento) les permitió evaluar una multitud de aspectos de circuitos de regulación genómica y la conservación de dichas propiedades a largas distancias evolutivas (el
Dr. Carlos Araya Pereira.
urbilaterano, el último ancestro en común entre las tres especies, se estima que vivió hace cerca de 570 millones de años.) Según expresó el doctor Araya, el artículo Araya et al.[1] representa un nuevo enfoque: la integración de información sobre la localización genómica de proteínas regulatorias con experimentos que identifican las células específicas y fases de desarrollo embrionario en las que dichas proteínas son activas. La estrategia permitió, por vez primera, analizar en paralelo los linajes específicos en que cada regulador está activo y los genes que regula. Estos trabajos fueron objeto de referencia reciente en Nature News (http://www.nature. com/nature/journal/v512/n7515/full/nature13668.html) y el New York Times (http:// www.nytimes.com/2014/09/02/science/human-fly-worm-dna.html). Sin embargo, según el científico, el estudio de mayor impacto fue publicado en Nature Biotechnology. Para comprender su significado es necesario un poco de contexto tecnológico. Durante la última década, la eficiencia de tecnologías de secuenciamiento de ADN se ha duplicado anualmente. Por ejemplo, en cuanto en el 2001 costaba cerca de tres mil millones de dólares obtener la secuencia de un genoma humano, hoy, lo mismo tiene un costo aproximado de mil dólares. Carlos Luis Araya explica que a los ingenieros en computación les gusta hablar de la erróneamente llamada Ley de Moore (que en realidad
es una observación, no una ley) como ejemplo de la tasa de avance tecnológico. Dicha observación se refiere a la tasa de avances en procesadores, cuya densidad de circuitos (y aproximada capacidad computacional) se ha duplicado más o menos cada 18 meses por más de 40 años. Sin embargo, los avances en el secuenciamiento de ADN son aproximadamente un 50% más rápidos. Dichas plataformas tecnológicas integran avances en biología molecular, enzimología, física óptica, nano-manufactura e ingeniería de computación, para secuenciar >109 moléculas de ADN en paralelo. Dichos avances son el corazón de la llamada revolución genómica. No obstante, recalca el doctor Araya, a pesar de todos sus logros, dicha revolución por sí sola no nos permite comprender el funcionamiento de las moléculas codificadas en genomas. Explica que los ensayos de actividad bioquímica y biofísica (como afinidad, actividad cinética y actividad catalítica) no han tenido los mismos incrementos masivos en escala. Por ejemplo, las tecnologías comerciales existentes permiten realizar cerca de mil ensayos bioquímicos de afinidad entre proteínas u otras biomoléculas. Es decir, ensayos de bioquímica y biofísica están limitados a escalas que son 106 veces menor que las escalas alcanzadas por tecnologías de secuenciamento de ADN. Con esto en mente, el equipo del laboratorio de William Greenleaf hackeó [3] un instruENERO 2015 -
Investiga TEC 9
mento de secuenciación moderno para, possecuenciación, sintetizar más de 109 moléculas de ARN in situ y analizar cuantitativamente su afinidad por proteínas. El doctor Araya añade que “la nueva plataforma tecnológica nos permitió realizar el mayor experimento de afinidad bioquímica a la fecha, con más de 107 mediciones energéticas de afinidad y más de 103 mediciones cinéticas entre moléculas de ARN y proteínas. En un solo experimento de afinidad entre componentes del virus MS2, pudimos reconstruir más de cuatro décadas de investigación bioquímica en el modelo clásico de interacción entre ARN y proteínas. El volumen y la calidad de los datos nos permitieron construir un modelo predictivo de la afinidad y evaluar las consecuencias evolutivas de distintas propiedades biofísicas del ARN”. Este último punto, recalca el doctor Araya, implica que es posible predecir aspectos de trayectorias evolutivas de biomoléculas cuya evolución está rigurosamente restringida por propiedades biofísicas. Formación Carlos Luis Araya Pereira estudió en la escuela pública de Tres Ríos y realizó sus estudios secundarios en el Colegio de San Luis Gonzaga, en Cartago. Posteriormente entró al TEC a estudiar biotecnología, donde estuvo dos años hasta que en el 2001 viajó a los Estados Uni10 Investiga TEC
- ENERO 2015
dos para continuar sus estudios. Este joven investigador terminó su carrera de biotecnología en la Washington State University, donde completó con honores un bachillerato en genética y biología celular y un bachillerato en biotecnología, en el 2003. Posteriormente fue invitado al programa de doctorado en el Departamento de Ciencias Genómicas en la Universidad de Washington, en Seattle y, desde el 2011, realiza estudios posdoctorales en el Departamento de Genética de la Universidad de Stanford. En la Universidad de Washington, junto con Stanley Fields y Douglas Fowler, inventó tecnologías[4,5] para el análisis de millones de variantes de proteínas en paralelo. Según el doctor Araya, una de sus mayores satisfacciones ha sido ver cómo estas tecnologías han sido adoptadas por investigadores y han transformado el estudio de proteínas. No obstante, recalca que esta primera generación de tecnologías no provee información energética o catalítica de la actividad de biomoléculas, sino una aproximación de ellas. Las nuevas tecnologías –que han sido llamadas un tour de force tecnológico por su integración de métodos de genómica, biología molecular y biofísica– prometen una verdadera revolución bioquímica. 1. Araya CL, Kawli T, Kundaje A, Jiang L, Wu B, et al. (2014). Regulatory analysis of
the C. elegans genome with spatiotemporal resolution. Nature 512: 400–405. 2. Boyle AP*, Araya CL*, Brdlik C, Cayting P, Cheng C, et al. (2014). Comparative analysis of regulatory information and circuits across distant species. Nature 512: 453–456. 3. Buenrostro JD*, Araya CL*, Chircus LM, Layton CJ, Chang HY, et al. (2014). Quantitative analysis of RNA-protein interactions on a massively parallel array reveals biophysical and evolutionary landscapes. Nature Biotechnol. Available: http:// dx.doi.org/10.1038/nbt.2880. 4. Fowler DM, Araya CL, Fleishman SJ, Kellogg EH, Stephany JJ, et al. (2010). Highresolution mapping of protein sequencefunction relationships. Nature Methods 7: 741–746. 5. Araya CL*, Fowler DM*, Chen W, Muniez I, Kelly JW, et al. (2012). A fundamental protein property, thermodynamic stability, revealed solely from large-scale measurements of protein function. Proceedings of the National Academy of Sciences 109: 16858–16863.
R
Proyecto de investigación
elación con TUHH contribuye a elevar calidad de la investigación en el TEC
Tomography (EIT) for the Human Forearm”.
Marcela Guzmán O., editora maguzman@itcr.ac.cr
La relación que existe desde hace 10 años con la Universidad Técnica de Hamburg-Harburg (TUHH) de Alemania, ha contribuido a elevar la calidad de la investigación en el Instituto Tecnológico de Costa Rica (TEC) y la formación de doctores, particularmente en el campo de la electrónica y áreas relacionadas. Tal es el caso de los estudios doctorales de Ricardo Starbird, de la Escuela de Química, y los aportes que, como resultado de proyectos de investigación han hecho varios académicos del TEC, tanto durante el desarrollo de sus estudios de posgrado como de distintas pasantías en la universidad europea, especialmente en su Instituto de Nanoelectrónica y Electrónica Médica. Según explicó la investigadora Paola Vega, quien obtuvo el doctorado en microelectrónica en la TUHH, y recientemente realizó una pasantía de investigación doctoral en la misma universidad, en los últimos meses se han generado tres tesis de maestría en electrónica y una pasantía doctoral en colaboración con la TUHH. También se logró que dos académicos del TEC puedan realizar sus estudios de doctorado en Alemania con recursos provenientes de un préstamo del Banco Mundial, a la vez que forman un equipo para hacer investigación compartida entre ambas instituciones. Igualmente, ha sido posible la internacionalización de la Maestría en Electrónica, de modo que los estudiantes pueden realizar sus estudios de maestría en el TEC y realizar su tesis directamente en la TUHH o en el TEC en colaboración con la TUHH. Para ello, los interesados han contado con el apoyo de la TUHH, el Comité de Becas del TEC, el Servicio Alemán de Intercambio Académico (DAAD) y el Fondo de Incentivos del Ministerio de Ciencia, Tecnología y Telecomunicaciones (MICITT).
La ingeniera en electrónica y doctora en microelectrónica Paola Vega, ha contribuido fuertemente a consolidar la relación del Instituto Tecnológico de Costa Rica con la Universidad Técnica de HamburgHarburg, mediante la formación de ingenieros costarricenses y el desarrollo de investigación conjunta.
Además de los resultados científicos, durante su pasantía Paola Vega impulsó la relación y el intercambio académico entre la Escuela de Ingeniería Electrónica y el Instituto de Nanoelectrónica y Electrónica Médica. Así, dos estudiantes de la Maestría en Electrónica realizaron sus tesis desde Costa Rica con temas del mencionado Instituto y la asesoría conjunta TEC-TUHH: • David Sánchez Ordóñez: “Simulation Study of the Electrical Properties of Gel-Skin Interface during Neuromuscular Electric Stimulation”. • Marta Vílchez Monge, profesora de la Escuela de Física: “Finite Element Method Simulation Study of Electrical Impedance
Además de esto, Juan José Rodríguez Montero, profesor de la Escuela de Ingeniería Electrónica, graduado de la Maestría en Electrónica y becario del plan piloto TEC-MICITT para la formación de profesores-investigadores, realizó una pasantía de seis meses en el Instituto de Nanoelectrónica y Electrónica Médica para desarrollar su tesis de maestría con el tema “Equivalent Circuit Modeling for Electrochemical Impedance Spectroscopy”. También la profesora Gabriela Ortiz León, de la Escuela de Ingeniería Electrónica, llevó a cabo su pasantía doctoral en la TUHH en el marco del Programa de Doctorado en Ciencias Naturales para el Desarrollo (DOCINADE) en el mismo Instituto, con el tema “Simulation Study of Rheological Characteristics of Microfluidics for Parallelization of Impedance Measurement of Human Cells”. Con los resultados de la pasantía se sentaron las bases teóricas y el contacto para el doctorado de dos profesores del TEC becados por el Banco Mundial: Deybith Venegas Rojas, de la Escuela de Física y Juan José Montero Rodríguez, de la Escuela de Ingeniería Electrónica. Las investigaciones en detalle: aplicaciones biomédicas El tema común de todos estos aportes es el de las aplicaciones biomédicas, en los temas de caracterización eléctrica de las células y medición y estimulación eléctrica de músculos y neuronas por medio de electrodos.
ENERO 2015 -
Investiga TEC 11
Proyecto de investigación La doctora Vega indicó, por otra parte, que la creación del Programa de Bioingeniería en el TEC, puede facilitar la identificación de temas de investigación comunes y el trabajo conjunto con la TUHH. En estos momentos, los investigadores del TEC buscan oportunidades de financiamiento internacional junto a la TUHH, apoyados en los resultados del trabajo ya desarrollado. Circuito integrado para la medición de las características eléctricas de células humanas Durante su pasantía de investigación postdoctoral, la doctora Paola Vega participó en el proyecto de investigación ZellCharm. Este proyecto se enfoca, en primer lugar, en medir el comportamiento eléctrico de células. A partir de este trabajo se podrían apoyar diagnósticos médicos, ya que será posible distinguir si, por ejemplo, existen células cancerosas o no, probar medicamentos para conocer su toxicidad, variar las dosis y conocer si estos han ayudado a mejorar las condiciones, entre otros. Como segundo punto, el proyecto pretende determinar cómo la magnitud y frecuencia de un campo eléctrico aplicado a las células afecta su reproducción. Tras realizar una investigación bibliográfica se determinó que los sistemas de medición de impedancia eléctrica se han utilizado hasta ahora para medir células solamente a baja frecuencia. Los sistemas comerciales realizan mediciones en varias muestras, pero tanto en el caso de una única muestra como en el caso de varias, la frecuencia máxima es de 100kHz y en muchos casos no se puede variar. Para alta frecuencia la literatura reporta mediciones de células utilizando métodos ópticos, o bien, con guías de onda conectadas a analizadores vectoriales de redes. Un aumento en el rango de frecuencia de medición es una ventaja para biólogos y médicos, dado que pone a disposición de los investigadores una mayor cantidad de valores de frecuencia para elegir según las necesidades de sus experimentos. Así, pueden elegir entre valores específicos de frecuencia baja, intermedia o alta, además de un barrido de frecuencias. Actualmente, explica la doctora Vega, los aparatos que hacen estas mediciones a alta frecuencia son muy grandes y son aparatos de uso general que no están especializados en estas mediciones. Las nuevas investigaciones 12 Investiga TEC
- ENERO 2015
permitirán especializar los instrumentos, hacerlos más pequeños y medir varias muestras a la vez. Esto implicará menos tiempo y un costo menor. Lo que tiene de novedoso este tipo de caracterización celular es que permitirá elaborar mediciones en un amplio rango de frecuencias, para la identificación de daños y el estudio de propiedades celulares que no pueden observarse a bajas frecuencias; esto, porque se disminuye el efecto de la membrana celular en la medición y así se posibilita estudiar las características de las substancias y organelas en el interior de las células.
En su investigación, la doctora Vega realizó la exploración del tema y prueba de concepto de un circuito integrado para la medición de las características eléctricas de células humanas. Este método permite estudiar las células de forma no invasiva y sin utilizar marcadores de fluorescencia o alteraciones genéticas para tolerar estos marcadores. Dado que las células no sufren daño alguno, pueden continuar utilizándose en experimentos posteriores. Además, al utilizar un circuito integrado puede crearse un sistema de medición de varias muestras simultáneamente y a alta frecuencia, puesto que el tamaño del circuito permite que
Sistema básico de medición de impedancia 610 x 540 µm2.
Figura 1. Diseño del sistema básico de medición de impedancia.
Figura 2. Simulación del proceso de llenado de las cámaras contenedoras de células.
Proyecto de investigación
Figura 3. Implante invasivo para la toma de señales biológicas, desarrollado por Lait Abu-Saleh en el laboratorio de nanoelectrónica de la TUHH.
(a)
(b)
(c) Figura 4. (a) Estructura química del polímero conductor Poli 3,4-etilendietoxitiofeno; (b) polímero electrodepositado en el área del electrodo (material azul); y (c) corte trasversal del polímero sobre la superficie del electrodo.
el sistema de medición se ubique en la cercanía inmediata de las muestras, con lo que se reducen mucho los efectos eléctricos parásitos que afectarían la medición. La medición de varias muestras, con pocos minutos de diferencia entre ellas, es necesaria para obtener datos estadísticamente significativos a fin de entender el comportamiento de las células, ya que garantiza las mismas condiciones de edad celular, así como las mismas condiciones eléctricas y ambientales en la medición. Al reducir el tiempo de medición se pueden acelerar estudios de diagnóstico de enfermedades, toxicidad y efectividad de medicamentos. El diseño del sistema básico de medición se muestra en la figura 1. Se utilizó la tecnología bipolar SiGe:C de 130nm de IHP. Esta tecnología alcanza una frecuencia de oscilación máxima de 250 GHz. Características de sistemas microfluídicos Durante su pasantía de investigación doctoral, la ingeniera Gabriela Ortiz desarrolló un estudio por medio de simulación de las características reológicas de sistemas microfluídicos para la paralelización de medición de impedancia en células humanas. Para medir las características eléctricas de las células, estas deben estar contenidas en cámaras de medición junto con el medio de cultivo. Este estudio de simulación permite sentar las bases teóricas para la miniaturización de dichas cámaras de medición, pues simuló el caso del llenado de las cámaras para platos de cultivo comerciales de 384 y 1536 muestras y se mantuvieron las distancias entre cámaras, reduciendo su tamaño. También se simuló el caso de cámaras cúbicas de 1 mm de lado. Así se determinó el mínimo tamaño de las cámaras de medición que puede llenarse por gravedad, la influencia de los materiales de las cámaras en su llenado. Con ello creó un ambiente de simulación que permite a los investigadores de la TUHH variar las dimensiones y materiales de los contenedores de células, determinar la presión necesaria para el llenado y probar en la simulación sus ideas para el diseño de la microfluídica del proyecto ZellCharm antes de fabricarlos. Uso de polímeros conductores en aplicaciones biomédicas El uso de polímeros conductores en aplicaciones biomédicas fue el tema de tesis de doctorado de Ricardo Starbird, profesor e investigaENERO 2015 -
Investiga TEC 13
Proyecto de investigación
Figura 5. Medición de la transferencia de carga entre el electrodo y la disolución.
dor de la Escuela de Química del TEC. El doctor Starbird explica que en el área biomédica, en particular para el diseño de dispositivos invasivos, es necesario considerar el estudio de materiales que mejoren las propiedades del implante, así como la biocompatibilidad y la resistencia a la corrosión. En la estimulación o toma de señales de implantes neuronales, por lo general se emplean metales inertes (platino u oro) como electrodos. La señal del tejido biológico y la señal de estimulación dependerán del ambiente dentro del organismo. Estos materiales se comportan de manera capacitiva al inyectar o detectar una corriente eléctrica al medio. En el caso de la inyección de corriente para lograr la estimulación de un tejido, esta debe lograr un potencial de al menos 90 mV en un periodo de 0,2–2 ms. Para lograr la estimulación de un grupo específico de neuronas se puede afectar el tejido circundante. Para promover una respuesta biológica más específica, es necesario reducir el área del electrodo y con esto buscar una estimulación de un grupo o inclusive de una única neurona. Los metales, dado su mecanismo de inyección, presentan limitaciones para miniaturizarse. Al reducirse el área del electrodo, se incrementa la resistencia (impedancia), requiriéndose una mayor corriente para lograr el potencial de estimulación. Por lo tanto, hay un límite físico para la reducción del tamaño de los electrodos metálicos. Fue por ello que el profesor Wolfgang Bauhofer, del Instituto de Materiales Electrónicos, en colaboración con el profesor Wolfgang Krautschneider, del Instituto de Nanoelectrónica y Electrónica Médica, propusieron estu14 Investiga TEC
- ENERO 2015
diar materiales orgánicos para ser utilizados en la interface metal-tejido, específicamente el polímero conductor Poli 3,4-etilendietoxitiofeno. Este tipo de materiales orgánicos presentan un mecanismo alterno que reduce los requerimientos de inyección de corriente al tejido biológico hasta en 10 000 veces; además, son biocompatibles, estables a la corrosión y es posible estructurar el material a nanoescala. Durante el desarrollo de la investigación, el doctor Starbird determinó el efecto de las variables en la síntesis del polímero, buscando con ello optimizar las propiedades eléctricas. Posteriormente se estructuró el material para producir nanotubos, nanocables y materiales nanoporosos (figura 4), con el objetivo de mejorar la interacción del polímero con la interface biológica. Finalmente, se realizó un estudio de la biocompatibilidad del material orgánico conductor. Modelo matemático de electrodos neurales implantables El profesor de la Escuela de Ingeniería en Electrónica del TEC, Juan José Montero, obtuvo la maestría en el TEC y realizó su tesis en la TUHH; esta tesis formó parte de la investigación del doctor Starbird. El máster Montero explica que Starbird diseñó un electrodo metálico recubierto con polímeros conductores y requería de un modelo matemático para describir sus características eléctricas cuando se encuentran implantados dentro del cuerpo humano. El experimento consiste en sumergir los electrodos en una disolución acuosa que represen-
ta el tejido humano. La finalidad de la prueba es transferir la mayor cantidad posible de cargas desde los electrodos hacia la disolución, donde el recipiente actúa como segundo electrodo. A partir de los datos de 96 experimentos, Montero desarrolló seis modelos matemáticos que describen los principales parámetros que afectan la transferencia de carga en la interfaz del electrodo-polímero-disolución. Se demostró que al incrementar la cantidad de polímero depositada sobre el electrodo, la acumulación de carga (capacitancia) entre las interfaces aumenta de forma lineal. Actualmente Montero está iniciando su investigación doctoral en el mismo Instituto, con una beca del TEC financiada por el Banco Mundial, que tiene una duración de cuatro años. El proyecto busca estimular células, tejidos y muestras biológicas utilizando campos eléctricos y magnéticos. El propósito es comprobar si es posible acelerar o disminuir los procesos de división celular, como posibles terapias regenerativas o tratamientos contra el cáncer. Durante el desarrollo del proyecto se planea diseñar circuitos integrados de aplicaciones específicas (ASIC) para estimular con mayor precisión las muestras biológicas. Tomografía por impedancia eléctrica La estimulación eléctrica neuromuscular es una herramienta fundamental para la restauración de personas que han perdido funciones motoras por heridas o traumas. El Instituto de Nanoelectrónica y Electrónica Médica de la TUHH ha desarrollado un modelo del comportamiento de los tejidos humanos basado en
Proyecto de investigación
Figura 6. Proceso de reconstrucción de la imagen interior del antebrazo humano. a) Variación del potencial eléctrico dentro del antebrazo al inyectarse una corriente eléctrica; b) la reconstrucción de la densidad de corriente está ligada al comportamiento de los diferentes tejidos; c) después de filtrar la señal de densidad de corriente se obtiene una reconstrucción de los tejidos y su distribución.
circuitos eléctricos, así como sistemas electrónicos para estimulación. Sin embargo, la magnitud de la corriente eléctrica necesaria para estimular el músculo varía de un paciente a otro. Además, es difícil encontrar la mejor posición de los electrodos de estimulación. Si se contara con un método rápido y de bajo costo para obtener una imagen del área del cuerpo por estimular, antes de iniciar el tratamiento, podría determinarse la mejor posición para colocar los electrodos y se podría estimar la corriente mínima que el paciente necesita para la estimulación. Una herramienta útil en este tipo de estudios es la tomografía por impedancia eléctrica (o EIT por sus siglas en inglés), una tecnología desarrollada para crear una imagen de la conductividad eléctrica de un medio conductivo. La conductividad de los tejidos se puede determinar a través de la medición del potencial eléctrico en la piel del individuo y se asocia a la respuesta del tejido a la estimulación eléctrica. Con este método puede obtenerse rápidamente una imagen y a un costo muy bajo en comparación con otros métodos como la resonancia magnética El propósito de la tesis de maestría presentada por Marta Eugenia Vílchez, profesora de la Escuela de Física del TEC, fue el desarrollo de un modelo matemático y una simulación numérica en la que una pequeña corriente eléctrica se inyecta a través de la piel dentro del antebrazo humano, usando para ello un arreglo de 16 electrodos y las características físicas de los diferentes tejidos. Este es el principio de la EIT para obtener una imagen de la sección transversal del antebrazo. La simulación se llevó a cabo con el método de elementos finitos (FEM) y el software COMSOL Multiphysics. Adicionalmente, el proce-
so de inyección de corriente fue desarrollado usando el módulo LiveLink for Matlab y el código de Matlab. Las principales contribuciones de este trabajo fueron considerar una geometría realista, que incluye todas las estructuras de tejidos del antebrazo humano y sus características eléctricas. Además, se incluyó la descripción de la orientación muscular y la influencia de los vasos sanguíneos superficiales y su influencia en las distribuciones del potencial eléctrico y la densidad de corriente. La figura 6 muestra el proceso de reconstrucción del corte transversal del antebrazo huma-
no; en a) se muestra la inyección de corriente y el consiguiente potencial eléctrico generado en los diferentes tejidos; en b) la reconstrucción de la densidad de corriente, aunque los detalles están fuera del alcance del observador; y en c) se filtra la imagen para resaltar las diferentes conductividades. Los colores representan la conductividad eléctrica que permite diferenciar los diferentes tejidos que componen el antebrazo. El principal interés de la colaboración entre la TUHH y el TEC es la construcción de un tomógrafo de impedancia eléctrica en el TEC y la posterior aplicación en los experimentos de estimulación muscular en la TUHH.
ENERO 2015 -
Investiga TEC 15
Proyecto de investigación
M
ediciones y análisis de vibraciones en el puente del Virilla
Francisco Navarro Henríquez (*) fnavarro@itcr.ac.cr Daniel Ureña Muñoz (**) durenamunoz@gmail.com
Introducción En el presente trabajo se determinan algunas características dinámicas del puente sobre el río Virilla, ruta nacional N° 1, por medio de pruebas de vibración. Esto, como parte del proyecto de investigación “eBridge 2.0: sistema integrado para el desempeño de puentes” y a solicitud del Consejo Nacional de Vialidad (CONAVI), con base en el contrato interadministrativo existente entre esa institución y el Instituto Tecnológico de Costa Rica (TEC). Las mediciones realizadas permitieron cuantificar las magnitudes vibratorias y la deformación en varias secciones del puente, en condición de tránsito vehicular en servicio (comportamiento ambiental). Los resultados experimentales obtenidos son comparados con el modelado analítico computacional de la estructura y a su vez con normas nacionales e internacionales. La prueba de vibración desarrollada permitió la medición de las magnitudes de aceleración en las direcciones vertical, lateral y longitudinal, la determinación de las frecuencias naturales de la estructura, así como la deformación (esfuerzo dinámico) presente en algunos de los elementos de la superestructura. El esquema de instrumentación empleado definió dos puntos de medición en la cercha central y otro en una de las secciones laterales. Las pruebas de carga dinámicas no destructivas (NDT) permiten la medición de la respuesta de un puente sujeto a excitaciones predeterminadas sin causar cambios en la respuesta elástica de la estructura. Estas pruebas sirven para verificar el desempeño global del puente y el rendimiento de algunos de sus componentes (AASHTO, 2011). 16 Investiga TEC
- ENERO 2015
Figura No 1. Vista en planta y lateral del puente. Ubicación de puntos de medición A, B y C.
Figura No. 2. Vista superior tridimensional del modelo analítico computacional. Modo de vibración y frecuencia.
Descripción del puente El puente sobre el río Virilla, ubicado en el distrito de Uruca, del cantón de San José en la provincia de San José, fue diseñado en 1960. Tiene una longitud de 160 metros y cuenta con dos secciones de 19,84 m cada una; su alineación es recta. Posee siete superestructuras (seis de vigas I de acero y una de cercha). Posee dos bastiones y dos pilas e inicialmente se diseñó para una carga HS 15-44 con las especificaciones AASHO 1957 (Ortiz, et al. 2014). En el año 2010 se diseñó el reforzamiento de la losa, utilizando las especificaciones AASHTO 2002 y una carga HS20-44 + 25% (AASHTO, 2011). Se estima que el tránsito promedio diario (TPD) en el puente supera los 87 000 vehícu-
los y que el número promedio diario de camiones en un sentido por carril es de aproximadamente 3 100 unidades (Ortiz, et al. 2014). La figura No.1 muestra un diagrama con la vista en planta y lateral del puente con los puntos de medición para vibración y esfuerzo de deformación. Modelo analítico del puente Se construyó un modelo estructural del puente con apoyo de la herramienta de software de análisis estructural SAP 2000. Los planos consultados para la elaboración del modelo corresponden a los planos originales de construcción de la estructura, que representan la configuración bajo la cual ha funcionado el puente durante la mayor parte de su vida útil.
Proyecto de investigación La figura No. 2 muestra la vista superior tridimensional del modelo estructural del puente con la forma modal 9, cuya frecuencia natural de vibración teórica corresponde a 3,23 HZ. Esta frecuencia tiene participación en las direcciones Y (transversal) y Z (vertical).
Figura No. 3. Esquema de instrumentación.
Figura No. 4. Señales de vibración y espectro de frecuencia, punto de medición A.
Estudio de vibraciones y esfuerzos dinámicos Las mediciones experimentales de vibración y esfuerzo dinámico se llevaron a cabo durante el mes de abril del 2014 y se permitió la circulación vehicular normal en servicio sobre el puente en ambas direcciones (comportamiento ambiental). Se establecieron tres puntos de medición correspondientes a A, B y C, como se puede apreciar en la figura No. 2. En cada punto de medición se cuantificaron las magnitudes vibratorias y de deformación (esfuerzo dinámico) por medio de la tecnología de sensores de fibra óptica FBG (Fiber Bragg Grating) (Kumar & Madhav, 2010). Las mediciones de las aceleraciones se realizaron para cada punto en sentido longitudinal, transversal y vertical, que respectivamente corresponde con las coordenadas del modelo estructural, x, y, z. En todos los casos el tiempo de medición fue de 30 minutos y se capturaron 1000 datos por segundo de cada sensor. La instrumentación utilizada estuvo compuesta de un interrogador óptico sm130 de cuatro canales, un KHZ, un computador portátil con software para el registro de los datos ENLIGHT v1.5.59, un acelerómetro óptico de tres ejes como sensor de vibraciones os7103, un medidor de deformación os3610 y un sensor de temperatura absoluta os4230 (Micron Optics, 2012). Medidas de vibración Para cada una de las mediciones de vibración, dado que se tenían los valores de aceleraciones en función del tiempo, se procedió a aplicar filtros de paso de banda entre los 0,1 Hz y los 25 Hz. Una vez aplicados dichos filtros con el fin de evitar vibraciones por ruido, se procedió a realizar la FFT (transformada rápida de Fourier) con el fin de determinar las frecuencias predominantes, las cuales se definen como frecuencias in situ. (Davis, et al. 1996). La figura No. 4 muestra el registro de los datos de vibración y su correspondiente espectro de frecuencia en el punto de medición A. ENERO 2015 -
Investiga TEC 17
Proyecto de investigación
Figura No 5. Comparación de frecuencias de mediciones experimentales versus modelo analítico. Punto de medición A–nodo 7.
18 Investiga TEC
- ENERO 2015
Una vez obtenidas las frecuencias in situ, se procedió a compararlas con las frecuencias del modelo estructural computacional. Inicialmente se determinó la participación modal en cada una de las direcciones x, y, z. Del modelo analítico se obtuvieron los primeros 96 modos de vibración, sus participaciones en cada una de las tres direcciones y el porcentaje de participación con respecto al número de modo y a la frecuencia. La figura No. 5 presenta la comparación de frecuencias experimentales con las del modelo estructural computacional en el punto de medición A correspondiente al nodo 7. La figura No. 6 presenta para los puntos de medición A y B los valores de las frecuencias identificadas experimentalmente y las del modelo estructural computacional, indicando la diferencia porcentual entre ellas. Dicha diferencia se debe a factores tales como que el modelo tiene una rigidez mayor a la que realmente tiene la estructura; los materiales se consideran isotrópicos y con características mecánicas iguales; y los nodos pueden tener una rigidez diferente a la que se está considerando en el modelo. También podría deberse a respuestas no lineales en los materiales. Se determinaron las aceleraciones máximas en los lapsos de los gráficos en donde los picos máximos y mínimos son estables y no hay variaciones mayores a un 5% (Wenzel, 2009). La tabla No. 1 resume los resultados obtenidos. Los datos de las frecuencias de vibración medidas en sitio y la amplitud de las aceleraciones se introducen en gráficos de referencia que contienen diversos criterios de aceptación. La figura No. 7 muestra el caso de confort que corresponde al presentado por Chang (1973), en donde para una aceleración máxima vertical 0,35 g, con la frecuencia natural de vibración de 1,96 Hz, se tiene un nivel entre D2 y D3, lo cual está entre ligeramente incómodo y extremadamente incómodo. Evidentemente es perceptible y la situación se corroboró en sitio. La figura No. 8 es una propuesta tentativa de resumen general de criterios que proporciona un indicador crudo pero simple que, por supuesto, no se puede aplicar a ciegas a todas las estructuras. En términos generales, los criterios de aceptación de confort son mucho más estrictos que los criterios estructurales y, por lo tanto, se vuelven más críticos para fines de diseño estructural (Wenzel, 2009). W
Proyecto de investigación En el punto de medición A, con una aceleración pico vertical de 0,783 g y una frecuencia natural de 1,96 Hz (punto rojo), el valor pico de la vibración registrada en el eje z se localiza en una zona de percepción pero lejos del criterio estructural. Medidas de esfuerzos dinámicos La figura No. 9 muestra el registro de los datos de deformación dinámica en el punto de medición A. Se obtiene para este caso una deformación media de 1,27 µe con un valor mínimo de –11,12 µe y un valor máximo de 38,15 µe. El valor de percentil 95 para el esfuerzo de tensión dinámica es de 7,6 µe (microstrain). La tabla No. 2 muestra los esfuerzos máximos calculados según las mediciones de deformación unitaria dada por los sensores y los esfuerzos máximos en los mismos puntos provenientes del modelo teórico para fatiga. Aunque los esfuerzos mostrados en la tabla se obtuvieron para cargas distintas, ya que en el modelo teórico la carga es la de un vehículo de prueba de diseño y la deducida de los datos es una carga no cuantificada, se tiene que el orden de magnitud es similar y ratifica la validez del modelo teórico.
Figura No. 6. Comparación de frecuencias nodos A y B.
Figura No. 7. Estudio de percepción de las aceleraciones (Chang 1973).
PUNTO
ε (µε) Percentil 95%
σ kg/cm2
σModelo kg/cm2
A
7,6
15,96
85,4
B
104,27
218,97
89,3
C
128,4
269,64
197,1
E=
2,10E+06
kg/cm2
Tabla No. 2. Esfuerzos máximos en los puntos A, B y C.
Conclusiones • A partir de la excitación dinámica del tránsito regular de vehículos en el puente, fue posible obtener frecuencias naturales de vibración; esto representa una ventaja al no ser necesario suspender este tráfico para proceder a pruebas de impacto o de un excitador dinámico con frecuencia conocida para obtener la respuesta dinámica. • Para el tramo de cercha, en los nodos A y B se determinaron las frecuencias de 7,8 Hz en la dirección longitudinal “x”, 2,6 Hz en las direcciones transversal y vertical “y” y “z”, y de 1,96 Hz en la dirección vertical “z”. Para el tramo de vigas, en el nodo C se determinaron las frecuencias de 7,8 Hz en la dirección longitudinal “x”, 2,95 Hz en las direcciones transversal, y de 2,65 Hz, 2,95 Hz y 8,36 Hz en la dirección vertical “z”. • El comportamiento deducido del modelo de análisis teórico es similar y comparable al obtenido de los datos recopilados en sitio. Así, las frecuencias obtenidas en sitio se validaron con el modelo estructural y las ENERO 2015 -
Investiga TEC 19
Proyecto de investigación Referencias AASHTO. (2011). American Association of State Highway and Transportation Officials. The Manual for Bridge Evaluation. Second Edition. Nondestructive load testing (pp. 8.1–8.16). Washington, D.C. AASHTO Publications Office. Chang F., (1973). Human response to motions in tall buildings. Proceedings of the American Society of Civil Engineers, 98, 1259–1272. Davis, M. A., et al. (1996). Fiber optic sensor system for bridge monitoring with both static load and dynamic modal sensing capabilities. Recopilado el 2 de septiembre del 2013 de la base de datos SPIE Digital Library de la Sociedad Internacional de Óptica y Fotónica. Disponible en: http://spiedigitallibrary.org Kumar, K., Madhav, V. (2010). Review on developments in fiber optical sensors and applications. Recopilado el 20 de agosto del 2013 de la base de datos SPIE Digital Library de la Sociedad Internacional de Óptica y Fotónica. Disponible en: http://spiedigitallibrary.org Micron Optics, Inc. (2012). Products Sensing Solutions Sensors. Obtenido el 15 de noviembre del 2013 en: http://www.micronoptics.com/products/sensing_solutions/sensors/ Ortiz, G., et al. (2014). Informe inspección detallada sobre superestructura para identificar evidencia de fatiga, puente sobre Río Virilla, ruta nacional No.1. Instituto Tecnológico de Costa Rica. (pp. 4–8) Cartago, Costa Rica. Wenzel, H. (2009). Health Monitoring of Bridges. Vienna, Austria: John Wiley & Sons, Ltd.
Figura No. 8. Criterio de aceleración pico.
Figura No. 9. Deformación dinámica el punto de medición A.
diferencias porcentuales son aceptables, ya que en el modelo estructural no se puede reflejar en su totalidad el estado de rigidez actual del puente. Dichas diferencias se deben a factores como que el modelo tiene una rigidez mayor a la que realmente tiene la estructura; los materiales se consideran isotrópicos y con características mecánicas iguales; los nodos pueden tener una rigidez diferente a la que se está considerando en el modelo; y también podría deberse a respuestas no lineales en los materiales. • Las aceleraciones máximas determinadas 20 Investiga TEC
- ENERO 2015
en el tramo de cercha son comparadas con los criterios de aceptación, ubicando la vibración entre ligeramente incómodo y extremadamente incómodo, percepción que se confirmó en sitio. • Resulta relevante el seguimiento al comportamiento dinámico de la estructura en forma periódica anual y realizar las mediciones de vibración en los mismos puntos, con la finalidad de prevenir desviaciones importantes de las frecuencias naturales de vibración que evidencien cambios o algún tipo de daño en la estructura.
(*) Francisco Navarro Henríquez es profesor e investigador en el proyecto “eBridge 2.0 sistema integrado para el desempeño de puentes” del Instituto Tecnológico de Costa Rica (TEC), en la Escuela de Ingeniería Electrónica. Es ingeniero en electrónica, tiene una maestría en computación y una maestría en administración de negocios. Tel. 2550-9242. (**) Daniel Ureña Muñoz es asesor estructural para el análisis de vibraciones en el proyecto de investigación “eBridge 2.0 sistema integrado para el desempeño de puentes” del Instituto Tecnológico de Costa Rica (TEC). Es ingeniero civil, tiene una maestría en ingeniería civil y una maestría en análisis estructural de construcciones. Tel. 8910-8072.
P
Proyecto de investigación
royecto de investigación básica genera conocimiento sobre virulencia de Brucella abortus
Olga Rivas Solano* orivas@itcr.ac.cr
Brucella abortus es un patógeno zoonótico, es decir, que afecta principalmente animales pero también se puede transmitir al ser humano. El mayor blanco de esta bacteria es el ganado vacuno. La infección produce abortos en hembras preñadas y esterilidad en machos. En humanos, la bacteria puede producir infecciones con síntomas inespecíficos como fiebre intermitente y complicaciones osteoarticulares, genitourinarias, pulmonares, cardiovasculares y neurológicas, entre otras consecuencias que pueden ser crónicas y potencialmente mortales. Las vías de transmisión al ser humano incluyen el consumo de alimentos contaminados (principalmente lácteos) y el contacto directo con animales infectados y cultivos bacterianos. Se considera una enfermedad ocupacional ya que el personal veterinario, de fincas, mataderos, lecherías, hospitales y laboratorios, presenta un alto riesgo de adquirir la infección. Sin embargo, la población general no está exenta de contagiarse. Brucella ha sido considerada inclusive como una bacteria con potencial para el bioterrorismo. En Centroamérica, las pérdidas económicas por brucelosis ascienden a 25 millones de dólares estadounidenses por año, debido a la reducción de los hatos (por los abortos y la esterilidad de los machos), así como a la disminución de la producción de carne y leche. En Costa Rica, el Decreto 34858-MAG, del Ministerio de Agricultura y Ganadería, establece que todo animal positivo por brucelosis debe ser marcado, puesto en cuarentena y enviado a un matadero oficial. Además, solo se permite la venta de leche y sus derivados si se demuestra que provienen de hatos en saneamiento o libres de brucelosis.
La imagen muestra un trabajo de laboratorio en técnicas de biología molecular, como es la amplificación de material genético por medio de la reacción en cadena de la polimerasa. Esta técnica se utilizó para realizar estudios sobre regulación génica de la virulencia, estructura e inmunogenicidad de la bacteria Brucella abortus.
El tratamiento en humanos consiste en una terapia combinada de varios antibióticos durante periodos prolongados que van desde tres hasta ocho semanas, lo que implica una alta inversión por parte de los sistemas de salud. A pesar de que se cuenta con un tratamiento para humanos y con una vacuna para el ganado, aún no ha sido posible erradicar la enfermedad. De hecho es endémica en algunos países de Centro y Suramérica, Cuenca Mediterránea, Asia y Medio Oriente; y la Organización Mundial de la Salud la considera como una de las siete zoonosis más extendidas a nivel mundial y menos priorizada por los sistemas de salud. La virulencia de Brucella radica en su habilidad para sobrevivir y replicarse dentro de las células infectadas. Por lo tanto, una caracterización profunda de las interacciones entre la bacteria y la célula infectada, así como de la regulación de estos procesos a nivel genético, podría contribuir a contar con mejores herramientas terapéuticas y preventivas. En el Instituto Tecnológico de Costa Rica (TEC) se desarrolló recientemente un proyecto de investigación básica sobre la regulación de genes implicados en la virulencia, estructura e inmunogenicidad de Brucella abortus. El proyecto tuvo financiamiento de la Vicerrectoría de Investigación y Extensión del TEC, pero también contó con una contra-
parte del Programa de Investigación en Enfermedades Tropicales (PIET) de la Escuela de Medicina Veterinaria de la Universidad Nacional. Además el proyecto formó parte de la tesis doctoral de la autora dentro del Programa de Doctorado en Ciencias de la Universidad de Costa Rica. El principal producto obtenido fue una cepa bacteriana que sirve como modelo para estudios futuros sobre regulación génica, no solo en B. abortus sino también en otras bacterias relacionadas, como por ejemplo Agrobacterium tumefaciens. Esta es una bacteria fitopatógena emparentada con Brucella, que se caracteriza por formar agallas o tumores en diferentes cultivos de importancia económica, lo cual también genera grandes pérdidas en el sector agropecuario. Actualmente el TEC continúa investigando en este tema, en conjunto con el PIET y también con el Centro de Investigación en Enfermedades Tropicales de la Facultad de Microbiología de la Universidad de Costa Rica, mediante otro proyecto que cuenta con financiamiento del Fondo Especial para la Educación Superior (FEES) del CONARE. *Olga Rivas Solano es ingeniera en biotecnología, máster en microbiología y estudiante del programa de doctorado en Ciencias de la Universidad de Costa Rica. Es investigadora del Centro de Investigación en Biotecnología de la Escuela de Biología del Instituto Tecnológico de Costa Rica.
ENERO 2015 -
Investiga TEC 21
L
a influencia del arte en el marketing
Marta Andrés* marantor@aaa.upv.es Guillermo Mateu* guillermo.mateu@escdijon.eu Durante el periodo griego se realzó el valor del arte y la consideración del artista, enfocando su valor a la creación de lo bello mediante la perfección de la técnica. La evolución del arte ha sido progresiva desde los inicios de la humanidad hasta nuestros días. De acuerdo debemos estar en que el arte ha existido siempre aunque con diferente forma y finalidad. Podemos trazar una línea evolutiva de las características que determinan cada periodo. Durante la época prehistórica se utilizó de forma iconográfica con una función de uso místico y supersticioso, en el mundo egipcio estaban prefijados tanto el patrón como la técnica y su uso fue totalmente simbólico. En el caso de la antigua Grecia, se utilizaba el arte como herramienta religiosa para representar las divinidades mitológicas, mientras que lo que sucedía en la época romana es que el objetivo del arte se basaba en representar figuras destacadas como emperadores y altos mandatarios con la finalidad de perpetuarlos en la historia, usando principalmente la pintura y la escultura. En un contexto reciente, es decir, con la aparición de las nuevas técnicas como la foto y el video se comenzaron a emplear nuevas formas de arte, lo que dio lugar a la aparición de nuevas disciplinas artísticas. Estas disciplinas van más allá de la mera representación y cruzan el umbral de objeto de adoración o de decoración de museos y de hogares de alto nivel económico. Nuevas disciplinas desarrolladas en el siglo XX, como la Performance, el Happening o el Net Art, aparecieron como tales a partir de los años 60, y se afianzaron sobrepasando barreras disciplinarias y consolidándose a través de otros campos fuera del mundo del arte y las letras. Estas disciplinas han tenido una gran acogida en el mundo del mercadeo, siendo clave en el desarrollo de la publicidad y el marketing.
22 Investiga TEC
- ENERO 2015
La imagen como medio comunicador La cultura de la imagen creada por la primacía de lo visible es portadora de mensajes “candentes” que agitan nuestras emociones, encienden nuestros sentimientos, excitan nuestros sentidos y, en definitiva, nos apasionan… Aún cuando la palabra también puede inflamar los ánimos (en la radio, por ejemplo), la palabra produce siempre menos conmoción que la imagen. Giovanni Santori La complejidad de las imágenes las convierten en transmisores de información implacables, de ahí la famosa expresión “una imagen vale más que mil palabras”; es por ello que el mundo de las imágenes está intrínsecamente ligado al mundo del marketing. La carga visual, su impacto, su representación de la realidad es lo que hace que el espectador se identifique con el sujeto del anuncio y surja una relación empática que realmente hace efecto. El arte y el marketing Para lograr el éxito de un producto una de las principales claves es la publicidad que se haga de él. Pero a lo largo del día a día, dado que vivimos en un mundo sobresaturado de información, recibimos multitud de estímulos publicitarios que a través de la cotidianidad asumimos con normalidad. Los mensajes publicitarios provocan ruido pero ya no producen el efecto deseado en los consumidores. Para lograr que un anuncio sea efectivo debe destacar sobre los demás, provocando un impacto en el espectador que por su originalidad, guste, llame la atención y además sea capaz de ser recordado. Asimismo, uno de los objetivos básicos del marketing es la focalización del producto con base en un segmento específico de consumidores (por ejemplo, una campaña publicitaria de alimentos de bebés). En este sentido, el éxito de dicha campaña reside en que un público mayor conozca el producto, incluso si su interés por este tiende a cero. Esto sucede a través de estímulos sensoriales, repeticiones y amplificación de emociones positivas (un anuncio divierte y deleita), usando técnicas de comprensión sencillas. El mundo del marketing está en continua competencia, es difícil destacar en la actual ‘jungla’ de emociones a la que nos someten los medios. El modelo marketiniano tradicional utiliza el bombardeo repetitivo de un anuncio para enfatizar en la divulgación de valores li-
gados a productos y servicios. No obstante, el elevado costo económico de las campañas de marketing y el escaso nicho de mercado que liberan las grandes corporaciones han hecho que las agencias de publicidad basen sus estrategias en nuevas formas de comunicación. Es necesario un alto grado de originalidad y creatividad, y esto se puede nutrir del mundo artístico. Nuevas tendencias menos explotadas aparecen como caballo de batalla, y su rendimiento es efectivo: causar un mayor impacto en el espectador. Aparece un nuevo concepto en la publicidad, el arte de acción, que relega con sus métodos a las formas tradicionales y emplea la calle como lugar de trabajo y divulgación artística. En los espacios públicos podemos encontrar a todo tipo de individuos sin importar el género, edad o posición social, se trata de un mercado heterogéneo. Estas campañas de publicidad, en general más económicas que las campañas tradicionales (y no es que no se requiera dinero para realizarlas), consiguen su objetivo manipulando otras variables artísticas como el grado de creatividad y originalidad. Se pueden realizar campañas ajustando el presupuesto con base en el objetivo principal del marketing, la difusión del producto. Son muchas las empresas que hoy en día emplean estas novedosas técnicas artísticas y sorprenden a los consumidores con campañas que hacen que su producto sea un éxito. A continuación se muestran ejemplos de casos concretos de marketing usando el arte de acción. La mayoría del público que fue partícipe en este proceso recordó de manera anecdótica la acción y por tanto la marca. El objetivo del marketing tuvo éxito. Arte de acción en la publicidad Vidrio de Seguridad 3M La Figura 1 muestra una imagen referente a una campaña publicitaria que inició la empresa americana 3M en el año 2004 con la finalidad de consolidarse como una de las empresas líderes en la producción de vidrios de seguridad. Para probar la resistencia y seguridad de su cristal antibalas colocó en el interior de la marquesina de la parada de autobús situada en la calle Broughton & Pender de Vancouver, Canadá, la generosa cifra de tres millones de dólares. Este hecho provocó que fueran varias las personas que intentasen robar el dinero por un medio u otro; de hecho,
en el mismo anuncio se incitaba al espectador a comprobar la resistencia del cristal por sí mismo. Las tres imágenes tomadas por cámaras de seguridad situadas a la derecha de la imagen principal muestran in situ los intentos fallidos de diversas personas que comprobaron la alta resistencia de este material.
Figura 1 En la carga artística de esta acción reside la clave del éxito. La conquista del espectador como partícipe en la interacción es una técnica utilizada en el Happening asumiendo un alto grado emocional por parte del espectador.
Figura 2 Otra característica importante es que el taxi no es estático sino que se desplaza de un punto a otro de la ciudad, además de circular las 24 horas los siete días de la semana. La elección de un taxi público frente a un coche particular, que no circula tanto como el taxi, también fue una excelente elección.
Hamleys El siguiente ejemplo de técnica de marketing empleando el arte de acción es de Hamleys, una famosa tienda de juguetes inglesa situada en la capital londinense. Esta campaña publicitaria además de efectiva fue muy barata, lo que la hace sencillamente brillante. Es tan fácil de aplicar que no requiere una alta inversión económica. Concretamente, lo que se hizo fue colocar en lo alto de un único taxi de Londres una rosca ficticia, convirtiendo visualmente al taxi en un auto de juguete mecánico (ver Figura 2). El impacto que causó en el público fue excepcional al llamar su atención constantemente. El impacto social fue elevado, incluso el taxi era buscado por la ciudad para ser fotografiado. La grandeza de esta obra reside en que con un solo ejemplar, la campaña logró llegar a un número de personas significativo con un alto grado de impacto visual y un coste reducido. IAMS Desde siempre se han utilizado los vehículos debido a su gran movilidad. Las camionetas y camiones han sido frecuentemente serigrafiados en sus costados con publicidad. Hoy día la manera de disponer estos elementos ha evolucionado, haciendo que algunas partes del auto sean elementos integrantes de ese diseño publicitario. En este sentido, la empresa norteamericana IAMS, dedicada a la producción de piensos de animales de compañía, creó un novedoso recurso publicitario en su campaña “Happy Dog”. La acción artística se basó en la disposición de pegatinas en forma de perro en las lunas traseras de los taxis de Londres, de manera que cuando se accionaba el limpiaparabrisas una cola de perro se ponía en movimiento, signo de un perro contento y feliz. Algo muy eficaz logrado únicamente con una pegatina. Vijay Sales El último ejemplo propuesto (ver Figura 3) es también magnífico, porque como podemos ENERO 2015 -
Investiga TEC 23
apreciar el coste es muy bajo. La empresa se llama Vijay Sales, una empresa india de provisión de productos de uso diverso. El diseño es brillante: con tan solo colocar una cuchara de cocina junto a una rejilla de alcantarilla de calle, convirtieron visualmente al conjunto en una parrilla vieja y oxidada. Junto a ella un mensaje, utilizando la técnica del estarcido o spray (algo con un costo muy económico y duradero) y ofreciendo un teléfono y el nombre de un comercio donde el consumidor puede adquirir una nueva. Otro ejemplo muy curioso y efectivo ocurre en Alemania. Dadas las características climatológicas de este país, donde en invierno la lluvia es abundante, y teniendo en cuenta que la bicicleta es un medio de transporte inmensamente utilizado, muchas empresas se publicitan haciendo cubre sillines con sus mensajes publicitarios. De esta manera, el soporte publicitario tiene un uso relevante para el consumidor, le va a proporcionar un servicio práctico cuando llueve. Esto sucede en la misma medida con los parasoles de los automóviles. De la misma forma que el taxi, las bicicletas no son estáticas y hacen publicidad geográficamente de manera gratuita. 24 Investiga TEC
- ENERO 2015
Marketing de guerrilla Cada vez son más las empresas que utilizan estas ingeniosas técnicas para nutrir sus campañas publicitarias. De hecho, su uso ya se ha extendido tanto en el campo del marketing que incluso se han llegado a realizar manuales donde se recogen ejemplos, tácticas, estrategias y características. En esta línea, Jay Conrad Levinson es conocido como “el padre del marketing de guerrilla” (ver Levinson 1989). Marketing de guerrilla se llama a la estrategia artística que llevamos viendo a través de todos los ejemplos presentados y que, en 1984 su creador definió así: El marketing de guerrilla es realizar actividades de marketing (esencialmente acciones de promoción) de una manera no convencional y con un presupuesto bajo. La realización de este marketing se puede hacer a través de técnicas muy conocidas como la pintura, la escultura, el uso de pegatinas, carteles, vallas y lonas publicitarias, o bien, disciplinas más contemporáneas del arte como son el Happening y la Performance. La primera persona en acuñar el término Happening fue Allan Kaprow (Kaprow 1967), quien lo definió como una forma de arte distinta de las disciplinas preexistentes (…), un arte de naturaleza abstracta, sin intriga ni historia, que ocupa un lugar en el tiempo y debe ser realizado de manera activa por el artista y los espectadores, que pasan a convertirse en cocreadores de la obra, anulando así las barreras entre el público y la acción. Por otra parte, la expresión Performance viene del verbo inglés “to perform” que significa realizar, completar, ejecutar o efectuar. A nivel artístico podemos encontrar la utilización de este término a principios del siglo XX pero no es hasta la década de los sesentas cuando tiene un reconocimiento a nivel internacional. Una Performance (Roth 1997), aunque no hay una traducción literal para el término, es una forma de expresión artística que puede incluir varias disciplinas como la música, la pintura, la escultura, la danza, la poesía, el vídeo, el teatro, etc. Su característica principal es que se desarrolla en un lugar determinado durante un tiempo concreto. La Performance se lleva a cabo en vivo y existe mientras el artista realiza su propuesta, a diferencia de una exposición tradicional. La diferencia con respecto al Happening es que en este caso, el público no es más que un mero espectador.
Estas técnicas nos permiten observar el impacto de nuevas metodologías de arte sobre el marketing, aumentando la eficiencia del marketing a través de mejoras reales de resultados. Esta nueva tendencia lleva al prestigioso reconocimiento de marcas fuertemente asentadas en el mercado a través del uso de técnicas artísticas. Un ejemplo claro son las revolucionarias campañas publicitarias del automóvil MINI, impulsadas por BMW. Las técnicas artísticas empleadas en marketing no tienen otro objetivo distinto más que el de aumentar las ventas del producto o servicio anunciado. Pese a que el mundo artístico está socialmente alejado de las decisiones financieras basadas en la maximización de beneficios y el incremento unilateral del margen de ventas, vemos cómo dos mundos alcanzan su convergencia en esta disciplina. El resultado no es efímero, sino que es estandarte claro, perenne y goza de plena salud. Referencias Kaprow, A. (1967). Untitled Essay. Something Else Press. Levinson, J. C. (1989). Guerrilla marketing attack. Houghton Mifflin Harcourt. Santori, G. (1998). Homo videns: la sociedad teledirigida. Editorial Taurus, Colección Pensamiento, Buenos Aires. Roth, M. (1997). A History of Performance. Art Journal, 56(4), 73-85. Índice de imágenes Figura 1: http://laurettaanselmi.wordpress. com/2012/03/13/guerrilla-advertising-andits-narrative/ Figura 2: http://www.guerilla-marketing. com/weblog/guerilla-spielzeug-auf-der-strasehamley%C2%B4s-toy-shop/666/guerillawerbung Figura 3: http://doweirdo.blogspot. com/2006/10/vijay-sales-barbecue.html *Marta Andrés tiene una maestría universitaria en producción artística; actualmente es estudiante de doctorado en el programa de Arte: Producción e Investigación, de la Facultad de Bellas Artes, San Carlos, de la Universitat Politécnica de Valencia, España. **Guillermo Mateu es profesor titular en el Departamento de Finanzas de la Burgundy School of Business, en Dijon, Francia, donde dirige una maestría de finanzas corporativas (Advance Corporate Finance). Tiene un doctorado en economía experimental en 2011, por la Universitat de València, España. Sus áreas de investigación se basan en la economía del comportamiento y toma de decisiones.