Ciencia, tecnologĂa, innovaciĂłn y recursos naturales
La energĂa
en todas sus formas
“La energía en todas sus formas” es una publicación conjunta de la Facultad de Ciencias Exactas y Naturales de la Universidad de Buenos Aires y de la Fundación YPF. Los artículos que se incluyen en la publicación fueron extraídos de la publicación semanal “El Cable”, de la revista “Exactamente” y del sitio “NEXciencia”, todos pertenecientes a la Facultad de Ciencias Exactas y Naturales. AUTorES: Gabriel Rocca, Susana Gallardo, Gabriel Stekolschik, Cecilia Draghi, Armando Doria, Patricia Olivella DISEÑo:
Federico de Giacomi
Diciembre de 2014 Buenos Aires “La energía en todas sus formas” está publicada bajo Licencia Creative Commons Atribution 3.0 Unported. Su contenido se puede utilizar libremente indicando claramente el origen de la publicación.
Y
Un para
Yacimientos no convencionales
nuevo camino obtener energía por GABRIEL STEKOLSCHIK
Las crisis mundial del petróleo que ocurrió en la década del 70 cambió el paradigma de exploración y explotación vigente hasta ese entonces y condujo la búsqueda de hidrocarburos hacia lugares impensados. A partir de la caída de las reservas de gas y petróleo, la Argentina buscó, en vistas a aquella experiencia, su propio camino. Y las perspectivas actuales son muy alentadoras.
H
ace millones de años, el fondo de los océanos, los mares y los grandes lagos recibían los restos diminutos de animales y plantas, que caían lenta e incesantemente. Estos residuos orgánicos se depositaban en grandes cantidades formando capas espesas que se mezclaban con el barro que sedimentaba en las profundidades. Con el tiempo, en ciertas condiciones de presión y temperatura, la mezcla comenzó a “cocinarse”. Por un lado, aprisionada por ese lodo y privada de oxígeno, la materia orgánica se transformó en hidrocarburos (sustancias formadas exclusivamente por hidrógeno y carbono), como el gas natural y el petróleo. Por otro lado, los compuestos inorgánicos, como la arcilla, se compactaron y cementaron formando rocas sedimentarias de grano muy fino. Durante este proceso, el petróleo y el gas formados rellenaron los poros de esas rocas y, en conjunto, constituyeron lo que se denomina la roca madre. A lo largo de estos millones de años, la corteza terrestre sufrió grandes cambios que le produjeron fracturas. A través de ellas, y arrastrados por el agua que circula por los intersticios de la corteza de la Tierra, cierta cantidad de hidrocarburos pudo escapar, poco a poco, de la roca madre y, por ser más livianos que el líquido elemento, ascendieron. Si en su migración ascendente no encontraron un impedimento, pudieron llegar a la superficie. El gas se escapó a la atmósfera y el petróleo se endureció y se oxidó para dar lugar a asfaltos. Pero si en su ascenso se encontraron con rocas impermeables, los hidrocarburos no pudieron seguir subiendo, se acumularon en una “trampa”, y se formaron los yacimientos. Estos depósitos no son “huecos” que “se van llenando” con el gas y el petróleo que ascienden, sino que están formados por rocas porosas y permeables –principalmente areniscas–, llamadas rocas almacén que, como esponjas, retienen los hidrocarburos. Todo este proceso nunca se detuvo. Los sedimentos que hoy se depositan en el fondo del mar probablemente generarán algo de petróleo y gas dentro de millones de años.
//// Exprimir la roca En 1859, en los Estados Unidos, se perforó el primer pozo petrolero del mundo. Desde entonces, la producción y el consumo de gas y petróleo crecieron exponencialmente. Se dispuso de petróleo abundante y barato hasta las llamadas “crisis del petróleo” de los años 1973 y 1979, provocadas por cuestiones geopolíticas (no por el agotamiento del hidrocarburo), que elevaron su precio significativamente. En este nuevo escenario económico, resultó rentable extraer los recursos más caros antes que agotar los más baratos. Así, se desarrollaron métodos para obtener hidrocarburos situados en lugares distintos a la roca almacén. A estos yacimientos que empezaron a explotarse se los denominó no convencionales, porque para extraer de ellos el petróleo y el gas se requerían tecnologías distintas a las consideradas convencionales hasta ese momento. Hasta entonces, los hidrocarburos se obtenían por simple extracción –con ayuda de bombeo o sin ella– de un reservorio subterráneo en donde se encontraban en estado relativamente puro, con alta concentración y movilidad. En cambio, las técnicas no convencionales apuntaron a obtener el petróleo y el gas que quedan retenidos en la roca madre. “La roca madre tiene una granulometría extremadamente fina, y el material muy fino es muy poroso, es decir, tiene mucha capacidad de tener fluidos adentro. Pero también es muy impermeable, o sea, los poros están muy incomunicados. Entonces, cuando uno quiere chupar algo de ahí, no sale nada”, explica el doctor Ernesto Cristallini, investigador del Conicet y director del Laboratorio de Modelado Geológico de la Facultad de Ciencias Exactas y Naturales (Exactas-UBA). “Es como el mate con yerba fina. Tiene agua, pero si uno chupa no sale, porque al ser finita los poros están incomunicados”, ilustra, y comenta: “Hace 60 años a ningún geólogo se le pasaba por la cabeza extraer hidrocarburos de la roca madre”. Pero, tras las crisis de la década de los 70, siguió el progresivo agotamiento de los yacimientos convencionales y, con ello, el desarrollo de tecnologías que permiten aumentar la permeabilidad de la roca madre interconectando los poros para que los hidrocarburos puedan fluir. “Se hace una perforación y se inyecta agua a muy alta presión para romper la roca madre y generar fracturas que comuniquen esos poros. Entonces, se inyecta arena, que se mete en las fracturas para que no se cierren cuando empieces a sacar el agua para extraer el hidrocarburo”, describe Cristallini.
Para optimizar este proceso, denominado estimulación hidráulica o fracking, junto con el agua se inyectan ciertos productos químicos, algunos de los cuales son considerados tóxicos. Esto, sumado al gran volumen hídrico que se utiliza, desata críticas de las organizaciones ambientalistas hacia este tipo de explotación. “Es muy importante que la sociedad sepa que estas cosas no son nuevas. Se ha aprendido muchísimo sobre cómo manejar el agua para no contaminar los niveles donde uno tiene el agua para consumo humano”, señala el geólogo Luis Stinco, profesor del Instituto del Gas y del Petróleo de la UBA y consultor de empresas del área. “Además, la legislación argentina establece un sistema de regulación y las empresas lo cumplen, porque si generan un inconveniente ambiental, eso implica un perjuicio económico gigantesco que va a provocar que no puedan seguir trabajando. Lo que es imposible descartar es que pueda haber un accidente, pero se trata de minimizar los riesgos. Estamos hablando de algo en lo cual las tecnologías aplicadas ya han sido probadas con éxito”, añade. Existen distintos tipos de yacimientos no convencionales: shale, tight, coal bed methane, entre otros. Esa diferenciación no está definida por las propiedades de los hidrocarburos que contienen, sino por el tipo de roca en el que se encuentra almacenado el gas o el petróleo. Por ejemplo, los yacimientos de shale gas y shale oil son aquellos que contienen a los hidrocarburos entrampados en la arcilla de la roca madre. Por otra parte, los tight son yacimientos en los cuales el petróleo y el gas están almacenados fuera de la roca madre, pero en reservorios de arenas compactas, con muy poca porosidad y muy baja permeabilidad.
//// Vaca Muerta “En los que más experiencia tiene la Argentina es en los tight. En los shale está aprendiendo”, consigna Stinco. La motivación para ese aprendizaje fue el descubrimiento, en diciembre de 2010, de yacimientos ricos en shale gas y shale oil en Vaca Muerta, la roca madre más importante de la cuenca neuquina, formada hace millones de años cuando la región del Neuquén estaba sumergida en un gran golfo que bordeaba el océano Pacífico. Según los expertos, este lugar posee ciertas características particulares que, potencialmente, la convierten en una fuente cuantiosa de hidrocarburos. “Por un lado, ocupa un área muy extensa (unos 36.000 km2, más de un tercio de la superficie de Neuquén) y tiene un espesor considerable. Por otro lado, el contenido de materia or-
gánica y la maduración de la roca es muy bueno y puede contener mucho hidrocarburo. Además, se encuentra a una profundidad interesante”, informa Cristallini y aclara: “Vaca Muerta está entre los dos mil y tres mil metros de profundidad, lo cual no es tanto a la hora de evaluar los costos de explotación, que aumentan a medida que se va más abajo. Por otra parte, el proceso de fracking abarca un diámetro de unos 50 metros de roca, con lo cual, a esas profundidades, estás muy por debajo de aquello que podés contaminar”. “Además, Vaca Muerta está ubicada geográficamente en un área donde a las empresas les resulta fácil el acceso, porque hay rutas, caminos provinciales y municipales”, añade Stinco. “Vaca Muerta está a punto de caramelo”, concluye Cristallini.
//// Sitios dulces La exploración y explotación de yacimientos no convencionales puede efectuarse mediante los clásicos pozos verticales y, también, a través de perforaciones horizontales. Estas últimas, una vez alcanzada la roca madre mediante un pozo vertical, consisten en desplazarse adentro de ella abriéndose camino horizontalmente. Obviamente, esta última opción es mucho más cara. “Hoy en día, por su gran espesor, la exploración de Vaca Muerta la estamos efectuando netamente a través de pozos verticales”, informa el geólogo Iván Lanusse Noguera, jefe del equipo de exploración de petróleo no convencional de la empresa YPF. Tras explicar que “en el yacimiento de Loma de la Lata hay un piloto en desarrollo y ya hay pozos no convencionales en producción”, Lanusse Noguera aclara que “todavía estamos en la curva de aprendizaje”. En ese sentido, explica: “El pozo vertical es el que más datos nos brinda en cuanto a los perfiles estratigráficos para poder delinear la exploración, es decir, definir en qué lugares de la cuenca ir poniendo los pozos y determinar la calidad de la roca y el tipo de fluido que se puede recuperar”. Según el especialista, el objetivo es reducir los tiempos de aprendizaje y descubrir las zonas más productivas (sweet spots o “sitios dulces”) para iniciar la producción a gran escala. “Para ello, estamos perforando cientos y cientos de pozos al año”, revela. Los expertos aseguran que Vaca Muerta podría asegurar el autoabastecimiento energético de la Argentina en pocos años. Si bien nadie quiere arriesgar pronósticos en cuanto a los plazos que demandará esa meta, todos coinciden en que las perspectivas son alentadoras.
Actividad solar
Chaparrones solares por SUSANA GALLARDO
La vida en la Tierra depende del Sol, la fábrica de energía más grande del sistema solar. Todo lo que suceda en esta estrella nos afecta, de algún modo. Fulguraciones, tormentas solares y la variación del número de manchas solares, son fenómenos con diferentes consecuencias. Algunos tienen efectos inmediatos sobre las comunicaciones y las redes eléctricas. Otros pueden afectar el clima.
A
comienzos de 2013, la NASA advertía sobre el aumento de actividad solar, y que podría tener picos de tormentas que, si ocurrieran en la cara del Sol que enfrenta a la Tierra, serían capaces de generar, al menos en el hemisferio norte, problemas en las telecomunicaciones y en las redes de electricidad. Más allá de esas consecuencias puntuales, un interrogante es qué influencia tiene la actividad solar sobre el clima terrestre. “Cuando se habla de actividad del Sol, hay que distinguir entre la actividad transitoria y la de largo plazo, y es esta última la que podría tener influencia en el clima”, señala la doctora Cristina Mandrini, directora del grupo de Física Solar, del Instituto de Astronomía y Física del Espacio, CONICET-UBA.Mandrini investiga los mecanismos solares que inciden en la producción de eventos transitorios, como las fulguraciones o las eyecciones de masa de la corona solar, que pueden durar, a lo sumo, algunas horas. “El objetivo es determinar las condiciones para que se produzcan estos eventos, de modo de poder predecirlos mejor”, afirma la investigadora”.
//// Mil bombas al unísono “Un evento transitorio libera una cantidad de energía equivalente a la explosión simultánea de cinco mil millones de bombas, como las lanzadas en Hiroshima, y ello ocurre, por lo general, en las cercanías de las manchas solares”, grafica Mandrini. En los momentos de actividad, el Sol emite radiación de alta energía y partículas aceleradas. En algunos casos se produce eyección de material al medio interplanetario y, si ello se genera justo enfrente de la Tierra, no hay forma de evitar el impacto. “Esa masa puede afectar el campo magnético terrestre, lo comprime y lo “abre”, y por un fenómeno que se llama reconexión, esas partículas con alta energía ingresan a la atmósfera por los polos terrestres”, detalla Mandrini. En las regiones polares, esas partículas energéticas dan lugar a hermosas auroras: fenómenos de brillo o luminiscencia que se observan en el cielo nocturno.
//// Apagones en la Tierra Ese ingreso de partículas energéticas también puede llegar a producir estragos en las redes de electricidad de las grandes ciudades del hemisferio norte. Por ejemplo, en marzo de 1989, la ciudad de Quebec, en Canadá, padeció los efectos de una fuerte tormenta solar, que causó un gran apagón que duró 90 segundos. Asimismo, la red eléctrica de Montreal se vio paralizada durante más de nueve horas; las pérdidas económicas fueron millonarias. Las tormentas solares también pueden causar interferencias en las señales de radio y afectar los sistemas de navegación aéreos en ambos hemisferios. En general, las áreas más castigadas son las cercanas a los polos. Sin embargo, en septiembre de 1859, gran parte del planeta sintió los efectos de una intensa tormenta solar. En Estados Unidos y el Reino Unido, las líneas telegráficas quedaron inutilizadas, y pudo verse una aurora boreal en zonas alejadas de los polos, como Roma o Hawái, aunque no se vieron en el hemisferio sur. “Cuanto más dependientes seamos de la tecnología, más vulnerables somos frente a las tormentas solares”, destaca Mandrini. Es por eso que la NASA envía advertencias cuando los datos indican que puede haber riesgo de mayor actividad. A la variación del número de manchas se lo conoce como “ciclo solar”, y dura aproximadamente 11 años. Como los eventos activos ocurren en la proximidad de manchas solares, cuantas más manchas haya (máximo del ciclo solar), mayor es la probabilidad de que ocurra un evento activo. Sin embargo, se ha observado que los eventos activos más energéticos tienden a ocurrir durante la caída del ciclo solar. “En el 2003, por ejemplo, el Sol estaba en la fase de decaimiento de actividad y sin embargo ocurrieron varias fulguraciones y eyecciones coronales de masa en unos pocos días, a fines de octubre y principios de noviembre. Como resultado de estos fenómenos, Japón perdió tres satélites de comunicaciones”, comenta Mandrini. Las tormentas solares pueden afectar a las personas, en el caso de astronautas en caminata especial, o pasajeros de un vuelo transpolar, pues las fulguraciones emiten rayos X de muy alta energía. Mientras que la radiación emitida en el Sol tarda 8 minutos en llegar a la Tierra, las partículas que componen a las eyecciones de masa viajan a una velocidad media de 500 kilómetros por segundo y pueden tardar entre algunas horas y tres o cuatro días en afectar el campo magnético terrestre. Es decir, es posible dar alertas, pues el Sol es monitoreado durante las 24 horas diarias.
//// Ciclos de actividad El Sol, como muchas otras estrellas, tiene ciclos de mayor actividad y períodos de “reposo”, que se vinculan al número de manchas solares. A partir de 1859 se comenzaron a realizar observaciones sistemáticas, y con estos datos y otros registros anteriores, se determinó que los ciclos duran alrededor de once años. Actualmente, el Sol está transitando el ciclo 24, luego de un período sin manchas solares. Éstas comenzaron a aparecer nuevamente, en pequeño número, a mediados del 2009. “Las manchas solares son concentraciones de campo magnético intenso, pueden alcanzar hasta 3000 gauss, medida de la densidad del flujo magnético”, indica Mandrini. Esa magnitud es importante si se piensa que el campo magnético terrestre es de 0,5 gauss, y el de un pequeño imán, alrededor de 100 gauss. En el pasado, algunos ciclos de menor actividad solar tuvieron efectos en el clima terrestre. A mediados del siglo XIX, cuando las manchas comenzaron a estudiarse de manera sistemática, se buscaron los registros previos y se vio que había un período de 70 años, entre 1640 y 1715, en el que casi no había registros de manchas solares. En realidad se habían identificado alrededor de 50 manchas, mientras que lo habitual era entre 40 mil y 50 mil. El interrogante era si fallaba el registro, o si, efectivamente, las manchas no se habían producido. El astrónomo británico Edward Maunder se abocó a estudiar el tema y llegó a la conclusión de que en ese período las manchas habían estado casi ausentes. Tampoco había registros de auroras polares, que eran habituales en Gran Bretaña y los países escandinavos. Pero lo más llamativo fue que en esa región, y durante ese lapso, se habían registrado inviernos muy fríos con intensas nevadas. Es más, cuadros de la época muestran canales y ríos convertidos en pistas de patinaje sobre hielo.
más, mostraban concentraciones muy altas de carbono radiactivo. Este último dato era indicador de que la Tierra había estado sometida a una mayor afluencia de radiación cósmica. Cabe destacar que, durante el ciclo de máxima actividad solar, los rayos cósmicos provenientes del espacio interestelar encuentran mayor dificultad para ingresar a la atmósfera terrestre. En cambio, en los mínimos solares, los rayos cósmicos tienen acceso libre. Así, su mayor o menor ingreso es indicador de alta o baja actividad solar. Para conocer esos parámetros en el pasado, pueden analizarse los hielos antárticos a gran profundidad, y determinar la mayor o menor presencia de ciertos isótopos de origen cósmico.
//// Mínimo solar y temperatura global Si del Sol depende la vida en la Tierra, se puede pensar que el clima, y por ende, el calentamiento global se encuentran ligados a los ciclos de actividad de nuestra estrella. “Desde principios del siglo XXI, tuvimos un mínimo solar prolongado y muy profundo. Se esperaba que el nuevo ciclo comenzara en 2007, cuando empezó en realidad un mínimo de varios meses sin manchas solares. Recién a mediados del 2009 comenzó un nuevo ciclo solar que está alcanzando un máximo en 2013, pero con reducido número de manchas solares, aun menor que en el ciclo 1968-1970. En éste, las temperaturas de la Tierra fueron bastante más bajas que en las dos décadas anteriores y por supuesto menor que el calentamiento posterior”, indica la doctora Rosa Compagnucci, investigadora del CONICET en el Departamento de Ciencias de la Atmósfera y los Océanos, de Exactas-UBA. En un artículo aparecido en la publicación en Advances in Space Research, Compagnucci junto con el doctor Rodolfo Cionco, investigador de la Universidad Tecnológica Nacional, predicen un ciclo de mínima actividad solar que tendrá influencia en el clima global.
La relación entre manchas solares y clima también puede determinarse con el estudio de los anillos de los árboles (dendrocronología). En efecto, los anillos de crecimiento grabados en el tronco de un árbol indican no sólo la edad, sino también –según su mayor o menor grosor– la variación en el crecimiento, y por ende, los cambios en las condiciones climáticas. Durante los períodos fríos, los anillos son más delgados.
“Si la actividad solar no hubiese disminuido tanto, la tendencia de la temperatura habría seguido en aumento, como lo venía haciendo en los últimos 50 años, y esto significa que el dióxido de carbono antropogénico frenó el enfriamiento que podría haberse producido”, destaca la investigadora, que a continuación aclara: “Yo no niego que el dióxido de carbono tenga influencia, pero no hay que desestimar al Sol”.
El creador de la dendrocronología, el astrónomo estadounidense Andrew Douglass, pudo mostrar que durante los 70 años de ausencia de manchas solares, los anillos de los árboles eran muy delgados y que, ade-
Teniendo en cuenta que la variación en la irradiancia solar es del 0,1%, Compagnucci señala: “El cambio en la irradiancia solar genera un feedback en el sistema climático, por ejemplo en la nubosidad, y algunos as-
pectos, como la influencia de los rayos cósmicos galácticos en la nubosidad, no son tenidos en cuenta en los modelos”. La cantidad y tipo de nubes afecta el aumento o disminución de la temperatura. Según Compagnucci, “el escenario climático que en el 2001 predecía la temperatura de las futuras décadas, no se cumplió en el 2010, ya que se pronosticó un aumento de temperatura que no ocurrió, pues ésta se mantuvo relativamente estable a partir del 2001, y el IPCC no explica completamente”. Por su parte, la doctora Inés Camilloni, investigadora del Centro de Investigaciones del Mar y la Atmósfera (CIMA CONICET/UBA) detalla: “Se producen cambios en el clima cuando el sistema climático sale de las condiciones de equilibrio entre la energía que recibe del Sol y la que se devuelve al espacio. Ese desbalance, que se genera cuando hay más gases de efecto invernadero, o erupciones volcánicas, se denomina ‘forzante radiativo’, y su valor permite medir la importancia relativa de las distintas causas que producen cambios en el clima”. En efecto, los investigadores pueden calcular cuánto cambió el forzante radiativo entre 2011 y 1750 (inicio de la Revolución Industrial). En ese período, se sabe qué erupciones volcánicas hubo, se conoce la energía del Sol, y la concentración de gases de invernadero.
que la influencia de la radiación solar sobre el clima no puede desestimarse. En este complejo panorama, lo que se sabe a ciencia cierta es que la irradiancia solar total varía muy poco con la actividad solar. Pero habría otros factores que también afectarían el clima, como la acción de los rayos cósmicos, las variaciones de la radiación UV a lo largo del ciclo solar y su influencia en la química atmosférica, entre otros. Los investigadores aseguran que el Sol influye, pero que no logra opacar el rol de las emisiones de gases como producto de la actividad humana.
Mientras que la radiación emitida en el Sol tarda 8 minutos en llegar a la Tierra, las partículas que componen las eyecciones de masa
pueden tardar entre algunas horas
“Se comprobó que el forzante radiativo y tres o cuatro días en afectar el de gases de invernadero que se incorporan por la acción humana es mucho mayor que el asociado a campo magnético terrestre. cambios en la radiación solar”, destaca Camilloni. Según la investigadora, “el impacto de los cambios en la energía solar es mínimo, comparado con el aumento de gases de invernadero o las erupciones volcánicas”. Estas últimas producen un forzante radiativo negativo. El último informe del IPCC, presentado en en octubre de 2014, en Copenhagen, Dinamarca, confirma que la causa del calentamiento global reside en la acción humana. Señala que el calentamiento “es inequívoco y desde 1950 son muchos los cambios observados en todo el sistema climático que no tienen precedentes en los últimos decenios o milenios”, y prosigue: “Es sumamente probable que la influencia humana haya sido la causa dominante de este calentamiento”. Al respecto, concluye Camilloni: “Esa afirmación surge del juicio experto de los científicos, del nivel de certeza del análisis de la información disponible”. Frente a la hipótesis del efecto de los gases de invernadero sobre el calentamiento global, que cada día cuenta con más evidencias, algunos investigadores sostienen
Transporte de energía
Nanocaminos por PATRICIA OLIVELLA
Entre el mundo macroscópico que vemos a diario y aquellas cosas tan pequeñas que necesitan de un microscopio para ser vistas, hay una transición, un universo comprendido entre los nanómetros y los micrómetros, donde todo se mide en una escala llamada mesoscópica. Allí es donde un grupo de físico investiga el transporte de energía.
La frontera entre lo que se ve y lo que no se ve es mucho más difusa de lo que podríamos pensar. Estamos acostumbrados a dividir a la naturaleza entre el mundo macroscópico y el microscópico. Todos los objetos que se ven a simple vista pertenecen al mundo macroscópico, en cambio las moléculas, los átomos y las partículas subatómicas pertenecen al microscópico y no pueden ser observados de manera directa, sino que su existencia se detecta a partir de cómo se manifiestan a través de fenómenos físicos. En el medio de estos dos universos está el mundo mesoscópico. El grupo de investigación que dirige Liliana Arrachea y que se encuadra dentro de uno mayor, dedicado al estudio de la materia condensada, trabaja sobre fenómenos de transporte cuántico en sistemas de materia condensada de escala mesoscópica. “La escala mesoscópica comienza en los nanómetros y se extiende hasta algunos cientos de micrómetros. Al igual que los sistemas macroscópicos, los sistemas mesoscópicos contienen un número grande de átomos, aunque en el caso macroscópico el número típico es el número de Avogadro (1023partículas) mientras que en la escala mesoscópica, los números típicos son del orden de 105 o menores”, explica Arrachea. Si de física se trata, los fenómenos macroscópicos pueden ser descriptos adecuadamente por las leyes de la mecánica clásica, pero la mayoría de los fenómenos físicos que tienen lugar en el mundo mesoscópico, al igual que los microscópicos, están regidos por las reglas de la mecánica cuántica.
“La física mesoscópica se ocupa de los problemas fundamentales que tienen lugar cuando un objeto macroscópico se miniaturiza. Actualmente, es un área de gran actividad dentro del campo de la materia condensada y la física de materiales”, dice Arrachea. Esta rama de la física comenzó a desarrollarse en los años años 80, en gran medida motivada por la creciente miniaturización de dispositivos electrónicos como transistores y circuitos, que constituyen la base de computadoras y teléfonos. “A nosotros nos interesa, especialmente, comprender y describir fenómenos de transporte. En particular, nos interesa descubrir nuevos mecanismos para generar y controlar corrientes eléctricas y comprender también cómo se transporta la energía en estos sistemas”, explica la investigadora. Para ello, los especialistas estudian, por ejemplo, puntos y capacitores cuánticos, pequeñas islas de un material en el que se diseña un circuito para confinar electrones. Este dispositivo se manipula mediante la aplicación de voltajes eléctricos, que permiten, por ejemplo, mover a los electrones uno a uno en un circuito o generar corrientes magnéticas.
Un desafío tecnológico nacional
La Argentina nuclear por GABRIEL ROCCA
Nuestro país está construyendo la primera central atómica de diseño íntegramente nacional. Se trata de un reactor de características novedosas, más simple y más seguro que cualquier otro de los que actualmente funcionan en el mundo. Se llama CAREM y colocará a la Argentina a la vanguardia tecnológica en el mercado internacional de generación nucleoeléctrica.
S
i bien puede resultar inverosímil, es estrictamente cierto. Pero, ¿cómo puede ser que un proyecto ideado en los albores de la década del 80, que se retomó luego de más de un cuarto de siglo de abandono, pueda constituirse en uno de los mayores desafíos tecnológicos nacionales y pueda transformar a nuestro país en uno de los líderes mundiales en reactores nucleares de baja y mediana potencia? “Es que cuando se generó el concepto CAREM presentaba una serie de características muy novedosas que lo hacían único en el mundo. Con los años, otros diseños empezaron a adoptar soluciones parecidas y algunos directamente lo copiaron. Pero todavía llevamos la delantera”, explica Osvaldo Calzetta Larrieu, gerente del proyecto CAREM en la Comisión Nacional de Energía Atómica (CNEA). El proyecto CAREM (acrónimo de Central Argentina de Elementos Modulares) consiste en el desarrollo, construcción y operación de la primera central nuclear de potencia que cuenta con un diseño ciento por ciento nacional. “Aunque no tuviera particularidades distintivas demasiado grandes, que la Argentina diseñe y construya una central nuclear es un desafío muy grande. No hay muchos países que lo puedan hacer. Pero, además, el CAREM tiene características muy novedosas”, se entusiasma Calzetta. El CAREM es un PWR, Pressured Water Reactor, es decir que se refrigera con un circuito primario de agua liviana. Pero se trata de un modelo de tercera generación plus, el primero en construirse a nivel mundial. La diferencia con los PWR clásicos (como las centrales nucleares Atucha I y II) es que el CAREM cuenta con un “sistema de seguridad inherente básicamente pasivo”, lo que significa que para ejecutarse no requiere de la intervención humana ni de sistemas activos que requieran alimentación y mantenimiento adicionales. Así, por ejemplo, el agua circula enfriando su núcleo por convección, sin necesidad de bombeo; las válvulas se accionan por diferencia de presión; de ser necesario, el agua inunda el reactor producto de la gravedad. “Son soluciones intrínsecamente seguras porque están basadas en leyes de la naturaleza. Y esas leyes no fallan”, describe el funcionario, y agrega, “ningún sistema de seguridad es único. Siempre hay un segundo de respaldo”.
Eliminadas las bombas, también desaparece la necesidad del abastecimiento eléctrico necesario para que funcionen, que suele ser lo primero que falla cuando se produce cualquier tipo de desastre natural. Pero, además, otro de los conceptos innovadores que propone el CAREM es el de la “integración”, por el cual, el circuito primario, los mecanismos de control y parte del circuito secundario (los generadores de vapor) se encuentran contenidos en un único recipiente de presión (una olla de presión de acero forjado de once metros de alto, con paredes de entre 13 y 20 centímetros de espesor), lo que reduce significativamente el número de caños y otras conexiones hacia el exterior del recipiente, por lo que prácticamente elimina la posibilidad de que ocurra el peor accidente que puede sufrir un PWR: la pérdida de líquido refrigerante debido a la rotura de cañerías. Este conjunto de innovaciones hace posible que, frente a un accidente grave, el CAREM pueda soportar por sí mismo, sin alimentación externa, sin motores diesel y sin presencia humana, hasta 36 horas.
//// Todo es historia El concepto CAREM nació a principios de la década de 1980, cuando la CNEA decidió avanzar por primera vez sobre el diseño propio de un reactor nuclear de potencia. En 1984 se presentó oficialmente el proyecto en una conferencia que se llevó a cabo en Lima, Perú. Posteriormente y hasta 1999 el diseño pasó a manos de INVAP, siempre supervisado por la CNEA. Claro que, a lo largo de la década del 90, en el marco del desmantelamiento del sistema científico tecnológico nacional, sobre la base del ahogo presupuestario y la falta de renovación de los recursos humanos, el proyecto sólo se mantuvo vivo por la porfía de un grupo de ingenieros y científicos que le siguieron aportando miles de horas de labor. A partir del año 2000, el ritmo de trabajo en el proyecto disminuyó y, con la crisis del 2001, fue prácticamente abandonado, salvo por un pequeño grupo de personas que lo mantuvo con vida. El escenario cambió drásticamente a partir del año 2006 cuando se relanza el programa nuclear argentino con la firma del decreto 1107/06 que declaró de interés nacional “la construcción y puesta en marcha del Prototipo de Reactor CAREM”. A partir de ese momento, se fueron dando sucesivos pasos para darle solidez institucional a la iniciativa. Entre ellos, se destaca la creación de la Gerencia CAREM en la CNEA. Así, el equipo de trabajo que en 2008 reunía apenas once especialistas, pasó a tener 150 personas a las que se suman otras 150 de otras áreas.
El prototipo del reactor CAREM tendrá 25 megavatios de potencia, lo suficiente como para iluminar una ciudad de 100 mil habitantes. Estará emplazado en la localidad bonaerense de Lima, junto a las centrales Atucha I y Atucha II, muy cerca de la ribera del Paraná de las Palmas. Actualmente, ya empezaron las obras de preparación del terreno y, en breve, se dará comienzo a la obra civil. De acuerdo con el cronograma establecido, el inicio de las pruebas está previsto para el primer semestre de 2016, mientras que la primera carga de combustible nuclear tendría que efectuarse durante la segunda parte del año 2017. Una vez finalizadas las pruebas con el CAREM25, comenzará la construcción de otro módulo CAREM, más grande, de 150 MWe de potencia, apto para abastecer a una población de 400 mil personas. Ya se firmó un convenio con la provincia de Formosa para avanzar en la instalación del reactor en su territorio. Otro hecho fundamental es que, además de ser un diseño ciento por ciento nacional, el 75 por ciento –aproximadamente- de los componentes del CAREM25 van a ser provistos por empresas locales públicas y privadas y, en total, alrededor del 65 por ciento de sus piezas serán fabricadas en el país. “Lo que se decidió es que todo lo que fuera estratégico se va a diseñar y hacer en el país –detalla Calzetta. Por ejemplo: el sistema de control operativo no tiene ningún sentido que lo desarrolle la Argentina porque, al haber muchos proveedores, no existe dependencia ya que uno puede elegir a la empresa que quiera en el momento que quiera. Pero el sistema de seguridad se hará localmente y el recipiente de presión, que es otro componente esencial, también se va a fabricar en Argentina”.
//// De Argentina hacia el mundo Las mismas características que hacen del CAREM un reactor de última generación, sencillo, ultraseguro y de bajo costo, también le imponen ciertas restricciones respecto de su tamaño. Sus desarrolladores proyectan que hasta los 150 MWe podrá funcionar con la misma configuración que el prototipo de 25 MWe. En tanto que, para los módulos de 300 MWe, habrá que incorporar bombas en el circuito primario para su funcionamiento. Ese es el tope de potencia para el que fue pensado el CAREM. Ahora bien, ese límite en su diseño, ¿constituye una desventaja frente a las megacentrales nucleares capaces generar 1.000 o 1.500 MWe? Si bien es cierto que a partir de la década del 80 y apelando al para-
digma de las economías de escala, se tendió a construir centrales cada vez más grandes, lo concreto es que debido a la mayor complejidad que implica su construcción y a la necesidad de más y mejores sistemas activos de seguridad, en lugar de descender, su costo pasó de 1.500 a 6.000 dólares por kilovatio instalado. Por otro lado, no son muchos los países cuya grilla eléctrica pueda soportar una central de mil o más megavatios eléctricos porque, si ante cualquier inconveniente deja de funcionar, puede provocar el colapso todo el sistema. Además, la energía que producen las grandes centrales no suele consumirse localmente sino que ingresa en los circuitos interconectados nacionales para ser llevada a través de líneas de alta tensión hasta lugares muy lejanos, a un costo de 2,5 millones de dólares por kilómetro. “Es carísimo –subraya Calzetta-. Y además se desperdicia mucha energía. Argentina pierde en transmisión un 13 por ciento de lo que produce; Brasil, el 16 por ciento. Instalar una central cerca del sitio que va a alimentar implica un ahorro enorme”. El CAREM, por sus características, resulta ideal para el abastecimiento eléctrico de zonas aisladas, abastecer polos fabriles o emprendimientos mineros con alto consumo energético, darle potencia a plantas desalinizadoras de agua o proveer de vapor a un proyecto industrial. En la actualidad, existe un número importante de países interesados en sumar reactores nucleares a su grilla eléctrica. Para ellos, empezar con una megacentral constituye una complicación enorme. Por un lado, porque es muy distinto para una nación periférica conseguir financiamiento para un gasto de 500 millones de dólares que de 6 mil u 8 mil millones, que es el costo de una megacentral. Y, por otro, porque resulta muy difícil manejar y controlar una central tan grande sin experiencia previa. En este escenario los módulos de 150 y 300 MWe del CAREM parecen una solución ideal, tanto desde el punto de vista técnico como económico, para estados en vías de desarrollo con aspiraciones nucleoeléctricas. “Incluso el prototipo del CAREM puede ser un producto muy vendible para países que quieren dar el primer paso en la industria nuclear. Si bien es un poco más grande que los reactores experimentales, tiene la ventaja de que cuenta con el ciclo completo. Y, además, genera energía”, ilustra Calzetta. Ahora bien, ¿existen indicios concretos que demuestran el interés de otros países en el proyecto CAREM? Calzetta muestra un grueso estudio elaborado por una consultora internacional acerca de la demanda que este tipo de reactores puede tener en el merca-
do mundial. El informe ubica al CAREM entre los diez proyectos más avanzados en esa línea. El funcionario, también señala que Estados Unidos acaba de invertir 500 millones de dólares en una empresa para que se haga del licenciamiento de un reactor de estas características. Por último, relata las reiteradas consultas que recibe en los distintos encuentros internacionales a los asiste y cuenta una anécdota que vivió durante la última reunión de la Internacional Atomic Energy Agency (IAEA). “Los representantes de Argelia nos decían que querían empezar a instalar reactores nucleares medianos y chicos en su país y que necesitarían una flota de CAREM”. Yo, medio en broma, medio en serio, les contesté: “No se hagan problema. Les reservamos los primeros cincuenta”, recuerda con una sonrisa. Pero en seguida remarca: “lo que es muy importante y eso lo sabemos nosotros, el gobierno y todos los que están en esta industria, es que ser los primeros en llegar al mercado, resulta clave. Hoy llevamos la delantera y no debemos perderla”.
//// Salto al desarrollo
Desde hace casi dos décadas Argentina le ha vendido reactores
experimentales a Perú, Argelia, Es claro que, si bien puede ser de utilidad en algunas regiones de nuestro país, el objetivo Egipto y Australia, ganándole en central del proyecto CAREM no apunta a resolver ningún déficit energético local. Su las licitaciones a la competencia finalidad esencial será ubicar a la Argentina en la élite de la industria nuclear canadiense, francesa, japonesa, mundial y posibilitar la exportación de conocimiento y tecnología nacional. coreana, rusa y estadounidense. Desde hace casi dos décadas Argentina le ha vendido reactores experimentales a Perú, Argelia, Egipto y Australia, ganándole en las licitaciones a la competencia canadiense, francesa, japonesa, coreana, rusa y estadounidense. “Con esas exportaciones hemos obtenido reconocimiento internacional”, señala Calzetta y agrega, “si ahora logramos fabricar y vender nuestra propia central nuclear no me cabe duda de que va significar un salto de visibilidad y prestigio a nivel global”. Si el país logra concretar este proyecto, la consecuencia, en el mediano plazo, será que la industria nacional alcanzará un nuevo estadio en su desarrollo; que se crearán numerosas empresas proveedoras de tecnología; que se requerirán miles de puestos de trabajo calificado, que se necesitarán muchísimos ingenieros, físicos, químicos, computadores, matemáticos; y que, el CAREM, se convertirá en la plataforma que facilitará la exportación de otros productos de altísimo valor agregado.
La era del hidrógeno
Generación H por GABRIEL ROCCA
Entre las estrategias de energías renovables, el uso de hidrógeno como combustible aparece como una alternativa muy prometedora mejor posicionado para convertirse en el combustible del futuro. ¿Cómo se puede aprovechar? ¿Qué tiene que cambiar para que su uso pueda dar un salto significativo?
“P
que después se puede quemar para producir energía eléctrica y el único residuo es agua. Es decir, que el ciclo es perfecto: uno obtiene hidrógeno a partir del agua usando una energía renovable, el resultado final es recuperar una fracción importante de esa energía y como subproducto se obtiene de nuevo agua. Es un ciclo cerrado y perfecto”, se entusiasma Corti.
ero, ¿qué se quemará en vez de carbón? -preguntó Pencroff. -¡Agua! -respondió Ciro Smith-. Agua descompuesta, sin duda, por la electricidad y que llegará a ser entonces una fuerza poderosa y manejable. (…) Sí, amigos míos, creo que el agua se usará un día como combustible, que el hidrógeno y el oxígeno que la constituyen, utilizados aislada y simultáneamente, producirán una fuente de calor y de luz inagotable y de una intensidad mucho mayor que la del carbón.(…) El agua es el carbón del porvenir”.
Otra forma de obtener hidrógeno es a partir de un proceso que se llama “reformado de combustibles fósiles”; por ejemplo, a partir de gas natural, petróleo, naftas y otros. Sin embargo, en este caso el hidrógeno pierde uno de sus aspectos benéficos clave, dado que durante el proceso se generan emisiones de dióxido de carbono. Es decir que la “limpieza” del hidrógeno como combustible depende del método por el cual se lo obtiene. Si surge a partir de fuentes de energías renovables, como la eólica, la solar y otras, no genera contaminación ambiental.
párrafo anterior pertenece a la novela La isla misteriosa, del escritor francés Julio Verne, publicada en 1874. En la actualidad, esta idea del genial visionario ya ha dejado de formar parte del ámbito de la ciencia ficción para convertirse en una de las líneas de investigación y desarrollo más prometedoras para reemplazar los hidrocarburos antes de que se agoten.
“Otra posibilidad es obtenerlo del alcohol etílico, que se produce a partir de biomasa: caña de azúcar o maíz. En este caso, en el proceso químico para obtener hidrógeno se genera dióxido de carbono, pero éste se reabsorbe durante el crecimiento de la planta, en la fotosíntesis. Por lo tanto, no se incrementa la concentración de dióxido de carbono en la atmósfera”, describe Miguel Laborde, doctor en Química, investigador del CONICET y Director del Laboratorio de Procesos Catalíticos de la Facultad de Ingeniería de la UBA.
Entre las distintas posibilidades, el hidrógeno (H, según su sigla en la tabla periódica de los elementos), por sus diversas cualidades, aparece como una alternativa muy prometedora. “Para empezar, el hidrógeno es el elemento más abundante del universo. Pero en la Tierra no existe en forma libre, es decir, es abundante pero en combinación con otros compuestos, como el agua, la biomasa, el gas natural, el petróleo, el carbón”, explica Horacio Corti, profesor de la Facultad de Ciencias Exactas y Naturales de la Universidad de Buenos Aires e investigador del CONICET en la Comisión Nacional de Energía Atómica. En la Tierra, la mayor cantidad de hidrógeno disponible está en el agua, formada por moléculas que contienen un átomo de oxígeno y dos de hidrógeno. Un poco más del 11 por ciento de la masa del agua es hidrógeno, y se puede obtener simplemente electrolizando agua, o sea, descomponiéndola en sus átomos constituyentes por el paso de corriente eléctrica. Para separar el hidrógeno se necesita energía y es ésta la razón por la cual no se lo considera una fuente primaria, sino un vector. “Si, para realizar la electrólisis del agua, se utiliza energía solar o eólica como fuente primaria de energía, el hidrógeno que se obtiene es totalmente limpio, por-
El hidrógeno aparece como la llave que permitiría que las fuentes renovables se conviertan en las principales abastecedoras de energía del planeta. Hasta ahora, estas formas de energía, como la eólica o la solar, son fuentes limpias pero impredecibles, y la electricidad que producen debe ser utilizada en el momento en que es generada. El hidrógeno es la solución ideal para este problema, ya que permite acumular y transportar esta energía donde haga falta, desacoplando el momento de la fabricación del momento del consumo. Podría decirse que el hidrógeno permite almacenar sol o viento en forma de energía química para ser usada mediante su combustión cuándo y dónde se lo necesite. El hidrógeno se puede almacenar básicamente en tres formas. En primer lugar, como un gas, comprimido entre 200 y 800 atmósferas (al igual que el gas natural que se usa en los vehículos). Se lo puede licuar y almacenar como un líquido, para lo cual se necesita enfriarlo a temperaturas muy bajas, del orden de los -250º C. Por último, se lo puede guardar como un sólido, incorporándolo dentro de aleaciones metálicas que lo acumulan de la misma manera que una esponja lo hace con el agua. El hidrógeno es absorbido
por el metal y se produce un hidruro metálico. Luego se lo libera como un gas calentando la aleación.
//// El futuro ya llegó
//// Una pila de vida
Si bien el escenario descripto parece surgido de alguna novela de ciencia ficción, la realidad es que los países desarrollados vienen invirtiendo desde hace años cientos de millones de dólares en el desarrollo de esta nueva tecnología.
El uso generalizado del hidrógeno seguramente dará paso a un nuevo y particular motor que carece de piezas móviles y no hace ruido: las celdas de combustible. Este dispositivo opera básicamente como una batería común: genera electricidad y calor a partir de la combinación del hidrógeno con el oxígeno. “La forma más fácil de entender qué es una celda de combustible es compararla con una batería; por ejemplo, la que usan los autos. En estas baterías ocurren transformaciones químicas y, como consecuencia de ellas, se produce energía eléctrica. Las sustancias que se oxidan y se reducen están dentro de la batería”, detalla Corti y añade, “Una celda de combustible es, básicamente, una batería, pero en ella las sustancias químicas que se oxidan y son reducidas, se introducen desde afuera. Mientras ingrese hidrógeno por un lado, y oxígeno por el otro, puede seguir produciendo electricidad en forma indefinida”. Los expertos coinciden en que las celdas de combustible son muy útiles como fuentes de energía en lugares remotos, como estaciones meteorológicas, localidades rurales y naves espaciales. También en aplicaciones de cogeneración (uso combinado de calor y electricidad) para viviendas, edificios de oficinas y fábricas. Este sistema genera energía eléctrica y, al mismo tiempo, produce aire y agua calientes. Otra clave es su uso en motores de automóviles, camiones, ómnibus, locomotoras e incluso aviones, buques y submarinos. Si bien el hidrógeno puede emplearse también como combustible en motores de combustión interna adaptados, el problema es que, al quemarse con el aire, puede producir óxidos de nitrógeno, que generan la llamada lluvia ácida. En el caso de las celdas de combustible, no hay combustión, sólo hay reacción química y el único desecho que produce es vapor de agua ciento por ciento pura. La celda de combustible es, además, mucho más eficiente. “Un motor de combustión interna tiene, por lo general, un rendimiento de 25 a 30 por ciento, mientras que una celda de combustible alcanza, aproximadamente, un 45 a un 50 por ciento, es decir, casi el doble. Esto significa que, a igual cantidad combustible, se obtiene el doble de energía eléctrica”, puntualiza Corti.
En principio, casi todas las grandes compañías automotrices han presentado distintos prototipos de modelos que utilizan hidrógeno y alcanzan una autonomía de más de 500 kilómetros. Entre ellas: General Motors, Ford, Opel, BMW, Daimler, Honda, Hyundai, Mazda y Nissan. Tres de ella, Daimler, Ford y Nissan, firmaron un acuerdo para el desarrollo conjunto de celdas de combustible en busca de alcanzar el primer modelo de automóvil impulsado por hidrógeno, competitivo en el mercado, para el 2017. Numerosas ciudades de Europa, Estados Unidos, Canadá y también de Brasil se encuentran realizando experiencias con diferentes modelos de ómnibus impulsados con hidrógeno. En el aeropuerto de Munich, Alemania, los micros que transportan a las personas desde las terminales hasta los aviones utilizan hidrógeno. En 2003, Islandia inauguró la primera estación de combustible de hidrógeno del mundo. Está siendo utilizada para abastecer tres autobuses en un plan por el cual ese país se propone ser el primero en abastecerse totalmente de fuentes de energía renovables para el año 2030. Desde ya que el desarrollo de una economía basada en el hidrógeno debe superar todavía numerosos inconvenientes. “Los vehículos a hidrógeno son mucho más caros que los convencionales, aunque se trata básicamente de un problema de escala de producción. También se debe mejorar mucho la durabilidad de las celdas de combustible, que hoy se calcula en unas 3 mil a 5 mil horas, lo que representa aproximadamente dos años de uso de un automóvil”, afirma Corti, y subraya: “Pero yo creo que esos tiempos de vida útil se van a ir extendiendo rápidamente”. Esa sería una de las claves para poder optimizar un tipo de energía que tiene muchas posibilidades de extenderse a nivel planetario.
T
S
Todo sobre los hidrocarburos no convencionales
Sacarle jugo a las piedras por GABRIEL ROCCA
A partir de diciembre de 2010 un nombre extraño, Vaca Muerta, empezó a tener cada vez mayor protagonismo en los medios de comunicación. La razón: este yacimiento de gas y petróleo no convencional ubicado en la provincia de Neuquén promete ser el inicio de una nueva era energética en Argentina. ¿Qué es el shale? ¿Reprentan una oportunidad tan significativa para nuestro país? ¿Tiene consecuencias ambientales su explotación? En esta entrevista, el especialista Luis Stinco responde las dudas más frecuentes sobre los yacimientos no convencionales.
V
aca Muerta es una formación geológica que cubre aproximadamente 30 mil km2 y constituye la roca madre más importante de la cuenca neuquina. Desde hace años funciona en esa área uno de los yacimientos de hidrocarburos más importantes del país. Pero ese nombre se hizo famoso a partir de diciembre de 2010, cuando sucesivos anuncios revelaron que allí se habían hallado reservorios monumentales de gas y petróleo no convencional.. A partir de ese momento se fueron conociendo una serie de informes con números que abruman. De acuerdo con un documento del Departamento de Energía de Estados Unidos, Argentina se ubica en el tercer lugar mundial por sus recursos de shale gas que alcanzan los 774 TCF (billones de pies cúbicos). Para tomar dimensión de esta cifra basta señalar que las reservas totales de gas natural en el país llegan hoy a 13,4 TCF. Por otro lado, en febrero de 2012 YPF estimó que los recursos recuperables de Vaca Muerta ascenderían a 22.500 millones de barriles de hidrocarburos. La posibilidad de recuperar el autoabastecimiento energética parece muy cercana pero nada es tan fácil. Se sabe que el potencial es enorme pero la explotación de yacimientos no convencionales requiere de tecnología de punta, inversiones millonarias y plazos prolongados. Para un acercamiento al panorama que se le abre a nuestro país en materia energética, la palabra del especialista Luis Stinco, geólogo de Exactas-UBA, profesor del ITBA (Instituto Tecnológico de Buenos Aires), del Instituto del Gas y del Petróleo y consultor de empresas en el área de petróleo y energía: – ¿Qué son los yacimientos no convencionales? – Empecemos por los reservorios convencionales. Son aquellos que pueden ser explorados y puestos en producción mediante técnicas que son las que tradicionalmente se utilizan en la industria y que tienen más de cien años. Los típicos pozos, las cigüeñas, etc. Por otro lado, los no convencionales, son así calificados porque requieren de una alta tecnología para extraer el hidrocarburo. Se llaman no convencionales porque su explotación en vez de costarte diez te cuesta cien dado que no se puede aplicar la tecnología convencional. Esta clasificación no toma en cuenta características intrínsecas de las rocas
sino los costos asociados. Por eso uno podría decir que es una bolsa de gatos porque la clasificación no es de tipo genética o por alguna característica distintiva producida por la naturaleza. –¿De qué tipo son los recursos no convencionales en los que Argentina tiene mayor potencionalidad? – El primero de ellos es el que se conoce como shale gas o shale oil. Se trata, básicamente, de petróleo, de gas, o que está entrampado dentro de una roca sedimentaria de grano fino, muy pequeño, que nosotros conocemos con el nombre de pelitas. La característica que suelen tener es que hay una interacción muy importante entre los fluidos y la roca por el tamaño del grano. Las técnicas de explotación son diferentes de los tradicionales porque para movilizar ese hidrocarburo es necesario romper la roca -fracturar es el término que utilizamos-, de manera tal de proveer una vía de escape para el fluido. La fractura es una operación sencilla, hace más de 50 años que se practica en la industria. El tema es que necesitás mucha agua porque la fractura de la roca se efectúa, precisamente, con agua a la que se le agrega una cierta cantidad de materiales químicos y lo que se conoce como un agente de sostén que es una especie de arena especial. No todo el material que yo envío hacia la profundidad, y que efectivamente rompe la roca, queda en ella, sino que hay material que se devuelve a superficie; entonces, en lo que hay que tener cuidado, es en cómo tratás esa agua, porque es agua que tiene componentes químicos más el material que proviene de la roca. No es complicado pero hay que hacerlo. –El uso intensivo de agua en este tipo de explotaciones ya ha despertado voces de alerta de parte de grupos ambientalistas. – Es muy importante que la sociedad sepa que estas cosas no son nuevas. Hay una gran cantidad de reservorios convencionales que utilizan enormes volúmenes de agua en lo que se conoce como recuperación secundaria. En ellos se inyecta agua para movilizar el hidrocarburo. Eso no ha generado fenómenos de aridez ni ninguna cosa rara. Se ha aprendido muchísimo sobre cómo manejar el agua para no contaminar. Los diseños de los pozos contemplan esos fenómenos. La legislación argentina establece un sistema de regulación y las empresas están obligadas a cumplirlo. Y las empresas lo cumplen porque, además, si se termina generando un inconveniente ambiental eso implica un perjuicio económico gigantesco que va a provocar que no puedan seguir trabajando. Lo que es imposible descartar es que pueda haber un accidente, pero se trata de minimizar los riesgos. Una cosa interesante es que los no convencionales tienen más de 40 años de historia, entonces tampoco es algo nuevo. Estamos hablando de algo en donde las metodologías, las tecnologías aplicadas, ya han sido probadas con éxito.
–Quedaron pendientes otros tipos de reservorios no convencionales para detallar. – Sí, habíamos hablado de los shale. Nuestro país cuenta con este tipo recursos. El otro de los no convencionales en los que Argentina puede tener un papel preponderante es lo que se conoce como reservorio Tight o reservorio de baja permeabilidad. Se trata de un reservorio en el cual al fluido le cuesta movilizarse porque la permeabilidad es la capacidad que tienen los fluidos de moverse en un medio poroso. En Argentina diría que hace 20 ó 30 años que se están desarrollando lentamente este tipo de reservorios. El tercer tipo, dentro de los no convencionales, es el que se conoce como coalbed methane, o mantos o lechos de carbón. Fundamentalmente es metano que queda absorbido en carbón. Hay otros, por supuesto, pero esos son los tres casos en los que Argentina tiene potencialidad. VM, dentro de los no convencionales, es un reservorio de shale gas y shale oil. A su vez, dentro de los reservorios convencionales, VM cumple el rol de ser lo que se conoce como roca generadora o roca madre. Es aquella roca que tiene alto contenido de materia orgánica y que luego de una serie de procesos se transformaría en hidrocarburos. VM es una de las rocas generadoras de lo que se conoce como Cuenca Neuquina, que geográficamente involucra a las provincias de Neuquén, Mendoza, La Pampa, Río Negro. Ahora bien, ¿qué característica distintiva tiene? Si uno lo compara con reservorios no convencionales de otros lugares del mundo, está dentro de las mejores desde el punto de vista de sus propiedades como roca, porque tiene una muy buena extensión areal, tiene un excelente espesor, un importante contenido de esa materia orgánica que debería trasformarse en hidrocarburo; además no se encuentra a mucha profundidad, entonces los costos no son tan altos y está ubicado en un área donde a las empresas les resulta de fácil acceso, porque tenés rutas y caminos. Por otro lado, es un área en la cual ya se estaban explotando reservorios convencionales. La gran diferencia es que ahora se mira a VM como un objetivo no convencional. Dentro de la cuenca neuquina tenés otras rocas generadoras que también empiezan a ser miradas con los mismos objetivos. Una que se conoce genéricamente como Precuyano; otra como Los Molles; está la más joven que se conoce como Formación Agrio. Todos ellos son objetivos no convencionales. Lo que pasa es que VM es la más parecida a lo que ya se explota en Estados Unidos y Canadá, entonces las empresas fueron en su busca. La otra característica que tiene la cuenca neuquina es que, al tener muchas empresas trabajando sobre rocas parecidas, eso fomenta la competencia y facilita el desarrollo de tecnologías y de conocimiento.
–¿Entonces hay elementos reales como para ilusionarse con las posibilidades que ofrece VM? – Sí, pero hay que ser cuidadoso. Por un lado hay que informarle a la sociedad que no solamente está VM. Por otro, sería imprudente sobrevenderlo porque como objetivo no convencional tiene apenas un año y medio o dos años. Recién se está en la curva de aprendizaje. Es importante darle tiempo. Porque lo peor que te puede pasar es que por un error de apreciación se terminen generando unas expectativas que después no se cumplen y entonces después lo dejamos de lado. –Circuló en los medios de comunicación que una agencia de Estados Unidos ubicó a la Argentina en el tercer lugar en el mundo en cuanto a la presencia de recursos no convencionales en nuestro territorio. ¿Esto es así? – En abril del 2011 el Departamento de Energía de Estados Unidos hizo circular un informe en donde se analizaban los recursos no convencionales de cerca de 40 países pero fundamentalmente haciendo hincapié en el shale gas. De ese análisis surge que, como recursos, el primer país es China; el segundo, Estados Unidos, y el tercero, Argentina. El informe es real y cuando ves los volúmenes asociados, si fueras una empresa, no querrías quedarte afuera de Argentina. Hay un enorme volumen de gas como recurso, falta todavía un trabajo muy importante para transformarlo en reserva. –¿Qué diferencia hay entre recurso y reserva? – Recurso es la existencia del hidrocarburo. Reserva significa que la explotación de ese recurso es viable geológica y económicamente. Además, la reserva tiene dentro del concierto de las naciones un significado económico, con lo cual, está muy legislado qué se define como reserva. Cuando certificás la reserva podés ir a un banco y con ese papel obtener una determinada cantidad de dinero para comenzar a explotarlo. Argentina, en cuanto a no convencionales, lo que tiene por ahora son recursos. ¿Por qué hago la salvedad? Porque, si no se transforman en reserva, ninguna empresa se va a preocupar por extraerlo. –¿La posibilidad de alcanzar el autoabastecimiento energético argentino, a mediano plazo, descansa en la extracción de los recursos no convencionales? – Es uno de los caminos pero creo que también hay que llevar a cabo otro tipo de actividades. Por un lado hay que desarrollar los no convencionales, definitivamente. Hoy en día un porcentaje muy importante del consumo interno de Canadá y Estados Unidos se cubre con los no convencionales. Nosotros podríamos hacer lo mismo. Por otro lado, en el marco de los convencionales, Argentina tiene muchos yacimientos denominados “maduros” porque son yacimientos en los cuales la explotación no sólo se realiza por producción primaria, que es perforar los pozos y extraer hidrocar-
buros, sino también por recuperación secundaria, que implica inyectar agua para desplazar el hidrocarburo. Pero hay otros procesos, dentro de lo que se conoce como recuperación terciaria, que incluye distintas alternativas como inyectar dióxido de carbono, bacterias, polímeros; calentar, para movilizar todo el hidrocarburo que está quedando ahí adentro. Mirá, de todo lo que vos tenés en un yacimiento, la producción primaria extrae entre un 20% y un 25%. Con la secundaria, tu factor de recuperación pasa a un 35%, y con la terciaria, se pasa a un 60% o 70%. Entonces, tenemos los no convencionales, los convencionales mejorando sus factores de recuperación y siempre está la tercera pata que es la exploración. –¿La primera explotación no convencional de tipo comercial será en VM? – Yo te diría que sí porque es donde se han focalizado los mayores intereses de parte de distintas empresas. Hay empresas que ya han puesto en marcha la producción el año pasado. Eso ya está. Lo que pasa es que todavía no se sabe bien si los volúmenes de producción van a justificar el monto de dinero a invertir para llevarlo a cabo.
y para crecer necesita energía. Tenemos un mercado interno, tenemos profesionales, geocientistas, ingenieros, más todo el personal de apoyo en los aspectos legales, medioambientales y tecnológicos asociados. Hacen falta más, pero son recursos que, planificados, pueden crecer en el corto o mediano plazo. Por eso sería muy interesante aprovechar esta situación. Y así como nuestro país se ha destacado en algunas ramas y en algunos desarrollos tecnológicos, éste es otro ámbito en el que podemos hacerlo sin ningún problema. Se puede desarrollar conocimiento, el know how, los técnicos y después, incluso, exportarlo a otros países. Es muy interesante. Está en nosotros como país aprovechar esta oportunidad.
Una cosa interesante es que los yacimientos no convencionales tienen más de 40 años de historia,
entonces tampoco es algo nuevo. –Qué países han desarrollado la mejor tecnología para este tipo de emprendimientos? Estamos hablando de algo en – Los que tiene las mejores tecnologías son Estados Unidos, Canadá y Europa. Y, en gedonde las metodologías, las neral, las empresas que están en nuestro país con ese conocimiento son tamtecnologías aplicadas, ya han sido bién de esos países. Tanto operadoras como de servicios. Yo creo que habría que apuntar hacia ellos probadas con éxito. para aprovechar su experiencia, reducir la curva de aprendizaje y evitar cometer algún tipo de daño por desconocimiento. –Hoy en día, ¿cierra la ecuación económica de este tipo de yacimientos? –Eso depende mucho de cada empresa pero para algunas la ecuación ya está dando. En un reservorio convencional vos perforás el pozo hoy y en un mes ese petróleo está saliendo para la refinería. En un reservorio no convencional te va a llevar un período más importante, tal vez seis meses o un año para empezar a movilizar el recurso y, además, la inversión es mucho mayor. Eso también trae aparejado que los plazos para que todos estos volúmenes sean vistos por la sociedad sean más prolongados. No serán cincuenta años pero tampoco son dos meses. –¿Creés que nuestro país aprovechará esta oportunidad? –Las perspectivas son muy buenas. Simplemente hay que ser lo suficientemente inteligente y cuidadoso en las medidas que se toman. Argentina necesita crecer
E
Baterías
El futuro del litio por ARMANDO DORIA
El avance de la tecnología digital tiene un límite en la capacidad de autonomía de las baterías. El compuesto litio oxígeno es la gran esperanza pero todavía está en una etapa incipiente de desarrollo, con final abierto. Ernesto Calvo, especialista en la materia, cuenta los pormenores de la problemática y destaca el valor estratégico del litio.
N
uestros celulares, nuestras notebooks y los miles de gadgets tecnológicos que no paran de inundar el mercado funcionan con baterías construidas a partir de sales de litio llamadas técnicamente baterías de ión litio. Este metal livianísimo se convirtió en pocos años en la estrella del almacenamiento de energía en todo el planeta y su despertar a nivel industrial tuvo un correlato necesario en la investigación científica. Las baterías de ion litio se consideran una tecnología madura sin ya demasiados secretos para los especialistas. En cambio, el ojo de científicos y tecnólogos (y, por supuesto, de empresas top de informática, comunicación y automotrices) está en la evolución de otras baterías, las de litio oxígeno. Si las de ion litio están “maduras”, se puede decir que las de litio oxígeno están “verdes”. Pero su existencia basta para entusiasmar a tecnólogos y a industriales y no son pocos los que arriesgan que en menos 20 años estarán listas para darle a un automóvil de calle una autonomía de 800 kilómetros. El químico Ernesto Calvo es profesor de la Facultad de Ciencias Exactas y Naturales de la UBA y director del INQUIMAE, el instituto del CONICET con eje en materiales, medioambiente y energía. En su rol referente ineludible en la temática, Calvo destaca que “existe una gran expectativa con el litio porque es un recurso natural estratégico de Argentina. Tenemos las mayores reservas de litio del mundo, eso es muy importante pero también debemos desarrollar la química necesaria para extraer el litio en forma limpia; tenemos que abordar los problemas científicos que plantean las baterías de litio oxígeno y, además, tenemos que lograr que en Argentina se puedan fabricar sales de litio de muchísimo valor agregado. Todo esto es posible”. –¿Cuál es el sector que más está empujando el interés en la investigación acerca de las baterías? – Creo que ninguna industria que genere productos con baterías puede darse el lujo de no promover la investigación e involucrarse. Yo estuve en enero en la Conferencia Gordon, en California, y el 30 por ciento de las investigaciones que se presentaron sobre electroquímica tenían que ver con temas relativos a la batería de litio. Después asistí a la reunión de la Sociedad Internacional de Electroquímica, en Praga, y también había gran cantidad de trabajos sobre litio, trabajos básicos. Hay muchísimos aspectos científicos en los
cuales uno puede hacer innovación y eso es muy estimulante. Se calcula que para dentro de ocho años el 20 por ciento de los autos van a ser eléctricos. En una primera etapa van a ser híbridos, simplemente porque no existe la infraestructura que les dé el soporte necesario. –Entonces, a la futura tecnología es necesario que se la acompañe de muchos cambios. –Claro, hoy vas a una estación de servicio y no tienen un cable para enchufar la batería y recargarla, tienen una manguera. Estas baterías de litio oxígeno no van a estar en el mercado seguramente antes de 10 o 15 años. No son para la primera generación de autos híbridos pero son ciertamente las únicas que pueden competir, en cantidad de energía por kilogramo, con la nafta o el gasoil. Por otro lado, también ya hay un cambio de actitud en los sectores de la industria. Por ejemplo, algunas compañías petroleras se están presentando como compañías de energía: hoy venden sólo petróleo pero se nota que planean proyectarse como empresas de energía que puedan mantenerse en el negocio cuando cambie el vector. –¿Qué estrategia sería necesaria para instalar la problemática del litio en la investigación en nuestro país? – Lo que nosotros queremos es mover el avispero, mostrarles a los chicos que estudian física, química, ingeniería que, como esta tecnología del litio oxígeno no está todavía desarrollada, tenemos la posibilidad de participar activamente en su desarrollo. Y queremos, sobre todo, llegar con ese mensaje a estudiantes del interior del país. Si los pibes que van a empezar un doctorado visualizan que ellos pueden formarse y, además, hacerlo participando en el desarrollo de una tecnología increíblemente útil para el país… –¿Considera que hay posibildades de desarrollar investigación original al respecto? – En general, la ciencia en Argentina está basada en líneas que uno trae de afuera, de los doctorados. Nosotros tenemos un sistema científico con tres premios Nobel, tenemos un CONICET, universidades en donde se hace investigación, con ciertas deficiencias si se lo compara con el mundo súper desarrollado, pero tenemos un sistema que funciona. En ese sistema se hace la ciencia que se puede, en general hacemos un doctorado acá o en el exterior, después nos vamos a hacer un posdoctorado afuera y volvemos con una línea de-
terminada. Entonces en el CONICET y en los concursos en la universidad hay que hacer valer lo que uno sabe, por lo tanto hay una tendencia a ser conservador y seguir haciendo lo mismo. Esto no solamente pasa acá, pero para nuestro sistema es más dramático. La mayoría apuesta a lo que sabe y maneja, y cuesta correrse de ahí. Pero imagino posible un plan nacional, financiamiento para investigación y desarrollo. –El tema concreto de las baterías recargables parecería atractivo por las posibilidades de aportar conocimientos aplicables. – Sí, creo que acá el litio genera una ruptura porque trae enormes posibilidades de hacer buena ciencia, pero ciencia que repercuta sobre la sociedad. Por ejemplo, todo el tema de recuperación de litio sin alterar el agua. Actualmente, se evapora la salmuera y por cada tonelada de litio se pierden entre uno y 10 millones de litros de agua. Seguramente, eso va a afectar el acuífero a futuro, y también a las comunidades locales. Después, está todo el tema de darle valor agregado a las sales de litio, fabricar las sales que se usan en la industria electrónica. Si un kilo de carbonato de litio sale seis dólares, un kilo de litio metálico vale más de 100 dólares y un kilo de fluoborato de litio por ahí sale mil dólares. Esto lo podemos hacer con los ingenieros y científicos argentinos pero requiere entender muy bien la química del litio, ahí tenemos un buen desafío.
Investigación aplicada
Fábrica de plasmas por PATRICIA OLIVELLA
El estado de plasma no es natural en nuestro planeta y para obtenerlo debe ser producido artificialmente. La forma más usual de producirlo es a partir de la aplicación de un campo eléctrico lo suficientemente intenso en un medio gaseoso. Las aplicaciones tecnológicas basadas en plasmas son múltiples.
llama plasma. Tiene propiedades similares a las de un gas ordinario pero, además, puede conducir corriente eléctrica y reaccionar ante campos electromagnéticos externos. “Existe una enorme variedad de descargas, dependiendo de la geometría de los electrodos, la presión del gas, y las características temporales del campo eléctrico aplicado”, dice el investigador.
Aunque el 99 por ciento de la materia observable se encuentra en estado de plasma, es muy difícil encontrar materia en ese estado en la Tierra, un planeta relativamente frío. Debe ser por eso que, cuando en la escuela nos enseñan los estados de la materia, los maestros se limitan a describirnos el estado sólido, líquido y gaseoso. Sin embargo, el plasma es algo así como el cuarto estado de la materia y en la naturaleza se produce a temperaturas lo suficientemente altas como para que el medio, usualmente gaseoso, se encuentre al menos parcialmente ionizado.. La materia intergaláctica, el Sol y otras estrellas, la magnetosfera, los cinturones de radiación de Van Allen y el viento solar están compuestos de plasma. En la Tierra, prácticamente sólo lo encontramos en los rayos de una tormenta eléctrica o en las auroras boreales. A menos que sea producido artificialmente. De eso, justamente, se trata el trabajo de Héctor Kelly y su grupo de investigación en Tecnologías de Plasma: investigar y desarrollar este tipo de tecnologías. “El estado de plasma no es natural en la Tierra y debe ser producido artificialmente. La manera más usual de producir un plasma es a partir de la aplicación de un campo eléctrico lo suficientemente intenso en un medio gaseoso”, explica Kelly. En aire a presión atmosférica, por ejemplo, se requiere un campo de aproximadamente 3 kV/mm (kilovoltios por milímetro).“Este campo acelera algunos pocos electrones libres en el gas (creados principalmente por rayos cósmicos) hasta energías lo suficientemente altas como para que la probabilidad de que el electrón produzca una colisión ionizante con una partícula neutra sea elevada, creando así un nuevo electrón disponible para ser acelerado por el campo. Se produce así un proceso de multiplicación geométrica de los electrones libres, que da origen a lo que llamamos una descarga eléctrica”, detalla el físico. Ese gas ionizado creado por la descarga es prácticamente neutro y se
Las aplicaciones tecnológicas basadas en plasmas son diversas. Pueden ser utilizados en nanotecnología, biomedicina, tratamiento de superficies, etcétera. La tarea de investigación del grupo de Kelly comprende el desarrollo, estudio y optimización de diversas descargas eléctricas de interés tecnológico, lo que involucra tanto trabajo experimental como teórico. Además del estudio de la física básica involucrada, los investigadores del grupo tienen como objetivo importante optimizar procesos para su aplicación tecnológica. Si bien sus principales temas de investigación corresponden al área de la física del plasma y descargas eléctricas, también investigan en otras áreas, fundamentalmente en ciencia de los materiales. Entre las varias líneas de investigación que lleva adelante el equipo se encuentra la producción y estudio de recubrimientos amorfos y nano-estructurados mediante evaporadores catódicos de baja presión. Esta línea incluye el desarrollo de recubrimientos para mejorar las propiedades mecánicas de diversos metales, y el crecimiento de films de dióxido de titanio (TiO2) para su aplicación como superficie auto-limpiante, en la remediación de aguas y como recubrimiento biocompatible. También producen desarrollos de descargas luminiscentes mediante radiofrecuencia, las que pueden ser utilizadas para recubrimientos e implantación iónica, polimerización y síntesis de nano-estructuras carbonáceas. El desarrollo de descargas de baja potencia y alta tensión a presión atmosférica, a su vez, permite aplicaciones biológicas y la destrucción de gases tóxicos. Otra de las líneas consiste en el desarrollo de plasmas térmicos de alta potencia a presión atmosférica (antorchas de plasma) para su empleo en el corte de metales. También desarrollan propulsores de plasma para pequeños satélites y, finalmente, realizan diagnósticos y modelos teóricos para todos los experimentos mencionados. “Todos los experimentos desarrollados tienen aplicaciones mediatas. En varios casos el desarrollo de una aplicación inmediata es relativamente sencillo, pero requiere la participación de algún socio industrial interesado en el desarrollo. Por ejemplo, este año comenzamos la investigación en propulsores de plasma para pequeños satélites, con vistas a su transferencia a la industria nacional, a través de una empresa que ha mostrado interés en estos dispositivos”, dice Kelly quien resalta, a la vez, el carácter fuertemente interdisciplinario de su investigación.
M se
Inmobots
Máquinas que autorregulan por PATRICIA OLIVELLA
Los inmobots son máquinas diseñadas para trabajar en forma más eficiente que el hombre, capaces de tomar decisiones sobre su propio funcionamiento. Especialistas en el tema trabajan para dotar a las inmensas máquinas de YPF, encargadas de extraer y procesar petróleo, de la capacidad de autodiagnosticarse.
D
esde el famoso C3PO hasta Wall-E, cuando pensamos en robots, seguramente la primera imagen que viene a nuestra mente es la de un humanoide simpático, capaz de relevarnos de tareas tediosas, peligrosas o indeseadas. Pero, aunque todavía estamos lejos de poder contar con un asistente personal al estilo Star Wars, montones de robots conviven cotidianamente con nosotros y colaboran con nuestras tareas, aunque se nos pasen desapercibidos. Los científicos los llaman inmobots. Son máquinas cuyo aspecto no tiene nada fuera de lo común. Sin embargo, trabajan en forma más eficiente y segura gracias a que pueden tomar decisiones sobre su propio funcionamiento.. “Un proyector que decide apagar su lámpara porque se está recalentando, una fotocopiadora que decide en forma automática la velocidad a la que debe alimentar las hojas para sincronizar varios procesos consecutivos, o un auto que le indica al mecánico qué autoparte está fallando, son sólo algunos ejemplos de inmobots”, ejemplifican Gabriel Horowitz y Miryan Cassanello, especialistas en el tema. Cassanello dirige el grupo de investigación en Reactores y Procesos del PINMATE (Programa de Investigación y Desarrollo de Fuentes Alternativas de Materias Primas y Energía), que funciona en el Departamento de Industrias de la Facultad de Ciencias Exactas y Naturales de la Universidad de Buenos Aires. Para llevar adelante la investigación en este tema en particular, el grupo de la Cassanello trabaja en estrecha colaboración con YPF Tecnología (YTEC), donde se desempeña el Horowitz.
“Los inmobots utilizan sensores para autodiagnosticarse y complejos modelos matemáticos para tomar decisiones en forma autónoma”, explica la investigadora. “Hay otra clase de inmobots que tienen un alto impacto en nuestras vidas, aunque son demasiado grandes para entrar en nuestro hogar u oficina. Se trata de redes eléctricas, plantas de tratamiento de agua o refinerías, capaces de autodiagnosticarse y tomar decisiones para evitar accidentes. Este es el tema en el que trabajamos desde 2006, en colaboración con YTEC”, agrega. Los científicos del equipo trabajan para dotar a las inmensas máquinas de YPF encargadas de extraer y procesar petróleo, de la capacidad de autodiagnosticarse. “En algunas plantas de la compañía, los sistemas de control ya relevan automáticamente cientos de mediciones de caudal, presión y temperatura y, en caso de considerarlo necesario, se comunican con los operadores para alertarlos sobre potenciales problemas”, cuenta Horowitz. “Para conseguir diagnosticar problemas en estas inmensas máquinas se requiere de un modelo del comportamiento del sistema. Este modelo permite al inmobot diagnosticar situaciones que no fueron previstas durante su construcción, ya que la complejidad de estas máquinas haría imposible prever todos los posibles escenarios de falla”, completa. Pero además, es necesario convertir las mediciones obtenidas en la planta en síntomas que el modelo pueda utilizar. Para eso, los investigadores deben desarrollar herramientas estadísticas especialmente diseñadas para esta aplicación. El desarrollo de estas herramientas es el tema en el que YPF y la UBA colaboran desde hace varios años. Sus resultados han sido presentados en congresos y revistas científicas y se ensayaron con éxito en plantas petroquímicas de la empresa.
“Básicamente, hacemos programas que realizan análisis multivariado de señales medidas en las plantas de producción con los instrumentos que hay instalados, y que determinan continuamente temperaturas, presiones, caudales, etcétera”, explica Cassanello. “Para desarrollar los algoritmos de detección e identificación de fallas, empezamos por adaptar alguna de las técnicas de análisis ya desarrolladas, que encontramos en la literatura científica, a las condiciones particulares del proceso que queremos monitorear. Nos fijamos cuántas variables se miden en el proceso (que, dependiendo del grado de instrumentación, pueden ser de 10 a 400), cuán rápido cambian, cómo se correlacionan unas con otras, etcétera”, relata la especialista, mientras aclara que esta primera idea va siendo modificada a medida que evalúan su funcionamiento frente a diferentes fallas. “Lo mejor para evaluar un sistema de detección es usar fallas ocurridas en un proceso real. Sin embargo, los eventos anómalos que más nos interesan son justamente los más graves, los que implican riesgo para las personas. Dado que estos eventos son muy raros, debemos simularlos utilizando modelos matemáticos del comportamiento del proceso especialmente desarrollados para tal fin”, dice Horowitz. En estas simulaciones, los investigadores pueden incluir fallas catastróficas y ver si el método desarrollado puede detectar la falla a tiempo para evitar un accidente.
Energía eólica
Pronósticos eléctricos por GABRIEL STEKOLSCHIK
Como la energía eólica no puede almacenarse, para poder aprovecharla para la generación de electricidad es imprescindible saber con antelación y exactitud la dirección e intensidad de los vientos. Un equipo de investigadores logró desarrollar un modelo climático que permite hacer ese pronóstico y ya fue probado con éxito en un parque eólico de Chubut.
Alrededor del 90 por ciento de la energía que se consume en la Argentina proviene de fuentes no renovables, fundamentalmente petróleo y gas natural. Con el fin de iniciar una reconversión de la matriz energética nacional, en diciembre de 2006 el Congreso Nacional sancionó la ley 26190, que establece como objetivo que, en un plazo de diez años, el 8 por ciento del consumo de electricidad debe satisfacerse a partir de fuentes de energía renovables (solar, eólica, hidráulica, mareomotriz y geotérmica, entre otras posibles). Desde que en 1990 se instalara en la provincia de Chubut el primer parque eólico de Sudamérica, el emplazamiento de aerogeneradores –esos grandes molinos que convierten la energía del viento en electricidad– se extendió paulatinamente a varios lugares de la Patagonia, la costa bonaerense, La Pampa y La Rioja. Pero el objetivo de incorporar la energía de origen eólico al Sistema Interconectado Nacional tropieza con el problema de que ésta no puede controlarse abriendo o cerrando una compuerta: “Esto es viento: hay o no hay. Y cuando hay viento se debe estar preparado para volcar inmediatamente esa energía a la red, y cuando no hay viento se debe estar listo para suplantar esa energía. Son decisiones de minuto a minuto”, ilustra la doctora Celeste Saulo, investigadora del Conicet y Profesora del Departamento de Ciencias de la Atmósfera y los Océanos de la Facultad de Ciencias Exactas y Naturales de la UBA. “Para ello se requiere de un pronóstico del viento de altísima calidad y dedicado específicamente a esa aplicación”, completa. Para predecir con exactitud cuándo llegará el ansiado vendaval, cuánto tiempo durará, y qué dirección e intensidad tendrá, los investigadores utilizan modelos matemáticos que reflejan el comportamiento de la atmósfera en un lugar determinado. Pero a
esos modelos hay que alimentarlos con datos históricos precisos de las características del viento en esa zona: “El problema es que el Servicio Meteorológico Nacional tiene todavía pocas estaciones de medición y los datos que brinda de viento en superficie son tomados a 10 metros de altitud, muy por debajo de la altura de los aerogeneradores”, señala Saulo. No obstante, un convenio con una empresa argentina que fabrica e instala estos “molinos” le permitió al grupo de investigación disponer de la preciada información.“Nos dieron datos de todo un año, tomados con sensores de altísima calidad, de los vientos que circulan a 35 y a 75 metros de altura en la localidad de El Tordillo, cerca de Comodoro Rivadavia, donde funciona un parque eólico”, informa Saulo, y anuncia: “Nosotros adecuamos nuestro modelo de pronóstico en muy alta resolución a esa región del país y logramos predicciones de muy alta calidad que pueden dar cuenta de la intensidad y de la dirección del viento con una antelación de hasta 24 horas”. Tras aclarar que, para servir a la gestión de la energía eólica, el pronóstico debe ir acompañado de una medida del grado de incertidumbre de la predicción –“todo proceso de toma de decisiones, particularmente si involucra a la naturaleza, conlleva un grado de incertidumbre”–, Saulo explica que cada región tiene sus particularidades y que, por lo tanto, se necesita todo un proceso de desarrollo, ajuste y verificación del modelo para cada sitio. “Esto requiere de mucha investigación para analizar qué es lo que hay que modificar del modelo para representar mejor la realidad. Es una tarea que nos entusiasma, porque la Argentina tiene un potencial eólico muy importante”.
Desarrollo novedoso
Un sostén para YPF por GABRIEL STEKOLSCHIK
En el marco de un convenio con la petrolera, un equipo de investigación creó un polímero que podrá utilizarse como agente de sostén en la extracción de hidrocarburos no convencionales. El original producto permitirá sustituir importaciones y reducir el gasto de energía durante el proceso de fractura hidráulica.
“Cuanto más adentro se mete el propante, más abierta queda la fractura y, por lo tanto, menos energía se pierde”, explica Bianchi. “Dado que se gasta mucha energía para abrir la fractura, todo lo que ésta vuelva a cerrarse es energía perdida”, aclara, y completa: “Se necesitan propantes que tengan densidades semejantes a la del agua, y eso es lo que estamos desarrollando con el grupo de investigación de Exactas”. Actualmente, YPF utiliza arenas seleccionadas que, mayormente, son importadas de China. “No hay muchos en el mundo que fabriquen este tipo de cosas, por lo cual no sólo podremos sustituir importaciones sino que, además, podremos exportar este producto”, afirma Gustavo Bianchi*, director general de Y-TEC, una empresa de tecnología creada por YPF y el CONICET. El producto en cuestión es un polímero cuyas singulares propiedades lo hacen apto para actuar como agente de sostén durante el proceso de fractura hidráulica o fracking, un procedimiento que es necesario realizar cuando se quiere extraer hidrocarburos de yacimientos no convencionales. La estimulación hidráulica es una técnica que consiste en inyectar en el pozo petrolero miles de litros de agua a muy alta presión con el fin de romper la roca madre que se encuentra a varios miles de metros de profundidad y en cuyos poros están retenidos el gas y el petróleo. Así, a medida que el líquido a alta presión ingresa en el yacimiento, penetra en los poros de la roca madre y le provoca fracturas. De esa manera, los hidrocarburos allí retenidos comienzan a fluir y pueden ser extraídos. Pero, si la roca no es “apuntalada” al mismo tiempo que se la agrieta, al momento de detener la bomba que produce la presión hidráulica la fractura volverá a cerrarse por el propio peso de la roca. Es por esto que, junto con el agua, se necesita enviar al fondo del pozo un agente de sostén que penetre en la fractura y la mantenga abierta. Entre los materiales que se utilizan para apuntalar las fracturas –llamados “propantes”– se encuentran las arenas y los cerámicos. El problema de estos agentes de sostén es que son más pesados que el agua y, por eso, ésta no llega a transportarlos por arrastre hasta el fondo de la fractura.
//// Fórmula secreta
La densidad no es el único factor que hay que considerar para que una sustancia pueda funcionar como agente de sostén. También, debe tener una dureza suficiente como para soportar las altas presiones con las que se trabaja en el fondo de los pozos petroleros. Además, debe ser resistente a los ácidos y a los álcalis e insoluble en la mayoría de los solventes. “Fabricamos un polímero sintético cuya densidad es cercana a la del agua y cuyas otras propiedades lo hacen apto para ser utilizado como agente de sostén”, anuncia Norma D’ Accorso, investigadora del CONICET en el Departamento de Química Orgánica de Exactas UBA. “Además, no reacciona con el agua, por lo cual no es contaminante”, remarca. D’ Accorso junto con Silvia Goyanes, que es investigadora del CONICET en el Departamento de Física, dirigen a un equipo interdisciplinario de científicos que, desde Exactas UBA, alimenta a Y-TEC con conocimiento aplicable y con recursos humanos específicamente formados, en el marco de un convenio celebrado a fines del año pasado entre la empresa tecnológica y la Facultad. D’Accorso, Goyanes y unas pocas personas más forman parte del selecto grupo que conoce la fórmula de este “agente de sostén ultraliviano”, que se guarda en secreto. “Estamos terminando la etapa experimental para comenzar con los ensayos en planta piloto y, luego, pasar a la etapa de producción industrial en aproximadamente dos años”, avisa Bianchi. * Gustavo Bianchi fue Director General de Y-TEC, YPF Tecnología S.A, desde agosto de 2012 hasta mayo de 2015. La entrevista para esta nota fue realizada en noviembre de 2014.
C
Fotoquímica
Cazadores de luz por CECILIA DRAGHI
La luz no sólo sirve para iluminar, sino que también puede tener aplicaciones muy diversas, desde descontaminar el agua hasta destruir células tumorales. El Laboratorio de Fotoquímica del Instituto de Química Física de los Materiales, Medio Ambiente y Energía se ocupa de sacarle a la luz todo el provecho posible.
A
simple vista nada los distingue de otros investigadores. Es posible toparse con ellos en el colectivo o en los pasillos de la Ciudad Universitaria. A diario su trabajo puede observarse en el Laboratorio de Fotoquímica del Instituto de Química Física de los Materiales, Medio Ambiente y Energía (INQUIMAE) en la Facultad de Ciencias Exactas y Naturales de la Universidad de Buenos Aires. Desde hace años, estos científicos persiguen la luz. No sólo pretenden atraparla, sino que buscan llevarla a distintos sitios para lograr cumplir ambiciosos objetivos como eliminar contaminantes ambientales, destruir células tumorales o generar fuentes alternativas de energía. Si bien las aplicaciones prácticas que se logren son bienvenidas, en realidad a estos particulares cazadores les interesa o, mejor dicho los obsesiona, conocer qué pasa, dónde, cuándo, cómo, por qué; y responder otro sinfín de preguntas. Ellos quieren describir, entender o descifrar cómo ocurren estos procesos en que la luz es protagonista junto con colorantes que la absorben, y generan una serie de reacciones a velocidades tales que requieren equipamientos muy sofisticados para lograr observarlas. Basta imaginar que, en esta dimensión, un segundo es una eternidad, equiparable casi a la noción humana de varios milenios. Las medidas que aquí se manejan son femtosegundos, que es un segundo dividido mil millones de millones. Por cierto, no es tarea sencilla seguir los pasos de la luz. Estos particulares cazadores no usan la fuerza física, sino la estrategia. A su alrededor, la naturaleza ofrece innumerables ejemplos a imitar. Uno clave es el que ocurre durante la fotosíntesis de las plantas, que convierte energía lumínica en energía química a través de diversos pigmentos, en particular la clorofila. Para aprovechar eficientemente la luz del sol, las hojas de las plantas poseen una gran cantidad de moléculas de colorante, ordenadas sistemáticamente de modo tal de canalizar –en tiempos muy cortos– la energía solar hacia un centro de reacción, capaz de inducir la síntesis de hidratos de carbono a partir de dióxido de carbono y agua, y efectuar otros procesos vitales. “Si queremos aprovechar la luz solar en el laboratorio, tenemos que diseñar sistemas que puedan hacer más o menos lo mismo a escala simplificada. Nuestrointerés consiste en organizar moléculas que puedan absorber luz, y que puedan llevar a un resultado útil
como atacar células tumorales o destruir una sustancia contaminante. Éstas son las metas a largo plazo, lo que nos interesa es estudiar los mecanismos a través de los cuales ocurren esos procesos de manera de mejorar su eficiencia”, precisa el doctor en química Enrique San Román, desde su lugar de trabajo en el Departamento de Química Inorgánica, Analítica y Química Física de FCEyN-UBA. Allí, este investigador principal del CONICET dirige uno de los grupos de trabajo que integran el Laboratorio de Fotoquímica, abocado a estudiar materiales fotoactivos. Es decir, aquellos que son capaces de absorber luz y usar la energía adquirida en eliminar un contaminante, destruir microorganismos o células tumorales, generar fuentes alternativas de energía o sintetizar una sustancia. En este terreno, los colorantes o pigmentos son los sustratos que se excitan ante la presencia de la luz desencadenando una serie de procesos físicos y químicos que inducen reacciones diversas en la propia molécula y en las moléculas vecinas. “En el medio, –detalla– hay una serie de intermediarios, que se forman y descomponen en cierto tiempo. De ahí viene la necesidad de hacer una secuencia de fotografías que indique cómo evoluciona el sistema”. ¿Qué pasa con la luz que se absorbe? ¿Qué camino sigue? ¿Qué cambios genera en las moléculas que la están absorbiendo y en las de alrededor? ¿A dónde va a parar la energía?, son algunos de los interrogantes a develar.
//// Imágenes costosas
Obtener imágenes de este proceso que ocurre muy rápidamente requiere tener un equipamiento acorde a esta velocidad. Un preciso instrumental adquirido recientemente permitirá espiar qué y cómo ocurre. Este proceso es dinámico y una secuencia de fotos logra aclarar numerosas dudas al mostrar en cámara lenta el fenómeno, como demuestra el siguiente ejemplo: “Hacia el último cuarto del siglo diecinueve se discutía si las cuatro pezuñas de un caballo se separaban del suelo al mismo tiempo durante una carrera hípica. La respuesta la obtuvo el fotógrafo inglés Edward James Muggeridge en 1878 tomando fotografías de un caballo en movimiento a intervalos cercanos al milésimo de segundo”. Enseguida, el doctor San Román agrega: “Precisamente en esto consiste el estudio de la dinámica de los procesos fotofísicos. En lugar de abrir un obturador durante un intervalo de tiempo pequeño, se suele recurrir a iluminar el sistema en estudio con pulsos de luz muy cortos. Cuanto más corto es el pulso, mayor es el detalle de la información que se obtiene. Por este motivo fue la reciente adquisición de un equipo láser de pulsos de algunas decenas de femtosegun-
dos de duración (1 femtosegundo, ya lo dijimos, es un milbillonésimo de segundo), que compramos en forma conjunta con varios grupos de investigación coordinados por el doctor Pedro Aramendía. Este equipo permitirá contar con una herramienta muy poderosa, que reduce un millón de veces la escala de tiempos disponible hasta el momento. Es un flash muy corto que cuesta varios cientos de miles de dólares”. El costo se debe a que requirió un titánico esfuerzo construir sofisticadas herramientas para dilucidar paso a paso qué ocurre en el interior de una molécula y cómo reacciona, entre otras posibilidades.
//// En la mira
Al igual que la fotosíntesis, otro proceso propio de la naturaleza es la descomposición de la materia orgánica. En este caso, y a diferencia de la fotosíntesis, esta descomposición opera en sentido inverso, es decir destruye moléculas complejas y las transforma en unidades más pequeñas. Este mecanismo, que a diario se registra en el ciclo natural, también es objeto de estudio de este equipo de trabajo. Algunos materiales, como los semiconductores, tienen la propiedad de captar luz y transformarla, aumentando la energía de los electrones que componen el material. “Para la descontaminación de aguas se suele usar un tipo particular de semiconductor, el dióxido de titanio, en forma de pequeñas partículas que absorben luz ultravioleta. Los electrones ‘excitados’ pueden incorporarse a determinadas sustancias –reducirlas, en la jerga química– y los ‘agujeros’ que quedan pueden oxidar otras, incorporándoles oxígeno de alguna manera. Esta es la base de ciertos procesos de descontaminación naturales. Ello ocurre, por ejemplo, en líquidos donde la materia orgánica contaminante se convierte en dióxido de carbono y agua”, precisa San Román. Sin embargo, dado que la luz ultravioleta proveniente del sol es escasa, los científicos incorporan al dióxido de titanio un colorante capaz de absorber luz visible. “Esto –indica– permite un mayor aprovechamiento de la energía solar, que resulta abundante y barata”. En este campo, los científicos han puesto la mirada en un contaminante: el cromo, desecho industrial típico de las curtiembres, la industria metalúrgica, las fábricas de pintura, entre otras. La variedad más tóxica de este metal es el cromo (VI), que es cancerígeno. En este sentido, el equipo ha trabajado en combinación con la Comisión Nacional de Energía Atómica (CNEA) y la Universidad Nacional de Mar del Plata. “Hemos logrado avances para comprender el mecanismo de la eliminación del cromo del agua en estudios a nivel básico”, indica San Román. “Usando dióxido de titanio y un colorante apropiado, el cromo VI se reduce a cromo III, que no es tan tóxico, y se oxidan otros con-
taminantes orgánicos. Si bien existen otros métodos de tratamiento, éste tiene la ventaja de que se usan reactivos no tóxicos y económicos, luz visible y no se producen desechos adicionales”, sostiene. Los diversos materiales desarrollados por estos cazadores de la luz son de uso potencial en campos tales como la purificación de aguas que contienen metales pesados y contaminantes orgánicos o microbiológicos, la conservación de alimentos o la fotomedicina. Esta última línea de investigación prueba –en el laboratorio– colorantes para terapias de cáncer. “Los colorantes que se usan habitualmente tienen la particularidad de que no son muy selectivos y suelen producir lesiones en la piel y en células no tumorales”, advierte San Román. “Contar con colorantes firmemente unidos a un material que pueda retirarse luego de su uso evitaría este problema cuando se trata de tumores superficiales. Aquí, la forma en que se organizan los colorantes en el material es fundamental”, puntualiza. En el laboratorio, los investigadores buscan permanentemente mejorar los conocimientos adquiridos. “El diseño de materiales es un problema de prueba y error: imaginar un ordenamiento posible de los colorantes sobre el soporte elegido, tratar de lograrlo en la práctica, cuantificar su eficiencia y encontrar vías para mejorarla”, relatan como modus operandi del laboratorio. Dedicado a la investigación básica, este equipo persigue el objetivo de sacar de la oscuridad mecanismos donde opera la luz. Acceder a tiempos cada vez más cortos en el estudio de estos procesos permitirá un considerable avance en pos del objetivo buscado.
Transporte de energía
Lo micro y lo macro por PATRICIA OLIVELLA
Entre el mundo macroscópico que vemos a diario y aquellas cosas tan pequeñas que necesitan de un microscopio para ser vistas hay una transición, un universo comprendido entre los nanómetros y los micrómetros, donde todo se mide en una escala llamada mesoscópica.
“A nosotros nos interesa, especialmente, comprender y describir fenómenos de transporte. En particular, nos interesa descubrir nuevos mecanismos para generar y controlar corrientes eléctricas y comprender también cómo se transporta la energía en estos sistemas”, explica la investigadora. Para ello, los especialistas estudian, por ejemplo, puntos y capacitores cuánticos, pequeñas islas de un material en el que se diseña un circuito para confinar electrones. Este dispositivo se manipula mediante la aplicación de voltajes eléctricos, que permiten, por ejemplo, mover a los electrones uno a uno en un circuito o generar corrientes magnéticas.
La frontera entre lo que se ve y lo que no se ve es mucho más difusa de lo que podríamos pensar. Estamos acostumbrados a dividir a la naturaleza entre el mundo macroscópico y el microscópico. Todos los objetos que se ven a simple vista pertenecen al mundo macroscópico, en cambio las moléculas, los átomos y las partículas subatómicas pertenecen al microscópico y no pueden ser observados de manera directa, sino que su existencia se detecta a partir de cómo se manifiestan a través de fenómenos físicos. En el medio de estos dos universos está el mundo mesoscópico. El grupo de investigación que dirige Liliana Arrachea en la Facultad de Ciencias Exactas y Naturales y que se encuadra dentro de uno mayor, dedicado al estudio de la materia condensada, trabaja sobre fenómenos de transporte cuántico en sistemas de materia condensada de escala mesoscópica. “La escala mesoscópica comienza en los nanómetros y se extiende hasta algunos cientos de micrómetros. Al igual que los sistemas macroscópicos, los sistemas mesoscópicos contienen un número grande de átomos, aunque en el caso macroscópico el número típico es el número de Avogadro (1023 partículas) mientras que en la escala mesoscópica, los números típicos son del orden de 105 o menores”, explica Arrachea. Si de física se trata, los fenómenos macroscópicos pueden ser descriptos adecuadamente por las leyes de la mecánica clásica, pero la mayoría de los fenómenos físicos que tienen lugar en el mundo mesoscópico, al igual que los microscópicos, están regidos por las reglas de la mecánica cuántica. “La física mesoscópica se ocupa de los problemas fundamentales que tienen lugar cuando un objeto macroscópico se miniaturiza. Actualmente, es un área de gran actividad dentro del campo de la materia condensada y la física de materiales”, dice Arrachea. Esta rama de la física comenzó a desarrollarse en los años 80, en gran medida motivada por la creciente miniaturización de dispositivos electrónicos como transistores y circuitos, que constituyen la base de computadoras y teléfonos.
Otro tema de interés es el estudio de sistemas en el estado de Hall cuántico. “El efecto Hall clásico consiste en una acumulación de los electrones en los bordes del material cuando una corriente eléctrica circula en presencia de un campo magnético perpendicular a la misma. A temperaturas suficientemente bajas, los efectos cuánticos dominan; este efecto presenta características peculiares y la conducción de electrones adquiere características mesoscópicas”, explica Arrachea. “Concretamente, en estos sistemas existen los denominados estados de borde, que constituyen como calles en los bordes del material, por las que circulan los electrones en un determinado sentido, sin experimentar choques. Esta característica es muy interesante porque manipular estos estados es de alguna manera equivalente a mover y deformar estas calles a voluntad. De esta manera se consigue generar rayos de electrones que se comportan de manera parecida a los rayos de luz”, agrega. Hace muy poco tiempo, en el año 2007, se comprendió que las características del efecto Hall cuántico, en particular la existencia de los estados de borde también se manifiestan en otros materiales denominados aisladores topológicos y superconductores topológicos. “Actualmente, el estado topológico se identifica como un nuevo estado de la materia y existe un gran interés en descubrir y estudiar nuevos materiales topológicos”, afirma. Aunque parezca algo muy abstracto, el efecto Hall cuántico se utiliza a diario en metrología. “En un laboratorio del INTI, así como en los institutos de metrología de otros países del mundo, se monta periódicamente un experimento para medir la corriente eléctrica en un sistema Hall cuántico. Esas mediciones establecen patrones de referencia para la fabricación de resistencias eléctricas”, comenta la investigadora. También se sueña con alcanzar una miniaturización de dispositivos electrónicos en los que puntos cuánticos o átomos individuales funcionen como transistores. Esto ayudaría también a cumplir el sueño de la computación cuántica. Pero todo esto pertenece aún al mundo de los sueños. “Para conseguirlo, aún deben entenderse mejor fenómenos fundamentales del transporte de los electrones y la energía. Ese es el plan en el que estamos embarcados”, remata Arrachea.
Profesionales: Luis Martino
Una nueva para Antes de terminar su doctorado, el físico Luis Martino (graduado en Exactas UBA) recibió una oferta y aceptó trabajar en la industria. Hoy se desempeña como ingeniero de reservorios en la nueva YPF. En esta entrevista asegura que el sector productivo enfrenta problemas cada vez más
complejos que requieren de la presencia de un mayor número de científicos.
dimensión la física por GABRIEL ROCCA
– ¿Cuándo empezaron tus estudios universitarios? – Arranqué la licenciatura en el 97 en la Facultad de Ciencias Exactas y Naturales. Dudaba entre Física y Geología pero al final empecé con Física y cada vez me fue gustando más. Hice mi tesis de licenciatura en geofísca, con la dirección de Ana Osella en el Grupo de Geofísica Aplicada. – En los años iniciales de carrera, ¿qué idea tenías acerca de tu futuro laboral? – La idea siempre fue seguir el camino de la investigación. Hasta que empecé a trabajar no tenía ni idea de qué forma un físico se podía insertar en la industria. – Dado que no lo buscabas, ¿cómo fue que te contactaron y por qué decidiste aceptar? – La empresa que se acercó, InLab, había trabajado con el grupo, con los equipos de prospección geofísica. Entonces fue más fácil el contacto. Estaban necesitando una persona para crear un laboratorio nuevo de investigación y desarrollo. Me cuentan la propuesta, me pareció que estaba buena y arranqué con eso en el 2007, antes de terminar el doctorado. – ¿Cómo fue pasar del laboratorio a la industria? – Lo bueno fue el salto de recursos. De tratar de conseguir unos escasos pesos para poder hacer uno que otro ensayo, en la industria se invertía mucho más. Si vos necesitabas un recurso, a los pocos días lo tenías. Pero tampoco es todo perfecto porque por ahí te gustaría investigar más en cierto aspecto y no podés porque rápidamente tenés que estar produciendo algún resultado. Pero no es difícil adaptarse. – ¿Cómo fue tu paso de InLab a YPF? – Tuvo bastante de casualidad. Un día me llamaron por un currículum que había mandado hacía unos años.
Estaban armando un grupo de investigación y desarrollo de la parte de simulación dinámica. La idea es tomar modelos de lo que está bajo tierra y tratar de caracterizarlos lo mejor posible para después hacer el desarrollo propio del yacimiento. La verdad es que uno aplica muchísimo todo lo que es física en la simulación dinámica. Desde el movimiento de fluidos hasta mediciones de presión y sus variaciones en el yacimiento. – ¿Creés que actualmente en la Universidad hay más información entre los estudiantes acerca de este tipo de posibilidades? – Sé que se están haciendo un montón de cosas pero por ahora los chicos no tienen muy en claro que se pueden desempeñar en la industria, por lo menos durante los primeros años de carrera. En física, cuando uno se pasa a la industria, se habla de venderse, y eso todavía pesa mucho. Me parece que hay que tratar de romper con ese paradigma. Por otro lado, hay muchos compañeros que vienen del Balseiro y allí es absolutamente distinto. Ven a la industria como una posibilidad directa. Es otro paradigma. Eso tiene que ver con que en el Balseiro interactúan mucho más con empresas desde el vamos. Y entonces ahí no está tan sacralizado el tema de la investigación. – ¿Considerás que en otras carreras ese paradigma no está tan presente? – En geología es mucho más fácil porque el geólogo se dedica a algo más práctico, más tangible y, si bien hay un montón de geólogos que hacen investigación, la mayoría se va a trabajar a la minería o al petróleo. Ya lo tienen como un objetivo. Durante la carrera hay materias que involucran al petróleo y a la minería. En cambio, no existe “Física en la industria” o “Física aplicada a…”. No sería mala idea de incluir algo así como optativa.
– Y desde la industria, ¿se va generando una demanda de científicos? – Yo creo que sí. En general, las empresas del sector están trabajando con grupos interdisciplinarios para tener diferentes visiones que lleven un proyecto a un mejor resultado. Casi todas las empresas del sector energético tienen un grupo integrado por físicos, matemáticos, geólogos, ingenieros. En la industria química pasa lo mismo y en otros sectores también. Te diría que ya están empezando a faltar profesionales. – ¿Creés que habrá oportunidades de trabajo importantes para quienes egresen de estas carreras? – Desde luego. Yo creo que cada vez se van a requerir más físicos pero también químicos, ingenieros, geólogos. Es que los problemas se hacen cada vez más complejos y, cuanto mayor es la complejidad, más gente formada necesitás. Sobre todo en la industria del petróleo. Le veo mucho futuro a las carreras. Lo que no veo es que mucha gente esté ingresando a esas carreras. Me parece que el cuello de botella más grande está ahí. – ¿Qué le dirías a un chico que está en los primeros años de física para que sepa que aplicar sus conocimientos en la industria es una opción para su futuro? – Yo creo que lo más importante es decirle que en la industria no va a estar todo el día sentado en una oficinita usando programas enlatados sino que va a tener que usar mucho la cabeza para resolver los problemas que se le presenten; que los escenarios son cada vez más complejos y que siempre está bueno aplicar la innovación y que va a poder innovar. Me parece que eso es lo clave.
La verdad es que uno aplica muchísimo todo lo que es física en la simulación dinámica. Desde el movimiento de fluidos hasta mediciones de presión y sus variaciones en el yacimiento.
Profesionales: Magdalena Rodríguez Éboli
Caminos por Magdalena Rodríguez Éboli es licenciada en Matemática de Exactas UBA. Siempre supo que quería trabajar en la industria, sin embargo, la escasísima presencia de matemáticos en el ámbito productivo dificultó mucho sus planes. En la actualidad, se desempeña en YPF y pronostica que, cada vez, el sector requerirá un mayor número de profesionales formados en esta área del conocimiento.
recorrer por GABRIEL ROCCA
– ¿Cómo decidiste estudiar matemática? – En la secundaria yo no era una alumna muy aplicada pero me copaba mucho con los problemas de matemática. Justo, el papá de mi mejor amiga es matemático de la Facultad de Ciencias Exactas y Naturales de la UBA. Él, a veces, nos contaba sobre la cinta de Moebius y cosas por el estilo y a mí me encantaba. En realidad la quería enganchar a mi amiga pero caí yo. Fui un efecto colateral (risas). – ¿En qué año empezaste la carrera? – Arranqué en el 2000. Hice álgebra con Guillermo Martínez, del que además había leído sus novelas, así que me gustó mucho la materia y me enganché con la carrera. Nunca pensé en la salida laboral. Tenía 18 años y me metí en lo que me gustaba. – ¿Cuándo te empezaste a plantear de qué ibas a trabajar? – Siempre tuve claro que no me quería quedar investigando y dando clase en la universidad. Está buenísimo pero no es lo mío. Cuando fui avanzando en la carrera me empecé a preguntar: ¿Y ahora, qué hago? Traté de buscar a otros matemáticos que estuvieran trabajando en la industria. No encontré a ninguno. Fue una crisis muy profunda. No sabía de qué manera insertarme. Los psicólogos, por ejemplo, tienen su espacio establecido en el área de recursos humanos pero, ¿cuál es el lugar de los matemáticos en la industria? Encima, ninguno de mis compañeros tenía un objetivo parecido. Entretanto, daba clases particulares y en el CBC mientras estudiaba. Pero siempre tenía esa preocupación en mi cabeza porque no sabía qué iba a hacer cuando me recibiera. – ¿Sentís que la Facultad no te ofreció herramientas para ayudarte en tu decisión? – No tenía adónde recurrir por ayuda. No había un ca-
mino preparado para eso. Una pasantía, por ejemplo, me hubiera venido muy bien. Tenía una sensación de frustración enorme. – ¿Y cómo pudiste ir resolviendo esta situación? – Cuando terminé me fui a hacer un posgrado a Río de Janeiro. Al año, me ofrecieron una beca de doctorado. Como no encontraba otras salidas la tomé pero, en realidad, yo sabía que no era lo que quería. Así que decidí renunciar a la beca y me volví, sin nada, en busca de mi objetivo. Un día, estaba caminando por la Facultad y vi en la puerta una oficina un cartel que decía que necesitaban una persona con experiencia en análisis numérico para trabajar en la empresaTenaris, en el Centro de Investigación Industrial. Era como algo intermedio entre la industria pura y la investigación. Y bueno, ingresé a trabajar ahí. Ese fue el primer paso. – ¿De qué manera llegaste a YPF? – Cuando estaba trabajando en Tenaris me llaman de YPF y me dicen que están formando un grupo de ingenieros de reservorios. Me querían entrevistar. Acepté, me tomaron un par de pruebitas y, después, como último paso, me pidieron que presente mi tesis a los ingenieros. La presenté y nadie me preguntó nada porque nadie entendía nada (risas). La verdad es que no sé por qué decidieron tomarme porque yo no sabía nada de petróleo, nada de fluidos. Una vez se lo pregunté a la persona que me contrató y me dijo: “cuando te vi llenando el pizarrón de ecuaciones diferenciales decidí contratarte al instante”. Creo que vio, básicamente, que tenía capacidad para aprender. – Algunos estudiantes pueden creer que el trabajo en la industria es una labor de oficina burocrática que no representa ningún desafío ¿Es así? – ¿De oficina? Para nada. Mirá, acabo de venir de visitar un campo de petróleo en Comodoro Rivadavia
para supervisar un ensayo. Este trabajo representó, para mí, un enorme desafío. Tuve que aprender muchísimo sobre fluidos, flujo en medios porosos. Tuve que estudiar mucho. – ¿Tenés la posibilidad de aplicar tus conocimientos para resolver problemas? – Sí, claro. Lo que yo hago se llama análisis de presión y análisis de caudal ¿Qué quiere decir eso? Uno pone un sensor en el fondo de un pozo para obtener datos de presión. A partir de esos datos uno hace varias cuentas y hay que hacerlas bien porque, si las hacés mal, la empresa puede perder muchísimo dinero. Esos cálculos te permiten saber de cuánto petróleo estamos hablando, si vale la pena la inversión, qué calidad tiene la arena y muchas otras cosas. – La Facultad está intentando que los estudiantes sepan que, además del ámbito académico, también existen Acabo de venir de visitar un posibilidades laborales en el sector productivo. ¿Te parece útil? campo de petróleo en Comodoro – Me parece correcto y necesario. Las personas no somos todas iguales. Supongo que no todos los Rivadavia para supervisar un egresados de Exactas deben querer hacer un doctorado y dedicarse a la investigación. Sin ensayo. Este trabajo representó, embargo, muchos tal vez lo terminan haciendo porque no ven otras posibilidades y para mí, un enorme desafío. Tuve porque, un poco, la corriente te lleva. Por eso me parece muy bueno que se brinque aprender muchísimo sobre de información. En veinte años, cuando haya un montón de matemáticos fluidos, flujo en medios porosos. trabajando en diferentes lugares, va a ser más fácil.
Tuve que estudiar mucho.
– ¿Te parece que hay posibilidades para que más matemáticos se incorporen al mundo productivo en los próximos años? – Creo que va a haber mucha necesidad porque cada vez hay que enfrentar problemas más difíciles. Y se necesita, cada vez, gente más capacitada para resolverlos.
SUMARIO 4 14 22 32 38 44 50 56
Yacimientos no convencionales Un nuevo camino para obtener energía Gabriel Stekolschik
Transporte de energía Nanocaminos Patricia Olivella
La era del hidrógeno Generación H Gabriel Rocca
Baterías El futuro del litio Armando Doria
Inmobots Máquinas que se autorregulan Patricia Olivella
Desarrollo novedoso Un sostén para YPF Gabriel Stekolschik
Transporte de energía Lo micro y lo macro Patricia Olivella
Profesionales: Magdalena Rodríguez Éboli Caminos por recorrer Gabriel Rocca
8 16 26
Actividad solar Chaparrones solares Susana Gallardo
Un desafío tecnológico nacional La Argentina nuclear Gabriel Rocca
Todo sobre los hidrocarburos no convencionales Sacarle jugo a las piedras Gabriel Rocca
36
Investigación aplicada Fábrica de plasmas Patricia Olivella
42
Energía eólica Pronósticos eléctricos Gabriel Stekolschik
46
Fotoquímica Cazadores de luz Cecilia Draghi
52
Profesionales: Luis Martino Una nueva dimensión para la física Gabriel Rocca