Divulgación
Divulgación Científica
Científica
TOMO 2 NUMERO 2
Divulgación Divulgación Científica
IAL
Científica
EDITORIAL El objetivo de esta publicación es aportar conocimientos a través de los trabajos académicos de investigadores que se encuentran en un ejercicio continuo de la investigación, sobre todo aquella centrada en mejorar el ámbito educativo. Nuestro país se encuentra en un momento complejo frente a los desafíos educativos, frente a tal situación, los investigadores se esfuerzan por encontrar alternativas que contribuyan a mejorar la citación de rezago entre otras cosas. Frente a tal escenario, surge la propuesta de esta revista que pretende cumplir con una difusión que llegue a gran parte de la sociedad si se considera el alcance de Internet. Como una publicación digital, este medio busca establecer un dialogo con sus lectores En este número tenemos el agrado de contar con la participación de docentes e investigadores de notable trayectoria en la publicación de artículos, producto de sus estudios e investigaciones. El resultado de su trabajo lo vemos reflejado en la calidad de lo aquí expuesto. Los textos que se integran son resultado de estudios en proceso, de proyectos vigentes que buscan resolver problemáticas que van desde el contexto local como se aprecia en el trabajo del M. En G. Luis Gustavo Galeana Victoria quien propone un valioso recurso para mejorar las condiciones educativas de la educación superior en México; hasta temas que son de investigación básica en un escenario internacional, es el caso del artículo del Dr. Salvador Hernández Contreras denominado Computación cuántica en la web, que es el inicio hacia proyectos de aplicación. Con la publicación de estos trabajos podemos dar una justificación del porque la importancia de difundir y exponer los resultados o proyectos vigentes, para poder compartir tanto con la comunidad científica, así como con la sociedad en la cual nos desenvolvemos y la que solicita mejores
productos y servicios. Divulgación científica en el afán de seguir superándose, vuelve a invitar a alumnos, docentes e investigadores y al público en general a enviarnos sus artículos científicos para su revisión y posterior publicación.
Consejo Editorial Dr. Fernando Adolfo Salazar Vázquez RESPONSABLE DE PRENSA Y DIFUSIÓN Dr. Julio Cesar Ruíz Martínez COORDINADOR DEL ÁREA EDITORIAL M. en G. Luis Gustavo Galeana Victoria DISEÑO GRÁFICO M. en A. Elizabeth Sánchez Vázquez CORRECTOR DE ESTILO
DIVULGACIÓN CIENTÍFICA, año 2 No 2, abrilJunio 2017 es una Publicación Trimestral editada por Fernando Adolfo Salazar Vázquez, Av. Violetas 127, Villa de las Flores, Coacalco, Estado de México, C.P. 55710, Tel (55) 58745903, http://divulgacioncientifica.org.mx. Editor responsable: Fernando Adolfo Salazar Vázquez. Reserva de Derechos al Uso exclusivo No. 04 – 2016 – 061315321700 – 203, ISSN 2448-699X, Ambos otorgados por el Instituto Nacional del Derecho de Autor. Responsable de la última actualización de este Número Fernando Adolfo Salazar Vázquez, Av. Violetas 127, Villa de las Flores, Coacalco, Estado de México, C.P. 55710, Tel (55) 58745903, fecha de la ultima modificación, mayo 2017. las opiniones expresadas por los autores no necesariamente reflejan la postura del editor de la publicación. Queda prohibida la reproducción total o parcial de los contenidos e imágenes de la publicación sin previa autorización de Divulgación Científica.
Divulgación Científica
Computación cuántica en la web Salvador Contreras Hernández1, América Ivet Muñoz Galicia2, Diego García Jara3 María Patricia Tzili Cruz4 Universidad Politécnica del Valle de México, Av. Universidad Politécnica esquina con Río de la Plata, col. Villa Esmeralda, Tultitlan Estado de México, 59700. México. salvador.contreras@gmail.com1, america.i.munoz@gmail.com2, garcia_jara@yahoo.com.mx3, ptzili18@gmail.com4
Resumen La investigación, enseñanza y aprendizaje de la computación cuántica se está beneficiando actualmente de la nueva máquina cuántica de cinco qubits creada por la empresa International Business Machine. La interface web permite el desarrollo y ejecución de algoritmos cuánticos. El diseño de estos algoritmos se hace a través de circuitos en el compositor cuántico. El artículo resalta la importancia de esta tecnología en el área de las ciencias computacionales. Abstract Research, teaching and learning of quantum computing today is benefiting for the new quantum machine of five qubits that was created by International Business Machine enterprise. The web interface allows the development and execution of quantum algorithms. The design of these algorithms is done through the circuits in quantum composer. The article importance highlights this technology in computer science area. Palabras clave: Cómputo cuántico, compositor cuántico, algoritmos cuánticos. Key words: Quantum computing, quantum composer, quantum algorithms.
1. Introducción Hasta hace muy poco tiempo, el estudio de la computación cuántica, en lo referente a algoritmos, se desarrollaba casi en su totalidad de manera teórica. Se elaboraban algoritmos cuánticos, desde el punto de vista matemático, y éstos eran probados en máquinas clásicas con simuladores de computador cuántico. Sin embargo, en mayo del 2016, la empresa IBM (International Business Machine) puso a disposición del público en general una interfaz en la web para interactuar un procesador cuántico de cinco qubits, en donde se incluye información teórica y relevante sobre computación cuántica. Este hecho representa un hito en la historia de la computación y permitirá acelerar el desarrollo de la tecnología cuántica,
Divulgación Científica
en materia de software. IBM denomina Quantum Experience al proyecto de computación cuántica con una interfaz en línea, en la cual se pueden hacer experimentos de manera real, en aspectos de la teoría de la información cuántica como la superposición, entrelazamiento, tele-portación y algoritmos. La enseñanza en áreas como la mecánica y computación cuántica puede aprovechar la máquina de IBM para hacer que los estudiantes comprendan los fundamentos de la teoría cuántica experimentando directamente en el hardware pero desde la comodidad de las aulas o de su casa. Además los investigadores tienen en este computador cuántico una herramienta muy importante para el desarrollo de proyectos en el ámbito de la teoría cuántica de la información. Se debe aclarar que se trata de un procesador cuántico para realizar cálculos, algoritmos y probar conceptos fundamentales de la teoría de la información cuántica. Los estudiantes de las áreas relacionadas con la computación cuántica pueden elaborar sus programas desde el laboratorio de cómputo de su escuela o facultad, siendo supervisados por su profesor. Estas prácticas al parecer son simples ya que con cualquier computadora conectada a Internet se puede acceder a un procesador cuántico en línea y experimentar algoritmos cuánticos, pero la importancia y complejidad de ello radica en que al trabajar con el compositor cuántico se están manipulado átomos directamente a través de instrucciones de un lenguaje de programación cuántico o de la interfaz gráfica mediante el diseño de circuitos cuánticos. Por su parte los investigadores avanzarán en aspectos nuevos en esta materia y se podrán encontrar aplicaciones tanto inmediatas como a mediano y largo plazo.
2. ¿Qué es la computación cuántica? Como antecedente, se debe comentar que mientras que en la computación clásica los bits se representan con impulsos eléctricos, en la computación cuántica se hace a través de las
Divulgación Científica
propiedades de partículas, lo cual otorga paralelismo natural a los cálculos.
Debido a que en la mecánica cuántica se determina la probabilidad de que una partícula se encuentre en una posición determinada, se dice entonces que los algoritmos cuánticos son probabilísticos. Estos algoritmos deben ser diseñados considerando todas las alternativas posibles de solución de acuerdo al problema abordado y, empleando la técnica correcta, deberá determinar la opción que represente una probabilidad de 1 o cercana a este valor. La computación cuántica es un área de las ciencias computacionales que está actualmente en auge en todo el mundo debido a los avances prometedores en el hardware. La dificultad más grande a la que se enfrenta esta disciplina concierne a la parte física, ya que se tiene que encontrar la forma de controlar los átomos o partículas subatómicas que intervienen en los cálculos, en otras palabras, las partículas que representan los qubits. Actualmente solo se han podido controlar eficientemente unos cuantos átomos pero se espera que con el paso del tiempo los físicos experimentales en esta área puedan controlar un número de partículas mucho mayor, con la consecuencia de que el poder de cómputo explotará exponencialmente. En la década de los 80s Richard Feynman (Feynman, 1999) propone por vez primera la posibilidad de hacer cómputo a través de partículas subatómicas como los electrones, por ejemplo. Estas partículas tienen un comportamiento radicalmente distinto a lo que vemos en el mundo macroscópico, ya que no se puede determinar con certeza algunas de sus propiedades, en un momento determinado, hasta realizar una medición directa sobre ellas, pero. Esta medición hace que el sistema decaiga y los fenómenos cuánticos desaparezcan. Por ejemplo, no podemos saber la posición exacta de un electrón al dispararlo contra una doble rendija con una pantalla que los detecte detectora en la parte trasera, hasta que choca en esta última. Cuando esto sucede, sabemos la posición del electrón y se pierde la incertidumbre. Existe otra característica que se le denomina superposición de estados y es la que permite que las partículas puedan tener valores distintos al mismo tiempo. En el caso
Divulgación Científica
de propiedades binarias y propias de la física cuántica, como el espín de un electrón, se pueden representar los valores 0 y 1 al mismo tiempo.
3. Experimentación en el compositor cuántico En el contexto del IBM Quantum Composer, se denomina experimentos a la actividad de desarrollo o construcción de algoritmos. Los circuitos cuánticos se desarrollan en la interfaz gráfica o compositor agregando las compuertas adecuadas al algoritmo que se implementa. Se tiene la posibilidad de experimentar con la superposición cuántica, que es la base para todos los algoritmos en esta área (Nielsen, 1998). La superposición es el fenómeno de las partículas subatómicas que permite la representación de los qubits, donde estos pueden estar en estados superpuestos. Este fenómeno otorga un paralelismo natural a los cálculos realizados con qubits y es el que permite que el poder de cálculo tenga un alcance extraordinario. Es posible experimentar en la máquina cuántica de IBM con los algoritmos conocidos, tales como algoritmo de Shor y de Grover, para determinar su comportamiento y verificar la exactitud de los resultados, los cuales se desarrollan más adelante. Los algoritmos cuánticos se encuentran en el área de estudio del software para cómputo cuántico. Estos algoritmos deben ser desarrollados considerando algunos elementos indispensables como la superposición cuántica y la probabilidad de las posibles respuestas. Además se requiere de matemáticas especializadas para representar el algoritmo que se desea utilice los conceptos cuánticos para trabajar. Entre estos conceptos se encuentra el entrelazamiento y la tele-portación. 3.1 Entrelazamiento El entrelazamiento es una característica de las partículas atómicas, que se puede representar con lenguaje matemático en mecánica cuántica. Si dos partículas están entrelazadas, se puede conocer alguna propiedad de una al medir la otra (Lai, 2016). La teoría de la información cuántica también contiene el concepto de entrelazamiento. Éste fue
Divulgación Científica
descubierto en las ecuaciones matemáticas utilizadas en la mecánica cuántica, es decir, fue una predicción que esta área de las ciencias estableció mucho antes de que se comprobara experimentalmente. John Clauser fue el primero en afirmar que se podría hacer una máquina que comparara miles de partículas entrelazadas, utilizando el estudio matemático de John Bell (Bell, 1965), quien establecía una forma matemática eficaz para determinar si el entrelazamiento era un asunto real (Clauser, 2002). En las décadas de los 40s y 50s, este asunto del entrelazamiento cuántico era considerado un debate filosófico, inclusive por el mismo Albert Einstein, en su famoso artículo On the Einstein Podolsky Rosen paradox, en Einstein et al. (1935), donde considera que el entrelazamiento no es real. Sin embargo, Clauser desarrolló una máquina para comparar el estado de las partículas y después Alain Aspect realizó nuevamente el experimento, llegando a la conclusión de que el entrelazamiento, ese descubrimiento matemático predicho por la mecánica cuántica, es real (Aspect, 1982). Este entrelazamiento en cómputo cuántico puede ser implementado en simuladores, como por ejemplo; QCL (Quantum Computation Language), QCF (Quantum Computing Functions) o bien, el compositor cuántico de IBM (IBM Quantum Experience, 2016), entre otros disponibles actualmente. El primero es un lenguaje basado en C que implementa las operaciones fundamentales para programación cuántica. El código se desarrolla en un editor de texto y se compila para obtener el resultado (Ömer, 2005). QCF es un una librería que se implementa a un software especializado en tópicos matemáticos con uso de matrices, Matlab, que contiene también las compuertas básicas y funciones más comunes para desarrollo de algoritmos cuánticos (Fox, 2003). Por su parte, el compositor cuántico de IBM contiene una interfaz gráfica en web para el desarrollo de algoritmos, a través de circuitos cuánticos. Esta interfaz permite seleccionar entre el simulador o la máquina cuántica real para la ejecución de los algoritmos. Para implementar el entrelazamiento, desde la perspectiva de la información cuántica, se puede experimentar con el diseño de circuitos a través del compositor cuántico. El entrelazamiento se logra colocando una compuerta H o de Hadamard en uno de los cinco qubits, para que después se coloque una compuerta CNOT, donde el qubit con la compuerta
DivulgaciĂłn CientĂfica
H es el destino (Sicard, 1999).
3.2 Tele-portaciĂłn cuĂĄntica Para la simulaciĂłn en mĂĄquinas clĂĄsicas del proceso de tele-portaciĂłn cuĂĄntica se puede usar el experimento desarrollado en el CERN (OrganizaciĂłn Europea para la InvestigaciĂłn Nuclear), donde se transmite informaciĂłn de un punto a otro auxiliĂĄndose de la caracterĂstica de entrelazamiento de las partĂculas sub atĂłmicas (Gisin,2003). El experimento consiste en generar primero un par de qubits entrelazados, para el emisor y el receptor que usualmente reciben los nombres de Alice y Bob. El emisor y el receptor se quedan con uno de los qubits entrelazados. Ahora Alice y Bob se encuentran separados a una distancia arbitraria, Alice desea transmitir informaciĂłn a Bob, por lo que necesitarĂĄ de dos qubits, uno el entrelazado con el de Bob y otro que contiene la informaciĂłn a enviar, que llamaremos |đ?œ‘ . Para ello Alice aplica la compuerta NOT a los dos qubits, luego aplica la compuerta cuĂĄntica de Hadamard al primer qubit. DespuĂŠs Alice realiza una mediciĂłn sobre sus dos qubits y obtiene los dos bits clĂĄsicos đ?‘?! y đ?‘?! que envĂa a Bob a travĂŠs de un canal de comunicaciĂłn clĂĄsico. Finalmente Bob realiza la transformaciĂłn sobre su qubit entrelazado de acuerdo a los bits clĂĄsicos đ?‘?! y đ?‘?! , đ?‘?đ?‘?! đ?‘‹đ?‘?! , donde đ?‘‹ y đ?‘? son las matrices de Pauli đ?œŽđ?‘Ľ y đ?œŽđ?‘§. El resultado obtenido por Bob es el qubit que posee Alice, |đ?œ‘ . Todas estas compuertas necesarias para implementar la tele-portaciĂłn cuĂĄntica estĂĄn disponibles en el compositor cuĂĄntico. Las aplicaciones de esta caracterĂstica en la informaciĂłn cuĂĄntica, son diversas, aunque en principio el uso inmediato serĂĄ en la criptografĂa, debido a la posibilidad de transmitir informaciĂłn de un lugar a otro de forma segura, ya que no pasarĂĄ por el medio cĂĄsico ningĂşn dato que ponga en riesgo la confidencialidad de la informaciĂłn. Aunque tambiĂŠn se debe resaltar el riesgo que esto implica, ya que se podrĂa enviar informaciĂłn o un sitio remoto sin ser detectado.
DivulgaciĂłn CientĂfica
3.3 El compositor cuĂĄntico El compositor cuĂĄntico es una interfaz que permite el diseĂąo de algoritmos cuĂĄnticos en forma de circuitos. Contiene cinco lĂneas que representan la ejecuciĂłn del algoritmo en el tiempo, donde ĂŠste transcurre de izquierda a derecha. Cada lĂnea corresponde a un qubit (ver figura 1). La ejecuciĂłn contiene los estados de estos qubits en el tiempo. Los estados se pueden modificar colocando las compuertas adecuadas para el tipo de acciĂłn que se quiere aplicar al qubit (IBM Quantum Experience, 2016). Contiene un menĂş en el que se puede elegir si desea ejecutar el algoritmo desarrollado en el compositor cuĂĄntico, en la mĂĄquina real o bien, si desea utilizar el simulador. TambiĂŠn contiene una opciĂłn para que se muestren los resultados obtenidos por el algoritmo. Estos resultados se muestran en una esfera de Bloch (Nielsen, 2000) y en una grĂĄfica de barras. Para utilizar el compositor y la mĂĄquina cuĂĄntica se tienen que registrar como usuarios de IBM o bien, ingresar con sus datos de Google, Twitter, Hithub o Linkedin.
Fig. 1. Compositor cuĂĄntico para la mĂĄquina de cinco qubits
1
3.4 Algoritmo para factorizaciĂłn de nĂşmeros primos La factorizaciĂłn de nĂşmeros primos consiste en encontrar, a partir de un nĂşmero đ?‘›, dos nĂşmeros primos que multiplicados entre si den como resultado đ?‘›. No existe un algoritmo clĂĄsico para solucionar este problema, por lo que encontrar los factores primos de un 1
Quantum Composer, IBM Quantum Experience
DivulgaciĂłn CientĂfica
numero grande, de cientos de dĂgitos por ejemplo, podrĂa tardarse cientos de aĂąos ya que el tiempo para encontrar la soluciĂłn crece exponencialmente con el tamaĂąo del nĂşmero đ?‘›.
Fig. 2. Estado de la mĂĄquina cuĂĄntica
2
En 1996 Peter Shor, investigador del Instituto TecnolĂłgico de Massachusetts, diseùó un algoritmo cuĂĄntico para resolver este problema en un tiempo considerablemente menor (Shor, 1996). Este algoritmo inicia poniendo todos los qubits en una superposiciĂłn de estados y aplicando las compuertas necesarias para que se calculen todas las alternativas posibles en un solo instante. El algoritmo proporciona como la soluciĂłn la alternativa que tenga una probabilidad de 1 o cercana a este valor cuando los nĂşmeros que multiplicados entre si produzcan đ?‘›. Se calcula que mientras que una mĂĄquina clĂĄsica tardarĂa cientos de aĂąos en resolver este problema, para nĂşmeros grandes, una cuĂĄntica tardarĂa menos de cuatro segundos. El algoritmo de Shor se ha probado en mĂĄquinas cuĂĄnticas reales y funciona, solo que aĂşn no tenemos mĂĄquinas con un nĂşmero grande qubits, lo que implica que se ha probado Ăşnicamente para nĂşmeros pequeĂąos. Por otra parte, algunos algoritmos importantes para criptografĂa actualmente se basan en el problema de la factorizaciĂłn de nĂşmeros primos, lo que implica que pueden estar en riesgo en un futuro cercano si la tecnologĂa cuĂĄntica en hardware evoluciona a tal grado que se pueda disponer de mĂĄquinas de unos cuantos bits adicionales a los que ahora tenemos. Lo importante ahora no es la complejidad en tamaĂąo de problemas que estas mĂĄquinas cuĂĄnticas pueden resolver, sino la forma en que realizan los cĂĄlculos. La diferencia de estos cĂĄlculos en hardware cuĂĄntico, con respecto a la tecnologĂa clĂĄsica, es que ya no usan impulsos elĂŠctricos para representar los bits, ahora son ĂĄtomos o partĂculas sub atĂłmicas para ello.
2
Quantum Composer, IBM Quantum Experience
DivulgaciĂłn CientĂfica
3.5 Algoritmo cuĂĄntico para bĂşsqueda Otra aplicaciĂłn de la tecnologĂa cuĂĄntica es la bĂşsqueda de un registro en una base de datos desordenada. El problema de bĂşsqueda es particularmente interesante y complicado cuando no hay un Ăndice donde buscar. Por ejemplo, en un directorio telefĂłnico encontrar el nĂşmero de telĂŠfono de una persona es relativamente fĂĄcil si existe un Ăndice. Pero si el problema en cambio, consiste en hacer una bĂşsqueda del nombre de una persona a partir de su nĂşmero telefĂłnico, se tendrĂa que revisar registro por registro para encontrarlo. Si la cantidad de registros es đ?‘›, entonces la complejidad de la bĂşsqueda serĂa del orden de đ?‘›/2. La complejidad del algoritmo clĂĄsico para bĂşsqueda es de đ?‘›, mientras que la de Grover es de đ?‘› (Grover, 1996). Se muestra en la figura 3 el circuito cuĂĄntico realizado en el compositor cuĂĄntico para una bĂşsqueda de un nĂşmero de dos qubits por medio del algoritmo e Grover.
4. Importancia de la mĂĄquina cuĂĄntica de IBM El paso que ha dado IBM al poner una mĂĄquina cuĂĄntica de cinco qubits a disposiciĂłn de todo el mundo, representa un hecho histĂłrico, ya que por primera vez una empresa comparte los resultados de la investigaciĂłn en hardware para cĂłmputo cuĂĄntico, con los investigadores interesados en desarrollar algoritmos cuĂĄnticos.
Fig. 3. Circuito cuĂĄntico para el algoritmo de Grover
3
Quantum Composer, IBM Quantum Experience
3
Divulgación Científica
A pesar de que no se contaba hasta hace poco tiempo con una máquina cuántica para experimentación, la tecnología clásica para simular procesos en la teoría de la información cuántica, ha sido desarrollada correctamente, por lo que es posible realizar algoritmos eficaces que resuelvan problemas pequeños. Esta forma de trabajar en simuladores se presentó debido a que la tecnología en hardware disponible para este fin solo se encontraba en las grandes organizaciones como IBM o en universidades dentro de proyectos de investigación. Ahora con la posibilidad de utilizar un computador cuántico, los investigadores en esta área podrán desarrollar proyectos de cómputo cuántico, en el diseño de algoritmos, en una máquina cuántica real. Se debe resaltar que al utilizar una máquina cuántica, los qubits, son representaciones de los bits clásicos pero a través de partículas sub atómicas, lo que implica fenómenos como la superposición de estados, o en otras palabras, permite que el bit clásico se convierta en un qubit donde el 0 y el 1 coexisten simultáneamente. Esta característica proporciona un paralelismo natural que se puede aprovechar para hacer cálculos muy grandes que los computadores clásicos no podrían efectuar o se tardarían cientos de años en realizar. Para obtener un resultado utilizando qubits, se tiene que hacer la medición correspondiente, con lo que el sistema arrojaría una de múltiples opciones, dependiendo del algoritmo. La medición causa que el sistema de qubits en coherencia se destruya. Los cálculos que se pueden hacer simultáneamente con cinco qubits están en el orden de 2! , y aunque son pequeños se pueden utilizar para probar aspectos fundamentales de la computación cuántica como el entrelazamiento, la tele-portación, las compuertas cuánticas o inclusive el concepto de qubit. El problema para contar con máquinas cuánticas de más qubits consiste en hacer trabajar a todos estos de manera coordinada para que ejecuten los cálculos. Las partículas subatómicas utilizadas hasta ahora para hacer computación no pueden ser controladas por tiempos prolongados, es decir, no pueden mantener coherencia por mucho tiempo y este problema se complica cuando crece el número de qubits. Por otra parte, el alcance de una computadora cuántica para cálculos complejos es un tema que ha comenzado a inquietar a algunos sectores de la población en el mundo, ya que si
Divulgación Científica
bien es cierto que solo hay máquinas de cinco o siete qubits, los resultados son prometedores y se podría considerar que solo es cuestión de tiempo para que aumenten este número. Los resultados logrados hasta ahora por las empresas e investigadores que trabajan en el desarrollo del hardware para computadoras cuánticas, permiten vislumbrar un futuro promisorio en esta área de la computación. Pero el aumento del número de átomos o qubits, ¿qué implicaciones tiene? Un computador cuántico de doscientos qubits podría hacer cálculos muy grandes, considerando la totalidad del espacio de soluciones de un problema, es decir, podría representar todas las alternativas de respuestas de manera simultánea. Un algoritmo cuántico solo tiene que determinar la probabilidad de la respuesta correcta y seleccionar ésta de una enorme gama de respuestas. Con doscientos átomos se podrían hacer cálculos numéricos con cantidades de posibles respuestas mayores al número de átomos del universo.
5. Conclusiones El desarrollo de la tecnología cuántica, tanto en hardware como en software, ha permitido que hoy en día exista lo necesario para la creación de algoritmos que son probados a través de simuladores e inclusive por medio de computadoras cuánticas. La aparición de la máquina cuántica de IBM representa un avance enorme en las ciencias computacionales, pero también pertenecen a otras disciplinas como en la física, ingeniería y matemáticas, por lo que no debe pasar desapercibido este acontecimiento inclusive en otras áreas de conocimiento. El aprendizaje por parte de estudiantes que abordan estos temas en las aulas, ahora es posible con experimentación en el laboratorio de cómputo cuántico de IBM, desde la web. Los cambios que se producen en las partículas de la máquina cuántica al manipularla a través del compositor, son reales, es decir, se puede trabajar con compuertas que manipulan directamente las partículas. Fenómenos como la superposición, entrelazamiento y tele-portación pueden experimentarse en el computador cuántico, lo que significa que ahora contamos con un poderoso laboratorio para experimentos de software que anteriormente eran prácticamente imposibles de realizar fuera de la simulación.
Divulgación Científica
No solo el aprendizaje se verá beneficiado, sino la enseñanza por parte de profesores al incluir prácticas de desarrollo de algoritmos, experimentación con las compuertas cuánticas y su aplicación en los circuitos cuánticos, todo esto desde el sitio web del proyecto Quantum Experience de IBM. Los temas de investigación que pueden ser abordados por los investigadores en el área de software para cómputo cuántico, están relacionados directamente con los conceptos mencionados en párrafos anteriores; la superposición, entrelazamiento y tele-portación cuántica. Dentro del entrelazamiento, se requiere estudiar la forma de medir de éste, las posibilidades que tiene para las comunicaciones aprovechando la compartición de atributos de las partículas, ente otras. Las aplicaciones podrían abrir nuevas alternativas de análisis de datos en computación, física, química, medicina y otras donde se requiera un poder de cómputo considerable. Por ejemplo, el estudio de las partículas elementales en mecánica cuántica, las reacciones químicas, predicción del clima y fenómenos naturales como terremotos y tornados, análisis del código genético, comunicaciones y criptografía, entre muchas más. Por ahora el reto en el desarrollo de software cuántico se encuentra en la creación de nuevos algoritmos y en la aplicación de los ya existentes para la solución de nuevos problemas, principalmente en aquellos que toman un tiempo exponencial, de acuerdo al tamaño de los datos de entrada.
Referencias Aspect, Alain; Dalibard, Jean; Roger, Gérard. (1982). Experimental test of Bell's inequalities using time-varying analyzers. Physical review letters. vol. 49, no 25, p. 1804. Recuperado: http://www.drchinese.com/David/Aspect.pdf Bell, John Stewart. (1964). On the Einstein Podolsky Rosen paradox. Recuperado: https://cds.cern.ch/record/111654/files/vol1p195-200_001.pdf Clauser, John Francis. (2002). Early History of Bell's Theorem. Quantum [Un]speakables: From Bell to Quantum Information, Springer Berlin Heidelberg. pp. 61-98, doi="10.1007/978-3-662-05032-3_6. Einstein, Albert; Podolsky, Rosen; Rosen, Nathan. (1935), “Can Quantum-Mechanical Description of Physical Reality Be Considered Complete?” Physical Review, 47: 777–780
Divulgación Científica
Recuperado: http://journals.aps.org/pr/pdf/10.1103/PhysRev.47.777 Gisin, Nicolas. (2003). Quantum teleportation: principles and applications. Academic Training Lectures, CERN Geneva, Switzerland. Recuperado de: https://cds.cern.ch/record/688042?ln=es Grover, Lov Kumar. (1996). A fast quantum mechanical algorithm for database search. In Proceedings of the twenty-eighth annual ACM symposium on Theory of computing (STOC '96). ACM, New York, NY, USA, 212-219. DOI=http://dx.doi.org/10.1145/237814.237866 Feynman, Richard Phillips. (1999). Simulating physics with computers, pp. 133–53; reprinted from International Journal of Theoretical Physics 21, 467-99 Recuperado: https://people.eecs.berkeley.edu/~christos/classics/Feynman.pdf Fox, Charles. (2003). Quantum computing functions (QCF) for Matlab. Recuperado de http://www.robots.ox.ac.uk:5000/~parg/pubs/qcf.pdf IBM Quantum Experience, 2016. Quantum Composer. http://www.research.ibm.com/quantum/ Lai, Anna Chiara; Pedicini, Marco; Rognone, Silvia. (2016). Quantum Entanglement and the Bell matrix. Quantum Information Process. 15: 2923. doi:10.1007/s11128-016-1302-3 Nielsen, Michael Aaron; Chuang, Isaac L. (2000).Quantum Computation and Quantum Information, Cambridge University Press, Cambridge England. Nielsen, Michael Aaron. (1998). Quantum Information Theory. Ph.D. thesis. The University of New Mexico. Recuperado de: https://www.cse.msu.edu/~zhangh40/mth/0011036.pdf Ömer, Bernhard. (2005) Classical Concepts in Quantum Programming. International Journal of Theoretical Physics 44: 943. doi:10.1007/s10773-005-7071-x Shor, Peter. (1997). Polynomial-time Algorithms for Prime Factorisation and Discrete Logarithms on a Quantum Computer, SIAM J. Comp., Vol.26, p.1484. Sicard, Andrés R. (1999). Algunos elementos introductorios acerca de la computación cuántica. Memorias VII Encuentro ERM, Universidad de Antioquia, Medellín. Recuperado: http://www1.eafit.edu.co/asr/pubs/icq.pdf
Divulgación Científica
Perspectivas sociológicas, propuestas académicas para la educación actual. M. En C. Elizabeth Sánchez Vázquez1, Dr. Fernando Adolfo Salazar Vázquez, M. En Tic Judith Ruby Sánchez García, M. En G. Luis Gustavo Galeana Victoria elisanchez.upvm@gmail.com, aranfer3@gmail.com, judithrubysg@gmail.com gustavogaleana@gmail.com
1. Introducción. Comprender el comportamiento social ha sido una tarea explorada desde varias perspectivas, en distintos momentos se han marcado aspectos que proponen enfoques específicos desde los que se pueden entender las dinámicas sociales; las formas de relacionarse, las formas de producción. En un primer momento los europeos establecieron sus conclusiones sobre cuestiones como el orden social, las relaciones de trabajo y los sistemas de producción, sin embargo dichas manifestaciones partían de las percepciones de sus autores ya que no existían aún las metodologías necesarias para analizar en forma objetiva la realidad, de esta forma solo manifestaban sus vivencias personales incluso a través de la literatura. Con el paso del tiempo, los estudios toman más formalidad, se convierten en teorías y se desarrollan metodologías que permitirán argumentar y comprobar las hipótesis de sus autores, se aplican estudios cuantitativos en los que se resume de alguna forma el funcionamiento de la sociedad. En un segundo momento, el comportamiento social se analiza a través de la estructura, en esta corriente, disciplinas como la lingüística son protagonistas en el intento de explicar la existencia a partir del estudio de los signos en la vida social y así se explican determinadas pautas culturales. Otra perspectiva académica es el marxismo, esta corriente plantea que hay una división de clases en un sistema capitalista que domina ideológicamente a una clase dominada, donde la economía es el centro de la sociedad.
Divulgación Científica
2. Desarrollo. El cumulo de conocimiento no ha permitido tener una claridad sobre la dinámica social en el siglo XXI, incluso a veces es un obstáculo para la transformación social y se hace parte del aparato opresor, cuando el mundo académico impone una línea editorial que podría producir una falsa conciencia, (BOAVENTURA DE SOUSA, 2017) El objetivo del siguiente trabajo es mostrar el marco teórico de la sociología en primer término, para posteriormente, explorar el escenario educativo. Analizar el tema de la educación es una cuestión compleja pero no imposible cuando se conocen las opiniones de los expertos a partir de los textos que son resultado de un trabajo formal de investigación y análisis. Lo más complicado es enfrentar una realidad cruda que se vive pero no se reflexiona en el quehacer diario del docente, sobre todo cuando se vive en forma personal tanto la experiencia de la educación pública como de la privada . Algunos de los textos y autores que tomamos en cuenta en el siguiente texto, son: Paulo Freire y los aportes de una nueva educación de Gustavo Racovschik, La teoría de la educación en la encrucijada de Joaquín García Carrasco y Ángel García del Dujo, Análisis epistemológico del libro de Bourdieu La reproducción; Elementos para una teoría del sistema de enseñanza de Mariana Guadalupe Laverán y finalmente La globalización neoliberal y sus repercusiones en educación de Enrique Javier Díez Gutiérrez. Todos ellos abarcan una mirada crítica sobre temas relacionados con la educación, explican conceptos como el conocimiento, la enseñanza, el saber, la pedagogía; sin embargo, no son notas aisladas, la mayor parte de los textos llevan consigo una carga ideológica, en general los autores develan una realidad que permanece quieta ante nuestra mirada indiferente pero que se presenta para cambiar la perspectiva de quienes tienen un papel fundamental en el proceso educativo. Algunos de los textos revisados describen y exponen, pero otros autores también proponen
Divulgación Científica
y ante un escenario que pudiera parecer imposible, surgen posibilidades. Si bien la radiografía sobre la educación en un mundo global neoliberal no es de lo más positiva, los autores nos dejan sus propuestas que van desde ejemplos en los que se plantea una interacción social que lleve a formar una identidad de rescate de la educación en todas sus formas, hasta la propuesta de Freire de la pedagogía alternativa al poder. El análisis del tema es necesario y urgente en el contexto de descomposición que social que se vive en nuestro país pues el tema educativo lo trastoca todo. El esfuerzo del análisis ha llevado a autores como García Carrasco y García del Dujo a explorar sobre la encrucijada en la que se encuentra involucrada la educación; abarcando aquellas disciplinas que han abonado a la construcción de la teoría, al proceso de evolución cultural y a la interacción social involucrada en la práctica de la cultura en comunidades para formar una identidad. Para (JOAQUÍN, 2002) en la práctica de las aulas el proceso educativo se hace sinónimo de enseñanza-aprendizaje y la teoría mejora dicha práctica. Así las mejores prácticas se hacen en referencia a la teoría, de esta forma cobran legitimidad; la sociología y la psicología son las disciplinas que más han influido en la teoría de la educación. El fenómeno de la educación está ligado a la cultura, ese elemento que nos ubica entre los seres vivos y justifica nuestra excepcionalidad, como un cuerpo pensante; otra propiedad que caracteriza al hombre es la autopoiesis, ese proceso de autoconstrucción, autorregulación, autorreparación y autorreproducción de acuerdo a Maturana. (MATURANA, 1992). Desde estas interacciones se construye la experiencia en un ecosistema que da paso a el comportamiento de los humanos; luego de la acción, el ser humano crea contextos, relaciona lo vivido con el entorno, así acumula percepciones sensoriales y emocionales positivos y negativos; así va definiendo su identidad. La inteligencia social es el primer indicio cultural de la inteligencia aplicada a la toma de
Divulgación Científica
decisiones y a la formación de las comunidades de prácticas, la interacción social se hace básica para la formación del comportamiento humano. Por otra parte, situaciones de interacción influyen en la formación del ser humano, pero también aquellas situaciones de no interacción como lo pueden ser el abandono y la marginación pues todo genera un impacto en la formación, los significados por ejemplo. Dicha formación tiene presencia a lo largo de toda la vida incluso en escenarios que no son formales, hay organizaciones que retoman entre sus prácticas las mismas que los sistemas de enseñanza formal; la zona de construcción de conocimiento se desarrolla mientras se dan cambios en la identidad del sujeto y en las comunidades de práctica, el sujeto actúa en forma activa en comunidades de práctica, zona de conocimientos y mientras eso sucede se forma la identidad colectiva y singular. La identidad se refleja en la narrativa de lo que nos pasa. La propuesta es retomar los rasgos que compartimos como humanidad, una identidad formada entre la educación y la cultura podrían marcar una diferencia, vivir experiencias locales para generar reflexiones globales. Luego de reflexionar sobre la evolución cultural, la interacción social y las comunidades de práctica como ejes de la teoría de la educación, comprenderemos ahora desde una sintesis de Marina Guadalupe Laverán cómo se dan las acciones pedagogicas desde la mirada sociológica de Bourdieu en el sistema de enseñanza frances. La principal apreciación del autor de acuerdo con (LAVERÁN, 2014) es la trama oculta del poder aplicada en el sistema educativo francés y en general en los sistemas capitalistas que permite perpetuar y legitimar sus acciones sometiendo a los oprimidos, una forma de mantener convencida a la sociedad de una forma que ese estado se entienda como algo natural. Bajo estas apreciaciones, empieza a dilucidarse el poder del sistema capitalista, aunque también se comprende que el sistema educativo depende de un conjunto de factores entre los que destacan el contexto. La permanencia del poder se da a partir de que la clase dominante asegura la hegemonía para continuar con un control. Las evidencias de Bourdieu y Passeron tienen sentido cuando están apoyadas en estudios empíricos, es decir se ha observado la realidad y se ha analizado bajo la perspectiva sociológica.
Divulgación Científica
Frente al análisis sociológico de Bourdieu, se retoma a (JAVIER, 2010) para que en la misma lógica se aclare el papel del gobierno al diluir su responsabilidad y considerar a la educación como un servicio y dejar de considerarla como un derecho público. La labor técnica en la que se concentra la labor educativa permite una mutilación al dejar fuera a la comunidad educativa y ya no se da una participación activa. Desde esta perspectiva se refuerzan así el conformismo y la obediencia y eso no es muy positivo para una sociedad que quiera cambiar, como es el caso del actual contexto mexicano. En el texto referido, se plantea una realidad que aunque sea la Europea, se ubica lo mismo en cualquier continente del mundo pues cada uno de los rasgos considerados en el texto, se ha visto en México. El modelo neoliberal educativo ya no le apuesta a desarrollar una ciudadanía plena, ni a la participación real en la construcción de una sociedad más justa. En lo que se piensa es en ofrecer servicios educativos de calidad que garanticen la inserción de los egresados en el campo laboral. Cuando los gobiernos neoliberales van normalizando el sistema que permite dejar la responsabilidad de la educación a los padres de familia que deben elegir entre la oferta del mercado, así deja de considerarse un derecho público y el Estado diluye su responsabilidad. El autor refiere que en el sistema neoliberal se importan los métodos y técnicas gerenciales del mundo laboral al entorno educativo, siguiendo esta estrategia se introduce la gestión privada de los espacios educativos justificando que habrá una mejora y en los ejemplos que cita sobre Estados Unidos, Francia, Italia y España también se aprecia la realidad de la educación en México. El modelo neoliberal permite que los privilegiados rechacen la mezcla social cuando permiten que en sus espacios solo se eduquen los que son de la misma clase. El autor afirma que las condiciones de igualdad en la sociedad consisten en garantizar la elección
Divulgación Científica
individual del centro escolar que se prefiera, dándole a entender que se respeta un libre mercado; así el acceso a una buena escuela no es una opción para todos porque en realidad las oportunidades se ven limitadas por múltiples circunstancias, así a mayor poder adquisitivo, hay una mejor posibilidad de elección. Mientras tanto la clase obrera solo tiene la posibilidad de elegir escuelas cercanas, las clases altas se preocupan porque las escuelas garanticen el éxito laboral y que se logren los suficientes contactos sociales que contribuirán a dicho cumplido. Como lo vivimos en el contexto de México, el autor relata que la principal estrategia de las escuelas privadas es la de las relaciones públicas para atraer la mayor cantidad de estudiantes; se cuidan los resultados académicos para incitar a los padres de familia a inscribir a sus hijos y buscan aparecer en los primeros lugares de las encuestas que en el caso de nuestro país cuentan con el respaldo de publicaciones muy vendidas, como es el caso de la encuesta del Diario Reforma a través del suplemento Universitarios. Así los padres de familia buscan dichas referencias para elegir la escuela ideal para sus hijos; cuando se toman en cuenta las encuestas en el proceso de elección, se le está dando un peso importante a la eficacia de lo cuantificable, la cuestión cualitativa queda fuera de las referencias a la hora de tomar decisiones. Las minorías quedan marginados en escuelas de pocos recursos, de esta forma el sistema va configurando una recomposición del tipo de clases. En este nuevo sistema educativo se suprime la formación filosófica o humanística de esta forma la sociedad no cuestiona pues solo piensa en asegurar el futuro de los hijos en el mercado del empleo. En el mismo escenario el Estado se vale de estrategias que le lleven a privatizar la educación sin dificultades y utiliza campañas de desprestigio sobre la educación pública, eso lo vemos a menudo en nuestro país donde se el linchamiento mediático colabora en la disolución del Sindicato Nacional de Trabajadores de la Educación. El modelo neoliberal elimina los sindicatos para implantar su maquinaría libremente, justificando sus acciones en la profesionalización de los profesores para que sean más competitivos.
Divulgación Científica
(JAVIER, 2010) se refiere al fenómeno de la Mcdonalización cuando el neoliberalismo propone la gestión privada del servicio público educativo como un modelo de excelencia donde el proceso educativo debe ser una labor técnica de calidad, basada en procedimientos rígidos con una eficacia gestora que incluya la disminución de gastos. En este modelo la formación continua del profesor desaparece y la enseñanza es un asunto privado de consumidores que eligen de acuerdo a sus intereses, de acuerdo al mérito y la capacidad de los consumidores. De esta forma el Estado se libera de su responsabilidad social de ofrecer una escuela pública. Se asume pues, que el sistema educativo que prevalece a nivel mundial es una ofensiva neoliberal y se vive en todos los campos ya que se va dejando de lado la equidad para dar paso a la eficacia como la meta principal, hay una inversión ideológica de valores donde lo importante se sustituye por lo urgente, donde lo que importa es alcanzar buenos puestos laborales. Aunque la realidad de la educación se reflexiona sobre el contexto europeo, poniendo énfasis en el caso español, al final, se ilustra la realidad de nuestro país, se da un enfoque crítico sobre el sistema neoliberal en el que cada vez es más complicado que se den brotes de reacción social donde los ciudadanos cuestionen los hechos que le son impuestos. Finalmente el gobierno elude su responsabilidad y considera a la educación como un servicio, deja de hacerla valer como un derecho público. La labor técnica en la que se concentra la labor educativa permite una mutilación al dejar fuera a la comunidad educativa y ya no se da una participación activa. Justo cuando el panorama es tan complicado, se pueden retomar las propuestas que maneja (RASCOVSCHIK, 2003) desde el pensamiento de Paulo Freire, se trata de la búsqueda de una Pedagogía contestataria centrada en las formas organizativas populares, basado en una práctica social de producción de un saber más integro, más cercano a la realidad. Dicha
Divulgación Científica
propuesta implica el saber popular que permite la relación con la realidad en el seno de la sociedad opresora, resistencia, festividad, cultura. Dicha propuesta es clara al establecer un proceso pedagógico que implique al dialogo entre educadores y educandos donde ambas partes aporten distintos saberes que se complementen. El saber teórico que complemento el saber de los oprimidos, se entiende que no es necesario el conocimiento para llevar a cabo la práctica. En nuestro actual contexto es urgente llevar a la práctica la propuesta del autor a través de pensadores ya clásicos como Marx o Gramsci para construir una pedagogía liberadora. En la práctica hay que proponer teorías pero además acercar al disiente a generar cambios positivos en su entorno; si tomamos en cuenta que uno de los sistemas en crisis en nuestro país es el educativo, se hace necesario, razonar cada parte involucrada, esta lectura nos ha permitido reconocer que desde la esfera de la política se ejerce el poder tanto para transmitir un contenido ideológico que evite el cuestionamiento sobre los intereses del propio poder, como cuando se excluye o se margina a la población de los espacios educativos.
3. Conclusiones. La propuesta es llevar a la práctica una pedagogía y una política liberadoras a partir de la organización, donde el conocimiento lleve una visión integral de la sociedad para transformarla. Los docentes del siglo XXI deben retomar lo que se ha perdido en la búsqueda del sistema neoliberal por dominarlo todo, se debe buscar el espíritu humanista, las posibilidades tal y como lo marcan los teóricos sí funcionan pero solo si se practican. La educación debe contribuir no solo a que se gane la lucha por el mejor puesto laboral con un ambicioso sueldo, se debe regresar al origen, a buscar nuestra identidad a traves de la interacción social. Si retomamos el concepto de autopsiéis de Maturana, de acuerdo con (MORAES, 2001) la
Divulgación Científica
educación es, un proceso de transformación en la convivencia, donde el aprendiz se transforma junto con los profesores y con los demás compañeros con los cuales convive en su espacio educacional, tanto en lo que se refiere a las transformaciones en la dimensión explícita o consciente. Es trabajo de cada docente reflexionar y determinar cómo realiza dicho cambio en la interacción en su ámbito organizacional, formando una identidad solida para que los conocimientos que se compartan sean significativos, dejando de lado las tendencias neoliberales, haciendo sociedades más justas.
Referencias. LAVERÁN, M. G. (2014). Análisis epistemológico del libro de Bourdieu "La reproducción. Elementos para una teoría del sistema de enseñanza". CS.EDUC (29). JAVIER, D. G. (2010). La globalización neoliberal y sus repercusiones en educación. Revista electrónica interuniversitaria de formación del profesorado. JOAQUÍN, G. C. (2002). La teoría de la educación en la encrucijada. MATURANA, H. (1992). La objetividad. Un argumento para obligar. Santiago: Dolmen. MORAES, M. C. (2001). Educar y aprender en la biología del amor. From sentipensar: http://www.ub.edu/sentipensar/pdf/educar_y_aprender.pdf RASCOVSCHIK, G. (2003). Oaulo freire y los aportes a una nueva educación. Construyendo poder desde abajo.
Divulgación Científica
Lenguajes de programación más usados en ingeniería informática Diego García Jara1, Salvador Contreras Hernández2, Patricia Tzili Cruz3, Nancy Patricia Flores Azcanio4, Zulma Sánchez Estrada5.
Universidad Politécnica del Valle de México, Av. Universidad Politécnica esquina con Río de la Plata, col. Villa Esmeralda, Tultitlan Estado de México, 59700. México. dgjara@gmail.com1, salvador.contreras@gmail.com2, gustzili@hotmail.com3, patricia_azcanio@hotmail.com4, zul_zul_1@hotmail.com5
Resumen Uno de los principales retos al que se enfrenta el estudiante y futuro programador de las áreas de ingeniería informática o en la TIC´s es; en que quiere ser especialista y como elegir esa especialidad, como experto en informática que será. Sobre todo en el dominio de los lenguajes de programación, por lo que aquí le mostramos algunas sugerencias más solicitadas para su mejor desempeño. Palabras clave: Lenguajes, programación, computación, ingeniería.
Abstract One of the main challenges facing the student and future programmer in the areas of computer engineering or Tic's is; In which he wants to be a specialist and how to choose that specialty, as an it expert that will be. Especially in the domain of programming languages, so here are some more requested suggestions for your best performance. Key words: Languages, programming, computing, engineering
1. Introducción En ingeniería informática existe software que es preferencialmente privilegiado por los programadores, para el desarrollo de algoritmos, por su versatilidad y lógica de programación dependiendo de la aplicación o solución que busquen, bajo las necesidades de sus proyectos o de las empresas que los contratan principalmente en la iniciativa privada (IP) o bien en dependencias de gobierno, para tales tareas hoy en día se cuenta con una gran variedad de posibilidades en el dominio de los lenguajes computacionales, para satisfacer todos los gustos y necesidades de quien lo requiera, como muestra hablaremos de los lenguajes más versátiles tanto en la parte de comercialización de productos y procesos
Divulgación Científica
como su aplicación en la logística de las empresas, ya se trate de distribución u optimización de inventarios, en la industria para el control de sus líneas de producción, o como es requerido también en la docencia, en las ciencias computacionales afines (salud, aeroespacial, financiera-contable, bancaria, comercial, etc.) o en la investigación pura, previendo implementar mayor seguridad en la recepción y/o transmisión de datos o de información que viaja por la red. WWW (World Wide Web). El artículo pretende analizar el mejor ranking de estos productos para una mejor eficiencia y eficacia del programador ante la gran responsabilidad que recae actualmente en los programadores y su participación entusiasta y creativa ante los nuevos retos que se van presentando día a día en forma local o en la web. Sin descuidar desde luego actividades como el desarrollo y arquitectura de una red, de la conectividad alámbrica e inalámbrica de dispositivos, de la comunicación informática al interior y exterior de las empresas, de la seguridad de la información y protección con los equipos y de esta manera se tenga éxito en todas sus tareas cotidianas encomendadas por lo que deberá tener dominio en dos o más lenguajes de programación y bases muy sólidas con el hardware.
2. PHP
Denominado como el lenguaje del Internet, su desarrollo fue creado pensando en aplicarlo
Divulgación Científica
como funciones dinámicas de la Web, donde la información es almacenada en un servidor como una base de datos, su código fuente no es visible, entre cliente y navegador ya que el servidor es el que se encargue de que trabaje con el código fuente traduciéndolo al lenguaje HTML (Hyper Text Markup Language), enviando el resultado al navegador, lo que permite que el lenguaje PHP (Hipertext Preprocessor), creado por Zend Technologies en 1995, aun cuando es un software libre, tiene la facilidad de comunicarse con la mayoría de los servidores de la Web, interactuando con los diferentes sistemas operativos y con diversas plataformas de forma gratuita y libre, contando en su haber con una vasta librería para diferentes gustos y aplicaciones, todo esto hace que el lenguaje de programación en PHP sea ágil seguro y confiable. Otra de sus ventajas es que permite la conectividad con la mayoría de las bases de datos que se utilizan hoy en día como MySQL y SQL.
3.C#
C# es un lenguaje orientado a objetos muy útil para crear video juegos y tiene similitudes en su estructura con otros lenguajes de programación. El lenguaje de programación C# fue creado por el danés Anders Hejlsberg quien diseño también los lenguajes Turbo Pascal y Delphi. Con este nuevo lenguaje de programación se tiene la intensión de mejorar con mucho, respecto a sus antecesores de donde proviene el C,
Divulgación Científica
y el C++. Para aprenderlo y practicarlo existen varios dominios en la web de acceso libre como https://mva.microsoft.com, con un buen nivel. C# Hoy en día va ganando adeptos por su gran versatilidad y adaptabilidad a las múltiples plataformas y características con que cuenta, por ejemplo: Compatibilidad entre COM y plataforma para integración de código existente. Compatibilidad con conceptos de metadatos extensibles. Amplitud y robustez, gracias a la recolección de elementos no utilizados, generando liberación de espacio y memoria, es conveniente por la seguridad en el tratamiento de tipos. Implementar seguridad por medio de mecanismos de confianza intrínsecos de código. C# es un lenguaje robusto y seguro en el tratamiento de tipos, que permite a los programadores crear una gran variedad de aplicaciones. Además, es posible interaccionar con otros lenguajes y/o entre plataformas distintas, y con datos heredados. Plena adaptabilidad por medio de servicios COM+ 1.0 y .NET Framework con un acceso limitado de uso en bibliotecas o librerias. Amplia compatibilidad con XML para interacción con componentes basados en tecnología Web. Gran capacidad de control con diferentes versiones y actualizaciones para facilitar la administración y la implementación de algoritmos complejos. Con el C# se ha tratado de incorporar conjuntamente las ventajas o mejoras que tiene el lenguaje JAVA. De esta manera se han incorporado las ventajas de C, y C++, aprovechando la productividad que posee de manera nativa el lenguaje JAVA por lo que se le denomino C#. Las características del lenguaje de programación C# en comparación con otros son: Su código puede tratarse íntegramente como un objeto.
Divulgación Científica
Su sintaxis algorítmica que es muy similar a la del JAVA. Es un lenguaje orientado a objetos y a componentes. Con C# se tiene la productividad del Visual Basic con el poder y la flexibilidad del C++ opinan algunos expertos. Se ahorra tiempo de programación ya que tiene una librería muy completa de clases. C# forma parte de una plataforma .NET, muy bien estructurada teniendo una interfaz de programación de aplicaciones. C# es un lenguaje independiente que originariamente se creó para producir programas sobre plataforma .NET. Anteriormente el Visual Basic era uno de los lenguajes de programación que se encargaban de desarrollar estas aplicaciones para la plataforma, porque El Visual Basic es un lenguaje orientado a objetos pero poco robusto, entonces se quiso crear un lenguaje de fácil comprensión para los nuevos programadores. Por lo que C# es un lenguaje ampliamente recomendable, porque permite desarrollar aplicaciones de escritorio así como aplicaciones de web.
4. Python
Es un lenguaje que nace en los noventas pero que se ha ido modernizando, es muy fácil su comprensión pero lo que tiene en contra es que no es muy famoso como otros lenguajes de programación, siendo un lenguaje muy accesible y muy didáctico. Es un lenguaje orientado a objetos su sintaxis en su código muy sencillo y limpio, recomendable si te inicias en el mundo de la programación, una de sus cualidades es que es muy amigable, es multiplataforma, Linux, Windows, Mac o iOS.
Divulgación Científica
Python es un lenguaje de programación poderoso y fácil de aprender. Cuenta con estructuras de datos eficientes y de alto nivel y un enfoque simple pero efectivo a la programación orientada a objetos. La forma sencilla en la sintaxis de Python y su “tipado” dinámico, junto con su naturaleza interpretativa, hacen de éste un lenguaje ideal para desarrolladores, sea un buen principio, si te inicias en la programación y buscas rápidez de aplicaciones en diversas áreas y sobre la mayoría de las plataformas. El intérprete de Python cuenta con una extensa biblioteca estándar están disponibles, como software libre en forma binaria y de código fuente para las principales plataformas desde el sitio web de Python, puedes visitar su sitio https://www.python.org/, y proveerte de programas y herramientas con documentación adicional. El intérprete de Python puede fácilmente interrelacionarse con nuevas funcionalidades y tipos de datos implementados en C o C++. Python también puede usarse como un lenguaje de extensiones para aplicaciones personalizables adaptables a desarrollos de la web. Contiene extensiones que se suscriben o integran al intérprete de Python con ayuda de la referencia de la API Python/C. Se cuenta también numerosa bibliografía relacionada con Python que trata temas en profundidad.
5.Java
Divulgación Científica
Que no decir del ya mundialmente conocido JAVA. Es una muy buena opción para iniciarse en los ámbitos de la programación la compañía que lo adquirió Oracle ® se ha preocupado de irlo actualizando cada versión nueva que saca al mercado, muchas empresas lo solicitan mucho sobre todo por sus aplicaciones de forma nativa, actualmente para android, para el desarrollo de apps, de los móviles, aunque es muy amplio tiene la ventaja de contar con muchas librerías para aplicaciones, muy versátiles, ahora con los nuevos dispositivos de comunicación. El lenguaje de programación JAVA fue originalmente desarrollado por James Gosling de Sun Microsystems, la que posteriormente fue adquirida por la compañía Oracle
y
publicado en 1995 como un componente fundamental de la plataforma Java de Sun Microsystems. Su sintaxis deriva en gran medida de C y C++, pero tiene menos utilidades de bajo nivel que cualquiera de ellos. El lenguaje JAVA se creó con los siguientes objetivos principales: Usar el paradigma de la programación orientada a objetos. Permitir la ejecución de un mismo programa en múltiples sistemas operativos. Incluir por defecto soporte para trabajo en red. Diseño que permitiera ejecutar código en sistemas remotos de forma segura. Ser amigable de fácil uso y tomar lo mejor de otros lenguajes orientados a objetos, como C++. JAVA como lenguaje de programación de última generación, orientado a objetos, se refiere a un método de programación o bien al diseño del lenguaje. Aunque existen varias interpretaciones para los lenguajes orientados a objetos, una primera idea es diseñar el software de forma que los distintos tipos de datos que utiliza estén unidos a sus operaciones. Así, los datos y el código se combinan en entidades llamadas objetos. Un objeto puede verse como un paquete que contiene la información como tal, pero analizando su comportamiento en el código y el estado de los datos. El principio es separar todo aquello que cambia, de las cosas que permanecen inalterables. Suele ocurrir que al cambiar una estructura de datos implica un cambio en el código que opera sobre los mismos y viceversa. Esta separación en objetos coherentes e independientes, del resto del cuerpo del
Divulgación Científica
algoritmo, ofrece una base más estable para el diseño de un sistema o software. El objetivo es hacer que grandes proyectos sean fáciles de gestionar. Por otro lado JAVA es una de las grandes promesas de la programación orientada a objetos por la creación de entidades más genéricas “objetos” que permitan la reutilización del software entre proyectos, una de las premisas fundamentales de la Ingeniería del Software. Un objeto genérico “cliente”, por ejemplo, debería en teoría tener el mismo comportamiento en diferentes proyectos, sobre todo cuando estos tienen similitudes, algo que suele suceder en las organizaciones. En este sentido, los objetos podrían verse como piezas reutilizables que pueden emplearse en múltiples proyectos distintos, potencializando así a la industria del software a construir proyectos de mayor envergadura empleando componentes ya existentes y de comprobada calidad; conduciendo esto finalmente a una reducción sustancial de tiempo en su desarrollo, siendo éste un resultado óptimo. Java es un lenguaje orientado a objetos desarrollado por Sun Microsystems simplificando algunas cosas de C++ y añadiendo otras, y que se utiliza tanto para realizar aplicaciones web como aplicaciones de escritorio.
6. Swift
Es un lenguaje de programación pensado para Apple, y sobre todo para los nuevos programadores que van iniciando sus experiencias para diferentes plataformas que son muy
Divulgación Científica
competitivas actualmente porque se están encaminando sobre todo para que interactúen con toda la gama que ofrece la marca de la manzanita, es decir plataformas Mac ios, ipod´s iphone´s, iphad´s, etc., ahora para los amantes del diseño gráfico, con plataformas Mac ios, de código abierto, que te es útil para poder compartir con otras plataformas como con Linux o bien en un futuro se pretende compartir con plataformas como Microsoft, por lo es muy recomendable si te inicias en estos menesteres de la programación sería bueno que tomaras algunos cursos de iniciación en este lenguaje como una alternativa muy rentable ya que no hay muchos programadores en esta rama y existe poca competencia al respecto, es necesario contar con una Mac de escritorio una portátil o si lo estudias y lo pones en práctica, este lenguaje de programación en alguna institución, deberá contar con un buen laboratorio con estas computadoras ya que cada día toma más fuerza este lenguaje de programación para la edición de revistas digitales elaboración de películas y documentales científicos abocados con otras compañías que ya tienen un mercado muy bien identificado como pixar, etc.
7. C
Un núcleo del lenguaje simple, con funcionalidades añadidas importantes, como funciones matemáticas y de manejo de archivos, proporcionadas por bibliotecas. Es un lenguaje muy flexible que permite programar con múltiples estilos. Uno de los más empleados es el estructurado "no llevado al extremo" (permitiendo ciertas licencias de
Divulgación Científica
ruptura). Un sistema de tipos que impide operaciones sin sentido. Usa un lenguaje de preprocesado, el preprocesador de C, para tareas como definir macros e incluir múltiples archivos de código fuente. Acceso a memoria de bajo nivel mediante el uso de punteros. Interrupciones al procesador con uniones. Un conjunto reducido de palabras clave. Por defecto, el paso de parámetros a una función se realiza por valor. El paso por referencia se consigue pasando explícitamente a las funciones las direcciones de memoria de dichos parámetros. Punteros a funciones y variables estáticas, que permiten una forma rudimentaria de encapsulado y polimorfismo. Tipos de datos agregados (struct) que permiten que datos relacionados (como un empleado, que tiene un id, un nombre y un salario) se combinen y se manipulen como un todo (en una única variable "empleado"). 8.C++
Uno de los Lenguajes más versátiles aunque ya tiene sus años en el mercado laboral sigue estando vigente, creado en los 70-80’s se ha ido reinventando por la gran utilidad en la
Divulgación Científica
lógica de programación que se adapta a cualquier tarea en lo que se quiera aplicar. El lenguaje C es un lenguaje de propósito general desarrollado en los laboratorios Bell en 1972. Es de los primeros lenguajes orientado a objetos; es decir que usa los objetos en sus interacciones, para diseñar aplicaciones y programas informáticos. Está basado en varias técnicas, incluyendo herencia, cohesión, abstracción, polimorfismo, acoplamiento y encapsulamiento. http://es.wikipedia.org/wiki/Orientado_a_objetos Posteriormente ANSI desarrolla C++ es un lenguaje de programación diseñado a mediados de los 80’s por Bjarne Stroustrup. Presentó su primer avance llamándolo lenguaje C with clases. En 1983/84 se rediseñó este lenguaje, pasando a llamarse C++, Su logo sugiere el operador plus, o incremento de C, ++, para indicar que es una evolución e innovación de mejora. Tras pequeñas afinaciones, en 1985 se publicó el libro de Bjarne Stroustrup, (1985). The C++ Programming Language). Como una buena opción surge la Programación Orientada a Objetos (POO), porque se deseaba ser más versátil y productivo en proyectos y desarrollos en la web, para resolver estos problemas. La POO toma las mejores ideas incorporadas a la programación estructurada y las combina con nuevos y potentes conceptos que permiten organizar los programas en una forma más efectiva e interacción con múltiples plataformas. En los años 70´s-80´s, nace Smalltalk Diseñado por Alan Curtis Kay , Dan Ingalls , Adele Gol, quienes trabajaron para Xerox PARC con un lenguaje orientado a objetos puro. En la década de los 80 aparecen lenguajes híbridos orientados a procedimientos y a objetos como C++. C++ nació como una extensión del lenguaje C, para unificar la eficiencia del lenguaje C con las ventajas del modelo orientado a objetos. Los primeros pasos se producen al inicio de los 80´s hacia C++ . Siendo, C++ compatible con C no tiene inconveniente de hacer uso de las herramientas que posee C, es decir, todo lo que puede hacerse en C también se puede hacer en C++, por lo tanto, cualquier código C puede tratarse con el mismo compilador de C++. Por esta razón, un gran porcentaje de usuarios de C++ lo emplean simplemente como un C más potente,
Divulgación Científica
aprovechando muchas de sus cualidades inclusive en sus nuevas versiones. Los expertos en programación orientada a objetos opinan que C++ ha quedado como un lenguaje hibrido ya se puede programar con la metodología tradicional. El avance de C++ ha continuado con la aparición e innovación de lenguajes como Java y C#. Aplicaciones creadas en Lenguaje C++ Entre las que cabe mencionar. MatLab® The Mathworks™ AutoCAD Unix Office Mac Facebook Youtube Google Entre otros … 9. Net Beans
NetBeans comenzó como un proyecto estudiantil en Republica Checa (originalmente llamado Xelfi), en 1996 bajo la tutoría de la Facultad de Matemáticas y Física en la Universidad Carolina en Praga. La meta era escribir un entorno de desarrollo integrado (IDE) para Java parecida a la de Delphi.
Divulgación Científica
NetBeans se refiere a una plataforma para el desarrollo de aplicaciones de escritorio usando Java y a un Entorno integrado de desarrollo (IDE) desarrollado usando la Plataforma NetBeans. La plataforma NetBeans permite que las aplicaciones sean desarrolladas a partir de un conjunto de componentes de software llamados módulos. Un módulo es un archivo Java que contiene clases de java escritas para interactuar con las APIs de NetBeans y un archivo especial (manifest file) que lo identifica como módulo. Las aplicaciones construidas a partir de módulos pueden ser extendidas agregándole nuevos módulos. Debido a que los módulos pueden ser desarrollados independientemente, las aplicaciones basadas en la plataforma NetBeans pueden ser extendidas fácilmente por otros desarrolladores de software. NetBeans es un proyecto de código abierto de gran éxito con una gran base de usuarios, una comunidad en constante crecimiento, en todo el mundo. Sun MicroSystems fundó el proyecto de código abierto NetBeans en junio 2000 y continúa siendo el patrocinador principal de los proyectos con más potencial a futuro.
Ventajas Lenguaje Multi-plataforma: El código que es escrito en java es leído por un interprete, por lo que su programa andará en cualquier plataforma. Manejo automático de la memoria. para programas los que vienen de C/C++. El manejo de la memoria se hace automáticamente y utilizando el garbage collector (colector de basura). Es de acceso libre Es utilizado en aplicaciones web dinámicas. Se pueden realizar aplicaciones de servidor a servidor para foros en línea, control de almacenes, encuestas, procesamiento de formularios HTML y mucho más. Desventajas Es lento en su ejecución de aplicaciones, aunque ha venido mejorado. Requiere intérprete.
Divulgación Científica
Algunas implementaciones y librerías pueden tener un código, más especializado. Si se realiza un programa en java no muy bien desarrollado, puede resultar muy lento. Alguna desventaja adicional es que algunas herramientas no incluidas en su desarrollo, tienen un costo adicional
10. Conclusiones De forma resumida podemos ver la evolución de los lenguajes de programación: Los primeros programas se crearon mediante conmutadores. El lenguaje utilizado era el lenguaje máquina. Sólo era aplicable a pequeños programas. El lenguaje ensamblador apareció para evitar programas usando cadenas de ceros y unos. En los años 50 aparece el primer lenguaje de alto nivel denominado FORTRAN. Permite la construcción de programas largos, no obstante, se corría el peligro de crear programas difícilmente legibles. Para evitar este problema, en los años 60 y 70 aparecen los lenguajes estructurados C, Pascal, Algol. Están basados en estructuras de control bien definidas, bloques de código, la ausencia de la instrucción GOTO, y subrutinas independientes que soportan recursividad y variables locales. Aunque la programación estructurada nos ha llevado a excelentes resultados, cuando se ha aplicado a problemas complejos, los resultados son menos satisfactorios. La programación orientada a objetos ha rebasado las expectativas esperadas hasta el día de hoy, pero recordemos que la informática sigue evolucionando de manera exponencial y su límite no lo conocemos porque esto depende de la creatividad del programador en turno.
Si este artículo te fue útil y de tu agrado, no olvides enviarnos tus comentarios y sugerencias a mi correo. dgjara@gmail.com o a los otros correos que aparecen arriba. Superándonos como comunidad UPVM - IIN
Divulgación Científica
Referencias Baring, M. (1924). C. 1st ed. Garden City, N.Y.: Doubleday, Page. 35-78 Nandu, S. and Turtschi, A. (2002). C#. 1st ed. Rockland, Mass: Syngress Publishing, Inc. Salvador C. Hernández (2011). PHP 6. 1st ed. ISBN: 978-607-00-1306-5 Schildt, H., Pappas, C., & Murray, W. (1994). Programming fundamentals (1st ed.). Berkeley, Calif.: Osborne. Sun Microsystems, Enterprise Edition. (2001) (1st ed.). Boston [Mass.]. Swift, G. (2011). Swift. 1st ed. [Place of publication not identified]: Gale Ecco, U S Supreme C. Welling, L. and Thomson, L. (n.d.). PHP and MySQL web development. 1st ed. Zelle, J. (2004). Python programming. 1st ed. Wilsonville: Franklin, Beedle & Associates. Aspect, Alain; Dalibard, Jean; Roger, Gérard. (1982). Experimental test of Bell's inequalities using time-varying analyzers. Physical review letters. vol. 49, no 25, p. 1804. Recuperado: http://www.drchinese.com/David/Aspect.pdf
Divulgación Científica
Identidad y reputación online para docentes de Universidades Públicas del estado de México Galeana Victoria Luis Gustavo 1 Sánchez García Judith Ruby, García león Lizbeth, Diego García Jara Universidad Politécnica del Valle de México, Av. Universidad Politécnica esquina con Río de la Plata, col. Villa Esmeralda, Tultitlan Estado de México, 59700. México. gustavogaleana@hotmail.com judithrubysg@gmail.com lizbeth lizbethgarcial@hotmail.com dgjara@gmail.com
1. Introducción El campo de la Tecnología de Información en el mundo actual avanza año con año y cuando analizamos todas las tendencias que surgen en la sociedad descubrimos que se están generando cambios profundos en la manera de aprender cosas nuevas, gracias a las nuevas plataformas y servicios tecnológicos están surgiendo nuevas metodologías de la enseñanza que aparecen y que toman como base principal el uso de éstas herramientas. Con el proyecto NeoAula, se crea todo un ecosistema de aprendizaje de fácil acceso, los estudiantes pueden tomar éste conjunto de recursos didácticos y servicios como base para obtener todo un conocimiento general de un tema, además de ofrecer cursos y capacitación en línea o recursos que lo ayudan a iniciar la búsqueda de nuevos conocimientos. Otra ventaja, es la de poder difundir el trabajo realizado en clase a un público global especifico ayudando así a proyectar la marca personal en Internet de un docente. En éste escrito se pretenden describir los objetivos del proyecto NeoAula y por qué es un escaparate para que un profesor pueda construir una reputación en línea.
2. Problemática y contexto general Los docentes en Universidades Públicas en el Estado de México se desenvuelven en un entorno donde cada vez son más los casos y escándalos por parte de la prensa relacionados a la corrupción y malos manejos de recursos públicos, los resultados en materia de investigación tienen una tendencia a la baja y se empiezan a notar serias afectaciones en la imagen y reputación de los docentes en un entorno dominado por las redes sociales y cierto descontento social. Los profesores hoy en día deben adoptar nuevas estrategias que les permitan diferenciar el trabajo docente y la actividad académica de las tendencias por parte de administrativos y responsables de áreas cuya alineación a intereses políticos y de resultados estadísticos han puesto en duda la legitimidad de los docentes así como la calidad en la investigación que siempre debe ir alineada a sólo cubrir necesidades internas. La Web 2.0 ofrece una serie de herramientas que pueden ser empleadas de forma
Divulgación Científica
estratégica para difundir el trabajo académico realizado día con día, el Social media, es un poderoso conjunto de herramientas que puede brindar una alineación en el perfil digital y profesional de un docente. En el año 2013, en la Universidad Politécnica del Valle de México se desarrolló una propuesta basada en una aplicación de Edublogs en conjunto con herramientas para publicar recursos digitales que pudieran ser consultados por estudiantes. Hoy en día la plataforma denominada NeoAula se ha consolidado como un instrumento útil entre los estudiantes de la Universidad Politécnica del Valle de México siendo una fuente de consulta de información y de capacitación online.
3. Resultados del Proyecto NeoAula durante enero y mayo de 2017. En base a la información mostrada en la herramienta wordpress.com, NeoAula muestra el siguiente esquema de visitas generales (Figura 1. Reporte de Visitas en Mayo de 2017). Se puede observar que varios países de habla hispana están visualizando los contenidos del sitio, en España se ha tenido un importante incremento de visitas a comparación del año anterior y en América Latina se cubre la mayoría de los países. Se observa también que en Estados Unidos también se están registrando visitas constantes. En la figura 2 (Figura 2. Resumen de todos los tiempos (2014 a 2017) se puede observar que la cantidad de visitas al día de hoy es de 28,897 en un sitio que hasta el momento cuenta con 95 publicaciones desde que fue creada. Los temas más consultados por los estudiantes son los referentes a la capacitación de especialistas en redes de computadoras, programación y desarrollo de Vídeo Juegos así como todas aquellas que tienen que ver con la formación profesional. Uno de los recursos digitales más empleados es la Infografía por la simplicidad que representa el hecho de difundir información siendo la cantidad de publicaciones con más clics.
4. Interpretación de los resultados en un contexto globalizado El hecho que el sitio sea visitado por un considerable número de internautas a nivel mundial, indica que existe un público que quiere ver contenidos útiles que puedan servir para el aprendizaje y la formación, además que es una oportunidad de impulsar contenidos desarrollados por los profesores investigadores de la Universidad Politécnica del Valle de México. Con ésta información se tiene elementos clave para determinar la producción de contenidos en el idioma inglés que sirvan para poder llegar a otros países como Canadá y Estados Unidos y tal vez la Unión Europea, NeoAula está funcionando como un escaparate de recursos y aportaciones didácticas para quienes estudian temas relacionados a la Tecnología de Información
Divulgación Científica
Hay que considerar que en los países de habla hispana en España y Colombia se tiene un alto índice de participación en temas relacionados a la Educación a Distancia y nuevas tendencias de aprendizaje basado en la Web 2.0 mientras que en México no existen propuestas similares que hayan aparecido en alguna Universidad pública. Existe una crisis en las Universidades Publicas del Estado de México, actualmente existen serias acusaciones por parte de medios de Información en el que se aseguran actos de corrupción y desvío de recursos por parte de las gestiones gubernamentales, la docencia siempre ha estado en una postura independiente y de manera interna existe una división entre el trabajo académico y la gestión pública. Ante tal situación, es importante que los profesores de Universidades Públicas aproveches las herramientas que ofrece la tecnología de información para difundir su trabajo académico, para mostrar a otros países que en México existe la calidad pese a la tendencia política que existe dentro de las Universidades. (Fuente. Corrupción en Universidades Públicas, http://www.jornada.unam.mx/2017/02/27/opinion/020a2pol) La propuesta es ofrecer cursos mediante la plataforma NeoAula, ofrecer contenidos propios que impulsen el aprendizaje además de seguir promoviendo temas de formación y trabajos académicos de calidad que puedan ser vistos por otros países. El proyecto pretende en ésta nueva fase promover el trabajo que estudiantes y docentes realizan en sus aulas de clase así como los proyectos que ayudan a las instituciones a demostrar que se está trabajando de manera constante, impulsando con ello la reputación en línea o marca personal que hoy en día está afectando de manera considerable.
Divulgación Científica
Divulgación Científica
Figura 1. Reporte de Visitas en Mayo de 2017
Figura 2. Resumen de todos los tiempos (2014 a 2017)
Referencias La Evaluación del Desempeño Docente en la Universidad, Mario Rueda Beltrán, Instituto de Investigaciones Sobre la Universidad y la Educación. Universidad Nacional Autónoma de México. Centro Cultural Universitario, Junio de 2008. Revisión Nacional de Investigación y Desarrollo Educativo, Reporte de los Examinadores Sobre México, OCDE, 2004 Corrupción en Universidades Publicas, Iván Restrepo, Diario la Jornada http://www.jornada.unam.mx/2017/02/27/opinion/020a2pol Universidades en el Triangulo de la Corrupción, Ana Lilia Pérez, NW Noticias http://nwnoticias.com/#!/noticias/universidades-en-el-triangulo-de-la-corrupcion Universidades Simulan Contratos Daño al erario por 831 Millones, Tania Rosas, Excelsior http://www.excelsior.com.mx/nacional/2017/02/26/1148703