u-GOB 009

Page 1

Núm.

09 2016

09

La Marea

Datos

de

no r e i b o eG d s e l a ort rto P e , i s b o A t Da erno i b 27 o G y les de a t r o p e d Ranking estatal 2016 o gobiern

18

idades y n u t r o p O

18

0008

M.N. $95.00 U.S.D. 8.00

tos Mettaaddae la seguridad

secre a m r a l E

+Ugobe

U.GeOBe

U_GeOBe

Código espaqueti

agosto-septiembre 2016

nducida i a i c n e ina ranspar t y s érica lat o m t a a a d r r a sp Hipe desafío


The rapid pace of technological change is reshaping global business and causing upheaval to Mexico’s established industries, including finance, banking, telecommunications and manufacturing. Join editors of The Economist, senior business executives, policymakers and leading thinkers to explore the opportunities presented by a more disruption-friendly Mexico, with an emphasis on how talent, technology and government transparency are needed to usher Mexico into a more connected era.

15%

off current rate with code UGOB15

Register today. mexico.economist.com event-tickets@economist.com 212.641.9834

Hear from the experts, including:

MARCO ANTONIO DEL PRETE Secretary for sustainable development Querétaro

ILDEFONSO GUAJARDO VILLARREAL Mexican secretary of the economy

TODD HARBAUGH Chief operating officer Walmart Mexico and Central America

ROBERTA JACOBSON US ambassador to Mexico

MEXICO SUMMIT DISRUPTION ACROSS BORDERS SEPTEMBER 8TH 2016| MEXICO CITY

Join the conversation @EconomistEvents #MexicoSummit Platinum sponsors

Supporting association

PR agency


Editorial

Nuestra sociedad produce datos. El lugar común es decir que, como nunca en la historia de la humanidad, es verdad que casi todas las acciones de la persona conectada, aquella que tiene algún dispositivo de telecomunicaciones o cómputo, deja en cualquier actividad una estela de datos que son al menos más visibles y aptos para procesar que en cualquier otra etapa de la civilización humana. La datificación de los productos es evidente, hoy en día videos, música, imágenes e incluso sensaciones táctiles pueden ser transformadas en el lenguaje binario para convertirse en elementos transportables, analizables y procesables. De la misma forma en como las personas han accedido a participar en todas las etapas de la vida de los datos, también las organizaciones públicas y privadas recopilan, procesan, analizan, transmiten y almacenan datos de manera que dan flujo a la información; sin embargo, la escala en la cual trabaja la administración pública hace que su labor dé origen o manipule caudales de elementos binarios en una dimensión que sólo algunas organizaciones privadas pueden competir, y a pesar de ello una vez que los datos han cumplido su labor primaria en estas organizaciones gubernamentales, su destino es el almacenamiento de largo plazo sin capacidad de una segunda fase de explotación. Son producto derivado, pero hay valor en ellos, incluso más allá de la utilidad gubernamental. Los datos generados como resultado de la labor primaria del gobierno, esos que surgen después de la recopilación o procesamiento de elementos que requiere el gobierno en su interacción con el ciudadano o que se producen a partir de la gestión interna de la administración pública, carecen de valor inmediato para las mismas organizaciones; sin embargo, por razones evidentes de rendición de cuentas, los datos deben almacenarse por plazos largos como evidencia de la actividad de las agencias gubernamentales. Este caudal de datos ocasiona que poco a poco se deban usar nuevas palabras para denominar las grandes necesidades de almacenamiento. Hoy hablamos de terabytes y petabytes para indicar números que escapan a la dimensión humana. La marea de datos nos ha alcanzado y, más allá de verlo como un problema de magnitud de almacenamiento, el gobierno tiene la posibilidad de encontrar relaciones, comportamientos y características a través del análisis de esos cúmulos de datos para transformarlos en información. Estamos en la orilla del fenómeno, prácticas que se comienzan a desplegar como el internet de las cosas, que harán más grande este panorama y mayor el reto. Es tiempo de encontrar cauces que nos permitan desfogar esta marea.

u_GeOBe

Carlos F. Castañeda Girón

Director


U-GeOBe es una Unidad de Negocio de Competitive Press, S.A. de C.V. Directora General LIC. MARCELA GASCA SERRANO marcela.gasca@grupogasca.com.mx @Marcela_gasca Consejo Editorial CONSTANZA GOMEZ-MONT ANTONIO MARTÍNEZ VELÁZQUEZ LEÓN FELIPE SÁNCHEZ JOSÉ ANTONIO GONZÁLEZ DE LEÓN Director CARLOS F. CASTAÑEDA GIRÓN carlos@u-gob.com @Karlman Director de Tecnología EMILIO SALDAÑA QUIÑONES @Pizu Empresa Asociada ALTERNATIVA DIGITAL, S.A. DE C.V. Coordinadora de Ventas y Distribuidores NAYELI CORTÉS ZAVALA móvil: (55) 55-6964-1797 tmk14@grupogasca.com.mx distribuidores@grupogasca.com.mx Venta de Espacios Publicitarios ÁNGELES NAVA Tel.: (55) 5281-4622 móvil: (55) 55-4490-5537 ventas@u-gob.com Servicio al Cliente RICARDO GONZÁLEZ QUINTERO móvil: (55) 55-6964-1582 atencionaclientes@grupogasca.com.mx Producción Editorial FELIPE ÁVILA REYES Diseño de Interiores HUGO ARMANDO LAZOS RAMÍREZ Corrección de Estilo JOSÉ RESÉNDIZ GONZÁLEZ Diseño de Portada JULIO CÉSAR QUIROZ CRUZ Producción JOSÉ ALFREDO PERERA TOACHE U-GeOBe Tecnología en Gobierno. Septiembre de 2016. Publicación bimestral de Competitive Press, S.A. de C.V., Montecito núm. 38, piso 39, ofna. 34, col. Nápoles, delegación Benito Juárez, México, D.F., C.P. 03810, tel.: (55) 5242 8900. Editora responsable: Marcela Gasca Serrano. Certificado de Licitud de Título y Contenido: 16471. Permiso de publicación periódica autorizada por SEPOMEX núm. PP09-02008. Reserva para uso exclusivo del título ante la Dirección General del Derecho de Autor: 04-2015-031916574000-102. Precio del ejemplar: $95.00 M.N. Impresa en los talleres de Editorial Impresora Apolo, S.A. de C.V. Centeno núm. 162, Col. Granjas Esmeralda, Deleg. Iztapalapa, C.P. 09810, México, D.F. Distribuida por Sanborns en D.F., Zona Metropolitana e interior del país. Nota: Esta obra no debe ser reproducida total o parcialmente, sin autorización escrita del editor. La información, opinión, análisis y contenido de esta publicación es responsabilidad de los autores que las firman y no necesariamente representan el punto de vista de esta casa editorial.

CAPA UNO ASCII

22 40

4 7 14

DIGITALIDAD Código Innovare Créditos: www.shutterstock.com www.freepik.es www.fontspace.com

62 40 70 65


EN PORTADA

DATOS, PORTALES DE GOBIERNO Y GOBIERNO ABIERTO Ranking de portales de gobierno estatal 2016

El arma secreta de la seguridad Johnnie Konstantas

77

46

Meta datos

31

Op o p a r t un Jo ra id sé Am ade Lu ér s y is ica de Te La sa so tin fío ro a s

Dolores E. Luna, Gabriel Purón Cid, Rodrigo Sandoval Almazán J. Ramón Gil-García, Luis Felipe Luna Reyes


Marcos García Flores Director general de “Grupo ORSA” e ingeniero industrial por el IPN.

LA PARADOJA DE LA “ERA DE LA INFORMACIÓN” or un lado podemos obtener datos de manera instantánea de prácticamente cualquier tema, pero nos cuesta mucho tiempo y esfuerzo contar con la información básica de nuestra organización; ¿por qué el milagro de la “era de la información” pareciera desaparecer hacia adentro de nuestra organización? Pareciera que en nuestros días, contar con información ya no es un problema, pues todo el mundo comenta: “vivimos en la era de la información”, y podríamos decir que esto es parcialmente cierto. Es evidente que con la ayuda de buscadores electrónicos como Google o Bing, basta sólo con hacer la consulta de algún tema para que inmediatamente aparezcan decenas, cientos o miles de páginas con la información que buscamos y esto aplica desde las cosas más triviales como la edad de un artista o el equipo en el que juega algún deportista, hasta datos muy complejos como los referentes a los últimos descubrimientos médicos para el

P

4


ASCII tratamiento de alguna enfermedad; es más, si cualquiera de nosotros teclea su nombre o el nombre de su compañía es muy probable que encuentre una buena cantidad de información, entonces podríamos decir: ¡es cierto, toda la información está en la red! No obstante, cuando miramos al interior de nuestras organizaciones y queremos consultar temas esenciales como el avance de lo presupuestado contra el gasto real o las existencias exactas en los almacenes, la proyección de ingresos o del flujo de efectivo para los siguientes meses, el cumplimiento de las metas de nuestros programas, los procedimientos de fabricación o contenidos similares relacionados con los signos vitales de cualquier empresa, entonces pareciera que ese milagro de la inmediatez que obtenemos en los buscadores de internet, misteriosamente desapareciera. Esto es, lo que conocemos como “la paradoja de la era de la información”, por un lado podemos obtener datos de manera instantánea de prácticamente cualquier tema, pero con mucho trabajo nos es posible contar con información valiosa de nuestra organización. Este fenómeno se genera debido a que el primer requisito para contar con información inmediata es que ésta se encuentre digitalizada (el papel ya no sirve), entonces debemos preguntarnos si contamos con una herramienta que integre datos de todas las áreas de la organización tipo ERP/GRP, si disponemos de una herramienta que automatice los procesos y que tenga almacenados los documentos o la información de manera digital como un CRM, si tenemos una red social empresarial tipo Yammer (similar al Facebook pero privada) donde estén guardas comunicaciones, audios, videos e información de las diferentes interacciones formales e informales de los miembros de la organización, si la respuesta es no, entonces ahí encontramos el motivo del porqué

5


el milagro de “la era de información” desaparece hacia dentro de nuestras empresas. Josep Lluís Cano, en su libro Business Intelligence: Competir con información, menciona que “las empresas tardan alrededor de un 80% preparando información y 20% analizándola”,1 ocasionando la demora en las respuestas oportunas ante diversas situaciones, desde visualizar la entrada a nuevos mercados, análisis de perfiles de clientes, el control financiero, entre otros, esto porque al invertir tanto tiempo en recopilarla no hay la posibilidad de compararla o analizarla. Por otro lado, International Data Corporation (IDC) informó en 2015 que sólo 50% de las organizaciones en México apuesta sus inversiones en tecnologías de la información y de la comunicación

6

(TIC) hacia mejoras en la productividad y los procesos de negocio,2 utilizándola como un arma estratégica. La forma de combatir esta paradoja es realizar inversiones consistentes e inteligentes en tecnología de información, contar con información confiable y oportuna de nuestra organización y, en conjunto con la disponible externamente, se convierte en una poderosa arma estratégica. Por otro lado, el estar en la era de la información, sin contar con las herramientas tecnológicas básicas, abre vertiginosamente una brecha que difícilmente puede abatirse.

Referencias bibliográficas Cano Giner, Josep Lluís, Business Intelligence: Competir con información, Fundación Cultural Banesto, p. 31. 2 http://amiti.org.mx/4004/el-mercado-de-tic-representara-el-5-delpib-hacia-el-2015-con-un-valor-de-35-mil-millones-de-dolaresen-mexico, abril de 2016. 1

MARCOS GARCÍA Flores Director General de Grupo ORSA, empresa mexicana que colabora con el sector público en rubros relacionados con las Tecnologías de la Información y el Desarrollo de Talento. Ingeniero industrial por el IPN, cuenta con un MBA por el ITAM y un programa de Alta Dirección cursado en el IPADE


Edgar Vásquez Cruz Maestro en administración pública por el Instituto Nacional de Administración Pública (INAP).

ASCII

a d i d e t R r a p m o Q c ¿Santo grial o el anillo único?

uizá el proyecto más ambicioso del gobierno federal, encabezado por el presidente Enrique Peña Nieto, sea la red pública compartida de telecomunicaciones, conocida comúnmente como “red compartida”, una concesión que será manejada por una sola empresa, la cual, después de ganar el concurso el 8 de agosto, ofrecerá servicios de telecomunicaciones como mayorista; es decir, venderá servicios a empresas de telecomunicaciones, no a usuarios finales, y además tendrá características casi inéditas, pues hay pocas entidades semejantes en el mundo. En ese sentido, la red compartida podría ser el Santo Grial que todo lo cura, como en una película de la serie “Indiana Jones” o el anillo único, causante de todas las desgracias en la zaga de El señor de los anillos. El propósito de crear una red pública compartida de telecomunicaciones es hacer un uso óptimo del espectro radioeléctrico, reducir el costo de operación, así como los precios para los usuarios; conseguir una cobertura para el 98% de la población mexicana (lo que incluye áreas rurales). Para lograr lo anterior, el gobierno mexicano se propone licitar 90 megahertz (los segmentos de 703 a 748 MHz y de 758 a 803 MHz, los cuales suman 90) que forman parte de la banda de 700 megahertz (recientemente liberados con el apagón digital ocurrido en diciembre de 2015) y dos hilos de fibra óptica oscura de la red que la Comisión Federal de Electricidad (CFE) tendió por todo el país.

7


Red compartida

El tamaño del mercado de telecomunicaciones Quizá una de la principales razones que impulsan la creación de la red compartida es el tamaño del mercado de telecomunicaciones, ya que, de acuerdo con el Instituto Federal de Telecomunicaciones (IFT) de México, al tercer trimestre de 2015 el Producto Interno Bruto (PIB) de los sectores de telecomunicaciones y radiodifusión llegó hasta una cifra histórica de 457 mil millones de pesos, equivalentes a 3.2% del PIB total en ese trimestre. Además, el sector de telecomunicaciones da empleo a alrededor de 177 mil personas, cada una de las cuales aportó, en promedio, $626 mil pesos al PIB de México en el tercer trimestre de 2015. En cuanto a la inversión extranjera directa (IED), los sectores de telecomunicaciones y radiodifusión tuvieron un flujo acumulado anual de dos mil 557 millones de dólares estadounidenses, cifra que los coloca en el segundo puesto como receptores de IED, en tanto por arriba de ellos sólo están las industrias manufactureras.

Por lo que respecta al cre­ cimiento, tan sólo las telecomunicaciones alámbricas crecieron a una tasa de anual de 19% en cuanto a sus ingresos, cifra que es la más alta de los pasados cinco años. Asimismo, hubo un crecimiento de 200% entre el segundo y tercer trimestre de 2015 de las suscripciones con velocidad anunciada de banda ancha fija (BAF) de entre 10 megabytes por segundo (Mbps) y menores a 100 Mbps. En otras palabras, se trata de un mercado en pleno crecimiento y con una demanda de servicios cada vez mayor.

Figura 1. Porcentaje de las telecomunicaciones al PIB de México, EU y Canadá en 2015

Fuente: Instituto Federal de Telecomunicaciones.

Acceso a la banda ancha, una tarea pendiente para México A pesar de las cifras del rápido crecimiento del sector telecomunicaciones, proporcionar acceso a los ciudadanos a la banda ancha de internet es una tarea pendiente para el gobierno de México, ya que en diciembre de 2014 ocupaba el último lugar (34) entre los países de la Organización para la Cooperación y el Desarrollo Económicos (OCDE) en cuanto al acceso a la banda ancha: sólo 10.7 mexicanos de cada 100 tenían acceso a ella, es decir, 12 millones 838 mil 93 personas; en cambio 48.9 de cada 100 habitantes de Suiza tienen acceso a la banda ancha, es decir, 3 millones 990 mil 200 suizos.

8


Figura 2. Acceso a la banda ancha por cada 100 habitantes en diciembre de 2014

Fuente: Organización para la Cooperación y el Desarrollo Económicos. En cambio, en el acceso a la banda ancha móvil, México ocupó el lugar 31 de 34, apenas por debajo de Portugal. Figura 3. Suscripciones móviles de banda ancha por cada 100 habitantes

9


Red compartida

La velocidad de la banda ancha es otro rubro pendiente, pues mientras en la OCDE (según cifras de ese organismo) el promedio de velocidad de descarga es de 77.42 megabits por segundo, en México la velocidad promedio es de 43.59. Figura 4. Velocidad promedio de la banda ancha de Internet en la OCDE

Fuente: Organización para la Cooperación y el Desarrollo Económicos.

10


#RedCompartida

El segmento es ideal para transmitir datos para La banda de 700 megahertz dispositivos móviles porque se difunde a baja altura y y “la autopista” de la red compartida De entre todo el espectro radioeléctrico que puede usarse para las telecomunicaciones, los segmentos de 703 a 748 MHz y de 758 a 803 MHz son los ideales para la transmisión de datos (llamada también Red 4G), y eran utilizados para transmitir la programación de los canales de televisión analógica hasta el pasado 17 de diciembre de 2015, cuando, luego del “apagón analógico”, quedaron liberados para ser usados para transmitir datos digitales, a lo cual se le llama “dividendo digital”.

porque las transmisiones que se realicen al utilizarla tienen mayor alcance, lo cual permite que las antenas difusoras puedan colocarse a mayor distancia unas de otras, por ejemplo, para cubrir 10 kilómetros usando la banda de 700 Mhz se requieren dos radiobases contra 10 que se requieren para dar cobertura a cuatro kilómetros si se usa el espectro AWS (1700/2100 MHz) del cual, por cierto, el IFT licitará 80 MHz a partir del 15 de febrero de 2016 entre las empresas AT&T y Radiomóvil DIPSA (Telcel). En otras palabras, la implementación de la red compartida requerirá una menor inversión económica que las redes actuales.

Figura 5. Ventajas de cobertura para la banda de 700 Mhz2

Fuente: SCF Associates.

La red de fibra oscura, otro componente de la red compartida La red compartida incluirá dos hilos de fibra óptica oscura, que es como se le llama a la fibra óptica cuando no está iluminada, es decir, cuando no transmite información. La red de fibra óptica, que mide 21 mil 208 kilómetros y prácticamente está presente en todo México, fue instalada por la CFE a partir de 2004 (cuando es mencionada en un párrafo del informe del titular de la institución), y es la segunda red de telecomunicaciones

11


Red compartida

más grande del país, la primera es la de Telmex. La red de fibra óptica de la CFE consta de 36 hilos, de los cuales la institución requiere un máximo de seis para su operación; dos de los restantes 30 hilos ya fueron licitados en 2010 a Grupo GTAC y ahora, el 8 de agosto de 2016, se licitan dos más que formarán parte de la red compartida.

Los riesgos de la implementación de la red compartida Tal vez el principal riesgo de licitar la red compartida está en repetir la historia de la licitación en 2010, también de dos hilos de fibra óptica oscura de la CFE, de la cual resultó ganador el Grupo GTAC (una empresa formada por las firmas Telefónica, Televisa y Megacable). Esta adjudicación no fue favorable para el Estado mexicano, ya que, de acuerdo con el Resultado de la Fiscalización Superior de la Cuenta Pública de ese año, realizado por la Auditoría Superior de la Federación (ASF), México no obtendrá, en los siguientes 20 años, por lo menos dos mil 450 millones de pesos, que son el resultado de los servicios de telecomunicaciones proporcionados en 2010 a empresas públicas y privadas. La posibilidad de un riesgo semejante viene a la mente si recordamos que la inversión que deben hacer las empresas para la red

12

compartida fue reducido de 10 mil a siete mil millones de dólares, pues como explicó la subsecretaria de Comunicaciones de México, Mónica Aspe, ese cálculo estaba fundado en la instalación de 20 mil radiobases, cuando en realidad se requieren 12 mil, debido a que la frecuencia de 700 Mhz así lo permite, como ya se explicó antes. Aquí la preocupación por el riesgo tiene que ver con estos cambios en los cálculos que bien pudieran haber sido previstos con anticipación. Asimismo, el pago de derechos anuales por el uso de la banda de 700 Mhz fue reducido de 0.20 dólares por Mhz por habitante (dls Mhz/ Pop) a 0.02 dls Mhz/Pop; es decir, alrededor de mil 885 millones de dólares, con el argumento de generar más interés de inversionistas potenciales en el proceso de licitación de la red compartida. Finalmente, es necesario enfatizar que el ganador de la red compartida no será el único mayorista, pues el IFT otorgó a Telecomunicaciones de México (Telecomm) un título de concesión de uso comercial que tiene carácter de red compartida mayorista de servicios de telecomunicaciones por 30 años. De acuerdo con los términos de esta concesión, Telecomm deberá planear, diseñar y ejecutar programas para construir y hacer crecer la red compartida mayorista, los cuales durarán tres años y serán autorizados por el IFT; sin embargo, el organismo no podrá entregar servicios a usuarios finales por medio de filiales, subsidiarias o autorizadas, a menos que no existan concesionarios o autorizados para entregar el servicio en una zona geográfica determinada, de acuerdo con lo establecido en el ar­ tículo 140 de la Ley Federal de Telecomunicaciones y Radiodifusión (LFTR). En otras palabras, el Estado mexicano se propone garantizar así el acceso a los servicios de telecomunicaciones para aquellos habitantes de las zonas menos favorecidas económicamente o más lejanas de México. Recientemente, el retraso en la publicación de la resolución del IFT, aplazada para el 17 de octubre de 2016, podría causar que la licitación de la banda de 2.5 Megahertz reste importancia y reduzca las posibles inversiones en la red compartida (700 Megahertz). ¿Será un éxito la red compartida en México o un fracaso? Es prácticamente imposible responder en un sentido u otro, por un lado hay un mercado dinámico en crecimiento y con posibilidades enormes para desarrollar nuevas tecnologías, pero, al mismo tiempo, hay un panorama económico adverso en todo el mundo; sin embargo, como decía un experto en planeación: “es mejor tener un plan que no tenerlo”. Edgar Vásquez Cruz Licenciado en ciencias de la informática por el Instituto Politécnico Nacional. Administrador de proyectos de TI. Especialista en seguridad corporativa de TI. Asociado individual del Instituto Nacional de Administración Pública (INAP). www.edgarvasquez.com, contacto@edgarvasquez.com


13


María Teresa Jiménez Nieto Especialista en ingeniería en cibernética, tecnologías en la información y administración especializada en telecomunicaciones.

Potencial del teletrabajo en la solución de la contaminación ambiental L a contaminación del aire ha sido considerada por la Organización Mundial de la Salud (OMS) como responsable de problemas de salud y muertes prematuras, particularmente cuando las partículas menores a 10 y 2.5 micrones de diámetro sobrepasan los límites establecidos por la Organización, situación que se ha agravado en los últimos años en las urbes con más de 100 mil habitantes de países con ingresos medios y bajos. El principal origen de la contaminación ambiental es el consumo de combustibles fósiles provenientes de fuentes móviles (vehículos automotores) y fijas (plantas generadoras de electricidad e industriales) (World Health Organization, 2016). En México, según el último reporte de la OMS (“Global Urban

14


ASCII Ambient Air Pollution”, mayo de 2016), nueve comunidades se encuentran dentro del grupo de aquellas que sobrepasan los límites establecidos para partículas M10 y M2.5; Monterrey es la ciudad con más alta contaminación, seguida, en orden decreciente, por el valle de Toluca, Salamanca, León, Irapuato, Silao, Valle de México, Guadalajara y Puebla (World Health Organization-APP, 2016). La Dirección General de Epidemiología de la Secretaría de Salud (SSa) estima que los habitantes del área metropolitana de la Ciudad de México respira diariamente sustancias contaminantes equivalentes a 6.8 kilogramos por persona (El Financiero-Redacción, 2015).

La crisis ambiental en el Valle de México En meses recientes, el Valle de México experimentó varios eventos de alta contaminación ambiental debido a condiciones orográficas de un valle cerrado, meteorológicas de la temporada de alta radiación solar, baja humedad y escasez de vientos, y viales, al circular un alto volumen de automotores (más de cinco millones), no todos en buenas condiciones mecánicas, en una infraestructura urbana insuficiente e ineficiente (Organización para la Cooperación y el Desarrollo Económicos [OCDE], 2015; Dirección de Educación Ambiental. CDMX, 2016). Estas crisis ponen de manifiesto la fragilidad del medio ambiente del Valle de México, así como la insuficiencia de las medidas implementadas para la prevención y control de contingencias ambientales.

Medidas emergentes al programa Hoy no circula La respuesta de las autoridades ambientales a la crisis (Comisión Ambiental de la Megalópolis del Valle de México [CAME]) fue el endurecimiento y extensión (medidas emergentes) del programa vigente desde hace más de 25 años relativo a limitar la circulación de vehículos (Hoy no circula) y a la reducción

15


Potencial del teletrabajo en la solución de la contaminación ambiental

de los límites para la adopción de medidas más estrictas ante las fases de contingencia ambiental (fase 1 más de 150 unidades de Índice Mexicano de Calidad del Aire [IMECA] y fase 2, más de 200 unidades). Ello en virtud de que se considera que los automotores son responsables de la emisión de casi 50% de los contaminantes ambientales en el Valle de México. El endurecimiento de la limitación a la circulación de vehículos consistió en la fase 1: duplicar el número de vehículos que no circulaban un día a la semana (aproximadamente dos millones) y el sábado los vehículos con matrícula terminada en par, y los domingos los terminados en impar; eliminación de las exenciones e integración al programa de motocicletas y vehículos de carga. En la fase 2: dejaría de circular diariamente la mitad del parque vehicular (aproximadamente 2.5 millones). Las razones para el aumento exagerado del parque vehicular que circulaban en el Valle de México sin restricciones fueron: venta de automóviles nuevos (aproximadamente 128 mil al año), que crece 20% al año; la regularización de automóviles que ingresaron ilegalmente al país (5.4 millones en todo el país en 2012), y la sentencia de la Suprema Corte de Justicia de la Nación (SCJN) respecto a “que si (un vehículo) cumple con las especificaciones de los niveles de emisión señaladas en el propio Programa para obtener determinado holograma (distintivo para circular o no todos los días), el año de su vehículo no sea impedimento para que éste le sea asignado”.

Resultados de las medidas emergentes Las consecuencias inmediatas a la implementación de las medidas emergentes al programa Hoy no circula, ampliamente documentadas en los medios de comunicación, tanto impresos como electrónicos, han sido:

Aspectos positivos • Reducción en el volumen de vehículos circulando. • Lenta reducción en la emisión de contaminantes a la atmósfera. • Disminución en riesgos a la salud en cuanto a enfermedades y, a largo plazo, muertes asociadas a la contaminación. • Gratuidad en los servicios de metrobús, autobuses del gobierno (red de transporte público [RTP]), trolebús y tren ligero. • Reducción de 5% en la ocupación de los espacios para estacionamiento en la calle con parquímetro. • En un mes de vigencia, se sancionaron a 4,300 automovilistas y a 220 camiones de carga.

16

Aspectos negativos • Confusión por insuficiente e ino­ portuna información oficial. • Congestionamiento para uso de transporte público (en el metro aumentó de 15 a 17% el flujo de pasajeros equivalentes a un millón más), en el metrobús 500 mil pasajeros más (+30%), en RTP 60 mil personas adicionales (25%) y en transportes eléctricos, 19% más. • Aumento en tiempo de traslado casa-trabajo-casa (en terminales del metro y el metrobús hubo largas filas para abordar y en las estaciones intermedias tuvieron que esperar hasta 30 minutos para abordar los convoyes, pues arribaban llenos). Cabify disminuyó precios, pero su demanda aumentó 200% y el servicio resultó malo. • Gratuidad de servicios de transporte público tendrá un costo estimado de 30 millones por día de aplicación. • Menor ocupación de espacios con parquímetro tendrá un impacto negativo de aproximadamente $467,000.00 al día para los concesionarios. • El 7% de los espacio de estacionamiento con parquímetro fueron ocupados por vehículos que no deberían de estar circulando. • Servicio público de transporte degradado por congestionamiento. • Reducción en 7% de los viajes a través de las autopistas urbanas (OHL) con el consecuente impacto económico para el concesionario.


#Teletrabajo

• Problemas laborales por retraso en llegada. • Abuso en cobro por parte de algún transportista (en Uber, la tarifa se disparó hacia arriba hasta nueve veces y fue insuficiente la atención). • Congestionamiento en carreteras por espera de transportistas de carga por la restricción en circulación. • Amenaza de desabasto de productos por no circulación de transportistas. • Riesgo de aumento de precios en bienes por falta de abastecimiento y/o aumento costo de transportación. • Malestar de dueños vehículos con holograma “00” y “0”, antes exentos de restricciones. • Pérdidas de entre 20 y 50% en facturación de trasporte de carga, comercio e industria. Costo aproximado de 2,800 millones en los primeros 15 días. • Las ventas en las gasolineras disminuyeron entre 20 y 30%, que resultan en pérdidas diarias de 79 millones de pesos por dejar de venderse seis millones de litros de gasolinas. • Aumento en la demanda de arrendamiento de automóviles y de compra de vehículos seminuevos en aproximadamente 15%. • Posibilidad de compra de segundo coche barato y en pobres condiciones mecánicas para opción a circular el día restringido. • Aumento de estrés vivencial. La opinión pública respecto de las medidas emergentes implementadas por la CAME han sido en general negativas: 91% de los entrevistados considera que la crisis rebasó al gobierno de la ciudad; 79% considera insuficientes las medidas adoptadas; 85% opina que el gobierno no estaba preparado para afrontar la crisis; 51% consideró que la información proporcionada por las autoridades fue inadecuada, y sólo 59% opinó que las medidas implementadas sí ayudaban.

El trabajo a distancia o teletrabajo, una opción contributiva de la solución Jack Nilles conceptualizó en 1973 el trabajo fuera de las instalaciones del empleador al proponer “llevar el trabajo al trabajador en lugar del trabajador al trabajo” con el fin de evitar el desplazamiento hacia y desde el sitio de trabajo (telecommuting, en sus palabras). Más tarde complementó el concepto al promover “la sustitución de los viajes normales relacionados con el trabajo por las tecnologías para la información”. Ello debido a que los nuevos

medios informáticos ofrecen mejores comunicaciones de forma remota, lo que permite trabajar de forma no presencial. La intención al principio fue la de reducir la circulación de vehículos de motor y, posteriormente, dispersar la fuerza de trabajo para evitar no sólo el atractivo para ataques terroristas potenciales o la diseminaciones de enfermedades infecciosas sino también para limitar el costo en vidas humanas y la suspensión de actividades de las empresas, resultante de acontecimientos naturales o causados por el hombre que dificultaban, impedían o hacían inconveniente la presencia física del trabajador en el lugar de habitual de trabajo (no había necesidad de desplazamiento).

Beneficios del teletrabajo sobre el medio ambiente Las ventajas del teletrabajo son múltiples y están bien documentadas en la literatura especializada: • Para la organización. • Para los trabajadores. • Para la comunidad. Sobre este último aspecto, destaca el impacto positivo que esta modalidad de trabajo ejerce sobre el medio ambiente, como lo revelan algunos ejemplos debidamente fundamentados:

17


Potencial del teletrabajo en la solución de la contaminación ambiental

Concepto Ahorro al año, por viajes no realizados Ahorro al año en tiempo traslado Evitaría impacto ambiental (al año) Dejan de consumir combustibles

Canadá

Santa Fe, Ciudad de México

Can $ 8.5 millones 9 días en auto particular. Tres semanas en transporte público Can $1 mil millones 389 millones de litros = Can $541 millones

Reducción emisión 2.1 mil toneladas gases invernadero al año

Reducción en costo Can $6 mil millones de salud Trabajador ahorraría

7 días

26 días

300 millones de galones

583.2 millones de litros = 758.2 millones de euros

3.8 millones de toneladas

20.7 millones de euros: 2 millones de tons. C02, 1.4 millones de tons. NO, 641 tons. de hidrocarburos volátiles y 6.5 toneladas de CO.

US$ 2,000 a 6,700

21.8 millones de euros en total

Se agilizaría la circulación de vehículos en las horas pico (Di Martino, 1990). En California se evitaría 17% de los traslados casa-trabajo. En Suiza se evitarán viajes en temporada de nevadas. En Londres se evitarían entre 35 y 40% de los viajes al centro de la ciudad. Los empleados de Cisco Communications ahorran al año 10 millones de dólares en combustible al trabajar en casa. En Costa Rica, el Instituto Costarricense de Electricidad ahorraría, en 2008, hasta un millón de colones por cada trabajador laborando desde casa.

18

Aragón, España

EU

1,650 litros por cada automóvil

Entre 3 y 20% del ingreso anual

Siemens, en Suecia, estima un ahorro de 80 mil litros de combustible al año por sus trabajadores que laboran a distancia.

Algunos escollos para la adopción del teletrabajo México En nuestro país, el ambiente digital y la legislación laboral no son los más propicios para la adopción y el desarrollo del trabajo no presencial. El Gobierno de la República ha lanzado un plan cuatri-anual (2014-2018) para cerrar la brecha existente


#Polucion

entre la realidad y el potencial estimado, denominado “Estrategia Digital Nacional”. En este plan no se contempla alguna acción específica para estimular la adopción del teletrabajo. Desde nuestro punto de vista, se debe incluir un programa para fomentar el conocimiento y adopción del teletrabajo con la finalidad de que más trabajadores y empresas disfruten de los beneficios de esta nueva modalidad de trabajo. Se carece de una legislación específica sobre el teletrabajo. Esto genera inobservancias legales que afectan por igual al trabajador y al empleador. Lo recomendable es una negociación con un candidato a trabajar a distancia, la cual debe contemplar, según nuestra opinión, la elaboración de un acuerdo individual que debe ser voluntario, reversible y que proteja tanto sus derechos laborales como los de protección a la salud, la seguridad social y la higiene. Acuerdo que debe ser validado ante las autoridades laborales. El trabajador muestra una actitud positiva hacia esta modalidad de trabajo, aunque todavía muchas empresas se muestran reticentes por los cambios organizaciones que se requieren y por el temor a no ejercer una supervisión estrecha y personal sobre la labor a realizar.

Disposición hacia el teletrabajo de una comunidad de trabajadores de la zona metropolitana del Valle de México Una encuesta realizada por nosotros, enfocada al individuo, mostró que muchos (73%) de los 183 participantes ya realizan una parte variable de sus actividades laborales fuera del lugar habitual de trabajo y una alta proporción de ellos (65%) está dispuesta a trabajar en casa. Lugar donde disponen de un espacio de trabajo adecuado y del herramental tecnológico suficiente para esa tarea. Es de destacarse el hecho que de entre los encuestados, la disponibilidad de internet en casa es 5% superior a la disponibilidad en la oficina. Al realizar mayor trabajo en casa, la mayoría de los encuestados (74%) coincidieron que ello les permitiría dedicar mayor tiempo para convivir con la familia y realizar actividades en beneficio de su salud. Adicionalmente, 90% de los encuestados manifestó disponer de los medios necesarios para autocapacitarse.

Conclusión El trabajo a distancia constituye, a nuestra manera de ver, una medida valiosa para ayudar a reducir la contaminación atmosférica y las consecuencias de ella sobre la salud de los habitantes de las grandes urbes. Una mayor adopción del trabajo fuera de las instalaciones del empleador induciría una

reducción de los viajes casa-trabajocasa, disminuiría la emisión de contaminantes a la atmósfera por menor circulación de vehículos, induciría un menor consumo de combustibles fósiles e impulsaría una mejor calidad de vida para el trabajador y su familia. Las condiciones de cultura digital, desarrollo económico y tecnológico, regulaciones laborales y empleadores prevalentes en el país, no son las óptimas para una mayor adopción del trabajo remoto en nuestro país. Empero, entre los trabajadores hay un creciente interés en desarrollar el trabajo fuera de las instalaciones del empleador. La más amplia adopción puede lograrse, de inmediato, mediante acciones administrativas y organizaciones. Resulta evidente que el teletrabajo no es la solución al problema de la contaminación atmosférica, pero sí es un valioso contribuyente a la solución, en conjunto con las acciones como las recomendadas por el Centro Mario Molina para el Valle de México. maría teresa jiménez nieto Licenciada en ingeniería en cibernética y ciencias computacionales en la Universidad La Salle, Ciudad de México. Maestría en tecnologías en la información y administración en el Instituto Tecnológico Autónomo de México, Ciudad de México. Maestría en administración especializada en telecomunicaciones en la Télécom Ecole du Management, París, Francia.

19


V E R Ó N I C A L Ó P E Z



Mauricio GonzĂĄlez Director comercial de SAS MĂŠxico.

22


CAPA UNO n el México de hoy, los gobiernos de todo nivel (federal, estatal y municipal) enfrentan un enorme desafío: atender a ciudadanos con mayor capacidad para participar e influir socialmente; es decir, garantizar una vida plena para hombres y mujeres que cuentan con diversos recursos (como la tecnología de vanguardia) para cuestionar las acciones de las autoridades, demandar mejores servicios públicos, exigir cuentas claras en el manejo de presupuestos, entre otras capacidades ciudadanas.

E

23


Analítica

Para atender a esta sociedad más participativa y vigilante, autoridades y entidades gubernamentales también deben apostar por la innovación, en específico por las soluciones avanzadas de analítica que permitan construir políticas públicas de nueva generación: eficientes en lo operativo y lo financiero; transparentes; orientadas a las necesidades comunitarias verdaderamente urgentes; sustentadas en criterios predictivos (no sólo enfocadas en resolver el día a día) y habilitadas para la interacción con la gente. En la estructura de estas políticas públicas que aprovechan la analítica avanzada, el activo más importante son los datos. En el contexto del sector gobierno, esta información abarca diversos aspectos, desde las múltiples facetas que involucra la ciudadanía (ser derechohabiente de una institución de salud, beneficiario de un programa social, cliente de un banco de desarrollo, becario de una escuela pública, etcétera), hasta los indicadores macroeconómicos de una población, región o industria. Esta diversidad de datos también representa el principal reto de la analítica aplicada a la función gubernamental: no es fácil encontrar una versión única de la verdad, por ejemplo, un ciudadano, por la razón que fuere, podría estar registrado en diferentes servicios de salud pública (Instituto de Seguridad y Servicios Sociales de los Trabajadores del Estado [ISSSTE], Instituto Mexicano del Seguro Social [IMSS],

24

Seguro Popular, etcétera) y la información en cada registro podría no ser consistente. Una situación así no es un asunto menor: por un lado, la creación de un expediente médico universal (factor crítico para atender precondiciones de alto riesgo) no será un proceso rápido ni sencillo. Al mismo tiempo, los recursos del sistema público de salud no se aprovechan en forma eficaz (se reparten en varias instituciones, diluyendo su impacto positivo, en lugar de utilizarse en la opción adecuada para el paciente específico). Con las herramientas de analítica realmente innovadoras, los datos nunca serán un desafío intimidante. Dichas plataformas de Analytics ofrecen soluciones punta a punta, es decir, tecnologías que atienden todo el ciclo del análisis de datos, a grandes rasgos: captura y limpieza de la información (garantía de que los datos son de calidad y están listos para ser aprovechados); procesamiento y aplicación de funciones analíticas; desarrollo de escenarios predictivos y visualización de reportes y tendencias. Con base en dichas tareas, la analítica innovadora se traduce en gobiernos que toman mejores decisiones, autoridades que actúan en el lugar correcto, en el momento indicado y con la eficacia adecuada. ¿Cómo se notaría la diferencia? Imaginemos otro ejemplo. Para impulsar el crecimiento de su negocio o adquirir un bien inmueble, muchos ciudadanos recurren a los llamados bancos de desarrollo, aunque su vocación es distinta a la de la banca comercial, estas instituciones financieras (que muchos gobiernos respaldan) no son ajenas al riesgo. Si falla en la interpretación de las distintas variables que conlleva un crédito, la banca de desarrollo no podrá evitar una situación de crisis. La analítica innovadora es una solución ideal para proteger a estas instituciones (que son estratégicas para el crecimiento social y económico de un país). Utilizando Analytics de avanzada,


#BigData

un banco de desarrollo puede analizar a fondo las distintas circunstancias que rodean a un apoyo financiero: historial crediticio del solicitante, condiciones macroeconómicas (al momento y expectativas hacia el futuro), factores de riesgo en la operación o en el mercado objetivo, etcétera. La analítica, en ese sentido, es una opción para reducir el riesgo en forma sustancial. Y un banco de desarrollo alejado del

peligro es una buena noticia para el gobierno y sus ciudadanos, es una institución financiera que apoya proyectos de potencial comprobado (facilitando así su impacto social positivo) y aplica los recursos económicos con eficacia, que está mejor protegida de los vaivenes del mercado global y cuyos proyectos no tendrán que ser rescatados con aportaciones públicas millonarias. Más allá de los ejemplos mencionados en las múltiples y variadas tareas del quehacer gubernamental, la analítica avanzada cuenta con infinitas oportunidades de trascender; muchas de ellas de gran relevancia para la sociedad mexicana, como: • Detección proactiva de fraudes fiscales y trámites anómalos. • Análisis integral del impacto y los riesgos de un gran proyecto de infraestructura. • Fortalecimiento de la seguridad pública al estudiar diferentes variables socioeconómicas que podrían estar influyendo en la actividad criminal en una zona. • Aprovechar la información en redes sociales y otros medios digitales para evaluar el impacto real de una política pública (el análisis del sentir ciudadano permitirá mejorar los servicios a la ciudadanía, atender aspectos que no se consideraron en el proyecto original, reubicar recursos oportunamente). • Análisis integral de variables de desarrollo económico, sustentabilidad, participación ciudadana y transportación, con el fin de diseñar modelos de “ciudad inteligente”. En todo el mundo (y se podría decir que a lo largo de la historia), no es raro que se asegure: las autoridades no comprenden la realidad que viven los ciudadanos. Aplicada en las funciones gubernamentales, la analítica avanzada es la oportunidad de borrar esa percepción. Dicha innovación toma datos relevantes de la cotidianeidad ciudadana, los analiza desde múltiples ángulos y los aprovecha para crear políticas públicas inteligentes, enfocadas en lo primordial, cercanas a la gente; es decir, para construir las acciones de gobierno que hoy demanda nuestra participativa y vigilante sociedad. mauricio gonzález Director comercial de SAS México. Cuenta con más de 15 años de experiencia en la industria de TI, en la que ha contribuido con empresas como Banamex, HP y Adobe, obteniendo logros que se pueden calificar como historias de éxito que redefinieron la forma de hacer negocios.

25


L Ó P E Z

V E R Ó N I C A


27


¿QUÉ ESTUDIARÁ LA SONDA ESPACIAL JUNO EN JÚPITER? José Luis Leguízamo

izamouu @leguizamo @legu

Tras casi cinco años de viaje espacial, la sonda Juno de la NASA finalmente alcanzó a Júpiter. La nave dará 37 vueltas a la órbita del planeta a lo largo de 20 meses, durante los cuales se encargará de recolectar información que ayudará a saber más sobre la formación de Júpiter y nuestro sistema solar, pero, ¿cómo es que Juno va a lograr su misión?

El quinto planeta como nunca lo habíamos visto La sonda lleva a bordo nueve instrumentos, entre los que se encuentra la JunoCam: una cámara de luz visible que se encargará de retratar al planeta con un nivel de detalle nunca antes visto. El dispositivo es capaz de captar imágenes con una resolución de 15 kilómetros por pixel, centrándose en los polos de Júpiter y en sus cinturones de nubes; sin embargo, la JunoCam operará sólo durante las primeras siete órbitas debido a la gran intensidad de la radiación y el campo magnético del planeta. Aun así, será tiempo suficiente para que la misión ofrezca algunas de las más espectaculares postales de Júpiter que se hayan visto jamás.

El origen de Júpiter y de nuestro vecindario estelar Más allá de tomar fotos del planeta mayor de nuestro sistema solar, el principal objetivo de Juno es ayudarnos a comprender el origen y la evolución de Júpiter. Para conseguirlo, la sonda se encargará de realizar varios estudios con ayuda de instrumentos como un magnetómetro, varios espectrómetros, un radiómetro de microondas, entre otros sensores.

Así, la sonda podrá medir la cantidad de agua en la atmósfera; calcular la composición, temperatura y movimiento de las nubes; trazar un mapa de los campos magnéticos y gravitatorios que servirá para conocer la estructura interna del planeta; estudiar la magnetosfera de Júpiter cerca de los polos e incluso observar de cerca las auroras. Todos los datos obtenidos por Juno serán analizados por los científicos de la National Aeronautics and Space Administration (NASA), quienes esperan entender cómo es que se forman los planetas gigantes. Y es que debido a la gran fuerza de gravedad y al intenso campo magnético que tiene Júpiter, su composición no ha cambiado tanto. Además, esto también podría revelar importantes pistas sobre el papel que tiene este tipo de planetas en la formación de los sistemas solares, algo que no sólo ayudaría a conocer más del nuestro, sino también para conocer otros más allá de la vía láctea. Se vienen unos meses intensos para la astronomía.


EL METRO DE LA CAPITAL CHILENA FUNCIONARÁ PRINCIPALMENTE CON ENERGÍA RENOVABLE EN 2018 Esteban González de León

@pebitoyuka

Se estima que a partir del año que viene, dos centrales energéticas empezarán a abastecer al metro de la capital chilena y para 2018 cubrirá 60% del consumo con energía eólica y solar a la red Santiago de Chile. La red de Santiago es la segunda más grande de América Latina: son cinco líneas y cuenta con más de 100 estaciones, además de que provee transporte diario a más de dos millones y medio de pasajeros. Estas dos centrales son el resultado de una inversión del Estado de 500 millones de dólares. La primera es “El Pelícano”, una

central fotovoltaica de 100 MW desarrollada por Elecnor, una empresa española, la cual suministrará 42% de la energía que requiere la red. Además está el parque eólico de San Juan, desarrollada por Latin America Power de Brasil, que suministrará 18% del resto de la energía. Mientras tanto, en la Ciudad de México se encuentra la red del metro más grande de América Latina, seguido por el de Sao Paulo, donde más de seis millones de usuarios se suben para trasladarse por la ciudad. Un proyecto así para aliviar las emisiones del sistema, no suena tan mal.


¿CUÁLES Y CÓMO SON LOS

IMPUESTOS

QUE DEBES CONOCER COMO

EMPRESARIO?

El objetivo de este libro es exponer de la manera más clara posible el complejo mundo de los impuestos para que usted, COMO EMPRESARIO, conozca los aspectos básicos que requiere saber sobre los impuestos mexicanos. A lo largo de su lectura comprenderá conceptos importantísimos que le serán de utilidad en su negocio, y con los que día a día se estará enfrentando.

$260 más gastos de envío

$206 www.grupogasca.com.mx ventas@grupogasca.com.mx


DATOS, PORTALES DE GOBIERNO Y GOBIERNO ABIERTO

ASCII ASCII

Ranking de portales de gobierno estatal 2016

Dolores E. Luna

Gabriel Purón Cid Rodrigo Sandoval Almazán J. Ramón Gil-García Luis Felipe Luna Reyes

l acceso a la información gubernamental en México tiene una historia relativamente corta. De hecho, la actual Ley General de Transparencia y Acceso a la Información Pública (LGTAIP) resulta de las modificaciones a la ley publicada por primera vez en junio de 2002, seguida por la publicación de leyes a nivel estatal en los años siguientes. Las diferentes modificaciones a esta ley han dado como resultado, entre otras cosas, a la modificación del artículo 6o. constitucional para hacer del acceso a la información pública un derecho fundamental de los mexicanos. Si bien son aún necesarios más avances institucionales que promuevan un mejor uso de la información pública para impulsar una sociedad democrática, los portales de gobierno han jugado un papel clave en la organización y publicación de información gubernamental desde 2002. Con la reciente aprobación del decreto de datos abiertos en febrero de 2015 y su inclusión en la

E

LGTAIP, los portales de gobierno renuevan su importancia como plataformas que potencialmente podrían ofrecer a los ciudadanos, tanto datos como herramientas para entender mejor la efectividad de políticas públicas, los impactos de las obras públicas y en general el uso transparente y responsable de los recursos del gobierno. Además de la información y servicios que tradicionalmente los gobiernos estatales han agregado a sus portales, también es deseable la inclusión de datos abiertos que, de acuerdo con la ley, son “los datos digitales de carácter público que son accesibles en línea y que pueden ser usados, reutilizados y redistribuidos por cualquier interesado”.1 Construir plataformas de datos accesibles, integrales, gratuitos, no discriminatorios, oportunos, permanentes, en formatos abiertos, de libre uso y legibles por máquinas es mucho más fácil de legislar que de llevar a la práctica, y requiere del desarrollo de capacidades

31


Ranking de portales estatales de transparencia 2016

técnicas, procesos y recursos organizacionales, y la colaboración entre el gobierno, el sector privado y la sociedad civil en el desarrollo de este tipo de proyectos. Este año, nuevamente publicamos el Índice de Gobierno Electrónico Estatal (IGEE), que constituye una herramienta para medir buenas prácticas para hacer disponibles tanto información como servicios de gobierno a los ciudadanos a través de los portales de internet. Si bien el IGEE no incluye aún un apartado para reportar el uso de datos abiertos, una revisión de la situación actual revela que sólo nueve de los 32 estados cuentan con su propio portal de datos abiertos (Chihuahua, Coahuila, Ciudad de México, Estado de México, Jalisco, Morelos, Nuevo León, Puebla y Zacatecas). Adicionalmente, cuatro estados comparten datos utilizando la plataforma federal de datos.gob.mx (Coahuila, Estado de México, Guanajuato y Morelos). El instrumento de observación que utilizamos este año, al igual que en los anteriores, utiliza 120 preguntas para evaluar cinco dimensiones: información, interacción, transacción, integración y participación. El índice fue construido a través de observaciones independientes realizadas por un panel de

32

evaluadores en el Centro de Investigación y Docencia Económicas (CIDE), la Universidad Autónoma del Estado de México (UAEM) y la Universidad de las Américas Puebla (UDLAP). Las evaluaciones se realizaron en diferentes momentos entre mayo y junio de 2016. La principal limitación de realizar las evaluaciones en este periodo para 2016 fue la constante referencia de la veda electoral en los portales que obstaculizó en varios casos la identificación de las características en cada una de las dimensiones. El instrumento puede solicitarse vía correo electrónico a cualquiera de los autores. Como en años anteriores, el tiempo de evaluación de cada portal fue entre 60 y 90 minutos. Es importante aclarar nuevamente que el índice no mide necesariamente si un elemento (información, servicio, característica) está o no en el portal, sino el hecho de que el elemento pueda ser localizado por el ciudadano en un tiempo y con un grado de esfuerzo razonable. De este modo, desde el punto de vista de los responsables de los portales estatales, no sólo se trata de incluir elementos en los portales sino de incluirlos en forma tal que sean fácilmente encontrados y usados. Al igual que en evaluaciones anteriores, todas las preguntas tienen la misma ponderación, bajo el supuesto de que para el ciudadano es igualmente importante efectuar una transacción en línea, que encontrar la información que necesita o comunicarse con el funcionario apropiado. Hallazgos Entre los hallazgos más importantes de este año, destacan los cambios en los estados que ocupan los cinco primeros lugares (véase tabla 1). Jalisco avanza un sitio para ocupar este año el primer lugar; Nuevo León regresa al segundo lugar después de una caída importante el año pasado; Baja California se afianza en el tercer lugar, mientras que Chiapas y Colima avanzan 5 y 15 lugares, respectivamente, para ubicarse en el cuarto y quinto lugares. Los avances más significativos son para Nuevo León, Colima, Morelos y Coahuila, que avanzan 16, 15, 13 y 10 posiciones en el ranking. El portal del estado de Nuevo León mejoró en todas las áreas, pero lo hizo de una forma más importante en el área de integración. El estado de Colima, por su parte, duplicó su calificación en el área de participación ciudadana y mejoró también de forma significativa sus servicios de información. Morelos y Coahuila presentaron la mayor mejora en las áreas de información e integración.


#GobiernoDigital

Tabla 1 Ranking 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32

Estado Jalisco Nuevo León Baja California Chiapas Colima Guanajuato Coahuila Distrito Federal Nayarit Yucatán Puebla Hidalgo Sinaloa Morelos Chihuahua Estado de México Guerrero Aguascalientes Campeche Michoacán Oaxaca Baja California Sur Durango Querétaro Tabasco Sonora Tamaulipas Quintana Roo Tlaxcala Veracruz San Luis Potosí Zacatecas Media Desviación estándar

Total

Inf

Int

Tran

Intg

Part

53.53 48.86 48.64 44.85 44.60 43.78 43.45 43.39 42.92 42.40 42.12 41.20 40.97 40.83 40.63 40.21 40.00 39.77 35.91 34.62 33.52 33.36 33.10 32.99 32.47 31.64 29.82 27.89 27.16 24.74 24.36 20.25 37.62 10.92

74.28 63.57 73.42 76.97 53.84 70.49 68.21 62.65 71.55 58.58 55.79 63.13 58.47 70.14 43.91 61.96 58.59 70.22 65.49 63.57 67.88 52.28 47.52 69.81 53.90 58.62 46.03 52.51 54.54 34.85 55.32 41.98 60.00 10.26

56.55 39.35 47.41 40.89 35.85 50.20 27.39 25.11 41.02 45.05 41.87 31.96 36.57 47.84 42.02 50.89 34.74 37.92 36.68 35.16 29.30 27.00 24.58 25.85 30.58 30.32 24.74 23.47 18.68 18.49 19.54 24.40 34.42 10.13

44.58 57.29 44.38 27.50 52.29 32.50 46.25 61.67 32.92 36.17 43.33 21.88 43.13 25.63 54.58 20.00 33.33 35.00 16.67 12.50 14.58 16.67 43.96 3.75 31.25 11.46 27.92 0.83 17.71 12.50 0.00 6.67 29.03 17.06

71.39 58.06 56.11 53.89 59.17 51.11 52.50 46.67 49.72 47.22 50.83 72.78 45.83 43.89 43.89 39.44 56.67 49.44 50.28 44.17 37.50 50.00 41.11 44.72 33.06 41.11 48.33 39.72 42.78 36.39 34.44 17.78 47.19 10.61

20.83 26.04 21.88 25.00 21.88 14.58 22.92 20.83 19.38 25.00 18.75 16.25 20.83 16.67 18.75 28.75 16.67 6.25 10.42 17.71 18.33 20.83 8.33 20.83 13.54 16.67 2.08 22.92 2.08 21.46 12.50 10.42 17.48 6.54

33


Ranking de portales estatales de transparencia 2016

En esta continua evolución, la mayoría de los portales se movieron en el ranking. Sólo Campeche, Oaxaca y Sinaloa se mantuvieron en la misma posición (19, 21 y 13 en el ranking). Sobresalen las caídas de los portales de Durango, Querétaro, Estado de México y Guerrero, que pierden 17, 17, 15 y 14 posiciones, respectivamente

(véase tabla 2). Los casos de Querétaro y Durango, que experimentaron cuantitativamente la mayor caída, resultan cualitativamente diferentes. En Querétaro se observa una reducción importante en la evaluación de sus servicios transaccionales, mientras que en Durango las áreas más afectadas fueron información e interacción.

Tabla 2 Los que bajan Durango Querétaro Estado de México Guerrero Aguascalientes Chihuahua Tamaulipas Zacatecas Tabasco Puebla Quintana Roo San Luis Potosí Sonora Guanajuato

Lugares (–) 17 17 15 14 4 4 4 4 3 3 2 1 1 1

Estos cambios demuestran el dinamismo y los procesos de mejora continua que se realizan en estos portales, provocando que algunos estados ganaran o perdieran posiciones de manera notable este año. Aunque cabe aclarar, como lo hemos hecho en años anteriores, que son posiciones relativas a los demás estados. Así, un estado que haya conservado su portal igual que el año anterior pudo haber perdido posiciones en el ranking de este año, considerando los esfuerzos y mejoras incorporadas en los portales de otras entidades federativas. El promedio en la evaluación de los portales este año fue de 37.62 puntos, con una desviación estándar de 10.92. Jalisco tiene el mayor puntaje con 53.53 puntos, y Zacatecas el menor con 20.25

34

Los que suben Nuevo León Colima Morelos Coahuila Michoacán Nayarit Chiapas Hidalgo Tlaxcala Baja California Sur Distrito Federal Yucatán Baja California Veracruz Jalisco

Lugares (+) 16 15 13 10 9 7 5 3 3 2 2 2 1 1 1

puntos. En cuanto a los componentes del ranking, se observa un comportamiento similar al de años anteriores. El componente de información sigue siendo el componente con el valor más alto, y el componente de participación ciudadana sigue siendo el que tiene mayores oportunidades de mejora.

Conclusión El ranking 2016 muestra nuevamente la importancia de los portales de gobierno como herramientas para poner al alcance de los ciudadanos tanto información como servicios del gobierno. La evaluación distingue el esfuerzo de los gobiernos estatales que se


#Ranking

han ocupado de reinventarse, transformar sus organizaciones, usar sus conocimientos y su aprendizaje previo para innovar, proponer y reconstruir sus portales. El diseño e implementación de estrategias tecnológicas y los correspondientes cambios en los marcos normativos y legales son, sin duda, un promotor de la mejora de los portales estatales y de la calidad de la información y servicios disponibles en ellos. En este año de la evaluación se identificó que la veda electoral puede representar un aspecto estructural en el comportamiento del ranking que puede sesgar los resultados, pero que a su vez implica un potencial riesgo en la administración de los portales y proyectos de tecnologías de la información y de la comunicación

(TIC) que las gestiones estatales deberán enfrentar cíclicamente para no afectar a los usuarios. Finalmente, aunque todos los estados han crecido y mejorado sus capacidades para ofrecer servicios interactivos de información y transacciones a sus ciudadanos, uno de los factores que debe considerarse como prioritario en los próximos años es, sin duda, la disponibilidad de datos abiertos para facilitar una mayor participación ciudadana en el análisis de políticas públicas y la búsqueda de soluciones a los problemas que afectan a nuestro país. Como otras aplicaciones de tecnologías de información, los portales no deben ser un fin en sí mismos sino medios para lograr beneficios para los ciudadanos y la sociedad en general. Con respecto a los datos abiertos, varias preguntas quedan sin contestar por el momento: ¿cómo se deben presentar los datos para que sean útiles para la mayoría de los ciudadanos o para quién deben ser útiles?, ¿cuál es el objetivo de tener datos abiertos disponibles en los portales de gobierno?

Queremos expresar un sincero agradecimiento al Consejo Nacional de Ciencia y Tecnología (Conacyt), que mediante los proyecto números 107154 y 240992, esta medición fue posible. Agradecemos también la valiosa colaboración de Laura Patricia Amador Rosas, Jorge Israel Castro Collado, Tania Magdalena Romero Gutiérrez, Josué Vega Hernández, José Edgar Marín Pérez y Maribel Eudave Colmenero para la realización de este estudio.

Referencia Cámara de Diputados, Ley General de Transparencia y Acceso a La Información Pública, 2015: http://www.diputados.gob.mx/LeyesBiblio/pdf/LGTAIP.pdf

1

35


Ranking de portales estatales de transparencia 2016

Dolores E. Luna Profesora investigadora en la Escuela de Ingeniería de la Universidad de las Américas Puebla. dolorese.luna@udlap.mx

Gabriel Purón Cid Profesor investigador de la División de Administración Pública en el Centro de Investigación y Docencia Económicas (CIDE). gabriel.puron@cide.edu @gpuron

Rodrigo Sandoval Almazán

@Horus72

Profesor en la Facultad de Contaduría y Administración de la Universidad Autónoma del Estado de México (UAEM). Miembro del Sistema Nacional de Investigadores Nivel 1. Licenciatura en ciencias políticas y administración pública. Maestro en administración con especialidad en mercadotecnia (ITESM). Doctor en administración con especialidad en sistemas de información (ITESM). Recientemente ha publicado el libro Avances y Retos del Gobierno Electrónico en México, de editorial IAPEM junto con el doctor Luis Luna-Reyes y el doctor J. Ramón Gil-García. Sus intereses de investigación incluyen: redes sociales en el gobierno, medición de gobierno abierto, medición de gobierno electrónico y brecha digital. rsandovala@uaemex.mx

J. Ramón Gil-García

@jramongilgarcia

Director de Investigación del “Center for Technology in Government”, en la Universidad Estatal de Nueva York en Albany, Nueva York. Profesor investigador de la División de Administración Pública en el Centro de Investigación y Docencia Económicas (CIDE). joseramon.gil@cide.edu

Luis Felipe Luna Reyes

@luisfluna

36

Profesor en la Escuela de Negocios y Economía de la Universidad de las Américas Puebla. Miembro del Sistema Nacional de Investigadores. Su trabajo de investigación y consultoría durante los últimos años ha estado relacionado con el estudio del uso de los sistemas y tecnologías de información en el sector público. Ha realizado proyectos financiados por la National Science Foundation en Estados Unidos, la Comisión Económica para América Latina y el Caribe (CEPAL), el Conacyt e Infotec en México. lluna-reyes@albany.edu


37


LAS ACCIONES DE NINTENDO SUBEN 10% DESPUÉS DEL LANZAMIENTO DE POKÉMON GO Pamela Calixto

@Pamelaine_

Aunque Pokémon Go todavía no llega a todas las regiones, al menos ha tenido bastante éxito en donde sí, llenando las redes sociales de múltiples curiosidades y siendo uno de los temas más frecuentes de las últimas semanas, incluso siendo el blanco de algunas noticias curiosas como la ira de la policía y algunas iglesias al verse invadidos por entrenadores en busca de nuevos Pokémon. De acuerdo con Reuters, desde el lanzamiento inicial de esta aplicación en algunas regiones de Oceanía, las acciones de Nintendo han incrementado en 10%, alcanzando el porcentaje más elevado desde hace dos meses, esto a pesar de que, en realidad, la gran “N” no estuvo propiamente involucrada en el desarrollo del juego, sino Niantic y The Pokémon Company, de las que la compañía sólo posee una parte. Hasta el momento, la aplicación de realidad virtual ya alcanzó los primeros puestos de popularidad en la App Store, todavía no hay noticias que indiquen cuándo será que llegue a México u otras regiones de América Latina, aunque varios usuarios ya han encontrado alternativas para probarla en Android.

SAMSUNG PRESENTA SUS PRIMERAS TARJETAS CON TECNOLOGÍA UFS Pamela Calixto

@Pamelaine_

Samsung presentó su primera familia de tarjetas de memoria utilizando tecnología Universal Flash Storage (UFS). Estas memorias vienen en un rango de cuatro capacidades distintas que van desde los 32 hasta los 256 GB, pero también se enfocan, principalmente, en ofrecer un mejor rendimiento y velocidad, puntos que cada vez son más demandados y necesarios, especialmente en el uso rudo fotográfico, como en cámaras 3D de última generación, cámaras de acción o drones. Lo que la tecnología UFS ofrece es una velocidad de lectura de 530 MB/s y 170 MB/s de escritura, es decir, mucho más rápida en comparación con las tarjetas microSD, que apenas alcanzan los 100 MB/s. De hecho, Samsung ha optado por integrar esta tecnología dentro del almacenamiento interno del Galaxy S6 el año pasado y eliminar las ranuras para tarjetas externas con el propósito de no alterar el rendimiento del teléfono; sin embargo, este paso todavía está un poco adelantado a su tiempo, pues la mayoría de los gadgets no cuenta con compatibilidad con tecnología UFS de momento. Samsung no ha confirmado cuándo será posible conseguirlas y tampoco ha hablado del precio.


3 HERRAMIENTAS DE E-LEARNING PARA NIÑOS Fernando Barajas

@leguizamou

Hay muchas ventajas en el e-learning para niños. No sólo se trata de aplicaciones que pretenden ser sumamente accesibles, también quieren construir conocimiento significativo y valioso para los pequeños. En un mundo cada día más digitalizado, el aprendizaje en línea se convierte en significativo porque ayuda a los infantes a relacionar la información que aprenden con su entorno, es decir, con las herramientas digitales que encuentran a su alrededor. Aquí te presentamos tres excelentes opciones para hacer accesible el conocimiento de calidad para los niños. Impulsar los derechos de los infantes es tarea de todos, y quizá con alguna de estas herramientas podremos acercarlos a la educación que merecen.

1. E-learning for kids Se trata de una fundación sin fines de lucro que desde 2004 trata de llevar contenidos de calidad en plataformas probadas a los niños del mundo. Enfocado a pequeños de entre cinco y 12 años, cuenta con cursos interactivos de ciencias, lengua, matemáticas, habilidades del ambiente, etcétera. La mayoría de los cursos están en inglés, pero algunos de ellos ya han sido traducidos al español. Adicionalmente, “E-learning for kids” aspira a crear una comunidad de enseñanza y aprendizaje en línea; es decir, pone en contacto a los padres de familia con los expertos detrás de los cursos para construir puentes con el único fin de hacer que la educación en línea para los niños sea lo más exitosa posible. Sus vistosos cursos, diseñados por expertos en cada una de las ramas que abarca, permitirán que los infantes aprendan de la manera más lúdica posible.

2. Educaplay La educación en línea para niños no pretende prescindir de los maestros y del contacto con otros seres humanos. Más aún, le interesa potenciarlo con herramientas digitales que permitan un mejor contacto entre maestros y alumnos y un proceso de aprendizaje más efectivo. Con eso en mente, “Educaplay” es una plataforma interactiva para que los maestros de todo el mundo puedan generar, compartir y mejorar cursos o herramientas en línea con el fin de formar de mejor manera

a sus niños. Abierta a nueve idiomas diferentes (incluido el español) y dividida en áreas temáticas como “Mapa”, “Adivinanza”, “Completar”, “Crucigrama”, “Diálogo”, “Dictado”, “Ordenar letras”, “Ordenar palabras”, “Relacionar”, “Sopa”, “Test” y “Colección”; esta plataforma está interesada en recoger la experiencia docente y apoyarla. De manera que los maestros del mundo podrán evaluar y ejercitar actividades con sus alumnos con alguna de las opciones que esta plataforma gratuita ofrece. Por si fuera poco, es posible compartir y acceder a contenidos de otros maestros. Lo que se traduce en una forma de echar un vistazo a los que los maestros del mundo hacen y cómo esto podría ayudarnos a mejorar nuestras propias prácticas educativas.

3. Móviles No podemos pasar por alto el inmenso sector de móviles en el terreno de la educación infantil. Tanto las tablets como los smartphones pueden ser portales al conocimiento, siempre y cuando les perdamos el miedo e impulsemos a nuestros niños para que los usen responsablemente. Aquí te recomendamos algunas apps que pueden convertir los ratos de ocio en aprendizaje significativo. ¿Recuerdas cómo aprendiste tus primeras matemáticas, los nombres de los colores y las formas? Seguro en tus primeros días en la escuela los libros de actividades te ayudaron a comenzar tu camino por el mundo del aprendizaje. Los iCuadernos son la versión electrónica y actualizada de esos viejos libros. Disponibles para iOS y Android, estos cuadernos hacen del aprendizaje interactivo un reto, como si de un juego se tratara, e incluye un tutor electrónico que ayudará a los niños en todo su proceso. Una de las tareas más importantes y más difíciles en la educación actual es acercar a los niños a la ciencia. “BioMio” pretende alcanzar este objetivo con ilustraciones de calidad y ambientes exuberantes. En lugar de los aburridos libros de texto, los niños aprenderán y se sensibilizarán respecto a la vida en nuestro planeta con una herramienta que les enseñará no sólo que la ciencia es importante, sino también divertida y estimulante. Disponible en Android y iOS. Durante años, los videojuegos han mostrado su increíble capacidad para interesar a los niños y para dejarles mensajes perdurables. Una aplicación construida como un juego estratégico puede ejercitar el pensamiento lógico de los niños y estimular su memoria. “Thinkrolls” ayuda a los pequeños a construir su propio pensamiento estratégico de manera sencilla y divertida. Con un diseño excepcional y dos niveles de dificultad, esta app hará que los pequeños jugadores desarrollen sus mentes. También disponible tanto para Android como para iOS.


40


DIGITALIDAD l Instituto Nacional de Estadística y Geografía (INEGI), en conjunto con Centro de Investigación e Innovación en Tecnologías de la Información y Comunicación (Infotec), Centro de Investigación en Geografía y Geomática (Centro Geo) y el apoyo de la universidad TecMilenio, realizó un análisis del estado de ánimo de los tuiteros en México de febrero de 2014 a mayo de 2015. Esta información está presentada de manera geográfica y temporizada en el sitio del INEGI. A continuación presentamos un extracto de la nota metodológica de cómo se clasificaron los mensajes de la red social y cómo se llegó al resultado. El documento original se encuentra disponible en el vínculo al que lleva el siguiente código QR:

E

Metodología Twitter es una red social en la que los usuarios escriben textos cortos de hasta 140 caracteres que quedan visibles públicamente; es decir, cualquier persona puede leer lo que se escribe en Twitter, no sólo quienes están vinculados al usuario que escribió el tuit. Adicionalmente, el tuitero tiene la alternativa de georreferenciar sus tuits, etiquetando cada tuit con las coordenadas geográficas de su ubicación en el momento de publicarlo. El análisis del ánimo de los tuiteros se centró en estos tuits georreferenciados, debido a que es posible descargarlos mediante filtros geográficos sin importar el tema del que hable el tuitero, la desventaja de esto es que no todos los tuits se emiten con el atributo geográfico.

41


Mediante el uso de mecanismos que Twitter pone a disposición de cualquier usuario, el INEGI ha recolectado tuits públicos y georreferenciados dentro del territorio nacional, la parte sur de Estados Unidos y norte de Centroamérica.

Generación del conjunto etiquetado manualmente Para generar la estadística del estado de ánimo de los tuiteros en México es necesario calificar cada tuit de acuerdo con la carga emotiva que identifique el estado de ánimo que tenía el tuitero cuando escribió el tuit. Si esto tuviera que hacerse manualmente sería una tarea monumental, por ello se utilizan técnicas de “Machine Learning”. Primero, se requiere la clasificación manual de un subconjunto de tuits en la que se asigna una etiqueta de acuerdo con la carga emotiva de cada tuit. La etiqueta asignada a cada tuit se define como positiva, negativa o neutra. Para generar este subconjunto de tuits etiquetados, se realizó una colaboración con la Universidad Tec Milenio, en la que más de cinco mil estudiantes etiquetaron manualmente miles de tuits. En este ejercicio cada tuit se presentó múltiples veces a los estudiantes con la finalidad de que un solo tuit pueda ser etiquetado varias veces y de esta manera buscar un consenso en la etiqueta.

42

Definición de conjuntos de entrenamiento y validación Una vez normalizados los tuits, este universo se partió en dos conjuntos independientes, uno con 89% de los tuits para utilizarlo como conjunto de entrenamiento y el otro conjunto para utilizarlo como grupo de validación, el cual sirve para verificar la calidad de la clasificación realizada automáticamente.

Clasificación masiva de tuits Utilizando el ensamblado de algoritmos ya entrenado, se prosiguió a procesar todos los tuits restantes, a los cuales se les aplicó previamente la función de normalización, dando como resultado una base de datos de tuits con un nuevo atributo que indica la carga emotiva de cada tuit.

Herramienta para la visualización de la estadística del ánimo de los tuiteros en México Finalmente, se desarrolló una herramienta de visualización que toma el resultado de la clasificación automatizada de los 63 millones de tuits para representar el ánimo de los tuiteros en México, mostrando desgloses a nivel estatal por mes. Se calculó un índice que representa la relación de número de tuits positivos entre el número de tuits negativos y se representan en forma geográfica y gráfica. La escala es relativa tomando como máximo el valor más grande de todos los índices mensuales y como mínimo el valor más pequeño de los mismos índices, utilizando la misma escala para todos los meses del periodo con el fin de que sean comparables entre sí. La escala de colores utilizada en el mapa indica la intensidad del sentimiento de cada entidad federativa, mientras más positivo es, resulta más verde; en cambio, mientras más negativo sea, el color se vuelve más rojo. La herramienta está disponible en el siguiente código QR:


43



45


José Luis Tesoro Inducción ....

Profesor investigador en la Escuela de Negocios y Economía de la Universidad de las Américas, Puebla.

@jltesoro

s o í f a s a e n d i t y a L s a e d c i a r d i é n m u A t r o ara p O p

46


CAPA UNO Introducción as expresiones “marea”, “océano”, “diluvio” o “tsunami” de datos aluden hoy a la vertiginosa proliferación de datos, de diversos órdenes, fuentes y canales que se hallan disponibles para destinatarios genéricos o específicos. Un claro indicador del fenómeno reside en que más de 90% de los datos accesibles en el mundo habrían sido generados durante los últimos dos años (estimación difundida en el Foro IBM Business Connect 2013, Ciudad de México). Aquí usaremos el término “hiperdatos” para aludir al entorno resultante de esta multiplicación de datos, la cual implica simultáneamente: a) diversos riesgos sociales, informativos y cognitivos emergentes de una eventual saturación de la atención, y b) múltiples oportunidades informativas; por ejemplo, ejercer con mejor información nuestros derechos y responsabilidades cívicas. Dado que el objeto primordial de la relación Estado-sociedad reside en el valor público inducido por el Estado y concretado por la sociedad (Tesoro, 2015), en este artículo procuramos examinar en qué medida el entorno de hiperdatos contribuye a transparentar procesos de apropiación social de valor público, así como a prevenir, detectar y examinar eventuales desvíos en tales procesos, como favoritismo, delito o corrupción. Entre diversos pronunciamientos pertinentes, la Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura (UNESCO, 2014) destaca que los gobiernos deben proteger a los informantes y a los medios de comunicación que denuncian y aportan indicios sobre prácticas corruptas en su seno, considerándolos como sus aliados y no como una amenaza. El artículo se inicia con una caracterización del entorno de hiperdatos y su incidencia en la transparencia de las relaciones Estado-sociedad; continúa con la presentación de dos esquemas para el análisis de tales relaciones en los países de América Latina y posteriormente muestra el potencial cívico de la transparencia inducida por el entorno de hiperdatos, así como los factores que pueden potenciar o inhibir su aprovechamiento. La principal conclusión reside en que el entorno de hiperdatos exhibe un relevante potencial para aumentar la transparencia de la gestión pública en los países de América Latina, pero que el aprovechamiento de tal potencial requiere inducir actitudes y conductas cívicamente resilientes (superadoras) en comunidades que hoy padecen altos grados de desamparo cívico aprendido.

L

47


Hiperdatos y transparencia inducida

Conceptos básicos En esta sección trataremos los términos fundamentales de este artículo:

Denominamos “hiperdatos” al entorno cultural-informacional resultante de la proliferación de datos de diversos órdenes, fuentes y canales (por ejemplo: prensa escrita, radiofonía, televisión, correo y mensajería electrónica, blogs, páginas web, redes sociales, sitios comunitarios, datos abiertos, datos aportados por la comunidad, metadatos de comunicaciones; dispositivos de escucha y visualización, dispositivos móviles, apps, sensores, geo-posicionamiento, drones, internet de las cosas, etcétera). El prefijo hiper, derivado del griego (ύπερ), significa: para la Real Academia Española (RAE) “exceso o grado superior al normal” (por ejemplo: hipertensión, hiperactivo). Lo usamos en el término “hiperdatos” para denotar que nunca antes hubo tantos datos disponibles (de manera formal, informal o furtiva) para satisfacer nuestros volátiles intereses acerca de personas, organizaciones, objetos, lugares, procesos, hechos, valores, ideas y de lo que pueda, o no, imaginarse. Desde la perspectiva del receptor, elaborar un panorama relativamente objetivo sobre una determinada cuestión en ese entorno involucra diversos desafíos asociados a nuestras limitaciones para: Seleccionar, procesar y sintetizar datos de diversos tipos, estructuras, calidad y confiabilidad, dentro de una oferta prácticamente infinita. Controlar los propios sesgos en la captura, registro, procesamiento, representación, análisis, síntesis, interpretación y utilización de los datos.

48


#BigData

Cabe diferenciar nuestro foco temático (hiperdatos) del denominado “big data”. Si bien incluiremos algunas referencias vinculadas al “big data”, señalamos que este concepto, referido al descubrimiento de correlaciones mediante el uso de inmensos volúmenes de datos (petabytes [PB], exabytes [EB] o zettabytes [ZB]), apunta a cuestiones técnicas (como velocidad, procesos y tecnologías) que no son objeto de nuestro análisis.

Es común afirmar que el entorno de hiperdatos contribuye a aumentar la transparencia en las relaciones Estadosociedad. En un artículo anterior (Tesoro, 2016) señalamos un conjunto de posibilidades y herramientas a disposición de las organizaciones estatales para informarse de diversos aspectos de nuestras vidas. Desde la perspectiva de la sociedad, dicho entorno nos permite acceder a distintos tipos de datos referidos al desempeño de las organizaciones estatales, la utilización de recursos públicos y las conductas de los funcionarios, tanto en el plano público como en el privado expuesto. Es usual distinguir entre (Tesoro, 1998): y Radica en la obligación de la administración de publicar información clave de manera fácilmente localizable y entendible por parte de los destinatarios. Deriva del derecho ciudadano a recibir de la administración la información pública que requiera (derecho de acceso a la información pública). Reside en la publicación de datos crudos (“datos abiertos”) por parte de la administración y en el derecho ciudadano a procesarlos para su interpretación y evaluación.

49


Inducción .... Hiperdatos y transparencia inducida

Desde hace unos años se impulsa también a los gobiernos a ejercer la transparencia radical, haciendo públicos los procesos de toma de decisiones, sus motivaciones, las opciones contempladas, seleccionadas y descartadas en cada caso, con los fundamentos pertinentes. Sus proponentes señalan que los gobiernos procurarán tomar mejores decisiones si se saben observados, y que si están tomando buenas decisiones, desearán ser observados.

Por otra parte, el entorno de hiperdatos permite que las acciones, omisiones, negligencias y desvíos de los gobiernos y de sus funcionarios sean observadas, escrutadas, monitoreadas y difundidas por los ciudadanos como nunca antes, y todo ello prácticamente en tiempo real. En la década de los 60, la televisión expuso al escrutinio público escenas de la vida política y social que anteriormente no resultaban visibles. A partir de la década de los 90 se fueron añadiendo crecientes posibilidades generadas por internet, con aportes provenientes de una amplia gama de actores (periodistas web, bloggers, ciberactivistas, hackers, youtubers, entre otros) con habilidad para proporcionar datos exclusivos o develar secretos. Con relación al entorno de hiperdatos, parece pertinente introducir aquí una nueva categoría de transparencia, que denominamos “transparencia inducida” para aludir a la convergencia (sobre determinadas cuestiones de interés público) de cúmulos de datos provistos por una amplia diversidad de fuentes y canales ajenos a la administración. Para el interés de la sociedad, la transparencia inducida por el entorno de hiperdatos complementa eficazmente a las transparencias activa, pasiva,

50

colaborativa y radical en la prevención y control de la corrupción; uno de los mayores flagelos en varios de nuestros países. Según el Índice de Percepción de la Corrupción (IPC) de la organización Transparencia Internacional, la mayor parte de los países de América Latina (con excepción de Uruguay, Chile y Costa Rica) registran posiciones relativamente desfavorables en el IPC 2015. Dichas posiciones (sobre un máximo de 167) son las siguientes (Transparency International, 2015): Uruguay 21, Chile 23, Costa Rica 40, Cuba 56, El Salvador 72, Panamá 72, Brasil 76, Colombia 83, Perú 88, México 95, Bolivia 99, República Dominicana 103, Argentina y Ecuador 107, Honduras 112, Guatemala 123, Nicaragua y Paraguay 130, Haití y Venezuela 158. El Papa Francisco calificó a la corrupción como un “cáncer social” que carcome los cimientos de la sociedad a través de una estafa multidimensional: • Económica. Implica robar el dinero que es del pueblo. • Social. El dinero que debió destinarse a cubrir necesidades básicas (nutrición, salud, educación, hábitat), termina engrosando el patrimonio de inescrupulosos. • Moral. Deteriora el ánimo y la confianza de las personas en las instituciones del Estado democrático, produciendo decepción y resignación.


#Transparencia

Transparencia inducida versus opacidad En este apartado nos referimos a las posibilidades de la transparencia inducida por el entorno de hiperdatos para develar cuestiones de interés público, encubiertas por gobiernos y administraciones públicas.

Filtraciones célebres Son habituales las referencias a casos ya célebres de filtraciones de grandes volúmenes de datos, la mayor parte proveniente de archivos gubernamentales estadounidenses y uno de una firma privada panameña, con relevantes efectos en la escena internacional.

Un antecedente pre-Web está dado por el caso de Daniel Ellsberg, un ex analista militar de Estados Unidos, que en 1971 (mientras trabajaba en la Rand Corporation) filtró a The New York Times y a otros periódicos, los llamados “Papeles del Pentágono” (“Pentagon Papers”), un estudio clasificado de alto secreto sobre las acciones del ejército estadounidense en Vietnam entre 1945 y 1967.

Entre 2013 y 2015, un ex contratista de la Agencia de Seguridad Nacional (NSA) y de la CIA, Edward Snowden, copió y posteriormente filtró, a través de los periódicos The Guardian y The Washington Post, documentos clasificados como de alto secreto sobre varios programas de Estados Unidos, incluyendo los de vigilancia masiva “Prism” y “XKeyscore”, así como de otros países (como Australia, Canadá o Reino Unido), gracias a su acceso a la exclusiva red “Five Eyes”. Los documentos, que en conjunto habrían superado los 1.7 millones, fueron copiados por Snowden mientras trabajaba para Booz Allen Hamilton, uno de los mayores contratistas militares y de inteligencia del gobierno estadounidense.

1971

El 9 de mayo de 2016, el ICIJ publicó la base de datos completa bajo licencia Open Database License (ODbL, v1.0) y sus contenidos fueron liberados bajo licencia Creative Commons. Hay herramientas gratuitas, como la de Snoop Consulting (2016), para rastrear dicha base, con más de 200 mil empresas offshore y cerca de un millón de nodos interrelacionados, pudiendo segmentarse los criterios de búsqueda por diversos parámetros combinables.

2013-2015 2010

En 2010, la organización WikiLeaks, fundada y dirigida por Julian Assange, difundió videos de ataques a periodistas, 90,000 documentos sobre las guerras de Afganistán e Irak, así como 250,000 documentos de archivos del Departamento de Estado y de Global Intelligence, junto a indicios de otros archivos que aún hoy no han sido develados.

2016 2016

En abril de 2016 se denominó “Panama Papers” a una filtración informativa de documentos confidenciales de la firma panameña de abogados Mossack Fonseca. Una fuente no identificada habría entregado 2.6 terabytes de datos al periódico alemán Süddeutsche Zeitung, que posteriormente los compartió con el Consorcio Internacional de Periodistas de Investigación (ICIJ). La base de datos revela empresas off-shore, activos, ganancias y evasión tributaria de líderes políticos y de otras personalidades.

51


Inducción .... Hiperdatos y transparencia inducida

Algunas aplicaciones Con relación a aplicaciones para el aprovechamiento de la transparencia inducida, la literatura internacional exhibe diversos aportes referidos al uso de “big data” en la prevención y lucha contra la corrupción. Al respecto, Crawford (2015) destaca aplicaciones como iPaidABribe (en castellano: “Yo pagué una coima”), la cual se centra en mapas que indican las zonas con mayor prevalencia de cohecho, así como las reparticiones involucradas (por ejemplo: policía, agentes municipales, inspectores de sanidad, etcétera). El objetivo central es informar a las autoridades gubernamentales los lugares donde se exigen coimas por servicios. Las denuncias pueden registrarse mediante el propio sitio web, vía mail o SMS. Señala Crawford que este tipo de espacios, que permiten a los ciudadanos informar evidencias sobre funcionarios corruptos, generan un conjunto de datos fértiles tanto para organismos anticorrupción como para activistas, quienes pueden ejercer “minería” de datos para inferir patrones y develar eventuales redes de corrupción. Otro ejemplo común es la detección de fraude en la contratación pública, a través del análisis de corre­laciones en procesos de licitación y las correspondientes adjudicaciones. Pfeil (2015) destaca que la integración de técnicas y herramientas avanzadas de análisis de grandes datos (por ejemplo, minería de datos

52

y textos), dentro de programas de investigación, auditoría o lucha contra la corrupción, permite detectar e indagar (profunda, focalizada y oportunamente) patrones irregulares en áreas de alto riesgo. La Comisión Europea (European Commission, 2014), en cooperación con la organización Transparencia Internacional, desarrolló el software analítico “Arachne”, que permite identificar proyectos susceptibles de riesgos de fraude, irregularidades o conflictos de interés, mediante cruces de datos provenientes de reservorios con miles de millones de datos de instituciones públicas y privadas, empresas, individuos y transacciones. Análogas técnicas y herramientas pueden usarse para detectar evasión, lavado y rutas de dinero. Investigadores del Corruption Research Center Budapest (Centro de Investigación de Corrupción de Budapest, Hungría) examinan grandes masas de datos de contratación pública de los países de la Unión Europea, en búsqueda de patrones anómalos, con base en el Corruption Risk Índex (CRI). Transparencia Internacional está hoy promoviendo iniciativas con “datos impulsados por los ciudadanos” para prevenir, detectar y combatir la corrupción en todo el mundo. Si bien se supone que esas iniciativas ciudadanas deberían contar con la favorable disposición de las instituciones estatales, frecuentemente deben operar a pesar o en contra de ellas.

En la siguiente sección presentaremos dos esquemas que nos ayudarán a distinguir los condicionamientos cívicos que podrían afectar el aprovechamiento, por parte de la sociedad, de la transparencia inducida por el entorno de hiperdatos:


#Filtracion

53


Hiperdatos y transparencia inducida

Desde la perspectiva de la sociedad, el análisis referido a la transparencia inducida exige distinguir, respecto de los gobiernos y de las administraciones públicas, entre el marco oficial (de derecho, legal, de iure) y el perfil fáctico (de hecho, real, de facto). El marco oficial está dado por el plexo normativo-institucional que, sustentado en la Constitución, incluye toda la normativa (códigos, leyes, decretos, resoluciones, ordenanzas, reglamentos, etcétera) que rige el funcionamiento de las instituciones, los roles, las responsabilidades y las relaciones entre organizaciones (públicas, privadas y de la sociedad), así como los deberes y derechos de los ciudadanos. Por su parte, el perfil fáctico, en cada comunidad, resulta de cruzar el marco oficial con las evidencias emergentes de una red de significaciones que, dentro de las respectivas relaciones de poder, provee sentido a las propias conductas y relaciones. Fuera de esa red, tales conductas y relaciones pueden aparecer como arbitrarias, inaceptables o absurdas. Es frecuente hallar notorias diferencias entre el marco oficial y el perfil fáctico de los gobiernos y de las administraciones públicas. Por ejemplo, mientras el marco oficial establece rigurosas regulaciones sobre la contratación pública, el perfil fáctico podría imponer peculiares prácticas de contratación, con favoritismos, sobreprecios y cohecho. Desde la perspectiva de la sociedad, a continuación reseñaremos dos esquemas de análisis que nos permitirán apreciar en qué medida los perfiles fácticos condicionan el aprovechamiento cívico de la transparencia inducida por el entorno de hiperdatos: 1. Una taxonomía de “países” dentro de un país. En un artículo referido a la Argentina, Fidanza (2011) señala que el cruce de las dimensiones “legalidad” y “formalidad” de las instituciones y organizaciones sociales revela que, en dicho país, coexisten cuatro “países” distintos en conflicto: i. El país “formal y legal” u “oficial”. Está integrado por las instituciones democráticas y republicanas sancionadas por la Constitución, los códigos y las leyes. ii. El país “formal e ilegal” o “corrupto”. Representa la contra-cara del país oficial, donde pululan las agendas ocultas y las prácticas ilegales, avaladas, por omisión, anuencia o complicidad, por el poder formal (“si el país oficial es el Dr. Jekyll, el país corrupto es Mr. Hyde”). iii. El país “informal e ilegal” o “mafioso”. Se desarrolla por fuera de las instituciones, con intrincados artificios organizativos para el delito, a través de coaliciones entre pandillas, políticos corruptos, policías venales y jueces sesgados. iv. El país “perturbador y soterrado” o “emergente”. Está conformado por quienes, padeciendo carencias básicas y no sintiéndose representados ni protegidos por el país oficial, responden a una “para-legalidad” que cohabita, en tensión, con la legalidad oficial.

54

Señala Fidanza que los cuatro “países” conviven e interactúan de manera circular: el “oficial” se desdobla en el “corrupto”, el “corrupto” tiene vasos comunicantes con el “mafioso”, el “mafioso” se infiltra en el “emergente”, y el “emergente” presiona e interpela al “oficial”. Afirma el autor que el “país oficial” es el eslabón más débil del circuito y el síntoma de la fragilidad institucional, dado que no combate con eficacia a la corrupción que corroe sus cimientos, deja crecer la delincuencia por falta de control, y no sabe qué hacer con quienes reclaman mayor equidad en la distribución de la riqueza. Pero el “país oficial” es, además, un sinsentido envuelto en una confusión paradójica: cree (o simula creer) que sus debates son decisivos para una sociedad cuya realidad no quiere ver ni puede abarcar; juega a zanjar disputas mientras florece la corrupción, se multiplican los crímenes, se agrava la violencia, se agolpan las protestas, se propaga la desintegración y las instituciones son forzadas, día tras día, a resignar fragmentos de su menguante legitimidad. Concluye señalando que la cuestión que debe resolver el “país oficial”, para poder fortalecerse es cómo alcanzar acuerdos para ejecutar auténticas políticas dirigidas a combatir la corrupción, desarticular la delincuencia e integrar a los excluidos. Se trata de un programa acotado y realista que deberá encararse, por convicción o por supervivencia, haciendo uso de todos los recursos disponibles. 2. Una taxonomía de democracias. En un artículo de divulgación,


#AmericaLatina

March (2014) distingue cuatro tipos de democracias mediante el cruce de las variables “consolidación institucional” y “cohesión social”. A continuación reseñamos la significación de los valores “Alta” y “Baja” de las referidas variables:

Alta (“institucionalidad”). Da cuenta de la fortaleza de las instituciones del Estado y de los instrumentos de la democracia para resguardar derechos ciudadanos, así como para combatir y condenar la violencia, la corrupción y el delito. Baja (“para-institucionalidad”). Se asocia a tramas y reglas de juego promotoras y sustentadoras de ilegalidad, corrupción, abuso de poder y administración discrecional de recursos públicos en beneficio de asociaciones ilícitas, facilitando la captura de las instituciones y el sometimiento de la sociedad.

Alta (“articulación”). Los diver-

sos actores de la sociedad construyen vínculos y entramados de calidad, fundados en valores compartidos, articulando agendas de acción común a partir de espacios colectivos. Baja (“fragmentación”). Las estructuras sociales carecen de capacidad para articular acciones defensivas comunes frente al avance de las asociaciones ilícitas, el delito y la corrupción. Con base en dichas dimensiones, pueden identificarse cuatro tipos de democracias que indicamos

en el siguiente cuadro (como aparece en la figura 1) y cuyas características reseñamos a continuación:

Figura 1. Tipos de democracias resultantes de cruzar las variables “Consolidación institucional” y “Cohesión social”

Institucionalidad Cohesión social Alta cohesión (empatía) Baja cohesión (fragmentación)

Alta institucionalidad Baja institucionalidad Democracia como proyecto ético

Democracia como proyecto delictuoso

Democracia como proyecto corporativo

Democracia como proyecto de impunidad

• La democracia como proyecto ético. La conjunción de “institucionalidad” con “articulación”, en términos de democracia republicana, induce en el ciudadano un conjunto de condiciones propicias para lograr calidad de vida personal e incidir favorablemente sobre la colectiva. • La democracia como proyecto corporativo. La conjunción de “institucionalidad” con “fragmentación” da lugar al predominio de intereses corporativos en detrimento del interés común. Cuando las políticas públicas y los organismos del Estado son definidos y gestionados por poderes corporativos, lo público se canaliza en beneficio de sectores privilegiados. Por ejemplo, empresas beneficiadas con prebendas y proteccionismo digitado (“capitalismo de amigos”). • La democracia como proyecto delictuoso. La conjunción de “para-institucionalidad” con cierta “articulación” entre quienes delinquen, da lugar a la cartelización. La asociación empática entre la corrupción y el delito organizado supera a la débil institucionalidad, erosionándose la capacidad del Estado para controlar y sancionar, floreciendo así una para-institucionalidad dominada por el delito privado y la corrupción pública. • La democracia como proyecto de impunidad. La conjunción de para-institucionalidad con fragmentación promueve una mega-corrupción que arrasa la democracia hasta convertirla en un proyecto de impunidad. El Estado es capturado por pandillas que garantizan impunidad al delito. En el ámbito público el Estado pierde el control del territorio y el monopolio de la fuerza pública. El delito financia a la política, las empresas se convierten en fachadas de actividades ilegales y la sociedad es dominada por la violencia.

55


Inducción .... Hiperdatos y transparencia inducida

Transparencia inducida y perfiles fácticos

del capitalismo para mantener su dominación mediante la organización de la opinión pública. Se concluye afirmando que todo el accionar de taCon base en los dos esquemas presentados podeles medios se dirige a imponer sus propios interemos inferir que si bien la transparencia inducida ses corporativos bajo la bandera de supuestos valores democráticos y republicanos. La censura a puede ser funcional para la sociedad en todos los los medios críticos suele ejercerse mediante disuaperfiles fácticos de países y democracias, resultaría sión, expropiación, clausura o privación de propaparticularmente útil en regímenes de despotismo, ganda oficial y de publicidad privada. delito, corrupción e impunidad. En ese tipo de escenarios, la transparencia induci- 2. El cuestionamiento de contenidos. Suele foda podría: calizarse en su supuesta falsedad o distorsión, así como en la tendencia de las fuentes a • Mostrar las iniquidades en la gestión gubernamenarrogarse competencias cuasi-judiciales, al acutal y la esterilidad de los mecanismos institucionasar y promover la condena social de los denunles de control. ciados ignorando el debido proceso y el derecho • Promover una toma de conciencia por parte de la de defensa. comunidad y activar actitudes y conductas para su- 3. La banalización de tramas y personajes. perar la adversidad (“resiliencia cívica”). Suele responder a la acción manipuladora del • Trastornar los pactos de impunidad y la pasividad poder mediático para entretener a una masa de de los tribunales de justicia. espectadores y consumidores pasivos. Para ello, • Aportar elementos probatorios referidos a hechos las tramas denunciadas son tratadas con la lógica efectista del show, donde los intercambios denunciados. dan lugar a estridentes enojos, acusaciones y re• Develar y vulnerar los embustes, falacias y contorsiones con que pretenden legitimarse los regímecriminaciones recíprocas. Por su parte, los prones. gramas de estirpe farandulesca matizan los escandalosos hallazgos con escabrosas novedades • Concienciar acerca de los efectos transgeneracionales de la corrupción; por ejemplo: índices de mal surgidas de la equívoca intersección entre politiquería y farándula. nutrición con daños irreversibles. Los referidos tipos de regímenes, y a veces también los más democráticos, suelen responder a las prácticas de trasparencia inducida a través de tres ejes de acción: 1. El ataque a las fuentes. Suele focalizarse en el poder de los grandes medios de comunicación y sus redes globales como instrumentos

56

Dado que algunos fundamentos de los referidos focos de ataque exhiben un razonable sustento fáctico, es positivo que la transparencia inducida devele también secretos de los medios de comunicación como cuestiones de interés público. Percibimos que la transparencia inducida sobre las esferas de poder, públicas y privadas, es un fenómeno irrefrenable e irreversible capaz de sortear, superar


#BigData

o derribar las barreras para preservar opacidad. Podría implicar un cambio paulatino en las actuaciones y conductas de las “cúpulas”; desde la arbitrariedad amparada por la opacidad, hacia la actuación responsable fundada (al menos) en la autocensura frente a la visibilidad pública. Ello resultaría netamente auspicioso para el ejercicio de nuestros derechos cívicos, así como para el paulatino fortalecimiento de nuestras frágiles democracias.

Conclusión En este artículo hemos procurado mostrar las posibilidades de la transparencia inducida por el entorno de hiperdatos para: • Concienciar a nuestras sociedades acerca de la rémora ética, política, económica y social que implican la corrupción y el delito ejercidos desde los gobiernos. • Mostrar el extravío social que implica naturalizar tales perversiones junto al pacto de impunidad imperante en varios de nuestros países. • Activar actitudes y conductas de “resiliencia cívica”. Desde nuestra perspectiva, resultan inquietantes expresiones como las del presidente de Argentina, ingeniero Mauricio Macri, al iniciar (el 8 de julio de 2016 en Humahuaca) la celebración del Bicentenario de la Declaración de la Independencia de la Nación. En su discurso se refirió al “abuso y el saqueo” perpetrados por el gobierno anterior en los siguientes términos:

… Encontramos un país, un Estado devastado y saqueado, y cada día nos enteramos de más cosas que nos indignan y nos enojan. Nunca imaginamos que iba a ser tanto el saqueo y el abuso (hallado en el Estado)…

Cabría plantear aquí algunas interrogantes: • ¿Cómo se explica que quienes aspiraban a gobernar el país ni siquiera imaginaran los alcances del saqueo y el abuso que se estaba cometiendo en todos los niveles y ámbitos del Estado? • ¿Cómo se explica esa aparente desatención a los múltiples indicios de abuso y saqueo que la transparencia inducida proporcionaba a cada instante? • ¿Por qué la mayor parte de nuestras sociedades se han habituado a convivir con la corrupción, ignorando o minimizando la información que la revela? • ¿Cuáles son los sesgos cognitivos, emocionales y sociales que distorsionan nuestra percepción e inhiben nuestra capacidad de reacción? • ¿Hasta qué punto nuestros temores, intereses y creencias nos obnubilan para percibir y reaccionar ante las evidencias? • ¿Cómo fortalecer nuestras instituciones y acabar con históricas antinomias que supeditan la gobernabilidad al silencio y la impunidad? • ¿Cómo terminar con los pactos de silencio e impunidad y alcanzar acuerdos para ejecutar auténticas políticas dirigidas a combatir la corrupción, desarticular la delincuencia e integrar a los excluidos? La respuesta a dichas interrogantes está seguramente asociada a la naturalización del delito y la corrupción en nuestras sociedades, junto con la evidencia de que prácticamente ningún gobierno exhibe suficiente autoridad moral como para poder reestablecer la probidad, terminar con la impunidad y reconstruir la confianza cívica. Por encima de los intereses espurios, del efectismo y de la banalidad con que frecuentemente se manifiesta la transparencia inducida,

57


Inducción .... Hiperdatos y transparencia inducida

apreciamos que la posibilidad de sacar a la luz pública y difundir testimonios, imágenes y videos en tiempo real sobre los hechos, los personajes involucrados y sus conductas, presenta un relevante potencial para impulsar una transición social hacia el rechazo a la corrupción y la impunidad. Hoy parece posible estimular y promover la resiliencia cívica en pueblos que, por haber sido reiteradamente engañados y estafados, aprendieron a ser cívicamente desamparados ante la expoliación de lo público, además de indefensos y convencidos de que “no tiene sentido hacer nada, porque nada cambiará” (Martín Seligman, 1975: Desamparo aprendido). En estas situaciones de desamparo cívico aprendido, y mientras se mantengan naturalizadas la corrupción y la impunidad, de poco servirán las eventuales ofertas gubernamentales de transparencia activa, pasiva, colaborativa o radical. La evidencia empírica muestra que la transparencia, en sus distintas categorías, es condición necesaria pero no suficiente para luchar contra la corrupción y la impunidad; sin embargo, entendemos que, aún en tales casos y en ciertas condiciones, la transparencia inducida por el entorno de hiperdatos puede impulsar y potenciar los siguientes factores de lucha contra la corrupción y la impunidad:

58

• La voluntad política y la efectividad de los mecanismos institucionales de control para prevenirlas, evitarlas, detectarlas y sancionarlas. • Actores de la sociedad civil (comprometidos, involucrados y organizados) con capacidad para monitorear lo público, demandar proactivamente rectitud y rendición de cuentas de los actos de gobierno, así como para detectar y denunciar irregularidades. • El ejercicio de la investigación periodística en un marco de credibilidad y respeto social. • Un sistema judicial auténticamente independiente e imparcial que motorice las denuncias, juzgue, sentencie y condene (cuando corresponda) en tiempo y forma. La transparencia inducida también resultará funcional para formar a los actuales y futuros ciudadanos para: • Exigir virtud y ejemplaridad a los poderes del Estado, además de eficacia y eficiencia. • No tolerar el saqueo del Estado por parte de quienes deben garantizar su integridad. • Denunciar los delitos de toda índole y no resignarse a la impunidad. Ante la manifiesta vulnerabilidad de nuestros mecanismos institucionales para preservar los valores éticos y principios jurídicos de nuestras democracias republicanas, es fundamental que los ciudadanos aprendamos a actuar como intérpretes críticos de la realidad y a reaccionar frente a lo cívicamente cuestionable o intolerable, con independencia de nuestras afinidades o disidencias con los gobiernos de turno.

Bibliografía Crawford, Chris (2015), Big Data and Anticorruption: A Great Fit, GAB|The Global Anticorruption Blog: https://globalanticorruptionblog.com/2015/04/06/big-data-andanticorruption-a-great-fit/ European Commission (2014), Arachne Project: Risk scoring tool, november 2014: http://ec.europa.eu/regional_policy/archive/conferences/anti_ corruption/2014_10/doc/wg2_arachne.pdf Fagan, Craig (2014), Can big data solve the world’s problems, including corruption?, Trans­parency International: https://blog.transparency.org/2014/11/07/can-big-data-solve-theworlds-problems-including-corruption/ Fidanza, Eduardo (2011), “El drama político de las cuatro Argentinas”, La Nación:


http://www.lanacion.com.ar/1345689-el-drama-politico-de-lascuatro-argentinas March, Carlos (2014), “Cam­pagnoli y las cuatro democracias”, La Nación, Enfoques, Debates: http://www.lanacion.com.ar/1700916-campagnoli-y-las-cuatrodemocracias Pfeil, Helene (2015), The potential of fighting corruption through data mining, Transparency International: https://blog.transparency.org/2015/01/09/the-potential-offighting-corruption-through-data-mining/ Snoop Consulting (2016), Una herramienta gratuita para rastrear las bases de datos que originaron los Panama Papers y encontrar sociedades ocultas: http://panamapapers.snoopconsulting.com/privado/start.jsp Tesoro, José Luis (1998), Transparencia y tecnologías de gestión: hacia la consolidación de sistemas con transparencia inmanente en la administración pública, Instituto Nacional de la Administración Pública, Argentina: h t t p: // ko h a .f l a c s o.o r g . a r/c g i - b i n / ko h a /o p a c - d e t a i l . pl?biblionumber=10202 ------------------ (2015), “Inducción de valor desde entidades estatales hacia beneficiarios, clientes y ciudadanos”, revista U-GeOBe, Tecnología en Gobierno, núm. 3, junio de 2015, pp. 47-53, México: http://www.u-gob.com/induccion-de-valordesde-entidades-estatales-hacia-beneficiarios-clientes-yciudadanos/ ------------------ (2016), “Identidad digital y crisis de la privacidad: desafíos y oportunidades”, revista U-GeOBe, Tecnología en Gobierno, núm. 6, febrero de 2016, pp. 44-53. Transparency International (2015), Índice de Percepción de la Corrupción 2015: http://transparencia.org.es/wp-content/uploads/2016/01/tabla_ sintetica_ipc-2015.pdf UNESCO (2014), Los medios de comunicación y el buen gobierno. Día mundial de la libertad de prensa, 2014.

JOSÉ LUIS TESORO Licenciado en administración por la Universidad de Buenos Aires, con especialización en gestión y evaluación de políticas públicas. Investigador coordinador de la Dirección de Investigaciones del Instituto Nacional de la Administración Pública de Argentina desde 1978. Profesor de grado y posgrado en la Facultad de Ciencias Económicas de la Universidad Nacional del Centro de la Provincia de Buenos Aires. Coordinador del Foro e-Gobierno OEA y del Boletín Electrónico e-Gobierno Red GEALC.

59



61


62

P

ocas veces se puede presenciar tanto acuerdo. Revisar las noticias de las grandes empresas tecnológicas, de algunas de las compañías que almacenan la mayor cantidad de recursos económicos, ofrece de manera inequívoca un elemento común: la inteligencia artificial como fuente de ventaja competitiva. Google lo tiene perfectamente claro: la inversión en deep learning no se detiene en lo que su director de machine learning, John Giannandrea, define como “la primavera de la inteligencia artificial” (en contraposición a los AI winter que vivimos en periodos anteriores), la Founders letter de este año menciona las palabras machine learning hasta en cinco ocasiones, mostrando un absoluto convencimiento de que serán las superiores características de su inteligencia artificial las que le proporcionen las claves de su futuro. La compañía se está preparando para lo que considera un reto mediante la capacitación de todo su ejército

DIGITALIDAD

dejar de temer a la inteligencia artificial y de ponerse a trabajar para entender su impacto. Y ponerse a trabajar quiere decir eso: ponerse a trabajar. Desarrollar o adquirir las estructuras corporativas para hacer de los datos el activo fundamental de tu compañía, para que toda la actividad de la compañía se refleje en datos que puedan ser analizados. Tratar de entenderlo en lo personal, leer sobre ello, o incluso trabajarlo en la práctica, probarlo nosotros mismos. A veces, hacer las cosas en la práctica es la única manera de entender su alcance y posibilidades. Ponte con ello. La medida de la importancia de las cosas se obtiene cuando miras alrededor, y todas las compañías de verdad relevantes están trabajando en ello como si no hubiera mañana. No lo dejes, empieza ya. No es una recomendación trivial, no es como “haz algo de deporte”, “pierde algo de peso” o “aprende un idioma”, puede ser mucho más. Va a ser mucho más. Va a ser la clave de tu futuro.


63

de programadores en las nuevas herramientas necesarias para replantear todas sus actividades en términos de machine learning, para convertirlos en auténticos machine learning ninjas preparados para un futuro que consideran ya más un presente. Microsoft, por su parte, no se queda atrás. En una fantástica entrevista, hace pocos días, su CEO, Satya Nadella, deja inequívocamente claro que pretende superar a Google en su carrera por la inteligencia artificial, y fía todo el futuro de la compañía a su desarrollo, en una visión de futuro que imaginan como la cooperación constante de inteligencia artificial e inteligencia humana puestas al servicio de la resolución de todos los problemas y desafíos de la humanidad: el verdadero valor se obtiene cuando los robots trabajan con las personas, no cuando pretenden reemplazarlas. ¿Y Facebook? En la visión que su fundador, Mark Zuckerberg, tiene del futuro de la compañía, la inteligencia artificial aparece por todas partes, asociada a prácticamente todas las tareas, desde ofrecerte las actualizaciones perfectas que más te interesan dentro de la inmensidad de información que se mueve por la red social, hasta ser capaz de funcionar como el mejor motor de búsqueda, capaz de entender nuestras preguntas y respondernos con la información adecuada a cada petición, en cada momento. Los artículos que vinculo en esta entrada no están ahí por casualidad ni son simplemente una manera de poner una nota de color y unos subrayados en el texto, es una recopilación cuidadosamente escogida y estructurada de lo que considero la prueba fehaciente de que el machine learning y la inteligencia artificial son, cada vez más y cada vez más rápido, las verdaderas claves del futuro de prácticamente todo, de todos los negocios, de todas las industrias. Todas. Da igual a qué te dediques, la clave de tu futuro está en la capacidad que tu compañía tenga de convertirse en una generadora constante de datos sobre toda tu actividad, datos que sirvan para alimentar el aprendizaje de tus algoritmos. Las grandes compañías de hoy llevan años almacenando datos de toda nuestra actividad, pretenden seguir haciéndolo mediante nuevos métodos e interfaces, y no es para espiarnos, sino precisamente para eso: para alimentar sus algoritmos, para construir los productos y servicios del futuro. Los datos son el arma secreta de toda compañía, el nuevo petróleo, la gasolina con la que funcionan los motores que representan sus algoritmos. Puedes utilizar la metáfora que quieras, pero como directivo, si los datos, el machine learning y la inteligencia artificial no están en tu agenda en una posición prioritaria e inmediata, deberías ser relevado de tu puesto. No sabemos a quién pertenecerán los datos ni las estructuras que obtienen inteligencia de ellos, no sabemos si la inteligencia artificial será propietaria o abierta, pero sí sabemos que es el momento de

Profesor de sistemas de información en IE Business School desde 1990. Tras licenciarse en ciencias biológicas por la Universidad de Santiago de Compostela, cursó un MBA en el Instituto de Empresa. Doctor (Ph.D.) en sistemas de información por la UCLA. Desarrolló estudios posdoctorales en Harvard Business School. Es colaborador habitual en varios medios de comunicación en temas relacionados con la red y la tecnología, y escribe diariamente desde hace más de 12 años en su blog personal enriquedans.com, uno de los más populares del mundo en lengua española. En su trabajo como investigador, divulgador y asesor estudia los efectos de la tecnología sobre las personas, las empresas y la sociedad en su conjunto. Además de su actividad docente en IE Business School, desarrolla labores de asesoría en varias startups y compañías consolidadas.

Enrique Dans

@edans

Enrique Dans


AMAZON OFRECE DESCUENTOS PARA INGRESAR PUBLICIDAD EN TU CELULAR Sergio Hidalgo

@zerxhidalgo

Amazon encontró una interesante forma de terminar con su stock de celulares de bajo costo de la temporada pasada. Lo anterior se debe a que lanzó una campaña en la que anuncia que dos terminales, el Moto G4 y el BLU HR1 HD, tendrán un descuento extra de 50 dólares si sus usuarios aceptan que la compañía ponga publicidad en la pantalla de bloqueo de los equipos y en algunos puntos de la interfaz principal. Los usuarios que decidan aceptar la oferta también recibirán un conjunto de apps de Amazon, además de las principales de Google (Maps, Play Store, YouTube, Gmail y Chrome). No se llenarán de publicidad, porque los anuncios no son invasivos. Si en algún momento el cliente quiere suprimir completamente la publicidad, sólo tiene que devolver los 50 dólares de descuento. La oferta sólo está disponible para los clientes premium de Estados Unidos, pero es una interesante forma de publicidad que podría ser copiada en otros mercados. Aquí te dejamos el enlace de un video que muestra el uso en uno de estos equipos: https://codigoespagueti.com/noticias/ amazon-descuento-publicidad-celulares/


Víctor Jesús Hernández Salinas Me gusta participar en mesas redondas sobre tecnología y software libre y he publicado diversos artículos sobre tecnología en distintas revistas como SG. Ciencia y Desarrollo, Líder Empresarial, entre otras.

Código Innovare

@hersalvj

Realidad aumentada, geolocalizacion,

big data

¿Son la pauta de nuevas líneas de servicio a ciudadanos?

ig data, open data (datos abiertos), open gov (gobierno abierto), geolocalización, internet de las cosas, internet del futuro, web semántica, realidad aumentada, dispositivos móviles… Todos ellos modelos tecnológicos que de manera independiente o combinada han ido modificando la realidad con que nos movemos diariamente.

65


Realidad aumentada, geolocolización, big data

La última novedad que causó furor en el mundo entero fue el lanzamiento a principios del mes de julio de un videojuego que estimulaba a los usuarios a atrapar pequeños animales fantásticos en unas esferas virtuales. Este juego explota la tecnología de la realidad aumentada, principalmente, ya que está basado, además de la realidad aumentada, en la geolocalización y video digital mediante los smartphones, y que han permitido que esta tendencia sea entendida y experimentada por muchas personas y que pueda vislumbrar de manera más clara y evidente el potencial de negocio detrás de la misma. La realidad aumentada es un modelo tecnológico que permite, en términos muy simples, “sobreponer” elementos virtuales al mundo real, de forma que se obtenga una experiencia más amplia sobre el entorno en que se ubique el usuario, mediante un dispositivo tecnológico dando paso a la creación de una realidad mixta en tiempo real. La idea básica es añadir información virtual a la información física ya existente. Una forma simple de imaginar esto serían los pronósticos de tiempo en los noticieros, donde la persona que presenta señala en una pantalla verde y en producción imponen mapas geográficos virtuales los fenómenos climatológicos, y en donde el efecto para el espectador es una mezcla de ambos. Ésta es la principal diferencia con la realidad virtual, puesto que no sustituye la realidad física, sino que sobreimprimen los datos informáticos al

66

mundo real y, sobre todo, y lo más importante, en tiempo real, es decir, en el mismo instante; sin embargo, la realidad aumentada no es nueva:

1962 1973 Ivan Sutherland inventa la display de cabeza (HMD), lo que sugiere una ventana a un mundo virtual.

1990 Jaron Lanier acuña el término realidad virtual y crea la primera actividad comercial en torno a los mundos virtuales.

Morton Heilig, un director de fotografía, crea un simulador de moto llamado Sensorama con imágenes, sonido, vibración y olfato.

1985 Myron Krueger crea Videoplace, que permite a los usuarios interactuar con objetos virtuales por primera vez.

1992 Tom Caudell crea el término realidad aumentada.

A la fecha son diversos los campos donde esta tecnología ha tenido ya aplicaciones prácticas: • Televisión (trasmisiones deportivas principalmente, con las repeticiones y escenas de análisis de los comentaristas o clima o anuncios comerciales). • Entretenimiento y videojuegos • Cine (efectos especiales). • Simulación (principalmente como herramientas de entrenamiento para pilotos). • Servicios de emergencias y militares (mostrar instrucciones de evacuación de un lugar, mapas, localización de enemigos). • Arquitectura (simulación de edificios o decoración de interiores). • Dispositivos de navegación. • Aplicaciones industriales. • Publicidad. • Turismo (aplicaciones como “La Ciudad de México en el Tiempo” de ILLUTIO, han logrado llevar a los usuarios a recorrer la ciudad en sus diferentes épocas históricas, incluyendo la geolocalización).


#Netiqueta

Un ejemplo práctico sería aquel donde alguien pudiera imponer a una imagen de su casa, los muebles que pretende adquirir, a fin de que pueda apreciar el espacio real y distribución que ocuparía el sillón o el comedor y ayudarse de esta forma a hacer una compra más conveniente. Otro ejemplo puede ser sobreponer a una foto propia esa prenda que nos gustó y así tener una idea más precisa de cómo nos quedaría; o probar distintos estilos de peinado o maquillaje sin necesidad de realizarlo directamente. La realidad aumentada también se puede emplear para promocionar, dentro de aplicaciones para móviles, lugares históricos, tiendas, restaurantes, eventos. Quizás obtener información de referencia sobre reseñas de satisfacción de un comercio antes de ingresar en él, o consultar recetas o propiedades alimenticias, beneficios a la salud antes de comprar ciertos alimentos en el supermercado, etcétera. Debemos mencionar, además, que la interacción de las personas con este tipo de programas genera montones y montones de datos que pueden utilizarse para generar estudios sobre preferencias, tendencias, estudios de mercado, encuestas, bases con datos personales que se incrementan segundo a segundo mediante el uso constante de las aplicaciones por parte de los usuarios. Lo que implica que estas aplicaciones deben ser suficientemente robustas y eficientes para manejar volúmenes de datos de manera eficiente. Esto nos lleva al siguiente concepto: big data.

#BigData

operaciones de las transacciones que realiza con otras dependencias, empresas o individuos, por lo que hay una enorme cantidad de información por procesar, que puede brin “Cuando empecé a estudiar a dar los siguientes beneficios tanto grupos de personas… descubrí para los ciudadanos como para las que la gente no sabe cómo traba- propias dependencias de gobierno: jar en equipo. Las juntas directivas, las empresas, los gobiernos • Reducción de presupuestos por son terribles en eso, y debería haoptimización de operación de ber una ciencia que nos ayude a recursos. entender cómo podemos trabajar • Respuesta más rápida y eficientemente a demandas ciujuntos. Esa necesidad me llevó a dadanas. mirar las maneras en que la gente interactúa, cómo los grupos de • Reducción de riesgos operativos en sus procesos regulares. personas pueden trabajar juntos y cómo podemos lograr que grupos • Mejorar el control, seguridad de los propios activos de información. de personas tomen mejores decisiones más rápidamente y de ma- • Mejorar los servicios y obtener nera más acertada… Big Data es información puntual en tiempo un mal nombre para todo eso. real sobre integrantes, partners, Realmente se trata de datos con proveedores, clientes. un grano muy fino acerca de las • Hacer posible el desarrollo de personas… es la información que ciudades inteligentes mediante obtenemos de los celulares, tarjeun uso más eficiente de recursos tas de crédito… son las migajas e infraestructura. que la gente va dejando por el • Mejorar las técnicas de seguridad y de defensa, mejorando la mundo, y como toda la vida se eficacia de los recursos y mitigar está haciendo más digitalizada, riesgos operativos. dejamos registros y hay más y más datos sobre la gente, todo el • Mejorar la colaboración y el uso compartido de la información tiempo, en todas partes”. entre diferentes departamentos La idea en big data es recolectar y dependencias. y dar sentido a esas “migajas” de información mediante el procesa- De manera práctica, miento a fin de obtener información ¿para qué le pueden útil para diversos propósitos. Ahora servir al gobierno bien, si pensamos de forma análo- esas “migajas” de ga a las personas como una enti- información? dad de gobierno, al igual que cualquier organización van generando Citemos algunos ejemplos que el “migajas” respecto de todas las gobierno estadounidense ya está En una entrevista televisiva, Alex “Sandy” Pentland, director del MIT Media Lab, pionero y autoridad en big data, dijo:

67


Realidad aumentada, geolocolización, big data

trabajando y que pudiéramos aplicar en México: • Predicción de terremotos antes de que sean detectados: en agosto de 2012, el Servicio Geológico de Estados Unidos rastreó en Twitter miles de mensajes buscando la palabra “terremoto”, y analizando la hora y geolocalización de ellos pudo “predecir” un terremoto en Filipinas antes de que los sismógrafos lo registraran. • Alerta temprana sobre focos de epidemias: en 2009 Google descubrió que había cierta relación entre el número de búsquedas relacionadas con la gripe y las personas que realmente sufrían síntomas gripales. Actualmente tienen un sistema llamado “Google Flu Trends” que ofrece datos sobre la actividad de la gripe en diferentes regiones del mundo. • Anticipación de la tasa de desempleo: Global Pulse, iniciativa de la ONU para abordar crisis socioeconómicas, en colaboración con la empresa SAS, analizó conversaciones de redes sociales en Estados Unidos e Irlanda y “predijo” aumentos en la tasa de desempleo tres meses antes que los informes oficiales. • Prevención de delitos y reducción de crímenes: en Los Ángeles el big data se usa para detectar en qué calles, o qué grupos o individuos existen más propensión a la delincuencia y, por ende, a aplicar una vigilancia extra.

68

Pero, ¿qué tienen que ver ambos modelos tecnológicos con el gobierno y cómo los mezclamos? Pensemos simplemente que las entidades de gobierno diariamente están generando miles de millones de “migajas” (datos de información) de todos los procesos que realizan (atención hospitalaria, servicios públicos, estadísticas de crimen y seguridad, navegación por carreteras, mar y aire, calificaciones de estudiantes, servicios turísticos, registros de patentes, solicitudes de licencias de matrimonio o de conducción, etcétera), y que toda esa información puede comenzar no sólo a liberarse para la consulta pública, sino que puede comenzar a combinarse entre sí para generar modelos dinámicos de mapas de actividad humana. Y que si esa información puede combinarse con aplicaciones basadas en modelos tecnológicos como la realidad aumentada o la geolocalización, podemos entonces pensar que sectores como la educación, la salud, el turismo, la economía, seguridad pública, pueden ofrecer mecanismos mediante los cuales los ciudadanos no sólo puedan consultar información, sino que desde el dispositivo móvil puedan realizar transacciones para cualquier trámite, servicio, consulta, denuncia ante cualquier dependencia o programa público, entonces no sólo se brindan mejores servicios y se promueve la transparencia de operación de las entidades de gobierno, sino que incluso se abren las posibilidades de que los particulares comiencen a desarrollar nuevos modelos de negocio en los cuales puedan comenzar a generar servicios, productos, empleos, riqueza y bienestar colectivos. El lograr mover en conjunto a toda una sociedad es posible si se logran los motivadores adecuados. Y si tiene dudas piense que a mediados de julio se reunieron de forma masiva, espontánea y hasta desordenada, cientos de personas en Central Park en Nueva York, convocados por un videojuego en sus dispositivos móviles, con el único propósito de “atrapar” a un ser imaginario. Víctor Jesús Hernández Salinas Coordinador de Vinculación y Transferencia de Productos. Gerente de Desarrollo de Nuevos Productos y Servicios, Centro de Investigación e Innovación en Tecnologías de la Información y Comunicación (INFOTEC). Licenciado en sistemas de computación administrativa por la UVM. Desde 2003 colabora en INFOTEC en el equipo de Desarrollo y Generación de Modelos Tecnológicos elaborando servicios alrededor de los mismos. Creador y coordinador del área de Servicios de Producto y su normatividad. Coordinador del programa de certificaciones para SWB. Ha impartido conferencias en diversos congresos nacionales e internacionales. Ha participado en mesas redondas sobre tecnología y software libre y publicado diversos artículos sobre tecnología en distintas revistas como SG. Ciencia y Desarrollo, Líder Empresarial, entre otras. victor.hernandez@infotec.mx


El espacio de encuentro de la

innovación en Gobierno

Revista al bimestnrica electró

Revistta ral bimeses a r imp

$80

$95 mplar por eje tos más gas ío v n e de

ar

mpl por eje

Suscríbete por un año

a la revista impresa

por sólo

a la revista electrónica

por sólo

$570 $450 Incluye envío

+Ugobe U.GeOBe U_GeOBe

(55) 5242 8900 ventas@u-gob.com www.u-gob.com

69


jesús lizardi piña Fue director de Dictaminación y director ejecutivo de Gobierno Electrónico en el Gobierno del Distrito Federal, México.

70


DIGITALIDAD

GORDON GRAYLISH Vicepresidente y gerente general de Gobierno. Intel Corporation

71


Govenments and world ahead Intel

¿Qué encuentras en el panorama de la tecnología para el gobierno?

Lo que ha cambiado en los dos últimos años es el reconocimiento de que las tecnologías de la información y la comunicación (TIC) son críticas para el éxito de los países. Una nación no puede ser exitosa si no implementan correctamente las TIC. Recientemente la ONU liberó los objetivos de desarrollo sostenible, son 17 objetivos que reemplazan a los objetivos del milenio, no son objetivos de las TIC, pero no puedes lograrlos sin la tecnología, hay varios ejemplos: si quiero dar cuidado prenatal de buena calidad a toda la población de madres en el país, puedo contratar 100 mil parteras y 100 mil pediatras; sin embargo, se puede llegar a mejoras significativas haciendo posible que los trabajadores de salud locales tengan la información para asegurarse de que las mujeres embarazadas tengan el cuidado correcto y que se puedan identificar problemas comunes en el cuidado materno, y esto es fácilmente escalable, barato y puedes abarcar a toda la población. También tenemos, por ejemplo, ¿cómo trabajo a través del gobierno? Históricamente los gobiernos trabajan de manera que cada ministerio o secretaría busca tener su propio centro de datos, sus propias

72

aplicaciones, su propia gente, lo que ha significado que ninguna información fuese compartida y no había reinversión. Si algo se aprendía en un área específica se tenía que rehacer en otra.

¿Cuál es la alternativa a esto?

Con los nuevos modelos de trabajo puedo empezar a reutilizar la tecnología de tal forma que si, por ejemplo, publico una manera de tramitar mi licencia de conducir en línea, debe ser posible utilizar el mismo set de aplicaciones para trabajar las aplicaciones de subsidios, beneficios o pensiones y esto es mucho menos caro; sin embargo, en muchos casos esto no es posible, y no sucede naturalmente porque los gobiernos siguen operando como lo hicieron en el pasado, en parte porque es riesgoso y también porque eso significa confiar en las capacidades del otro para entregar los servicios ya desarrollados, es por eso que creo que hay algunas cosas que se han hecho bien aquí (en México): establecieron una agenda digital y ahora se tiene directamente desde la oficina del Presidente la habilidad de trabajar a través de diferentes secretarías para moverse hacia un ambiente en donde se comparta y se pueda aprender, con lo cual se logra empezar a usar los datos y la información para servir a la gente de manera más efectiva, porque puedo tener los datos de la policía, los datos de las pensiones o los beneficiarios.

En tu experiencia, ¿hay algún caso que recuerdes particularmente de innovación gubernamental?

Estuvimos trabajando (en Intel) en un proyecto con el gobierno de la India de nombre Aadhaar, donde ubicamos la base de datos de biométricos más grande del mundo, con 1.2 mil millones de registros, y en ella se utiliza el registro del iris y huellas digitales para establecer así una identidad única para el ciudadano, y lo que encontraron es que se están ahorrando más de mil millones de dólares americanos al año, porque además de que están detectando personas fallecidas que aún está en los padrones y beneficios del gobierno, a la vez esto puede eliminar mucha de la corrupción. A la vez de que hace la implementación completa de los servicios digitales sea más transparente, más eficiente y se alcance así a las personas en los lugares más remotos del país porque no tienes que caminar


#Intel

cinco horas a la oficina de gobierno más cercana para hacer tus trámites, creo que hay aquí un enfoque en eso, en cómo implementar los servicios digitales, creo que aún hay mejoras que deben hacerse a la manera en que se implementan los servicios digitales; sin embargo, ahí está el caso de Estonia, el cual es un gobierno totalmente digital, toma menos de dos minutos pagar tus impuestos, te piden la información una sola vez: por ejemplo, si te piden la dirección en el departamento encargado de las pensiones, el departamento de tráfico ya no te lo puede volver a pedir, es decir, comparten la información y lo hacen correctamente, cuentan con recetas médicas electrónicas, lo cual significa que si un doctor te receta puedes llevar la receta a cualquier farmacia en el país y ésta no sólo tendrá la medicina sino todo tu historial de recetas, lo cual puede servir para que en el momento se pueda detectar una contradicción en los medicamentos recetados y el costo de esto es una fracción, de un dígito porcentual comparado versus una receta común, es decir, el potencial de los gobiernos para crear impacto en la sociedad es enorme. Además, hay otra razón por la cual los gobiernos necesitan adoptar el uso de las TIC, y eso es debido a que tener al personal de gobierno utilizando las TIC es construir las habilidades que todo el mundo va a necesitar en el siglo XXI, los gobiernos están sumamente preocupados por el futuro desempleo debido a la automatización y para ser efectivo debo saber cómo utilizar las herramientas, cosas simples: un teclado, qué es un archivo, cómo navego un sitio, y este tipo de habilidades vienen también de la implantación de las TIC, por lo que si soy un ciudadano acostumbrado a interactuar con los servicios digitales del gobierno o

un empleado de gobierno acostumbrado a utilizar estas herramientas, entonces también estoy construyendo capacidades que son muy valiosas para que el país avance, pues significa que más personas habrán desarrollado esas capacidades, y esto, a su vez, significa que si, por ejemplo, soy un joven emprendedor que inicia una compañía y requiero contratar a 20 personas, lo haga; desafortunadamente, en nuestros días este tipo de compañías se van a Estados Unidos o el Reino Unido, porque son lugares en los cuales pueden encontrar personal con las habilidades que necesitan. Así que cuando los gobiernos invierten en las TIC también están invirtiendo en desarrollar la capacidad de las personas para tener los empleos que el futuro va a traer y, sabemos que así será, en 1910 el 70% de todos los trabajos en Norteamérica y Europa del Oeste eran en granjas y fábricas, hoy ese porcentaje es del 11%, claramente durante todo este tiempo se han creado cientos de millones de nuevos empleos, pero a futuro no sabemos cómo serán los nuevos empleos. La universidad de Dartmouth hizo un estudio, buscando a graduados de sus carreras de hace 10 años y lo que encontraron es que 45% de estos graduados estaban realizando trabajos que habían sido inventados hace 10 años: no decían, por ejemplo, “quiero ser diseñador web” o “hacer medios sociales”, “optimización de sitios”, porque simplemente no existían, y este tipo de ejemplos son los más obvios pero está la genética, robótica, drones, automatización, algunos de estos trabajos requieren ingenieros, pero otros requieren las capacidades básicas para utilizar las herramientas del siglo XXI.

73


Govenments and world ahead Intel

Hay un movimiento por la innovación en los gobiernos, pero, ¿qué nos comentas acerca de llegar a minorías?

Desplegar servicios digitales o servicios especiales para la gente con discapacidades es crítico y se reconoce como un movimiento necesario, incluso si se mira alrededor varios gobiernos lo han reconocido, estuve en Washington hace dos semanas en el lanzamientos de la iniciativa de conexión global que tiene el propósito de acercar internet a 1.5 billones de personas, y el secretario de Estado Kerry dijo a todos los secretarios de finanzas que deben de considerar a las TIC con la misma importancia que tienen el agua o la electricidad porque si no las consideran no tendrán los trabajos que soporten a los demás, y creo que hay un fuerte entendimiento real de la percepción que tenemos de esto, y está bien, porque es un tema difícil, tenemos barreras culturales para cambiar las cosas, si estoy acostumbrado a controlar el departamento bajo mi mando, ¿cómo voy a estar confiado al compartir?, es natural tener miedo, lo cual significa que hay barreras que no caen en el ámbito de la tecnología y es necesario superar y hacerlo es crítico; sin embargo, esto no sucederá a menos que la decisión no sea tomada a un nivel ejecutivo muy alto porque de otra manera no puedes interactuar entre distintas instituciones de gobierno y usualmente se requiere la información de las diferentes instituciones para poder hacer que las cosas funcionen.

¿Qué hay sobre los gobiernos locales?

En los gobiernos locales es de donde se obtienen cosas verdaderamente interesantes, un ejemplo son los datos abiertos, anteriormente los gobiernos se guardaban la información y ahora vemos cómo estos gobiernos han empezado a publicar la información de tal forma que sus ciudadanos puedan utilizarla. Por ejemplo, en Londres, el Ministerio de Transporte publicó las estadísticas de todos los autobuses de transporte y tres compañías distintas desarrollaron aplicaciones que te dicen cuando un autobús va a estar en la parada que está cerca de tu casa, de tal forma que si está lloviendo ya no te mojas porque sabes el momento en que el autobús va estar en tu parada. El Ministerio de Transporte estimó que les hubiera costado un millón de libras desarrollar la aplicación y aproximadamente medio millón al año mantenerla, en lugar de eso ahora tienen tres que les cuestan cero y me doy cuenta que cada vez más los gobiernos innovadores están invitando a sus ciudadanos y tienes cosas muy buenas sucediendo, por

74

ejemplo, en Guadalajara donde se está trabajando en pequeñas comunidades de negocio para que tengan éxito. Para hacer este tipo de cosas, hay que reconocer que mejorar las cosas no es sólo responsabilidad del gobierno sino que también los gobiernos pueden colaborar con los ciudadanos, es decir, si noto como gobierno que hay múltiples aplicaciones ciudadanas de calidad del aire eso es un buen ejemplo de cómo puedo empezar a mejorar esos sensores ambientales para trabajar con la información que se genera, es así que las ciudades inteligentes no son una moda, pues una ciudad como la Ciudad de México no será habitable en 20 años si no utilizo la tecnología para determinar, por ejemplo, en dónde debo construir, cómo mejoro el ambiente, cómo automatizo el tráfico y mejoro su fluidez. ¿Sabes tú que el 30% del tráfico que se genera es gente que busca dónde estacionar su coche? Y esa es una estadística a nivel mundial, así que ya hay ciudades que actualmente están implementando sistemas para decirte dónde están los lugares de estacionamiento cerca de ti de tal manera que tú no tengas que estar buscando, lo cual reduce congestionamientos de tráfico; no tengo que construir más vías para desahogar estos congestionamientos, lo cual a su vez reduce la contaminación, y así como éste hay muchos ejemplos.


#Entrevista

¿Qué me puedes decir del caso de la gente que desarrolló una aplicación en San Francisco para rentar los espacios de estacionamiento en las casas?

Ese es un ejemplo brillante, porque demuestra cómo las cosas pueden intercambiarse, es lo opuesto a un Uber, aquí la gente dice: “Ok, te dejo usar mi cajón de estacionamiento durante el día, espacio por el cual no pago, pero es mío y te dejo usarlo, por digamos, 10 dólares”, y entonces el gobierno dice, eso es terrible, nosotros te damos ese espacio y ahora tú se lo estás rentando a alguien más, lo cual sólo prueba una cosa: la ineficiencia del modelo actual, porque si tú tienes un cajón de estacionamiento y no hay nadie en él por 12 o 18 horas al día, ¿no deberíamos estar utilizando ese escaso recurso? Y tal vez el modelo debería de ser uno en donde el gobierno recibe una participación por proveer el sistema y el ciudadano recibe parte del dinero, no sé la respuesta, pero lo que sí resalta es que las cosas pueden hacerse de manera más eficiente y esa es la verdad detrás de cosas como Airbnb y Uber, los cuales son verdaderos desafíos para los gobiernos porque, por una parte, son verdaderamente eficientes y entregan niveles de servicio verdaderamente altos a un precio razonable, los cual es bueno, todos queremos hacer eso, pero por otra parte los gobiernos han gastado 150 años desarrollando pilas de regulaciones para el transporte público en taxi: tu carro no debe de tener más de cuatro años, debes de pagar estos impuestos, debes de hacer esto y lo otro, y entonces viene un chofer de Uber y el chofer de un taxi dice: “hey, esto no tiene sentido”; sin embargo, el chofer de Uber puede estarte brindando un mejor servicio, así que la pregunta para el gobierno es: ¿cómo adapto mis regulaciones de tal forma que reconozcan este cambio en el mundo y el poder de la información? Muchos de estos nuevos modelos de negocio van a requerir repensar cómo manejar las cosas y las regulaciones entre instituciones.

Anteriormente tuve una conversación con gente de gobierno que me decía que muchas veces la gente que toma las decisiones no tiene la capacidad de entender la tecnología y Megan Smith, CTO del gobierno de los Estados Unidos me decía que debemos reconocer que no es suficiente tener al personal técnico al que podamos consultar sino que ellos deben estar en el cuarto en donde se toman las decisiones, en otras palabras: no es aceptable hacer una planeación urbana si no se entienden las posibilidades que tiene una ciudad inteligente, es inaceptable, debes de tener la capacidad para entender eso, ya sea trayendo personas con el talento para ayudarte a hacerlo, realizando intercambios o buscando la manera de traer a la gente que pueda ayudarme a entender lo que es posible con la tecnología. Hay casos impresionantes del uso de la tecnología, por ejemplo, en Baltimore con el uso de big data, donde se iban a gastar (no estoy muy seguro) aproximadamente 12 billones de dólares en un nuevo sistema de drenaje para aguas pluviales, en lugar de eso implementaron un programa en donde están poniendo techos de césped y concreto que absorba el agua de tal forma que retrasaron la necesidad de dicho sistema por una década a un tercio del costo estimado, lo cual nos enseña que debemos mirar las soluciones a los problemas no necesariamente de la manera en que lo hemos hecho en el pasado.

jesús lizardi piña Fue director de Dictaminación y director ejecutivo de Gobierno Electrónico en el Gobierno del Distrito Federal, México.

75


FACEBOOK APOYARÁ EN LA BÚSQUEDA DE MENORES DESAPARECIDOS CON LA ALERTA AMBER Pamela Calixto

@Pamelaine_

Recientemente, Facebook y Alerta AMBER anunciaron una nueva alianza que tiene como propósito el de apoyar a familias en la búsqueda de niños desaparecidos, a través de la difusión de información que aprovechará la base de usuarios mexicana en la plataforma, que actualmente alcanza los 65 millones. Esta alianza fue anunciada esta semana en un evento que se llevó a cabo en el Museo de Memoria y Tolerancia en la Ciudad de México, allí estuvo presente el subprocurador de Derechos Humanos, Prevención del Delito y Servicios a la Comunidad de la Procuraduría General de la República (PGR), Eber Betanzos, y Emily Vacher en representación de Facebook. La iniciativa representa un punto positivo para la población, porque, según se estima, 60% de los mexicanos suelen utilizar Facebook

para compartir contenido, conectarse rápidamente con otros puntos del mundo, y también para enterarse de las novedades del día a día, así que la plataforma resulta ser una buena opción para generar acción rápida. Cada vez que la PGR active la Alerta AMBER, Facebook comenzará con la difusión a través de una sección especial a la que denominan “Rescate”, allí podremos saber más información, como el lugar en donde fue visto por última vez al niño y otros puntos clave que servirán como referencia para encontrarle, como sus datos personales e imágenes para reconocer sus rasgos físicos. En realidad México no es el primer país que cuenta con esta herramienta, el año pasado una función similar fue implementada en Estados Unidos en alianza con el Centro Nacional para Niños Desaparecidos y Explotados del país norteamericano, y esperemos que llegue a muchos otros países.


Johnnie Konstantas Directora de Soluciones de Seguridad de Gigamon.

CAPA UNO

Meta datos El arma secreta de la seguridad

77


Inducción .... Metadatos

ientras las empresas luchan por mantener el paso con un tráfico de red que crece rápidamente, al aumentar la velocidad de las redes se adentran cada vez más a las manos de los cibercriminales. ¿Por qué?, porque la mayoría de las herramientas de seguridad no están equipadas para manejar el incremento de la velocidad de tráfico, así como la frecuencia en los ataques. Están limitadas en la cantidad de tráfico que de manera inteligente pueden manejar y necesitan activar funciones avanzadas para combatir los crecientes y voluminosos ataques cibernéticos, esencialmente, hay demasiados datos y muy poco cómputo. Como consecuencia, muchas de las aplicaciones de seguridad existentes serán totalmente inútiles en el futuro cercano. Esta es una valoración negativa y preocupante sobre la industria de seguridad de las tecnologías de la información (TI) y su futuro, pero aún puede rescatarse por un elemento relativamente insignificante pero poderoso: metadatos. Los metadatos son datos sobre datos. Usando la red telefónica como una analogía, los metadatos son más cercanos a la cuenta del teléfono que a una grabación. No permite un análisis continuo, pero aun así provee un enfoque detallado, así como un listado de las horas de conversación (o datos) en sólo unas líneas. La cuenta del teléfono nos muestra quién ha conversado con quién, a qué hora, la

M

78

duración, desde dónde y hacia dónde, es fácil detectar patrones interesantes. De inicio, las llamadas frecuentes al mismo número, llamadas a horas inusuales desde números y lugares desconocidos, llamadas largas. Cada uno de estos datos sirve de pista para que los investigadores destaquen sólo las llamadas más relevantes. El mismo principio puede ser aplicado a la seguridad. Proveyendo a las herramientas de seguridad con información detallada de lo que pasa en cada paquete de información que pasa por las redes, los metadatos pueden convertirse en una poderosa metodología para las empresas para que éstas separen las señales del ruido, reducir el tiempo en la detección de amenazas y mejorar la eficacia de la seguridad en su conjunto.

Trabajar con un diluvio de datos El sentido común nos dice que escuchar todas y cada una de las conversaciones en el mundo para encontrar a los chicos malos es un enfoque que simplemente no funciona. Igualmente, con la velocidad de las redes llegando de 10GBps a 40GBps e inclusive a 100GBps (de acuerdo a información provista por Verizon DBIR), los hackers sólo necesitan unos minutos para irrumpir en la red, analizando cada paquete de información que pasa por la red de manera continua para encontrar hackers, es simplemente imposible. El tiempo entre paquetes de información en una red de 100GBps es de 6.7 segundos. Para dispositivos de seguridad, esto significa que todo el procesamiento de la seguridad debe ocurrir en rango de tiempo de nanosegundos y debe repetirse con el arribo del siguiente paquete informático, etcétera. Los pasos asociados con el procesamiento de la seguridad incluyen la extracción de paquetes, cargarlos en la memoria, determinar el tipo de aplicación, realizar chequeos relevantes de protocolos de conformidad y de patrones anómalos, realizar chequeos de firmas contra patrones conocidos, extraer adjuntos, y así una larga lista de acciones a completar. Éstas no son siquiera una lista exhaustiva de inspección, reforzamiento y registro de tareas que deben ser ejecutadas. De acuerdo con información publicada por The Fours V´s of Big Data (las cuatro V´s del Big Data), infografía que conjunta información de McKinsey Global Institute, Twitter, Cisco, Gartner, EMC, SAS, IBM, MEPTEC y QAS, hay cuatro pilares fundamentales alrededor del Big Data actual: volumen, la variedad, la velocidad y la veracidad de los datos. Alrededor de ellos hay retos y oportunidades que tienen las organizaciones para crecer o dejar de ser competitivas. Una estrategia de seguridad basada en metadatos es, sin duda, una arma para pelear contra amenazas informáticas (uno de cada tres líderes no confía en la información que


#Metadatos

utiliza para tomar decisiones); 40 zettabytes (43 trillones de gigabytes) de datos serán creados para 2020, es decir, 300 veces más que en 2005. En el futuro, simplemente no será posible para los aplicativos de seguridad, conducir todas las funciones requeridas para encontrar intrusos moviéndose a grandes velocidades dentro de la red; sin embargo, el trabajo de dichos aplicativos de seguridad se vuelve más manejable si se pueden enfocar a analizar los datos relevantes, y es ahí donde entran los metadatos en acción. Este pequeño, pero fuerte y aún desconocido poder que tienen las organizaciones, puede acelerar la detección y dar respuesta a cualquier intrusión o amenazas, habilitando SIEMs, soluciones forenses y otras tecnologías de seguridad de análisis de Big Data para saber exactamente en dónde han ocurrido las violaciones al perímetro de la red. El análisis de metadatos como NetFlow/IPFIX records, URL/URI, SIP requiere de información, códigos de respuesta http y DNS que pueden ser conducidos mucho más rápidamente que analizando todos los paquetes de datos. SIEMs da un primer paso en el análisis de metadatos, proveyendo a la red proximidad inteligente que permite a los firewalls, sistemas de prevención de intrusos, o bien, de content security gateways, para hacer una verificación mucho más profunda dentro de la amenaza, si es que la hubiera.

Los metadatos pueden dar pistas valiosas para descubrir intrusiones dentro de la red. El análisis de comportamiento y de la seguridad usando metadatos, da a las organizaciones una visión clara de los puntos débiles donde pueda haber una actividad maliciosa en proceso. Más que buscar en toda la red, los analistas de seguridad se pueden enfocar en identificar puntos débiles al analizar puntos débiles al utilizar análisis de tráfico o de paquetes. Consideremos el ejemplo de una solicitud DNS hecha por una laptop a un servidor sospechoso. Los metadatos abanderan la solicitud anómala. Después, usando herramientas capaces de hacer una inspección profunda y detallada, el staff de seguridad de TI puede examinar toda la conectividad desde y hasta los dispositivos para determinar si determinado punto está realmente afectado, ya sea que haya reenviado datos maliciosos, así como saber qué otros dispositivos o puntos de la red están involucrados. El análisis de seguridad y comportamiento entiende el uso de los metadatos como un primer paso en la búsqueda e investigación de donde se están alojando las amenazas, reduciendo los tiempos de detección y actuación. El uso de metadatos da a las herramientas de análisis de Big Data el contexto que requieren para construir modelos de lo que es considerado un comportamiento normal o anómalo dentro de la red. Esta forma de pensar es, de hecho, algo difícil de lograr, dado que requiere de recabar información desde puntos geográficos remotos dentro de la red y las diversas fuentes que la generan. En contraste, los metadatos pueden ser correctamente utilizados sin interrumpir las operaciones o coordinación organizacional cotidiana.

Conclusión En un punto no muy distante en el futuro, asegurar que los modelos de seguridad y análisis de procesos estén correctamente provistos de información relevante, será la clave para hacer la detección de amenazas, una metodología efectiva en redes con anchos de banda grandes. Los metadatos son clave para la detección efectiva porque puede entregar información en tiempo real sobre el comportamiento de los usuarios, dispositivos, tráfico y red, de esa forma, la detección a través de Big Data se vuelve una realidad de manera masiva. johnnie konstantas Directora de Soluciones de Seguridad de Gigamon.

79


L Ó P E Z

V E R Ó N I C A



© 2015 SAP SE or an SAP affiliate company. All rights reserved. NHL and the NHL Shield are registered trademarks of the National Hockey League. © NHL 2015. All Rights Reserved.

HOW DO YOU PUT THREE MILLION PEOPLE ON A CITY PLANNING COMMITTEE? IT’S SIMPLE. THE ANSWER IS SAP HANA.

With real-time analytics powered by the SAP HANA® platform, the city of Buenos Aires can evolve at the speed of its population. A complex network of city-wide sensors reacts quickly to citizen alerts, doubling the speed of infrastructure repairs. And predicting what the city will need next. That’s running simple. sap.com/hanastories


Turn static files into dynamic content formats.

Create a flipbook
Issuu converts static files into: digital portfolios, online yearbooks, online catalogs, digital photo albums and more. Sign up and create your flipbook.