BigData Magazine Nº3 (Noviembre 2020)

Page 1

BigDatamagazine Revista especializada en Big Data. Ejemplar gratuito.

Nº3 Noviembre 2020

Big Data e IA en el sector energético

Natalia Mayoral, CDO de Naturgy

Todo sobre el Data&cIA Congress

Recuerdo a Daniel Martínez Batanero



3

Editorial

Inteligencia Artificial aplicada al negocio

E

n Big Data Magazine sabemos que la Inteligencia Artificial sin datos, no sirve de nada. Está claro que la unión de IA y Big Data, es la pareja perfecta. Así lo hablábamos ya en una de nuestras mesas redondas del Data&cIA Congress de 2019. Un evento que fue el primero con nuestro sello y que hoy ya puede presumir de haber tenido repetición en este complicado 2020.

ligencia Artificial nos hemos lanzado en esta aventura en busca de los motivos para aplicar la IA al negocio. Durante el evento se han tratado temas tan interesantes como la manera de lograr ROI en AI, visión de futuro en la IA o el ecosistema del sector de la Inteligencia Artificial. Una cita que ha contado con varios de los nombres más importantes del mundo empresarial nacional.

Ahora y a pesar de las dificultades de un año que no ha dejado a nadie diferente, hemos conseguido alumbrar a su hermano en este mes de diciembre. Hablamos del AI Business Congress, un evento que llega para quedarse y que desea ser el segundo emblema de nuestra marca. Con el apoyo de AI-Network, la Asociación Profesional de Inte-

No es el único nacimiento que esperamos en Big Data Magazine relacionado con la Inteligencia Artificial. El 2021 nos traerá nuevas iniciativas con la intención de armar un engranaje sólido entre el dato y la IA. La situación derivada de la pandemia no impedirá que sigamos reinventándonos para seguir difundiendo todas las novedades del sector.

BIG DATA MAGAZINE Edita: Digital Tech Communications Group S.L. C/ Núñez Morgado, 5 (local) 28036 MADRID CIF: B87917563 Depósito legal: M-11022-2018 www.bigdatamagazine.es info@bigdatamagazine.es

.

Socios directores: Pedro Pablo Merino y Samuel Rodríguez. Redactor Jefe: José Luis Arcángel. Redactores: Rocío González y Georgina Ortíz. Relaciones Públicas: Angie Parra. Director Comercial: Luis Rincón. Maquetación: Pedro Santos Publicidad: info@bigdatamagazine.es

BigDatamagazine | Noviembre 2020


4

Sumario 6. Podcast Territorio Big Data 8. Especial Big Data e IA en el sector

24

12

energético 9. Energía renovable y Big Data 12. Naturgy Natalia Mayoral Figueroa 16. Repsol Juan José Casado 20. Cepsa Francisco Javier Hidalgo

44

22. Gazprom Neft Alexander Ratanov 24. Graph Everywhere Combatir el

COVID-19 con Grafos 26. Anjana Data Data Sharing Agreements 28. PiperLab Esther Morales

28

20

30. Decide4AI El viaje hacia la

Hiperautomatización 32. Data&cIA Congress 2020 36. Cambio climático 38. Madrid IA Clúster 40. Cuando el Big Data te da más visibilidad 42. Big Data en el ámbito del motor

30

16 37

32 48 BigDatamagazine | Noviembre 2020

44. Just Eat Enrique Fernández 46. IA en el metro de Barcelona 48. Homenaje Daniel Martínez Batanero 50. Inteligencia Artificial y ética



6 Podcast / Territorio Big Data

Territorio Big Data JUAN MANUEL LÓPEZ ZAFRA CDO DE CUNEF

SONIA CASADO CHIEF DATA & ANALYTICS OFFICER DE YMEDIA

JOSEP TARRUELLA CO FUNDADOR DE GRAPH EVERYWHERE

MARIANO MUÑOZ PEDRO TOME MANAGER DE DATA, ANALYTICS HEAD OF DISTRUPTIVE INNOVATION AND Y BUSINESS BIG DATA ENINTELLIGENCE EVO BANCO EN ACCIONA

NICOLÁS FRANCO SOCIO Y DIRECTOR DEL ÁREA DE DESARROLLO E IA EN MRHOUSTON

Siguenos en:

BigDatamagazine | Noviembre 2020


7

BigDatamagazine | Noviembre 2020


8

Especial BD e IA en el sector energĂŠtico BigDatamagazine | Noviembre 2020


9

Especial del dato en el sector energético / Energías renovables

El desarrollo mundial de la energía renovable depende de los datos Expertos en energías renovables y en big data coinciden en la necesidad de usar modelos predictivos para predecir la cantidad de energía que se podrá producir.

E

Texto: Rocío

González

l futuro de la energía renovable está en los datos. Así lo aseguran expertos e investigadores en la materia. Consideran que aplicando técnicas estadísticas de Big Data se podrán construir modelos predictivos más fiables que beneficiarán al desarrollo de este tipo de energía en el mundo. Sin ir más lejos piensan que los datos permitirán tomar mejores decisiones sobre la creación de nuevos emplazamientos, facilitarán planificar el mantenimiento de las plantas ya existentes y mejorar el rendimiento de las ya existentes. De hecho, un informe de Capgemini referente al año 2019 estima hasta en 813 mil millones de dólares los beneficios disponibles en la industria en caso de llevar a

cabo una optimización total de la misma. El catedrático de la UPCT y experto en energías renovables, Ángel Molina, y la profesora del Grupo de Análisis de Datos, María del Carmen Bueso, aseguran que si se aplican técnicas estadísticas de Big Data, se podrán construir modelos predictivos “más fiables” que ayuden a tomar las mejores decisiones sobre el emplazamiento de las instalaciones de energía renovable. Según indican, “la creciente presencia de datos de satélite disponibles actualmente presenta una gran oportunidad para revisar nuevos emplazamientos en zonas donde resulta difícil técnicamente y muy costoso desde el punto de vista económico su observación directa”. En este caso se refieren a los emplazamientos off-shore (eólica marina) o las zonas desérticas (para

aplicaciones de fotovoltaica aislada). “La conjunción de estrategias de análisis de datos con las bases de datos provenientes del satélite son un campo actualmente en desarrollo que a buen seguro supondrá un avance en el conocimiento y estimación de los recursos renovables y su optimización”, añaden. Hacia la descarbonización La energía renovable ha experimentado un auge en los últimos años. De acuerdo a la Asociación de Empresas de Energías Renovables (AppA), en España la energía renovable aumentó un 8,2% en 2018. Eso supuso una representatividad del 13,9% del total de energía primaria, lo que las posicionó en tercer lugar, por detrás de los productos petrolíferos (44,9%) y del gas natural (21,1%). No obstante, su presencia, BigDatamagazine | Noviembre 2020


10 Especial del dato en el sector energético / Energías renovables recalcan los expertos, es “aún mayor en el sector eléctrico”. Según los datos de la Red Eléctrica de España (REE), en octubre de 2020, se llegó a cubrir más de un 50% de la demanda eléctrica con fuentes renovables. “De hecho, España es de los países con una mayor integración de eólica en el sector eléctrico, aportando en torno al 30% de la demanda eléctrica total de media anual”, apuntan. Por parte del Instituto de Ingeniería del Conocimiento (IIC), el data scientist y project manager en el área de Energy Predictive Analytics, Álvaro Romero, asegura que aunque es difícil hacer predicciones sobre el futuro del sector energético, la crisis provocada por la Covid-19 sí que va a suponer una aceleración de las tendencias previas. “En el caso del sector energético, la descarbonización y la digitalización. La descarbonización es un proceso que necesariamente conlleva una mayor penetración de las renovables, del coche eléctrico y de los camiones de gas natural. A su vez, estos cambios en el sistema eléctrico generarán problemáticas no conocidas hasta la actualidad en la seguridad del suministro. Esto nos lleva a nuestro segundo punto, la digitalización. Para remediar las posibles tensiones debemos hacer uso de las nuevas tecnologías, sensores y algoritmos de Machine Learning para poder tener unas redes más eficientes”. Bajo su punto de vista, el Big Data y la Inteligencia Artificial pueden ayudar a la energía renovable. “Estas energías suelen ser energías no gestionables y complejas de estimar su producción por la volatilidad de las condiciones meteorológicas”, indica. El experto añade que en este punto es cuando es necesario disponer de sistemas que les permita conocer con precisión la energía que va a ser producida con antelación y así poder participar en los distintos mercados eléctricos. “Estas tecnologías

BigDatamagazine | Noviembre 2020

pueden ayudar también al mantenimiento y alargamiento de la vida útil de las plantas”, apunta. El desarrollo de la industria El informe ‘Global Big Data Analytics in the Energy Sector Market’ presentado por Orbis Research este año 2020 ofrece un análisis de la industria tanto a nivel mundial como regional, ahondando en qué tecnologías se están implementando y cómo están afectando a los distintos mercados. De entre todas las aportaciones del informe, la más relevante habla sobre la incidencia que el Big Data y el análisis de los datos recopilados en el sector energético. De acuerdo al texto, si el giro de la industria hacia los mercados renovables ha sido el principal causante de que las empresas se den cuenta de la importancia de los datos, la reciente caída en el precio de los combustibles fósiles como el petróleo es la causante de que esta tendencia se esté convirtiendo en el nuevo paradigma. Una mayor cantidad de equipos, como turbinas eólicas o paneles solares fotovoltaicos, requerirá más Inteligencia de las Cosas y software analítico para funcionar de una manera más óptima y mantenerse de forma correcta – y en algunos predictiva. Analizar bien los datos Uno de los temores de las empresas que se dedican al sector energético es no ser capaces de analizar bien toda la información que reciben. Es por eso por lo que Claus Bünermann, managing director en BayWa r.e. España afirma que uno de los principales retos que tienen por delante es “tratar los datos de manera que podamos analizarlos bien para gestionar nuestras instalaciones de manera más eficiente”. Bünermann especifica que, por ejemplo, un parque solar o eólico genera “enormes cantidades de información que debe ser procesada con precisión”. Los datos son todo, recalca, todo lo que abarca desde el rendimiento y el mantenimiento continuo, hasta la gestión del proyecto operativo. “Gracias al Big Data se puede eliminar la duplicidad y mejorar la calidad de los datos, a veces incluso completar los que faltan basándose en datos pasados y previsiones. Mientras que los gestores y propietarios de activos, así como los inversores, obtienen una transparencia total en sus

proyectos”, explica. En el caso de plantas de energía renovable, sus responsables necesitan asegurar que las preguntas planteadas por la estrategia comercial del cliente puedan ser respondidas. “La agilidad de los algoritmos y la lógica de procesamiento de datos puede abordar una serie de cuestiones relevantes, como los ciclos de retroalimentación y las desviaciones planificadas rápidamente. Igualmente, se da cabida al uso de nueva tecnología basada en los conocimientos de datos obtenidos”. Aparte de eso, el procesamiento de datos también da la oportunidad de reducir la huella de carbono mediante la utilización optimizada de los recursos; desde el personal de campo hasta el movimiento del inventario, pasando por el análisis y la presentación de informes para una mejor toma de decisiones. Todo esto lleva a una pregunta: ¿cómo será la implantación y uso del Big Data en las empresas de este sector? ¿Se lo empiezan a tomar en serio? ¿Son conscientes de que el Big Data es el futuro de su empresa? Todos los expertos coinciden en asegurar que cada vez se es más consciente de ello. “El Big Data permite conocer las necesidades de los usuarios” y eso es algo que una empresa no puede desaprovechar.

.


11

Te ayudamos a agilizar la toma de decisiones para optimizar tus procesos de negocio. Hacia empresas más flexibles, ágiles y centradas en el cliente. Impacto

Mejora en la eficiencia de procesos

Menor riesgo y costes operacionales

Mayor transparencia y control sobre las decisiones

Mayor accesibilidad y agilidad ante cambios

Aumento de la satisfacción de clientes y empleados

Integramos diferentes tecnologías para sacar el mayor partido. Nuestras tecnologías

Optimización Matemática - Investigación Operativa

BRMS– Sistemas Basados en Reglas de Negocio

Analítica Predictiva y Machine Learning

Arquitectura IT Flexible en la Nube

BPMS – Plataformas para la Gestión de Procesos de Negocio

Tecnologías de planificación y optimización Supply Chain

Partners tecnológicos

Advanced Analytics and AI for Smart Decisions. Think big. Start small. Move fast.

BigDatamagazine | Noviembre 2020


12 Especial del dato en el sector energético / Naturgy

“El CDO es una pieza clave para acompañar a los Negocios hacia una compañía data driven” Naturgy es una de las tres grandes compañías del sector eléctrico en España. Desarrolla actividades de aprovisionamiento, generación, distribución y comercialización de electricidad y gas natural. El manejo eficiente de los datos es prioritario desde hace años para ellos.

E

Texto: José

Luis Arcángel

ntrevistamos a la que desde julio es Chief Data Officer de Naturgy, Natalia Mayoral Figueroa. Nos cuenta todos los detalles del uso del de los datos en la empresa radicada entre Barcelona y Madrid.

Big Data Magazine (BDM): ¿Cuál ha sido el proceso profesional que le ha llevado a su puesto actual en Naturgy? Natalia Mayoral (NM): Hace 23 años

inicié mi carrera profesional en el mundo de la Consultoría de Sistemas, siempre muy vinculada al sector energético, pero donde he tenido también oportunidad de conocer otros sectores como el retail, la distribución y las telecomunicaciones. BigDatamagazine | Noviembre 2020

Durante todo este tiempo he vivido la evolución tecnológica desde el Cobol a las nuevas tecnologías digitales, en un movimiento “exponencialmente” acelerado. Y no sólo se ha producido un cambio en la tecnología, hemos vivido también un cambio en las metodologías de trabajo y la cultura de las organizaciones. Todo esto me ha permitido experimentar y aprender. Hace algo más de 6 años me incorporé a Naturgy en su equipo de Sistemas de Información, en plena reflexión sobre la redefinición de la relación con nuestros clientes, buscando poner al cliente en el centro de todo lo que hacemos, y viendo ya en ese momento la relevancia de los datos y la oportunidad que nos

generaba cada uno de los contactos con nuestros clientes. Durante estos 6 años en el equipo de Sistemas de Información en Naturgy he pasado por diferentes funciones, lo que me ha permitido tener una visión transversal de la compañía, quizá esa sea una de las razones por las que en julio de este año ocupé la función de Chief Data Officer corporativo, función que, desde mi punto de vista, debe aunar conocimiento tecnológico, metodológico y del Negocio. BDM: Desde su experiencia previa en otras empresas y consultoras ¿Qué diferencias hay en el manejo de datos entre otros sectores y el que ahora le ocupa? NM: Quizá no es tanta la diferencia en

el manejo de datos entre otros sectores


13

Natalia Mayoral Figueroa, Chief Data Officer en Naturgy y el de la energía, sino la situación de contorno que vivimos en el momento actual. Siendo evidente que los datos son cada vez una mayor oportunidad para mejorar en todo lo que hacemos, no cabe duda de que son también un activo que debemos cuidar como otros activos de las organizaciones, el aumento en los canales de atención y de relación con los clientes, el despliegue de la red inteligente, la regulación en materia de seguridad y privacidad de los datos, entre otras cosas, hacen imprescindible una gestión del dato que hace unos años no era tan necesaria. Así que el mayor reto que tenemos es el de asegurar la integridad de los datos, la disponibilidad/accesibilidad y la confidencialidad y seguridad de los datos, todo ello mediante el Gobierno de los datos. BDM: ¿Cómo ha evolucionado la concienciación en las empresas en la necesidad de hacer un uso eficiente de los datos que generan? NM: Considero que este es un tema en

el que aún tenemos que seguir avanzando, las empresas no son del todo conscientes del activo que suponen los datos, y de la necesidad de gestionarlos como tal. Las empresas que han nacido en la era digital, lo tienen más interiorizado, la gestión eficiente de los datos forma parte de su ADN. En empresas como Naturgy con mucha historia, necesitamos apoyar el cambio cultural que esto representa, en ese sentido estamos impulsando estas acciones como motor de esta concienciación en el uso eficiente y responsable de los datos.

BDM: ¿Qué importancia tiene la figura del responsable de datos en las empresas? NM: Diría que es una pieza clave

para acompañar a los Negocios hacia una compañía data driven, donde los Negocios puedan tomar las mejores decisiones en base a los datos de que disponemos. En un momento de transformación como al que nos enfrentamos, es importante que alguien vele por la estrategia data de la compañía, los Negocios deben velar por su plan estratégico, sus planes de desarrollo de negocio, todo ello contando con el dato como motor del cambio. Podríamos decir que el hecho de contar con una unidad centralizada como responsable de datos, actúa como catalizador del proceso.

BigDatamagazine | Noviembre 2020


14 Especial del dato en el sector energético / Naturgy BDM: En Naturgy, ¿existía ya una cultura del dato cuando comenzó a trabajar o ha tenido que empezar a impulsarla y cómo lo está haciendo? NM: Realmente siempre hemos trabajado

con los datos, pero de ahí a tener una cultura del dato hay un recorrido. En 2017 Naturgy, consciente de la necesidad de iniciar el viaje del dato, nombra un CDO y constituye la unidad de Data Office para dar forma e impulsar la transformación de Naturgy orientándonos a los datos. Como comentaba, mi incorporación a la función de CDO es muy reciente, así que he tenido la fortuna de encontrarme parte de este viaje hecho. Durante estos tres años en la Unidad Data Office de Naturgy se ha trabajado en la definición de las polí-

ticas y de una arquitectura data centric, impulsando en toda la organización el despliegue de la cultura del dato. En concreto una Iniciativa de la que estamos especialmente orgullosos, por la aceptación que ha tenido, fue el lanzamiento en 2019 de una comunidad del dato, dirigida a toda la organización, nuestro “Naturgy dataHub”. Se trata de un espacio (físico y virtual) de colaboración para toda la “comunidad data” de Naturgy, un espacio de trabajo y colaboración en todas las iniciativas de datos, donde ponemos en práctica el “learning by doing”. Nuestro reto ahora es continuar en la senda iniciada, acelerando la transformación y el uso de la tecnología disponible en cada momento.

BDM: ¿Encuentra profesionales suficientemente preparados para incorporar a su equipo? ¿Cómo hacen para mantenerlos en un mercado con tanta movilidad? NM: Como mencionaba al inicio, es

importante que los profesionales que trabajen en el entorno de los datos tengan un perfil dual, conocimiento técnico y conocimiento de los procesos de negocio, solo así somos capaces de saber lo que nos dicen los datos. En Naturgy contamos con un profundo conocimiento del negocio, así que apostamos por el desarrollo de las capacidades data en el equipo humano interno para llegar a esa dualidad tan necesaria. BDM: ¿Qué requisitos cree usted que debe cumplir un CDO?

“En empresas como Naturgy con mucha historia, necesitamos apoyar el cambio cultural que esto representa, en ese sentido estamos impulsando estas acciones como motor de esta concienciación en el uso eficiente y responsable de los datos”.

BigDatamagazine | Noviembre 2020


15

Natalia Mayoral Figueroa, Chief Data Officer en Naturgy NM: Hablamos de “cultura del dato”

ese es un concepto mucho más amplio que meramente el uso de tecnología, hablamos de tratar los datos como un activo, de entender lo que nos cuentan los datos, y tomar mejores decisiones a partir de esas historias. Todo esto requiere un cambio en las personas, en nuestra forma de hacer, por lo que, sin duda, un CDO debe tener visión transversal en la organización, debe saber contar el viaje del dato de forma que se vea el valor que éste aporta y debe aportar la hoja de ruta y las herramientas necesarias para que los Negocios se suban a este tren. BDM: ¿Cómo es su día a día en Naturgy? NM: Pues supongo que no muy dife-

rente al resto de mis compañeros, trabajando intensamente, tratando de adaptarnos a la situación que nos ha traído la pandemia, intentando que no nos reste avance en nuestros propósitos. Y todos los días, dedico una parte de mi tiempo a la lectura y exploración sobre temas relacionados con el mundo del dato. BDM: ¿Cuál es el mayor problema al que se ha enfrentado en su carrera profesional a la hora de manejar datos y cómo lo resolvió? NM: Siempre que manejamos datos

estamos ante un riesgo potencial, de eso no cabe duda, así que ha habido muchas ocasiones a lo largo de mi carrera profesional en la que he estado expuesta a ese riesgo, y ¿cómo se resuelven?, pues con prevención, con anticipación, con una buena gestión de riesgos. En concreto en el tratamiento de los datos el mayor problema es el asociado a la seguridad, pero también es importante considerar todo lo relacionado con la calidad del dato (fiabilidad, integridad) BDM: ¿Cómo afecta el avance imparable de la Inteligencia Artificial en el manejo de datos de las empresas de su sector? NM: Desde mi punto de vista la IA es un

compañero indispensable en este viaje del dato. Las empresas como Naturgy reciben y generan una cantidad ingente de datos, el terreno de la sensorización aplicado al mundo industrial es una constante fuente de emisión de señales. En el caso de los clientes de la comercializadora, cada contacto es una fuente de datos, datos de nuestros clientes que nos permiten una mejor atención y oferta de aquello que necesitan. El análisis de toda esta cantidad de datos en un tiempo ágil es lo que nos aportará

“Uno de los objetivos del plan tecnológico es el desarrollo de una arquitectura data centric desplegando herramientas y modelos analíticos a la par que se desarrollan las capacidades internas de explotación de datos, como mencionaba antes”. eficiencia en nuestros procesos, y nos brindará la oportunidad de transformar el dato en un mejor servicio a nuestros clientes y a la sociedad y todo ello será una realidad gracias a la IA.

BDM: Una de las responsabilidades de un CDO es gobernar el dato. ¿Cree que ese gobierno del dato debe ser una dictadura o una democracia? NM: En Naturgy creemos que el

Gobierno de los datos es de los Negocios, desde la función de Data Office fomentamos esta función que consideramos vital para la transformación hacia una compañía data driven, y facilitamos las herramientas y la definición de políticas y procedimientos para ello, pero los verdaderos responsables de gobernar sus datos son los propios Negocios. Independientemente de quién sea responsable de ese Gobierno, debe ser una función que despierte interés y vocación, en ningún caso una dictadura.

BDM: ¿Cuáles son los proyectos a medio-largo plazo de Naturgy para el aprovechamiento de los datos que obtiene? NM: Con el objetivo de acelerar el

crecimiento y desarrollo de cada uno de los Negocios de Naturgy, uno de los objetivos del plan tecnológico es el desarrollo de una arquitectura data centric desplegando herramientas y modelos analíticos a la par que se desarrollan las capacidades internas de explotación de datos, como mencionaba antes. Como parte de este plan se incluye continuar con la creación de data lakes y el desarrollo de todo el modelo inteligente de explotación de los datos. Todo ello permitirá continuar con la digitalización de los procesos, la transformación data driven nos ha de permitir llevar a cabo todos los procesos de optimización de operaciones, la gestión integral de activos y el desarrollo y la

explotación inteligente de las operaciones, la redefinición de la relación con el Cliente, conociendo mejor al Cliente, potenciando un mejor servicio a partir del valor de los datos, poniendo al Cliente en el centro. ​ BDM: ¿Cómo ha afectado el nuevo Reglamento de Protección de Datos a su empresa? NM: Teniendo en cuenta que el sector

energético está sujeto a una fuerte regulación en general, no es diferente el caso de la Regulación de Protección de datos. Trabajamos siempre para adecuar nuestros procesos a los requerimientos regulatorios. En concreto para adaptarnos a lo recogido en el nuevo Reglamento de Protección de Datos, lanzamos iniciativas de aplicación de medidas técnicas, funcionales y organizativas que nos garanticen los requisitos que exige la regulación. BDM: Ahora que casi todos los datos de las empresas se encuentran en la nube ¿Cómo hacen para protegerlos? NM: Para Naturgy la seguridad es inde-

pendiente de que los datos estén on-prem o en cloud, contamos con un departamento de Ciberseguridad que está focalizado en garantizar las medidas de seguridad necesarias en cada caso. De acuerdo con esto ¿qué es más seguro tener los datos on-prem o en la nube?, la respuesta es clara, es más seguro el entorno que tenga los controles más adecuados, mejor diseñados y más efectivos (tanto controles tecnológicos como a nivel de proceso). Por nuestra parte tenemos definida una Arquitectura de Seguridad en Cloud que, en función de las características del cloud y los datos manejados en la misma, establece unos controles muy claros y aterrizados, que pueden ser implementados con soluciones nativas o de terceros. Adicionalmente tenemos soluciones específicas como puede ser CASB, para identificar anomalías y casos de abuso con los datos.

.

BigDatamagazine | Noviembre 2020


16 Especial del dato en el sector energético / Repsol

“El gobierno de datos tiene que ocurrir en los negocios, que son los verdaderos dueños del dato” En Repsol llevan años implantando la cultura del dato en el ADN de la compañía. Hoy, la multinacional española es una de las principales compañías energéticas del mundo. Su manejo de los datos y el apoyo de la Inteligencia Artificial para ello les ha convertido en ejemplo para otras empresas del sector.

E

Texto: José

Luis Arcángel

ntrevistamos al máximo responsable del manejo de los datos en Repsol. Juan José Casado nos da detalles sobre como los datos son el pilar del 60% de las decisiones que se toman a día de hoy en la multinacional energética y petroquímica española.

Big Data Magazine (BDM): ¿Cuál ha sido el proceso profesional que le ha llevado a ser el CDO de Repsol? Juan José Casado (JJC): Durante más

de 15 años, he trabajado en consultoría asesorando a grandes empresas sobre cómo obtener el máximo valor de sus datos. Durante este tiempo he tenido la suerte de poder colaborar con empresas de sectores tan diversos como banca, telecomunicaciones, retail, energía o BigDatamagazine | Noviembre 2020

seguros, en proyectos siempre encaminados a transformar sus negocios a través de la analítica avanzada de datos, lo que antes llamábamos data mining y ahora conocemos como data science. Mi paso por diferentes consultoras especializadas me permitió formarme en diversas diciplinas de este campo como el CRM analítico (gestión de la relación con el cliente), business intelligence, marketing intelligence, data mining, hasta llegar al big data y la inteligencia artificial. Finalmente, en mi última etapa en IBM lideré la práctica de consultoría de strategy & analytics en los años que comenzaba la transformación digital de la mano del big data y las primeras soluciones de inteligencia artificial de uso comercial como Watson.

Dejé la consultoría para centarme en proyectos que utilizaran los datos para tener un alto impacto, no solo en los negocios, sino también en la sociedad en su conjunto y así comencé a trabajar en aplicar los datos para mejorar la salud de las personas. Tras un paso por el sector farmacéutico fui durante tres años el director de data & analytics de Sanitas, donde ayudé a impulsar la transformación digital de la compañía. Hace dos años decidí incorporarme a Repsol porque me atrajo enormemente su proyecto decidido y retador para liderar la transición energética, con la tecnología, la digitalización y el talento de las personas como pilares fundamentales.


17

Juan José Casado, Director de Gestión de Datos y Analytics de Repsol Además, desde hace añoscompagino mi actividad profesional con mi actividad docente en el Instituto de Empresa, donde soy profesor y director académico del Máster en Business Analytics&Big Data, uno de los primeros programas máster que se impartieron en esta materia a nivel internacional y que hoy recibe a más de 200 estudiantes de todo el mundo que vienen cada año a Madrid a formarse para ser profesionales del big data. BDM: Anteriormente trabajó en una empresa de un sector muy diferente como Sanitas y en una consultora, ¿qué diferencias hay en el manejo de datos entre esos sectores y el que ahora le ocupa? JCC: Más que sus diferencias, lo que

más me atrae de ambos sectores es que el big data y el machine learning tienen la capacidad no sólo de mejorar el negocio, sino de transformar con ello la sociedad en la que vivimos. En Sanitas, el dato nos permitía mejorar la salud de las personas y en Repsol nos permite liderar la transición energética, afrontando el gran reto del futuro de la humanidad, que es el reto de la energía del futuro. El sector energético está llamado a desempeñar un papel de liderazgo en la lucha contra el cambio climático mediante la introducción de un cambio de paradigma, que ahora conocemos como la transición energética. Tener energía segura, asequible y limpia es clave para el desarrollo de nuestra sociedad y esto requiere de un nuevo modelo energético basado en la innovación, la tecnología y el uso de datos. A medida que los sistemas de energía se descentralicen, descarbonicen y digitalicen, la inteligencia artificial surgirá como la próxima frontera para la transición energética. BDM: ¿Cómo ha evolucionado la concienciación en las empresas en la necesidad de hacer un uso eficiente de los datos que generan? JCC: Si hay algo que realmente ha dife-

renciado a las grandes compañías digitales es que han conseguido hacer de sus datos una fuente de ventaja competitiva única y diferencial. Facebook, Amazon, Google, Netflix son compañías que no se diferencian por sus grandes activos, sino por su capacidad de sacar el máximo valor a sus datos, combinando el uso de tecnologías big data con la aplicación masiva

“Facebook, Amazon, Google, Netflix son compañías que no se diferencian por sus grandes activos, sino por su capacidad de sacar el máximo valor a sus datos, combinando el uso de tecnologías big data con la aplicación masiva de machine learning e inteligencia artificial para ofrecer a sus clientes una experiencia única y diferencial”. de machine learning e inteligencia artificial para ofrecer a sus clientes una experiencia única y diferencial. Esta experiencia es posible gracias a la completa personalización de los productos y servicios que ofrecen y que, a la vez, es posible por el profundo conocimiento del cliente que obtienen analizando el big data que generan. Las compañías, por tanto, están evolucionando hacia un nuevo paradigma data centric donde los datos se liberan de sus aplicaciones origen y empiezan a ser considerados un asset en sí mismos de gran valor para las empresas. BDM: ¿Qué importancia tiene la figura del CDO en su empresa? JCC: Desde 2017, Repsol ha estado

trabajando en un ambicioso programa de transformación digital que nos está permitiendo transformar la empresa. La transformación digital de Repsol está impulsada por datos. De las más de 190 iniciativas lanzadas, aproximadamente el 60% corresponden a iniciativas relacionadas con el uso de datos y análisis. La inteligencia artificial es ahora una piedra angular en el desarrollo de la mayoría de los casos digitales más relevantes que están transformando las diferentes unidades de negocio. Para facilitar y acelerar la adopción masiva de estas tecnologías nació el Hub de Data & Analytics de Repsol que dirijo y que conforman más de 40 profesionales, entre data engineers, data architects, data scientists y data translators, cuya principal misión es acompañar a nuestros negocios en su camino hacia el desarrollo de una cultura data driven que sea capaz de obtener el máximo valor de los datos, convirtiéndolos en una fuente de ventaja competitiva para Repsol y una pieza clave para cumplir nuestros obje-

tivos estratégicos.

BDM: En Repsol, ¿existía ya una cultura del dato cuando comenzó a trabajar o ha tenido que empezar a impulsarla y cómo lo está haciendo? JCC: En Repsol siempre decimos

que ya hacíamos big data antes de que se llamara así. Nuestra industria siempre ha sido intensiva en el uso de datos, tanto en la exploración como en el refino. Además, Repsol fue pionera en el uso de supercomputación para el tratamiento de imágenes, lo que durante años nos ha dado una ventaja competitiva en la exploración de petróleo en aguas profundas como las del Golfo de México estadounidense. Nuestra misión ahora es escalar esa cultura del dato que ya existía en algunas áreas muy innovadoras de la compañía a sus más de 25.000 empleados en todo el mundo y transformar verdaderamente la forma que tienen de trabajar. Para acelerar este cambio cultural, desde el Hub de Data & Analytics estamos impulsando la creación de una comunidad en torno a los datos para todos los empleados de Repsol. La Data Community de Repsol nos permitirá obtener el mayor rendimiento a los datos en nuestro día a día y nos ayudará a cumplir nuestro reto de transformar el sector de la energía. La Data Community de Repsol tiene entre sus actividades: - Formación a través de una Data School que define e imparte diferentes caminos formativos para facilitar a los empleados el re-skilling necesario para su día a día y el up-skilling que les permita ocupar posiciones de espeBigDatamagazine | Noviembre 2020


18 Especial del dato en el sector energético / Repsol cialista en data & analytics. - Comunicación para dar visibilidad a la transformación, compartiendo los avances y casos de éxito. - Práctica, generando entornos y oportunidades que acerquen el big data y la inteligencia artificial a los empleados y les permitan experimentar y practicar con estas tecnologías de una manera ágil y atractiva. BDM: ¿Encuentra profesionales suficientemente preparados para incorporar a su equipo? JCC: En Repsol tenemos la suerte de

que contamos con un proyecto que es tremendamente atractivo para cualquier profesional del mundo de data & analytics, por varias razones fundamentales: - La variedad de datos y técnicas con los que trabajamos. El dato industrial capturado a través de sensores e IoT en nuestras plantas de refino, el tratamiento de imágenes del subsuelo para la exploración, el procesamiento del lenguaje natural de los chatbots que facilitan el día a día de nuestros empleados o el análisis de consumo de energía a través de los smartmeeters en los hogares de nuestros clientes de electricidad son algunos ejemplos de la variedad y cantidad de datos que manejamos en Repsol. - La capacidad de impacto. Debido al volumen de las inversiones de los activos en el sector y la cantidad de procesos industriales que componen el ciclo productivo y comercial, no existe seguramente otra industria que tenga mayor posibilidad de generar valor a través de estas tecnologías que la industria de la energía. - Nuestro propósito. El big data y la inteligencia artificial están llamados a jugar un papel protagonista en la lucha contra el cambio climático y van a ser críticos para que el sector camine hacia una transición energética que nos permita mejorar el bienestar social en todo el mundo y preservar la salud del planeta. Esto ha hecho que hayamos podido atraer en muy poco tiempo todo el talento tanto interno como externo que necesitábamos para formar nuestro Hub, en el que más de un 50% son mujeres, lo cual es algo que desafortunadamente, no suele ser fácil en un entorno tan técnico como el nuestro. BDM: ¿Qué requisitos cree usted que debe cumplir un CDO? JCC: Nosotros creemos que el gran

reto de la transformación no está en la tecnología, sino en las personas. Por BigDatamagazine | Noviembre 2020

“Nosotros creemos que el gran reto de la transformación no está en la tecnología, sino en las personas. Por eso me parece que la principal cualidad que debe tener un CDO es la capacidad de hacer comprender a sus compañeros cómo los datos y la analítica pueden ayudarle a hacer mejor su trabajo”.

eso me parece que la principal cualidad que debe tener un CDO es la capacidad de hacer comprender a sus compañeros cómo los datos y la analítica pueden ayudarle a hacer mejor su trabajo. Sin duda un CDO tiene que ser una persona muy didáctica que sea capaz de explicar

de manera fácil conceptos complejos como el big data y la inteligencia artificial y un buen comunicador para animar al mayor número de personas a incorporar estas tecnologías en su día a día. BDM: ¿Cómo es el día a día del CDO en Repsol?


19

Juan José Casado, Director de Gestión de Datos y Analytics de Repsol JCC: Ahora mismo me imagino que

muy similar al del resto de españoles que están teletrabajando desde casa por la crisis del COVID: muchas horas de videoconferencia y la sensación de estar trabajando más intensamente que nunca. BDM: ¿Cuál es el mayor problema al que se ha enfrentado en su carrera profesional a la hora de manejar datos? JCC: Desde mi punto de vista, el gran

desafío que tiene nuestra profesión son los temas relacionados con la ética y la responsabilidad en el uso de la información. Nuestro deber es garantizar el correcto uso de los datos y velar por el estricto cumplimiento normativo.

BDM: ¿Cómo afecta el avance imparable de la inteligencia artificial en el manejo de datos de las empresas de su sector? JCC: En un entorno industrial como el

nuestro se generan enormes cantidades de datos y casi cualquier proceso es susceptible de ser optimizado con la aplicación de modelos y algoritmos analíticos que nos están ayudando a automatizar y optimizar los procesos productivos. El big data nos ha ayudado a mejorar nuestras capacidades de exploración, está ayudándonos a hacer una producción de energía más limpia y eficiente, a maximizar la calidad de nuestros productos, a mejorar la seguridad de nuestros entornos y a realizar un mantenimiento predictivo de nuestros activos. Nos está ayudando, en general, a ser más eficientes, lo que nos permite desempeñar nuestra actividad de una manera más sostenible. En nuestro proceso de transformación resulta esencial el cambio de paradigma que estamos aplicando en los últimos años, situando al cliente en el centro de nuestras actividades para ofrecerle una experiencia única y diferencial en el mundo de la energía, pasando así de una estrategia product centric a una nueva estrategia customer centric. Para ello, el big data y el uso de

inteligencia artificial nos va a permitir obtener el conocimiento necesario del cliente para diseñar una oferta de productos y servicios completamente personalizados para sus diferentes entornos: profesional, residencial, de ocio y movilidad.

BDM: Una de las responsabilidades de un CDO es gobernar el dato. ¿Ese gobierno del dato debe ser una dictadura o una democracia? JCC: Nuestra visión en el Hub es que

el gobierno de datos tiene que ocurrir en los negocios, que son los verdaderos dueños del dato. Nuestra misión es facilitar las herramientas, procesos y políticas para que a los data owners, data stewards y data users de negocio les sea lo más fácil posible ejercer su tarea de gobierno del dato. BDM: ¿Cuáles son los proyectos a medio-largo plazo de Repsol para el aprovechamiento de los datos que obtiene? JCC: Uno de los grandes proyectos de

Repsol para el aprovechamiento de los datos es la construcción de nuestra plataforma de big data & analytics corporativa: ARIA. El objetivo de ARIA es llegar a ser el cerebro digital de Repsol, la plataforma analítica que permita facilitar el acceso a los datos, extraer conocimiento y desarrollar modelos y algoritmos que doten de la máxima inteligencia los procesos corporativos, industriales y comerciales de Repsol. Y además, hacerlo de manera ágil, eficiente y a gran escala. Esta plataforma está diseñada para poder reutilizar, de unos casos a otros, los desarrollos y las extracciones de datos realizadas, reduciendo el time to market, eficientando costes, acelerando el desarrollo de los casos y facilitando los pasos a producción. Entre sus componentes cuenta con una capa de IoT que ingesta los datos recogidos por los sensores desplegados en nuestras plantas, sistemas de

“Nuestra misión es facilitar las herramientas, procesos y políticas para que a los data owners, data stewards y data users de negocio les sea lo más fácil posible ejercer su tarea de gobierno del dato”.

extracción batch y de procesamiento en tiempo real, datalakes que permiten almacenar grandes volúmenes de información estructurada y no estructurada, entornos de laboratorio analíticos en los que entrenar y desarrollar los modelos, facilitando su paso a producción y herramientas para el correcto gobierno de los datos, incluyendo el catálogo de datos. Desde el punto de vista tecnológico, ARIA es una plataforma construida enteramente en Cloud Pública (Azure) y desarrollada bajo filosofía DEVOPS que nos permite conseguir el mayor grado de automatización y garantizar su máxima conectividad, accesibilidad y disponibilidad. BDM: ¿Cómo ha afectado el nuevo Reglamento de Protección de Datos a su empresa? JCC: En Repsol llevamos años traba-

jando en este sentido, desde la entrada en vigor del reglamento, para garantizar su estricto cumplimiento en todas nuestras áreas y unidades de negocio, adaptando tanto nuestros sistemas como nuestros procesos a lo establecido en el nuevo reglamento. BDM: Ahora que casi todos los datos de las empresas se encuentran en la nube, ¿cómo hacen para protegerlos? JCC: Las plataformas en la nube no

son más inseguras que las plataformas on-premise. Los servicios cloud deben operarse sustentados en framework de seguridad para cada una de ellos, activando todas las capacidades nativas de seguridad y, si fuera necesario, complementándolos con soluciones de terceros. La clave de un servicio cloud seguro es el security for designed, donde los desarrolladores, los arquitectos cloud y los administradores de la cloud deben ejecutar sus actividades, siempre teniendo en cuenta la seguridad. Los problemas que se han publicado sobre fallos de seguridad, en la mayoría de los casos, han sido errores de configuración, por lo que la responsabilidad sigue quedando del lado del consumidor de la cloud y no de la empresa de servicio de la cloud. También es fundamental dotarse de nuevas formas de monitorización de las cloud, para detectar de forma temprana comportamientos anómalos. Lo que tenemos claro en Repsol es que tener personas y servicios especializados en cloud es fundamental para llegar a tener servicios críticos y sostenibles basados en la nube. Hacerlo de otra manera sería una temeridad.

.

BigDatamagazine | Noviembre 2020


20 Especial del dato en el sector energético / Cepsa

“Un CDO debe tener una excelente visión estratégica y una gran capacidad para entender los negocios” El sector energético es uno de los más pujantes en el momento actual. En España contamos con la suerte de tener grandes empresas del sector que han conseguido una gran proyección a nivel internacional como CEPSA.

F

Texto: José

Luis Arcángel

rancisco Javier Hidalgo es el responsable de datos en CEPSA, y nos ha contado como se apoyan en el Big Data y la Inteligencia Artificial para seguir creciendo cada día. Además es miembro del CDO Club Spain. Big Data Magazine (BDM): ¿Cuál ha sido el proceso profesional que le ha llevado a su puesto actual en Cepsa? Francisco Javier Hidalgo (FJH): A

lo largo de mi carrera he tenido la oportunidad de trabajar en empresas muy diversas como la gran consultoría, integradores “boutique”, vendors de software, start ups o grandes clientes finales, como manager y director de áreas como innovación, servicios profesionales y por supuesto Data y Analytics. Mi pasión siempre han sido los datos y es el área en la que hace años decidí enfocar mi carrera y la que me ha llevado desarrollar mi actividad en el puesto donde me encuentro actualmente.

BDM: Desde su experiencia previa en otras empresas ¿Qué diferencias hay en el manejo de datos entre otros sectores y el que ahora le ocupa? FJH: Cada sector con los que he traba-

jado ha estado evolucionando la forma de uso de los datos, desde un uso “corporativo” a un enfoque intensivo, dependiendo del retorno que creían que iban a tener. En ese sentido, el sector

Francisco Javier Hidalgo, Head of Business Intelligence and CEPSA Data & Advanced Analytics Platform energético cuenta con muchos casos de uso de valor, y aunque no ha sido de los primeros está bastante avanzando y lleva años cambiando el enfoque al respecto. Por darte un ejemplo, en Cepsa en 2016 ya se estaba trabajando con Big Data y algoritmia en nube. BDM: ¿Cómo ha evolucionado la concienciación en las empresas en la necesidad de hacer un uso eficiente de los datos que generan? FJH: Creo que paradójicamente el

marketing generado alrededor del Big Data y el Machine Learning y la carrera de las empresas por no quedarse atrás ha empujado a muchas a replantearse todos los aspectos respecto al uso de datos, desde el BI tradicional hasta su uso desde los negocios. En este sentido, se ha ido pasando gradualmente de una concienciación más “informacional” a un enfoque más amplio en que puntos como la monetización del dato o su uso para la mejora de eficiencia cobran muchísima importancia.

“Paradójicamente el marketing generado alrededor del Big Data y el Machine Learning y la carrera de las empresas por no quedarse atrás ha empujado a muchas a replantearse todos los aspectos respecto al uso de datos, desde el BI tradicional hasta su uso desde los negocios” BigDatamagazine | Noviembre 2020


21

Francisco Javier Hidalgo, Head of Business Intelligence and CEPSA Data & Advanced Analytics Platform BDM: ¿Qué importancia tiene la figura del responsable de datos en las empresas? FJH: Para mí es una figura que más

allá de las modas va ganando peso e importancia a base de resultados y que en los próximos años se va a convertir en un asset estratégico para todas las empresas.

BDM: En Cepsa, ¿existía ya una cultura del dato cuando comenzó a trabajar o ha tenido que empezar a impulsarla y cómo lo está haciendo? FJH: En Cepsa ya existía desde hacía

muchos años una unidad de BI muy potente. Mi misión ha sido crear una nueva área que, aprovechando y mejorando la riqueza que ya había, pudiera integrar nuevos campos como la analítica avanzada, el Big Data y la Inteligencia Artificial para servir a nuestros negocios. Por supuesto para hacer esto es necesario previamente construir una estrategia sólida de datos, que es una de las áreas donde más esfuerzos estamos haciendo. BDM: ¿Encuentra profesionales suficientemente preparados para incorporar a su equipo? FJH: La verdad es que no tenemos

problemas al respecto. Quizás lo más complejo en este ámbito es encontrar profesionales de los datos que comprendan los negocios, y de eso por suerte tenemos en Cepsa. BDM: ¿Qué requisitos cree usted que debe cumplir un CDO? FJH: Lo primero que debe tener un

CDO es una excelente visión estratégica y una gran capacidad para entender los negocios, los procesos y poder establecer relaciones de confianza con los diferentes stakeholders. También creo que tener un conocimiento de datos y analítica más técnico en un entorno complejo como en el que nos encontramos facilita enormemente la consecución de resultados de un CDO. BDM: ¿Cómo es su día a día? FJH: Yo dedico una parte muy impor-

tante de mi día a día a estar con los negocios, lo que me ayuda por una parte a comprender sus necesidades y por otra a alinear y evolucionar la estrategia de datos que impulsa mi área. Por supuesto, la operativa es también un pilar esencial de mi actividad: proyectos estratégicos, prospección de soluciones, evolución de equipo… BDM: ¿Cuál es el mayor problema al que se ha enfrentado en su carrera profesional a la hora de manejar datos?

“Mi misión ha sido crear una nueva área que, aprovechando y mejorando la riqueza que ya había, pudiera integrar nuevos campos como la analítica avanzada, el Big Data y la Inteligencia Artificial para servir a nuestros negocios”. FJH: El mayor problema al que me he

enfrentado es empezar con un planteamiento desde cero porque lo implantado históricamente no es válido o reaprovechable. En este escenario el reto, más allá de la inversión, es el de saber comunicar y convencer a la empresa porqué es necesario hacer el cambio y porqué el camino que se propone no les va a llevar al mismo lugar. Es un trabajo complejo y continuo que exige a la empresa un cambio de mentalidad. BDM: ¿Cómo afecta el avance imparable de la Inteligencia Artificial en el manejo de datos de las empresas de su sector? FJH: En el sector existen muchas apli-

caciones a la Inteligencia Artificial que ya han demostrado valor y retorno y que han sido interiorizadas por las empresas. Estoy seguro de que otras muchas terminaran descartándose aunque es pronto para saberlo. Yo veo la aplicación de IA como un camino de aprendizaje en que las que las empresas la incorporarán en su “business as usual” como un elemento más para dar valor en los negocio. BDM: Una de las responsabilidades de un CDO es gobernar el dato. ¿Cree que ese gobierno del dato debe ser una dictadura o una democracia? FJH: Creo que en una dictadura de datos

es complicado extender el uso de los mismos y en una democracia estricta sería complejo alinearlos con las estrategias y objetivos exigentes de las empresas. Tal y como lo veo, el camino para la implantación pasa por promover su uso democrático pero con una ejecución firme y muy alineada con los negocios y el plan estratégico global de la empresa. BDM: ¿Cuáles son los proyectos a medio-largo plazo de Cepsa para el aprovechamiento de los datos que obtiene? FJH: Cepsa está haciendo proyectos

en todos los ámbitos de datos como parte de su estrategia, tanto en áreas de construcción de datalakes como diversas

iniciativas de analítica avanzada. También se está trabajando mucho en evolucionar y adaptar a las nuevas demandas y casos de uso el core más corporativo de sistemas de Business Intelligence y Visualización.

BDM: ¿Cómo ha afectado el nuevo Reglamento de Protección de Datos a su empresa? FJH: Al igual que ha ocurrido en otras

empresas ha sido necesario comprender el alcance del nuevo escenario y adaptar algunos procesos, pero su adopción no ha sido problemática dentro de CEPSA BDM: Ahora que casi todos los datos de las empresas se encuentran en la nube ¿Cómo hacen para protegerlos? FJH: La ciberseguridad de los datos, sea

Cloud o no, es clave para nosotros y existe un equipo dedicado que participa en todas las iniciativas desde su concepción y en el planteamiento de la estrategia. Es cierto que en el tema de nube ha habido que replantearse muchos aspectos y trabajar a fondo con proveedores y fabricantes para definir un catálogo de soluciones y escenarios que tengan en cuenta las nuevas capacidades que nos ofrecen los servicios de nube, y que estamos explotando de forma muy intensiva. Por supuesto, y siendo una empresa internacional, hay datos que por diversos temas (p.e, el regulatorio) no están en nube. BDM: Eres miembro activo del Chief Data Oficer Club Spain ¿Qué encuentras en ese espacio común entre CDOs? FJH: Para mí el valor más importante

del club es ser un espacio donde poder compartir experiencias en un entorno cercano con otros compañeros que tienen problemas parecidos al tuyo, ya que en el fondo todas las empresas tenemos necesidades similares y quizás la única diferencia es el punto de madurez en el que te encuentres. También destacaría del Club el magnífico ambiente que se ha sabido crear para facilitar este tipo de intercambios.

.

BigDatamagazine | Noviembre 2020


22 Especial del dato en el sector energético / Gazprom Neft

“La captación y análisis en tiempo real nos permiten tomar decisiones de negocio basadas en datos, que tienen valor en el momento presente” Gazprom Neft es uno de los cinco productores de petróleo más importantes de Rusia, y es una empresa propiedad de Gazprom. La estrategia basada en datos es fundamental para seguir creciendo a un ritmo vertiginoso.

E

Texto: José

Luis Arcángel

n nuestro afán por seguir conociendo a los profesionales del dato en el sector energético hemos entrevistado a Alexander Ratanov, Data Quality Manager en Gazprom Neft.

Big Data Magazine (BDM): ¿Cuándo comienza la relación de Gazprom con la gestión de los datos y cómo ha sido su evolución hasta nuestros días? Alexander Ratanov (AR): Actual-

mente, cualquier compañía debe gestionar enormes cantidades de datos en diferentes formatos y desde numerosas fuentes. Todos somos conscientes de la digitalización de la economía y de la necesidad de ser data driven para ser una compañía competitiva. La analítica juega un papel fundamental en Gazprom Neft, hasta el punto de haberse vuelto indispensable. La capacidad que nos ofrece Qlik para captar, analizar y compartir los datos prácticamente en tiempo real nos permite tomar decisiones más acertadas en menor tiempo, a un menor coste y generando un mayor valor para la compañía. Nuestra historia de gestión de datos comenzó en 2010, cuando se intentó en toda la empresa implementar un sistema de gestión de datos maestros y se organizó un único sistema de datos de referencia de alto nivel. Posteriormente, en 2012, la directiva decidió implementar el sistema analítico de nuestro partner, y esto sirvió de catalizador para un desarrollo aún más explosivo en términos de gestión de datos en todos los departamentos de la empresa, y continúa siéndolo en la actualidad. Cuando los usuarios ven los datos, pueden analizarlos en línea, BigDatamagazine | Noviembre 2020

ver inmediatamente las deficiencias en el registro, los procesos de negocios, los datos que se mantienen en Excel y, en última instancia, decidir acerca de mejoras en la gestión de datos.

BDM: Hay personas que definen a los datos como “el petróleo de nuestros días”. En vuestro caso se cumple por partida doble. ¿Sería posible el funcionamiento Gazprom sin Big Data e Inteligencia Artificial? AR: Efectivamente, todos hemos escu-

chado esa frase en algún momento. Y, al igual que sucede con el petróleo, los datos por sí solos no sirven de nada. Si no se tiene la capacidad para llegar hasta ellos, tratarlos y para que se tomen decisiones en base a ellos, son irrelevantes. Los datos son realmente un activo de muchísimo valor y, efectivamente, las cosas que hacemos hoy día no serían posibles sin los datos. La captación y análisis en tiempo real nos permiten tomar decisiones de negocio basadas en datos, que tienen valor en el momento presente. Hace unos años, cuando no se disponía de herramientas como las de nuestro partner para la gestión y el análisis, se invertía mucho más tiempo y recursos para extraer valor de los datos y, para cuando se podía tomar una decisión a partir de ellos, el contexto había cambiado. Las herramientas de Business Intelligence modernas nos permiten actuar ahora, cuando las cosas suceden, y la IA, detectar patrones y anomalías para anticiparnos a las circunstancias. A día de hoy no es posible tomar decisiones basadas solo en la experiencia. Ya que la empresa tiene datos a partir de los que hacer predicciones y sobre los que aplicar machine learning, hay que hacerlo. En 2015, hicimos una

aplicación con Qlik en la que podía visualizarse la previsión de ingresos en las gasolineras, seleccionando de forma automática el mejor modelo de previsión para cada una. Desde entonces, nuestro partner ha evolucionado de forma significativa y nos ha ayudado mucho en la interpretación y visualización del conjunto de datos de forma rápida y eficaz para nuestros data scientists. Hemos puesto en marcha varios proyectos digitales con el objetivo de sacar el máximo partido y la máxima monetización a los datos. Desde el punto de vista organizativo y estructural, se han identificado varias líneas de desarrollo: personas, procesos y estructura organizativa. La empresa invierte en su propio desarrollo en lo que respecta a la gestión de la recopilación de datos y la estructuración de éstos, lo que hace posible el ML y la IA. BDM: ¿En qué procesos utilizáis la gestión de datos y en cuales estáis implementándolos poco a poco? AR: Utilizamos la gestión de datos para

todos nuestros procesos de negocio. Una de las soluciones más interesantes es el proyecto de Supply Chain Management, es decir, analizar la cadena completa de venta de productos petrolíferos, desde la recepción del petróleo en las refinerías, hasta la venta de productos petrolíferos al consumidor final. Este tipo de producto es bastante difícil de analizar, ya que no basta con cargar los datos; es necesario utilizar además herramientas de previsión para ver la diferencia entre los valores previstos y los reales. Para ello, hay que considerar muchos factores que afectan a los suministros, la logística, la carga de las instalaciones de planta, la refinación de petróleo y las ventas posteriores.


23

Alexander Ratanov, Data Quality Manager en Gazprom Neft BDM: ¿La gestión de datos en Gazprom es propia, externa o compartida entre ambas opciones? AR: Gazprom Neft gestiona sus datos

utilizando un modelo interno. Los servicios de gestión de datos se despliegan en servidores físicos y virtuales en la red interna de la empresa. Tal vez en el futuro el modelo de gestión se cambie, pero por el momento es un modelo de gestión interno. Por otra parte, a pesar del modelo utilizado, también usamos datos externos para, por ejemplo, hacer pronósticos, descargar las condiciones meteorológicas, datos de redes sociales, parámetros macroeconómicos como la población de la ciudad, salarios medios, etc.

BDM: ¿En qué proveedores os apoyáis principalmente y para qué procesos? AR: Gazprom Neft tiene muchas instala-

ciones de diversos programas de gestión de datos. Por ejemplo, citaría el uso de software en el departamento de ventas regionales. El negocio de esta división es la venta de combustible en su propia red de estaciones de servicio en Rusia, la CEI y Serbia a personas físicas y jurídicas y franquiciados. El proceso comercial de análisis de datos comienza con el envío de productos de refinería desde las fábricas. Utilizamos los componentes de Informatica, Hadoop Arena Data, MSSQL Server, y Qlik para la visualización de datos. Los datos provienen de fuentes de información en la capa de datos en bruto, que intercambia información con nuestro laboratorio de data science (cuyos componentes son Apache Spark, R, Python) y con un almacén de datos en MSSQL Server. Los componentes de Informatica proporcionan la ejecución de ETL (extract, transform, load), Data Quality y Data Catalog. De esta forma, todo el proceso de procesamiento de datos desde las fuentes de datos hasta el nivel de visualización en nuestro partner es completamente transparente. Todas las descripciones de dimensiones e indicadores son las mismas para todas las aplicaciones analíticas en nuestro partner, tal cual las ve el usuario final. Resultados de la gestión de datos: · Cadenas de origen de datos actualizadas automáticamente desde la fuente hasta los mercados personalizados y las aplicaciones BI · Glosario de negocios integrado con el almacén de datos y la capa de presentación de BI · Catálogo gestionado de normas y

controles de calidad de los datos · Integración perfecta de las reglas de calidad de datos en procesos ETL en el portal de usuario para ver el glosario, los orígenes de los datos y las reglas de calidad de los datos Lake + Data Warehouse: · Reducción de los costos de integración de datos para todos los proyectos relacionados con el análisis · Disponibilidad de datos sobre todas las capas de los pipelines para el usuario · Integración con herramientas de data science (Lab + Spark + In-database Python, R) · ETL industrial y herramientas de almacenamiento para todo tipo de datos, streaming y procesamiento por lotes · Herramientas industriales para crear interfaces de integración

BDM: El Internet de las Cosas facilita mucho el control en las refinerías gracias a los sensores ¿Cómo trabajáis vosotros con esta tecnología? AR: En las instalaciones de las refinerías

utilizamos un gran número de sensores para el análisis en tiempo real de la refinación del petróleo y la producción de productos derivados. Los datos se registran a diferentes velocidades dependiendo de la instalación. Este tipo de datos tan complejos es difícil de analizar solo con nuestro partner, por lo que utilizamos componentes de data lakes y MPP para preparar los datos, que se agregan automáticamente. Hemos desarrollado data marts para analizar el trabajo de las refinerías donde se producen productos petroleros. Como es normal, de vez en cuando nos encontramos con dificultades para obtener datos, pero en general, podemos decir que el sistema funciona perfectamente. BDM: ¿Es posible un uso ético de los datos? ¿Cómo es la relación de Gazprom con el Data Ethichs? AR: No solo es posible, sino que es

necesario. Los pasos que se están dando en materia de regulación del uso de los datos son realmente importantes, y tendrán que seguir avanzando y replanteándose a medida que cambia también el uso que se hace de los mismos. En este sentido, Gazprom está completamente comprometido con la gestión ética de los datos. Son un activo de gran valor que, utilizados de manera responsable, nos permiten incrementar el beneficio de los usuarios y ofrecerles respuesta a sus necesidades reales. Creemos que, en el caso de Europa, la entrada en vigor de la GDPR hace unos

Alexander Ratanov, Data Quality Manager en Gazprom Neft.

años supuso una llamada a la acción para muchas empresas y ha generado una concienciación en torno al data ethics que se ha ido e irá sofisticando cada vez más. Incluso antes que en Europa, en 2006, Rusia aprobó una ley sobre datos personales, lo que supuso un reto para muchas empresas, y vimos el esfuerzo que suponía cumplir con ella. Tanto Gazprom como nuestro partner cumplimos con todos los requisitos de seguridad de la información. Solo determinados usuarios tienen acceso a datos confidenciales y sensibles. El almacenamiento de los datos también se lleva a cabo de la forma más adecuada posible. BDM: ¿En qué proyectos trabaja a medio-largo plazo Gazprom para mejorar el rendimiento de sus datos? AR: Estamos trabajando en muchos

proyectos en paralelo, y como nuestros servicios de gestión de datos están descentralizados, podemos hablar del desarrollo paralelo de diferentes funcionalidades, como por ejemplo: Catálogo de datos: clasificar los datos, construir un glosario corporativo, definir reglas para calcular indicadores y mediciones, y reglas para asegurar la calidad de los datos, etc. Alfabetización de datos: mejorar la alfabetización de datos, desarrollar el autoservicio, entre otros. Análisis de datos: desde hace algún tiempo, nuestros usuarios quieren no solo trabajar de manera rápida y eficaz con sus datos, sino también contar con una interfaz excelente. En este momento se han puesto en marcha varias actividades en Qlik Sense a la vez: la creación de nuevos temas, mashups, extensiones en las que participan los diseñadores, etc.

.

BigDatamagazine | Noviembre 2020


24 La tecnología de grafos

Combatir el COVID-19 con Grafos Combatir el COVID-19 es la meta común en el mundo actual. La pandemia de este nuevo coronavirus tomo por sorpresa al mundo entero causando estragos importantes, convirtiéndose en una de las principales causas de muerte en el mundo y siendo la responsable de prolongados confinamientos y adopciones de esquemas agresivos de salud pública. Millones de puestos de trabajo han sucumbido ante el inminente cese de operaciones y los efectos post-pandemia probablemente sean complicados de superar.

E

Texto :

Josep Tarruella

l COVID, ocasionó cambios en el comportamiento de la sociedad, que parecen haber llegado para quedarse. La rápida necesidad de adaptación a la realidad obligo a las empresas y a las personas a cambiar la forma en la que realizan sus actividades. La tecnología por su parte ha sido fundamental para sobrellevar los efectos de la crisis. Pero es importante destacar que también puede tener un rol fundamental para combatir el COVID-19. En especial apoyándose en el análisis de grafos. A continuación, conocerás un poco más sobre como los grafos pueden contribuir de forma muy especial a combatir el COVID-19. Detener el incremento de la cadena de contagio

Una de las principales dificultades para combatir el COVID, ha sido el «aplanamiento de la curva» de contagio. En otras palabras, la desaceleración de la cadena de contagios. Al desconocerse la estructura y el comportamiento del virus, uno de los principales retos de las BigDatamagazine | Noviembre 2020

estructuras públicas es evitar el colapso de las instalaciones de atención médica. Al ser un virus altamente contagioso la velocidad en la que pueden crecer los casos es muy alta, por lo que identificar los posibles contagios es fundamental. El apoyo en desarrollos tecnológicos ha sido fundamental para lograrlo en muchos países. Con la aplicación del Contact Tracing o traza de contactos, se ha utilizado la tecnología de nuestros teléfonos móviles y la conexión a internet para construir mapas de relación entre personas. El funcionamiento de estas aplicaciones está orientado a alertar a los usuarios, si existe la notificación de un contagio en las personas con las que tuvimos algún grado de proximidad. La implementación de estás aplicaciones ha recibido un fuerte apoyo gracias a la colaboración de dos gigantes de la tecnología como Google y Apple, quienes desarrollaron una API que permite a las instituciones públicas y empresas, desarrollar aplicaciones que podrían servir para rastrear los casos positivos notificados y así evitar periodos de aislamiento generalizado.

No te pierdas la keyntote El valor de la tecnología de grafos en Data Governance que pudimos ver en el DatA&cIA Congress 2020.

Aunque la utilidad de este tipo de aplicaciones es muy útil, ya que nos ayuda a realizar un seguimiento directo de todas las personas con las que tuvo contacto un contagiado, se han recibido críticas importantes sobre la vigilancia sobre los datos de los usuarios. Esto ha impulsado el desarrollo de diferentes modelos centralizados y/o descentralizados para hacer el Contact Tracing.


25

Josep Tarruella, co fundador de Graph Everywhere Cómo ayudan los grafos La tecnología de grafos, nos ayuda a entender las relaciones existentes entre datos. Gracias a sus gestores de bases de datos y algoritmos, podemos construir estructuras visuales donde representar los contactos directos e indirectos que una persona sana y/o infectada con el COVID-19 pudo tener para así tomar acciones para una temprana atención de la enfermedad y evitar su propagación. La configuración de una base de datos para hacer seguimiento de contactos, puede ser una tarea relativamente simple. Solo debe modelar el funcionamiento del sistema de datos, definir las variables de información a considerar y procesar los datos dentro del grafo. Una vez toda la información es almacenada en el grafo, pueden ser desarrollados análisis predictivos que nos permiten conocer la estructura de los contactos humanos realizados. La red que se construye nos dice mucho sobre la importancia que determinadas áreas de la red pueden tener en la evolución o disminución del crecimiento de la pandemia. Para potenciar estos análisis, se ha potenciado la implementación de algunos algoritmos realmente importantes que conocerás a continuación. Principales algoritmos para enfrentar este reto

Los algoritmos de grafos son herramientas potentes que nos permiten sacar información valiosa de estos gigantescos conjuntos de datos. Para ayudar a combatir el COVID-19 podemos utilizar principalmente los siguientes tipos de algoritmos: · Algoritmos de centralidad: los algoritmos de centralidad son una categoría importante que nos ayudan a evaluar y determinar la relevancia de diferentes nodos en una red. Puede destacarse a forma de ejemplo, el rol que cumple el algoritmo de Betweenness. Este, detecta relaciones esenciales que se generan dentro del grafo para poder identificar riesgos de forma proactiva y analizar las estrategias para mitigar dichos riesgos. · Algoritmos de búsqueda de caminos: este tipo de algoritmos se encarga principalmente de encontrar la ruta o camino más corto que existe entre dos o más nodos de un grafo. Gracias a esto podemos establecer mejores rutas de abastecimiento y optimizar

Josep Tarruella, co fundador de Graph Everywhere

las cadenas logísticas para fortalecer la estructura de atención de salud. · Algoritmos de similitud: los algoritmos de este tipo nos ayudan a evaluar de forma comparativa diferentes conjuntos. Esto para entender y comprender la similitud de nodos individuales según sus propiedades o sus vecinos. Esto nos ayuda a construir recomendaciones personalizadas para las personas. · Algoritmos de detección de comunidades: podemos utilizar estos algoritmos para entender como se agrupan o particionan los grupos de nodo así como proyectar su comportamiento. Esto nos permite entender como se comportan los grupos de personas y estimar el riesgo que corren al detectarse un caso positivo en una comunidad de personas. · Algoritmos de predicción de enlaces: estos algoritmos nos ayudan a detectar la proximidad entre pares de nodos. Al analizar los grafos con estos algoritmos podemos calcular puntuaciones que sirven como herramientas predictivas de relaciones entre ellas. Puede ser de utilidad para adaptar ciclos de medicación, tratamientos y otras variables importantes. Como podemos ver, la aplicación del análisis de grafos puede de forma eficiente, ayudar a los sistemas de salud, instituciones y organizaciones afines a combatir el COVID-19. Es fundamental aprovechar al máximo

las oportunidades que esta tecnología nos permite para contribuir a palear los efectos de la pandemia. Contact

tracing: fighting

Covid-19

with graphs

La implementación de un tipo de rastreo de contactos, conocido como “contact tracing”, es una táctica adoptada por muchos países. Al utilizar la tecnología de nuestros teléfonos y nuestra conectividad a Internet, es posible implementar el “distanciamiento” y el aislamiento de las personas que están infectadas con Covid-19 o son vulnerables a este virus, en lugar de introducir confinamiento de todo un país. Sobre el papel, esta es una táctica lógica y útil, que podría prevenir otra recesión económica, al tiempo que tiene la voluntad de evitar que la “curva” vuelva a subir. Por supuesto, este enfoque todavía plantea muchos problemas, particularmente con respecto a la privacidad del paciente y las libertades políticas, pero parece ser una vía interesante para explorar, como mínimo. El rastreo de contactos de personas infectadas implica realizar el seguimiento de todas las personas con las que ha estado en contacto directo (contacto estrecho) o contactos casuales iniciando una vigilancia pasiva o activa, dependiendo de si son asintomáticos o no. Esto supone una gran complejidad a la que se requiere hacer el seguimiento de los contactos indirectos en varios niveles.

.

BigDatamagazine | Noviembre 2020


26 Data Sharing Agreements

Grupo Santander, Anjana Data y el viaje hacia el autoservicio gobernado de datos Anjana Data, la innovadora solución de gobierno del dato, gracias a su conceptualización de los Data Sharing Agreements (DSAs), se ha convertido en una pieza clave dentro del Single Data Marketplace que ha diseñado el Grupo Santander como evolución de su estrategia de datos orientada al negocio y adaptada al nuevo modelo digital. Texto: Mario de

E

Francisco / Raúl Cruces

n un mundo en el que las organizaciones se afanan por introducir la analítica avanzada de datos para generar el máximo valor posible a su negocio, los Data Sharing Agreements (DSAs) se convierten en el elemento clave para cerrar la brecha entre Negocio y TI favoreciendo la democratización de los datos y facilitando la gestión de su intercambio y consumo. La necesidad de compartir datos de calidad

Compartir datos confiables y de calidad es una necesidad para cualquier organización que quiera convertirse en data-driven BigDatamagazine | Noviembre 2020

Facilitar la compartición de información entre productores y consumidores en un entorno de datos gobernado es uno de los anhelos más relevantes de un programa de gobierno del dato. Y, por supuesto, diseñar e implementar el marco y el ecosistema adecuados para lograr este objetivo no es tarea fácil. En el mundo de los silos de información gobernados por TI, el acceso a los datos y su consumo está generalmente bajo el control de los responsables de los sistemas. Sin embargo, cuando una organización pretende evolucionar a un escenario en el que los datos se consideran uno de los activos estratégicos más importantes, este enfoque queda obsoleto por múltiples motivos.

Es en este escenario en el que el gobierno y la gestión del dato con visión de negocio adquiere un peso especialmente relevante y la organización se esfuerza por transformarse para acercar lo máximo posible el dato al negocio de cara a poder tomar mejores decisiones en menor tiempo y con mayor agilidad. Pero, es entonces también cuando empiezan a surgir todos los problemas que ha sufrido todo aquel que ha estado involucrado en un proyecto de datos. En este contexto, los DSAs en Anjana Data están conceptualizados para ayudar a la organización a afrontar estos problemas, permitiendo la estandarización en la gestión del acceso a los datos


27

Mario de Francisco, de Anjana Data y Raúl Cruces del Grupo Santander y ofreciendo a los intervinientes una nueva experiencia para el intercambio de información gobernada y de calidad. Materializar los DSAs Anjana Data ayuda a las organizaciones en la operativización de su estrategia data-driven gracias a su materialización de los DSAs En Anjana Data, un DSA es una agrupación de datasets (activos de datos técnicos) que funciona como un activo lógico de información para gestionar las políticas de acceso a los datos contenidos y facilitar su consumo por parte de los usuarios. Como objeto lógico, un DSA es agnóstico a las tecnologías de tratamiento de datos y puede incluir uno o más conjuntos de datos de cualquier tipo (tablas, vistas, temas, archivos, ...), aglutinando todos los metadatos y el linaje de los datasets considerados. De esta forma, los usuarios pueden tener a su alcance todo el conocimiento de los datos que se están compartiendo tanto desde el punto de vista funcional como técnico. Además, un DSA, como cualquier otro activo de datos, contiene sus propios metadatos específicos y tiene su propio linaje, por lo que puede ser enriquecido con más información de contexto, así como relacionarlo con otros activos de datos. De esta forma, por ejemplo, podremos relacionar un concepto de negocio o semántica, una métrica o un informe con un DSA, el cual contendrá los datasets correspondientes para asegurar al usuario consumidor que tiene acceso a todos los activos técnicos necesarios para la explotación de la información requerida. Gracias a esto, los productores de datos pueden preparar datos de mejor calidad para un consumo específico, agrupándolos bajo el mismo concepto funcional como, por ejemplo, datos de clientes para el diseño de campañas de comercialización de nuevos productos digitales. Asimismo, como un activo de datos más que gestionar y gobernar, los DSAs deben tener sus propios procedimientos y políticas de creación, modificación, depreciación y expiración que deben incluirse dentro del modelo y marco de la gobernanza mundial de datos, definiendo las funciones y responsabilidades de todos los intervinientes. En Anjana Data, esto se implementa de forma nativa a través de roles totalmente personalizables que interactúan en workflows de validación basados en un BPM integrado.

Por otro lado, los DSAs pueden representar políticas específicas de acceso a los datos como diferentes niveles de sensibilidad y confidencialidad según la información contenida, así como incluir condiciones para revocar automáticamente el acceso a los datos (por ejemplo, una fecha de caducidad). Por último, para dotar a los DSAs de carácter legal, se incluyen contratos de datos que especifican los términos de licencia y las condiciones de uso de los datos gobernados por el DSA. Gracias a esto, la organización podrá contar con acuerdos jurídicos multiparticipados entre los productores, intermediarios y consumidores de datos, incluyendo todos los requisitos y cláusulas que se aplican a cada una de las partes involucradas. Caso de uso: Grupo Santander Raúl Cruces, Data Group Vice-president & Global Senior Data Manager del Grupo Santander, nos explica el encaje de los DSAs de Anjana Data en su Single Data Marketplace El Grupo Santander, después de varios años trabajando en la implementación de un modelo propio de gobierno del dato, ha evolucionado en su entendimiento y aplicación hacia un nuevo paradigma orientado a maximizar el valor de los datos para el negocio bajo la tutela y el gobierno de la figura del CDO: el Single Data Marketplace. Tal y como comenta Raúl: “Un ecosistema Single Data Marketplace es la solución para trasladar nuestra estrategia de gobierno y gestión del dato desde el modelo de negocio existente al nuevo modelo digital. Un enfoque innovador basado en una nueva experiencia de intercambio de datos”. Para el Grupo Santander, el Single Data Marketplace es un ecosistema único que comprende uno o varios lagos o repositorios de datos con un modelo basado en la cadena de valor del dato, desarrollando y evolucionando servicios para el almacenamiento y el acceso al repositorio autorizado de todos los datos publicados por los equipos fuente. Los productores de datos integran sus conjuntos de datos una vez mediante un proceso de incorporación simplificado (procesos de ingesta automatizados y simplificados, proporcionando controles y certificaciones de la calidad del dato automatizadas), asegurado a los estándares de seguridad de la información de la organización.

Acede este enlace y no te pierdas el nuevo libro de Raúl Cruces

Por su lado, los diferentes consumidores de datos (Nivel I y resto de consumidores de acuerdo a sus necesidades), encuentran rápidamente los conjuntos de datos que buscan a través de un motor de búsqueda de metadatos, se suscriben y acceden a los datos, eligen el destino de cómputo dentro del ecosistema y comunican sus expectativas a los productores sobre la calidad del dato. En este contexto, el CDO regula, guía, arbitra, supervisa y hace cumplir, es decir, gobierna. Adicionalmente, se establece un Equipo Asesor Centralizado del CDO que ayuda a los productores con la ingesta y el gobierno de los datos no esenciales. El descubrimiento, la evaluación de la calidad y la arquitectura del dato se manejan con el conjunto de herramientas de gobierno y gestión del dato. Dentro del Single Data Marketplace, en Anjana Data, los acuerdos de intercambio de datos (DSAs) y los contratos de datos son los instrumentos para establecer los acuerdos entre los productores y los consumidores de datos para el intercambio, acceso y uso de los mismos. Los primeros son agrupaciones lógicas de conjuntos de datos (activos físicos, tablas y archivos donde se encuentran los datos) junto con algunas condiciones de uso. En definitiva, son metadatos que pueden mapearse con cualquier información, generalmente disponible para el consumo, con calidad suficiente, certificada y revisada. Por otro lado, el contrato de datos es la formalización explícita de la regulación de un acuerdo de intercambio de datos, es decir, es el documento que regula el uso de dichos datos. De este y otros temas dentro del ámbito de la gestión y el gobierno de los datos nos habla Raúl en su libro recién publicado, Datos: asignatura pendiente.

.

BigDatamagazine | Noviembre 2020


28 Entrevista / PiperLab

“Los mejores proyectos de datos comienzan analizando las necesidades de negocio” Nos adentramos de lleno en el mundo del big data y el data science a través de esta entrevista a Esther Morales, socia de PiperLab, una empresa de big data formada en 2015 por un equipo de expertos en entender los retos que afrontan personas y negocios en esta era del Data, y que surge para dar respuesta a las soluciones basadas en datos que demandaban las compañías. Texto: Redacción

Big Data Magazine (BDM): ¿Qué es PiperLab y cómo surge? Esther Morales (EM): PiperLab surge

a principios de 2015 como iniciativa de 4 socios. En ese momento ya veíamos que había una necesidad en el mercado por analizar los datos que generaban las BigDatamagazine | Noviembre 2020

empresas, para, de una forma eficiente tomar decisiones de negocio. Nos dimos cuenta además de la poca oferta que existía de empresas que aunaran, por un lado, la experiencia de un equipo técnico especializado en Inteligencia artificial y Machine Learning y por otro, la experiencia de un equipo orientado a negocio que entendiera

las necesidades de los clientes y les ayudara a interpretar lo que les muestran los datos. Y nosotros estábamos convencidos de que cumplíamos ambas áreas de conocimiento. BDM: ¿Cómo se encuentra actualmente el panorama del Data Science en el mercado empresarial?


29

Esther Morales, Socia y Directora de Desarrollo de Negocio en PiperLab EM: Las empresas ya son conscientes

de la necesidad de usar los datos para incrementar sus capacidades y tomar mejores decisiones, se trata de digitalizarse o morir. Sí que es verdad que, aunque la intención es cierta, comenzar a hacer proyectos basados en datos no es un camino de rosas porque las empresas han acumulado datos durante muchos años sin ningún orden y propósito: fusiones, adquisiciones de empresas hacen que sus datos estén duplicados, mal informados, y hay que hacer un trabajo de “Data Quality” previo antes de comenzar a sacar valor de los datos. BDM: ¿Cuál es el valor diferencial de PiperLab con respecto a empresas de la competencia? EM: PiperLab nació con un objetivo

claro: ser un referente en la categoría del Data Science, liderando y haciendo que progrese de una forma diferente. Queremos impulsar el negocio de nuestros clientes mediante una metodología única y diferencial basada en la excelencia y el talento experto. Para nosotros cada cliente presenta un reto e intentamos dar un paso más en aquello que nos propone, ofreciendo un nuevo sentido y un valor diferencial a sus estrategias. Nos consideramos intrépidos, humanos, innovadores e intentamos que nuestros proyectos estén caracterizados por la excelencia del trabajo bien hecho. BDM: ¿Cómo ha sido la evolución de la empresa tras casi 6 años de vida? EM: En el año 2015, cuando se creó

PiperLab, la necesidad de hacer proyectos de datos era latente pero no tan imperiosa como ahora. Podemos decir que hemos ido creciendo junto con la evolución de nuestros clientes. Contamos con un panel de más de 50 clientes excelentes, donde los que confiaron en nosotros en el año 2015 aún continúan y nos consideran su partner estratégico, y estos a su vez nos han recomendado a otros muchos. Para Piperlab la mejor tarjeta de identidad son nuestros clientes y las recomendaciones que estos hacen de nosotros. Somos ya un equipo de 34 personas, cohesionado y en evolución continúa para afrontar los retos de negocio de nuestros clientes. Durante estos 6 años hemos tenido muchos reconocimientos como el premio CEL (Centro Español de Logística) al mejor proyecto de innovación

logística realizado para SEUR por el modelo de previsión de demanda que les desarrollamos; el premio Regtech Awards 2019, por la mejor ejecución de un modelo de negocio; hemos ganado el Hackaton de Data Science 2017 organizado por Foro Global de Datos, Marketing y Análisis ICOMGlobal, al mejor proyecto de data Science; fuimos ganadores de los Premios Digitales de El Español 2019 en la categoría de Big Data, y sin ir más lejos, hace dos semanas nos dieron el primer premio en el evento HackIA 2020, una iniciativa que organiza Repsol anualmente dentro de su programa de digitalización y cultura del dato. Podría mencionarte unos cuantos más, pero el mensaje de esto es que, desde el nacimiento de PiperLab hasta hoy, hemos sentido cada día que nuestro esfuerzo y nuestro trabajo bien hecho tiene su reconocimiento no sólo en la satisfacción de nuestros clientes, sino también dentro del propio ecosistema del Big Data, el Data Science y la Inteligencia Artificial. Tenemos también una intención divulgativa del buen uso de los datos y por ello colaboramos desde hace 4 años en el programa de Big Data “Data is the Air” de Capital Radio donde cada lunes contamos con invitados de los diferentes sectores que componen el tejido empresarial español para que expongan su experiencia con el uso de los datos. Fruto de esta experiencia hemos editado un libro “Data is the Air” donde pretendemos mostrar el impacto de los datos en la sociedad, empresas e individuos. Estamos muy comprometidos con la innovación tecnológica , el progreso y el desarrollo, y tratamos de aportar nuestro granito de arena a la sociedad a través de dos iniciativas: por un lado, colaboramos con la FECYT a través de su plataforma de crowdfunding “Precipita”, para ayudar en la investigación de ciencia y tecnología, y por otro lado, realizamos proyectos de sostenibilidad basados en datos. Esto lo hacemos porque creemos que es nuestro compromiso y responsabilidad devolver a la sociedad parte del valor que nos aportan los datos abiertos. En este sentido, y abogando por la sostenibilidad, desarrollamos hace unos años en Twitter el bot @datoxnitro_bot, que publica en tiempo real información relevante relacionada con la contaminación en Madrid, y con las posibles restricciones del tráfico, de una

forma comprensible y divulgativa. Con esto, lo que queremos hacer es ofrecer al ciudadano información de calidad que le permita planificar su movilidad en Madrid de una manera mucho más sostenible. BDM: A día de hoy, ¿qué soluciones basadas en datos son las más demandas por parte de las grandes empresas? EM: En muchos clientes comenzamos

poniendo orden en sus datos creándoles “Data Lakes” que les permitan una mejor gestión y aprovechamiento de sus datos, para pasar a proyectos de previsión de demanda, optimización de eficiencia en su negocio, predicción de abandono, cross y up-selling, clasificación de incidencias, detección de alertas tempranas… Las soluciones son múltiples y habiendo datos que analizar, PiperLab siempre tiene algo que aportar. BDM: ¿Por qué este boom del big data? ¿Qué nos dicen los datos que no nos dijeran hace 15 años? EM: Los datos siempre se han utilizado

para dar sentido al negocio, sobre todo en sectores como la banca y los seguros, pero se hacía de una manera retrospectiva. Las nuevas tecnologías que introduce el “Big Data” en cuanto a almacenamiento y procesamiento masivo de datos, como es el uso de algoritmos basados en Machine Learning e Inteligencia Artificial a partir de técnicas de Data Science permite hoy en día a las organizaciones dejar de ser retrospectivas y reactivas en sus análisis de datos, y comenzar a ser predictivas, proactivas y empíricas. BDM: ¿Qué valor aporta el open data o los datos abiertos a las compañías privadas? EM: Cuando se aborda un proyecto de

datos la materia prima son los datos que genera el cliente por su propia actividad, pero a veces esto no es suficiente para entender por qué se producen determinados patrones, y es necesario incorporar datos externos que nos ayudan a contextualizar los datos internos de los clientes. Dentro de estos datos externos se encuentran los conocidos como “open data” o datos abiertos, que son aquellos que están a disposición de quien quiera hacer uso de ellos, tales como calendario laboral, datos meteorológicos, datos del BOE, catastro, RRSS, índices socioeconómicos procedentes del INE, , cuotas de mercado, datos de tráfico y movilidad…

.

BigDatamagazine | Noviembre 2020


30 El viaje hacia la Hiperautomatización / Decide4AI

El viaje hacia la Hiperautomatización: la tendencia tecnológica clave para 2021 Según la consultora tecnológica Gartner, la hiperautomatización seguirá posicionándose como una de las tendencias tecnológicas principales para 2021. Un paso más allá en la estrategia de automatización de procesos por parte de las organizaciones, incluyendo capacidades de IA para automatizar la toma de decisiones.

L

Texto: Manuel del

Barrrio

a irrupción del COVID-19 en nuestras vidas a comienzos de este año ha marcado sin duda la evolución del mercado tecnológico, y lo seguirá haciendo el próximo año. Por eso las tecnologías más importantes para 2021 serán las que ayuden a las organizaciones a ser más agiles en la toma de decisiones, más sostenibles y que mejor se adapten a las circunstancias, gracias a las capacidades de automatización y digitalización de procesos operativos. No es de extrañar que las previsiones que han hecho las grandes consultoras como Gartner o Forrester sobre las tecnologías más relevantes para 2021, apunte hacia una estrategia tecnológica apoyada en la combinación de distintas tecnologías capaces de facilitar la digitalización de procesos de negocio de extremo a extremo buscando su BigDatamagazine | Noviembre 2020

“Nunca ha sido tan grande en todas las funciones de la empresa la necesidad de resiliencia operativa.” Brian Burkle (Vicepresidente de Investigación en Gartner) eficiencia y el incremento de las habilidades de las personas en cada área de la compañía. En decide4AI creemos que las compañías líderes serán las que consigan adaptarse a las circunstancias cambiantes y que así lo ha demostrado la pandemia. Para poder responder de manera rápida a los cambios y poder pivotar con facilidad, las compañías deben contar con estructuras y procesos de negocio inteligentes y flexibles. Esta crisis sanitaria ha impulsado

el teletrabajo y una nueva versión digital de los negocios, en la que las operaciones pueden realizarse desde cualquier lugar y no dependemos tanto de una ubicación física. También ha impulsado el uso de la nube distribuida, ya que los microservicios en la nube proporcionan un ecosistema tecnológico modular y fácilmente escalable. De hecho, Forrester espera que a lo largo del próximo año el 50% de las empresas trasladen sus aplicaciones operativas críticas a la nube. En esta línea, en decide4AI proponemos una


31

Manuel del Barrio, Founder & Head of Business at Decide4AI orquestación de servicios web a través de la tecnología BRMS (Sistemas de Gestión de Reglas de Negocio), que ha resultado ser más ágil que los comúnmente utilizados ESB (Enterprise Service Bus). Las compañías necesitan automatizar sus procesos de negocio, incorporar agilidad y ser más inteligentes, por lo que según las consultoras se mantendrá la tendencia ascendente de implantación de técnicas analíticas avanzadas e Inteligencia Artificial, para llevar a cabo una estrategia basada en Hiperautomatización. Hiperautomatización: empresas más flexibles, ágiles y centradas en el cliente

Viendo que las consultoras tecnológicas ponen el foco principal en la agilidad y en la flexibilidad, no es de extrañar que, según Gartner, la principal tendencia tecnológica para 2021 sea la Hiperautomatización. Otras firmas la han bautizado con otros nombres, Forrester por ejemplo habla de Digital Process Automation, mientras que IDC se inclina por Intelligent Process Automation. Alcanzar la Hiperautomatización conlleva la combinación de diferentes tecnologías de optimización, predicción y automatización basadas en IA, cuyo objetivo es hacer que las operaciones sean más eficientes, sostenibles, y dirigidas a una mejor experiencia del cliente. Para ello, es necesario capitalizar el conocimiento y la información para una toma de decisiones más eficiente. Va un paso más allá de la automatización que facilitan las plataformas de RPA (Robotic Process Automation) tradicional, aumentando sus capacidades y funciones gracias a la incorporación de IA. Víctor Ayllón, vicepresidente del Centro de Excelencia RPA de Appian, comentaba este concepto en una reciente entrevista “ya no se trata solo de automatizar. Primero hay que analizar e identificar qué se va a automatizar; después construir la solución adecuada combinando diferentes herramientas (RPA con IA, BPM…) para, posteriormente, medir cómo se está llevando a cabo; y, finalmente, orquestar el flujo de trabajo de los procesos automatizados”. Históricamente se ha hablado de automatización de procesos, pero la realidad es que con RPA sólo se automatizan tareas repetitivas en las que no se incorpora inteligencia. Los robots no eran capaces de cubrir un proceso completo de principio a fin. Algo que ha cambiado con la

“La hiperautomatización es ahora inevitable e irreversible. Todo lo que puede y debe automatizarse, será automatizado” Brian Burkle incorporación de capacidades de IA o BPM. Se ha pasado de un enfoque táctico a uno estratégico, en el que se debe implantar la tecnología de manera integral en todos los procesos de negocio, con un foco end-to-end evitando silos departamentales. Un ejemplo claro de implantación de Hiperautomatización que ya estamos viendo en compañías líderes, es el de automatización inteligente de la gestión documental. Según Forrester, a lo largo de 2021 más de un tercio de las empresas recurrirán a la IA para el procesamiento inteligente de documentos. En decide4AI hemos trabajado un enfoque holístico de aplicación de hiperautomatización al proceso de gestión documental, en el que las diferentes herramientas y tecnologías como BPM, RPA, modelos de IA y sistemas de ayuda a la toma de decisiones como BRMS (Sistemas de Gestión de Reglas de Negocio), nos permiten orquestar el proceso de manera transversal desde

que entra la documentación hasta que se realiza la actividad correspondiente. De esta manera podemos recopilar por ejemplo toda la documentación de los clientes independientemente del canal de entrada o formato del archivo, extraer los datos relevantes que interesen a la compañía, valorar la fiabilidad de los mismos y la completitud de la información, y decidir la siguiente mejor acción a realizar. Como expertos en desarrollo, implementación e integración de las diferentes tecnologías que apoyan las capacidades de la Hiperautomatización, en decide4AI creemos que hace un año la Hiperautomatización daba una gran ventaja competitiva a las compañías; pero ahora, con la incertidumbre actual y la necesidad creciente de reducir costes y dar cobertura a la demanda cambiante tras la llegada del COVID-19, se ha convertido en una necesidad.

.

BigDatamagazine | Noviembre 2020


32 Data & cIA Congress

Los CDOs coinciden en integrar los datos en la estrategia empresarial Algunos de los mejores expertos en datos analizan el sector en el Data&cIA Congress, organizado por Big Data Magazine.

L

Texto: Rocío

González

a estrategia de gestión de datos debe integrarse en el plan corporativo de la empresa. Los Chief Data Officer (CDO) de distintas compañías nacionales aseguran que es importante integrar el análisis de los datos en la estrategia empresarial para así poder avanzar. Así lo indicaron en el Data&cIA Congress organizado por Big Data Magazine. BigDatamagazine | Noviembre 2020

En el evento, que en esta ocasión se ha realizado de manera híbrida, presencial para los speakers y online para los asistentes, se realizaron varias mesas redondas que permitieron a los expertos debatir sobre la importancia que tienen los datos en la actualidad para las empresas. En el mano a mano entre CDOs participó Rafael Fernández Campos, CDO de Bankia y presidente del Club Chief Data Officer Spain. Durante su intervención aseguró que la clave para

que la estrategia del dato esté integrada dentro de la estrategia de la compañía es «hacer comprender a la alta dirección que todo lo que hacemos está relacionado en un ecosistema de valor». Tras él, Juan Francisco Riesco, director de Datos de Mutua Madrileña, señaló que han creado la figura del especialista de datos dentro de la compañía. Según dijo, «si no tienes en cuenta los datos, luego cuesta mucho más trabajo hacer las cosas».


33

Data & cIA Congress Por su parte, José María Alonso, director de Snowflake para el sur de Europa considera que hay que darle a los datos la «usabilidad necesaria» para que se puedan utilizar en distintos sectores. Cómo ser ‘data-driven’ Durante el evento los asistentes pudieron conocer las claves para ser ‘data-driven’. En esta mesa redonda, Antonio Font, Business Intelligence Director en Cajamar explicó el cambio de modelo de negocio en Cajamar para adaptarse mejor a la cultura del dato. Tras él intervino Jorge Herrero, director de Innovación, desarrollo de negocio y fidelización de Ebay en el Sur de Europa que reiteró, a preguntas del moderador , Gonzalo Bueno, senior manager en Experis Solutions, la importancia de «hacer uso del dato» en empresas como Ebay. Por su parte, David Rey, CDO de Idealista, señaló que en la actualidad el mercado inmobiliario está bastante fuerte, pero ha habido cambios en la demanda importantes tras la Covid-19. A lo largo de estos años, afirmó, en Idealista han entendido que la decisión del usuario se sustenta en una serie de datos e información. «Con eso somos capaces de desarrollar negocio nuevo», añadió.

Los expertos aseguran que a través de los datos y de la información son capaces de generar un modelo de negocio “nuevo” Ana Belén Perdigones, directora del Máster en Marketing Science de ESIC Business & Marketing School aseguró que apuestan en sus estudios por la digitalización, automatización y la humanización. «Tenemos un modelo híbrido que te permite tener el mismo nivel de enseñanza en cualquier parte», señaló. Casos de éxito Durante la jornada también se tuvo la oportunidad de conocer algunos casos de éxito, como el de Palladium Hotels, que ha conseguido ser más digital con Snowflake. Daniel Escuder CDO de Palladium Hotel Group contó que el grupo hotelero lleva ya 50 años funcionando y está utilizando Snowflake para mejorar la gestión de sus datos. «Queríamos tener una plataforma escalable, sencilla de usar y con mucha conectividad entre datos tanto el estructurado y el semiestructurado». Según expuso, la emplean al darse cuenta de que «necesitábamos crecer a un volumen diferente utilizando los datos consiguiendo una analítica de los mismos más útil».

Por su parte, Enrique González Sales director Spain & Portugal de Snowflake Computing, explicó la arquitectura de su plataforma, que permite «tener en un único repositorio todos los datos y generar grupos de trabajo para poder hacer ingeniería de datos, Data Lake e intercambiar datos a terceros, entre otros». Automatizar procesos empresariales En la mesa redonda sobre robótica e inteligencia artificial, Juan María Aramburu CEO de Keepler Data Tech habló sobre la colaboración que mantienen su empresa y Prosegur para implantar la automatización de los procesos organizacionales. Explicó que han ideado un framework de arquitectura que permite aprovechar la ciencia de datos que se usa para un proceso en otros procesos. Señaló que se han dado cuenta de la necesidad que tienen las empresas del control de datos desestructurados. Continuó Fernando Cisneros Director Corporativo Digitalización, Automatización y Robótica en Prosegur, que

BigDatamagazine | Noviembre 2020


34 Data & cIA Congress

BigDatamagazine | Noviembre 2020


35

Data & cIA Congress asegura que la Covid-19 «va a ser una oportunidad para integrar la tecnología como el machine learning o la Inteligencia Artificial en las organizaciones». «Cuando nosotros empezamos a automatizar los procesos conseguimos que tener en menos de un año 121 procesos automatizados en la organización», añadió. Los grafos en el Data Governance Del mismo modo se habló sobre el papel de los grafos en el Data Governance. Josep Tarruella, Co Founder de Graph Everywhere aseguró que el Data Governance ha aportado a las organizaciones la posibilidad de automatizar e industrializar procesos para que puedan organizar los datos «de manera lógica». Por otra parte, en una mesa redonda sobre el valor de los datos en tiempo real, Pedro Tome Head of Disruptive Innovation and Big Data en EVO Banco relató que la gente demanda las cosas en el momento y en el instante con lo que los datos se tienen que gestionar en tiempo real. «A nosotros nos brinda muchas oportunidades de acercarnos al cliente», asegura añadiendo que quieren ser la «banca del futuro».

En ese sentido, Mariano Muñoz, Manager de Data y Analytics en Acciona, señaló que tener la capacidad de disponer de la información en tiempo real «es siempre una ventaja y una oportunidad». Del mismo modo, Javier Monjas, CDO de Finect, apuntó que los datos en tiempo real «son útiles en procesos de recomendación, pero la mayoría de los procesos no requieren el uso del tiempo real. Hay que encontrar qué casos de uso son los adecuados». Por último, Tomás Martínez Buero, presidente de AI-Network, añadió que sí hay operaciones y decisiones que se deben tomar en tiempo real, «pero todas no son así». El reto: generar valor Finalmente hubo una mesa redonda a través de la que se explicaba cómo generar valor con los datos. Ésta comenzó con la intervención de Nicola Fanelli, Sales Manager en Graph Everywhere, moderador de la misma, que da paso a Raúl Moreno, Responsable de Gobierno del Dato y Calidad de LaLiga, que aseguró que para ellos es «básico que nos vean como facilitadores

de datos y que seamos alguien en quien se puede confiar». Por otra parte, Bernat García, Head of Data & Analytics de Dorna, indicó que ellos están ahora mismo en el proceso de «romper» con los silos de datos. También intervino Carlos Ollero, Data & Analytics Director de Equifax, que añadió que ellos ponen el foco en «cómo sacamos más valor, conseguimos mejores datos y datos que aporten más a la compañía. Para nosotros un dato es un activo, es nuestro negocio». Por último, Javier Martínez, director de reporting corporativo de Bankia, afirmó que la calidad del dato es «muy necesaria. El valor y la satisfacción de los usuarios va muy ligado a que resuelvas problemas en el uso de la información». El evento contó con el patrocinio de Snowflake, Graph Everywhere, Keepler, Experis Solutions, ESIC, GantaBI OneClick, Informatica, Denodo y Gend/D como colaboradores Club Chief Data Officer Spain, AI-Network, Fundación Big Data, VinoPremier y AxiCom además de Ecommerce News y Cybersecurity News.

.

BigDatamagazine | Noviembre 2020


36 Los datos en el medio ambiente

Los datos reducirán las emisiones de CO2 Expertos abogan por la transparencia en el uso de los datos para que los mercados puedan ser más eficientes y sostenibles a la hora de producir y explotar los recursos naturales.

E

Texto: Rocío

González

l cambio climático sigue imparable. Científicos de todo el mundo buscan la manera de evitar el incremento de la temperatura, impedir el deterioro de mares y océanos y la desaparición de parte de la fauna. Una de las señales más preocupantes, advierte el científico Steven Sherwood, es el incremento de la temperatura que en las próximas dos décadas podría incrementarse en 4 grados y que provocaría “daños importantes” en el ecosistema. El experto alerta de la necesidad de realizar transformaciones radicales en la forma en que producimos y consuBigDatamagazine | Noviembre 2020

El eje de la transformación se basa en tender hacia la digitalización de las industrias y el uso de los datos en cada proceso. mimos. A su juicio, la manera de producir la energía y los alimentos podría reducir tanto el flujo de nuevos gases de efecto invernadero a la atmósfera. ¿Cómo hacerlo? A través de la tecnología. Varias empresas ya hacen uso del análisis de datos, la Inteligencia Artificial y el Machine Learning para combatir el cambio climático.

Datos para reducir las emisiones de CO2 El director ejecutivo de Xpansiv CBL Holding Group (XCHG), Joe Madden, argumenta con firmeza que ya existen todos los elementos para una reducción radical, y una eventual reversión del flujo de nuevos gases de efecto invernadero a la atmósfera.


37

Los datos en el medio ambiente Madden cree que cambiando la forma en que medimos el valor incorporado en los productos básicos, podemos desencadenar una revolución casi inimaginable que nos permitirá reducir los niveles de carbono atmosférico y mantener un clima propicio. Todo lo que hay que hacer, señala el experto es “reajustar nuestros mercados del siglo XIX para alinearlos con la tecnología del siglo XXI”. El eje de una transformación se basa en tender hacia la digitalización de las industrias y el uso de los datos que genera cada proceso. ¿Cómo puede el Big Data reducir las emisiones de gases de efecto invernadero? Proporcionando a los inversores la información necesaria para que los mercados funcionen de forma eficiente. Para ello pone como ejemplo una situación cotidiana como el hecho de tener que repostar gasolina. “Cuando tienes que hacerlo, ¿sabes de dónde se ha extraído el petróleo que se ha refinado?”, se pregunta. En ese sentido indica que ya se haya extraído de una mina en Alberta o del Mar del Norte esa información es absolutamente opaca para el usuario. Sin embargo, “la falta de transparencia sobre la huella de carbono del producto básico es un gran problema”, advierte. En ese sentido explica que la gasolina refinada a partir del petróleo Oil Sands genera casi el doble del nivel de emisiones que el petróleo del Mar del Norte. Debido a que la distinción entre la intensidad de carbono de los diferentes métodos de producción y fuentes es opaca para el mercado, los compradores y vendedores no tienen forma de mostrar una preferencia económica por un producto sobre otro. “Sin información, los mercados no pueden hacer lo que mejor saben hacer: asignar más recursos a mejores productos”, asegura. Es por eso por lo que aboga por que haya una mayor transparencia en el uso de los datos ya que podría ayudar a combatir el cambio climático.

procesos de producción de productos básicos y aumentar la eficiencia de los mercados de dichos productos. Xpansiv vincula los datos de producción de productos básicos relacionados con ESG de las herramientas de IoT y Big Data y registra esa información como un activo digital de manera que se pueda conocer el consumo de recursos naturales que se emplea para producir un alimento o fabricar un objeto, por ejemplo. Los efectos del cambio climático Los ambientólogos aseguran que lo que debe preocupar del cambio climático no es solo la subida de las temperaturas, que no es ni más ni menos que el efecto físico del cambio en el balance energético planetario, pieza básica que mueve el sistema climático terrestre. Lo que debe preocupar es la alteración que ya se está notando en la circulación atmosférica, es decir, en los tiempos diarios que percibimos y vivimos. Porque esto sí que tiene una afección a corto plazo. Indican que atmósferas más cálidas, como la que se está generando en las últimas décadas en nuestro planeta, los movimientos de las masas de aire son más rápidos, más enérgicos, porque la

necesidad de equilibrar los desajustes térmicos cada vez más notables entre altas y bajas latitudes de la Tierra obliga a que los desplazamientos intensos de estos cuerpos de aire sean más frecuentes. Y en estos movimientos diarios de las masas de aire se generan los tiempos atmosféricos, estables o inestables, que vivimos a diario. Según recuerdan, ya se ha confirmado que el número anual de gotas frías que se forman en el espacio atmosférico de la península Ibérica y el mar Mediterráneo próximo es ahora mayor que hace tres o cuatro décadas. Estamos a las puertas de una nueva situación de tiempo inestable y lluvioso, que dejará cantidades importantes en comarcas de la provincia de Valencia y norte de Alicante. Señalan que cada vez es más frecuente padecer temporales de lluvias e inundaciones. Y en el último año se han registrado hasta seis situaciones de lluvia puntualmente muy intensas en el litoral mediterráneo. “Suma y sigue. Esto es lo que nos debe preocupar del cambio climático actual”. Sin duda, es algo que los datos nos ayudarán a determinar y a conocer mucho mejor.

.

Los ambientólogos coinciden en que el cambio climático no solo tiene que ver con un incremento de las temperaturas.

Una aplicación transparente Según dice, “muchos de los datos que permitirían a los participantes del mercado hacer distinciones cruciales ya existen gracias a la tecnología de Internet de las cosas (IoT), Big Data y las tendencias hacia la digitalización de los procesos industriales”. Para facilitar esta tarea ha creado XCHG una aplicación que ayuda a aumentar la transparencia de los BigDatamagazine | Noviembre 2020


38 Clúster de IA de Madrid

Madrid apuesta por la IA para mejorar la calidad de vida de los madrileños La vicealcaldesa, Begoña Villacís, ha participado en la presentación de un Clúster de IA convocado por el Área Delegada de Innovación y Emprendimiento. El Ayuntamiento de Madrid es el primero de España en liderar la creación de un clúster de estas características. Este grupo de empresas conectadas con la administración persigue convertir a Madrid en una ciudad puntera en investigación innovadora, captación de talento y generación de empleo altamente cualificado.

E

Texto: José

Luis Arcángel

l Ayuntamiento de Madrid es ya el primero de España en liderar la creación de un Clúster de Inteligencia Artificial. La asistencia virtual en materia turística a través de una aplicación, medidas sostenibles que, por ejemplo, eviten la impresión de facturas en papel después de realizar una compra o la simplificación de trámites administrativos públicos y privados son algunos de los ámbitos de aplicación de la IA con los que ya trabajan empresas y start-ups que forman parte de este clúster. BigDatamagazine | Noviembre 2020

La vicealcaldesa de Madrid, Begoña Villacís ha clausurado el acto de presentación de este foro empresarial de empresas tecnológicas convocado por el Área Delegada de Innovación y Emprendimiento que dirige Ángel Niño. Con la creación del Clúster de Inteligencia Artificial, el Ayuntamiento persigue posicionar a la capital como una ciudad atractiva y competitiva a nivel internacional para desarrollar la IA y sus diferentes aplicaciones, así como atraer y retener empresas e inversores, contribuyendo a una importante

transformación social, empresarial y económica. “Es un orgullo que por fin se hable de Madrid como ciudad innovadora porque lo es”, ha reconocido Villacís, a la vez que ha solicitado que “si alguien tiene una idea innovadora, que piense en Madrid como ciudad favorita para desarrollar su proyecto”. La vicealcaldesa ha señalado que este clúster es un “punto de encuentro necesario para que el Ayuntamiento innove y facilite que las empresas lo hagan porque es fundamental la colaboración público-privada” y ha explicado que en Madrid


39

Ayuntamiento de Madrid hay “mucho talento y mucho conocimiento y ahora es necesario que esas ideas y esa competitividad promuevan proyectos innovadores para que la ciudad se convierta en una capital europea altamente competitiva. Este equipo de Gobierno está muy comprometido con la innovación y tenemos claro que tenemos que convertirnos en los grandes comerciales de Madrid”, ha reconocido. En la inauguración de la presentación de este proyecto, el delegado de Economía, Innovación y Empleo, Miguel Ángel Redondo, ha asegurado que la IA ha experimentado un “desarrollo espectacular en los últimos años y tendrá más desarrollo en el futuro”. Junto con el big data y el aprendizaje automático, “este clúster posicionará a Madrid y a todo el talento que engloba como referente mundial en IA”, ha subrayado, precisando que “la demanda de este tipo de servicios crece a razón de dos dígitos cada año”. El delegado ha concluido avanzando que “el objetivo de este clúster es identificar a Madrid como gran ciudad europea polo de talento que promueva la transferencia de conocimiento y tecnología entre universidades y empresas. Madrid, como ciudad de máxima relevancia a nivel europeo en IA, facilitará que cada investigador, empresario, start-ups o estudiante pueda desarrollar aquí sus proyectos”. Por su parte, el concejal delegado de Innovación y Emprendimiento, Ángel Niño, ha explicado que “los datos, en combinación con la inteligencia artificial, serán el nuevo petróleo de la economía del futuro” y “tenemos que trabajar en consonancia con las

máquinas para predecir futuras pandemias”, aludiendo a la reciente crisis de la COVID-19. Objetivos del Clúster de IA Conocer las disciplinas tecnológicas y aplicaciones asociadas a la IA para anticipar la demanda de los sectores estratégicos afincados en Madrid para incrementar valor y cifra de negocio; predecir las evoluciones relacionadas con la IA que el mercado demandará sobre la base de estudios analíticos y tratamiento de la información y datos y formar parte de la red de ciudades del mundo referentes en IA. Estos son los tres objetivos con los que nace este clúster, que están alineados con la estrategia europea en esta materia. El Ayuntamiento de Madrid, por otra parte, potenciará con esta herramienta la investigación en innovación especializada, creando un repositorio abierto de datos de fácil acceso a toda aquella entidad pública o privada que quiera utilizarlos para crear un impacto positivo en la ciudad. Por eso, el clúster está abierto a todo tipo de socios que puedan aportar valor, desde empresas que representen la oferta o la demanda, pymes y start-ups, centros tecnológicos o universidades, tanto públicas como privadas. Retos del contexto digital En esta presentación se han puesto de manifiesto dos de los retos a los que España se enfrenta en este contexto digital: el envejecimiento de la población (somos el segundo país más envejecido del mundo) y un mundo global, digital y físicamente, susceptible a

pandemias mundiales con un impacto económico, humano y social muy profundos. “Para afrontar esto retos, necesitamos la ayuda de la inteligencia artificial, que, no siendo la solución, sí que será parte de la misma”, ha dicho Niño. “Con el lanzamiento de este clúster hoy, apostamos por la inteligencia artificial con un claro objetivo, mejorar la calidad de vida de los madrileños”. AI-Network lidera el proyecta Para impulsar la iniciativa el Ayuntamiento de Madrid ha contado la Asociación Profesional de Inteligencia Artificial, AI-Network. Su presidente Tomás Martínez Buero nos ha contado que “tiene como misión acelerar el uso de la Inteligencia Artificial en las empresas para que sean más competitivas globalmente”. Martínez ha explicado como va a funcionar el clúster, “organizamos grupos de trabajo para identificar casos de uso y retos de negocio, donde la IA proporciona soluciones de impacto. En estos grupos de trabajo participan empresas que necesitan resolver determinados retos estratégicos, además de empresas tecnológicas y de consultoría que aportan soluciones”. Estos grupos de trabajo se complementan con entidades públicas como el Ayuntamiento de Madrid, y Universidades, startups y otras que ayudan a la financiación de proyectos. “Esta labor de los grupos de trabajo permitirá la generación de proyectos IA de impacto en el tejido económico, y que aceleran el cambio de modelo productivo”, ha concluido.

.

BigDatamagazine | Noviembre 2020


40 Visibilidad de los datos

Cuando el Big Data te da más visibilidad Un 84% de las empresas reconoce utilizar los datos y la información que recibe de sus clientes para conseguir más visibilidad social.

L

Texto: Rocío

González

a Inteligencia Artificial (IA) ayudará a las empresas a conseguir más visibilidad social. Un 84% de las compañías ya confían en que así ocurra. De hecho, según un análisis de Single Grain, la mayoría de las empresas considera que la IA será clave para obtener una ventaja competitiva sobre sus rivales. Grandes empresas como Netflix y Amazon Prime están empleando ya las capacidades de la IA para proporcionar recomendaciones personalizadas para los usuarios. Pero no solo esas compañías lo hacen, pues otros como Gmail ha comenzado de manera reciente a utilizar la inteligencia artificial para anticipar lo que el usuario está a punto de decir al escribir correos electrónicos. BigDatamagazine | Noviembre 2020

Predecir el comportamiento del usuario

Hasta hace poco el uso de la IA era recibido de manera reticente por muchas empresas. Sin embargo, el auge de la tecnología y de los avances ha posibilitado que se despierte cada vez más interés por el uso de las máquinas para predecir comportamientos o para asesorar a los usuarios. Por ejemplo, hoy en día, si se busca asesoramiento en un sitio web, probablemente habrá un chatbot que dirigirá su mensaje a un

departamento relevante. Nuestros teléfonos inteligentes, por ejemplo, tienen docenas de aplicaciones y funciones que funcionan con inteligencia artificial, como asistentes de voz y sistemas de navegación con GPS. Se espera que el mercado global de inteligencia artificial mueva alrededor de los 190.000 millones de dólares en 2025. Y es que el futuro de este tipo de tecnología atrae a todo tipo de emprendedores y empresarios que quieran ganar visibilidad con su negocio.

Netflix, Amazon Prime o Facebook utilizan el aprendizaje automático para sugerir al usuario productos o servicios.


41

Visibilidad de los datos La IA se basa en el aprendizaje automático a través del cual se permite a las máquinas realizar predicciones inteligentes basadas en altos niveles de datos. Las herramientas de IA son completamente capaces de revisar automáticamente la precisión de sus predicciones y mejorarlas con el tiempo. Esta faceta útil de la tecnología de inteligencia artificial significa que las herramientas pueden mejorar activamente por sí mismas, sin necesidad de intervención humana. Esto significa que sus respectivos niveles de rendimiento pueden aumentar notablemente a medida que pasa el tiempo. Estrategias de marketing Las herramientas de inteligencia artificial pueden ayudar a los especialistas en marketing a rastrear y rastrear el desempeño de cada decisión que toman utilizando plataformas de redes sociales. La participación del usuario y el rendimiento de la campaña publicitaria se pueden analizar con precisión para proporcionar información más profunda a través de la ciencia de datos. Un informe realizado por Acquire refleja que la mayoría de las empresas, un 50,6% de ellas prefiere ya contactar con sus clientes mediante

aplicaciones o redes sociales que hacerlo con una llamada de téléfono. Eso se explica porque la gran mayoría de las plataformas de redes sociales ya utiliza mucha inteligencia artificial y aprendizaje automático para asegurarse de que los anuncios se publiquen en la audiencia adecuada. Facebook ofrece numerosas opciones para que los anunciantes reduzcan la audiencia y se aseguren de que sus productos se muestren exclusivamente a su público objetivo. Cuando se trata de ciencia de datos, Facebook es la plataforma social que supera a todos sus competidores. Cada día se agregan hasta 350 millones de fotos a la gigantesca colección de Facebook. Si bien la red social no está tan orientada a las imágenes como, por ejemplo, Instagram, Facebook está trabajando para utilizar su gran cantidad de datos para crear sugerencias de compra más personalizadas para los usuarios. La plataforma ha creado una red neuronal que es capaz de utilizar señales para analizar el tipo de conversaciones que tienen lugar en el site. El caballo de batalla de las empresas Por otro lado, Attivio ha realizado un entre 150 ejecutivos de grandes empresas

(con al menos 5.000 empleados sobre las estrategias de Big Data. El estudio concluye que uno de los “caballos de batalla” de las empresas consiste en hacer un uso correcto de la información. En el 94% de los casos así es. Además, el 81% de los consultados reconoce que su compañía aumentará su inversión en talento, herramientas y tecnologías de Big Data en los próximos cinco años. No obstante, sólo hay un 23% de los encuestados considera que su compañía está logrando un gran éxito en el aprovechamiento de estas tecnologías en la toma de decisiones, si bien un 39% que cree que sí lo están consiguiendo. Los expertos de Attivio consideran que este optimismo no está del todo justificado y que los directivos aún se enfrentan a numerosos retos. Entre ellos figuran los datos en silos, y un 41% de los encuestados reconocen que no los tienen accesibles cuando los necesitan. De hecho, sólo el 23% dijeron que utilizan más de tres cuartas partes de su big data disponible. Además, cuando se puede acceder a los datos, lleva bastante tiempo acceder a fuentes dispersas: un 37% reconocen que les lleva un día o más acceder a las fuentes de big data para realizar los análisis.

.

BigDatamagazine | Noviembre 2020


42 Big Data en el ámbito del motor

El coche que todo lo sabe Se espera que en 2030 este tipo de vehículos generen un volumen de negocio cercano a los 750.000 millones de dólares.

P

Texto: Rocío

González

resente y futuro. El coche conectado ya es una realidad. En la actualidad cada vez se venden más vehículos con navegador incorporado y con prestaciones tecnológicas que permiten almacenar datos del propietario del coche. Una conectividad que sirve tanto para poder realizar llamadas telefónicas a los contactos del usuario como para poder pasar por los peajes sin tener que detenerse a sacar la cartera. El uso y el tratamiento de la ingente cantidad de datos que genera esa conectividad, el big data, se muestra como una gran oportunidad de negocio en el sector de la automoción. De aquí al año 2030 se espera que se genere un volumen de negocio cercano a los 750.000 millones de dólares refeBigDatamagazine | Noviembre 2020

Los fabricantes aseguran que a través del Big Data pueden conseguir coches más eficientes y seguros. rentes al denominado ‘coche conectado’, según la previsión de la consultora McKinsey. El coche conectado generará millones de datos, pero hay otras muchas fuentes que harán crecer y crecer esa base de datos. Esta gran cantidad de información sería inútil para cualquiera, si no fuera por las tecnologías de Big Data y los expertos en tecnología que ayudan a clasificar, extraer y analizar esos grandísimos volúmenes de información. Y muchos de ellos en tiempo real.

Conectividad para una movilidad segura

El mismo estudio de McKinsey revela que la mayoría de los consumidores prefiere hacer uso de la conectividad de sus coches a fin de hacer que su movilidad sea más segura y eficiente. Además, se asegura que la gran mayoría de ellos prefiere pagar por eso y utilizar mientras conduce aplicaciones de geolocalización como apps que le ayudan a encontrar aparcamiento.


43

Big Data en el ámbito del motor No obstante, la mayoría de los fabricantes de coches opta por hacer uso del big data para hacer sus vehículos más eficientes y seguros. De hecho, el uso de los datos les permite conocer problemas relacionados con el fallo del motor o del sistema eléctrico. A través del empleo de los datos pueden realizar los cambios que consideren oportunos en la cadena de montaje y solventarlos. Pero eso no es todo, pues a pesar de conseguir mejoras sustanciales en sus productos, un estudio del instituto alemán Fraunhofer IFA, estima que las empresas se ahorrarían entre un 10% y un 20% en gastos de mantenimiento gracias al uso del big data. Automóviles conectados, autónomos... puede parecer algo del futuro, pero ya es una realidad. La última tecnología les permite estar conectados con su entorno para poder interactuar mejor y conseguir una conducción más eficaz y segura. Según José Ángel Alonso, de KPMG, “cuando todos los coches estén conectados entre sí no se necesitarán ni semáforos”. En el caso de Big Data y automoción, este puede ayudar a las marcas a comparar los modelos actuales con los anteriores similares, así como los diferentes colores, complementos, etc. Esta información se puede cruzar con las ventas de los concesionarios por zonas geográficas, tanto a nivel nacional como internacional. Para

continuar, hay que analizar la evolución de esas ventas, con el fin de determinar qué tipo de vehículos, de qué características y con qué complementos se venden más en unos sitios u otros y así asignar la comunicación y la logística, así como la estrategia comercial en función de ello. Este simple ejemplo, sólo se podría llevar a cabo a través del Big Data.

la conducción autónoma para permitir una rápida comunicación de dispositivos, coches con semáforos y coches con otro tipo de vehículos, entre otro. El procesamiento inteligente de la información obtenida a través de los datos que proporciona dicha información es vital para crear una movilidad más sostenible y eficiente dentro de las ciudades.

Garantizando la seguridad vial A pesar de todo, la seguridad vial es una prioridad. Conscientes de ello, varias ciudades han puesto en marcha distintos programas para conseguir una mayor seguridad tanto de viandantes como de conductores. España es uno de los países pioneros en implantar un programa de seguridad vial que utiliza el Big Data para evitar, en este caso, colisiones de vehículos. Se trata del programa Autonomous Ready, que actualmente se está probando en Barcelona y con el que ya se habrían evitado más de 600 colisiones de vehículos. Los avances tecnológicos han dado fruto a disponer de coches cada vez más avanzados tanto en materia de velocidad y estabilidad como en seguridad. En estos casos el 5G se ha convertido en un aliado clave en

Cámaras que procesan información En ese sentido, desde hace un año, la DGT junto y el Ayuntamiento de Barcelona trabajan en el programa Autonomous Ready que, a través de un sistema de ayuda a la conducción en vehículos (ADAS) ha permitido evitar más de 600 colisiones con peatones o ciclistas. El programa consiste en la instalación de cámaras en los vehículos. Se trata de unas cámaras que, como dicen desde el Ayuntamiento catalán, predicen el 80 % de los posibles errores del conductor. A través de ese sistema se recoge información del entorno, además también se geoposiciona a peatones y otros vehículos, se tiene información sobre la cartografía la ciudad y se puede alertar sobre accidentes.

.

Ya se están instaurando programas de seguridad vial para evitar posibles errores.

BigDatamagazine | Noviembre 2020


44 Entrevistas / Just Eat

“El dato es un pilar principal en la estrategia de Just Eat para los próximos tres años” En Just Eat los datos y su manejo son la base de su funcionamiento diario. Han alcanzado un nivel de gobierno del dato de tal magnitud que su trabajo es en tiempo real e ingestan los datos en streaming para ofrecer a sus clientes lo que quieen comer antes de que ellos mismo, o su estómago, tengan que pensarlo. Texto: G.Ortíz

E

/ JL Arcángel

nrique Fernández nos ha

contado como es el día a día en Just Eat y cuales son los objetivos que buscan conseguir con el manejo de los datos que generan. También hablamos de Data Ethics, democratización del dato o Business Intelligence entre otros muchos asuntos de gran interés. Big Data Magazine (BDM): ¿Cómo es un día de trabajo del responsable de datos de Just Eat? Enrique Fernández (EF): Un día

en mi vida o en nuestra vida es súper BigDatamagazine | Noviembre 2020

dinámico, porque una de las ventajas y problemas del dato es que está en el día a día de toda la organización; incluso más allá de la organización, con los restaurantes y los clientes. BDM: Lleva algo más de cuatro años en la empresa, ¿Cómo está siendo la experiencia? EF: Tengo la sensación de que llevo ya

una década, no me parece que sean solo 4 años. Sobre todo tengo esta sensación desde que me moví de la antigua Just Eat, la que era una pequeña startup, allí los objetivos eran anuales y ahora en cambio son trimestrales. Cada trimestre me parece un año por la cantidad de

cosas que estamos haciendo y de cómo cambia el negocio constantemente.

BDM: Llega desde Vodafone donde estuvo casi una década. ¿Qué diferencias ha encontrado? EF: Sí, la experiencia fue genial y

sobre todo como primera experiencia en un gran corporate. Conseguí tener la foto de hacia dónde vamos. En Vodafone aprendí lo que es más a nivel de procesos, organización de proyectos o cómo trabajar la forma colaborativa. Cuando llegue a Just Eat al principio era una gran diversión, éramos 20 en una sala y se colabora muy bien, pero esto ha evolucionado y nos ha llevado a ver


45

Enrique Fernández, Director de Data and Business Intelligence en Just Eat cómo crecer responsablemente y manteniendo esa calidad; y sin vernos todos en 5 metros cuadrados. BDM: Y después de estos años manejando datos ¿cómo ha ido evolucionando el tratamiento hacia ellos? EF: Se ha ido aumentando la prioridad,

pero nunca ha sido despreciado el dato en Just Eat. Desde el momento cero han tenido un gran foco y cada vez que hemos levantado una capa hemos descubierto que el dato tenía más valor y por tanto, se le daba más valor todavía. Todo esto ha llevado a que el dato sea un pilar principal en la estrategia de Just Eat para los próximos tres años, se le da toda la importancia.

BDM: ¿Qué porcentaje de los millones de datos que se generan, realmente se aprovechan?

Haría un símil con cuánto usamos el cerebro al cabo del día. Por cantidad tenemos todo, por las tecnologías que utilizamos, y todo sería aprovechable, pero estamos a menos del 1% de lo que podemos utilizar y mejorar. BDM: ¿Ha cambiado la percepción de los departamentos de datos por parte de los estamentos que lideran las empresas? EF: Somos un apoyo. Un departamento

de finanzas, aunque vayamos más a la crudeza del número en su día a día, somos uno de sus aliados perfectos. Nos permite acelerar o frenar cualquier iniciativa que no está dando los resultados. Es decir, finanza es uno de nuestros mejores aliados dentro de la organización, porque ellos son los primeros que agradecen poder tener los datos de cómo van las estrategias y las iniciativas.

BDM: ¿Cuál ha sido el reto más complicado al que se ha enfrentado en su profesión? ¿Cómo lo solucionó? EF: El reto es constante, estamos todo el

día dándole vueltas una y otra vez para mejorar las expectativas del cliente. Es decir, del día cero que nuestro reto era cómo conseguir que el cliente colgara el teléfono y utilizara nuestra web para pedir comida a domicilio. A día de hoy que el reto es conseguir que antes de que pida el cliente podamos saber los restaurantes que más te puedan interesar y además te pueda decir casi con una certeza del cien por cien en qué momento va a llegar a tu mesa. Si pasamos estos retos podemos decir que hemos superado el 2019.

“El reto es conseguir que antes de que pida el cliente podamos saber los restaurantes que más te puedan interesar y además te pueda decir casi con una certeza del cien por cien en qué momento va a llegar a tu mesa” “Una vez que cumplo las expectativas del cliente hoy, ya son unas expectativas diferentes y mayores mañana” BDM: ¿Le resulta complicado encontrar profesionales preparados para incorporar a su equipo? ¿Qué cualidades debe tener alguien que quiera trabajar en t su sector? EF: Es una combinación. A nivel de

hard skill suelo buscar que tenga capacidad de hablar con lenguaje de base de datos, ponemos la base en hablar con SQL. Después depende del nivel de analista que necesitas o si necesitas un Data Science que sepa de montar algoritmos. Después, nos enfocamos en los soft skill que serían ambición, las ganas de ganar, de trabajar en colaboración y aprender constantemente. Poder hablar con base de datos, pero saber transmitir al resto de equipos, porque aquí no estamos solo como en una empresa clásica que estas solo para dar datos, si no tienes que ser el partners de datos para ayudar.

BDM: Otro de los temas de los que se está hablando mucho en el sector del Big Data es de ética ¿Existe? ¿Es posible la ética del dato? ¿Tienen ética los datos? EF: Es uno de los valores que queremos

potenciar. Queremos enseñarles a los clientes que invertimos en tecnología y equipos detrás del Data Governance para que la información personal de cada usuario sea personal e intransferible. No la compartimos hacía fuera y la protegemos externamente e internamente. En esto somos muy estrictos, y es un valor que le damos al cliente, porque puede utilizar la plataforma con seguridad de que va a estar compartiendo lo justo y necesario para hacer un pedido o para ayudarle a solucionar un problema.

BDM: ¿Es posible la democratización del dato? ¿Y es necesaria? o es mejor que los datos sean mane-

jados en exclusiva por un determinado número de personas de la empresa. EF: Hay que separar información

personal del cliente con lo que es democratización del dato porque sean útiles para operar. No puedes ser un stopper si te piden por ejemplo información para saber en qué ciudad hacer tu campaña de marketing, necesitarás datos sobre la demanda o de la existencia de restaurantes. Vas a tener siempre capacidad de verlo, pero por ejemplo si no es relevante nunca te vamos a dar un email o una información personal. Hay que pedirlo y hacer un proceso burocrático para obtener estos datos.

BDM: ¿Qué significa para usted Business Intelligence? ¿Para qué lo utiliza Just Eat? EF: Se utiliza para todo. Tu partner del

día a día para la toma de decisiones, desde el lado más operativo (call center para soluciones en real time, utilizan datos y datos para la toma de decisiones), más a haya de ser descriptivos mostrando la información somos prescriptivos ayudando en la toma de la decisión; ayudar para ser más certeros. Las personas que están en la calle revisando los restaurantes llevan siempre una Tablet y con su herramienta de datos pueden prepararse la reunión con los restaurantes y conocer cómo pueden ayudarles. Desde una campaña de marketing hasta una estrategia comercial, todo está respaldado por el dato.

BDM: ¿Cuál es el siguiente objetivo por conseguir en Just Eat? ¿En qué están trabajando? EF: Ahora empezamos con el nuevo

algoritmo de personalización que va a conseguir que el listado de restaurantes no sea solo por review, sino que vas a tener una recomendación ad hoc según tus gustos y anteriores pedidos. Ayudar al cliente a descubrir, porque actualmente estamos en un mundo muy foodie.

.

BigDatamagazine | Noviembre 2020


46 IA en el metro de Barcelona

La Inteligencia Artificial se cuela en el metro de Barcelona Ramon Bacardí, director de la red del Metro de Barcelona, nos cuenta cómo están utilizando la Inteligencia Artificial para ayudar a controlar las infecciones por coronavirus en la red de Metro de Barcelona.

E

Texto: Georgina

Ortíz

l sistema RESPIRA pertenece a la compañía Sener y lleva puesto en marcha desde algunos meses, porque además ayuda a controlar el consumo energético. Bacardí aparte de hablarnos del nuevo sistema de ventilación, también, nos cuenta algunos datos de BigDatamagazine | Noviembre 2020

los nuevos pilotos que se están poniendo en marcha en el Metro de Barcelona. Big Data Magazine (BDM): ¿Qué tipo de datos habéis analizado para tomar la decisión de implementar solo el sistema en las líneas de la 1 a la 5? Ramon Bacardí (RB): El sistema se

aplicará en las líneas L1, L2, L3, L4, L5

y L11 de la red de Metro de Barcelona puesto que todas ellas tienen el mismo modelo de ventilación: se impulsa aire exterior por las estaciones y se extrae aire caliente por los pozos de túnel. Además entre las seis concentran el 94% del pasaje de la red. El motivo por el cual se inicia en la L1 es doble. La primera razón es porque


47

Ramon Bacardí, director de la red del Metro de Barcelona habíamos realizado un estudio de ingeniería integral de la ventilación de esta línea y conocemos todos sus datos por lo que podemos comparar la situación anterior y posterior a la entrada en servicio del sistema con precisión. Y la segunda, es la línea que mueve mayor pasaje y tiene más estaciones. Por tanto la de mejor relación coste/beneficio. En las líneas 9 y 10, por sus características constructivas y por ser de nueva ejecución, el modelo de ventilación es diferente, las estaciones y túneles tienen ventilaciones separadas. Esto implica que el algoritmo de control y regulación debe ser específico, y no se podría aplicar el sistema RESPIRA sin adaptar su configuración. BDM: ¿Cómo trabaja el sistema RESPIRA? RB: Es un sistema de control que analiza

la sensación térmica del pasaje y los trabajadores mediante un índice de confort, diversos parámetros y variables, como la temperatura, la humedad, la calidad del aire interior en las estaciones y el consumo eléctrico de la ventilación. El sistema es capaz de correlacionar todas las variables de forma centralizada para establecer la estrategia óptima de ventilación buscando de forma simultánea la mejora de las condiciones ambientales y la eficiencia energética. Esto se consigue gracias a un algoritmo dinámico basado en técnicas de machine learning de predicción de las condiciones ambientales en el interior de la estaciones. De esta manera se aprovechan las temperaturas exteriores cuando son bajas para refrescar los túneles y extraer el calor, y ello ligado al grado de humedad. BDM: ¿Tenéis planeado, si funciona bien, utilizar este sistema en otras infraestructuras? RB: En Metro de Barcelona se probará en

toda la red. Y fuera de nuestra red, sería un sistema exportable a otras grandes infraestructuras que requieran de una red de distribución de flujos de aire con distintas entradas y salidas. El sistema puede maximizar la eficiencia de los sistemas de ventilación en aquellos espacios complejos y conectados que disponen de equipos de climatización distribuidos a lo largo del mismo. En estos espacios, normalmente de pública concurrencia, como son los aeropuertos, centros comerciales, centros deportivos, grandes tiendas, con los sistemas actuales es complicado asegurar la eficiencia del sistema en todos los puntos de la infraestruc-

En Metro de Barcelona se probará en toda la red. Y fuera de nuestra red, sería un sistema exportable a otras grandes infraestructuras que requieran de una red de distribución de flujos de aire con distintas entradas y salidas. tura, existiendo un desequilibrio en los sistemas de ventilación. El sistema RESPIRA, al ser capaz de correlacionar todas las variables y efectos que se producen en estos espacios, permite obtener el punto de funcionamiento óptimo que garantiza que todas las zonas sean ventiladas de una forma adecuada y que los flujos de aire se distribuyan de acuerdo con las mediciones que se realizan en cada punto. BDM: ¿Por qué elegisteis a SENER como aliado para este proyecto? RB: SENER ha desarrollado anterior-

mente para TMB un Estudio de Ingeniería Integral de la ventilación de la L1, en ese estudio se determinó una consigna de funcionamiento más óptima, obteniendo una reducción media de temperatura de 1ºC, comparado con días equivalentes del año anterior. Otra de las conclusiones fue que esa reducción sólo podía ser mayor si se aplicaba un control inteligente que tuviera en cuenta, día a día, hora a hora, la mejor consigna posible conociendo las temperaturas exteriores previstas para los próximos días. A partir de ahí se firmó un convenio de colaboración entre SENER y TMB, en el cual SENER desarrollaba una plataforma de control inteligente, RESPIRA, y TMB la probaba durante un tiempo en su red de metro. BDM: ¿Este sistema sirve para bajar la propagación del coronavirus? RB: Uno de los aspectos importantes en

el freno a la propagación del coronavirus es la renovación del aire; ello hoy en día ya se realiza forzando la ventilación de la red de metro al máximo de su caudal, pero el sistema Respira ayuda a la optimización de este flujo reduciendo el consumo energético, y ello además trae como consecuencia que también se ayuda a la sostenibilidad y a la mejora ambiental; por tanto este sistema unido a otras actuaciones componen un conjunto de medidas que ayudan a prevenir la propagación del coronavirus.

BDM: ¿Qué otras medidas tecnológicas os planteasteis utilizar para controlar la propagación del coronavirus? RB: Se están desarrollando diversas

pruebas piloto. Hemos instalado en los pasamanos de algunas escaleras mecánicas dispositivos con rayos UVC que eliminan constantemente los posibles virus y bacterias, también hemos probado robots autónomos con dispositivos UVC que se mueven por el interior del material móvil o dependencias para destruir en superficies posibles virus y bacterias. En cuanto a canalizaciones de ventilación estamos probando filtros iónicos y UVC; y aumentando en sistemas de ventilación el % de aire procedente del exterior. Estas tecnologías están en fase de evaluación y testeo.

BDM: ¿Qué datos estáis recogiendo para evitar la propagación del virus y controlar el aforo? ¿Cómo estáis gestionando estos datos? RB: Desde principios de junio estamos

usando el histórico de datos de pasaje para ofrecer vía web una estimación del nivel de ocupación de cada línea de metro y de autobuses por franja horaria, como apoyo a la planificación del viaje de los usuarios que pueden elegir cuándo viajar. Estos sistemas se basan en análisis de imágenes con maching learning en estaciones o en el peso de los vehículos en los trenes. En breve, vamos a complementar esta herramienta con la información del tiempo que va a tardar el próximo tren de metro y su nivel real de ocupación, que hoy en día ya se halla en algunos paneles de información de los andenes, en fase de prueba, y que será consultable en la web y en el teléfono mediante la app de TMB. Nos centramos en este tipo de desarrollos, además de reforzar la desinfección y controlar el uso de la mascarilla, geles de desinfección en muchas estaciones, como elementos para favorecer la confianza de la ciudadanía en el transporte público.

.

BigDatamagazine | Noviembre 2020


48 Homenaje a un pionero del sector del dato

Se marcha Daniel, nos queda su legado El 13 de agosto nos dejó Daniel Martínez Batanero, uno de los pioneros en el manejo del dato en nuestro país. Durante años lideró proyectos exitosos a nivel profesional y también en su otra pasión, la política. Texto: José

U

Luis Arcángel

n jueves de agosto, se marchó Daniel Martínez Batanero. Una muesca más en el calendario de este infausto 2020 que nos ha tocado vivir. Se fue a los pies del pico Ocejón, emblema de la provincia de Guadalajara. Lugar donde vivió y del que siempre presumió. Siempre presto a servir al prójimo, paso la vida profesional entre datos. Su otra pasión, la política, le hizo acreedor de centenares de amigos a ambo lados del espectro. Hecho este, que dice mucho del carácter de Daniel. Un hombre bueno. Tuve la fortuna de conocerle hace ya muchos años durante su ejercicio como concejal del Ayuntamiento de Guadalajara. Desde entonces hasta ahora han sido muchas las conversaciones que hemos tenido, en todas he aprendido. Ya fueran de política, de datos o de la provincia que nos unió, siempre tuve la fortuna de aprender. La última vez que colaboró con nosotros fue en marzo de este año. Protagonizó un episodio del podcast Territorio Big Data que recomiendo que no os perdáis. Una oportunidad más para aprender de alguien que disfrutó enseñando y que no se guardó nada para él. Una vida plena Afincado en Cabanillas del Campo (Guadalajara), en la actualidad era Director de Smart Data de RSI, incluidas las competencias y recursos de las tecnologías emergentes: Blockchain, Big Data e Inteligencia Artificial como CDO del Grupo Caja Rural. Además de uno de los miembros más activos del Club Chief Data Officer Spain & Latam. Más de 30 años trabajando en el mundo de la tecnología, en múltiples sectores (banca, telecomunicaciones, manufactura, sector público, seguros…). BigDatamagazine | Noviembre 2020

Daniel Martínez durante su intervención en el Data&cIA Congress 2019.

El que fuera concejal de Nuevas Tecnologías en el Ayuntamiento de Guadalajara, Daniel Martínez Batanero, fue nombrado por el Consejo de Gobierno de Castilla-La Mancha Director General de Telecomunicaciones y Nuevas Tecnologías. Nacido en Madrid, en 1964, pero con ascendencia cifontina, Martínez Batanero cuenta con un extenso e implecable curriculum profesional ligado al campo de las Nuevas Tecnologías. Fue director Internacional de Planificación Estratégica, Control Presupuestario y Oficina de Proyectos de IT de AXA, director de Planifica-

ción y Control de RSI y Subdirector de Planificación y Control Financiero de AT&T ME España. En su actividad política, además de ser Concejal de Nuevas Tecnologías del Ayuntamiento de Guadalajara (2007-2011), fue Vocal de la Comisión Nacional de Nuevas Tecnologías de la FEMP (2007-2011) y fue miembro del Comité Ejecutivo Provincial del PP de Guadalajara. Actualmente era Vicesecretario Provincial de comunicación de PP GU y Secretario Técnico (miembro del CE) regional de PP CLM.

.

Descansa en Paz amigo Daniel… tu legado permanecerá siempre.


49

Daniel Martínez Batanero

El recuerdo de sus compañeros “Maestro para todos nosotros. Hombre bueno. Sabio. Comprometido. Alguien a quien querías tener siempre cerca. Un imprescindible. Sigue ayudándonos, Dany, desde dónde estés” Rafael Fernández Campos, Presidente del Club CDO Spain & Latam & CDO de Bankia

“Sin duda es la persona que más me impresionó en una charla. Su conocimiento técnico, probando cosas que están a la última, el cómo conseguía una aplicación práctica de los mismos que generaban valor y su capacidad de expresarlo con palabras sencillas eran impresionantes. Después de esa primera charla, compartí muchos momentos con él en los que siempre aprendía y me divertía” Francisco Escalona, Head Data Science en Orange

“Un alcarreño de los que dejan huella por dónde pasa…tuve el placer de conocerle cuando empezamos con el Club, uno de los mejores profesionales del Big Data en España aunque dónde marcaba diferencias era la humildad y las ganas con las que afrontaba cualquier reto” Daniel Escuder CDO Grupo Palladium

“Muchas de sus palabras me seguirán acompañando y cuando las recuerde, recordaré también a una persona campechana que siempre estaba dispuesta a aportar su punto de vista y su conocimiento para cualquiera que estuviera interesado, ya fueran personas concretas, instituciones locales, estatales e internacionales o la propia sociedad. Daniel descansa en paz, seguro que muchos te recordaremos” Juan Francisco Riesco, Director de Datos en Mutua Madrileña

“Para todos los que amamos el mundo del dato Daniel siempre ha sido un referente a seguir. Una persona única y de carácter excepcional que sacaba un hueco de su agenda para echarte un cable cuando se lo pidieses. Echaremos de menos su humor y sonrisa inagotable” Ángel Galán, Director de datos e IA en Kabel

“Siempre que coincidí con Daniel, me sorprendió su sencillez y su claridad a la hora de explicar temas complejos. Su forma de enfocar los problemas y adaptar las nuevas tecnologías en la gestión de la información, estará siempre presente entre nosotros. Gracias por todo” Javier Martinez, Head Reporting Corporativo en Bankia

“Brillante, inteligente, culto, humanista, transgresor, libre pensador, ortodoxo en sus principios, liberal conservador en lo politico, profundamente católico y creyente. Cercano, amigo,...ese era Dany. “ Antonio Román, Senador en la presente legislatura y alcalde de Guadalajara entre 2007 y 2019

Territorio Big Data

Escucha la entrevista que Daniel nos concedió el 4 de marzo de 2020

BigDatamagazine | Noviembre 2020


50 Inteligencia Artificial y ética

El Parlamento desarrolla el primer conjunto de normas de la UE para la IA Mientras que la Comisión, a principios del próximo año pretende destinar 20.000 millones de euros al año para potenciar las inversiones públicas y privadas en IA. Por su parte, el Parlamento Europeo, el pasado mes de octubre, aprobó tres informes que constituyen un paso agigantado para regular la Inteligencia Artificial en la UE.

“Fuente: Noticias Parlamento Europeo”

D

Texto: Angie

Parra

esde esta perspectiva, los informes aprobados el pasado 20 de octubre por parte del Parlamento Europeo, sientan las bases fundamentales que regularán la Inteligencia Artificial. Dicho documento se desarrolla en tres partes fundamentales, i) El marco ético para la IA; ii) Régimen de responsabilidad para la IA y iii) El Derecho de Propiedad Intelectual. El marco ético para la IA Iniciativa liderada por Ibán García del Blanco (S&D, ES) resalta que las leyes futuras deben elaborarse de acuerdo con varios principios rectores, que incluyen: “una IA centrada en el ser humano y creada por el ser humano; seguridad, transparencia y responsabilidad; salvaguardias contra prejuicios y discriminación; derecho a reparación; responsabilidad social y ambiental; y respeto por la privacidad y la protección de datos.Las tecnologías de IA de alto riesgo, como las que tienen capacidad de autoaprendizaje, deben diseñarse para permitir la supervisión humana en cualquier momento. Si se utiliza una funcionalidad que podría resultar en una violación grave de los BigDatamagazine | Noviembre 2020

principios éticos y podría ser peligrosa, las capacidades de autoaprendizaje deben desactivarse y debe restablecerse el control humano total”. Régimen de responsabilidad para la IA Axel Voss (EPP, DE) a la cabeza de esta iniciativa, sostiene que el actual sistema “exige un marco de responsabilidad civil orientado al futuro, haciendo que aquellos que operan IA de alto riesgo sean estrictamente responsables de cualquier daño resultante. Un marco legal claro estimularía la innovación al brindar seguridad jurídica a las empresas, al tiempo que protege a los ciudadanos y promueve su confianza en las tecnologías de inteligencia artificial al disuadir las actividades que podrían ser peligrosas.Las reglas deben aplicarse a la actividad física o virtual de la IA que dañe o dañe la vida, la salud, la integridad física, la propiedad o que cause un daño inmaterial significativo si resulta en una pérdida económica verificable”. El Derecho de Propiedad Intelectual Presentado por Stéphane Séjourné (Renew Europe, FR) resalta que “el liderazgo mundial de la UE en IA requiere un sistema de derechos de

propiedad intelectual (DPI) eficaz y salvaguardias para el sistema de patentes de la UE para proteger a los desarrolladores innovadores, al tiempo que subraya que esto no debería ocurrir en el a expensas de los intereses de los creadores humanos, ni de los principios éticos de la Unión Europea”. “Los eurodiputados creen que es importante distinguir entre creaciones humanas asistidas por IA y creaciones generadas por IA. Especifican que AI no debe tener personalidad jurídica; por lo tanto, la propiedad de los derechos de propiedad intelectual solo debe otorgarse a humanos. El texto profundiza en los derechos de autor, la recopilación de datos, los secretos comerciales, el uso de algoritmos y las falsificaciones profundas”. El Parlamento ha creado un comité especial con el objeto de estudiar el impacto de la inteligencia artificial en la economía de la UE. “Europa necesita desarrollar una IA que sea confiable, que elimine los prejuicios y la discriminación, y que sirva al bien común, al tiempo que garantiza que las empresas y la industria prosperen y generen prosperidad económica”, así sostuvo el nuevo presidente del comité, Dragoș Tudorache.

.


Turn static files into dynamic content formats.

Create a flipbook
Issuu converts static files into: digital portfolios, online yearbooks, online catalogs, digital photo albums and more. Sign up and create your flipbook.