BigData Magazine Nº4 (Mayo 2021)

Page 1

BigDatamagazine Revista especializada en Big Data & IA. Ejemplar gratuito.

Nº4 Mayo 2021

Big Data e IA en las telecomunicaciones

David González, CDO de Vodafone

Todo sobre el AI Business Congress

Big Data e IA en el sector educativo


Para saber más síguenos en: www.grapheverywhere.com Graph Everywhere @Grapheverywhere

Soluciones basadas en Tecnología de grafos para digitalizar tu negocio


3

Editorial

C

Datos, datos y más datos

on esa frase arrancamos cada nuevo episodio de nuestro podcast Territorio Big Data. Ninguna otra define mejor a lo que nos enfrentamos cada día en el mundo actual. Y así hemos querido también, ponerle enfoque a la tercera edición del Data&cIA Congress que celebramos este mes de junio. Una cita en la que vamos a tener tres protagonistas claros muy relacionados con la actualidad del sector. El Gobierno del Dato siempre está ahí. Cómo mejorar el gobierno del dato y romper los silos de información es una de las preguntas que buscan respuesta. Cuestiones como qué necesidades están ganando peso en la innovación en el consumo de los datos, están en el día a día de los equipos de datos. Otro de los conceptos del momento es el Data Literacy. El camino hacia la alfabetización de los datos está en boca de todos. Es imprescindible permitir que miembros de la orgaBIG DATA MAGAZINE Edita: Digital Tech Communications Group S.L. C/ Núñez Morgado, 5 (local) 28036 MADRID CIF: B87917563 Depósito legal: M-15395-2021 www.bigdatamagazine.es info@bigdatamagazine.es

nización que no son científicos de datos puedan obtener el mayor partido a los datos. Saber leer e interpretar los datos es una habilidad indispensable. Todos los usuarios, ya sea a nivel operativo, táctico o estratégico, deben capacitarse para ello. En el capítulo de lo futurible para algunos, aunque presente para otros, tenemos el DataOps y el MLOps. El mundo del dato está recibiendo gran influencia con la aparición de la cultura ágil, la automatización y la integración continua de servicios aplicados a la gestión del ciclo de vida del dato y de los modelos analíticos. En el mundo actual el que se queda parado pierde su negocio en manos de otros, más ávidos de innovar. Hay que estar en continua transformación para seguir manteniendo el status presente. Renovarse o morir, y no para ser el mejor, para seguir siéndolo. Socios directores: Pedro Pablo Merino y Samuel Rodríguez. Redactor Jefe: José Luis Arcángel. Redactores: Rocío González y Mari Gómez. Relaciones Públicas: Angie Parra. Director Comercial: Luis Rincón. Maquetación: Pedro Santos Publicidad: info@bigdatamagazine.es

BigDatamagazine | Mayo 2021


4

Sumario 6. Podcast Territorio Big Data 8. Infografía

28

10

10. Entrevista Ángel Niño 14. Especial Big Data e IA en el sector telecomunicaciones 15. Datos móviles, una mina de oro para la sostenibilidad 18. Vodafone David González

34

20. Orange Francisco Escalona 22. COITT Rubén Caravaca 24. MásMóvil Daniel Domínguez 26. Telefónica Paco Montalvo 28. Dataiku

20

30

30. Graph Everywhere Josep Tarruella 32. Denodo 34. Keyrus Kathy Contramaestre 36. AI Business Congress 2020

26

18 37

32 36 BigDatamagazine | Mayo 2021


40. Especial Big Data e IA en el sector educativo 42. UNIR Nuria Canal 44. CUNEF Juan Manuel López Zafra 46. UCAM Isabel M. Timón

48

48. UPCT Mari Carmen Bueso 50. UOC Josep Curto 52. Policía y datos 54. IA y publicidad 56. IA, Big Data y Covid-19 58. Informe Data Science 60. Smart cities 62. Calidad del aire 64. Green Data 66. Derecho

44

46 60

62 52

42


6 Podcast / Territorio Big Data

Territorio Big Data

ELENA SALAZAR CDO DE EL GANSO

CARLOS OLLERO DIRECTOR DE DATA Y ANALYTICS EN EQUIFAX

MANUEL DEL BARRIO SOCIO Y COFUNDADOR DE DECIDE4AI

AMPARO ALONSO Y ALICIA TRONCOSO PRESIDENTA Y VICEPRESIDENTA DE LA AEPIA

Siguenos en:

BigDatamagazine | Mayo 2021


7

A Real-Time Data Integration and Delivery Platform with Zero Replication Reduce integration time by 85% Decrease costs by 80% N IO AT Z I L UA RT VI TA DA

R YE LA

ROI realization within 3 months Meet security/privacy requirements

Tendencias que marcarán el Futuro de la Estrategia de Datos LEE EL LIBRO GRATUITO BigDatamagazine | Mayo 2021


8 Infografía

BigDatamagazine | Mayo 2021


MAKE DATA MATTER.

TE ACOMPAÑAMOS A LO LARGO DE TU DATA JOURNEY

Advanced Analytics. Cloud. Gobierno del Dato. Big Data. Visualización. IoT.

WWW. K E Y R U S . E S


10 Entrevista / Ayuntamiento de Madrid

“Queremos que Madrid sea un punto de referencia de la máxima relevancia a nivel europeo” Si hay una ciudad en España que está encabezando la implantación de la Inteligencia Artificial en el día a día de sus empresas y vecinos, esa es Madrid. Mucha culpa de estos avances es de Ángel Niño, concejal del Área Delegada de Innovación y Emprendimiento del Ayuntamiento de Madrid.

E

Texto: José

Luis Arcángel

n Big Data Magazine hemos querido conocer de primera mano cuáles son los planes de la concejalía madrileña para seguir siendo líderes nacionales en desarrollo del sector de la Inteligencia Artificial. Big Data Magazine (BDM): ¿Qué

aporta Madrid al desarrollo de la Inteligencia Artificial? Ángel Niño (AN): Queremos que

nuestra ciudad cuente con el primer centro de Inteligencia Artificial de

BigDatamagazine | Mayo 2021

España para convertirlo en un punto de referencia de la máxima relevancia a nivel europeo. Nuestra estrategia en Inteligencia Artificial busca potenciar la investigación, el desarrollo y la implementación de esta tecnología disruptiva ofreciendo a todo estudiante, emprendedor, inversor o profesional, que quiera desempeñar su proyecto en nuestra ciudad, un lugar físico donde llevarlo a cabo. BDM: ¿Cómo relacionas Inteligencia Artificial y Big Data?

AN: La Inteligencia Artificial se nutre del Big Data. Son dos tecnologías que van de la mano.El incremento en los datos y la velocidad de su tratamiento han hecho factible el desarrollo de la Inteligencia Artificial que utiliza esta información para analizar el entorno y operar con él, ofreciendo múltiples posibilidades para la toma de decisiones empresariales que hace un tiempo parecían impensables. En el propio Ayuntamiento de Madrid, estamos incorporando la IA en nuestros procesos. Los datos de


11

Ángel Niño, concejal del Área Delegada de Innovación y Emprendimiento calidad son la materia prima para crear una oportunidad única y generar empleos de alta cualificación y crecimiento económico. BDM: ¿Existen novedades con respecto al plan de creación de un centro de Inteligencia Artificial? ¿Qué supondrá para la ciudad? AN: Es un proyecto en el que estamos

trabajando y tenemos previsto que esté operativo para este 2021. El objetivo lo tenemos claro y las bases asentadas. Aunque aún está en una fase muy inicial, queremos que este centro sea referencia en Inteligencia Artificial del sur de Europa. Un espacio donde reunir grandes corporaciones, startups, emprendedores e inversores y, por supuesto, a la administración, donde se forme y se desarrolle en Inteligencia Artificial. BDM: ¿En qué consistirá? AN: Buscamos crear sinergias entre

todos los actores en la Inteligencia Artificial tanto de la ciudad como de Europa. Contamos con algunos de los más importantes parques científicos y tecnológicos y centros de investigación del país que nos convierten en un foco excepcional de atracción de talento y de innovación. Estamos trabajando para que esté formado por espacios físicos municipales y una plataforma online donde todos los agentes implicados en la IA puedan estar conectados, formarse y llevar adelante su proyecto basado en esta tecnología. BDM: ¿Cuál cree que será el futuro de la IA en España? AN: Los fondos europeos Next Gene-

ration darán una oportunidad única para acelerar la modernización de nuestro país en la dirección que marca las prioridades europeas como es la transformación digital. En España ya estamos progresando en muchos y múltiples proyectos, pero hay uno que me entusiasma especialmente, el procesamiento del lenguaje natural.

Existen millones de libros editados en castellano que podemos utilizar para alimentar el procesamiento del lenguaje mediante la IA. Esto es clave, porque si conseguimos que una IA sea capaz de procesar un lenguaje natural, conseguiremos que también sea capaz de responder en tiempo real a cualquier usuario sin necesidad de saber qué o quién está al otro lado de la pantalla. Esto, para el uso de los servicios públicos es algo tremendamente innovador. Cualquier persona que tenga una duda para hablar con el Ayuntamiento, hablará con una IA, y esta le responderá de forma más rápida y eficiente a todo lo que necesita. BDM: ¿Qué destaca de Madrid como Smart City? AN: El concepto de Smart City está

ligado a los de ciudad digital y ciudad conectada pero también a valores de sostenibilidad, cuidado medioambiental, seguridad o buen gobierno. Queremos realizar proyectos que hagan ciudad y dar un paso más allá hasta convertir a Madrid en una ‘Startup City’. Para ello, debemos asegurar y favorecer el despliegue de la infraestructura 5G. La conectividad 5G nos permite una gestión más eficiente de los recursos y la conexión de todos ellos: sensores, cámaras, contadores, etc. que permiten, entre otros, mejorar la eficiencia energética en tiempo de real, la optimización de rutas en los servicios de limpieza de manera automática e instantánea o el control de movimientos, flujos de vehículos o personas, dando respuesta a las necesidades de cada momento. En este sentido, destacaría un proyecto pionero e innovador que ya lo implementa como es “MercaMadrid, ciudad inteligente” que está revolucionando las comunicaciones y el Big Data en la unidad alimentaria. Con una inversión de un millón de euros, supone una clara ventaja competitiva para las empresas insta-

“Los datos de calidad son la materia prima para crear una oportunidad única y generar empleos de alta cualificación y crecimiento económico”.

ladas en el recinto y una oportunidad real para transformar sus propias estrategias digitales, abordando retos presentes y futuros.

BDM: ¿Cómo evoluciona el Hub de Innovación en movilidad urbana Madrid? AN: El futuro está en la colaboración

público-privada y con la creación de este hub busca ser un punto de encuentro necesario para que el Ayuntamiento innove y facilite que las empresas lo hagan. El sandbox de innovación en movilidad permitirá realizar los proyectos a escala reducida, temporal y limitada para decidir de mejor manera acerca de su implementación a gran escala y sobre la regulación necesaria para su desarrollo. El proyecto ya dispone de una hoja de ruta elaborada para su implantación en la ciudad de Madrid, así como de una dotación presupuestaria para su ejecución durante el año 2021. BDM: ¿Qué se espera de este proyecto? AN: El sector de la movilidad, por su

estrecha vinculación con los avances tecnológicos e innovadores, se encuentra en constante cambio y evolución. Las tecnologías disruptivas (electrificación de vehículos, robotización e inteligencia artificial, infraestructuras inteligentes, etc.) crean importantes oportunidades económicas y sociales para la mejora de la movilidad. El desarrollo del sandbox en Madrid impulsará a la ciudad en cinco áreas clave; atracción de inversión, incremento de startups, aumento de empleo de calidad, mejora en la atracción de talento y mejora en la calidad de vida. BDM: ¿Qué entiende por movilidad sostenible? AN: Es una realidad que la movilidad

en las ciudades está cambiando y seguirá cambiando aún más. La sostenibilidad es un factor decisivo para cualquier gran ciudad. La estrategia para la descarbonización supone obligaciones, pero también oportunidades. El modelo al que vamos se basa en la electricidad combinado con energías renovables y el gas descarbonizado y sostenible como es el hidrógeno. En esta línea, ya hemos inaugurado la primera hidrogenera de la Comunidad de Madrid. Respecto a nuestra flota de autobuses de la EMT, es una de las más modernas de Europa con una media BigDatamagazine | Mayo 2021


12 Entrevista / Ayuntamiento de Madrid

“El desarrollo del sandbox en Madrid impulsará a la ciudad en cinco áreas clave; atracción de inversión, incremento de startups, aumento de empleo de calidad, mejora en la atracción de talento y mejora en la calidad de vida”. de 5-6 años. Nuestros vehículos cuentan con los últimos avances tecnológicos en materia de exigencias medioambientales. Casi el 84% de nuestra flota se encuentra en el parque verde, gas natural y eléctrico. Además, somos una de las capitales con mayor número de soluciones de movilidad compartida

BigDatamagazine | Mayo 2021

desplegadas en nuestras calles. Todo ello, nos ayuda a fomentar una movilidad más sostenible y a solventar uno de nuestros mayores problemas como ciudad, ya que Madrid es la segunda capital de la Unión Europea con mayor población y registramos desplazamientos diarios de más de 10 millones de personas.

BDM: Seguimos aun combatiendo contra el COVID-19, ¿qué se les puede ofrecer a los emprendedores y nuevas startups por parte del Ayuntamiento de Madrid? AN: Madrid Emprende está apostando

más que nunca por la creación de nuevas empresas, pero también por ayudar a sostener a nuestros emprendedores. Nuestra prioridad es respaldarles y que se sientan protegidos. Hemos tenido en cuenta que la ayuda que más valoran a la hora de decidirse a emprender es contar un espacio donde llevar a cabo su proyecto empresarial al mínimo coste posible. Por ello, hace unos meses decidimos bonificar la totalidad del precio de nuestros servicios en la red de los seis viveros municipales durante un periodo de 12 meses y ampliar su tiempo máximo de estancia pasando de 3 a 4 años. Nos estamos


13

Ángel Niño, concejal del Área Delegada de Innovación y Emprendimiento consolidando como una opción abierta a todos los emprendedores, autónomos y pymes madrileñas con una ocupación que ya roza el completo. Además, hemos querido ayudar a que logren la financiación necesaria para impulsar sus proyectos potenciando la colaboración con redes de inversores a través de los “Foros de Inversión de Madrid Emprende”. Les ofrecemos asesoramientos especializados, en los que se evalúan y preparan sus proyectos y les ayudamos a que realicen la presentación de su idea ante inversores con los que les ponemos en contacto. BDM: ¿Qué supone el Plan Relanza para este sector? AN: Muchas empresas y autó-

nomos se han visto obligados a echar el cierre y cesar su actividad, a acogerse al ERTE o, directamente, despedir a sus empleados por culpa de la pandemia. El Plan Relanza, dotado con 3 millones de euros, va destinado a que los autónomos puedan seguir produciendo y ayudarles a su supervivencia. No queremos que el ciudadano pierda su tiempo y sus fuerzas en completar formularios infinitos y entregar documentación imposible, sino que obtenga, desde el primer momento, esa ayuda de una manera directa, efectiva y real. Estamos en permanente contacto con las asociaciones de autónomos más grandes del país para que transmitan la información y llegar al mayor número de empresas y autónomos, colaborando con nosotros para que la gestión de las ayudas sea lo más ágil posible.

BDM: La innovación y el emprendimiento, ¿están al alcance de cualquier madrileño? AN: Cualquier emprendedor o inno-

vador que quiera iniciar su proyecto en nuestra ciudad tiene abiertas las puertas de Madrid Emprende. En centros de innovación como La Nave y el International Lab o en nuestra red de viveros, se da cabida a ciudadanos, empresas, startups y corporaciones. En estos espacios de trabajo multidisciplinares, abiertos a la colaboración público-privada, ofrecemos que puedan desarrollar sus proyectos y acceder a asesores, expertos y potenciales clientes. Les proporcionamos las metodologías y herramientas necesarias

para comenzar o les facilitamos la conexión con el resto del ecosistema innovador para acceder a nuevas oportunidades profesionales y que aumenten sus posibilidades de escalado en mercados nacionales e internacionales. BDM: ¿Se puede aprender a innovar? AN: Se puede aprender a innovar,

desde luego. Ser innovador es una actitud. Requiere de muchas ganas e ideas, pero también de conocimientos y habilidades específicas que hay que adquirir principalmente a través de la formación y la experiencia. Es una mezcla entre lo que somos y el hasta dónde queremos llegar. Al final, todos sabemos de algo que conocemos mucho mejor que el resto del mundo. La clave es innovar en lo que conocemos, en nuestro sector. Desde La Nave, estamos llevando a cabo el programa “jugando a innovar”, un campamento de emprendimiento para niños entre 8 y 12 años que ayuda a despertar su vocación innovadora y su curiosidad mediante talleres prácticos y actividades. BDM: ¿Qué implica que surja tanto emprendimiento o tanta innovación en una ciudad como Madrid? AN: Estamos enfocando nuestros

esfuerzos en convertir Madrid en una ciudad especialmente atractiva para los emprendedores e inversores internacionales. Estamos ya considerados como uno de los cinco centros de emprendimientos más grande de toda Europa, pero no nos conformamos. Debemos aprovechar la ventaja competitiva y la oportunidad que nos ofrece ser el puente natural entre Europa y Latinoamérica y un punto

estratégico para el encuentro físico y virtual del ecosistema empresarial latinoamericano para seguir avanzando como referentes.

BDM: ¿Y no va a provocar la innovación una pérdida de empleo? AN: En absoluto. Convertirnos en

una ciudad competitiva y atractiva internacionalmente para el desarrollo de negocios, así como atraer y retener empresas e inversores, contribuirá a una importante transformación de nuestro tejido económico y empresarial. Es una oportunidad única para la generación y atracción de empleo altamente cualificado.

BDM: ¿En qué consiste emprendedores en el cole? AN: Es un programa piloto que reali-

zamos desde La Nave con alumnos madrileños de 3º y 4º de la ESO. En él, buscamos despertar el espíritu emprendedor de los estudiantes, así como enseñarles a trabajar en equipo, que adquieran nociones de finanzas y negocio y, sobre todo, mostrarles que con esfuerzo y constancia una idea puede llevarse a cabo hasta convertirse en una realidad. Durante mi etapa en el colegio, y también en la universidad, nunca me hablaron de emprendimiento. El emprendimiento solo surgía como una salida para aquellos que no querían acabar en una gran empresa o en la administración. Por ello, desde “Emprendedores en el cole”, queremos lograr que, desde bien pequeños, los niños sepan que el emprendimiento es una de las opciones a las que pueden optar, ya no solo al acabar la universidad, sino también la formación profesional e incluso los estudios obligatorios.

.

“Debemos aprovechar la ventaja competitiva y la oportunidad que nos ofrece ser el puente natural entre Europa y Latinoamérica y un punto estratégico para el encuentro físico y virtual del ecosistema empresarial latinoamericano para seguir avanzando como referentes”. BigDatamagazine | Mayo 2021


14

Especial BD e IA en el sector de las telecomunicaciones

BigDatamagazine | Mayo 2021


15

Big Data e IA en el sector de las telecomunicaciones

Datos móviles, una mina de oro para la sostenibilidad Los gobiernos piden ayuda a empresas de telecomunicaciones para armar mejores estrategias que ayuden a cumplir los ODS.

¿

Texto: Rocío

González

Alguna vez te has parado a pensar cuántas veces utilizas el teléfono móvil a lo largo de tu día a día? Seguro que más de una y más de dos. Si te pusieras a contarlas es probable que te sorprenderías. Hasta hace no mucho, se empleaban los despertadores digitales, estos ya han sido sustituidos por los teléfonos móviles. También solía ser habitual coger un mapa para guiarse por la ciudad, ahora el GPS del teléfono móvil es mucho más rápido y eficaz (aunque a veces tenga sus lagunas). Esto es un suma y sigue. Los avances en la telefonía han provocado que ahora sea impensable vivir sin este preciado aparatito. ¿La consecuencia? Mayores facilidades, pero también mayor información que proporciona el usuario de su día a día. Aunque hoy en día el teléfono móvil sirva para casi todo, hay que tener en cuenta que el usuario está proporcionando datos de todo tipo. Datos muy valiosos que ayudan a las empresas a entender mejor el comportamiento de los usuarios. Pero no solo eso, pues

el Big Data aplicado al sector de las telecomunicaciones también está ayudando a conseguir un mundo mucho más sostenible. La Agenda 2030, que tiene por lema Transformar Nuestro Mundo, es una oportunidad para que los países, las empresas, las sociedades y las personas en particular emprendan un nuevo camino con el que mejorar la vida de todos, sin dejar a nadie atrás. La Agenda cuenta con 17 Objetivos de Desarrollo Sostenible (ODS), que incluyen desde la eliminación de la pobreza hasta el combate al cambio climático, la educación, la igualdad de la mujer, la defensa del medio ambiente o el diseño de nuestras ciudades. Un compromiso global que da y dará lugar a nuevos e importantes retos. En este contexto, el Big Data es un nuevo y poderoso aliado que permite generar nuevo conocimiento y nuevos sistemas -en tiempo real- para mejorar la toma de decisiones. Ya existen proyectos piloto que han mostrado el potencial de los datos para diagnosticar y dar soporte a la decisión, así como a los necesarios procesos de monitoriza-

ción y evaluación. En todos los ODS hay oportunidades para usar los datos de manera disruptiva y acercarnos a su consecución. Movilidad urbana Las compañías de telefonía están empleando el Big Data como un catalizador para conseguir un mundo más sostenible. El empleo de la información puede contribuir a la consecución de gran parte de estos objetivos, que buscan garantizar un desarrollo más equitativo y ambientalmente sostenible, con especial atención a reducir los peligros del cambio climático inducido por el hombre y reducir la pobreza extrema. Por ejemplo, puede ayudar a mejorar la productividad agrícola (Objetivo 2), la gestión del tráfico y movilidad en ciudades (Objetivo 11), la eficiencia de las empresas (Objetivo 9) o el control de transmisión de enfermedades (Objetivo 3). Los datos pueden ayudar también a seguir la evolución de todos y cada uno de los objetivos planteados, permitiendo analizar su cumplimiento y mejorando la toma de decisiones, no BigDatamagazine | Mayo 2021


16 Big Data e IA en el sector de las telecomunicaciones solo a nivel empresarial, sino también a nivel de políticas públicas. Ejemplo de ello es el Ministerio de Fomento que llegó a un acuerdo con compañías telefónicas para conseguir datos de los usuarios, información que sirviera para obtener información sobre las necesidades de movilidad de los ciudadanos. Muchos estudios de movilidad de las ciudades se basan en campañas de encuestación que ofrecen una representación de la movilidad muy pequeña y estática. Gracias a los datos de telefonía móvil podemos seguir el comportamiento de la movilidad a lo largo del tiempo con mayor precisión y ampliar geográficamente la zona de estudio. El uso de datos de telefonía móvil ofrece nuevas herramientas espaciotemporales para mejorar la planificación de la movilidad, reducir ineficiencias en las redes de transporte actuales y predecir la demanda de diferentes actuaciones de transporte. La demanda y su distribución espacial es información de entrada esencial en los modelos de análisis de transporte, representada habitualmente por matrices origen-destino. Disponer de matrices fiables es un aspecto crítico a la hora de analizar iniciativas y soluciones de transporte, y algunas decisiones suelen depender de su precisión. Las tradicionales aproximaciones basadas en encuestas son muy útiles a la hora de estimar la elección modal, pero a pesar de estar apoyadas en aforos, a la hora de construir matrices O-D han demostrado tener carencias que limitan su usabilidad. Todo modelo requiere de una fase de calibración para ajustarlo a la realidad, la calibración se vuelve más compleja cuanto peor o más inexactos son los datos de partida. Geolocalización móvil El Instituto Nacional de Estadística (INE) firmó también hace algunos años un contrato con Movistar, Vodafone y Orange para utilizar la geolocalización de los móviles de la mayoría de españoles para un estudio sobre transporte y movilidad. Pese a que se advertía del anonimato de los datos, en ese momento muchos lo vieron como una locura digna del Gran Hermano de George Orwell. La realidad es que este tipo de contratos se llevaban firmando entre las operadoras y empresas y organismos públicos desde hace años. BigDatamagazine | Mayo 2021

En concreto, se han realizado varios informes sobre la movilidad urbana con la ayuda de información de empresas del sector de las telecomunicaciones. Por ejemplo, un estudio de Fomento del año 2017 analizaba el movimiento interprovincial de millones de españoles durante varios días de julio, agosto y octubre de 2017 con la idea de conocer más en detalle estos desplazamientos y poder actuar en consecuencia. Para ello, en un movimiento que sus impulsores tildan de “gran hito”, en vez de usar encuestas a la vieja usanza optaron por apuntarse al ‘big data’ y aprovechar el potencial de una ‘teleco’ como Orange para sacar los datos de localización de los móviles de sus más de 14 millones de clientes. ¿El objetivo? Ahorrar costes y ganar más información y más detallada para optimizar sus actuaciones. El problema, como en el caso del INE, está en las dudas que genera el control de esta información por parte de una operadora. ¿Quién controla estos sistemas? ¿Quién asegura que el proceso de anonimizado es robusto? ¿Quién vigila que los operadores no están enviando datos personales a sus clientes, por error o de forma intencionada? ¿Quién comprueba que un

cliente no esté cruzando los datos de los operadores con datos propios internos para identificar grupos de clientes? La respuesta es sencilla: nadie. En el informe publicado se ve el resultado de un análisis que puede ser muy similar al que salga del estudio del INE. Al final el objetivo es utilizar el ‘big data’ para tener más datos y con más detalle y así poder actuar mejor. Gracias a este estudio ya se puede saber, por ejemplo, a ciencia cierta dónde hace falta más trenes o más estaciones. El Ministerio, además, aprovechó para habilitar una web a la que se podía acudir a ver los resultados del informe e incluso descargar los datos para realizar tu propio análisis en una apuesta por el ‘Open Data’. Descargados los ficheros se podía ver la información recogida y observar que no hay ningún dato personal, solo localizaciones y fechas. Lo más llamativo es que también son capaces de distinguir por tipo de medio de transporte en el que viaja cada móvil estudiado (aunque confiesan los problemas para separar autobuses y coches). Entre los datos a destacar descubiertos con este estudio están por ejemplo que cada día en España se producen más de 2 millones de viajes


17

Big Data e IA en el sector de las telecomunicaciones interprovinciales de más de 50 km, con puntas de más de 4 millones en verano. Y entre los puntos más concurridos en la corta distancia están los viajes entre Madrid y Toledo que llegan a superar los 108.000 en una sola jornada de octubre. En el gráfico que te dejamos debajo puedes observar todos los resultados extraídos y cómo nos movemos los españoles cuando pasamos de provincia en provincia. Obviamente este no es el único resultado analizado. Es interesante saber también que el día de la semana que más viajes se realizan son los viernes (un 26% más que el resto de días laborables de media) y que la distancia media de los viajes interprovinciales es de 221 km en un día laborable de octubre. Y si vamos a ejemplos más pequeños llama la atención el caso del corredor entre Cádiz y Málaga que aprovechan miles de extranjeros cada día (es, sin duda, el movimiento interprovincial más repetido por extranjeros que pasan por Andalucía, o eso dice el estudio). Sin embargo, hay quien todavía duda tanto de su utilidad como de sus peligros ante la falta de legislación y control. Retos de las TICs Actualmente, el uso del Big Data está bajo constante experimentación y evolución. Gran parte de los retos a considerar dependen de los objetivos y aplicación del Big Data. En países en desarrollo, con bajo nivel de penetración de TICs, los retos pasan por la adquisición de datos y la estanda-

rización de los mismos para poder ser analizados. Es decir, en países en desarrollo es necesario incrementar la densidad de los datos. En esta situación, compañías del sector de las TICs han estado abiertas a distribuir sus datos, bajo cuidadosos procesos respetando la privacidad de los clientes, para explorar el posible impacto del Big Data en países de desarrollo. Sin embargo, la falta de Open Data y Open Standards dificulta mucho tener información de validación y comparación. Las iniciativas Big Data para el Desarrollo han crecido notablemente mediante acuerdos de colaboración y alianzas entre muchas instituciones y empresas, haciendo posible recolectar los datos y alinear a los actores para diseñar indicadores útiles para monitorización y gestión de decisiones. En países desarrollados tecnológicamente, la problemática es bien distinta: la gran cantidad de datos dificulta discriminar relaciones concretas dentro de un ecosistema tan masivo de datos. En este sentido, la investigación socio-económica a través de Big Data no puede ser simplemente analítica, sino que necesita de un profundo entendimiento del contexto socio-cultural y económico-mercantil para poder guiar, a través de hipótesis y modelos, los estudios con Big Data. La otra gran barrera es la propiedad y privacidad de los datos. Por un lado las empresas propietarias de los datos, conscientes de su valor como activo, en pocas ocasiones contemplan abrir y compartir datos. Por otro, la gran

sensibilidad de la gente sobre la privacidad añade grandes dificultades organizativas, normativas y tecnológicas a la compartición de datos, ya que estos han de pasar por complejos procesos de anonimización acorde con la legislación y los contratos entre los proveedores de servicios y sus clientes. Las mayores limitaciones Algunas de las limitaciones sobre la aplicación del Big Data son limitaciones de escala espacial y temporal en los datos recolectados, ya que aspectos de privacidad suelen limitar el detalle geográfico, por lo que no se pueden plantear políticas y efectos a pequeña escala ni, por ejemplo, centrados en un motivo específico, como puede ser el trabajo. También destaca la baja frecuencia de las actualizaciones: los datos se obtienen con frecuencias muy bajas (intervalos de tiempo muy largos), conllevando la dificultad de analizar cambios en la movilidad a corto plazo. Se observa, del mismo modo, una dificultad de mejora de las matrices con aforos: al ser volúmenes de tráfico en puntos concretos de la red, se desconocen el origen y destino de los viajes. En definitiva, el Big Data obtenido a raíz de la labor de los operadores de telecomunicaciones puede ser una pieza clave para ayudar a crear ciudades más sostenibles en las que predomine el transporte público y disminuya la contaminación provocada por vehículos individuales.

.

BigDatamagazine | Mayo 2021


18 Especial Big Data e IA en el sector de las telecomunicaciones / Vodafone Business

“El dato es el agua del siglo XXI” Vodafone es una de las grandes operadoras de telecomunicaciones que trabajan en nuestro país. Miles de empleados que generan un volumen ingente de datos cada día. Unos datos que hay que gobernar con aplomo para obtener de ellos el máximo rendimiento. TEXTO: José

N

Luis Arcángel

os acompaña el responsable de datos de una de las empresas más potentes del sector de la telefonía. Se trata de David González Group Head of Big Data Analytics & AI (CDO) for Vodafone Business

Big Data Magazine (BDM): ¿Cuál ha sido el proceso profesional que le ha llevado a su puesto actual en Vodafone? David González (DG): Estudié Inge-

niería de Telecomunicaciones en la Universidad de Oviedo. Ya desde el final de la carrera teníamos mucha actividad y asignaturas relacionadas con la estadística, incluso las optativas, fue un tema que me apasionó. Soy hijo de dos matemáticos, dos profesores que siguen en activo en la Universidad de Oviedo y yo creo que esa pasión por los números y las matemáticas ya venía de serie. Tuve la suerte de que en aquellos años nació en Asturias una empresa multinacional que se convirtió después en una BigDatamagazine | Mayo 2021

gran empresa que utilizaban los datos. Eran pioneros en aplicación de técnicas avanzadas de estadística y de analítica de datos para ayudar a otras grandes multinacionales en la mejora de la toma de decisiones. Esta empresa se llama Neo Metrics, fue pionera tanto a nivel nacional e incluso internacional en lo que es la consultoría analítica y posterior. Y unos años después fue adquirida por la gran multinacional Accenture. Yo tuve la suerte de incorporarme al proyecto por tener una relación estrecha con el fundador que había sido también alumno de mis padres en matemáticas. Ahí empezó digamos mi dedicación a este campo tan apasionante. En Accenture tuve la suerte también de que me pidieron irme a trabajar y liderar proyectos en Estados Unidos. Fui junto con otras personas de nuestro equipo a vivir primero a Nueva York y luego a Canadá donde trabajamos en proyectos muy interesantes. Para grandes multinacionales también del mundo de la banca, los seguros, las telecomunica-

ciones o el retail. Lógicamente estar en EEUU es estar en vanguardia. De ahí, me picó la aventura del emprendimiento y junto con el fundador de Neo Metrics emprendí para montar una startup que se llamaba Dive.tech. Una empresa también focalizada en la inteligencia artificial, en cómo aplicar técnicas muy avanzadas en el tratamiento de imágenes y de video. La startup sigue funcionando y adquirida también por otra gran multinacional. Decidí que era el momento de dar otro paso y otro cambio en mi carrera para seguir formándome y disfrutando de lo que hago. En ese impass tuve suerte y tuve distintas propuestas. Una de ellas me entusiasmó, fue esta de Vodafone Grupo. Poder incorporarme a una empresa tan grande, tan global, al equipo, la matriz, en la organización de grupo a nivel global que trabaja con todos los países donde tenemos actividad y presencia. Y dentro de las dos grandes áreas de la compañía yo me incorporé a Vodafone Empresas, que es


19

David González Group Head of Big Data Analytics & AI (CDO) for Vodafone Business el área digamos de mayor crecimiento ahora donde desarrollamos productos, tecnología y servicios para todo tipo de empresas.

“Mi equipo cada vez es más grande, ya somos una organización realmente importante y en esa parte yo me siento totalmente no solo respetado sino también respaldado”.

tejado si dijera que sí que veo empresas que desprecian el dato. Y a parte que no lo veo. De hecho, pasé muchos años trabajando en consultoría y de verdad pude confirmar que todas las empresas estaban invirtiendo cada vez más desde distintos ángulos y con distintos objetivos. Mi percepción es que todas las empresas lo están haciendo, me parecería muy raro encontrar alguna empresa que no lo haga. De hecho, mi frase siempre aquí es “el dato es el agua del siglo XXI”. Hay mucha gente que dice que es el petróleo como si fuese una fuente de riqueza, que es un ángulo probablemente más económico al dato. Yo hablo de que es el agua porque creo que las empresas que hoy en día no están utilizando bien la información, utilizando los datos de forma segura y eficiente, son empresas que están perdiendo una gran oportunidad en el mercado. Son empresas que van a sufrir, son empresas que van a tener muchas dificultades y muchos retos.

BDM: ¿Encuentra profesionales suficientemente preparados para incorporar a su equipo? DG: Tengo la gran suerte de que gran

BDM: ¿Cómo ha evolucionado la concienciación en las empresas en la necesidad de hacer un uso eficiente de los datos que generan y no despreciarlos? DG: Tiraría piedras contra nuestro

BDM: ¿Qué importancia tiene la figura del responsable de datos en tu empresa? DG: A nivel personal tengo mucha

suerte porque sí que me considero una persona pues muy privilegiada. En mi posición, como ya llevo varios años, cada vez tengo lógicamente más visibilidad y más control de todas las actividades que tienen que ver con datos. Mi equipo cada vez es más grande, ya somos una organización realmente importante y en esa parte yo me siento totalmente no solo respetado sino también respaldado. En mi caso yo reporto al Chief Digital and Trasformation Officer de Vodafone Grupo. Es decir, una persona que reporta directamente al CEO. Sin embargo, mis colegas de particulares, ellos sí que reportan a los directores generales de la unidad de negocio particulares. Por lo cual, te diría, que cun poquito de todo dependiendo del lugar en la organización donde estés y cuales sean tus objetivos.

parte de mi equipo, sobre todo, los líderes llevamos trabajando juntos durante muchos años. Es gente que pasa la frontera de la relación profesional y entran en la parte personal, son grandes amigos a la vez que brillantísimos profesionales. Por lo cual, tengo la fortuna de que retener talento más o menos lo podemos conseguir. En cuanto a acceder y fichar talento, es un reto muy grande porque ha cambiado completamente el mundo en este campo de trabajo. Las ofertas que hoy en día se manejan son muy grandes. Es decir, lo que nos pagaban a nosotros cuando teníamos 25 ó 26 años al inicio de nuestra actividad en el sector, comparado con lo que piden ahora los chavales de esa misma edad y experiencia, casi se ha multiplicado por 2.5 sino triplicado. Con lo cual no es fácil acceder al mercado, no es fácil fichar gente con talento, eso cuesta, es un reto grande. BDM: ¿Cómo es su día a día en Vodafone? DG: Me encanta, te podría decir que se

me pasan los días volando. Parte del trabajo al final yo creo que lo repartiría en tercios. Un tercio del trabajo tiene que ver con el trabajo con mi equipo. Alinear con mi equipo, entender el progreso de todas las iniciativas que llevamos, explicarles temas de estrategia y que quiero trasladar luego a iniciativas basadas en datos. Otro tercio es con otros equipos, otros compañeros, otras líneas de trabajo, otros programas. Lógicamente pues alinearnos, asegurarnos de que todo funciona bien. Si estamos en programas con muchos otros equipos o con países asegurarnos de que todo funciona bien, ver dónde podemos mejorar algunas cosas. Y otro tercio diría que es de puertas hacia fuera, entender el offering o entender la estrategia, entender la innovación que

queda fuera a través de partners. Mucho tiempo también dedicarlo a los clientes porque nosotros en la parte externa del data monetization tenemos muchos. BDM: ¿Qué requisitos cree usted que debe cumplir un CDO? DG: Te diría que no existe el CDO

perfecto. De hecho, hay un artículo que publiqué hace no mucho en Linkedin, que hablaba que el CDO es el trabajo de todos. Si, digo everyones job, y lo creo firmemente. Creo que todos tenemos que asumir que dentro de nuestro trabajo, de nuestra responsabilidad está el trabajar bien con el uso de datos, el uso de información. Las características de un buen CDO, tiene que ser, para mi es fundamental, que entiendas que la estrategia de datos no es tu estrategia ni es la estrategia de forma independiente de cómo usar datos. La estrategia de datos debe ser una consecuencia, una derivada de cuál es la estrategia de una compañía. Los objetivos de la compañía es lo que viene primero y después tiene que venir una estrategia de datos que ayude a ejecutar de forma satisfactoria esa estrategia. Cuando no vas de la mano de las prioridades de tu compañía, o cuando no vas de la mano de las prioridades de tu director general o de tu CEO, es muy complicado que vayan bien las cosas. BDM: Una de las responsabilidades de un CDO es gobernar el dato. ¿Cree que ese gobierno del dato debe ser una dictadura o una democracia? DG: Cualquier político te diría de la

democracia. Tiendo a pensar que el gobierno del dato tiene que ser una iniciativa que proteja los intereses comunes de todos los que formamos parte de la organización. Creo que en la democracia si explicas bien cómo vas a llevar a cabo la estrategia del gobierno del dato es difícil que tengas gente que vaya en contra de esa estrategia. Por lo cual es siempre y como era de esperar mucho más cerca de lo que es la democracia en cuanto al gobierno del dato.

.

BigDatamagazine | Mayo 2021


20 Especial Big Data e IA en las telecomunicaciones / Orange

“La figura del CDO es la piedra angular sobre la que se construye el proyecto de datos” Visión, liderazgo y pasión son los requisitos que pide Francisco Escalona a un CDO. Hace veinte años que desarrolla su labor profesional en Orange. En estos años, él y su equipo, han pasado de ser los raros, a ser imprescindibles.

L

Texto: José

Luis Arcángel

a vision más data freak del sector nos la trae Francisco Escalona, Head of Data Science & AI en Orange en esta entrevista que no te va a dejar indiferente.

Big Data Magazine (BDM): ¿Cuál ha sido el proceso profesional que le ha llevado a su puesto actual en Orange? Francisco Escalona (FE): Soy un

ingeniero al que le gusta el negocio. Siempre he estado navegando entre el mundo técnico y actividades de negocio, intentando unir esas dos visiones a veces tan separadas en la empresa. La fusión entre ambas son los datos, donde he encontrado mi hábitat natural. BDM: Desde su experiencia de dos décadas en tu empresa ¿Cómo ha evolucionado el manejo del dato hasta hoy? ¿Hasta dónde esperamos llegar? FE: Hemos sufrido la evolución natural.

Los datos siempre han sido muy importantes y teníamos equipos muy cualificados haciendo análisis descriptivos que ayudaban en la toma de decisiones. Con la llegada de las tecnologías Big Data dimos un salto cuantitativo muy importante pudiendo abordar nuevos casos de uso, tuvimos mucha más materia prima y una capacidad de cálculo que hizo extensivo la analítica predictiva. Por último, empezamos a hacer recomendaciones de lo que hay que hacer (analítica prescriptiva). Un ejemplo: al principio analizábamos por qué se iban los clientes, más tarde predecíamos qué clientes se iban a ir y ahora hacemos recomendaciones a nuestros equipos de primera línea (tiendas, centros de llamadas…) de cómo, cuándo y dónde se tiene que interactuar con nuestros clientes para que no se vayan. BigDatamagazine | Mayo 2021

Francisco Escalona, Head of Data Science & AI en Orange Los datos se han convertido en una piedra angular en nuestra estrategia. Personalmente, estoy convencido de que en el futuro solo habrá dos tipos de empresas, las data driven y las abocadas al fracaso

BDM: ¿Cómo ha evolucionado la concienciación en las empresas en la necesidad de hacer un uso eficiente de los datos que generan y no despreciarlos? FE: Sinceramente creo que la mayoría

de los CEOs están ávidos por usar los datos en la toma de decisiones. Un buen capitán debe tener instinto, pero si las decisiones se toman con datos que le respalden se sentirá mucho más cómodo. Nuestro rol como profesionales del dato es ayudar a nuestro capitán, pero nos tenemos que ganar la legitimidad y para ello nada mejor que demostrar que los datos aportan un valor. Una empresa con una estra-

tegia de datos madura e implementada cumple la regla del 5, los datos generan un 5% adicional en su Ebitda y la inversión que hace en proyectos de datos tienen un retorno de x5.

BDM: ¿Qué importancia tiene la figura del responsable de datos en tu empresa? FE: En el año 2016 se creó la figura

del CDO (Chief Data Officer) para definir e implementar nuestra estrategia de Datos. Desde el principio se concibió el Area de Datos como un Centro de Excelencia (CoE) que da soporte a toda la empresa en casos de uso de Analítica Avanzada e Inteligencia Artificial, gestión de tecnologías Big Data, Gobierno del Dato y desarrollo de las herramientas de Reporting. La figura del CDO es la piedra angular sobre la que se construye el proyecto de datos.


21

Francisco Escalona, Head of Data Science & AI en Orange BDM: En Orange, ¿cómo habéis impulsado la implantación de la cultura del dato? ¿Ha costado convencer a los diferentes departamentos? FE: Evidentemente al principio

éramos los raros, de hecho, nuestro equipo se llama los Data Freaks. La cultura es una parte muy importante y tenemos un equipo dedicado a ello que genera acciones formativas y lúdicas tanto en el seno de los Data Freaks como en el conjunto de la empresa que han ayudado muchísimo a la implementación de la cultura del dato trabajando mano a mano con el departamento de recursos humanos. También y no menos importante, es empezar a generar casos de uso con mucho retorno. Cuando un área ve que estamos trabajando con la de al lado y que están mejorando considerablemente sus resultados, se acercan para ver en qué le puedes ayudar y empiezan a pedir y hacer formación en temas de Datos.

BDM: ¿Encuentra profesionales suficientemente preparados para incorporar a su equipo? FE: El mercado está muy caliente,

pero es cierto que no tenemos excesivos problemas para captar perfiles. Los Data Freaks de Orange nos hemos convertido en una referencia dentro del ámbito del Big Data y la Inteligencia Artificial y muchos candidatos se acercan a nosotros para poder tener la posibilidad de trabajar y aprender de estos grandes profesionales. Dicho esto, muchos de los programas de formación son relativamente nuevos y cuando buscamos alguien con experiencia contrastada en un tema no hay nada como las referencias de nuestros propios Data Freaks.

BDM: ¿Cómo es su día a día en Orange? FE: La orientación al negocio lleva

una porción importante de mi tiempo. El identificar y aterrizar nuevas oportunidades como asegurarme de que lo que estamos haciendo tiene un verdadero impacto y que no nos quedamos en la “belleza” de la solución técnica. También dedico parte de mi tiempo en estar a la última para no perder la inquietud de cómo las nuevas iniciativas de ahí fuera nos pueden ayudar a ser mejores. A todo esto, hay que añadir la capa de dirigir un equipo tan grande en la que una parte importante de mi tiempo

“Los datos se han convertido en una piedra angular en nuestra estrategia. Personalmente, estoy convencido que en el futuro solo habrá dos tipos de empresas, las data driven y las abocadas al fracaso” la dedico a ser ese líder facilitador que mi equipo busca.

BDM: ¿Cuál es el mayor problema al que se ha enfrentado en su carrera profesional a la hora de manejar datos? FE: Sin duda la monetización de los

casos de uso. Concebir los casos de uso como un conjunto de extremo a fin que tiene en cuenta la “ultima milla”, es decir, cómo se tienen que modificar los procesos productivos de la empresa para aplicar los resultados obtenidos con Inteligencia Artificial de una manera eficiente y que generen un impacto en el Ebitda. Es esa modificación de tus campañas, de tus contratos con los proveedores, de tu forma de relacionarte con tus clientes y no clientes, etc., lo que hace rentable un proyecto.

BDM: ¿Cómo afecta el avance imparable de la Inteligencia Artificial en el manejo de datos de las empresas de su sector? FE: El año 2016 fue el punto de

inflexión para las grandes empresas de Telecomunicaciones y desde entonces el avance ha sido enorme. Desde entonces hemos hecho una gran inversión económica y en personas para poder sacar provecho del tsunami de datos que generamos. Aunque nosotros vamos en cabeza en la implementación de la Inteligencia Artificial, nuestros competidores no están muy rezagados y todos hemos comprendido que es una herramienta clave para nuestro negocio que utilizamos con un estricto cumplimiento de la normativa de protección de datos y respeto de los valores éticos.

BDM: ¿Qué requisitos cree usted que debe cumplir un CDO? FE: Visión, liderazgo y pasión. Visión

porque no es fácil imaginar en un ámbito que evoluciona tan rápido dónde queremos estar en 5 años y los

pasos que hay que hacer para llegar ahí. Liderazgo porque el dominio de actividad es nuevo y sin bases estables y tiene que guiar a “propios y extraños” en el camino a seguir; romper barreras para implementar la nueva tecnología en los procesos del corazón de la empresa. Pasión porque tiene que hacer de los datos su trabajo y su hobby, tiene que ser divertido echarle un rato fuera del trabajo a ir a una conferencia, aprender una nueva arquitectura o leer un paper para poder estar a la última y no quedarte atrás.

BDM: Una de las responsabilidades de un CDO es gobernar el dato. ¿Cree que ese gobierno del dato debe ser una dictadura o una democracia? FE: Digamos que una monarquía

parlamentaria. Tiene que haber una cabeza visible que defina la estrategia y los pasos a seguir con un comité centralizado de gobierno del dato, pero cada “poder” dentro de la empresa tiene que tener un rol fundamental y una responsabilidad, los data owners estarán distribuidos.

BDM: ¿Cuáles son los proyectos a medio-largo plazo de Orange para el aprovechamiento de los datos que obtiene? FE: Dado nuestro alto nivel de

madurez ya tenemos en producción la mayoría de los casos de uso de una gran empresa de telecomunicaciones. Nuestro siguiente paso es utilizar la tecnología para simplificar los procesos y facilitar la labor a nuestra primera línea. Además, estaremos muy atentos en ver cómo evoluciona la forma de comunicarnos con nuestros clientes con los nuevos interfaces (tipo Alexa, Google assistant, Siri, Whatssapp, Telegram…) y de la evolución del ecosistema digital dentro del hogar.

.

BigDatamagazine | Mayo 2021


22 Especial Big Data e IA en el sector de las telecomunicaciones / COITT

“Los datos más valiosos en el sector de las telecomunicaciones son los relacionados con el cliente” El sector de las telecomunicaciones es uno de los que más aprovecha el uso del Big Data en su día a día. Las compañías lo emplean para seguir mejorando y ser más competitivas. Los datos les sirven, además, para configurar sus estrategias.

R

Texto: Rocío

González

ubén Caravaca, secretario territorial del Colegio Oficial de Ingenieros Técnicos de Telecomunicación de la Región de Murcia y de la Asociación de Graduados e Ingenieros Técnicos de Telecomunicación de la Región de Murcia, que también formó parte de la Junta Directiva a nivel nacional nos cuenta los retos a los que se enfrenta el sector con el empleo del Big Data y de la Inteligencia Artificial. Big Data Magazine (BDM): Como ingeniero de Telecomunicación, imagino que tu relación con el mundo del Big Data habrá sido continua, ¿no? Rubén Caravaca (RC): El término Big

Data, es relativamente muy reciente, algunos lo sitúan a mediados de los 80 y otros a principios de los 90. Yo empecé a escucharlo con fuerza alrededor de 2016 donde el big data representaba los activos de la información caracterizados por las tres Vs: Volumen, velocidad y variedad, tan altos que requieren una tecnología específica y métodos analíticos para su transformación en valor. BDM: ¿Podrías detallarme más sobre tu relación con el mundo del Big Data y de la Inteligencia Artificial? R.C.: En estos últimos 5 años, mi desa-

rrollo profesional ha estado ligado a la creación de software, por lo que muchos de los proyectos desarrollados, en algún momento han estado relacionados con estas nuevas tecnologías emergentes. Las empresas y negocios son conscientes cada vez más de la utilidad de estas herramientas para hacer crecer su negocio. BDM: ¿Qué es para ti el Big Data? R.C: Creo que todos en algún momento

de nuestra vida hemos escuchado la

BigDatamagazine | Mayo 2021

frase “Información es Poder”. El big data para mí es esa herramienta que posibilita tratar rápidamente una enorme cantidad de datos, de una inmensa variedad de fuentes, y transformarlos en información útil.

BDM: ¿Cuáles son las principales posibilidades que brinda el Big Data aplicado al sector de las telecomunicaciones? R.C: En mi opinión, diría que son el

análisis, que permite valorar y predecir comportamientos de los clientes. El almacenamiento, que posibilita la gestión de importantes cantidades de datos manteniendo altas prestaciones en velocidad de procesamiento gracias a una estructura flexible con la que poder gestionar todo tipo de información. Y por último, la automatización (Inteligencia Artificial y el Machine Learning), que proporciona un ahorro de costes en infraestructura y hardware en general.

BDM: ¿Qué hay de los datos que puede extraer el Big Data del sector de las telecomunicaciones? R.C: Un caso de uso evidente es para-

metrizar a los usuarios conociendo sus

gustos, empleos, relaciones sociales, intereses, sus patrones de comportamiento en red, etc. para crear productos o estrategias de marketing customizadas para los diversos perfiles. Otro caso es la interpretación y recogida de los datos proporcionados por IOT (Internet of Things) aplicados tanto al M2M (Machine-to-Machine), M2B (Machine-to-Business) y M2P (Machine-to-People).

BDM: ¿Qué datos consideras que son los que mayor utilidad tienen en este sector y por qué? R.C: En mi opinión, hoy en día los datos

relacionados con el cliente y el usuario son los más valiosos dentro de este sector, ya que con estos datos se puede analizar el comportamiento de ambos y así, poder ser más óptimos a la hora de ofrecerles tanto bienes como servicios, debido a que todo gira alrededor del consumo mayoritariamente. La Unión Europea es consciente de esto y por ello existe el Reglamento General de Protección de Datos, que es el reglamento europeo relativo a la protección de las personas físicas en lo que respecta al tratamiento de sus datos personales y a la libre circulación de estos.


23

Rubén Caravaca, secretario territorial del Colegio Oficial de la Región de Murcia BDM: ¿Cuál es el mayor reto tecnológico que afronta el Big Data en el sector de las telecomunicaciones? R.C.:Actualmente, las telecomunica-

ciones se encuentran con el reto del crecimiento enorme del flujo de datos que transportar y de la velocidad de estas transmisiones, que requiere de una mejora en las infraestructuras de las telecomunicaciones. BDM: ¿Y qué hay de los peligros del Big Data en el sector de las telecomunicaciones? R.C: Creo que este es un tema muy

extenso para debatir, pero por dar una pincelada podríamos hablar de peligros como la discriminación en base a resultados de analisis del big data, brechas de seguridad, el anonimato es cosa del pasado, monetización de datos, opacidad de los algoritmos y código fuente, mala interpretación de los analisis, entre otros peligros.

BDM: ¿No crees que genera también una sensación de que las empresas del sector disponen de demasiada información sobre los usuarios? R.C: Por supuesto, es por ello que

Europa creó el RGPD como comentamos antes para darnos una herramienta legal para proteger nuestra privacidad, aun así, cada vez que profundizas más en este tema, estamos ante una sensación de “Sin Salida”. Como decía Kaspersky, compañía privada de ciberseguridad: “Si cualquier organización gubernamental o comercial emplea algoritmos de Big Data y no te gusta, no puedes decir: “Hasta aquí, lo dejo”. Nadie te va a preguntar si quieres ser parte de la investigación del Big Data o no. O peor aún: no te van a decir si ya eres parte de ella”.

BDM: ¿Puede evolucionar más el análisis, prospección y tratamiento y recogida de información en el sector de las telecomunicaciones? R.C: Por supuesto, el límite es la imagi-

nación

BDM: ¿Cómo ves el futuro en este ámbito? R.C: Como dicen muchos expertos, el

futuro es la analítica aumentada, que utiliza el aprendizaje automático y la inteligencia artificial para mejorar el análisis de los datos mediante la búsqueda de un nuevo método de creación, desarrollo y compartición de análisis de datos.

BDM: Se dice que el Big Data es ‘el petróleo’ para el sector de las tele-

comunicaciones, ¿consideras que esto es así? R.C: A estas alturas, ya no es una

opinión personal. El Big Data es el petróleo no solo para el sector de las telecomunicaciones, sino para todos los sectores, ya que supone una ventaja sobre la competencia.

BDM: ¿Qué cambios crees que deberían introducirse en las empresas de telecomunicaciones para conseguir ser una compañía ‘Data-driven’? R.C: Un enfoque “data-driven” (impul-

sado por datos), significa que toma decisiones estratégicas basadas en análisis de datos e interpretación, por lo tanto, las empresas que están buscando capacidades en cuanto a la captura, almacenamiento y procesamiento del dato y aquellas que lo consigan, habrán alcanzado una ventaja sobre su competencia. Es lo que se denomina Ventaja Analítica, y es entonces cuando se podrán considerar como una compañía con un enfoque ‘Data-driven’. BDM: ¿Han conseguido las empresas de telecomunicación una inteligencia de negocio (Business Intelligence) adecuada gracias al uso y análisis de los datos? ¿Qué opinas de esto? R.C: Todo el sector de las telecomunica-

ciones es consciente de las posibilidades del BI, y en este momento hay muchas soluciones comerciales en el mercado, ya que es una tecnología madura.

BDM: Desde el Colegio de Ingenieros Técnicos, ¿cómo estáis gestionando la importancia que cada vez más tienen conceptos como el Big Data, la IA o el IoT? R.C: El Colegio forma parte de la

formación continua que tiene el ingeniero a lo largo de su trayectoria profesional, además de dar soporte tanto legal como técnico a este nuevo tipo de proyectos. Por otro lado, el Colegio es un evangelizador más de estas tecnologías, haciendo jornadas de puertas abiertas, webinars, congresos, además de otros eventos.

BDM: ¿Debe el usuario temer la evolución del Big Data? R.C: Tal vez sí, pero señalando “Temer”

como precaución.

BDM: ¿Por qué? R.C: Recordando lo dicho sobre los

peligros del Big Data, aunque el usuario tiene el RGPD para proteger sus datos, esta tecnología, como cualquiera otra, tiene ciertos riesgos o peligros

asociados. Pero no quiero que se me malinterprete, el Big Data tiene muchísimos beneficios, pero está sujeto a un uso inadecuado.

BDM: ¿Y relacionado con el sector de las telecomunicaciones teniendo en cuenta que la compañía telefónica, por ejemplo, ya maneja la mayor parte de la información personal de sus clientes? R.C: Las compañías de telecomuni-

caciones en general ya usan datos nuestros para crear productos o estrategias de marketing customizadas. Ahora bien, podemos estar tranquilos, y poder ejercer nuestro derecho sobre nuestros datos gracias a la LOPD (Ley Orgánica de Protección de Datos de Carácter Personal).

BDM: ¿Cómo crees que sería una correcta evolución del sector de las telecomunicaciones en el uso de la ciencia de datos? R.C: Partiendo de que el Big Data no

es solo ciencia de datos sino que es una parte de un conjunto de piezas, diría en mi opinión, que no existe un camino único para una correcta evolución en el sector de las telecomunicaciones, sino que la demanda o necesidad futura será la que fije ese camino.

BDM: ¿Cómo ves dentro de 10-20 años el empleo del Big Data en el mundo? R.C: La tendencia nos apunta hacia

el análisis de datos “oscuros” o datos inutilizados, que son los datos de origen no digital y que han sido descartados por su falta de valor. Por otro lado, hablaremos del análisis cuántico con superordenadores que pueden llegar a ser capaces de procesar una gran cantidad de información en poco tiempo. Se abrirá el acceso universal a herramientas de Big Data, tanto organizaciones gubernamentales, pequeño y mediano comercio, organizaciones de salud públicas, industria de la salud, entre otras, permitiéndoles beneficiarse de esta tecnología. Los avances tecnológicos tanto en IA y BI permitirán un aumento de automatización de análisis, eliminando de raíz las barreras de entrada al análisis big data y abriéndolo a todos los usuarios de negocio, no solo a los científicos de datos. Para finalizar, señalar que el Big Data será aún más importante en el futuro, por el aumento de dispositivos (IOT) conectados a internet que generan grandes cantidades de datos a analizar.

.

BigDatamagazine | Mayo 2021


24 Especial Big Data e IA en el sector de las telecomunicaciones / MásMóvil

“El 5G nos va a cambiar la vida” Entrevistamos a Daniel Domínguez, Head of BI & Analytics del Grupo MásMóvil, que nos descubre las implicaciones del 5G en la gestión de la información.

E

Texto: Rocío

González

l despegue definitivo de la tecnología 5G supondrá una revolución para el usuario final y para el sector de las telecomunicaciones. Conocemos más sobre su impacto a través del responsable de BI de MásMóvil.

Big Data Magazine (BDM): ¿Por qué es importante el empleo del Big Data y el análisis de los datos en el sector de las telecomunicaciones? D.D.: Más que importante yo diría

que es crítico. Las empresas de telecomunicaciones tienen que estar en la vanguardia tecnológica para ser competitivas y el uso del dato para tomar decisiones de negocio es una pieza clave para no quedarse atrás. El uso de herramientas de Big Data y analítica avanzada nos permite conocer mucho mejor a nuestros clientes, anticipar riesgos y oportunidades de negocio, hace un uso eficiente de nuestra red, encontrar problemas o cuellos de botella en procesos para así poder optimizarlos, identificar las causas de insatisfacción o fuga de clientes e implantar medidas que las eviten, medir el impacto real de cualquier iniciativa, etc… En definitiva, tomar decisiones en base a hechos y no a intuiciones. Con un buen ecosistema de datos y la cultura y herramientas necesarias las posibilidades de mejora son enormes BDM: ¿Cuándo empezó a valorarse el uso de los datos en MasMóvil? D.D.: Antes de mi entrada en el grupo ya

se venía trabajando de forma importante desde el punto de vista del manejo de datos, pero ha sido en los últimos dos años donde se ha tratado de dar un salto cualitativo importante en este aspecto. BDM: ¿En qué ha influido el uso del Big Data en la empresa en la que trabajas? D.D: Hemos impulsado la implantación

de una cultura Data-Driven en todas las áreas de la organización, dotando a las mismas de las herramientas, capacidades y perfiles necesarios que puedan evolucionar a una gestión basada en el análisis de datos. Aplicamos Big Data

BigDatamagazine | Mayo 2021

para mejorar la propuesta comercial que ofrecemos a cada usuario, intentando adaptarnos a su perfil y ofreciendo ofertas y contenido relevante por los canales adecuados.

BDM: ¿Cuántos datos sois capaces de procesar al día? D.D: Ahora mismo estamos procesando

más de 130TB de datos al día, con alrededor de 18.000 consultas diarias BDM: De toda la información que analizais a diario, ¿cuál es la más importante o relevante? ¿Por qué? D.D: Creo que, en general, no hay información más importante que otra. Siempre depende del enfoque o el problema que se quiera resolver o monitorizar. La clave es poder disponer de datos relativos a áreas diferentes de la organización en un mismo sistema de forma que identificar correlaciones sea sencillo y eficiente. Por supuesto, toda la información que proviene del uso de nuestra red es muy importante y nos aporta mucho valor para obtener patrones de consumo de nuestros clientes e identificar tendencias que nos den información de cara a evitar congestión o saturación. Pero donde realmente vemos potencia es cuando cruzamos toda esa información con la que se obtiene, por ejemplo, de las llamadas a atención al cliente. Uniendo ambos mundo podemos, por ejemplo, aportar información a los agentes sobre el estado de la red o priorizar sobre aquellos KPIs de red que vemos que tienen más impacto en el servicio a clientes. Otro área de información que consideramos de gran valor son todas las interacciones que tenemos con nuestros clientes en cada uno de los canales. A día de hoy disponemos de herramientas que nos aportan total trazabilidad sobre cualquier interacción que tenemos con cada uno de los clientes, ya sea por teléfono, email, SMS, whatsapp o redes sociales y, gracias a eso, podemos seleccionar los canales de contacto preferidos por nuestros usuarios, anticipar posibles causas de insatisfacción o baja para actuar sobre ellas o dimensionar nuestros canales de una forma más eficiente.

BDM: ¿Cuál es el límite en el sector de las telecomunicaciones entre análisis de datos y privacidad? D.D.: Para nosotros el límite lo marca

por un lado, la normativa de protección de datos y, por otro, el hecho de que usamos el análisis de datos con un enfoque en mejorar la experiencia de usuario de nuestros clientes. Desde el punto de vista normativo, todas las áreas trabajan de forma intensiva con nuestro DPO (Data Protection Officer) y cualquier iniciativa de análisis de datos de clientes sigue un proceso exhaustivo de preparación, análisis y monitorización para asegurar que estamos haciendo las cosas de forma correcta. Los datos más sensibles se encuentran más restringidos y sólo tienen acceso a los mismos los procesos o áreas estrictamente necesarios, mientras que para el resto de análisis usamos información anonimizada y sólo de aquellos clientes que nos han manifestado su consentimiento en cuanto al uso o tratamiento de su información. BDM: ¿Cómo se puede tranquilizar al usuario de que sus datos estarán seguros y no habrá fugas de tal información? D.D: La realidad, aunque cueste


25

Daniel Domínguez, Head of Business Intelligence & Analytics de MásMóvil asumirla, es que a día de hoy nadie puede estar 100% seguro. Cada semana vemos nuevos ataques a grandes empresas, entidades gubernamentales, etc. y es un hecho que tanto empresas como ciudadanos tenemos que tomar mucha más conciencia de la importancia de la ciberseguridad. Lo que sí podemos asegurar desde Masmovil es que nosotros vemos el dato como un activo central dentro de nuestra estrategia, y por tanto estamos poniendo todos los medios tecnológicos y los procesos de control necesarios para que la seguridad sea un pilar muy importante, con un enfoque de protección de datos basado en máximos, que engloba a toda la compañía y que incluye procesos de revisión y auditorías constantes. Un ejemplo de la importancia que damos a la privacidad de los datos de nuestros clientes es que nosotros, a diferencia de otras empresas del sector, no estamos comercializando datos internos de clientes, ni siquiera de forma agregada o anonimizada. BDM: ¿Hay espacio para seguir innovando en el sector de las telecomunicaciones? ¿Qué papel pueden jugar el Big Data, la IA y el IoT en todo esto? D.D: Por supuesto. ¡Y mucho! Aunque

el sector de telecomunicaciones es uno de los que más avanzado está en transformación digital existe aún mucho recorrido. Las tecnologías de reconocimiento de voz, procesamiento del lenguaje, chatbots, etc permiten seguir mejorando las interacciones con los clientes y hacerlas más eficientes. La mayor capacidad de procesamiento nos da más posibilidades a la hora de mejorar el funcionamiento de nuestra red. El 5G y el IoT incrementarán el número de dispositivos conectados y el volumen de tráfico, lo que abre muchas posibilidades relacionadas con un mayor conocimiento de nuestros clientes e incluso con nuevas líneas de negocio. La verdad es que miremos donde miremos todavía hay mucho que mejorar.

BDM: De todos los datos que manejáis, ¿cómo ha evolucionado el uso de la telefonía móvil y el empleo de los datos móviles entre los españoles? D.D: La verdad es que dado lo ocurrido

en todo el mundo en el último año y medio, con la población confinada, movimientos restringidos y un incremento muy importante del teletrabajo,

“Con el 5G veremos usos móviles cercanos a la ciencia ficción” es difícil sacar conclusiones sólidas, porque los patrones de consumo han cambiado radicalmente durante algunos meses. Sin embargo sí es claro que tanto la penetración del smartphone como su uso están en auge. Hoy en día más del 90% de la población adulta tiene un smartphone (por encima de la media europea) y su uso se ha incrementado mucho debido al auge de las tarifas con gigas “infinitos” y al boom de las apps. Ya no usamos el móvil sólo para comunicarnos. También para pagar, para orientarnos, para ver contenidos audiovisuales, para formarnos, para hacer ejercicio, para vigilar nuestro hogar, etc. Es verdad que la penetración de algunos de estos servicios es mucho más alta en los colectivos más jóvenes pero poco a poco se irá generalizando y cuando finalmente despegue el 5G en toda su amplitud estaremos hablando de otros usos más cerca de las películas de ciencia ficción, pero que realmente ya son una realidad, como la traducción automática en tiempo real o la interacción en mundos virtuales por poner dos ejemplos.

BDM: Hay quien dice que la auténtica revolución del 5G no está en los datos, ¿estás de acuerdo con esto? ¿Por qué? D.D: En parte. Creo que el tema de los

datos es parte de la revolución del 5G pero la pieza central es el incremento de la velocidad de conexión a mínima latencia, lo que va a multiplicar el número y la tipología de dispositivos conectados y, en cierto modo, nos va a cambiar la vida. El nivel de interacción digital va a crecer exponencialmente y hoy en día existe un boom de investigación en casos de uso en sectores tan diversos como la medicina, el sector del ocio y entretenimiento, la automoción, o la electrónica de consumo. Por supuesto, todo esto va a generar una ingente cantidad de información, y en cada sector y empresa tendremos que estudiar cómo aprovechar estos nuevos datos en nuestros modelos de negocio, pero es importante destacar que más datos no quiere decir mejores resultados, sino que tenemos que ser capaces de destilar los que sean realmente importantes y aprovecharlos.

BDM: ¿Qué implicaciones tiene desplegar en todo el mundo la red 5G? D.D: Muchas. Ya he comentado las

implicaciones que tendrá para todos nosotros como ciudadanos en cuanto a nuestra relación con el mundo digital. Pero yendo más allá, existen implicaciones incluso a nivel geoestratégico. El 5G requiere de un despliegue masivo de infraestructura a nivel mundial y las inversiones tanto en dicha infraestructura como en el I+D relacionado sólo están al alcance de los grandes players a nivel mundial. Huawei lidera la creación de patentes y ya vimos hace algunos meses como esta empresa era vetada en Estados Unidos, un primer síntoma de la batalla comercial que se está dando por el control de esta tecnología. Veremos cómo evoluciona esto en los próximos meses porque el despliegue de antenas es el principal cuello de botella que existe ahora mismo. BDM: Como

responsable de BI en MasMóvil, ¿de qué manera está ayudando el BI a vuestra empresa de telecomunicación? D.D: Nos está ayudando en muchos

aspectos. Parte de la clave de crecimiento que ha tenido el grupo en los últimos años está basada en la cultura del dato que se ha implantado. Tener la información consolidada nos da mucha agilidad a la hora de priorizar iniciativas de negocio en función de su impacto y el hecho de que todas las áreas cuenten con capacidades de explotación de la información ha supuesto un salto cualitativo en la manera en la que se gestiona la compañía, tanto a nivel estratégico como táctico.

BDM: ¿Una predicción de la evolución del uso del dato en este sector en los próximos 20 años? D.D: Análisis y acciones cada vez más

cercanas al tiempo real, mucho foco en la privacidad y la seguridad de la información, robotización de procesos, cada vez más demanda de perfiles especializados, cada vez más mezcla entre el mundo del desarrollo de SW y el mundo del data y explosión en el volumen y variabilidad de datos disponibles.

.

BigDatamagazine | Mayo 2021


26 Especial datos e IA en el sector telco / Telefónica

“Concienciación de la necesidad, es el primer paso para la transformación digital” En noviembre de 2019 fue nombrado CDO, cargo que desde 2016 ha ocupado el conocido hacker, Chema Alonso. En ese momento, Alonso pasó a dirigir la Unidad Global de Consumo Digital, de la que forma parte Francisco José Montalvo, Paco, como le conocen todos. Su misión, explotar las capacidades comunes de los productos basados en datos y maximizar las sinergias entre las diferentes operaciones de Telefónica en el mundo. Eso sí, siempre con una “obsesión por la seguridad y la privacidad”.

C

Texto: Mari

Gómez

omo Chief Data Officer, Montalvo también seguirá siendo responsable de 4ªPlataforma, un ecosistema del dato que ha permitido a la compañía, con casi un siglo de historia, obtener grandes eficiencias a nivel interno en procesos como la personalización de la oferta, o la integración de nuevas tecnologías en los servicios de atención al cliente. Big Data Magazine (BDM): ¿Cómo ha sido la trayectoria de Telefónica desde que apareciera en escena la figura del CDO hasta crear la Unidad Global de Consumo Digital de la que formas parte? BigDatamagazine | Mayo 2021

Paco Montalvo (PM): Nos remontamos

a 2016, fue el momento en que la figura del CDO comienza a tener presencia en la compañía. Con la llegada de nuestro presidente, José María Álvarez-Pallete, se refuerza la división tecnológica y, además, con el objetivo de impulsar esta transformación y potenciar la innovación de nuevos productos y servicios, se crea la CDCO.

BDM: ¿Crees que las empresas en España están concienciadas sobre la importancia de los datos y, sobre todo, de disponer de herramientas para gestionarlos correctamente? PM: Creo que la GDPR ha llevado

a muchas empresas a entender que tienen una responsabilidad sobre un

tipo de dato concreto. Hoy en día todo el mundo sabe que si tratas con datos personales tienes que hacerlo según marca la GDPR, en el caso de Europa. Además, el ruido que existe alrededor de la privacidad está haciendo que las empresas se tomen esto realmente en serio. Ser consciente, por ejemplo, de la capacidad de las redes sociales para manipular - ya sea de forma guiada o espontánea - los estados de opinión, genera una serie de preocupaciones. Aunque todavía hay muy pocas organizaciones que hayan llegado a la madurez de que para gestionar toda esta información, necesitas un ecosistema del dato, en los últimos años se ha avanzado mucho y ya existen compañías como Telefónica Tech que ayuda a


27

Paco Montalvo, Chief Data Officer de Telefónica otras organizaciones a poner todo esto en marcha de una manera muy sencilla.

BDM: Una de las claves de la transformación digital de Telefónica es el desarrollo de la denominada 4ª Plataforma. ¿En qué consiste? PM: Lo que nos aporta 4ªPlataforma es

una reducción de la fricción, es decir, independientemente del servicio que yo esté utilizando, lo utilizo siempre de la misma manera. Con un identificador que pertenece al universo de Telefónica, que puede ser mi número de teléfono, el correo electrónico con el que estoy registrado en diferentes servicios, la dirección IP que se me ha otorgado en el entorno del hogar para saber que éste es el decodificador de los servicios de Movistar Plus… Y finalmente, esta reducción de fricción nos lleva a una experiencia de usuario diferencial.

BDM: ¿Cómo utilizáis desde Telefónica el manejo de datos y la Inteligencia Artificial en vuestro día a día? PM: Es una realidad. Tenemos una

política de gobierno del dato muy sólida. Sabemos qué datos tenemos, cuál es su estado de madurez, cuál es su frecuencia de actualización… Para ello, nosotros utilizamos aplicaciones basadas en Inteligencia Artificial, principalmente en cuatro ejes: analítica, que nos dice si estamos sufriendo una degradación del dato, o sea, algo que está pasando en el negocio y que no debería de ser así; la eficiencia, es decir, necesitamos hacer lo mismo o más, cada vez con menos recursos y, en este sentido, la automatización de tareas es fundamental; la actividad comercial, saber cuáles son los nuevos productos que voy a lanzar y a qué clientes les puede interesar; y, por último, la interacción con nuestros clientes, para lo que está Aura, nuestra asistente virtual que tiene como objetivo atenderles allá donde estén. BDM: En tu opinión ¿qué es imprescindible para que otras

“En un contexto post pandémico todos hemos visto que, o estamos preparados digitalmente, o perdemos a nuestros clientes y nuestro negocio” instituciones logren esa transformación digital tan necesaria y qué papel tiene la incorporación del Big Data y la IA en ella? PM: Lo primero y más importante es

una concienciación de la necesidad. Estamos en un entorno altamente competitivo en el que la eficiencia es lo que te va a diferenciar. Y ésta viene dada principalmente por la tecnología. Todo aquel proceso que seas capaz de tecnificar y más adelante, automatizar, será un proceso optimizado. Por eso, el apoyo externo de compañías que tengan este conocimiento, es el que te va a permitir acelerar esa transformación.

BDM: Desde vuestra experiencia previa, ¿qué diferencia hay en el manejo de datos de una compañía del sector de las telecomunicaciones como Telefónica y una compañía que opere en otro sector? PM: Aunque la GDPR aplica a todas

las empresas, independientemente de su sector, la industria telco tiene una particularidad y es que generamos muchísimos datos y, una gran parte, de carácter personal. Esto hace que seamos uno de los sectores más regulados. Dicho esto, tenemos una ventaja muy clara. Estamos en una posición privilegiada porque dominamos la tecnología, pero tenemos un inconveniente muy grande y es que la regulación a la que tenemos que someternos es muy rígida y eso hace que la transformación interna sea muy exigente. BDM: ¿Cuáles son las herramientas con las que trabaja Telefónica para

“Ponemos al servicio de los demás el conocimiento que la propia Telefónica ha adquirido en su transformación digital interna, para acelerar esta transformación en otras organizaciones”

proteger toda la información de la nube? PM: Más que herramientas, me gustaría

hablarte de procesos. Lo primero que hacemos es garantizar que tenemos arquitecturas que soportan que solo la persona que dispone de la acreditación adecuada, puede acceder a determinados medios; y, por otro, aseguramos que esta arquitectura no puede ser accedida pon ninguna persona externa para manipularla. Además, realizamos procesos de hacking interno. Tenemos a diferentes hackers que están probando continuamente las soluciones que han sido diseñadas por otros. También pasamos auditorías externas y, lo más importante, tenemos una obsesión por la seguridad. Nosotros trabajamos para Chema, que viene precisamente del sector de la ciberseguridad y para él, es la base de todo. Con ese concepto trabaja todo el equipo y, si además, le sumamos nuestra preocupación por la privacidad, el resultado son productos extremadamente sólidos. BDM: ¿Cómo afecta el avance de la Inteligencia Artificial al manejo de los datos en vuestro sector? PM: El manejo de datos está en cons-

tante evolución. En nuestro sector especialmente, este tipo de tecnología cambia muy rápido. Las herramientas de Machine Learning, de Deep Learning, cada vez son más eficientes y la IA más explicable. Para Telefónica, esto es fundamental porque nosotros no aplicamos modelos que no seamos capaces de explicar, y tenemos que contar cuáles son los datos de origen, cómo es el algoritmo que ha sido diseñado y cómo, en caso de utilizar Deep Learning, esa la red neuronal ha llegado a una determinada conclusión. Creo que el avance de la IA va a ayudar a que las empresas cada vez sean más eficientes, pero para que esto ocurra las compañías deben apostar e invertir en una transformación interna. Es el único camino para dejar de hablar de legados.

.

BigDatamagazine | Mayo 2021


28 Entrevista / Dataiku

“La IA es un activo fundamental para reiniciar los negocios en el mundo actual” Dataiku es una de las empresas de referencia en los sectores de la inteligencia artificial y el aprendizaje automático. Ofrece la posibilidad de que de manera sencilla se entiendan los miembros del equipo de científicos de datos y los del departamento de negocio.

D

Texto: Redacción

urante el evento IA en Femenino organizado por Big Data Magazine y AI-Network conocimos a Andrea Santiago Customer Success Manager en Dataiku. Ahora nos cuenta todo sobre una de las empresa que más fuertemente está apostando por implantarse en nuestro país. Big Data Magazine (BDM): Para quién no conozca aún a Dataiku, ¿quiénes sois y qué necesidad cubre la plataforma? Andrea Santiago (AS): Dataiku

es una solución integral que permite realizar proyectos de AI cubriendo todo el flujo de datos desde su preparación, BigDatamagazine | Mayo 2021

pasando por desarrollo de modelos, la puesta en producción, la escalabilidad y la visualización de informes. Es una solución colaborativa en la que los perfiles más técnicos, como un Data Scientist, van a poder interactuar con los usuarios de negocio manteniendo la gobernanza de los datos, teniendo como resultando una mayor cantidad de proyectos en producción. Cientos de empresas en todas las industrias utilizan Dataiku para respaldar sus operaciones comerciales esenciales y asegurarse de que sigan siendo relevantes en un mundo cambiante, incluidos los modelos que impulsan la detección de fraudes, la prevención de la pérdida de clientes, el mantenimiento predictivo, la

optimización de la cadena de suministro y mucho más. BDM: ¿Cuál es vuestra apuesta por el mercado español? AS: Dataiku tiene como objetivo ayudar

a las empresas españolas a potencializar sus habilidades por medio de la implementación de la IA. Sabemos que después del 2020, una de las preguntas más importantes es: ¿cómo podrían las organizaciones pensar ahora mismo en hacer una inversión en IA? La realidad es que muchas empresas se ven interrumpidas fácilmente por un gran cambio (ejemplo reciente), y armar la empresa para hacer frente a este tipo de cambios y afrontar los desafíos futuros a través de la IA empresarial tiene sentido.


29

Andrea Santiago Customer Success Manager en Dataiku La IA ya no es algo agradable o algo con lo que los científicos locos experimentan en equipos aislados; es un activo organizacional fundamental que es necesario para reiniciar los negocios en el mundo actual, encontrando más eficiencia, oportunidades comerciales y velocidad de generación de valor. Dataiku es la plataforma líder en habilitación y operaciones de IA que sustenta las estrategias de IA de las principales organizaciones en todo el mundo. Tenemos 400 clientes y 40 000 usuarios en todo el mundo de empresas. Dataiku emplea a más de 650 personas en oficinas en Nueva York, París, Madrid, Londres, Múnich, Sídney y Singapur. Dataiku, una plataforma única para… Todos • Científicos de datos • Arquitectos de datos y ML • Ingenieros de datos • Analistas de negocio • Líderes de análisis • Interesados en el negocio ...y más! Dataiku, una plataforma única para cada caso de uso • Marketing, ventas y publicidad • Servicio de atención al cliente • Recursos Humanos • Recomendación de contenidos • Detección de anomalías y fraudes • Optimización de la cadena de suministro • Mantenimiento predictivo • Nuevos negocios/exploración y desarrollo de productos • Gobernanza y seguridad de los datos ...y más!

BDM: ¿Cuáles son vuestros pilares de vuestra visión empresarial? AS: Inclusividad, colaboración y demo-

cratización, en Dataiku creemos que la IA debería de ser accesible para todos desde los constructores de IA hasta los consumidores de IA. Creemos en aprovechar la IA a una escala lo suficientemente grande como para convertirse en un activo organizacional. Es decir, datos en manos de muchos, no de unos pocos de élite. Como tal, creamos una plataforma para permitir a las personas donde quiera que estén y sean quienes sean (técnicos o no codificadores, data cientista, ingenieros, arquitectos o analistas). Dataiku es la ubicación central para equipos distribuidos o remotos, que proporciona recursos para trabajar juntos de manera más rápida e inteligente para una organización basada en datos

Agilidad y elasticidad, los tiempos de cambio económico tienden a exponer a las empresas que no pueden adaptarse fácilmente, por lo que la agilidad y la elasticidad en los esfuerzos de IA son fundamentales, ahora más que nunca. El enfoque exclusivo de abstracción de datos y computación de Dataiku apoya a los clientes en su camino hacia la IA empresarial al garantizar la escalabilidad necesaria para procesar cantidades masivas de datos, grandes cantidades de uso concurrente y servicios implementados. IA Responsable, Dataiku apoya a las empresas en la construcción de una estrategia de inteligencia artificial que sea responsable (es decir, gobernable, sostenible para el futuro, caja blanca y libre de sesgos no deseados). A medida que evolucionen las estrategias en torno a la IA responsable, tanto para las empresas como para los gobiernos y los reguladores de todo el mundo, aumentará la necesidad de herramientas que puedan adaptarse y ser la base o la columna vertebral de esas estrategias. Dataiku pone la IA responsable al frente y al centro, dando prioridad a las funciones que ayudan a las organizaciones a construir una IA fundamental para el futuro.

BDM: ¿Qué productos ofrecéis? AS: Dataiku DSS es la plataforma todo

en uno de data science y machine-learning que reúne a todos para impulsar un impacto empresarial transformador. Dataiku DSS permite realizar proyectos de AI con una interfaz sencilla cubriendo todo el flujo de datos desde su preparación, pasando por desarrollo de modelos, puesta en producción, escalabilidad y visualización de informes. Es una solución colaborativa en la que los perfiles más técnicos, como Data Scientist, van a poder interactuar con los Usuarios de negocio manteniendo la gobernanza de los datos, resultando en una mayor cantidad de proyectos en producción. BDM: ¿A qué tipo de empresa van dirigidas las soluciones de Dataiku? AS: Dataiku es para todos los sectores,

todo tipo y tamaño de empresa. Dataiku es una solución para los equipos que desean ofrecer un análisis de datos avanzado utilizando las últimas técnicas a escala de big data. Dataiku inculca una cultura de trabajo con datos en toda la empresa al empoderar a: expertos en tecnología y expertos en negocios.

Hay diferentes ediciones disponibles que coinciden con el tamaño, la infraestructura y las capacidades básicas de los usuarios de la empresa. Dataiku se centra igualmente en la democratización de la data, permitiendo a diferentes perfiles: data executives, data leaders, data scientists, data analyst trabajar sobre una misma plataforma colaborativa y gobernada.

BDM: ¿Cuál es el principal problema que detectan en sus clientes a la hora de empezar a sacar partido de los datos? AS: Tener acceso a los datos y forma-

tearlos adecuadamente es una tarea tediosa, repetitiva y manual que no aporta valor real al negocio. Además de consumir tiempo y recursos, retrasa los proyectos de D&A. Nosotros no diríamos problema, pero el reto que nuestros clientes suelen tener es de la colaboración, ya que cada departamento está conformado de diferentes expertises con diferentes puntos de vista y que van creando silos de información y comunicación compleja. El segundo reto sería el tema la operacionalización y automatización de un proyecto en el entorno de producción, al superar este reto, nuestros clientes han logrado ahorrar tiempo el cual pueden dedicarse a producir otros proyectos consiguiendo así la escalabilidad. El Tercer reto, sería el tema de la gobernanza de los datos cuando las organizaciones tienen que manejar muchos modelos de datos y al mismo tiempo deben tener control de la utilización, la transformación consumación. La gobernanza del dato se extrapola igualmente a la responsabilidad de cada participante en su participación en un proyecto. BDM: ¿Cómo saber cuándo necesito soluciones de ML, soluciones de IA, Soluciones de Hybrid Cloud…? AS: Una vez que los datos del sector de

negocio se encuentran disponibles, las herramientas de Data Science permiten explorarlos eficientemente y utilizarlos para predecir eventos en el futuro. Esta agilidad permite un mayor acceso a datos en autoservicio y la flexibilidad para ajustarlos a las necesidades del negocio rápidamente. Existen diferentes configuraciones de cloud híbrido, cada una de ellos debe ser evaluada para ajustarse a los requisitos tecnológicos y de negocio.

.

BigDatamagazine | Mayo 2021


30 Entrevista / Graph Everywhere

Soluciones basadas en grafos para el ecommerce post pandemia Graph Everywhere es la máxima representante del sector de los grafos en nuestro país. Asentada en Barcelona, son los precursores de una tecnología que ha llegado para cambiarlo todo.

E

Texto: Redacción

l cofundador de Graph Everywhere, Josep Tarruella nos ha atendido para hablar de ecommerce, pandemia y por supuesto, grafos.

Big Data Magazine (BDM): ¿Hacia dónde ha evolucionado el ecommerce en último año desde que empezó la pandemia? Josep Tarruella (JT): Todos sabemos

que la demanda del usuario se ha desviado por temas de fuerza mayor al E-Commerce, por lo que todos han tenido que revisar su modelo de negocio. Tenemos todos claro es que el E-Commerce ha ganado terreno y, definitivamente, en cualquier escenario de “nueva normalidad”, tendrá un peso muy importante de aquí en adelante. La evolución ha pasado por varias fases, empezó por resolver asuntos urgentes como la capacidad de responder a una demanda que se disparó de un día para otro o incluso mejorar la capacidad de logística de reparto. Estos fueron los

BigDatamagazine | Mayo 2021

primeros hitos tras el comienzo de la Pandemia (además de gestionar el teletrabajo, claro). Mientras se resolvían estos asuntos urgentes, las organizaciones empezaron a trabajar en estrategia a medio largo plazo. Pasamos de lo Urgente a lo Importante. BDM: ¿A que se refiere con estrategia? JT: Hasta hace uno año, para la gran

mayoría de los e-Commerce de los retailers tradicionales, el canal digital representaba un porcentaje bajo de los ingresos. Era ciertamente mucho menos relevante que el negocio que se producía en sus tiendas físicas. La estrategia comercial se centraba en el modelo más beneficioso (la tienda física) y el e-Commerce era más un apoyo y extensión de ese modelo, más que un canal en sí, con una estrategia propia y desvinculada. Pongo un ejemplo: un gran almacén basa su estrategia en los pasillos, para que los usuarios puedan ir a buscar los productos a sitios concretos, coloca

productos y secciones con el objetivo de que caminen por los pasillos y vean el máximo posible de productos. En un entorno físico esta estrategia funciona, en un canal digital lo más parecido es ofrecer un menú de navegación por el que el usuario está obligado a explorar moviéndose por secciones y subsecciones. Si miramos los grandes e-Commerce que nacieron en la era digital (Amazon, …) por ejemplo, rápidamente vemos que la diferencia es brutal. Estos gigantes esconden los menús de navegación ya que su estrategia se basa en ser capaces de escuchar entender e interactuar con el cliente, por lo tanto, han desarrollado súper buscadores y sistemas de recomendación inteligentes. Hoy en día pueden: · Personalizar oferta · Entender lo que busca el cliente desde la segunda o tercera letra que teclea · Ofrecer los productos que busca · Ofrecer productos relacionados/ combinados · Inspirar al cliente · Recomendar otros productos


31

Josep Tarruella, cofundador de Graph Everywhere BDM: ¿Pero esto no lo hacen todos los ecommerce? JT: Cada vez más, sin embargo, no

se trata de si lo hacen (o pretenden hacerlo), se trata de cómo lo hacen. Usando los sistemas más tradicionales puedes llegar a entender un cliente que escribe “Zapatillas”: por los índices que ayudan a búsquedas ligadas al léxico, entiendo que quiere ver calzados > zapatillas. Bien, en esta taxonomía tengo cientos de productos, ¿cual le enseño primero? ¿Cómo lo ordeno? ¿Dejo que él elija (más barato, más vendido, ...)? Esto ya es un reto sin embargo hay más, mucho más. Por ejemplo ¿puede ser que alguien que busque “zapatillas” pueda estar interesado en “calcetines”? Para un sistema tradicional esto ya se convierte en algo demasiado complicado, sobre todo si tiene que calcularlo en tiempo real. ¿Puedo sacar calcetines que “combinan” por color con las zapatillas que estoy mostrando? ¿Puedo saber si están en stock, en que almacén y que tiempo de entrega estimado tengo hasta el cliente? Aquí es cuando los sistemas tradicionales dejan de responder y se ve claramente la necesidad de una solución basada en tecnología de grafos.

BDM: Se pone interesante. Háblenos de esta solución ¿Cómo la define y cómo se construye? JT: Podemos llamarlo “Buscador/

Recomendador Semántico”, concepto ligado con “Real Time Graph Scoring”. Todo empieza por un grafo de conocimiento (Knowledge Graph). Lo primero es disponer en tiempo real de datos relevantes (no es necesario que estén todos de inicio, pero si pensar en ir incorporando todas las fuentes posibles), cuales: · ERP – Productos, Promociones, Productos Push… · CRM – Perfil de usuario, dirección d entrega, búsquedas, cookies, compras anteriores, ticket promedio … · WareHouse – Stock, geoposicionamiento… Desde luego hay que trabajar en Taxonomías, Ontologías y construir un óptimo modelo de datos. Una vez tenga suficientes datos, taxonomías, ontologías en mi grafo, es cuando puedo empezar a trabajar en las consultas.

BDM: ¿Cómo funciona? ¿Qué puede calcular? JT: Los grafos son buenos para

realizar consultas contextuales, gestionan muy bien las relaciones

entre los elementos y lo hacen a velocidades de milisegundos. El gran hito es poder conversar con el usuario. Piensa que tu cliente VIP entra en tu tienda y se acerca a preguntar. Ya le conoces, además lo tienes enfrente: sexo, talla, tiene familia, compras anteriores, colores, marcas que ha comprado, ticket promedio, cumpleaños…. Sólo basándote en esta información deberías ser capaz de recomendar algún producto, antes de que el mismo pida nada. Traducido al e-Commerce, esta es la personalización de las vistas a las que accede el usuario identificado, que hay que calcular por cada acceso del cliente en cada paso de navegación, además preocupándose de no repetir siempre la misma oferta. El cliente pide: - Quiero unos zapatos que combinen con mi traje blanco. Un vendedor de raza recomendaría un par de zapatos, pero aplicaría analítica cognitiva e ingenio, para ofrecerle también unos calcetines adecuados para los zapatos que le recomienda, además le recomendaría algún objeto que pueda combinar, por ejemplo, un cinturón y por último trataría inspirarle ofreciéndole un bolso para su esposa. Bien, el vendedor ha calculado que zapatos enseñarle, adecuados al ticket promedio de compra de su cliente, ha tenido en cuenta las promociones, también los productos push, el stock por la talla … además ha pensado en combinar, relacionar e inspirar con productos que no son Zapatos. Esto es lo que queremos que hagan nuestras páginas web. No es un camino fácil, sin embargo, es un gran objetivo que podríamos lograr. Hoy existe la tecnología para hacerlo. Ordenando un poco lo que hemos contado: todo esto puede definirse como solución de “Buscador/Recomendador Semántico”. Es una solución que se construye en conjunto con el cliente (e-Commerce), por lo que no es un “out of the box”, sobre todo porque queremos dejar a nuestros clientes la capacidad de ir mejorando esta solución y que tenga toda la flexibilidad para que pueda acomodarse a las tendencias futuras, por muy repentinas que sean. Graph Scoring – Hemos introducido este concepto, se trata de la capacidad de hacer cálculos complejos en cuestión de milisegundos sacando el máximo partido de todos los datos de los que se

dispone, relacionados entre ellos. Aquí reside la potencia de esta tecnología. Se trata de un scoring. ¿Que calcula? Personalización. Cada vez que alguien accede (sobre todo si es usuario identificado), debe de tener una vista personalizada y una recomendación siempre distinta. El buscador es una pieza clave ya que ejecuta cálculos para determinar productos a mostrar: · Debe de saber interpretar lo que busca el cliente desde que teclea la segunda o tercera letra y en consecuencia buscar el producto de referencia. · Debe ser capaz de buscar productos relacionados, similares · Combinaciones de productos Productos relacionados con … otros usuarios que tienen cierto grado de similitud… Finalmente, el cálculo para determinar el orden de presentación de los productos: · Más nuevo · Tiene promo · Marcas Push · Está en Stock · Está a menos de 2h del CP de entrega · Aún no ha salido recomendado

BDM: Hasta aquí hemos hablado del mundo transaccional y real time. ¿Esto también aplica al mundo analítico, analítica avanzada, ML? JT: Por supuesto, además la analítica

avanzada aporta conocimiento a este modelo transaccional, te explico. Existe todo un mundo de Graph Feature Engineering y Graph Embeddings, algoritmos de grafos etc. Es muy relevante para alimentar pipelines de Machine Learning y entender mejor los patrones de comportamiento. Pensemos a una persona cómo un nodo en el grafo, que tiene una serie de atributos, relaciones con otros nodos que tienen otros atributos y así. Puedo buscar patrones de comportamiento similares basándome en la estructura que tiene mi nodo y cómo está relacionado con su entorno, para buscar otros trocitos de grafo parecidos en mi universo de nodos, estudiar el comportamiento de todos estos elementos (analítica avanzada) y devolver información relevante a los elementos del grafo para que sea tenida en cuenta a la hora de calcular futuros scoring (por ejemplo la personalización de pantalla de inicio). También puedo generar comunidades y usar la potencia de los algoritmos nativos de grafos, hay mucho que decir al respecto, sería necesaria otra sesión para profundizar en este aspecto...

.

BigDatamagazine | Mayo 2021


32 Entrevista / Denodo

“El 25% de las empresas ya migran sus cargas de trabajo avanzadas hacia la nube” La virtualización de datos en nuestro país es sinónimo de Denodo. Trabaja con algunas de las empresas finales más importantes con el objetivo de llevar su negocio hasta su máximo rendimiento.

L

Tex to :

R edacción

a actualidad en el sector de los datos nos ha llevado a entrevistar a José Andrés García, vicepresidente regional de Denodo para Iberia y Latinoamérica. Nos da detalles sobre presente y futuro de la virtualización de datos. BigDatamagazine | Mayo 2021

Big Data Magazine (BDM): ¿Para quién no conozca aún a DENODO, ¿quiénes sois y qué necesidad cubre la plataforma? José Andrés García (JG): Denodo

es la compañía líder en virtualización de datos. Nuestra misión es transformar la manera en que las empresas innovan y llevan a cabo

sus negocios. Para ello, nuestra plataforma unifica sus datos en tiempo real y hace que éstos sean ubicuos y seguros para todos los usuarios y aplicaciones empresariales. Eso incluye un acceso y visualización completa a todos ellos, independientemente de la fuente de información de la que


33

José Andrés García, vicepresidente regional de Denodo para Iberia y Latinoamérica. procedan (ya sean datos no estructurados, big data o en la nube) y todo, sin que tengan que moverlos o migrarlos de sus repositorios originales. De esta manera, las empresas pueden reducir sus costes, mejorar sus procesos de negocio y obtener mayores retornos de inversión. BDM: ¿A qué tipo de empresa van dirigidas las soluciones de DENODO? JG: La virtualización de datos de

Denodo está presente en cientos de compañías, varias de las cuales son líderes de sus respectivos sectores como el financiero, farmacéutico, industrial o telecomunicaciones. De hecho, en la actualidad, varias que pertenecen a la clasificación del Fortune 1000 confían en Denodo para sus estrategias de virtualización de datos, como General Electric, Roche, Bankia, Walmart, Pepsico, UBS, BNP Paribas, Autodesk, T-Mobile y CIT Bank. BDM: ¿Cuál es el principal problema que detectan en sus clientes a la hora de empezar a sacar partido de los datos? JG: Observamos que muchas de

estas grandes organizaciones poseen una gran cantidad de datos de distintas fuentes y formatos (estructurados, no estructurados, en la nube, etc) que se encuentran dispersos entre sí. Así, les resultaba complejo para sus usuarios de negocio operar con ellos o incluso localizarlos con facilidad. Eso les generaba problemas de productividad, tiempo, velocidad para obtener información y contaban con menores recursos para desarrollar aplicaciones. Todo eso tenía un impacto en los costes operativos que, afortunadamente, la virtualización de datos les ha solventado. BDM: ¿Cómo saber cuándo necesito soluciones de virtualización de datos? JG: Nuestros clientes suelen tener

necesidades que requieren una gran cantidad de datos para su Business

“La virtualización de datos de Denodo está presente en cientos de compañías, varias de las cuales son líderes de sus respectivos. De hecho, en la actualidad, varias que pertenecen a la clasificación del Fortune 1000 confían en Denodo” Intelligence, analítica u operaciones desde múltiples ubicaciones o fuentes distintas. En muchos de ellos, es cada vez más común además que tengan algún tipo de arquitectura o implementación en la que esté implicada la nube. De hecho, nuestra reciente encuesta anual sobre el uso de la nube muestra que el 25% de las empresas ya migran sus cargas de trabajo avanzadas hacia la nube, incluyendo procesos de Inteligencia Artificial/ Machine Learning (IA/ML).

BDM: ¿Qué fuentes y cuántos tipos de fuentes de datos puede ‘leer’ DENODO? JG: La plataforma permite conectarse

a cualquier fuente: bases de datos comunes, data warehouses, aplicaciones en la nube, repositorios de big data y por supuesto, archivos Excel. También permite combinarse en cualquier formato: relacionales, noSQL, Hadoop, servicios web, APIs en la nube, y archivos aislados. BDM: ¿Cuáles son las principales ventajas en la virtualización de datos? JG: Aportan muchas ventajas. En

primer lugar, entrega la información de manera más rápida y a menor coste que si se replicaran los datos: beneficia a los usuarios porque reciben información actualizada sin invertir en almacenamiento adicional. En cuanto a la productividad para los usuarios,

al proporcionarlos en tiempo real, permite a los usuarios acceder a la información más actualizada. Además, facilita mucho el trabajo de los arquitectos de sistemas, ya que, gracias a su capacidad de abstraer sistemas subyacentes, les permite sustituir sistemas heredados con aplicaciones modernas en la nube sin que el cambio afecte a las operatividad de la empresa en ese momento. Por último, también facilita la administración de roles de seguridad en la compañía y permite una mejor centralización de la seguridad y gobernanza de los datos. BDM: ¿Puede exponer algún success stories? JG: La aerolínea Air Europa ha

obtenido grandes mejoras gracias al despliegue de la virtualización de datos. Ellos se enfrentaban a un centro de datos mixto, movimiento diario de datos entre sistemas para proporcionar un acceso unificado de los datos a los usuarios y demandas de actualizaciones de negocio. Implementar la tecnología de Denodo ha sido clave para proporcionar una transición perfecta a la nube, mejorar la capacidad de entrega de información para el análisis de autoservicio por parte de los analistas empresariales y acelerar la analítica avanzada al permitir a los interesados comenzar con conjuntos de datos de confianza.

.

BigDatamagazine | Mayo 2021


34 Entrevista / Keyrus

“El Gobierno del Dato está despertando gran interés en los principales players del mercado” Contar con expertos en Data Analytics que te guíen a lo largo de todo el Data Journey es fundamental de cara a sacar el máximo partido a tus datos.

E

Texto: Redacción

ntrevistamos a Katharine Contramaestre, Managing Director de Keyrus. Nos cuenta cómo están humanizando el mundo del dato, cómo han superado junto a sus clientes los desafíos que nos ha traído la pandemia y nos hablará sobre la madurez en Analytics del mercado español. BigDatamagazine | Mayo 2021

Big Data Magazine (BDM): ¿Qué es Keyrus? Katharine Contramaestre (KC):

Keyrus es una multinacional experta en el mundo del Data Analytics con presencia en más de 20 países actualmente. Este hecho no es meramente anecdótico si no que supone el core de nuestra propuesta de valor. Contamos con una mentalidad de start up, al ser ágiles, iterar, testear y buscar junto

a nuestros clientes esa optimización ideal que les haga ser una mejor empresa, y al mismo tiempo contamos con el apoyo y expertise internacional del Grupo. El hecho de poner a nuestros clientes sobre la mesa los casos de uso de mayor impacto en su sector en diferentes países y situaciones, les está aportando un valor incalculable desde el primer momento.


35

Katharine Contramaestre, Managing Director de Keyrus BDM: ¿Cuál es el valor diferencial de vuestra propuesta de valor? KC: Estamos humanizando el dato.

Hasta hace no mucho tiempo, los datos eran un ente complejo y desconocido para todos los usuarios de negocio y es en este punto donde Keyrus está jugando un rol importante a la hora de convertir esos datos en un activo de cara a la toma de decisión, hablando su mismo idioma. Gracias a nuestro expertise en Data Analytics y el profundo conocimiento de las industrias en las que llevamos años compitiendo, estamos muy enfocados en las necesidades de negocio de nuestros clientes. Entendemos qué KPIs son relevantes para ellos y qué casos de uso de negocio pueden potenciar mejorando esos KPIs para generar impacto a corto plazo. Acompañamos a las organizaciones a través de todo su Data Journey, independientemente de su nivel de madurez en Analytics. Les ayudamos a innovar, a gobernar sus datos y a crear esa cultura del dato que les convertirá en una compañía totalmente data-driven.

BDM: ¿Cómo habéis superado los desafíos que nos ha traído la pandemia en vuestros clientes? KC: Unos meses antes de que nos confi-

naran, Óscar Quintas y yo asumimos la dirección general de la compañía en España de cara a restructurar la organización para afrontar los nuevos desafíos del mercado, potenciar y renovar nuestro porfolio y hacer crecer la empresa. Una vez que se confirmó la gravedad de la situación sanitaria y vimos la época de incertidumbre a la que nos enfrentábamos, tomamos la decisión de abrir la mano a cada uno de nuestros clientes para apoyarles y buscar soluciones de manera conjunta de la manera que mejor sabemos: ayudándoles a sacar el máximo partido a sus datos. En épocas de incertidumbre y de crisis económica y social, las compañías necesitan optimizar al máximo sus recursos, sus procesos y adelantarse, en la medida de lo posible, a los cambios del mercado y a los cambios en los patrones de comportamiento de sus clientes. A lo largo del año pasado, pudimos observar en primera persona la clara apuesta por invertir en Data Analytics y Cloud de cara a poder afrontar los nuevos desafíos que se habían presentado en cada sector. Muchos de nuestros clientes comenzaron a tener un gran

“En épocas de incertidumbre y de crisis económica y social, las compañías necesitan optimizar al máximo sus recursos, sus procesos y adelantarse a los cambios del mercado” interés en tecnologías relacionadas con Machine Learning y Analítica Predictiva con el objetivo de ir algún paso por delante de los movimientos del mercado y sus competidores.

BDM: Teniendo en cuenta la situación de la que venimos y en la que estamos actualmente ¿qué soluciones de Analytics crees que son las más demandadas en el mercado español? KC: Históricamente, hemos visto

sectores que siempre han estado a la vanguardia o ligeramente adelantados al resto en términos de Data Analytics y explotación de sus datos para optimizar procesos y tomar decisiones. Sin embargo, la crisis sanitaria ha acelerado 2 años la digitalización del resto de sectores y se está trabajando a toda máquina para ponerse a la altura del mercado e incluso tratar de superar a sus competidores más innovadores. Lo mágico y lo bonito de trabajar en Keyrus es que ayudamos a los clientes a lo largo de ese ciclo de vida del dato, independientemente de su nivel de madurez de Analytics. Encontramos clientes que se encuentran en fases iniciales con analítica a nivel descriptivo donde sus necesidades se limitan a la preparación y visualización de esos datos para crear reportes o de manera self-service. Otros se encuentran en fases más avanzadas, llevando a cabo análisis predictivos e incluso prescriptivos destacando como casos de uso más demandados la optimización de procesos, previsión de la demanda, forecast de ventas, optimización de campañas de marketing, visión 360º, predicción del abandono (churn), mantenimiento predictivo de maquinaria, recomendación de productos (cross y up selling), risk scoring, dynamic pricing u optimización de la cadena de suministro. Al mismo tiempo, estamos observando un aumento considerable en los proyectos de migraciones a Cloud, Data

Warehouse y Data lakes en la nube, de cara a contar con un single point of truth de los datos aprovechando los beneficios del Cloud como son la concurrencia, elasticidad y, por supuesto, el ahorro de costes. Y por último, el Gobierno del Dato está despertando un gran interés en todos los principales players del mercado, comenzando este camino a través de algunos departamentos y extendiendo estas prácticas al resto de la organización. Debido a la ingente cantidad de datos que se generan a diario, contar con esa visión única de los datos y tener roles y reglas establecidas para su gestión está siendo crítico de cara a marcar la diferencia. Fruto de las necesidades de nuestros clientes hemos potenciado nuestro porfolio de soluciones y partners tecnológicos adaptándonos a la actualidad del mercado. Del mismo modo, nos encontramos inmersos en un reposicionamiento y rebranding de la marca Keyrus a nivel internacional que está liderando desde España, Iván Navareño, nuestro Marketing & Communication Manager, junto con el resto de responsables de Marketing del Grupo Keyrus.

BDM: ¿Esto del análisis de datos es para todas las compañías o tan solo para algunas elegidas? KC: Todas las compañías pueden y

deben analizar sus datos. Y cuantos más datos externos y de mayor calidad tengan, mucho mejor. La frase “la información es poder” es tan típica como cierta. Imagínate combinar tu intuición y experiencia de años junto con datos fiables y de calidad de tu organización y que cada persona pudiera aprovechar esa información en tiempo real de manera autosuficiente. Deja de imaginar. Es posible. Tan solo necesitas un referente en Data Analytics como Keyrus para ayudarte durante todo ese camino a sacar el máximo partido a tus datos.

.

BigDatamagazine | Mayo 2021


36 Eventos / AI Business Congress 20

El AI Business Congress causa sensación en su estreno Más de medio millar de asistentes disfrutaron online de la primera edición del AI Business Congress organizado por Big Data Magazine junto a AI-Network.

L

Texto: Rocío

González

a Inteligencia Artificial es parte indisoluble del mundo del Data y el Business Intelligence. Por este motivo y para fomentar su uso en el negocio Big Data Magazine unió sus fuerzas con AI-Network, la asociación profesional de Inteligencia Artificial, para crear el AI Business Congress. Un evento en formato híbrido, presencial para los speaker y online para los asistentes, que pretende servir como difusor de la importancia de Inteligencia Artificial. El evento contó con el apoyo como patrocinadores de Deloitte, DeciBigDatamagazine | Mayo 2021

de4AI, Microsoft, Experis Solutions y Graph Everywhere así como el institucional del Ayuntamiento de Madrid. Como colaboradores del evento estuvieron el Madrid IA Clúster, AxiCom y VinoPremier. Inauguración La inauguración del congreso corrió a cargo de Ángel Niño, concejal de Innovación y Emprendimiento Ayuntamiento de Madrid. Durante su intervención aseguró que es el momento de que Madrid «empiece a posicionarse como un referente de inteligencia artificial». explicó que se creó un cluster de IA para convertir a Madrid en el «referente de inteligencia artificial del sur de Europa»

Durante su intervención aseguró que solo el 1% de la información que se recaba en los dispositivos móviles es analizada. Por lo que la IA «nos dará la capacidad de analizar toda esa información». «Madrid está conectada como casi todo el mundo, queremos atraer talento de todo el mundo. La competencia ya no es local. Queremos generar un impacto humano, económico y social para ese cluster. Queremos pasar de ser una smart city y convertir a Madrid en una startup city». Analítica Prescriptiva e IA El founder & head of Business de Decide4AI, Manuel del Barrio, aseguró que la automatización es


37

Eventos / AI Business Congress 20 una «mejora continua» en la toma de decisiones. No obstante, indica que hay que «encontrar ámbitos en los que aún hay trabajo manual que puede abordarse con tecnología». A su juicio, hay que «incorporar la inteligencia artificial para la toma de decisiones». Él también ha indicado que los datos que se tienen que conseguir deben ser de «cierta calidad, si no, la analítica no funciona. Hay que tener un mapa claro de hacia dónde queremos llegar, cuáles son los puntos de ineficiencia, tengo la información disponible para aplicar esa ineficiencia». Lograr ROI en AI La primera mesa redonda estuvo moderada por Nicola Fanelli, Graph Business Solutions Specialist de Graph Everywhere que preguntó a los participantes por la medición de los procesos y el grado de madurez de los mismos. El Data Science and Artificial Intelligence Leader de Orange, Francisco

Escalona, señaló que «es importante tener claro el retorno de la inversión desde el principio para ganar legitimidad». A su juicio, la inteligencia artificial «tiene que dar dinero, la mayoría de nuestros casos de uso tienen que dar dinero en el primer año». Quico Machín, Chief Data Officer de IE aportó que «en muchos casos no es tan fácil hacer medición del ROI. Desde un punto de vista teórico sería sencillo, pero no lo es». Para él, medir el ROI no siempre tiene que tener un sentido económico, sino debe verse desde un punto de vista de estrategia. Por su parte, Fernando Bocigas, Director Global Big Data Core Platforms & Strategic Alliances en Telefónica IoT & Big Data Tech expuso que ellos combinan las capacidades de IoT dentro de una misma unidad «para sumar más esfuerzos para que nuestros productos y servicios ayuden más a nuestros clientes». Según dijo, la inteligencia artificial sirve para «aportar todo el retorno que a nuestros clientes les

hace ser más eficientes para poder ser competitivos». Eva Montoro, Head of Advanced Analytic and Data Science en Santander Corporate & Investment Banking aseguró que ahora mismo están en el punto de que la IA ayuda a «mejorar la productividad y demostrando día a día el valor al negocio». Según dijo, es «complicado» medir el ROI y hacerlo es «uno de los grandes retos». 2030, lets take a look! Macarena Estévez, socia de Deloitte nos llevó al año 2030 y a pensar cómo influirá la tecnología en la sociedad. «Queramos o no, el cambio tecnológico va a ser acelerar. Son tantas cantidades de datos que un ser humano no puede procesar tal cantidad de datos en su cabeza. En tiempo real los datos son analizados y la analítica ofrece una respuesta». Añadió que en el año 2030 nos despertaremos en función de una serie

BigDatamagazine | Mayo 2021


38 Eventos / AI Business Congress 20

BigDatamagazine | Mayo 2021


39

Eventos / AI Business Congress 20 de variables, «el despertar será diferente, todo lo que comamos estará más controlado». También habrá cambios sustanciales en el ámbito laboral, «las oficinas no serán nada en comparación con lo que es ahora y serán más centros de encuentro». Además, expuso que los niños del año 2030 «no distinguirán entre la vida virtual y la real y cuando esos niños crezcan van a ser muy diferentes a como somos nosotros de adultos». Para ella es bueno que tanto empresas como personas hagan un ejercicio para mirar al futuro y conocer todas las posibilidades que les brindará la tecnología. El Valor del dato Durante el AI Business Congress también se presentó el libro ‘El Valor del Dato’, escrito por Rafael Fernández Campos, CDO de Bankia y presidente del Club Chief Data Officer Spain & Latam y Javier Martínez, Director de Reporting Corporativo en Bankia. La presentación corrió a cargo de Fernández que ha asegurado que «cuando se genera valor con datos hay que ver qué datos tenemos, los usamos y con esos datos generamos valor. No vale con tener muchos datos». Los datos deben cumplir, para él, determinadas funciones como tener integridad, relevancia estratégica y aportar valor. «Hay que ver qué es el valor de los datos. Eso se tiene que declinar en unos KPI para tener éxito en la estrategia», dijo apuntando que el volumen de datos no siempre genera el mismo valor. Visión y futuro de la AI En la mesa redonda II se abordó el futuro de la inteligencia artificial. Moderada por José Valenzuela, director del área de Inteligencia Artificial en Experis Solutions, los expertos abordaron qué perfiles y cualidades son las que se buscan por parte de las empresas y las mayores dificultades para encontrarlos. Unai Obieta, Chief Digital Officer de Ferrovial Servicios afirmó que el dato «es la materia prima con la que evolucionar la compañía y cómo afecta a la formación». A su juicio, las personas «tienen que acostumbrarse a ellos». Ellos, por ejemplo, ya están haciendo uso del People Analytics para elegir a las personas que contratarán.

Mario Lois, Global Head & Senior Director of Artificial Intelligence en GE Women’s Health aportó que en el sector de la Sanidad el cambio es «inevitable». Tal y como ha detallado, «más del 20% de los cánceres no son detectados y con la IA se ve que el porcentaje de cáncer que no son detectados está disminuyendo muy sustancialmente. Ahora el radiólogo pasa de un 80% de capacidad de detección a un 88%». Luis Mateos Keim, CEO en Osmotic añadió que la «IA es disruptiva». Él se ha mostrado convencido de que es necesario un cambio de percepción, ya que «el problema del ser humano es que estamos acostumbrados a trabajar siempre de una forma y con los mismos equipos». Diana Díaz, Digital Strategy & Transformation en Bankia ha manifestado que un equipo de innovación tiene que anticiparse a lo que va a ocurrir: «La IA nos ayudará a transformar la realidad, pero tiene que ayudarnos a meternos en los procesos de transformación». 2020, ¿dónde está la IA? El Customer Success Innovation Lead de Microsoft, David Hurtado, protagonizó la Keynote III. En ella dio unas pinceladas sobre las herramientas que se deben utilizar para construir soluciones de IA. Entre los datos aportados destacó el hecho de que el interés de la IA se mantiene bajo hasta 2017-2018. Es a partir de esa época cuando «empieza a subir y ya se mantiene. Hay una carrera en empresas de tecnología en adquirir capacidades de inteligencia artificial. A día de hoy la IA está en todas partes». Puso diversos ejemplos sobre las utilidades de la IA en el software que utilizan empresas como para poder saber en qué lugar de la compañía están trabajando los empleados. Además, señaló que se pueden manejar herramientas de usuario final para poder hacer una «predicción sencilla. Puedo hacer tickets de gastos, extraer información relevante de texto o una predicción». Ecosistema de AI En la última mesa redonda de la jornada, moderada por Eduardo Suela, de la junta directiva de AI-Network, se abordaron cuestiones

como los componentes que usan IA y las herramientas y plataformas que también la emplean. Gonzalo Torres, Country Manager Spain de Talent Garden apostó por la «educación» para que todo funcione en el mundo de la inteligencia artificial. A él le gustaría que hubiera una mayor implicación del gobierno en el desarrollo de la inteligencia artificial. Por su parte, David Rey, CDO de Idealista, aseguró que «hay mucha formación en el sector», aunque a veces no se dispone de toda la formación necesaria para utilizar determinados programas de IA. «La formación tiene que ir en que las labores de aprendizaje automático elimine barreras», añadió. Carlos Bort, Head of Data Science en Smart Protection considera que «la base es el open source» para que «cualquier persona pueda empezar a hacer cosas. Los equipos hay que nutrirlos de información, formarlos y ver lo que ocurre». Mariano Muñoz, Manager de Data y Analytics en Acciona puntualizó que España es una nación «bastante avanzada». Aunque lo que hace falta es «fomentar el talento, es muy importante fomentarlo y la financiación que puede partir de empresas y gobiernos para que esto funcione». Cierre Finalmente, el presidente de AI-Network, Tomás Martínez Buero, cerró la jornada haciendo un repaso a todas las cuestiones que se han abordado durante el congreso. Según dijó «cada vez que se trabaja en proyectos de IA, tenemos que pensar a corto y medio plazo cómo podemos incorporar esa tecnología para vivir mejor o para que esa empresa tenga más beneficios o sea más competitiva». Según dijo, si existe esa visión tecnológica y de negocio, será posible que ciudades como Madrid y áreas como España o Europa, «vamos a ser capaces de dar un salto». El próximo 2 de diciembre de 2021, celebraremos en Madrid presencialmente y online para todo el mundo, la segunda edición del AI Business Congress. Si quieres participar en él ya se como speaker o como patrocinador, escríbenos a info@bigdatamagazine.es.

.

BigDatamagazine | Mayo 2021


40

BigDatamagazine | Mayo 2021


41

Especial BD e IA en el sector educativo

BigDatamagazine | Mayo 2021


42 Especial Big Data e IA en el sector educativo / UNIR

“Tenemos que crear puentes, que la información sea compartida y gobernada” UNIR es uno de los centros educativos más importantes de nuestro país. Nació hace más de una década en La Rioja y ahora, gracias a internet, ofrece sus estudios en todo el mundo. El volumen de datos que manejan es ingente y por ellos desde hace años cuentan con el rol de Chief Data Officer.

L

Firma: José

Luis Arcángel

a CDO de UNIR es Nuria Canal. Hemos podido entrevistarla y nos ha contado cómo trabajan con los datos en la autodenominada como La Universidad en Internet.

Big Data Magazine (BDM): ¿Cuál ha sido el proceso profesional que le ha llevado a su puesto actual en UNIR? Nuria Canal (NC): Mi propio interés

personal en todo lo concerniente al ámbito de los datos. Es un área que ahora está muy de moda y resonante, pero hace años no era así. En mi caso, siempre mostré interés por estudiar matemáticas, estadística y por ver cómo podía aplicar todo ello al mundo empresarial. Más que la parte académica, me atraía ver cómo aplicar ese conocimiento a la empresa. El camino a seguir no estaba tan claro como ahora -antes era todo mucho más difuso-, pero sí que fui tomando distintas posiciones, según las necesidades que iban apareciendo, en relación al análisis y gestión del dato. Creas un conocimiento de cada sector en el z BigDatamagazine | Mayo 2021

BDM: Desde su experiencia previa en otras empresas ¿Qué diferencias hay en el manejo de datos entre otros sectores y el que ahora le ocupa? NC: Es muy distinto estar en un

sector como por ejemplo, el de la banca, donde tienen sistemas operativos que están basados en AS/400, que suena como muy antiguo, pero que sin embargo les dan una robustez y eficiencia en el manejo de su información, que es muy importante para ellos. Cambiar todo eso es complicado, y a veces, no lo más óptimo. Sin embargo, en otros sectores, como en el que estoy ahora, la educación online, y sobre todo en una universidad que ya nace propiamente en el ámbito digital, tiene menos legacy y esto permite que la innovación y los cambios en los procesos puedan producirse de forma mucho más rápida. Esto es un punto de diferencia. Por otro lado, a nivel general, estamos viviendo un cambio de paradigma que nos afecta a todos, y no solo a nivel empresarial, sino también

como sociedad. Vivimos todos este momento evolucionando en base a las necesidades que el nuevo paradigma nos trae. Y a nivel empresarial, la transformación digital y la inteligencia artificial, nos está empujando a marchas forzadas a otra realidad. Cosas muy básicas han de desaparecer ya. Como por ejemplo, venimos todos de manejar excels, de que cada departamento cree su propia base de datos con un excel y se construye sus propios reportes, que además en muchos casos no se comparten con otras áreas. Esto ha sido algo omnipresente en todas las empresas, y hemos tenido que ir derribando esos mundos aislados, esas islas Galápagos, para ir creando puentes, tal que la información sea gobernada y compartida para toda la empresa, de forma transversal. Esto es un punto común a todas las empresas y a todos los entornos que hemos vivido, o estamos viviendo.

BDM: ¿Cómo ha evolucionado la concienciación en las empresas en la necesidad de hacer un uso eficiente de los datos que generan y no despreciarlos?


43

Nuria Canal CDO en UNIR NC: Antes los datos en las empresas tenían una visión casi meramente contable y financiera, de control de gestión. Con el tiempo hemos ido tomando conciencia de que era súper importante, no solo tener control sobre ventas, clientes y márgenes, sino también del resto de datos que nos hablan de la eficiencia de toda la cadena de procesos de la empresa. También es muy importante que la dirección y el CEO tengan clara la importancia que tiene el dato y de crear una cultura entorno al dato. Esto marca claramente una diferencia. Si la dirección lo tienen claro, permea hacia abajo y hace que todo el mundo sea alinee. BDM: ¿Qué importancia tiene la figura del responsable de datos en tu empresa? NC: Cuando entré, el CEO lo tenía muy

claro. Necesitaba de este perfil, una persona que le de los datos que necesita en el momento preciso, y que entienda y que sepa analizar la información. No está a veces tan claro, en general, la figura en sí del CDO. Hasta hace 2 o 3 años, no le habíamos dado ni el nombre. Es algo que se ha ido creando, y que hemos ido madurando entre todos, en base a las nuevas necesidades que surgían. En la medida que cada vez hay más datos, y más necesidad de gestión y de análisis, la figura del CDO se hace más relevante. BDM: En UNIR, ¿cómo habéis impulsado la implantación de la cultura del dato? ¿Ha costado convencer a los diferentes departamentos? NC: Al principio era muy casero,

sentarnos con cada una de las personas, hablar, convencer… convencer, pero con hechos de cómo había que ir evolucionando. Ahora ya estamos en otro punto de madurez y por tanto se trata de hacerles cada vez más partícipes en el proceso, esto es, que participen ellos mismos en crear esa cultura. Yo soy la responsable, mi equipo son los responsables también, pero toda la empresa somos co-responsables de impulsar la cultura entorno al dato. Es una responsabilidad compartida, también la del gobierno del dato. Es muy importante dar formación. Tenemos semanalmente reservadas unas horas para que todo el mundo de todas las áreas, tengan una formación ad hoc, a lo que ellos necesitan. Es importante la escucha, qué es lo que necesitan, cómo les podemos ayudar, cómo utilizar las herramientas... y esto va calando. Es una forma de realizar una comunicación con las áreas, con los departamentos y de crear esa cultura.

“Hay que tener una base técnica muy importante pero no solamente manejar lenguajes de base de datos. Tienes que tener esa visión transversal de base de datos, visualización de datos, estadística… y visión estratégica del negocio. BDM: ¿Encuentra profesionales suficientemente preparados para incorporar a su equipo? ¿Cuesta mantener el talento? NC: Para cualquier líder que tiene a

su cargo una serie de personas, las personas son lo más importante, pues sin ellas no puedes construir nada. Hay que mimarlas y hay que cuidarlas. Es cierto que estamos en un área emergente y todo el mundo se pelea por los recursos. Pero es súper importante cuidarles porque en el momento que tienes creado un know how interno, esas personas son oro. Hay que intentar que estén a gusto y que crezcan en el equipo contigo. ¿Y si es difícil? Depende de las áreas. Hay áreas que están más maduras, como ingenieros de datos, donde hay perfiles ya muy hechos, con una formación muy amplia y un recorrido claro. Y hay otras áreas más emergentes, como todo el tema de la inteligencia artificial o los data scientist, que, aunque está muy de moda, es un área que está también más inmadura. Hay perfiles que empiezan a dominar muchas herramientas a nivel técnico, pero que luego, a la hora de llevar esto a la práctica, a modelos de negocio, dónde conseguimos monetizar los datos… ahí cuesta más. BDM: ¿Cuál es el mayor problema al que se ha enfrentado en su carrera profesional a la hora de manejar datos? NC: Gestionar las expectativas.

Ahora pareciera que todo es posible y cuasi-instantáneo. A veces te piden cosas, que dices ‘sí, posible es, pero no estamos en ese punto’ porque la empresa no está madura para llegar ahí, no tienes datos... A veces queremos hacer cosas y resulta que cuando te pones a mirar no tenemos datos de calidad, necesitas tiempo de generar ese histórico de datos para poder hacerlo. Gestionar esas expectativas para cuando

tenga la posibilidad real de ejecutar es una de las cosas que he tenido que manejar en estos años.

BDM: ¿Qué requisitos cree usted que debe cumplir un CDO? NC: Hay que tener una base técnica

muy importante, pero no solo en un área, sino visión transversal, de base de datos, técnicas de visualización, estadística, IA… e interés por conocer el negocio, que te interese lo estratégico del negocio. También las soft skills, como la comunicación o la empatía, son importantes para transmitir tu trabajo y proyectos al resto de la organización. Toda esta combinación es importante para poder manejar equipos técnicos muy potentes que han de responder a las necesidades de negocio. BDM: Una de las responsabilidades de un CDO es gobernar el dato. ¿Cree que ese gobierno del dato debe ser una dictadura o una democracia? NC: Tiene que haber una figura que

lo lidera, evidentemente el CDO y su equipo. Pero, por otro lado, el tema del gobierno y la calidad del dato es algo que compete a toda la empresa. Desde el que introduce el dato hasta el que finalmente lo analiza, para ver cómo van sus ventas. Al introducir el dato tienes que atender a unas normas de calidad, siendo consciente de que ese dato va a tener todo un recorrido que impacta a lo largo de la empresa y a la gestión empresarial. Para que ese gobierno del dato exista, se han de crear normas y procesos, que evidentemente configura el CDO y su departamento. Pero a partir de ahí, debe existir una conciencia de que es cosa de todos, que toda la empresa es partícipe y tiene que colaborar. No puede ser esto una dictadura, sino una colaboración, siguiendo unas normas y unos procesos que, en muchas ocasiones, las empresas, hasta la fecha, carecen de ellos.

.

BigDatamagazine | Mayo 2021


44 Especial Big Data e IA en el sector educativo / CUNEF

“No creo que un CDO tenga necesariamente que haber programado” El sector educativo ha sufrido una revolución en los últimos años con el auge de las nuevas tecnologías. Además de la formación de los futuros responsables de datos, tienen que manejar los mismos para no quedarse atrás de otras entidades educativas. En CUNEF lo tienen claro desde hace años y por eso disponen de una oficina del dato.

P

Firma: José

Luis Arcángel

oco antes del inicio de la pandemia nos atendió uno de los responsables de datos más reconocidos de nuestro país. Juan Manuel López Zafra es el CDO de CUNEF y además un apasionado de los datos con gran predicamento en redes sociales.

Big Data Magazine (BDM): En primer lugar ¿que hacéis en los datos en CUNEF? Juan Manuel López (JM): Inten-

tamos hacer una gestión integral de lo que es el dato. Desde la parte externa Nuestros clientes serían los alumnos por un lado, los candidatos. Una vez que están dentro hacemos un seguimiento de ellos. Y luego por supuesto también lo que hacemos es analizar todo lo que son los seis stakeholders internos. Es decir todo lo que tiene que ver con la gestión del dato interna, fuera del negocio estrictamente académico de cara a los nuevos grados y las nuevas titulaciones BigDatamagazine | Mayo 2021

que tenemos. Es decir hacemos las dos partes, por un lado una gestión digamos de clientes y por otro lado una gestión interna del dato.

BDM: ¿Cuál ha sido el proceso profesional que le ha llevado a ser el CDO de CUNEF? JM: Mi trayectoria profesional ha estado

siempre relacionada con mundo académico. Desde hace aproximadamente 15 años también el mundo empresarial, aunque yo que tuve experiencias empresariales previas, siempre a la par que las académicas. Y siempre, desde hace muchos años ya relacionado con CUNEF. Hace unos años decidí venirme ya desde el punto de vista académico forma prácticamente exclusiva. Fue surgiendo el tema de los datos. Yo era profesor de estadística, especialista en estadística en análisis de datos. Con mi colega Ricardo Queralt, que comparte conmigo el data office de CUNEF, hicimos una propuesta a la dirección. Estamos hablando de hace aproxima-

damente cuatro años. De cara a hacer una gestión profesional del dato y poder empezar a cubrir todos los aspectos, o la mayor parte de los aspectos que se pueden hacer. BDM: ¿Cómo ha evolucionado la concienciación en las empresas en la necesidad de hacer un uso eficiente de los datos que generan? JM: Hemos pasado de no hacer ni caso

a los datos, a una sensación de que todo tenemos que guardarlo por lo que pueda por lo que pueda ocurrir. Es una especie de síndrome de Diógenes del dato. Las empresas están guardando cada vez más dato, básicamente porque el coste del almacén es completamente marginal. Las empresas pequeñas y medianas todavía no saben muy bien qué hacer con esos datos, los guardan por si acaso. Las grandes son las que hacen una gestión más profesional, pero como en prácticamente todos los aspectos más o menos novedosos que se han incorporado a la gestión en los


45

Juan Manuel López Zafra, Chief Data Officer de CUNEF últimos 40 años. Entonces, creo que la gestión del dato ha evolucionado muy positivamente desde lo que has dicho tú. De despreciarlo prácticamente, a darnos cuenta todos de que detrás del dato y de una buena gestión, hay posibilidades de mejorar muy claramente. BDM: ¿Es importante la figura del CDO en CUNEF? JM: Podría serlo más, siempre

pensamos que podría serlo más por lo menos Ricardo y yo. Lo primero a destacar es que se toma la decisión de crearla la jefatura de datos, y eso en un centro universitario en España es absolutamente novedoso. no conocemos ningún otro centro universitario, colegio universitario o universidad, que cuando nosotros tomamos la decisión, lo tuviese implantado en España. Entonces que ocurre, que es un centro pequeño, y se va más despacio de lo que nos gustaría. Evidentemente se hacen cosas, somos un equipo de tres personas y eso es un equipo, es una capacidad que tenemos, que no tienen otros centros. Tres personas directas en lo que llamamos la parte de analytics en la jefatura de datos. Pero luego tenemos, por supuesto, el apoyo de los equipos de tecnologías de la información. Son absolutamente esenciales en esta en esta transición. BDM: ¿En cuánto se ha incrementado la de demanda de alumnos para cursar los estudios que ofrece CUNEF de ADE + Ciencia de Datos? JM: Los alumnos que hacen un grado

tradicional en administración de empresas. Y van cursando asignaturas que nosotros llamamos de libre configuración, es decir, asignaturas adicionales al currículum oficial del grado. A un ritmo sencillo que no les agobie, y que les permita al mismo tiempo complementar desde el punto de vista técnico, las asignaturas de ADE. Cuando lanzamos hace cuatro años, esta primera prueba, el éxito fue inmediato. Ahora mismo prácticamente la mitad de las solicitudes para CUNEF van en ese sentido. Tenemos aproximadamente cuatro solicitudes por plaza disponible, lo cual es lo cual es una auténtica barbaridad. BDM: ¿Qué requisitos cree usted que debe cumplir un CDO? JM: Es fundamental el conocimiento de

negocio. Mucha mano izquierda para poder lidiar con todas las capas de la organización. Empatía, conocimiento de negocio como digo y conocimiento

“Dentro de la organización hay una serie de buenas prácticas que son imprescindibles. En esas buenas prácticas tienen que estar los distintos estamentos de la empresa implicados en su elaboración. Y una vez que están implantados hay que cumplirlos”. de lo que es el trabajo de un científico de datos. ¿Es imprescindible que haya programado que sepa lo que es Spark, lo que es Hadoop, que conozca R a la perfección o Python? Yo creo que no es imprescindible. Tanto Ricardo como yo, estamos bastante versados en esas herramientas. Pero no creo que un CDO tenga necesariamente que ser que haber programado. Evidentemente si lo ha hecho, conocerá mejor las necesidades de sus científicos de datos. Pero básicamente lo que necesita es gobernar el dato y crear esa necesidad de la cultura del dato dentro de la organización. Para eso básicamente empatía, conocer el mercado, conocer qué herramientas hay, conocer a su gente y conocer los distintos estamentos y por supuesto, el negocio en el que está. BDM: ¿Cuál es el mayor problema al que se ha enfrentado en su carrera profesional a la hora de manejar datos? JM: Un problema que resolví con

Ricardo fuera de fuera de este enjambre, que es esta casa. Fue el trabajar para una empresa aseguradora. Hacerles un proyecto por un lado de gestión de volúmenes muy importantes de información, no tanto desde el punto de vista de la gestión que entendemos almacenamiento tal, sino lo que es obtención de perfiles de comportamiento, de conductores de automóvil, por un lado. Y por otro, al mismo tiempo, predicción de la evolución de un sector muy concreto que es el del coche autónomo. De cara a lo que es el posicionamiento del mercado asegurador es en el sector. Tanto el primero por el volumen absolutamente bigdatero, real eso sí. Hablamos de Big Data, hablábamos de teras de información hace ya años, más de 8 años. La gestión y la obtención de los de los perfiles de comportamiento, por un lado, y luego los modelos predictivos para tratar de ver algo en lo que no hay

experiencia, cómo es la evolución del coche autónomo. Porque bueno, pues si hablas de la evolución del mercado de telefonía móvil, pues tienes experiencia ahora mismo desde que empezaron los primeros móviles. Pero en el coche autónomo no había experiencia. Fueron dos retos muy importantes y que la verdad estamos muy orgullosos de haberlo superado con nota.

BDM: Una de las responsabilidades de un CDO es gobernar el dato. ¿Ese gobierno del dato debe ser una dictadura o una democracia? JM: Dictadura, no puede ser, pero

todo al final, y el pero que no se note como un adversativa. Quiero decir, hay una serie de normas de obligado cumplimiento que deben implementarse, explicándoselo a todos los implicados. Es decir, igual que el Reglamento de Protección de Datos no te lo puedes saltar, eso es una norma y a mí no me ha pedido nadie mi opinión al respecto. Pero es un reglamento con rango de ley y por tanto, hay que aplicarlo. Dentro de la organización hay una serie de buenas prácticas que son imprescindibles. En esas buenas prácticas tienen que estar los distintos estamentos de la empresa implicados en su elaboración. Y una vez que están implantados hay que cumplirlos. ¿Se pueden modificar y mejorar? Evidentemente sí, pero el objetivo es llegar a un acuerdo lo mejor posible entre todas las partes. Y obviamente teniendo en cuenta el marco legal que nos que nos implica a todos, por poco que en un momento dado te guste, lo tienes que respetar. Eso te constriñe en tu toma de decisiones y bueno, pues desde ese punto de vista la democracia está relativizada. Pero yo creo que se puede perfectamente gestionar una empresa desde el punto de vista del dato, sin necesidad de imponer absolutamente nada.

.

BigDatamagazine | Mayo 2021


46 Especial Big Data e IA en el sector educativo / UCAM

“El Big Data nos ayuda a ser una universidad eficaz” Entrevistamos a Isabel María Timón, coordinadora Estratégica y responsable de la Unidad de Estadística de la UCAM, que nos desvela de qué manera emplean el Big Data para conseguir ser una universidad de éxito.

L

Texto: Rocío

González

icenciada en Matemáticas, Isabel María Timón trabaja en la UCAM desde el año 2015. Una de sus funciones principales es la coordinación de los procesos de recogida, análisis de datos y generación de informes que permiten a la UCAM cumplir con los procedimientos desarrollados en su Sistema de Garantía Interno de Calidad (SGIC), cuyo diseño ha certificado la Agencia Nacional de Evaluación de la Calidad y Acreditación (ANECA). Explica que el Big Data es una pieza fundamental en el funcionamiento de la universidad, ya que, entre otras cosas, les permite identificar puntos de mejora en sus estudios. Big Data Magazine (BDM): Cada vez más universidades emplean el Big Data para ayudar a sus estudiantes, ¿cómo lo hacéis en la UCAM? BigDatamagazine | Mayo 2021

Isabel María Timón (IT): Desde la

Unidad Estadística llevamos a cabo la recopilación y análisis de los diferentes indicadores académicos con los que se preparan una serie de informes que son proporcionados al Consejo de Gobierno de la Universidad, a los responsables de las titulaciones oficiales (grado, máster y doctorado) y a aquellos servicios implicados en el proceso de enseñanza aprendizaje. Esto permite rodar el proceso de mejora continua que la UCAM establece como uno de sus estandartes.

BDM: ¿Cuándo os disteis cuenta de la importancia que era utilizar el Big Data en la UCAM? IT: Manuel C. Ruiz González, Vice-

rrector de Calidad y Ordenación Académica, ha sido el principal impulsor de esta unidad. Con su visión y experiencia en el ámbito universitario optó por mi incorporación al Vicerrectorado, como perfil científico-analista, que ayudara a lanzar una unidad así.

Tras dos cursos de rodaje y centrados en hacer más eficientes los procesos de recopilación y gestión de resultados de satisfacción de los grupos de interés, asumimos el área de indicadores académicos. Mediante un exhaustivo análisis y posteriores reajustes en el cálculo de determinados indicadores y tasas, observamos la ingente cantidad de datos con las que trabajábamos en nuestro día a día, lo que inmediatamente identificamos como Big Data Analysis.

BDM: ¿Cómo es el trabajo diario en el departamento de estadística y análisis de datos? IT: Los procesos desarrollados por la

Unidad Estadística están definidos en el SGIC de la Universidad y conllevan una serie de fases, acotadas en el tiempo, que se ejecutan y coordinan desde la unidad. En relación a los indicadores de satisfacción de los grupos de interés, los procesos se ejecutan en varias fases: recopilación de la satisfacción (bien


47

Isabel María Timón, coordinadora Estratégica y responsable de la Unidad de Estadística de la UCAM mediante formulario electrónico, o bien vía telefónica); validación de datos y generación de informes; y difusión a la comunidad universitaria. BDM: ¿Cuáles son para vosotros los datos más valiosos de todos los que soléis recopilar y analizar? ¿Por qué? IT: En general, todos los datos son

valiosos para la universidad. Notar que, en cuanto a indicadores académicos, tratamos con tasas como la de éxito, graduación, abandono, duración media de estudios… y, en relación con la satisfacción, se encuesta a alumnos, egresados, personal docente investigador (PDI)... entre otros. Quizás destacaría las Encuestas de Valoración del Profesorado. Las resalto como dato más valioso dada la trascendencia y calado de este proceso, pues involucra a todos los estudiantes de la universidad, así como a todo el PDI cuyas evaluaciones son un aspecto clave para su acreditación con la ANECA.

BDM: Un estudio de KPMG muestra que un 41% de las universidades aprovecha el análisis de datos para ser más eficaces, ¿crees que el Big Data os puede ayudar a vosotros también en esta tarea? IT: Rotundamente, sí. Tanto las herra-

mientas digitales como las estrategias que nos proporciona el Big Data Analysis son elementos clave que hemos de incorporar en la vida diaria de las Universidades, pues hay mucha información que analizar y explotar para estudiar diversas vías, tanto de evolución y mejora interna, como de desarrollo y expansión.

BDM: ¿Cuáles son los problemas más comunes a los que os enfrentais al analizar los datos? IT: Inicialmente, nos encontramos con

un gran escollo como es el de garantizar la integridad del dato. A nivel institucional hemos tenido un crecimiento muy grande en pocos años y hemos necesitado adaptar las herramientas de gestión a esta nueva situación. El principal problema que nos ocupa actualmente es el de la adecuación de las herramientas desde el punto de vista de la explotación de los datos, pues la ingente cantidad de información que tenemos disponible es necesario tratarla en entornos y plataformas diseñadas para tal efecto.

BDM: ¿De qué manera puede influir el Big Data en la captación de nuevos alumnos en la UCAM?

IT: El análisis de los indicadores de

satisfacción nos permite identificar los puntos fuertes y áreas de mejora de nuestros estudios oficiales en todos los ámbitos que afectan a los grupos de interés (alumnos, egresados, empleadores…). Este hecho nos permite explotar aquellas facetas que nos diferencian de otras universidades y, por otra parte, tomar decisiones para la mejora de aquellos aspectos que los grupos de interés no consideran tan “excelentes”. En este sentido, nos permite mostrar a los potenciales nuevos estudiantes aquellas cuestiones que puedan decantar la balanza por nuestra universidad.

BDM: Gran parte de los datos pueden servir para planificar métodos de enseñanza, ¿qué novedades habéis introducido en este sentido debido al uso de los datos? IT: En este área, se tienen en cuenta, por

una parte, las encuestas de satisfacción a los grupos de interés donde, entre otras cuestiones, se recaba información acerca de la planificación de las enseñanzas y arroja una información muy valiosa sobre la percepción de los diferentes grupos de interés en este ámbito. Sin embargo, para la toma de decisiones definitiva y la implementación de cambios y mejoras, son de especial utilidad las tasas e indicadores académicos, aportan una perspectiva objetiva de la evolución de los estudiantes..

BDM: Muy ligado al ámbito del Big Data se encuentra la Inteligencia Artificial, ¿empleáis bots o robots que os puedan hacer más fáciles el día a día? IT: Recientemente hemos incorpo-

rado, a través de la Dirección TIC y Multimedia, un software de automatización de procesos robóticos, que está aliviando al personal de procesos automáticos y permitiendo disponer de un valioso tiempo para focalizar la atención en establecer líneas estratégicas.

BDM: ¿Cómo crees que la IA y el Big Data transformará el futuro de las universidades? IT: Desde mi punto de vista, la

tendencia hacia el desarrollo tecnológico y la incorporación en las universidades de herramientas que faciliten el trabajo automático, va a favorecer que el trato con los estudiantes sea (aún) más personalizado y que el personal, no sólo evite trabajos automáticos y tediosos, sino que disponga de una información privilegiada para proporcionar al alumnado una atención más personalizada y adaptada a sus necesidades.

BDM: Se ha hablado mucho de los beneficios del empleo de la IA y el Big Data en el ámbito universitario, pero ¿y de sus consecuencias? IT: En el área del análisis de datos,

el principal error es pensar que las herramientas te proporcionan toda la información necesaria. En mi opinión, la clave está en la combinación entre tecnologías y recursos humanos. Disponer de un personal formado para ser capaz de interpretar y capacitado para analizar crítica y analíticamente los datos arrojados por las diversas herramientas que tenemos disponibles actualmente, puede marcar la diferencia en todos los ámbitos en general y, en particular, en el universitario, que es el que nos ocupa.

BDM: ¿Crees que el empleo de los datos ha sido el ‘gran descubrimiento de las universidades’? IT: Creo que ha sido el “gran descubri-

miento”, en general. El tratamiento de datos es un área en auge actualmente y que, quien es capaz de analizar y explotar los datos, tiene mucho camino recorrido. En las universidades, con el análisis de datos, se ha descubierto un foco de información clave para el desarrollo de sus enseñanzas y el de la vida académica desde todas las perspectivas.

.

“Hemos incorporado un software de automatización de procesos robóticos, que alivia al personal de procesos automáticos y permite disponer de un valioso tiempo”

BigDatamagazine | Mayo 2021


48 Especial Big Data e IA en el sector educativo / UPCT

“El análisis de datos de los alumnos nos permite captar vocaciones STEM” La recopilación y análisis de datos se ha vuelto en un imprescindible para las universidades. En la Universidad Politécnica de Cartagena (UPCT) utilizan todo su potencial para captar vocaciones científicas.

E

Texto: Rocío

González

ntrevistamos a Mari Carmen Bueso, responsable de la Oficina de Prospección y Análisis de Datos (OPADA) de la UPCT, que nos cuenta lo importante que es el departamento que dirige para la toma de decisiones en la universidad.

Big Data Magazine (BDM): ¿Cuánto tiempo llevas trabajando en la UPCT y qué es lo que destacarías de tu trabajo? Mari Carmen Bueso: Accedí al depar-

tamento de Matemática Aplicada y Estadística de la UPCT en comisión de servicios en octubre de 2000 y posteriormente obtuve la plaza de Titular de Universidad en el área de Estadística e Investigación Operativa en 2002. De mi trabajo me encanta comenzar nuevos proyectos de colaboración con compañeros de otras áreas de conocimiento en los que se requiere la aplicación de técnicas estadísticas al análisis de datos surgidos en diferentes ámbitos. Lo menos atractivo de nuestro trabajo quizás sea todo lo relativo a la gestión de los trámites administrativos; aunque con la incorporación de las nuevas tecnologías se han optimizado mucho estos procedimientos.

BDM: La OPADA no surgió desde el inicio de la UPCT, ¿me podrías comentar cómo fueron los inicios de esta oficina? M.C.B: Surgió en el año 2014 y su

creación fue promovida por el profesor Mathieu Kessler. En esos momentos, eran ya incesantes las peticiones de datos e indicadores sobre muchos aspectos de la actividad universitaria que provenían tanto de organismos externos (Tribunal de Cuentas, Conferencia de Rectores de las Universidades Españolas, Rankings) como desde departamentos y órganos de dirección BigDatamagazine | Mayo 2021

Mari Carmen Bueso, responsable de la Oficina de Prospección y Análisis de Datos de la propia UPCT. Se impuso la necesidad de disponer de personal dedicado a tiempo completo a la recogida y análisis de todos estos datos y se decidió dar el paso de crear la OPADA para dar respuesta a esta necesidad. BDM: ¿Cuándo se dio cuenta la Universidad que era necesario disponer de una Oficina de Prospección y Análisis de Datos? M.C.B.: Hubo un momento en el que

quedó claro que era necesario centralizar la recogida y análisis de los datos. Las peticiones de información a los servicios suponían una carga de trabajo importante para ellos, que tenían que atender además de su trabajo diario de

gestión. Finalmente, los criterios para calcular un mismo indicador podían variar de un año a otro según quién era el encargado de obtenerlo, lo que invalidaba las comparaciones y el estudio de su evolución.

BDM: ¿Por qué surgió la OPADA? ¿Qué necesidades cubre actualmente? M.C.B: Hace mucho tiempo, el equipo

de dirección de la Universidad Politécnica de Cartagena entendió la importancia estratégica de disponer de datos fiables, estables en el tiempo tanto para la toma de decisiones como para la rendición de cuentas. Apostó por la creación de la Oficina de Prospec-

“La OPADA surgió en 2014 cuando eran incesantes las peticiones de datos e indicadores de muchos aspectos de la universidad”


49

Mari Carmen Bueso, responsable de la Oficina de Prospección y Análisis de Datos ción y Análisis de Datos, con un perfil próximo a la ciencia de datos (Data Science), y con vínculos con el Servicio de Informática. En la actualidad, cubre todas las peticiones de datos e indicadores tanto de organismos externos como de servicios, departamentos o profesores individuales. Está al servicio del equipo de dirección para su necesidad de información cuantitativa para la toma de decisiones, contribuye al portal de transparencia de la UPCT y mantiene la plataforma de cuadros de mandos, https://boards.upct.es/. BDM: Teniendo en cuenta que la UPCT es una universidad tecnológica, ¿cómo de importante consideras que es el empleo del Big Data para la institución? M.C.B: Al igual que en cualquier

empresa o administración pública, es imprescindible disponer de datos fiables sobre nuestra actividad para poder identificar o anticipar situaciones difíciles, tomar decisiones que se plasmen en planes de acción, y realizar el seguimiento de los resultados para una corrección continua. Es muy importante que sigamos registrando en bases de datos todos los movimientos, procedimientos, de todos los servicios, de manera que ningún área de la actividad de nuestra universidad quede excluida del proceso de recogida y análisis de datos. BDM: ¿Qué tipo de datos analiza la OPADA? M.C.B: La OPADA ha ido construyendo

a lo largo de los años un datawarehouse completo que cubre la mayor parte de la actividad universitaria, desde aspectos académicos con todas las trayectorias de los alumnos, pero también becas, recursos económicos, recursos humanos, investigación, innovación, relaciones internacionales. La potencia de la centralización en la OPADA es que permite cruzar todos estos datos para un análisis más interesante y potente. BDM: ¿Cómo es el día a día de los profesionales que trabajan en la OPADA? M.C.B: El trabajo de los técnicos

especialistas en datos de la OPADA

se centra, por una parte, en el mantenimiento de nuestro datawarehouse, incorporando las nuevas bases de datos que se van generando en la UPCT y, por otra, en atender las peticiones de los diferentes servicios y órganos de gobierno de la universidad en todo lo relacionado con los datos de gestión de la UPCT. Se combinan las peticiones menos complejas del día a día para dar respuesta a necesidades puntuales con los grandes proyectos que requieren meses de trabajo.

BDM: De todos los datos que pasan por la OPADA, ¿cuáles consideras que son los más interesantes para analizar? ¿Podrías ponerme un ejemplo? M.C.B: Personalmente me interesan

mucho los datos relativos al progreso de los alumnos en sus estudios y relacionarlos con los datos que tenemos de su etapa previa a la universidad (pruebas de acceso, notas de bachillerato). Identificar los puntos y las asignaturas que suponen más dificultad a los alumnos, los factores que son más influyentes sobre su probabilidad de abandono, es comprobar, basándose en los datos, la vida de los planes de estudios. BDM: ¿Cuál es el volumen de datos que es capaz de generar y de procesar al día una institución como la UPCT? M.C.B: Unos 2.5 Terabytes (TB), apro-

ximadamente.En la UPCT se recogen y analizan de manera rutinaria todos los datos generados por la actividad académica (convalidaciones, exámenes, trabajos fin de estudios), los cambios en cuanto a recursos humanos, pero también todas las visitas a las distintas webs de la universidad. Tenemos procesos que reconstruyen y actualizan con regularidad y diariamente las tablas de nuestro datawarehouse.

BDM: ¿Qué ventajas aporta para una universidad el análisis continuo de datos? M.C.B: Cualquier decisión en una

institución debe estar “human-centered” pero “data-driven”, para usar dos términos anglosajones claves en la nueva cultura de datos. El análisis

“Los datos permiten identificar los factores que son más influyentes en la probabilidad de abandono de los alumnos”

debe estar integrado en el diagnóstico continuo, la anticipación de tendencias que requieran de decisiones, el diseño de planes de acción y finalmente el seguimiento de estos planes.

BDM: He visto que existe una especie de ‘Libro Blanco de la Inteligencia Institucional’. ¿En qué consiste este libro y qué puede aportar tanto a la comunidad universitaria como a la sociedad? M.C.B: El “Libro Blanco de la Inteli-

gencia Institucional” en instituciones de educación superior es un compendio de artículos que describen por una parte en qué área de la actividad universitaria puede intervenir la inteligencia de datos, y por otra parte da ejemplos de su aplicación. Lleva ya unos cuantos años publicado y la importancia de los datos se ha incrementado incluso.

BDM: ¿De qué manera el análisis de datos continuo permite que una universidad siga captando alumnos, que en definitiva es el objetivo de la institución en su conjunto? M.C.B: El objetivo de la institución es,

desde una vocación de servicio público, formar a los ingenieros y graduados que nuestra sociedad necesita, en colaboración con las empresas de nuestro entorno y desde una perspectiva Europea. Es verdad que necesitamos comunicar el mensaje de que las materias STEM y los estudios que se imparten en la UPCT son sinónimos de alta inserción laboral, profesiones atractivas y oportunidades nacionales e internacionales, pero que además son cruciales para nuestro desarrollo como sociedad. Para ello, analizamos el perfil de los alumnos de nuevo ingreso, sus lugares de origen, con el objetivo de centrar nuestras campañas de promoción. BDM: ¿Cuál consideras que es el futuro del análisis de datos en las instituciones educativas? M.C.B: Creo que el futuro pasa por ser

capaces de registrar, recopilar y analizar todos los datos que genera una institución como la nuestra en tiempo real, lo que supone un gran esfuerzo hacia la digitalización de todos nuestros procedimientos, huyendo de los ficheros Excel locales manejados por una persona o un servicio, y poniendo a disposición de la OPADA el rango completo de las áreas de actividad de nuestra universidad. Esto necesitará de una visión única para el almacenamiento de todos estos datos que, a priori, provienen de fuentes muy diferentes.

.

BigDatamagazine | Mayo 2021


50 Especial datos e IA en el sector educativo / Universitat Oberta de Catalunya

“El CDO de una institución educativa tiene aún mucho por hacer” Josep Curto es científico de datos, fundador de AthenaCore y director del Máster en Business Intelligence y Big Data Analytics de la Universitat Oberta de Catalunya (UOC). Actualmente, vive en Malasia, ha residido en cinco países diferentes de tres continentes, y ha recorrido el mundo ayudando a diferentes organizaciones a crear ventajas competitivas basadas en datos.

C

Texto: Mari

Gómez

ree que la combinación de datos, modelos, tecnología y experiencia es el equilibrio perfecto para ayudar a las compañías a ofrecer mejores servicios y crear nuevos productos. Su experiencia, vinculada a las matemáticas, comprende metodologías y estrategias de datos que aplica a la hora de resolver problemas comerciales y mejorar la toma de decisiones, en el sector educativo y, en todo tipo de industrias.

Big Data Magazine (BDM): ¿Qué aporta un CDO a una organización? Josep Curto (JC): Un CDO tiene

múltiples responsabilidades dentro de la organización. Para empezar, liderar la estrategia de datos e información, lo que significa que gestiona el gobierno y la explotación de los activos digitales.

BigDatamagazine | Mayo 2021

Y esto se manifiesta a través de sistemas, estrategias y servicios analíticos. Además, ayuda a identificar y actuar sobre oportunidades con el objetivo de mejorar, evolucionar o crear nuevos procesos de negocio mediante datos y algoritmos. Un Chief Data Officer es la persona responsable de garantizar que los datos sean accesibles, de calidad, privacidad, gobernados y protegidos, así como de las iniciativas de generación de valor y explotación de los mismos. BDM: ¿Cree que las empresas en España están concienciadas sobre la importancia de los datos y, sobre todo, de disponer de herramientas para gestionarlos correctamente? JC: Cada vez tenemos más y más

empresas en España que han identificado y entienden la importancia de los

datos. De hecho, el creciente número de roles de gestión (no solamente CDOs sino también head of) en los últimos años pone de manifiesto este interés. Y, en general, todas las empresas del Ibex35 tienen un responsable de datos. El hecho de tener un CDO (o equivalente) no significa que las empresas hayan implementado todos los pilares necesarios para esta estrategia (como el programa de gobierno del dato). Tenemos organizaciones en diferentes niveles de adopción y todavía es necesario un largo trabajo de evangelización. Por otro lado, cabe recordar que estamos hablando, no solo de introducir tecnología en la organización, sino de gestionar un creciente portfolio de productos y servicios (internos y externos) que tiene su propio ciclo de vida a gestionar.


51

Josep Curto, fundador de AthenaCore y director del Máster en Business Intelligence y Big Data Analytics de la UOC

“El CDO debe estar en contacto permanente con otros responsables para definir iniciativas y desplegar una cultura analítica”. BDM: Y, más concretamente ¿el sector educativo? JC: El sector educativo va por detrás de

otros sectores, aunque estamos viendo que algunas organizaciones ya están liderando la contratación de roles de gestión para definir y liderar sus iniciativas y convertirse en organizaciones orientadas al dato.

BDDM: ¿Qué hace que una compañía sea data driven? JC: Aunque existen múltiples defini-

ciones, lo que tienen en común todas las organizaciones orientadas a datos y evidencias es que, por un lado, los datos son considerados un activo crítico para la organización y se han establecido mecanismos adecuados para la gestión de dicho activo; por otro, los datos se usan para mejorar la toma de decisiones, la gestión de las operaciones, la validación de hipótesis, el diseño de productos y servicios y el intercambio comercial de activos de datos; y, por último, las estrategias de datos (business intelligence, data science y/o big data) forman parte de la estrategia corporativa. En definitiva, las estrategias competitivas y operacionales de la organización se apalancan en datos y evidencias en todos los departamentos, y buscan generar ventajas competitivas sostenibles. Como es posible imaginar estamos hablando de un proceso de largo recorrido.

BDM: Los expertos comentan la importancia de que no solo existan perfiles técnicos en el departamento responsable de datos, ¿con qué profesionales cuenta en su equipo? JC: Los proyectos de analítica son prin-

cipalmente proyectos que pueden tener un fuerte impacto de negocio. Teniendo en cuenta los aspectos de este tipo de proyectos en general, debemos considerar un equipo híbrido en el que participan perfiles como: Especialista en Ingeniería de datos (que decide sobre la plataforma que permite escalar el proyecto de forma adecuada).

Especialista en analítica (que decide las técnicas de análisis adecuadas, aquí podemos tener desde los especialistas en inteligencia de negocio hasta los científicos de datos, en función del proyecto). Experto en el negocio, también conocido como subject expert matter (que aporta el conocimiento de negocio) y que frecuentemente debería ayudar también en la gestión del cambio. Experto en regulación y ética de datos (que permite entender el impacto de la regulación y las consideraciones éticas en el marco del proyecto). Experto en auditoría interna (que se asegura que se incluyen los mecanismos de trazabilidad adecuados, se han analizados los riesgos y se han establecido puntos de control y la documentación adecuada para la auditoría del proyecto). Además, el CDO debe trabajar con otros responsables como el DPO, CIO, CEO, CFO, CMO, COO, CHRO, CSO o CLO para detectar, definir y coordinar iniciativas, así como el proceso de desplegar una cultura analítica.

BDM: En su opinión, ¿qué debe diferenciar a un CDO del sector educativo de un responsable de datos que opere en otro sector? JC: Hay múltiples aspectos que son

comunes a cualquier CDO, con independencia del sector. Aunque cabe comentar que en el sector educativo hay que tener en cuenta algunos detalles muy diferentes como por ejemplo, que existen diferentes skateholders con intereses y necesidades muy dispares. El equipo gerencial y administrativo de la institución - cuyas necesidades están relacionadas con la gestión eficiente -, el cuerpo docente cuyas necesidades están vinculadas con la aplicación de learning analytics para mejorar el aprendizaje - y el equipo investigador - cuyas necesidades pueden estar vinculadas al uso de los datos de los estudiantes con el objetivo de avanzar el campo de learning analytics - o la necesidad de tener una plataforma de datos para investigación. Muchos de los conjuntos de datos son de personas, por los que es necesario implementar un gobierno del dato (y de los algoritmos) para cumplir tanto la regulación actual como la futura. Las instituciones del sector educativo no han sido tradicionalmente orientadas al dato por lo que el CDO de una institución educativa se encontrará que existen un nivel bajo de madurez y mucho trabajo por hacer a nivel de de la gestión de la información, la proficiencia analítica, el alcance de las iniciativas analíticas y la transformación cultura.

.

“El Chief Data Officer que trabaje en una institución educativa debe tener en cuenta que se dirige a diferentes skateholders con necesidades e intereses muy dispares, es una de las particularidades de este sector”. BigDatamagazine | Mayo 2021


52 Big Data para controlar robos

El Big Data: la ‘policía’ de los datos Los agentes podrían empezar a utilizar la información que consiguen a través del Big Data para detectar acciones fraudulentas e incluso para detener a los delincuentes.

C

Texto: Rocío

González

rimen y Big Data podrían llegar a ser sinónimos. Dicen que la información es poder y el big data provee información esencial para que, por ejemplo, la policía sea capaz de detener a delincuentes. Sí, porque el Big Data puede ayudar a detectar el crimen. A continuación te contamos cómo. Aunque a priori lo parezca, el Big Data no solo analiza una ingente cantidad de datos de cualquier soporte. Sino que parte de su tarea consiste también en procesar la información. De esa manera, las distintas formas que hay para combinar la información hacen posible la toma de decisiones eficientes. Eso permitiría potenciar y crear estrategias adecuadas para mejorar la seguridad pública. Distintos estudios muestran que los

BigDatamagazine | Mayo 2021

datos abiertos (open data)y el empleo de la información que se comparte de manera pública, junto a datos de las autoridades policiales podrían servir para predecir posibles crímenes. Se trataría de, según los expertos, utilizar el Big Data y el análisis de la información de una manera más inteligente. Por ejemplo, a la hora de utilizar el Big Data se puede acceder a información sobre la relación que tienen dos familias distintas: una con problemas y otra sin ellos. Del mismo modo, se puede obtener un mapa de información más fiable sobre zonas

conflictivas, los meses y días en los que hay más crímenes para así incrementar la vigilancia policial y evitar futuros percances. El sistema ya lo han utilizado en California. A través de toda esta información se han logrado reducir en un 27% los robos a locales públicos y en un 11% los asaltos a personas. Lucha proactiva Si tradicionalmente la lucha contra el crimen y la delincuencia ha sido reactiva, a través del Big Data ha pasado a ser una lucha proactiva y

El empleo del Big Data ha permitido reducir en ciudades como California un 27% los robos en locales públicos.


53

Big Data para controlar robos predictiva. Esto es posible gracias a la recopilación de toda la cantidad de documentos policiales, denuncias, índices históricos, videos, fotos, datos que se pueden conseguir de diferentes aplicaciones. El Big Data permite encontrar información inimaginable y permite crear repositorios de información tanto de comisarías, fiscalía, municipios, privados y el Poder Judicial. Así se lograría un mayor alcance. La Comisión Nacional de los Mercados y de la Competencia (CNMC) lo tiene claro: hay que ayudar a la economía española. ¿Cómo hacerlo? Detectando aquellas prácticas anticompetitivas que pueden dañarla. Para ello han puesto en marcha el Sistema de Informantes de Competencia Anónimos (SICA). Se trata de un canal completamente cifrado y anónimo para que cualquier ciudadano o empresa pueda enviar información sobre prácticas que dañan a la competencia y, en consecuencia, perjudican a la economía española. Las comunicaciones que se vuelcan ahí son confidenciales. De esta forma, incluso en los casos en los que los informantes decidan no ser anónimos, sus datos de carácter personal únicamente estarán disponibles para la Unidad de Inteligencia Económica (UIE). Este equipo nunca revelará de manera directa o indirecta dichos datos en las posibles investigaciones que inicie. Unidad de IA Este nuevo canal funciona como un chat. Así, cuando el ciudadano introduce una información en el sistema obtiene un código alfanumérico, que será la única vía de entrada a esas conversaciones. El informante no deberá introducir ningún tipo de información personal (teléfono, nombre o correo electrónico) para colaborar con la CNMC y se establecerá una comunicación bidireccional y anónima. La unidad que ha desarrollado esto es la de Inteligencia Artificial. Está formada por un grupo de expertos en matemáticas, estadística, e informática, además de por economistas y abogados, que se sirven de algoritmos y técnicas propias de análisis big data para desarrollar sus investigaciones. Su trabajo es esencial en casos que afectan directamente a las manipulaciones en la contratación pública y al desmantelamiento de cárteles estables.

La CNMC ha puesto en marcha un canal que se sustenta en el análisis de datos para detectar los fraudes En el caso de que este análisis así lo aconseje, se iniciará un procedimiento de investigación. Durante todo el proceso, se adoptarán mecanismos para garantizar, tanto la confidencialidad de las personas que aporten información, como la de aquellas que se vean afectadas por los hechos o situaciones comunicadas. Tecnología policial Las organizaciones policiales, por su actividad diaria, generan, almacenan y procesan grandes cantidades de datos, en el ámbito de los macrodatos (Big Data). Desgraciadamente no siempre disponen de las tecnologías y técnicas que permiten obtener un valor añadido. El Instituto de Servicios Reales Unificados para los Estudios de Defensa y Seguridad. Sin embargo, la policía aún tiene carencias en este sentido. Investigadores aluden a la falta de un espacio único donde guardar e ir a recuperar los datos y la ausencia de una tecnología que dé sentido a los datos. También destacan cuatro ámbitos prioritarios en los que la tecnología relacionada con los macrodatos se puede aplicar al trabajo policial. Por ejemplo, el cuerpo policía podría aprovechar los mapas de predicción de delincuencia para destinar a las patrullas allí donde hay mayor probabilidad de que sucedan los delitos. De igual forma se podría emplear la

analítica predictiva para identificar los riesgos asociados a determinadas personas, tanto potenciales autores como potenciales víctimas. Si se usara la analítica avanzada, la policía podría intentar aprovechar todo el potencial de los sistemas de grabación de imagen (circuitos de videovigilancia) y de los datos de los sistemas de reconocimiento automático de matrículas. Para terminar de emplear bien este tipo de sistemas se recomienda a la policía priorizar la exploración de la potencialidad del software de los mapas destinados a hacer predicción. También deberán utilizar los datos nacionales, no solo los locales, cuando se quiera predecir los riesgos asociados a individuos. De igual forma si se incluye en todas las aplicaciones de datos un registro, se podrá documentar cualquier cambio realizado en el conjunto de datos. Por otro lado, las fuerzas y cuerpos de seguridad pueden profundizar en la investigación sobre el software de predicción de la delincuencia para poder generar modelos de predicción por segmentos de calle y explorar los usos potenciales de la modelización del terreno en base al riesgo para identificar las áreas donde hay mayor riesgo de sufrir delitos. En definitiva, los datos son un poderoso aliado para mantener a raya a los delincuentes en cualquier ciudad.

.

BigDatamagazine | Mayo 2021


54 Con mucho acento, el resultado de sumar IA y creatividad

“La IA ayudará a la publicidad a ser más relevante y menos invasiva” “Con mucho acento” es un claro ejemplo. La campaña de Ogilvy para Cruzcampo ha traspasado fronteras. Su éxito, según Roberto Fara, Chief Creative Officer de la agencia, ha sido “la combinación entre un mensaje simple y capaz de llegar al corazón. Ahora, en cualquier parte del mundo se conoce el significado de poderío”.

S

Texto: Mari

Gómez Becerra

egún Fara, la marca fundada en Sevilla en 1904, “necesitaba volver a conectar con una generación que estaba muy desconectada de la marca. Teníamos por delante un trabajo de reposicionamiento que debía alejarse de los estereotipos. De la idea de que en el sur la cerveza sabe mejor. Lo primero que hicimos fue desarrollar la estrategia desde el behavioral science. Trabajamos mucho con el equipo de Londres, porque en España este departamento aún no existe. La labor de este equipo es esencial porque se centra estudiar cómo piensan, sienten y se comportan las audiencias. Estudia las barreras cognitivas y cómo derribarlas”.

La Inteligencia Artificial al servicio de la publicidad

Es la primera vez que Ogilvy utiliza IA en el desarrollo de sus campañas. “Al principio teníamos dudas, miedo y BigDatamagazine | Mayo 2021

preocupaciones, pero nunca hubiéramos imaginado que fuera a tener esta acogida. Es un gran ejemplo de hacia dónde queremos dirigirnos. No queremos hacer anuncios o impactar en la comunicación, sino pensar en productos y servicios. Nuestro objetivo es transformarnos en una compañía creativa, basada en la creatividad en sí misma. Es algo que la IA no podrá reemplazar, pero sí nos ayudará a que lo que nosotros creemos sea mirado con lupa”, afirma. A pesar de que la Inteligencia Artificial no pueda reemplazar a la creatividad, el CCO de Ogilvy augura que “el desarrollo de este tipo de tecnología nos va a

permitir hacer realidad ideas que antes no podíamos ni imaginar. Para empezar, el análisis de datos nos permitirá personalizar mucho más el contenido. La IA nos ayudará a ser más relevantes, a no interrumpir, a ser menos invasivos. La publicidad se encuentra ante un gran reto de transformación”. “Con mucho acento” ha generado un gran debate respecto al uso ético de este tipo de tecnología al resucitar a La Faraona. “Para nosotros no existe debate tal porque nuestra intención en ningún momento fue resucitar a Lola, ni engañar. Una cosa es el engaño de poner en boca de otra persona lo que no ha dicho; y,

“Teníamos claro que Lola no iba a salir bebiendo cerveza porque queríamos ir más allá. Ella era nuestra brand voice. Se trataba de un manifesto, de una actitud ante la vida”


55

Roberto Fara, CCO de Ogilvy, la agencia de publicidad de Cruzcampo otra muy diferente, es jugar con la ingenuidad. Es como cuando vas al teatro. Tú sabes que son actores, pero por un momento te crees el papel que están interpretando. La familia Flores aprobó en todo momento la idea desde el primer esbozo porque reconocía que era un discurso que perfectamente hubiera dicho su madre. La idea no era resucitar a la artista, sino el manifesto en sí, que te empoderes y te enamores de ti, de la persona que eres, de tus raíces”, aclara Fara. Ciencia del comportamiento para saber más sobre las audiencias

El Behavioral Science Center de Ogilvy se puso en marcha en 2017 y, aunque en España aún no existe como tal este departamento en ninguna de sus sedes, los equipos de Madrid y Barcelona trabajan mano a mano con sus responsables en Nueva York y Londres. “Obtuvimos información muy valiosa. Las conclusiones que extrajimos antes de crear “Con mucho acento” es que teníamos que llevar lo local a lo global, que el sentido de pertenencia es muy importante, que necesitas volver a conectar con tus raíces - independientemente de cuáles sean- e integrarte. Con una nueva música, nuevos canales, nuevas formas de expresión, pero sin olvidar tu tradición y carácter”. La responsable de dar voz a las nuevas generaciones ha sido la cantante cordobesa María José Llergo. Su cante es profundo, cercano, capaz de conectar presente y pasado. Desde 2018, año en el que estrenó su single “Niña de las dunas” ha lanzado otros temas hasta presentar su primer álbum “Sanación”, el año pasado. Con una estética y un tipo de música actual que representa a miles de jóvenes de hoy en día, Llergo ha recogido el legado de Lola, en nombre de su generación. Como dice Fara, “Con mucho acento es una comunidad y eso es lo que más debe preocupar a las marcas. Menos generar impactos y más sentido de pertenencia. Hoy en día los nichos son más pequeños, por eso es importante generar ideas que sean interesantes, honestas y entendibles. Antes, por ejemplo, no existía debate. Mis padres veían la televisión y no cuestionaban lo que escuchaban. Si el detergente quitaba las manchas, es que quitaba las manchas. Hoy en día no sucede lo mismo. Por eso, si las marcas son capaces de crear comunidad, establecerán relaciones más sólidas con su público”.

En este sentido, el Behavioral Science Center juega un papel fundamental ya que resulta clave para definir cómo piensan, sienten y se comportan las audiencias y, como consecuencia, mejorar la efectividad de la publicidad y la comunicación. El departamento de Ciencias del Comportamiento, dirigido por Christopher Graves, “ayudará a transformar la forma en que entendemos y movemos a las personas y, por lo tanto, nos dará ventaja a la hora de conocer lo que necesitan las marcas”, ha asegurado Carla Hendra, presidenta global de Ogilvy y vicepresidenta de la junta mundial de la compañía. El gran reto al que se enfrenta la publicidad - y la mayoría de los sectores - es aprender a utilizar esos datos para diseñar estrategias que mejoren la toma de decisiones. El uso de Inteligencia Artificial y Big Data en el sector permite a las marcas tener una visión más compleja del consumidor y sus necesidades. “Ahora mismo estrategia y Data son dos de las herramientas principales para la publicidad.

Tener un conocimiento exhaustivo de quién te consume, saber cómo piensa, siente y actúa tu audiencia, es algo que sólo te da el análisis de los datos y que resulta fundamental”, concluye Roberto Fara. “Con mucho acento” es un gran ejemplo de lo que la Inteligencia Artificial puede hacer por la publicidad. La campaña de Ogilvy para Cruzcampo ha vencido estereotipos, ha logrado reposicionar a la marca y ha llegado al corazón de miles de personas, incluso, fuera de España. “Utilizar este tipo de herramientas y centrar las estrategias en ellas, permitirán hacer un análisis mucho más exhaustivo de cómo es el consumidor y esto nos ayudará a personalizar mucho más el contenido. Estamos inmersos en una continua transformación, pero evolucionar es adaptarse, y el entorno tecnológico y digital es ya una realidad. Saber aprovecharlo va a resultar clave si queremos que la publicidad sea verdaderamente eficaz”.

.

En el proceso de producción, en el que han participado en todo momento Rosario y Lolita, se han utilizado más de 5000 imágenes de Lola Flores que han sido tratadas con herramientas basadas en IA

BigDatamagazine | Mayo 2021


56 Los datos en la era Covid

IA, Big Data e IoT, juntos para luchar contra la pandemia Científicos y tecnólogos de todo el mundo han visto en el uso de los datos y de la inteligencia artificial una puerta de salida para contrarrestar el virus. ¿Será efectivo lo que proponen?

L

Texto: Rocío

González

a tecnología une fuerzas contra la pandemia. La IA, el Big Data, el machine learning y el IoT se emplean a fondo desde la aparición de la Covid-19 para ayudar a identificar más rápidamente nuevos casos o para buscar medicamentos efectivos que nos permitan volver a una vida normal. O lo que hasta marzo de 2020 conocíamos como “normalidad”. Desde hace algo más de un año los médicos iniciaron una investigación para tratar de identificar cuáles serían los mejores medicamentos contra la Covid-19. Aún sin resultados demasiado concluyentes, la tecnología sí que podría suponer un aliciente a localizar aquellas medicinas más efectivas contra la pandemia. El machine learning podría ser la clave en este sentido. Así lo pone de manifiesto un estudio publicado en la revista Nature Communications en el que se indica que el machine learning podría identificar qué medicamentos BigDatamagazine | Mayo 2021

podrían utilizarse para combatir la Covid-19. La idea surge a fin de ayudar a los científicos a concentrar sus esfuerzos en realizar ensayos clínicos para comprobar la efectividad de la medida. En el estudio han participado tanto futuros doctores como investigadores del Instituto de Tecnología de Massachusetts, como de la Universidad de Harvard y de la Escuela Politécnica Federal de Zúrich. Todos ellos tratan de usar el machine learning para encontrar cuáles son los medicamentos más prometedores para curar la enfermedad. Autocodificador Para ello han partido de lo que ya se conoce, las personas mayores son las más afectadas por la Covid-19, sobre todo a causa del envejecimiento. Así que han hecho una lista de posibles medicamentos. En ese sentido la lista se ha generado con una técnica de aprendizaje automático conocida como autocodificador. Finalmente, con algoritmos estadísticos han identificado las

áreas de superposición para identificar la red de expresión de genes precisa en la cual un medicamento debería actuar para combatir la Covid-19 en los mayores. Hasta la fecha, la Inteligencia Artificial y el machine learning se han presentado como herramientas poderosas frente a la pandemia. Y es que a mediados de 2020, un grupo de científicos de la Universidad de Michigan presentaron un estudio en el que probaron la IA para recrear la fórmula de once medicamentos. Con esto han podido fabricar medicamentos que aún no han desvelado y aumentar la producción de productos útiles contra la pandemia. Servicios durante la pandemia La IA ha estado amenazando con reemplazar muchos de los puestos de trabajo durante algún tiempo. Y no hay duda de que tiene una enorme capacidad en una variedad de ámbitos. Pero por ahora, todavía existen límites a lo que pueden hacer los algoritmos.


57

Los datos en la era Covid Pero hay una cosa que los humanos aún hacen mejor que la IA: comprender las interacciones basadas en texto de otros humanos, especialmente en las redes sociales, y los sentimientos que intentamos transmitir. En un mundo post-pandémico, mientras las empresas luchan por comprender a sus clientes, los sistemas de inteligencia artificial no pueden reemplazar la inteligencia humana. Desde que comenzó la pandemia de Covid-19, las empresas han adoptado planes para garantizar que puedan seguir prestando servicios a sus clientes a pesar de las nuevas normas de distanciamiento social, el aumento de la incertidumbre del cliente y de las restricciones.

A lo largo de la pandemia, las innovaciones tecnológicas han impulsado iniciativas de salud y seguridad, ayudando a las personas a conectarse entre sí y ayudando a los investigadores a descubrir las vacunas. La tecnología ha ayudado a los ciudadanos a trabajar y acceder a la atención médica y les ha protegido. Aunque se ha hablado de las ciudades inteligentes desde la década de 1990, la pandemia ha acelerado la necesidad de recopilación y seguimiento de datos para ayudar a combatir la propagación de la enfermedad. Ahora las ciudades están buscando estas tecnologías para ayudarlas a sobrevivir más allá de la pandemia, tanto física como económicamente.

Cae la respuesta a publicaciones de

Frenar al virus A lo largo de la pandemia, la tecnología de las ciudades inteligentes se ha utilizado de dos formas principales: para la recopilación y el seguimiento de datos, y para mantener seguros a los ciudadanos. Para frenar la propagación de la Covid-19, muchos países de todo el mundo han estado utilizando tecnologías de reconocimiento facial para rastrear posibles exposiciones. Por ejemplo, el gobierno de Canadá lanzó una aplicación de seguimiento de exposición en todo el país, que utiliza

los clientes

Estos factores probablemente contribuyeron al aumento de clientes que buscan servicio en canales digitales. Las investigaciones han demostrado un aumento constante de las quejas y consultas de los clientes en las redes sociales en 2020. En un análisis de unas 950.000 publicaciones en redes sociales que involucran entre el 1 de marzo y el 2 de abril de 2020, la tasa de respuesta a las publicaciones de los clientes que requieren atención ha caído un 26,6% en banca, comercio minorista, empresas de telecomunicaciones, aseguradoras y farmacias. El valor de los comentarios no solicitados que los clientes brindan a las empresas en las redes sociales es cada vez más reconocido por las empresas. La IA aún no puede analizar con precisión nuestra conversación. El análisis de sentimientos, la tarea automatizada impulsada por un algoritmo de determinar el significado y la intención de un tweet o un comentario en Facebook, todavía no es consistentemente precisa. Los algoritmos que muchas organizaciones usan para las respuestas y el análisis de las redes sociales pueden captar palabras clave e identificar tendencias, pero no pueden determinar de manera confiable el sentimiento o los temas que impulsan esa sensación. Estos algoritmos no pueden captar los matices de nuestro idioma como el sarcasmo o la jerga local. La Covid-19 ha legitimado el uso de software de reconocimiento facial que proporciona una mayor recopilación de datos sobre la pandemia.

Bluetooth para intercambiar códigos con otros teléfonos. Cuando un usuario da positivo, puede registrar sus resultados en la aplicación para informar a otros usuarios de una posible exposición. Se dice que la cantidad de datos almacenados es mínima y está encriptada de forma segura. La clave: reconocimiento facial En todo el mundo la tecnología de reconocimiento facial también se está utilizando para rastrear la propagación del Covid-19 y monitorear a quienes han estado expuestos. En Rusia, la tecnología de reconocimiento facial se está utilizando para monitorear a las personas en cuarentena, asegurando que las personas sigan las directivas y permanezcan adentro. Junto con los termómetros, el software de reconocimiento facial también se puede utilizar para tomar temperaturas, lo que ayuda a diagnosticar a quienes pueden tener el virus. Aunque queda por ver si estas tecnologías dejarán de usarse después de la pandemia, el hecho es que ya están configuradas para su uso en todo el mundo. Aunque el reconocimiento facial ha sido visto como una violación de los derechos humanos, es poco probable que las ciudades dejen de usar la tecnología cuando termine la pandemia.

.

BigDatamagazine | Mayo 2021


58 DataScience Spain, primer informe sobre la comunicación de la ciencia de datos de la USAL

“Sin confianza no se podrá avanzar en Big Data e IA” Ésta ha sido una de las conclusiones extraídas de DataScience Spain, el primer informe sobre la comunicación de la ciencia de datos en España, elaborado por la Universidad de Salamanca. Un proyecto que surge “motivado por la necesidad de conocer la realidad social del Big Data y la Inteligencia Artificial en nuestro país”, afirma el investigador principal del estudio, Carlos Arcila. Texto: Mari

E

Gómez Becerra

l trabajo muestra que el interés de los ciudadanos españoles por la ciencia de datos está creciendo en los últimos años y, una de las causas, es que se ha producido un aumento de las informaciones que los medios de comunicación publican sobre estos temas. “Se habla, sobre todo, de las aplicaciones de estas herramientas en el mundo empresarial, de cómo cambian las profesiones gracias a la tecnología, pero no de cómo afecta al día a día, a la vida cotidiana de las

personas” aclara Patricia Sánchez Holgado, del equipo de investigadores de la USAL. “Nos preocupaba que la gente solo tuviera una percepción negativa del Big Data y la IA. Esa idea de que son herramientas que vienen a quitarnos el trabajo o invadir nuestra privacidad”, comenta Arcila, “pero los resultados del informe nos han demostrado que las personas perciben mucho más los beneficios que pueden aportar”, asegura Sánchez que, además, está desarrollando su tesis doctoral en este ámbito.

“No existe preocupación por el efecto de la ciencia de datos desde una perspectiva social. Es una cuestión que solo se aborda desde el punto de vista tecnológico” BigDatamagazine | Mayo 2021

Financiado por la FECYT, Fundación Española para la Ciencia y Tecnología, DataScience Spain ha analizado el papel de periodistas, receptores y los propios contenidos de los medios digitales, para obtener una visión completa sobre el estado actual de la comunicación de la ciencia de datos en España, utilizando técnicas cuantitativas, cualitativas y análisis automatizado. ¿Los ciudadanos conocen en qué tipo de rutinas o actividades entra

Big Data o la IA? Para Sánchez Holgado esta cuestión es clave. “Preguntamos sobre algunas aplicaciones como Spotify o Netflix y también por los asistentes de voz como Alexa o Siri. La realidad es que el conocimiento respecto a lo que implica el uso de este tipo de herramientas es relativamente bajo porque la mayoría de las personas desconocen que, cuando utilizan esta tecnología, ya están en contacto con el en juego el


59

Carlos Arcila y Patricia Sánchez Holgado, del equipo de DataScience Spain Big Data y la Inteligencia Artificial”, comenta Sánchez. Por otro lado, añade, “si bien es cierto que está más asimilado en el uso de las redes sociales, no sucede lo mismo con el resto de aplicaciones. Por eso, nos parecía muy interesante incorporar rutinas de la vida cotidiana para que los ciudadanos puedan definir y entender el significado real de esta tecnología. En la mayoría de las ocasiones, el principal problema es que no comprenden la relación entre Big Data e IA, ni tampoco distinguen las diferencias”. La percepción de la Inteligencia Artificial y el Big Data en España Uno de los resultados obtenidos en el informe es que los ciudadanos entre 18 y 24 años son los que muestran menos interés hacia estos temas. Por otro lado, existe una mejor valoración de la IA respecto al Big Data, aunque los medios publican más noticias sobre ello. Y, por último, otra de las conclusiones es que el grado de conocimiento de la ciencia de datos, en general, es moderado. “Existe una clara relación entre

conocimiento y actitud o percepción. Cuanto más conocimiento, la percepción de la Inteligencia Artificial y el Big Data es más crítica y real”, asegura Carlos Arcila. “Hay que mejorar el conocimiento de la población y la percepción social que los ciudadanos tienen sobre esta tecnología porque la confianza de la sociedad en la IA y el Big Data es fundamental para avanzar. Sucede lo mismo con la política. Si no hay confianza en las instituciones, poco pueden cambiar. Claro que son herramientas que pueden ayudar a construir una sociedad mejor, pero esa mejora solo es posible si existe confianza y conocimiento”, añade. Para poder extraer conclusiones de DataScience Spain, los investigadores han realizado una encuesta con preguntas cerradas a 684 ciudadanos. Con el objetivo de valorar su opinión, debían responder en una escala del 1 al 5 a cuestiones relacionadas con la familiarización con el concepto Big Data e Inteligencia Artificial, su interés en estos temas - siendo 1 nada interesado y 5 muy interesado-, los beneficios de estas herramientas y

Es preciso que la ciudadanía no especializada tenga acceso a información sobre estas tecnologías, por lo que hay que poner el foco sobre los medios y los comunicadores

sus riesgos percibidos en una serie de aplicaciones destacadas. Referente a este último punto, el mayor riesgo del Big Data percibido por la población encuestada es la seguridad en internet, seguido por la protección de datos personales. Sobre los beneficios, la gestión de emergencias en tiempo real es el mayor beneficio percibido por los ciudadanos que han participado en el estudio, seguido de la prevención de catástrofes y la detección de enfermedades. Respecto a la percepción de los periodistas, papel que también se ha analizado en DataScience Spain, los beneficios percibidos más destacados han sido facilitar tareas diarias, optimizar recursos y ser más eficientes. En los sectores de aplicación destaca la automatización de procesos industriales, la medicina y la salud, la movilidad urbana o aérea y la economía. Los riesgos percibidos se centran en la pérdida de empleos, la seguridad en la red (privacidad, fraudes y amenazas) y la exposición selectiva a los medios. Otros de los datos que se han podido extraer del informe es que el acceso prioritario a la información sobre Big Data e Inteligencia Artificial se realiza a través de Internet y, además, hay un volumen elevado de personas que no se informan sobre el tema en ningún medio. Al tratarse de tecnologías todavía novedosas y que generan escepticismo en ciertos sectores de la población, el papel de la comunicación científica es de particular relevancia. Además de Carlos Arcila y Patricia Sánchez Holgado, el equipo de investigación que ha elaborado el informe lo componen Juan José Igartua Perosanz, Félix Ortega Mohedano, Beatriz González de Garay, Francisco Javier Frutos, María Marcos Ramos, Lifen Cheng Lee, Francisco Javier Jiménez Amores, David Blanco Herrero y Maximiliano Frías Vázquez, con la colaboración de Juan Pablo Latorre Jiménez. El Observatorio de Contenidos Audiovisuales (OCA) de la Universidad de Salamanca (USAL) ha sido pionero en la investigación de la comunicación de ciencia de datos en España. Desde su creación en 2005, tiene como finalidad el análisis empírico de los contenidos, usos, procesos y efectos de la comunicación en la sociedad, en este caso, de la aplicación del Big Data y la Inteligencia Artificial.

.

BigDatamagazine | Mayo 2021


60 Tecnología en las smart cities

Las ciudades del futuro que enamoran Descubre cuáles son las ciudades españolas que se han unido ya al concepto ‘smart’ y que monitorizan cualquier aspecto de la vida cotidiana.

L

Texto: Rocío

González

as smart cities van tomando terreno en España y en el resto del mundo. Cada vez son más los ayuntamientos que optan por la instalación de sensores en sus calles, que hacen uso de la inteligencia artificial y del Big Data para proporcionar unos mejores servicios y que, por lo tanto, ya son smart cities. Te contamos cuáles son algunas de estas ciudades españolas.

San Sebastián San Sebastián es una de las urbes españolas que en los últimos años ha optado por transformarse por completo y hacer uso de la tecnología. En concreto, San Sebastián se ha sumado a la tónica de restringir el tráfico rodado contaminante y transformarse en una smart city que controlara las emisiones de CO2 y la llamada contaminación acústica. San Sebastián consiguió un resultado positivo y convirtió su centro en una supermanzana. Entre los resultados que BigDatamagazine | Mayo 2021

ha obtenido destaca el aumento del área peatonal del 45% al 74%. También ha reducido el ruido de 66,5 dBA a 61 dBA y las emisiones contaminantes han descendido en un 42% en óxidos de nitrógeno y en un 38% en contaminación por partículas (PM). Santander ¿Cuántos sensores se pueden poner en una urbe como Santander? A priori sería algo complejo adivinarlo. Pero lo cierto es que Santander se ha convertido en la ciudad líder en España con una red de más de 20.000 sensores. ¿Cómo lo han hecho? Pues poco a poco. Para empezar, Santander comenzó colocando sensores en aparcamientos, pasando después a hacer lo propio con las estaciones meteorológicas y paradas de taxi. Ahora, todo forma parte de la misma red operativa. Madrid Como era de esperar, la capital madrileña también forma parte de las smart cities españolas. En Madrid se han

puesto en marcha varias iniciativas para configurar una ciudad completamente digital. Una de ellas es el desarrollo de la aplicación Avisos Madrid. En este sentido, el consistorio ha unificado decenas de directorios desde desperfectos en el pavimento a problemas de movilidad y los ciudadanos pueden llamar la atención sobre algún incidente, seguirlo, apoyarlo o informar de su cierre. Soria ¿Sabías que Soria es una de las ciudades que ha probado lo que se denomina ‘calefacción centralizada’. Uno de los problemas más urgentes de las ciudades actuales es la contaminación local, con los sistemas de climatización y los vehículos térmicos en el foco. Con respecto a la climatización, en España destaca Soria, que en 2015 puso en marcha un proyecto de district heating: calefacción centralizada para el barrio, que reduce considerablemente el impacto por habitante.


61

Tecnología en las smart cities Murcia La Región de Murcia apuesta por la tecnología y por una ciudad cada vez más inteligente. Prueba de ello es que en la propia ciudad de Murcia ya se han implementado diversas tecnologías que están haciendo de su urbe un espacio mucho más eficiente y sostenible. ¿Qué se pretende al impulsar la smart city en Murcia? Desde la administración local coinciden en que buscan la eficiencia en la gestión de los recursos naturales. Por ejemplo, quieren ahorrar agua en parques y jardines y también buscan contribuir al medio ambiente reduciendo las emisiones de dióxido de carbono. En definitiva, pretenden que la implementación de la smart city sea un beneficio no solo monetario, sino medioambiental. Riego por wifi Lo primero que han hecho con este proyecto es apostar por un riego más controlado. En ese sentido, han implementado unos sistemas en medio centenar de parques y jardines para controlar vía wifi el riego. Esta función se ajusta anualmente en función de las condiciones climáticas y permite que los aspersores se activen o desactiven en función de la humedad existente en las zonas verdes. Pavimento que autorregula la temperatura

En Murcia, una ciudad donde las temperaturas son elevadas la mayor parte del año es también necesario el que pueda haber sistemas que reduzcan la temperatura, sobre todo del pavimento. A través de un proyecto denominado ‘Oasis’, se ha implementado un pavimento fabricado a partir de triturado de caucho neumático impregnado en un agente fotocatalítico, un material que reduce la contaminación de los gases de los vehículos como el óxido nitroso. Según estudios sobre su uso, este pavimento puede reducir hasta un 81% el nivel de partículas contaminantes. Pero no solo eso, pues este material también autorregula su temperatura. Es un suelo antiabrasivo, que reduce la huella de carbono y la temperatura de la superficie y contribuye a crear entornos mucho más seguros. Plantaciones con drones La apuesta por los espacios verdes es otro de los puntos fuertes de la smart city murciana. Y es que prevén refo-

restar unas 450 hectáreas de zonas verdes. Eso sí, la plantación no se hará a la vieja usanza, sino que recurrirán a drones para detectar cuáles son las mejores áreas para plantar. Tecnología 5G en smart cities Hay mucho entusiasmo en torno a la tecnología 5G, pero la mayor parte se concentra en velocidades rápidas de Internet para computadoras y teléfonos inteligentes. La mayoría de la gente no es consciente del hecho de que una amplia gama de dispositivos y aplicaciones que funcionan con Internet se beneficiarán de la conexión rápida que ofrece 5G. Más que hacer que nuestra navegación y descarga sea más rápida, transformará el funcionamiento de la sociedad. Y esto será extremadamente importante en los próximos años. Las Naciones Unidas estiman que el 21% de la población mundial vivirá en ciudades en 2050. Esto podría generar una serie de problemas, especialmente en términos de tráfico y medio ambiente. Pero 5G puede potencialmente minimizar estos supuestos efectos adversos del aumento del transporte. Así es como. ¿Qué es 5G? 5G es la quinta generación de tecnología celular. Un salto gigantesco de 4G en lo que respecta a velocidad y aplicación, la función de HP en la tecnología 5G lo contrasta con 4G, revelando cómo es 70 veces más rápido de lo que estamos acostumbrados. Puede entregar datos de 10 a 100 veces más rápido que LTE y tiene la capacidad de reducir la latencia, un retraso o retraso que ocurre en la comunicación de datos a través de una red, a meros milisegundos. Se espera que esta velocidad sin precedentes altere una letanía de industrias, incluida la salud, el trabajo remoto, los juegos y la educación en línea. 5G también nos permite aprovechar todo el potencial de tecnologías avanzadas como inteligencia artificial, realidad virtual, Internet de las cosas y, por supuesto, transporte inteligente. Reducción de los tiempos de viaje Uno de los cambios más importantes que puede traer 5G es hacer que los viajes diarios a la oficina sean mucho más rápidos. IoT Business News señala que la mayoría de las agencias de transporte dependen de horarios y tecno-

logía obsoletos, lo que resulta en luces mal sincronizadas. Esto ralentiza a los automovilistas y hace que los desplazamientos sean más largos de lo que deberían. Sin mencionar que también es más costoso porque los conductores desperdician combustible cuando se detienen en los semáforos en rojo. La tecnología 5G puede cambiar todo esto al permitir que los semáforos reciban datos en tiempo real sobre los patrones de tráfico de cámaras, sensores y drones distribuidos por toda la ciudad inteligente. Como resultado, los semáforos responderán mejor al tráfico real, lo mantendrán fluido y reducirán las paradas innecesarias en los semáforos en rojo. En realidad, esto ya ha sido probado por la Universidad Carnegie Mellon, y descubrieron que este tipo de tecnología podría producir una disminución del 40% el tráfico, una disminución del 21% en las emisiones y un desplazamiento 26% más rápido. La misma tecnología también se puede aplicar al transporte público. El plan de ciudad inteligente de Londres describe cómo se pueden utilizar los datos para planificar rutas de autobús mediante el seguimiento de cómo se mueven las personas por Londres. Además, además de mejorar la experiencia de viaje, los datos también se pueden utilizar para actualizar a los habitantes de la ciudad sobre la calidad del aire local en tiempo real. En definitiva, la tecnología al servicio de las ciudades es un plus que a todos gusta y que hace la vida en las urbes mucho más fácil.

.

BigDatamagazine | Mayo 2021


62 Aireas, Big Data e IA para transformar los datos sobre la calidad del aire en conocimiento

“El ciudadano necesita conocer la calidad del aire que respira” Los rápidos avances tecnológicos de los últimos años han permitido que millones de datos de una gran calidad, puedan estar disponibles en tiempo real. En este momento, con el impulso de las smart cities y el auge de las tecnologías IoT, están implementándose sistemas de información sobre la calidad del aire enfocados, tanto a la monitorización como a la visualización instantánea de datos. Es el caso de Aireas, una herramienta que convierte en conocimiento los datos sobre contaminación atmosférica de cada territorio, gracias al uso del Big Data y la Inteligencia Artificial. Texto: Mari

A

Gómez Becerra

ireas es una plataforma web, anexa al sistema actual de medida y control de los datos de calidad del aire, que realiza un análisis de la información que tienen todas las Comunidades Autónomas. Esta herramienta permite realizar una visualización en minutos, en tiempo real y con la posibilidad de conocer ese diagnóstico de la contaminación de manera permanente, es decir, transforma en conocimiento los datos sobre la contaminación de cada territorio y su evolución. “El ciudadano necesita conocer la calidad del aire que respira en el lugar donde vive y trabaja”, afirma Luis Hernández, presidente del Observatorio de la Calidad del Aire. “Así nace nuestro Observatorio. Con el único objetivo de dar a conocer a la sociedad los datos que Aireas extrae. Lo único importante para nosotros es saber si el aire es sostenible o no y trasladárselo al ciudadano para que conozca esta información”, añade. Aireas, Big Data e IA medir la calidad del aire

Esta tecnología permite relacionar de forma automatizada los datos de calidad del aire con las operaciones realizadas en cada momento en el tráfico y emisiones. De esta manera, es posible saber qué actividades están contribuyendo a la contaminación del aire y valorar la efectividad de las medidas correctoras que se activen. El objetivo final es, por un lado, encontrar en los datos patrones ocultos de comportamiento; y, por otro, ejecutar de manera automática tareas complejas o rutinarias que en este momento no se pueden BigDatamagazine | Mayo 2021

Luis Hernández, presidente del Observatorio de la Calidad del Aire

realizar o que suponen una inversión grande de tiempo. El algoritmo con el que trabaja la aplicación es capaz de aprender de los datos y modificarse a sí mismo mediante Deep Learning. Esta tecnología permite al sistema ejecutar tareas complejas que no podrían ser llevadas a cabo con la programación clásica basada en reglas. Gracias a este proceso, con el tiempo, la aplicación puede realizar predicciones ajustadas, aún en el caso de que los datos de entrada sean diferentes a los datos históricos utilizados para entrenar el algoritmo. Aireas extrae y analiza grandes cantidades de datos, tanto de procesos y actividades realizadas en entorno de movilidad, como datos meteorológicos y de calidad del aire. También utiliza

las tecnologías de Big Data para estructurarlos y prepararlos para su consulta. Sobre estos datos, la aplicación realiza análisis inteligentes mediante técnicas de Machine Learning, para encontrar patrones y tendencias que relacionen los datos de actividad y parámetros meteorológicos, con la calidad del aire medida en las estaciones. “Los análisis de datos y la Inteligencia Artificial se utilizan para conocer las estructuras y las relaciones de un volumen grande de datos que no puede ser gestionado por herramientas más básicas. Aireas es un ejemplo claro de ello. Una nueva fórmula de aplicación de estos análisis en un campo muy concreto: la calidad del aire”, afirma el presidente del Observatorio de la Calidad del Aire. “En muy poco tiempo,


63

Luis Hernández, presidente del Observatorio de la Calidad del Aire toda la gestión y el control del aire se van a realizar mediante estas aplicaciones. Lógicamente, los Objetivos de Desarrollo Sostenible, en el campo de la atmósfera, van a pasar siempre por herramientas avanzadas de tecnología y aplicación. Un ejemplo es lo que ocurre en el aeropuerto de Madrid, situado al lado de una ciudad que acoge a más de 3,5 millones de habitantes. Con los sistemas de medición actuales, no se conocen muy bien de donde procede la emisión de gases o partículas. Gracias al análisis de datos, se evalúa el proceso de llegada del contaminante a la estación y se estima a través de los años ese proceso, sabiendo que parte viene del aeropuerto, que parte viene de las autovías, que parte viene de los cruces de calles, etc. El uso de esta tecnología produce un impacto social positivo y favorable sobre el entorno urbano y contribuye a la mejora de la calidad del aire tanto en las propias ciudades como en los entornos periurbanos. Este aspecto contribuirá a reducir la conflictividad vinculada a la contaminación atmosférica, derivada de las actividades de

los centros de las ciudades y, en consecuencia, contribuirá al desarrollo económico y social de los distintos territorios. Una mala

calidad del aire, un pro-

blema de salud a largo plazo

“Todavía no existe una demanda colectiva del problema que representa respirar un aire no sostenible. Es lo mismo que ocurrió hace unos años con el tabaco. En este sentido, el papel de los medios de comunicación es muy importante. Es cierto que se ha producido un avance en este sentido y que cada vez dan más información acerca de la calidad del aire, el problema es que se utiliza más como una cuestión política, sin entender que la salud del aire que respiran los ciudadanos nada tiene que ver con la política”, comenta el presidente del Observatorio. También se muestra tajante cuando responde a la pregunta qué debe cambiar para que el aire que respiramos sea más sostenible. “Fundamentalmente y, en primer lugar, debemos cambiar la movilidad. Las personas que utilizan un coche en una ciudad suponen un 20% de la movilidad y ocupan un 80% de la superficie pública de las ciudades. Cuando

vemos en una gran ciudad las obras que se efectúan en las calles y en las autovías, pero no vemos el aumento de los servicios públicos de transporte, estamos viendo que la ciudad no será sostenible. Esto ocurre en muchas ciudades españolas, algunas con avisos de la Unión Europea. Lo primero que debe ocurrir es que exista una clase política, de manera general, preocupada por hacer las poblaciones sostenibles, tanto en la ciudad, como en el resto de los territorios. Si preferimos seguir teniendo vehículos privados y damos más facilidad para que existan, seguiremos siendo muy poco sostenibles”. Por último, destaca “desde mi propio punto de vista, faltaría que el ministerio para la Transición Ecológica y las Comunidades Autónomas tuvieran el suficiente interés por el aire sostenible. De igual manera que con la pandemia todas las administraciones se han preocupado porque el ciudadano entienda lo que está sucediendo y se proteja del virus, deben preocuparse también por trasladar que una mala calidad del aire, implica una muerte anticipada. Sucede lo mismo que con el tabaco, ocurre más a largo plazo, pero también llega”.

.

“No conseguiremos modificar la calidad del aire hasta que no cambiemos la movilidad. Si queremos construir poblaciones más sostenibles debemos empezar por ahí”

BigDatamagazine | Mayo 2021


64 Green Data

¿Se puede mejorar la huella ecológica del Big Data? Los llamados Green Data Centers son la clave para reducir la huella medioambiental que genera el procesar toda la información que pasa por los centros de datos.

E

Texto: Rocío

González

l cambio climático es el mayor desafío al que nos enfrentamos como especie y el llamado green data nos está ayudando a comprender todas sus complejas interrelaciones. La aplicación de big data para frenar el calentamiento global es lo que se conoce como datos ecológicos. Una de las grandes ventajas del Big Data es que se puede disponer de una gran cantidad de información y que permiten extraer un valioso conocimiento tanto para el negocio como para la sociedad. Y es que, uno de sus potenciales usos es entender mejor el ecosistema, predecir clima BigDatamagazine | Mayo 2021

¿Se ha tenido en cuenta el impacto del Big Data en el medio ambiente? Esto requiere reestructurar los Data Centers u optimizar el uso energético, lo que se ha denominado en ciertas ocasiones como el Green Data. Sin embargo, ¿se ha tenido en cuenta el impacto que está causando el Big Data en el medio ambiente? Para tenerlo presente se requiere, por ejemplo, una reestructuración de los data centers tanto a nivel de hardware como de software. Hay muchas empresas que están

especializadas en almacenamiento y también las grandes empresas multinacionales de Big Data. Sin embargo, no sólo vale que las grandes empresas desarrollen nuevas tecnologías de almacenamiento y gestión, es necesario que todo el ecosistema de datos optimice estos procesos para que el Big Data, además de escalable, sea sosteniblemente ecológico.


65

Green Data Green Data, ¿eso qué es? Un centro de datos ecológico es una instalación informática de clase empresarial que se construye, gestiona y opera en su totalidad según los principios de la informática ecológica. Proporciona las mismas características y capacidades de un centro de datos típico, pero utiliza menos energía y espacio, y su diseño y funcionamiento son respetuosos con el medio ambiente. Como bien sabrás, Big Data es el conjunto de tecnologías creadas para almacenar, analizar y gestionar estos datos masivos, una macro herramienta creada para identificar patrones en el caos de esta explosión de información con el fin de diseñar soluciones inteligentes. Hoy se utiliza en áreas tan diversas como la medicina, la agricultura, el juego y la protección del medio ambiente. Gasto energético de los datos A la hora de analizar los datos se produce un gasto energético. Los datos se analizan de forma dinámica constantemente tanto en grandes centros de procesos como en sistemas locales. Ello supone un gasto energético importante y que puede variar enormemente en función de cómo se realice. Las tecnologías de procesamiento tienden a ser cada vez más rápidas y de menor gasto energético para tratar de reducir el impacto de la huella ecológica. Del mismo modo resulta importante el diseño de elementos clave en la gobernanza, así como los pipelines de datos que pueden tener un alto impacto en la huella ecológica. En este post identificamos varias formas en las que podemos ayudar a hacer más sostenible el Big Data respecto a su impacto ambiental y que suponen buenas prácticas a corto, medio y largo plazo para todos los sectores y los profesionales del Big Data. Del diseño de hoy dependerá la sostenibilidad del mañana. Todo depende de los Data Center Los teléfonos inteligentes han hecho que el video y la fotografía de alta definición estén disponibles para casi cualquier persona, lo que ha dado como resultado un crecimiento sin fin de nuevos datos que deben almacenarse y registrarse para su acceso futuro. Esto tiene implicaciones significativas tanto para los costos de operación de un centro de datos como para el medio ambiente.

A medida que el mercado de consumo de productos electrónicos continúa creciendo, las empresas continúan expandiendo sus requisitos de almacenamiento y retención de datos. Los nuevos requisitos de almacenamiento de datos no necesariamente denotan una relación lineal en los requisitos de hardware. Los efectos de los nuevos requisitos de almacenamiento se multiplican en el futuro, ya que las políticas de retención modernas suelen exigir copias de seguridad fiables a las que se puede acceder fácilmente. Todos estos nuevos datos deben protegerse, enfriarse y transmitirse de manera eficaz. La actualización de los centros de datos también puede significar la expansión del espacio físico para nuevos racks y otros equipos, los cuales también deben estar iluminados, refrigerados y asegurados. En la actualidad, incluso los centros de datos pequeños consumen grandes cantidades de energía. Operar una granja de servidores, ventiladores, consolas, monitores, luces y sistemas de enfriamiento todo el día, todos los días, requiere grandes cantidades de energía. Dado que los centros de datos requieren un alto tiempo de actividad, muchos sistemas funcionan de forma continua independientemente del uso. Los sistemas redundantes diseñados para mejorar la confiabilidad y la seguridad también consumen grandes cantidades de electricidad por derecho propio. Reducir el impacto ambiental La reducción del consumo de energía beneficia al medio ambiente y proporciona beneficios económicos al operador del centro de datos. Con el costo de la energía en constante aumento, las industrias de uso intensivo de energía siempre están buscando nuevas formas de reducir sus gastos generales. Los propietarios de centros de datos no son diferentes. Los centros de datos modernos reducen sus costos de varias formas. El desarrollo tecnológico cada vez mayor exige que los centros de datos modernos utilicen nuevos equipos. Los equipos más nuevos no solo son más capaces, sino también más eficientes energéticamente. Los equipos más antiguos que pueden no haber sido energéticamente eficientes al principio se degradarán con el tiempo, lo que aumentará su consumo de energía.

En un centro de datos que puede estar usando 10 o 15 MW con equipo nuevo, incluso una degradación menor del equipo puede resultar en un enorme aumento en el consumo de energía. Grandes datos Un centro de datos ecológico es una instalación informática de clase empresarial que se construye, gestiona y opera en su totalidad según los principios de la informática ecológica. Proporciona las mismas características y capacidades de un centro de datos típico, pero utiliza menos energía y espacio, y su diseño y funcionamiento son respetuosos con el medio ambiente. Solo en 2017 generamos más datos que en los 5.000 años anteriores. El Big Data es la tecnología que nos está permitiendo analizar esta explosión de información y desarrollar nuevos avances y soluciones. La aplicación de big data a la protección del medio ambiente también está ayudando a optimizar la eficiencia en el sector energético, a hacer que las empresas sean más sostenibles y a crear ciudades inteligentes, por citar solo algunos ejemplos. La información se multiplica exponencialmente: el 90% de los datos que existen hoy en Internet se han generado, solo, desde 2016. Y según estimaciones de IBM, para 2022 habrá 300 veces más información en el mundo que en 2005. Un universo caótico de datos en constante expansión. Y eso se debe a que la vida en el siglo XXI está codificada en forma de números, palabras clave y algoritmos. Europa tiene diferentes modelos de generación de datos ecológicos y uno de ellos es Copernicus. Es un programa de observación de la Tierra basado en satélites capaz de calcular, entre otras cosas, la influencia del aumento de la temperatura en los caudales de los ríos. Copernicus ya está proporcionando información clave para optimizar la gestión de los recursos hídricos, la biodiversidad, la calidad del aire, la pesca y la agricultura. El big data aplicado al medio ambiente tiene como objetivo lograr un mundo mejor para todos y ya se ha convertido en una poderosa herramienta de seguimiento y control del desarrollo sostenible.

.

BigDatamagazine | Mayo 2021


66 BigData y derecho / Protección de Datos

¿Qué pasará con nuestros datos post Brexit? Las leyes de protección de datos del Reino Unido son similares a las leyes de la UE, pero los eurodiputados plantean preguntas sobre la aplicación y las exenciones.

S

TEXTO: Angie

Parra

egún resolución aprobada el pasado 21 de mayo, los eurodiputados pidieron a la Comisión que modifique su decisión sobre si la normas de protección de datos del Reino Unido es adecuada y si los datos se pueden transferir de forma segura allí, alineándolos con las últimas sentencias judiciales del UE. La European Data Protection Board (EDPB) considera que las prácticas de acceso masivo del Reino Unido, las transferencias posteriores y sus acuerdos deberán aclararse más. La resolución establece que, si las decisiones de implementación se adoptan sin cambios, las autoridades nacionales de protección de datos deben suspender las transferencias de datos personales al Reino Unido cuando sea posible el acceso indiscriminado a los datos personales. Antes de la votación, los eurodiputados debatieron la decisión de adecuación del Reino Unido y la resolución “Schrems II” sobre los flujos de datos UE-EE. UU. Varios grupos políticos enfatizaron la necesidad de derechos de datos sólidos en Europa y los peligros de la vigilancia masiva, y otros argumentaron que el Reino Unido tiene un alto nivel de protección de datos y que las decisiones de adecuación ayudan a las empresas y facilitan la prevención del delito transfronterizo.

Exenciones por seguridad nacional e inmigración

La resolución establece que el marco básico de protección de datos del Reino BigDatamagazine | Mayo 2021

Unido es similar al de la UE, pero suscita preocupaciones sobre su implementación. En particular, el régimen del Reino Unido contiene exenciones en los campos de la seguridad nacional y la inmigración, que ahora también se aplican a los ciudadanos de la UE que deseen permanecer o establecerse en el Reino Unido. La legislación actual del Reino Unido también permite acceder a datos masivos y retenerlos sin que una persona esté bajo sospecha de haber cometido un delito, y el tribunal de la UE ha determinado que el acceso indiscriminado es incompatible con el Reglamento general de protección de datos (GDPR), advierte el texto. Por último, los eurodiputados subrayan que las disposiciones sobre metadatos (o “datos secundarios”) no reflejan la naturaleza sensible de dichos datos y, por lo tanto, son engañosas. Aunque el Parlamento se opone a los proyectos de ley de ejecución de la Comisión que otorgan decisiones de adecuación de datos por estas razones, los eurodiputados acogen con satisfacción los cambios legislativos recientes que brindan a los ciudadanos acceso a reparación judicial sobre decisiones de datos e informes de supervisión detallados disponibles para la interceptación de datos por motivos de seguridad nacional. Terceros países y transferencias posteriores

Los eurodiputados también se preocupan por las transferencias de datos posteriores. Los acuerdos de inter-

cambio de datos del Reino Unido con los EE. UU. Significan que los datos de los ciudadanos de la UE podrían compartirse a través del Atlántico, a pesar de las recientes sentencias del Tribunal de Justicia de la Unión Europea que encontraron que las prácticas estadounidenses de acceso y retención de datos masivos son incompatibles con GDPR. Además, la solicitud del Reino Unido para unirse a la Asociación Transpacífica Integral y Progresiva (CPTPP) podría tener implicaciones para el flujo de datos a países que no tienen una decisión de adecuación de la UE. El Parlamento insta a la Comisión y a las autoridades del Reino Unido a abordar todas estas cuestiones e insiste en que no debe concederse una decisión de adecuación. Los eurodiputados especifican que los acuerdos de no espionaje entre los estados miembros y el Reino Unido podrían ayudar a resolver las cosas. Próximos pasos Se espera que la Comisión decida sobre la protección de datos del Reino Unido y la continuación de las transferencias de datos a través del Canal en los próximos meses. Al dirigirse al plenario antes de la votación, el comisario de Justicia Didier Reynders destacó que la legislación actual del Reino Unido es muy similar a la de la UE. Sin embargo, es posible una divergencia en el futuro, y por eso es muy necesaria la cláusula de extinción de cuatro años de la decisión de adecuación, señaló.

.


2 diciembre 2021 Organiza:

¿Quieres patrocinarlo? info@bigdatamagazine.es


Su Camino hacia la Empresa AI Dataiku, la plataforma centralizada de Análisis y Data Science para los expertos en datos y otros profesionales. Conectar & Limpiar Explotar & visualizar Construcción + Aplicación del Machine Learning Despliegue en Producción Controlar & Ajustar

www.dataiku.com


Turn static files into dynamic content formats.

Create a flipbook

Articles inside

Derecho

3min
pages 66-68

Green Data

6min
pages 64-65

Smart cities

6min
pages 60-61

Calidad del aire

5min
pages 62-63

Informe Data Science

5min
pages 58-59

IA, Big Data y Covid-19

6min
pages 56-57

IA y publicidad

5min
pages 54-55

Policía y datos

5min
pages 52-53

UOC Josep Curto

5min
pages 50-51

CUNEF Juan Manuel López Zafra

7min
pages 44-45

UPCT Mari Carmen Bueso

7min
pages 48-49

UNIR Nuria Canal

8min
pages 42-43

UCAM Isabel M. Timón

6min
pages 46-47

AI Business Congress 2020

9min
pages 36-39

Keyrus Kathy Contramaestre

5min
pages 34-35

Denodo

4min
pages 32-33

Graph Everywhere Josep Tarruella

7min
pages 30-31

COITT Rubén Caravaca

8min
pages 22-23

Dataiku

6min
pages 28-29

MásMóvil Daniel Domínguez

9min
pages 24-25

Orange Francisco Escalona

7min
pages 20-21

Datos móviles, una mina de oro para la sostenibilidad

9min
pages 15-17

Vodafone David González

7min
pages 18-19

Entrevista Ángel Niño

11min
pages 10-13

Telefónica Paco Montalvo

6min
pages 26-27
Issuu converts static files into: digital portfolios, online yearbooks, online catalogs, digital photo albums and more. Sign up and create your flipbook.