BIG DATA
SJM Computaciรณn 4.0
1
INTRODUCCIÓN Actualmente, en muchas empresas uno de los activos más valiosos que tienen es la información que poseen, ya que como dice la famosa cita de Francis Bacon «la información es poder» y las empresas son cada vez más conscientes de este hecho. La llegada de Internet y la enorme cantidad de dispositivos que están continuamente conectados a la red ha ayudado a aumentar de modo exponencial el volumen de información que los usuarios generamos y esa información es realmente “el activo” del siglo XXI. Todo ese enorme volumen de información que generamos cada día es almacenada, analizada y procesada para que en función de los resultados se puedan obtener conclusiones que permitan tomar decisiones para minimizar costes, maximizar producción, ajustar horarios, gestionar pedidos, rutas de envío, etc. en base a los datos obtenidos en la fase de análisis de datos, esto se conoce como Big Data. Big Data nació con el objetivo de cubrir unas necesidades no satisfechas por las tecnologías existentes, como es el almacenamiento y tratamiento de grandes volúmenes de datos
SJM Computación 4.0
2
DEFINICIÓN En la actualidad tenemos: 1. 2. 3. 4. 5.
Gran cantidad de datos acumulados que hacía inviable su procesamiento en un único ordenador Imposible analizar con las técnicas tradiciones de Base de Datos Imposible almacenarlas siguiendo el modelo clásico de Base de Datos Heterogeneidad de datos. Necesidad de insertar, consultar y procesar datos en diferentes estructuras Necesidad de procesar rápidamente los datos. El Big Data (datos masivos, macrodatos) es el análisis masivo de datos, una cantidad de datos,
tan sumamente grande, que las aplicaciones de software de procesamiento de datos que tradicionalmente se venían usando no son capaces de capturar, tratar y poner en valor en un tiempo razonable; Por ende, los procedimientos usados para encontrar patrones repetitivos dentro de esos datos son más sofisticados y requieren software especializado. El uso moderno del término "big data" tiende a referirse al análisis del comportamiento del usuario, extrayendo valor de los datos almacenados, y formulando predicciones a través de los patrones observados. La disciplina dedicada a los datos masivos se enmarca en el sector de las tecnologías de la información y la comunicación
SJM Computación 4.0
3
CARACTERÍSTICAS: conformado por 5 V 1.- VOLUMEN El volumen se refiere a la cantidad de datos que son generados cada segundo, minuto y días en nuestro entorno. Es la característica más asociada al Big Data, ya que hace referencia a las cantidades masivas de datos que se almacenan con la finalidad de procesar dicha información, transformando los datos en acciones. El volumen significa gran tamaño. Así en el año 2020 se esperan que en el mundo se almacenen 35 Zettabytes. Los datos crecen, habiendo pasado ya por la era del Petabyte y posteriormente Exabyte, hasta llegar a hoy. Cada vez estamos más conectados al mundo 2.0 por lo que generamos más y más datos. Para algunas empresas, el estar en el mundo digital es algo obligatorio, por lo que la cantidad de datos generados es aún mayor. Por ejemplo, una empresa que vende sus productos únicamente a través de un canal online, le convendría implantar tecnología Big Data para procesar toda aquella información que recoge su página web rastreando todas las acciones que lleva a cabo el cliente; conocer donde cliquea más veces, cuántas veces ha pasado por el carrito de la compra, cuáles son los productos más vistos, las páginas más visitadas, etc. SJM Computación 4.0
4
VOLUMEN - Equivalencias
Diferencia entre la "b" minúscula y la "B" mayúscula. La "b" siempre significa "bit", mientras que la "B" siempre significa "Byte". Esto es sumamente importante saberlo, y muchos escritores de columnas que no conocen esta diferencia a veces no hacen esta distinción teniendo eso como resultado que lo que publican es en realidad 8 veces mayor o 8 veces menor a la realidad (debido a que 8 bits son 1 Byte) SJM Computación 4.0
5
2.- VARIEDAD La variedad se refiere a las formas, tipos y fuentes en las que se registran los datos. Estos datos pueden ser datos estructurados y fáciles de gestionar como son las bases de datos, o datos no estructurados, entre los que se incluyen documentos de texto, correos electrónicos, datos de sensores, audios, vídeos o imágenes que tenemos en nuestro dispositivo móvil, hasta publicaciones en nuestros perfiles de redes sociales, artículos que leemos en blogs, las secuencias de click que hacemos en una misma página, formularios de registro e infinidad de acciones más que realizamos desde nuestro Smartphone, Tablet y ordenador. Estos últimos datos requieren de una herramienta específica, debido a que el tratamiento de la información es totalmente diferente con respecto a los datos estructurados. Para ello, las empresas necesitan integrar, observar y procesar datos que son recogidos a través de múltiples fuentes de información con herramientas cualificadas. Los macrodatos usan textos, imágenes, audio y vídeo. El tipo y naturaleza de los datos permite ayudar a las personas a analizar los datos y usar los resultados de forma eficaz.
SJM Computación 4.0
6
3.- VELOCIDAD Velocidad se refiere a la rapidez con que los datos se reciben, se procesan y se toman decisiones a partir de ellos. A la mayoría de los sistemas tradicionales les es imposible analizar de forma inmediata los grandes volúmenes de datos que les llegan, sin embargo, incorporar el concepto de tiempo real es imprescindible para sistemas de detección del fraude o la realización de oferta personalizadas a los clientes. Nuestro concepto de inmediatez ha cambiado en los últimos tiempos y se busca información que llegue prácticamente al instante. Noticias que no llegan al día de antigüedad, en simple cuestión de horas y, en ocasiones, minutos, pueden haber perdido interés. Así, la velocidad de análisis requerida por la sociedad actual es una de las características fundamentales que tienen los datos a gran escala, donde los datos en constante movimiento procesados a tiempo real cobran protagonismo, ejecutando algoritmos cada vez más complejos en menos tiempo.
SJM Computación 4.0
7
4.- VERACIDAD Cuando hablamos de veracidad nos referimos a la incertidumbre de los datos, es decir, al grado de fiabilidad de la información recibida. Es necesario invertir tiempo para conseguir datos de calidad, aplicando soluciones y métodos que puedan eliminar datos imprevisibles que puedan surgir como datos económicos, comportamientos de los consumidores que puedan influir en las decisiones de compra. La necesidad de explorar y planificar la incertidumbre es un reto para el Big Data que está a la orden del día en las compañías dedicadas al análisis de datos. La calidad de los datos capturados puede variar mucho y así afectar a los resultados del análisis. saber la fiabilidad de la información recogida es importante para obtener unos datos de calidad e, incluso, dependiendo de las aplicaciones que se le vaya a dar a misma, se convierte en fundamental. Es un factor que puede influir mucho en conseguir una ventaja competitiva en la explotación del Big Data.
SJM Computación 4.0
8
5.- VALOR El dato no es valor. Tampoco tienes valor por el mero hecho de recopilar gran cantidad de información. El valor se obtiene de datos que se transforman en información; esta a su vez se convierte en conocimiento, y este en acción o en decisión. El valor de los datos está en que sean accionables, es decir, que los responsable de la empresas puedan tomar una decisión (la mejor decisión) en base a estos datos. No todos los datos de los que partimos se convierten en acción o decisión. Para ello, es necesario tener tecnologías aplicadas. Por ejemplo, una publicación en una red social, que gracias al uso de tecnologías de procesamiento de lenguaje natural, puede medir el sentimiento positivo o negativo, con la ayuda de un algoritmo de análisis de redes sociales o herramientas que permitan obtener de esto información. Los datos generados deben ser útiles, accionables y tener valor.
SJM Computación 4.0
9
TIPOS DE DATOS EN BIG DATA Datos estructurados: datos que tienen bien definidos su longitud y su formato, como las fechas, los números o las cadenas de caracteres. Se almacenan en tablas. Un ejemplo son las bases de datos relacionales y los almacenes de datos. Datos no estructurados: datos en el formato tal y como fueron recolectados, carecen de un formato específico. No se pueden almacenar dentro de una tabla ya que no se puede desgranar su información a tipos básicos de datos. Algunos ejemplos son los PDF, documentos multimedia, correos electrónicos o documentos de texto. Datos semiestructurados: datos que no se limitan a campos determinados, pero que contiene marcadores para separar los diferentes elementos. Es una información poco regular como para ser gestionada de una forma estándar. Estos datos poseen sus propios metadatos semiestructurados que describen los objetos y las relaciones entre ellos, y pueden acabar siendo aceptados por convención. Como ejemplos tenemos los archivos tipo hojas de cálculo, HTML, XML o JSON.
SJM Computación 4.0
10
EL CICLO DE GESTIÓN DE INFORMACIÓN EN 4 FASES 1.-
2.-
SJM Computación 4.0
11
EL CICLO DE GESTIÓN DE INFORMACIÓN EN 4 FASES (cont.) 3.-
4.-
SJM Computación 4.0
12
HERRAMIENTAS DEL BIG DATA (software) Tratamos las principales herramientas del Big Data: MAPREDUCE HADOOP APACHE SPARK APACHE STORM APACHE HIVE MONGO DB PYTHON CASSANDRA
SJM Computaciรณn 4.0
13
MAPREDUCE MapReduce es un framework creado por Google, y pensado para realizar operaciones de forma paralela sobre grandes colecciones de datos. Este framework está compuesto de dos funciones principales: la función Map y la función Reduce. De ahí ese nombre tan original. La función Map se encarga, de forma paralela, de mapear los datos de origen. Para cada dato de origen, se genera una dupla clave-valor, las cuales son unidas en una lista que se pasa a la función Reduce. Después, la función Reduce, trata cada elemento de la lista de pares y realiza operaciones sobre ella para devolver un dato concreto.
SJM Computación 4.0
14
HADOOP Hadoop es un sistema de código abierto que se utiliza para almacenar, procesar y analizar grandes volúmenes de datos. Sus ventajas son muchas: - Aísla a los desarrolladores de todas las dificultades presentes en la programación paralela. - Cuenta con un ecosistema que sirve de gran ayuda al usuario, ya que permite distribuir el fichero en nodos, que no son otra cosa que ordenadores con commodity-hardware. - Es capaz de ejecutar procesos en paralelo en todo momento. - Dispone de módulos de control para la monitorización de los datos. - Presenta una opción que permite realizar consultas. - También potencia la aparición de distintos add- ons, que facilitan el trabajo, manipulación y seguimiento de toda la información que en él se almacena. Esta solución, que posteriormente se denominará Hadoop, se basa en un gran número de pequeños ordenadores, cada uno de los cuales se encarga de procesar una porción de información. La grandiosidad del sistema es que, a pesar de que cada uno de ellos funciona de forma independiente y autónoma, todos actúan en conjunto, como si fueran un solo ordenador de dimensiones increíbles.
SJM Computación 4.0
15
HADOOP (continuación) Hadoop proporciona un almacenamiento masivo para cualquier tipo de datos, un enorme poder de procesamiento y la capacidad de manejar tareas o trabajos prácticamente ilimitados. Hadoop es importante porque tiene: Capacidad para almacenar y procesar grandes cantidades de cualquier tipo de datos rápidamente. Con volúmenes y variedad de datos en constante aumento, especialmente de lo que se refiere a medios de comunicación social y del Internet de las Cosas, esto es una consideración clave. Poder de procesamiento. El modelo de computación distribuida de Hadoop procesa rápidamente Big Data. Cuantos más nodos de computación se utilizan, más poder de procesamiento tendrás. Tolerancia a fallos. Los datos y el procesamiento de aplicaciones están protegidos contra fallos de hardware. Si un nodo disminuye, los trabajos se redirigen automáticamente a otros nodos para asegurarse de que la computación distribuida no falla. Se almacenan automáticamente varias copias de todos los datos. Flexibilidad. A diferencia de las bases de datos relacionales tradicionales, no es necesario preprocesar los datos antes de almacenarlos. Puedes almacenar tantos datos como desees y decidir cómo utilizarlos más tarde. Esto incluye datos no estructurados como texto imágenes y vídeo. Bajo coste. Es de código abierto, gratuito y utiliza hardware básico para almacenar grandes cantidades de datos. Escalabilidad. Puedes hacer crecer fácilmente el sistema para manejar más datos simplemente añadiendo nodos. Se requiere poca administración. SJM Computación 4.0
16
APACHE SPARK Apache Spark fue creado en la Universidad de Berkeley (California) y es considerado el primer software de código abierto que hace la programación distribuida accesible a los científicos de datos. Al igual que Hadoop, Spark pertenece a Apache Software Foundation. Según explica IBM, Apache Spark es una infraestructura de informática de clúster de código abierto con proceso en memoria para agilizar las aplicaciones de analítica hasta 100 veces más comparado con las tecnologías actuales del mercado. Apache Spark puede reducir la complejidad de la interacción de los datos, aumentar la velocidad de proceso y mejorar las aplicaciones de misión crítica con amplia información útil. Muchos especialistas en Big Data opinan que Spark es una herramienta más avanzada que Hadoop. De hecho, en 2014, Spark batió el Récord Mundial al clasificar 100 terabytes de datos en tan solo 23 minutos, superando así la marca de Hadoop, que se situaba en los 71 minutos. El motor de procesamiento Spark se ha creado para ofrecer velocidad, facilidad de uso y análisis sofisticados.
SJM Computación 4.0
17
APACHE STORM Apache Storm es un sistema de cálculo de código abierto, distribuido y con tolerancia a errores que permite procesar datos en tiempo real con Hadoop. Las soluciones de Storm pueden proporcionar también procesamiento de datos garantizado, con la posibilidad de reproducir los datos que no se han procesado correctamente la primera vez. Apache Storm es una herramienta de Big Data open-source que puede ser usada con cualquier lenguaje de programación. Procesa en tiempo real y de forma sencilla grandes cantidades de datos, el sistema crea topologías de los macrodatos para transformarlos y analizarlos de forma continua mientras flujos de información entran al sistema constantemente. Se puede utilizar en varios lenguajes de programación. Storm está desarrollado en Clojure, un dialecto de Lisp que se ejecuta en Máquina Virtual Java (JVM, en sus siglas en inglés). Su gran fortaleza es que ofrece compatibilidad con componentes y aplicaciones escritos en varios lenguajes como Java, C#, Python, Scala, Perl o PHP. - Es escalable. - Tolerante a fallos. - Fácil de instalar y operar.
SJM Computación 4.0
18
APACHE HIVE Apache Hive es un sistema de almacén de datos para Hadoop, que permite realizar resúmenes de datos, consultas y análisis de datos mediante HiveQL (una lenguaje de consultas similar a SQL). Hive se puede usar para explorar los datos de forma interactiva o para crear trabajos de procesamiento por lotes reutilizables. Hive permite proyectar la estructura del proyecto en datos que en gran medida no están estructurados. Después de definir la estructura, puede usar Hive para consultar esos datos sin conocimiento de Java o MapReduce Apache Hive es una infraestructura de almacenamiento de datos construida sobre Hadoop para proporcionar agrupación, consulta, y análisis de datos. Inicialmente desarrollado por Facebook, Apache Hive es ahora utilizada y desarrollado por otras empresas como Netflix y la Financial Industry Regulatory Authority (FINRA). Amazon mantiene una derivación de software de Apache Hive incluida en Amazon Elastic MapReduce en sus servicios Amazon Web Services.
SJM Computación 4.0
19
MONGO DB Mongo DB se trata de una base de datos NoSQL optimizada para trabajar con grupos de datos que que varían con frecuencia, o que son semiestructurados o inestructurados. Se emplea para almacenar datos de aplicaciones móviles y de sistemas de gestión de contenidos, entre otros. Es empleada por compañías como Bosch y Telefónica. MongoDB nos proporciona las ventajas de una base de datos NoSQL, como la flexibilidad de la estructura de datos, la escalabilidad y el rendimiento sin abandonar conceptos que han hecho a las bases de datos relacionales lo que son hoy en dia, como consistencia de datos y la integración con otras herramientas de desarrollo. Por estas características, MongoDB es una herramienta que cae como anillo al dedo para el desarrollo de aplicaciones como redes sociales, aplicaciones móviles, CMS, entre otras, que debido a lo antes mencionado, requieren de una base de datos que ofrezca alto rendimiento y flexibilidad, a la vez que mantiene consistencia y seguridad en los datos. MongoDB es una herramienta muy fácil de aprender, bastante útil y sumamente divertida. SJM Computación 4.0
20
PYTHON Python cuenta con la ventaja de que sólo hay que tener unos conocimientos mínimos de informática para poder usarla, lo hace que tenga una gran comunidad de usuarios con la opción de crear sus propias librerías. El inconveniente de esta herramienta de Big Data es la velocidad, ya que es notablemente más lenta que sus competidoras. Python es un lenguaje de programación multiparadigma. Esto significa que más que forzar a los programadores a adoptar un estilo particular de programación, permite varios estilos: programación orientada a objetos, programación imperativa y programación funcional. Otros paradigmas están soportados mediante el uso de extensiones. Python usa tipado dinámico y conteo de referencias para la administración de memoria. Una característica importante de Python es la resolución dinámica de nombres; es decir, lo que enlaza un método y un nombre de variable durante la ejecución del programa (también llamado enlace dinámico de métodos)
SJM Computación 4.0
21
APACHE CASSANDRA Apache Cassandra es una base de datos NoSQL desarrollada en un principio por Facebook. Es la mejor opción si lo que necesitas es escalabilidad y alta disponibilidad sin comprometer el rendimiento. Netflix y Reddit son usuarios de esta herramienta. Lanzado por Facebook, y con contribuciones recibidas por Google, Apache Cassandra es un sistema de código abierto proyectado para administrar gran volumen de datos en tiempo real, permitiendo repuestas inmediatas y soporte antes fallas. En otras palabras, funciona como un banco de datos distribuidos y es una de las opciones actuales para soluciones NoSQL (no solamente SQL) o para datos no relacionales. En cuanto al almacenamiento de datos, Cassandra es esencialmente un híbrido entre valor-llave (dato tabular) y banco de datos creados en columnas, con distribución de contenido por nombre, valor y tiempo, pudiendo tener buen balance y distribución de carga.
SJM Computación 4.0
22
VENTAJAS DEL BIG DATA 1.- Velocidad en la toma de decisiones: La información es fundamental como base para la correcta toma de decisiones, y mucho más cuando podemos manejar de forma dinámica toda la información que nos proporciona el Big Data. Podremos asumir decisiones inteligentes y veloces que ayuden a favorecer a nuestro negocio, puesto que éstas se han basado en un fundamento férreo. Es posible realizar de manera fluida un análisis de oportunidad antes de poner cualquier producto o servicio en el mercado. 2.- Planes estratégicos Inteligentes de Marketing: A través de los datos que nos proporciona el Big Data, a día de hoy es posible analizar y predecir el comportamiento que un usuario tendrá en la red, conocer qué piensan los clientes sobre una marca o un producto, y cuáles son sus necesidades reales sobre la adquisición de productos o servicios. Se pueden analizar parámetros relativos al perfil específico de cada usuario, sus preferencias, sus tendencias o su vinculación a la marca, de forma que nos sea posible elaborar campañas dirigidas de marketing con un nivel alto de personalización.
SJM Computación 4.0
23
VENTAJAS DEL BIG DATA (continuación) 3.- Mejora en la eficiencia…. y en costes: El correcto manejo del Big Data puede impulsar rápidamente la velocidad a la que evoluciona un producto o servicio, debido a que disponemos de multitud de datos con la información que nos da el mercado. De esta manera los plazos para el desarrollo de un producto o servicio se acortan en el tiempo, así como los costes asociados al proceso que se derivan del desarrollo del mismo. 4.- Vinculación de clientes: Cada día captar nuevos clientes es más complicado, y a su vez, esta adquisición de nuevos usuarios es más costosa que fidelizar a los que ya tenemos en el fondo de comercio. Es esencial utilizar correctamente los datos de los que disponemos para dar a nuestros clientes lo que desean de una forma personalizada, y para ello es fundamental el Big Data. Por lo tanto, conocer a través de los datos el nivel de satisfacción de nuestros clientes, sus necesidades, etcétera, es uno de los puntos base para tener a los clientes fidelizados.
SJM Computación 4.0
24
VENTAJAS DEL BIG DATA (continuación) 5.- Variables del entorno: Un punto importante a tener en cuenta en la utilización del Big Data es la agregación de datos del entorno que afectan al proceso principal. Estas variables no están dirigidas netamente al análisis de un cliente ni a su comportamiento directo por sus acciones en online, sino que responden al ecosistema que puede afectar a un cliente en el momento de la decisión de compra. Introducir en la fórmula de análisis datos provenientes de fuentes externas como pueden ser la meteorología, las estaciones del año, o la zona en la cual vive el usuario hace que el cálculo aplicado gane puntos de eficiencia, dirigiendo mejor nuestros productos y servicios no solo a comunidades específicas sino a temporadas concretas. 6.- Feedback y retroalimentación: Una de las aplicaciones de mayor relevancia en la utilización del Big Data es la posibilidad de analizar los resultados de las acciones realizadas en tiempo real, lo que permite ver cuáles son los aspectos que más éxito han podido tener, o corregir rápidamente las posibles desviaciones en las estrategias diseñadas. El constante análisis del feedback de las acciones realizadas con una tecnología dinámica y veloz permite no tener costes extra innecesarios a la hora de proseguir con nuestras estrategias de comercialización. Pocos son los que dudan de que estamos en la era del Big Data, siendo uno de los elementos más competitivos y que más valor añadido aporta a las empresas en el momento de definición sus estrategias.
SJM Computación 4.0
25
CASOS PRÁCTICOS DE APLICACIÓN Y ÉXITO EMPRESARIAL AMAZON.- La compañía de referencia a nivel mundial, en lo que a comercio electrónico se refiere, basa buena parte de su éxito en conocer de antemano lo que necesitan sus clientes. Así, es muy probable que si entras en la página de esta empresa, te sugiera artículos que van a ser de gran interés para ti. ¿Cómo? A través de la inteligencia de datos analizan muchos factores de carácter individual del usuario como sus hábitos de compra o intereses y otros más generales como tendencias del momento o pautas de conducta de otros usuarios que adquirieron productos similares. Juntan todo en la coctelera del Big Data y ofrecen una serie de productos sugeridos o relacionados con compras que el cliente ya ha hecho o se ha planteado hacer.
NIKE.- Los dispositivos electrónicos de su línea NikePlus (relojes inteligentes, pulsómetros, dispositivos con sensores que conectan sus zapatillas con un teléfono…) recogen cantidades masivas de información de millones de usuarios. Información que sirve a la empresa de ropa deportiva estadounidense para buscar la fidelización de los usuarios a través de retos y objetivos que apelan a la capacidad de superación de estos, creando un vínculo con la marca más allá de la simple venta de material deportivo.
SJM Computación 4.0
26
T-MOBILE.- Esta empresa de telecomunicaciones alemana es un ejemplo de uso de los datos masivos como mejor arma de retención de clientes. Analizando a fondo las conversaciones, reclamaciones y descontentos que sus clientes dejaban en redes sociales, crearon soluciones específicas para cada uno de ellos y consiguieron reducir la fuga de clientes a otras empresas en un 50%, con lo que el retorno de la inversión realizada en Big Data fue compensado con creces.
NETFLIX.- Uno de los grandes factores del éxito de la popular empresa estadounidense Netflix, es su magistral uso de los macrodatos para crear nuevos contenidos para sus usuarios, cuyos hábitos de consumo y preferencias son observados al detalle para descubrir qué es lo que van a querer ver a continuación en base a patrones predictivos. Así crearon, por ejemplo, la serie House of Cards: observaron que a muchos de sus usuarios les gustaban contenidos que incluyeran poder, política, drama y sensualidad entre sus características principales. Y también que les gustaba como actor Kevin Spacey. Así, dieron con la fórmula y mezclaron en la trama todos estos ingredientes poniendo a protagonizar a Spacey la misma. Igual proceso para Stranger Things y otros grandes éxitos de audiencia. SJM Computación 4.0
27
SPOTIFY.- Bajar hasta los datos individualizados más llamativos para lanzar con ellos una campaña global masiva. Eso hizo en Reino Unido la compañía sueca Spotify, que ofrece reproducción de música vía streaming. Su plan consistió en buscar la complicidad del gran público. Y lo consiguieron mostrando curiosidades o rarezas del comportamiento de algunos de sus usuarios que habían detectado a través de los macrodatos. Así, en grandes carteles publicitarios, colocaron anuncios como estos: «Queridas 3.749 personas que reprodujeron “It’s the end of the world as we know it” el día del Brexit, estamos con vosotros» «Querida persona en el Theater District que escuchó la banda sonora de Hamilton 5.376 veces este año, ¿puedes conseguirnos tickets? «Querida persona que reprodujo “Sorry” 42 veces en el Día de San Valentín, ¿qué hiciste?»
SJM Computación 4.0
28
Evento en Madrid – España: Big Data To Action 2019 Se trataron 5 bloques temáticos: Advanced Analytics, Intelligent Systems, People
Analytics, Data Science y Big Data without Frontiers.
SJM Computación 4.0
29
REVISTA ESPAร OLA: BIG DATA MAGAZINE https://bigdatamagazine.es/bigdata-magazine-no1-especial-bigdata-en-banca-y-logistica
SJM Computaciรณn 4.0
30
BIBLIOGRAFIA https://www.youtube.com/watch?v=2buYs2GVpGE https://es.slideshare.net/AldoRamiro/big-data-65019368 https://www.osi.es/es/actualidad/blog/2016/06/14/big-data-como-afecta-los-usuarios https://www.google.com.pe/search?safe=active&hl=es419&biw=1366&bih=657&tbm=isch&sa=1&ei=UwgmXeOcMc_x5gKPz6fQBQ&q=velocidad+en+big+data&oq=velocidad+en+big+data&gs _l=img.3..0i24.1276310.1283039..1285294...0.0..0.153.1992.0j14......0....1..gws-wizimg.......0i8i7i30.PV8fq0rWNRA#imgrc=tJS2yYwzBkeJKM: https://es.wikipedia.org/wiki/Macrodatos https://www.bit.es/knowledge-center/que-es-big-data-introduccion-a-big-data/ https://www.eleconomista.es/tecnologia/noticias/5578707/02/14/La-moda-del-Big-Data-En-que-consiste-en-realidad.html https://www.masterbigdataucm.com/que-es-big-data/ https://www.nextibs.com/principales-herramientas-de-big-data-utilizan-actualidad/ https://www.psafe.com/es/blog/que-es-apache-cassandra/ https://www.icemd.com/digital-knowledge/articulos/las-ventajas-del-big-data/
ELABORADO POR: VISITA:
SJM Computaciรณn 4.0
31