CALIDAD

Page 1

www.asqlatam.org | MAYO 2018

estrategias de éxito

Capacidades disruptivas para la Calidad del futuro

Además: • Lo que los profesionales de Calidad deben saber para sobrevivir y prosperar en la era del Big Data • Los análisis disruptivos en Calidad y Six Sigma • Incorporar análisis avanzados con Lean Six Sigma para una mejor toma de decisiones • La rastreabilidad, una de las competencias más importantes para la resolución de problemas y análisis causa raíz • Análisis predictivos, excelencia organizacional y networking, temas a desarrollar en la era del Big data


BIG DATA: CAPACIDADES DISRUPTIVAS PARA LA CALIDAD DEL FUTURO

Pensamos en generalidades, pero vivimos en detalles”, Alfred North Whitehead. Los detalles que un correcto análisis de datos masivos, mejor conocidos como Big Data, nos pueden proporcionar, equivalen a soluciones, nuevas propuestas y mejores experiencias para nuestros clientes. Por ello, en esta ocasión Calidad se enfoca en este tema, los datos y su correcto análisis, así como los beneficios que dejan tanto a empresas como a instituciones de gobierno y organizaciones en general. Del mismo modo, los profesionales de Calidad y Mejora Continua, deberán adaptarse, pues los tiempos cambian y como lo dijo Charles Darwin, “no sobrevive el más fuerte ni el más inteligente, sino el que mejor se adapta a los cambios”. En el artículo “Rompiendo Barreras” Shu Liu aborda la importancia de que los profesionales de calidad se capaciten de forma más profunda en materia de análisis de datos en grandes cantidades. Además, apunta que deberán desarrollar nuevas habilidades, tales como estadística avanzada, modelado predictivo y softwares avanzados de computa-

Rosa María Manzano Gerente de Membresías y Comunicación ASQ Latinoamérica

ción, para mejorar el proceso de toma de decisiones. Vale la pena analizar la tabla de ejemplos que comparte el autor, para entender mejor en qué puede ayudar un correcto análisis de datos en diversas industrias o servicios. Por otro lado, en “Ruptura de datos”, Jim Duarte nos habla de los análisis avanzados y de cómo las organizaciones tienen frente a sí una gran oportunidad al contar con más información y mejores formas de analizarla. Propone tres tipos de tecnologías disruptivas enfocados a Calidad y Mejora continua: aprendizaje automático (Inteligencia artificial en general), análisis de texto y software de simulación de eventos discretos. “La mejor inteligencia”, de Kishore Erukulapati y John W. Sinn nos presenta un panorama sobre la integración de los análisis avanzados con sistemas de gestión de calidad apoyados en Lean Six Sigma y nos explica cómo puede llevarnos a tomar decisiones basadas en hechos y a resolver problemas complejos en niveles estratégico, táctico y operativo. Da un recorrido por diversas minerías de datos y nos invita a integrar los Sistemas de Gestión de Calidad (SGC) con los análisis avanzados, además de presentar diferentes escenarios en los que una organización puede aplicar esta nueva forma de conocer sus procesos y clientes. Nathan Soderborg en “Mejor antes de los Big Data”, nos habla de medidas que los practicantes de Six Sigma deberán tomar para hacer un

mejor uso de los análisis de datos, tales como proveer entradas de información, participar en el proceso de recolección de requerimientos de TI para capturar información operativa y transaccional, así como convertirse en parte del sistema de retroalimentación sobre la efectividad del sistema de datos. Además, ahonda en las cinco características que los datos recolectados deben tener para que sean útiles a las organizaciones. En la entrevista de esta edición, tenemos el gusto de presentar al primer presidente, no norteamericano, electo para liderar la American Society for Quality (ASQ) en 2019: Benito Flores. Él es Director y Profesor de la Escuela de Ingeniería de la Universidad de Monterrey y socio Senior de ASQ, certificado como Gerente de Calidad. Nos comenta sobre las capacidades disruptivas que el actual profesional de Calidad y de Mejora Continua debe desarrollar para prosperar en esta era de Big Data, así como sus recomendaciones para aquellos que van iniciando su carrera o desean avanzar en ella. El futuro ya nos alcanzó, y para los profesionales de calidad no es la excepción, por lo que invitamos a nuestros amables lectores a que generen su propia opinión respecto a lo que nuestros especialistas presentan como opción frente a esta nueva era de datos masivos y sus diversas formas de analizarlos. Una vez más, Calidad los invita a disfrutar de la información presentada, esperando aporte datos de valor a su desarrollo profesional.

Te recordamos que gran parte de los artículos que se publican en este número los encuentras en la revista Quality Progress (QP) que emite mensualmente ASQ Global. La puedes obtener de manera impresa o electrónica al convertirte en miembro de la asociación de profesionales de calidad más grande del mundo, la Voz global de la Calidad, ASQ. Para mayor información estamos a sus órdenes en el Centro de Servicio regional para Latinoamérica, ubicado en la Ciudad de México, en el correo electrónico asqm-rep@asq.org o en el teléfono +52 (55) 52548277. También te invitamos a ingresar a nuestra página de internet global www.asq.org y a nuestro sitio www.asqlatam.org para Latinoamérica.

2 • CALIDAD • MAYO 2018


Prepárate para la Industria

4.0

Lunes 28 de Mayo del 2018 z REFORMA

S . CA L I DA D

3

Your move? We’re in. ¿Deseas conectar a la red tus máquinas nuevas y existentes de forma rentable, optimizar tus procesos de producción y la calidad del producto? Eso no es problema con IoT Gateway, la solución ideal para conectarse de manera fácil a los entornos de la Industria 4.0 sin intervenir en la lógica de automatización.

www.boschrexroth.com.mx Av. Tejocotes y Camino Viejo a la Lumbrera s/n Lt.2, San Martín Obispo, Cuautitlán Izcalli, Estado de México. T. 52 55 5747.0800 ventas@boschrexroth.com.mx

La sincronización del hardware y software de control transfiere los datos del sensor y del proceso a los sistemas de mayor nivel, al mismo tiempo que el control de la máquina. Esto hace que tus procesos de fabricación sean más transparentes y aumente tu productividad.


Contenido 6

Análisis predictivos, excelencia organizacional y networking, temas a desarrollar en la era del Big Data Entrevista a Benito Flores

Liu 10 Shu Rompiendo Barreras:

Todo lo que los profesionales de calidad deben saber para sobrevivir y prosperar en la era del Big Bata

25 La mejor inteligencia: Kishore Erukulapati Incorporar análisis y John W. Sinn avanzados con Lean Six Sigma puede llevarnos a una toma de decisiones y resolución de problemas más efectivos

32

Nathan Soderborg Mejor antes de los Big Data

20 Jim Duarte Ruptura de datos: Análisis disruptivos en Calidad y Six Sigma ASQ es la comunidad de profesionales de Calidad más grande del mundo. Creada hace 72 años, ASQ es líder en información referente a calidad para todo tipo de industrias gracias al trabajo y apoyo de sus más de 75,000 socios en todo el mundo. Para mayores informes, favor de mandar un mail a ASQMexico@asq.org o llamar al + 52 (55) 52.54.82.77 o al 001.877.442.8726 en Estados Unidos (sin costo desde México)

4 • CALIDAD • MAYO 2018



Entrevista a Benito Flores

“BIG DATA: Capacidades disruptivas para la Calidad

del

futuro”

Realizar análisis predictivos, ser campeones en excelencia organizacional, prepararse, crear networking, son algunas de las capacidades que un profesional de Calidad debe tener ante la era del Big Data.

Amplia experiencia en el área de Ca-

lidad y como catedrático, socio apasionado de ASQ, colega querido y respetado por quienes le rodean y feliz esposo y padre de familia, así podemos definir brevemente a Benito Flores, Presidente electo de ASQ para el 2019, quien es el primer socio no norteamericano que ocupará esta posición tan importante. Benito nos comparte su punto de vista sobre la importancia del profesional de calidad en la era del Big Data, lo que significa pertenecer a una asociación, capacitarse y apostar por la excelencia organizacional.

¿Qué es una Asociación Profesional y para qué le sirve a una persona formar parte de una? Una Asociación Profesional es una agrupación formal de personas que comparten el gusto por la misma disciplina y que realizan acciones para impulsar sus carreras, y con ello mejorar el desempeño de las organizaciones a las que sirven y por tanto, mejorar al mundo.

6 • CALIDAD • MAYO 2018

En términos de ASQ, yo la veo como un club de profesionistas que creen que la calidad es un enfoque directivo que nos permite lograr mejor las metas de una organización. Y por ello, en ASQ realizamos muchas acciones para difundir y aumentar el impacto de la calidad. Estas acciones están relacionadas con creación de redes profesionales, capacitación, generación de conocimientos sobre calidad, certificaciones, servicios profesionales y muchas cosas más. No puedo imaginar a un profesionista de calidad que no sea socio de ASQ. Quienes son socios se enriquecen de las muchas cosas maravillosas que esta asociación ofrece y que recién mencioné: capacitación, certificaciones, redes de contacto, ¿por qué no aprovechar ese recurso? Benito, fuiste elegido como Chair del Board de ASQ para 2019, ¿podrías explicar a los lectores qué hace una persona en esta posición? Mi trabajo será dirigir a la Asociación durante ese período. La ASQ es una asociación operada, diri-


entrevista gida y gobernada por sus propios socios y con ayuda de un formidable equipo de trabajo. En ese sentido, tendré la finísima responsabilidad de dirigir a la ASQ por un año. Mi trabajo se centrará en que tengamos un rumbo estratégico bien definido, que nuestras acciones principales se estén desarrollando como esperamos, en asegurar la viabilidad financiera de la organización y en colaborar para que los muchos miembros líderes que tenemos y nuestro equipo desarrollen sus responsabilidades exitosamente. ¿Qué retos tiene, tanto el Chair como ASQ, frente a los cambios tan importantes en la industria y en la profesión (Calidad 4.0, Big Data, IIoT, etc.)? El mundo está cambiando a velocidades vertiginosas, en todos los sentidos: social, tecnológica y económicamente. El reto más grande que tenemos en ASQ es preparar y ajustar nuestras actividades y nuestra oferta de valor de modo que le permitan a los profesionales de calidad, manufactura, recursos humanos y áreas relacionadas a trabajar exitosamente en este nuevo entorno, marcado por nuevas necesidades de clientes y de comunidades y a tecnologías que cambiarán por completo la forma en que manufacturamos y distribuimos productos y en que prestamos servicios. En ASQ vemos que nuestro reto es ofrecer a nuestros socios elementos y herramientas para que transiten a la Revolución Industrial 4.0 de forma exitosa. En ese sentido muchas actividades relacionadas con información, capacitación, desarrollo del cuerpo de conocimientos, establecimiento de estándares y similares están orientadas a esta nueva forma de dirigir la industria y la economía. Es importante señalar que es la primera vez que un latinoamericano llega a la Presidencia del Board de ASQ, ¿puedes contarnos de la relevancia que tiene esto para los socios que se encuentran fuera de Estados Unidos y Canadá? ASQ nació en los Estados Unidos y, como ahí está la gran mayoría de sus socios, siempre había tenido presidentes norteamericanos. Pero desde hace muchos años más y más profesionistas de muchos países europeos, asiáticos, latinoamericanos y africanos se volvieron socios de ASQ, principalmente porque les ofrecía valor para desarrollar sus carreras y también porque estaban conectados con compañías norteamericanas. En ese sentido, ASQ se fue volviendo una asociación muy diversa y también muy orientada a servir a profesionistas de

El que ahora haya un presidente que no es Norteamericano es sólo un reflejo de cómo ASQ es una Asociación verdaderamente global. calidad de todo el mundo, y por ello su eslogan es La Voz Global de la Calidad. El que ahora haya un presidente que no es norteamericano es sólo un reflejo de cómo ASQ es una asociación verdaderamente global. Durante mi gestión en particular, seguro buscaré dejar un sello especial de lo mucho que valoramos y cuidamos a nuestros socios, distribuidos hoy en más de 150 países. Nos gustaría que le platicaras a nuestros lectores ¿cómo llegó la Calidad a tu vida y cómo llegaste hasta donde ahora estás en ASQ? La primera vez que escuché hablar de la calidad como una escuela o filosofía gerencial fue durante mi primer año de estudios universitarios. Tuvimos un expositor invitado, que por cierto era socio de ASQ, que habló de calidad y de cómo en su compañía la usaron para ser exitosos. Y en ese momento tomé mi decisión: “la calidad va a ser mi profesión”. Luego de terminar mi carrera trabajé con compañías industriales y de servicios como

MAYo 2018 • CALIDAD • 7


entrevista ingeniero industrial, ingeniero de calidad, gerente de capacitación y mejora, gerente y director de calidad. ¡La calidad llegó a mi vida para quedarse! Como catedrático siempre he impartido clases del área o relacionadas. Me volví socio de ASQ porque un jefe me dijo que sería bueno hacerlo y que en la compañía me apoyaban. Pronto descubrí que es una gran asociación. Mi gratitud, cariño y admiración por ella me llevaron a que un día me invitaran a servir como voluntario, todos los líderes en ASQ somos socios voluntarios, en una posición, y luego en otra, y luego en otra. Y así pasé de ser Asesor de Capítulos Estudiantiles a Presidente del Capítulo Profesional de la Ciudad de Monterrey, y luego a servir en un Comité para mejorar el desempeño de las operaciones globales, y luego a servir en una de las Divisiones Técnicas y finalmente a ser miembro del Board of Directors y ahora, su Presidente durante 2019. Lo veo como un privilegio, el de poder servir a mi profesión, a los socios de ASQ, a las empresas y al mundo a través de esta responsabilidad. Celebro que lo haré hombro con hombro con muchísimos líderes y con un formidable equipo en ASQ, en donde siempre trabajamos en equipo. En esta edición hablamos de la importancia que tiene el contar con las capacidades disruptivas para la Calidad del futuro, la famosa “Calidad 4.0”, en especial de la importancia que el Big Data tiene para la profesión de calidad ¿Cuál es tu opinión sobre este tema? Siempre ha sido un reto en todas las profesiones y en particular para quienes trabajamos en calidad, saber hacer de los datos información sobre la que podamos tomar decisiones. Y ahora es más cierto porque manejamos cientos, miles o millones más datos que hace 100 años, pues las computadoras han permitido medir o censar casi todo. Los profesionistas de calidad modernos deben tener capacidad para manejar grandes cantidades de datos de forma que puedan hacer análisis predictivos, análisis de comportamiento, (por ejemplo, de consumidores o de mercados), y otros ejercicios que permitan tomar mejores decisiones y construir mejores escenarios en fábricas, escuelas, oficinas de servicio público y demás, pues el manejo de big data, si bien es cierto tiene un impacto enorme en procesos de manufactura o de administración del consumidor, igualmente tiene un efecto positivo en combate a la pobreza, disminución de crimen, cuidado del medio ambiente y mejora de la salud pública. En participar, quienes trabajan en esta área deben conocer sobre la filosofía que hay detrás

8 • CALIDAD • MAYO 2018

del big data, como saber manejar los maravillosos softwares y herramientas que ya existen para lograr el análisis y uso de datos. Por último, nos gustaría que compartas algunas recomendaciones para aquellos profesionales de calidad y mejora que están iniciando su carrera o para quienes buscan dar un giro en la suya. La calidad es una profesión muy retadora, divertida y gratificante, que ha probado su valor en la administración moderna. Creo que el futuro de nuestra profesión está en volvernos el campeón de nuestra organización en cuanto a excelencia organizacional. Mi consejo para los profesionales de la calidad es que identifiquen bien cuál es la contribución que se espera de ellos y qué pueden hacer en la empresa según la responsabilidad que tienen ahora, y prepararse y equiparse lo mejor que puedan para hacerlo y luego esforzarse al máximo a la hora de ejecutarlo. Y acto seguido, prepararse para su siguiente rol dentro de la empresa o especializarse y volverse el mejor en el rol que ya tienen y disfrutan. Animo a todos los profesionistas de calidad y de áreas como manufactura, recursos humanos y similares, a volverse socios de ASQ. Es una pequeña inversión que genera muchos y muy visibles beneficios a la carrera y a la vida de un profesionista de calidad. Como dije antes, ASQ le brinda a sus socios acceso a nuevas personas, (que terminan siendo colegas, jefes, clientes y hasta amigos), a capacitación, a certificaciones muy reconocidas, y a la inspiración que nos permite volver realidad nuestra creencia, que la calidad es un mecanismo para volver al mundo un lugar más productivo y por tanto, un mejor lugar para vivir.

Benito Flores es Ingeniero Industrial con Maestría en Ingeniería y Doctorado en Administración Educativa. Es profesor universitario desde hace más de 25 años y ha impartido cátedra en siete universidades. Ha ocupado cargos profesionales y directivos en empresas como Vitro, Philips y la Universidad de Monterrey. Actualmente es Director y Profesor de la Escuela de Ingeniería de la Universidad de Monterrey. Está certificado como Gerente de Calidad por la ASQ. Sirve o ha servido en el Consejo de Directores de organizaciones no lucrativas como la Sociedad Americana para la Calidad (ASQ), la Asociación de Universidades del Sur de los Estados Unidos (SACSCOC) y la Preparatoria Politécnica de Santa Catarina. Está electo como Presidente 2019 de la Sociedad Americana para la Calidad, la asociación más grande e influyente del mundo en materia de Calidad. Vive con su esposa Alejandra y sus tres hijos en la ciudad de Monterrey, México.



TECNOLOGÍA

Rompiendo

Barreras Todo lo que los profesionales de calidad deben saber para sobrevivir y prosperar en la era del Big Data

En 50 palabras o menos

• Los datos masivos, o Big Data, están transformando nuestras vidas de manera fundamental; con ellos viene un fuerte cambio, así como riesgos, para nuestra sociedad. • Para impulsar los beneficios y prepararse para los retos, los profesionales de calidad deben cambiar su mentalidad, obtener mayor cantidad de datos, actualizar sus habilidades y expandir su participación en el universo del Big Data.

10 • CALIDAD • MAYO 2018

Por Shu Liu

HACE TRES DÉCADAS, Joseph M. Juran acuñó el

término “ la C grande” para integrar un cambio fundamental que estaba ocurriendo en el campo de la gestión de la calidad. El nombró el enfoque puntual sobre la calidad del producto como “la c pequeña”, y denominó “la C grande” a la nueva práctica porque se enfocaba en la mejora de todos los procesos organizacionales. La C grande ha ampliado de manera drástica el concepto global de calidad y mejorado de manera


TECNOLOGÍA

fundamental la efectividad de la práctica y de la filosofía de la gestión de calidad.1, 2 Hoy el mundo está experimentando otra transformación que va de lo pequeño a lo masivo: de datos pequeños a datos masivos (Big Data). La naturaleza del Big Data tiene tanto impactos positivos como negativos para la sociedad, y los profesionales de calidad tienen que aprender a sobrevivir y sobresalir en este mundo.

MAYo 2018 • CALIDAD • 11


TECNOLOGÍA

¿Qué son los Big Data? El poder del Big Data

Los Big Data son una colección de conjuntos de datos que son muy grandes y muy complejos para ser procesados mediante el uso de bases de datos y herramientas de procesamiento de datos tradicionales.3 Las características de estos gigantes se pueden resumir mediante las tres Vs:4, 5 1. Volumen. La cantidad de datos almacenados en el mundo está creciendo exponencialmente. Alcanzó los 1.2 zettabytes (un zettabyte equivale a 1021 bytes) en 2013 y el volumen para el 2015 llegó a ocho zettabytes. Sí, ese es el número ocho seguido por 21 ceros. Al mismo tiempo, el costo del almacenamiento de datos cayó siguiendo un patrón similar—de aproximadamente $1 millón USD por gigabyte (un gigabyte equivale a 109 bytes) en la década de 1980s, a 10 centavos de dólar en 2010.

2. Velocidad. La tasa creciente a la que los datos viajan ha tenidouna tendencia similar a la del incremento en volumen. Los datos se generan, recolectan, almacenan y procesan a una velocidad que va aumentando para alcanzar la demanda que los datos tienen. 3. Variedad. Las fuentes de los Big Data están en todos lados. Bases de datos, documentos, correos electrónicos, registros telefónicos, instrumentos, sensores, imágenes, archivos de audio y de video, transacciones financieras, son algunos ejemplos de las fuentes. De manera incremental, las acciones que llevas a cabo, las palabras que pronuncias o escribes, los sitios de internet que visitas, los lugares donde has estado y la gente con la que te reúnes, se graba y se registra en algún lado.6

12 • CALIDAD • MAYO 2018

Aún en los comienzos de su era, el Big Data ya se ha hecho sentir en todos los aspectos de nuestra vida, acelerando el crecimiento económico, el progreso científico y el desarrollo internacional. En el mundo del Big Data, es posible procesar una cantidad de datos mucho mayor, y en algunos casos, todos los datos relacionados con un fenómeno en particular se pueden analizar. Yendo más lejos, los datos masivos permiten echar un vistazo a las subcategorías, de una manera que el análisis de muestreo tradicional nunca nos permitiría. El objetivo central de los datos masivos es la predicción—aplicar matemáticas a conjuntos enormes de datos para inferir probabilidades. El análisis de los Big Data está tomando un papel cada vez mayor en la toma de decisiones tanto para el sector privado como para el público. En la Tabla 1 se enlistan algunos ejemplos del análisis de los datos masivos, únicamente para mostrar la punta del iceberg.7, 8 El Big Data es ahora considerado materia prima del negocio que genera una nueva forma de valor económico. De hecho los datos masivos se han convertido en una fuente de valor porque los datos se utilizan una y otra vez con propósitos distintos (las veces consecutivas) que el de la vez anterior (el uso principal).9

El lado oscuro del Big Data

Si el big data no es gestionado de manera adecuada, puede ser una gran amenaza a la privacidad, a la voluntad humana y a la democracia. El debate reciente sobre el programa de vigilancia de la National Security Agency no va a terminar pronto, y alimenta una discusión más amplia sobre cómo proteger la privacidad de los ciudadanos comunes en la era de los Big Data.10 Y no es únicamente el incremento al riesgo en la privacidad, los datos masivos también cambian el carácter de los riesgos. Debido a que el Big Data está disponible para usos secundarios, la efectividad de los medios tradicionales para la protección de la privacidad— notificación individual y consentimiento, cláusulas de exclusión y anonimato—se ha perdido en gran medida.11 Un creciente número de juntas de libertad condicional de los Estados Unidos está usando las predicciones del análisis de Big Data como factores para la toma de decisiones sobre si se concede libertad condicional a los internos o no. Una mayor cantidad de ciudades está usando los análisis predictivos para seleccionar las instalaciones y los individuos que deben ser sometidos un escrutinio más riguroso. Sería muy peligroso si las decisiones de los castigos o del escrutinio se basaran principalmente en la probabilidad de crímenes que no se han cometido. El problema fundamental de un sistema como este podría ir más allá del campo del cumplimiento de la ley, incluyendo todo, desde empleadores despidiendo empleados, bancos negando peticiones de hipotecas, o esposas divorciándose de sus maridos, sólo por la alta probabilidad de que ocurra algún acto malo que aún no ha sucedido.12 Si se permite que el resultado del análisis de los datos masivos nos gobierne al brindarle fe no merecida a los análisis predictivos, la democracia como la conocemos hoy podría estar en peligro.

Cambia tu mentalidad

Entonces, ¿qué significa el Big Data para los profesionales de calidad?, ¿estás listo para enfrentar los retos de esta transformación que está cambian-



TECNOLOGÍA do fundamentalmente la manera en que vives y en que trabajas? Debes cambiar la forma de pensar que tienes sobre el tamaño de muestra, exactitud y causalidad. El primer cambio en la mentalidad es cambiar de algunos a todos. En el mundo de los “datos pequeños” tienes que trabajar con conjuntos de datos pequeños porque resulta imposible recolectar y analizar todos los datos. Para lograr que la estadística muestral represente a la población, debes recolectar los datos muestrales de la forma más aleatoria posible. Sin embargo, lograr aleatoriedad total es complicado, si no es que imposible, y el muestreo aleatorio no es sencillo de escalar para segmentar los resultados en subgrupos. El muestreo aleatorio también tiene el riesgo de pasar por alto información importante que no aparece con frecuencia. Se puede filtrar algo de sesgo al proceso de muestreo, por ejemplo, al responder cuestionarios. En el mundo del Big Data puedes recolectar una cantidad de datos mucho mayor o inclusive todos los datos (N =todos). Al utilizar todos los datos se vuelve posible encontrar conexiones y explorar detalles y subgrupos. Nos brindan la libertad de verificar muchas hipótesis y examinar los datos minuciosamente desde varios ángulos. También reducen el sesgo asociado con el muestreo porque éstos son recolectados de manera discreta cuando la gente lleva a cabo sus operaciones del día a día.13 El segundo cambio en la mentalidad es no centrarse tanto en la exactitud, sino más bien en la probabilidad. En el mundo de los datos pequeños, se solicita en la mayor medida de lo posible la claridad y la certeza. Al entrar la mundo de los big data, no es necesario preocuparse por si los datos individuales sesgan el resultado global del análisis, ya

14 • CALIDAD • MAYO 2018

que uno se puede apoyar en una gran cantidad de datos para realizar predicciones. De hecho, al relajar un poco la exactitud, es posible recolectar una mayor cantidad de datos que mejorarán la precisión de los resultados de la predicción y nos ayudan a obtener un sentido más completo de la realidad. Sí, Big Data es engorroso ya que las herramientas utilizadas para recolectar y analizar la información son imperfectas, pero obsesionarse con la exactitud en esta era resulta con frecuencia contra producente, ya que se desperdician recursos y obstaculizan los esfuerzos para recolectar y analizar una mayor cantidad de datos. En lugar de ver la inexactitud como un problema, mejor hay que considerarla como parte de la realidad.14 El tercer cambio en la mentalidad es soltar la causalidad y preferir la correlación. En el mundo de los datos pequeños, la selección de indicadores para el análisis de correlación normalmente se lleva a cabo con base en algunas hipótesis, y su precisión se evalúa mediante análisis de correlación. Este es un proceso lento y caro que generalmente se ve opacado por el prejuicio y la intuición. La investigación de la causalidad real, basándose en pequeños conjuntos de datos, generalmente no es práctico y frecuentemente sirve como atajo para confirmar conocimientos y creencias preexistentes. En la era de Big Data, grandes cantidades de datos están disponibles, y poderosos programas de computadora pueden identificar rápidamente los indicadores óptimos. Los análisis de correlación basados en Big Data proporcionan probabilidad, no certidumbre, y nos dicen los qués en vez de los porqués. En muchos casos este análisis rápido, no-causal y económico es suficiente, y ayuda al estudio de la causalidad, ya que provee posibles causas de primera instancia.15

Obtener más datos

Los datos se están convirtiendo en el nuevo aceite que mueve los motores económicos. Un día el valor de los datos aparecerá en los balances corporativos como una nueva clase de activo. Aquellos que están en la cadena de valor de los Big Data, los propietarios de los datos, los especialistas en datos y las instituciones con una mentalidad enfocada en los Big Data, se beneficiarán de éstos, pero al final el valor mayor reside en los datos mismos. Esto es porque los datos siempre nos hablan, siempre hay algo por aprender. El valor se extrae de los usos primarios y secundarios que demos a los datos. En un mundo que “datifica” todo, aquellas organizaciones que dominan los Big Data tienen la oportunidad de superar a sus competidores y de ampliar sus ventajas. Los jugadores pequeños pero hábiles pueden disfrutar la escala sin ser masivos, mientras que los propietarios medianos de datos estarán bajo gran presión para lograr sobrevivir.16 Los profesionales de la calidad deben ayudar a sus organizaciones en la obtención de más datos y apoyar la toma de decisiones con el análisis de Big Data, como se muestra en los ejemplos de la Tabla 1. Se puede obtener una mayor cantidad de datos internos al automatizar y “datificar” los procesos del negocio. Los big data no se deben usar para generar reportes únicamente, sino para simplificar patrones para análisis predictivos. Al llevar a cabo minería de las bases de datos públicas gubernamentales, los resultados de los análisis predictivos se pueden utilizar no solo para beneficio del gobierno, sino para instituciones no gubernamentales también.


TECNOLOGÍA Las organizaciones pueden comprar datos de propietarios privados, y compartirlos e integrarlos con otros propietarios de datos a través de intermediarios.17 Bajo algunos arreglos de negocio, todos los contribuyentes de los datos integrados pueden extraer valor de ellos. Finalmente, las organizaciones pueden explotar el valor de los conjuntos de datos al reutilizarlos con diferentes propósitos, al combinar diferentes grupos en uno nuevo, mediante la expansión hacia conjuntos de Big Data para usos múltiples y mediante la recopilación de los datos desechables o “data exhaust”—son aquellos que resultan como un subproducto de todas las acciones y movimientos de las personas.18 Si es necesario, los datos se pueden vender a diferentes compradores, y la organización puede cobrar una tarifa a aquellos que utilicen sus datos.

Actualizando habilidades

En el mundo de los datos pequeños, la gente basa sus decisiones en una combinación de factores, reflexiones y suposiciones bien fundamentadas. El conocimiento latente acumulado a través de la experiencia juega un papel crítico en el proceso tradicional de toma de decisiones. Esto va a cambiar en el mundo de los Big Data, donde las decisiones se toman, o cuando menos se confirman, mediante el análisis de dichos datos. Los profesionales de la calidad deben aprender las habilidades asociadas con los Big Data, tales como estadística, modelado predictivo rudimentario y computación básica para incluirlo en el proceso de toma de decisiones. En cuanto a estadística, las herramientas más importantes a comprender son las relativas a correlación y a regresión.19-21 El coeficiente

Ejemplos de aplicación de análisis de Big Data / Aplicación

TABLA 1

Descripción

Estimación de valor de hipoteca

Predecir quienes pagarán por adelantado en los siguientes 90 días, y decidir si vender las hipotecas a otros bancos

Predicción de descompostura de vehículos

Predecir cuáles piezas sufrirán descomposturas y realizar mantenimiento preventivo

Identificación mecanizada para eventos especiales

Predecir cuáles productos comprarán los clientes en un evento y colocarlos al frente de las tiendas

Identificación de riesgos de salud sin hacer pruebas médicas

Predecir quienes de los aplicantes tienen alto riesgo de algunas enfermedades para calcular las primas del seguro

Identificación de diagnóstico correcto

Predecir el riesgo de bebés prematuros y tomar las decisiones de diagnóstico correctas

Retención de clientes

Predecir cuáles clientes se irán y tomar acciones para retenerlos

Mercado objetivo

Predecir cuáles clientes pueden ser persuadidos para comprar y contactarlos

Anuncios predictivos selectivos

Predecir cuál anuncio tiene más probabilidad de ser visto por algún cliente, y publicar el mejor

Recomendaciones de libros y películas

Predecir la calificación que un cliente daría a un libro o película, y darle recomendaciones

Retención de empleados

Predecir quienes renunciarán y tomar acciones para retener a los buenos

Estudio guiado para aprendizaje específico

Predecir las preguntas que tendrá mal un estudiante y recomendar mayor tiempo de estudio

Predicción de embarazo

Predecir cuáles clientas tendrán un bebé en los siguientes meses y hacerles ofertas relevantes

Predicción de crimen

Predecir la locación de crímenes futuros y patrullar esos lugares

Predicción de reincidencia para refuerzo de la ley

Predecir cuáles presos reincidirán y decidir si pueden salir bajo fianza

Detección de fraude

Predecir cuales transacciones o aplicaciones serán fraudulentas y auditarlas

Detección de intrusión de red

Predecir cuales comunicaciones de internet, de bajo nivel, se originan por impostores y bloquear sus interacciones

Filtro de spam

Predecir cuales correos son spam y redireccionarlos a la carpeta de spam

Respuestas a preguntas abiertas

Predecir las respuestas correctas para ganar la competencia de “Jeopardy!” por la supercomputadora Watson de IBM

Detección de ansiedad en textos de blog

Predecir cuales textos de blog expresan ansiedad y calcular una medición agregada del estado de ánimo de las masas

Campaña politica con persuasión de los votantes

Predecir cuáles votantes serán persuadidos y contantárlos

MAYo 2018 • CALIDAD • 15


TECNOLOGÍA

Modelo de decisión de árbol /

FIGURA 1

Tasa de interés < 7.94%

Hipoteca < $182,926

Ingreso < $78,223

Tasa de interés < 7.19%

2.6%

3.4%

Préstamo/Relación de valor < 87.4%

Hipoteca < $67,751

9.1%

8.1%

6.4%

15.2%

40%

Tasa de interés < 8.69%

Propiedad es condo, no cooperativa

8.5%

Propiedad es condo, no cooperativa

25.6%

16.3%

Los porcentajes en los círculos representan los riesgos de prepago del deudor hipotecario individual. El camino en azul ilustra el análisis predictivo del riesgo de prepago de Mary Bowser. Fuente: Eric Siegel, Predictive Analytics: The Power to Predict Who Will Click, Buy or Die, Wiley, 2013.

de Pearson de producto-momento es el método de correlación más común para medir la relación lineal que existe entre dos variables, mientras que el coeficiente de correlación de rango de Spearman es una medición no paramétrica de la dependencia estadística entre dos variables. En el terreno de la regresión, el método de los mínimos cuadrados es comúnmente utilizado, así como las regresiones no lineales, las ortogonales y las logísticas. En términos del modelado predictivo, el árbol de decisión es el método que se debiera aprender primeramente, ya que es el más

16 • CALIDAD • MAYO 2018

utilizado por los científicos de los Big Data debido al balance que tiene entre simplicidad y efectividad. No es para nada lo complicado que podría parecer. La Figura 1 es el árbol de decisión del banco Chase usado para predecir el riesgo de prepago del deudor hipotecario individual.22, 23 Básicamente es una estructura tipo diagrama de flujo con rectángulos que representan una prueba sobre algún atributo, y cada rama que sale de dicha prueba, representa el resultado de ésta. Cada rama nos lleva a una prueba nueva hasta que llega a una decisión (en este caso, se refiere al riesgo de prepago). Para predecir el riesgo de prepago algún deudor hipotecario, cada caso desciende el árbol de arriba hacia abajo, pasando por una serie de pruebas hasta que llega a su destino. Por ejemplo, el modelo predice que Mary Bowser tiene una propensión del 25.6% de pagar prematuramente su hipoteca. Esta predicción está basada en su información: tasa de interés de 8.8%, una hipoteca de $100,000 y un radio entre el préstamo y el valor de 80%. El camino que sigue el análisis predictivo de este caso, está resaltado en azul en la Figura 1.


TECNOLOGÍA Otras herramientas de modelos predictivos que se pueden usar incluyen redes neuronales artificiales, regresión loglinear, máquinas de vectores de soporte y TreeNet.24 Si deseas aprender sobre modelos predictivos, busca información en línea y libros, o cursos gratuitos en línea.25-28 Los profesionales de la calidad deben aprender a trabajar cohesivamente con los científicos de los Big Data—los especialistas en análisis de datos, inteligencia artificial y estadística. Sus habilidades complementan a los profesionales de la calidad y aportan nuevas ideas: ellos normalmente tienen desarrollado el hábito de permitir que los datos hablen sin prejuzgarlos. También te puedes mantener vigente sobre las políticas y regulaciones gubernamentales actuales, enfocadas a proteger a la sociedad de los riesgos de los big data y a prevenir la creación de los barones de los datos. Victor MayerSchönberger y Kenneth Cukier, autores de Big Data: A Revolution That Will Transform How We Live, Work and Think, visualizan los siguientes desarrollos en las políticas y regulaciones gubernamentales sobre los Big Data: • Responsabilizar a los usuarios de los datos, del uso que de ellos hagan. • Implementar “privacidad diferencial” para nublar algunos conjuntos de datos para que una búsqueda de datos únicamente arroje resultados aproximados. • Garantizar representación humana para que las decisiones importantes que tomen los gobiernos o las organizaciones y que afecten a la gente, estén basadas en el comportamiento y en las acciones de las personas, y no únicamente en las predicciones de los análisis de Big Data. • Crear una nueva profesión llamada algoritmista (o algún otro nombre adecuado) para que realice las tareas de monitoreo y auditoría de responsabilidad, rastreabilidad y competencia justa.29

Explorar el interior

En el mundo del Big Data, la experiencia de los profesionales de la calidad perderá un poco de su valor, y muchas de sus funciones tradicionales como guardián de la calidad serán desempeñadas por computadoras. Estos profesionales deben adentrarse en terreno que los datos masivos no pueden predecir: soñar, pensar de manera diferente, aventurarse e inventar. Deben convertirse en el lado derecho del cerebro y ser una hipoteca decien mil y un radio entre el préstamo y capaces de complementar sus habilidades técnicas con las conceptuales (diseño, historias y sinfonía) y las de “toque” (empatía,juego y significado).30 El diseño se trata de descubrir patrones y oportunidades y de crear belleza. Una persona con habilidad para las historias sabe como elaboran narrativas convincentes. La sinfonía es una analogía a lograr combinar diferentes ideas y obtener algo nuevo. La empatía es la identificación y entendimiento de las emociones y sentimientos de otras personas. Juego significa que encuentres felicidad en tu vida y provoques bienestar en los demás. Significado se refiere a la búsqueda de propósito y significado.31 Al adentrarse en territorio desconocido con una mentalidad distinta, conjuntos de datos poderosos y habilidades mejoradas, los profesionales de la calidad harán frente a los retos de los Big Data con confianza y prosperidad en esta nueva era. Este es un aspecto de la calidad masiva del siglo 21.

SHU LIU es gerente senior de I&D en SunEdison Semiconductor in St. Louis. Tiene un Doctorado en Química del Virginia Polytechnic Institute y de la State University en Blacksburg, y un MBA de Robert Morris University en Pittsburgh. Es miembro Senior de ASQ y está certificado como Gerente de Calidad/ Excelencia Organizacional y Black Belt de Six Sigma. Liu también está certificado como Master Black Belt en Six Sigma por la Arizona State University y como Lean Master por Lean Enterprise Inc.

REFERENCIAS Y NOTAS 1. B. Solomon,“It’s All About ‘Big Q,’” The Big Q Blog, Juran Institute, Jan. 21, 2011, www.juran.com/ blog/?p=188. 2. Russell T.Westcott, The Certified Manager of Quality/Organizational Excellence Handbook, third edition,ASQ Quality Press, 2005. 3. Wikipedia,“Big Data,” http://en.wikipedia.org/wiki/ big_data. 4. Gartner,“Gartner Says Solving ‘Big Data’ Challenge Involves More Than Just Managing Volumes of Data,” Jan. 27, 2011, www.gartner.com/newsroom/ id/1731916. 5. Big Data Now: 2012 Edition, O’Reilly Media Inc., 2012. 6. Ibid. 7. Eric Siegel, Predictive Analytics:The Power to Predict Who Will Click, Buy or Die,Wiley, 2013. 8. Victor Mayer-Schönberger and Kenneth Cukier, Big Data:A Revolution That Will Transform How We Live,Work and Think, Eamon Dolan/Houghton Mifflin Harcourt, 2013. 9. Ibid. 10. For details about the U.S. National Security Agency’s (NSA) surveillance program, see Bryan Walsh,“The NSA’s Big Data Problem,” Time, June 2013, pp. 23-25. 11 Mayer-Schönberger, Big Data, see reference 8. 12, 13, 14, 15, 16, 17 y 18. Ibid. 19. T.M. Kubiak, The Certified Six Sigma Master Black Belt,ASQ Quality Press, 2012. 20. Robert S.Witte and John S.Witte, Statistics, ninth edition, Wiley, 2009. 21. Minitab 16 software, regression and correlation sections. 22. Siegel,“Predictive Analytics,” see reference 7. 23. Ali Moazami and Shaolin Li,“Mortgage Business Transformation Program Using CART-based Joint Risk Modeling,” Salford Systems Data Mining Conference, 2005, http://docs.salford-systems.com/ MoazamiLi.pdf (case sensitive). 24. Siegel, Predictive Analytics, see reference 7. 25. Robert Nisbit, John Elder and Gary Miner, Handbook of Statistical Analysis and Data Mining Applications,Academic Press, 2009. 26. Tom M. Mitchell, Machine Learning: Science/ Engineering/ Math, McGraw-Hill, 1997. 27. Saed Sayad,“An Introduction to Data Mining,” http://www. saedsayad.com. 28. Stanford University offers a free online course at www.coursera.org/course/ml. 29. Mayer-Schönberger, Big Data, see reference 8. 30. Daniel H. Pink, A Whole New Mind:Why RightBrainers Will Rule the Future, Riverhead Trade, 2006. 31. Ibid.

MAYo 2018 • CALIDAD • 17




BIG DATA

Ruptura de datos Análisis disruptivos en Calidad y Six Sigma | por Jim Duarte

20 • CALIDAD • MAYO 2018

Los hechos El autor presenta los beneficios de tres tecnologías disruptivas— aprendizaje automático, análisis de texto y software de simulación de eventos discretos. Los análisis avanzados mejoran la forma en que las organizaciones buscan, obtienen y analizan los datos, lo que les puede ayudar a entender mejor sus procesos y las necesidades de los clientes.


BIG DATA

Existe gran discusión

estos días sobre tecnología disruptiva, los teléfonos celulares están remplazando las líneas fijas; la inyección electrónica está remplazando los carburadores; las calculadoras han remplazado a las reglas de cálculo; el reloj de cristal de cuarzo ha remplazado los engranes de precisión suizos; y los teléfonos celulares están eliminando completamente a los relojes. No solo la tecnología ha cambiado, también las herramientas analíticas. Es importante reconocer el rol que los análisis disruptivos tienen en el mundo actual. Nos permiten buscar, obtener y analizar mayor cantidad de datos a una velocidad que hace que la toma de decisiones cada vez se lleve a cabo, con mayor frecuencia, en tiempo real.

Tantos datos

Estamos inundados de datos e información. Esta se gestiona con sistemas de bases de datos, almacenes de datos, computación en memoria y análisis de alta velocidad, que pueden monitorear la calidad y el desempeño de productos y procesos para lograr la satisfacción de los clientes. Algunos términos utilizados para describir esto son los datos masivos o Big Data, flujo de datos o streaming data e internet de las cosas o internet of things (IoT), que es una red de equipos en línea que recolectan y comparten datos. Asociado a estos términos, están el IoT industrial (aplicando el IoT a la manufactura) y más recientemente, el análisis de cosas o analytics of things (análisis de datos en el IoT). Esto le da una perspectiva completamente nueva al análisis de datos para procesos. Por ejemplo, vehículos conectados proveen de información significativa para los ingenieros de calidad, de confiabilidad y de diseño que la pueden usar para Diseño para Six Sigma en modelos de vehículos futuros. Con la tecnología de comunicación de hoy, un taller automotriz puede recibir la información de algún vehículo inclusive antes que este ingrese al taller.

Los datos pueden tomar diversas formas, tales como datos en reposo y datos en movimiento. Los datos que están guardados en almacenes esperando a ser analizados, se denominan datos en reposo (se analizan después que sucedió un evento) y se usan para crear modelos predictivos. Los datos en movimiento (se analizan en tiempo real conforme el evento sucede, tales como los clickstreams y sensores) fluyen a través de un dispositivo conectado a una base de datos en el extremo receptor para su análisis inmediato. Los datos en movimiento se comparan contra los modelos predictivos, y se usan para dar ajuste fino a estos modelos, y los analistas en sitio (realizan los análisis en el punto donde los datos son recolectados) despliegan la información para controlar los procesos en tiempo real. Un ejemplo de este proceso de creación, uso y despliegue, es la inyección electrónica. Los datos en reposo se usan para crear un modelo que optimice la distribución del combustible, los datos en movimiento recolectados de motores de prueba se usan para afinar el modelo, y el modelo se despliega como un chip controlador en el vehículo para análisis en sitio. El proceso de crear un análisis, desplegar la información y utilizarla, es complejo; pero los análisis disruptivos juegan un gran papel para entender este proceso.

Analizando todos los datos El Sistema de Producción de Toyota1 inspiró a mucha gente y organizaciones a emparejar la mejora de procesos con el análisis de datos para progresar en la manera en que hacen negocios. Históricamente, los datos analizados provenían de procesos a baja velocidad, de bajo volumen y con poca variedad (con pocas variables).

MAYo 2018 • CALIDAD • 21


BIG DATA En Six Sigma, por ejemplo, las herramientas del marco de definir, medir, analizar, mejorar y controlar, guiaban a los equipos de trabajo en sus proyectos de una manera disciplinada. Los métodos estadísticos dependían del muestreo, ya que la falta de tecnología avanzada no permitía el fácil manejo de altos volúmenes de datos. La tecnología ha cambiado eso y ha transformado muchas técnicas de muestreo. Ahora las organizaciones recopilan datos de sensores instalados en procesos de alta velocidad, crean almacenes de datos que están disponibles para analizar y extraer la información. Los paquetes de Inteligencia de Negocio, Business intelligence (BI), facilitan el adentrarse en los datos y ayudan a tener un mejor entendimiento del desempeño actual de un proceso.Los programas de BI son disruptivos porque hacen que las hojas de cálculo y las tablas dinámicas sean menos efectivas cuando hay una gran cantidad de datos disponibles. También son mucho más versátiles y proveen herramientas amigables de incorporación y de visualización de datos. Brindan una vista histórica para consideración analítica, pero poca o nula visión de lo que podría pasar en el futuro. Estos paquetes de computadora tienen limitaciones para llevar a cabo análisis predictivos, a diferencia del aprendizaje automático. Nos dan una visión integral de los análisis aislados. Se puede tener enfoque específico de muVisite videos.asq.org/home para ver a Jim Duarte en el episodio de ASQTV “Smart Manufacturing and the Future of Technology in Manufacturing,” y sus entrevistas “Taking Control of the Internet of Things” y “Big Data and the Quality Profession.”

22 • CALIDAD • MAYO 2018

chas variables, pero una visión holística del proceso, de punta a punta, es difícil de lograr. Al seleccionar el mejor programa de análisis, este debe ser lo suficientemente flexible para manejar grandes cantidades de datos que se encuentren almacenados, y lo suficientemente rápido para manejar los datos en streaming. Existen tres herramientas o tecnologías de análisis, que se consideran disruptivas para las formas de visualizar históricamente a los procesos de análisis y a los datos. La perspectiva de usar estas herramientas puede ser novedosa para muchos profesionales de la calidad y de Six Sigma. Las tres tecnologías disruptivas son: 1. Aprendizaje automático, usado para complementar al diseño de experimentos (DoE). 2. Análisis de texto, utilizado como auxiliar en la voz del cliente (VOC). 3. Simulación de eventos discretos (DES), aplicado para apoyar el análisis de los mapas de la cadena de valor (VSM) y la teoría de restricciones. Estos son sólo tres ejemplos. Existen otras tecnologías disruptivas, tales como análisis de conglomerados para reducir variables y entender la estratificación, el proceso de flujo continuo para monitorear datos de alta velocidad.

Aprendizaje automático El objetivo principal del aprendizaje automático es iterar automáticamente mediante una serie de algoritmos analíticos para encontrar el mejor modelo predictivo. Los datos de un proceso alimentan a un modelo de aprendizaje automático para que éste pueda aprender sobre el proceso. El modelo de aprendizaje automático aplica lo que ha aprendido del proceso a los análisis de datos nuevos. Es la forma en que las computadoras aprenden sin que tengan que ser programadas. Históricamente, el modelado ha buscado el mejor ajuste. Pero a través de los años se ha hecho claro que esto muchas veces sobre ajusta los datos y no proporciona los mejores resultados predictivos. Por tanto, los analistas de datos decidieron usar muestras de datos preparadas para verificar los modelos que se crearon. Al crear un modelo a partir de una porción sustancial de los datos y evaluar su precisión corriéndolo con los datos preparados, era más fácil repetir el modelo campeón. Esto abrió un nuevo horizonte al combinarlo con tecnología para iterar rápidamente mediante algoritmos y comparar la precisión de predicción. Los métodos de Taguchi2, por ejemplo, estaban en boga en los años 90’s para maximizar la información de un proceso al analizar sólo unas pocas variables provenientes de una muestra de datos controlada. La tecnología de aquel momento nos limitaba a realizar análisis aislados. Los métodos de Taguchi brindan información sobre un proceso a partir de una muestra de datos con un número restringido de variables controladas. Esto minimiza los recursos necesarios para un estudio y generalmente proveen más información de la que anteriormente estaba disponible. Pero los métodos de Taguchi también tienen sus desventajas, se recolectan tan pocos datos con tan pocas variables, que el modelo no puede soportar grandes cantidades de variables, ni se pueden estimar las interacciones. Los profesionales de la calidad carecían de la tecnología para soportar un estudio de big data utilizando aprendizaje automático. También se asumía que las variables críticas identificadas por los expertos del proceso


BIG DATA eran las más adecuadas para analizar y correr en el DoE. Hoy, construir modelos predictivos a partir de datos almacenados (datos en reposo), donde las restricciones en el número de observaciones y de variables a ser analizadas es un lujo analítico. Durante los primeros años de mi carrera, cuando surgía un problema de calidad, mi equipo usaba todas las herramientas tradicionales para resolverlo. Si el problema persistía, los analistas recurrían a tomar todas las variables asociadas al proceso y las introducían a una gran matriz de correlación en una computadora central—un ejemplo de aprendizaje automático en pequeño. Entonces surgía a la superficie una variable oculta con una correlación alta. Era una que ninguno de los expertos del proceso pensaba que estaba relacionada al problema de calidad, y se requería de mucha persuasión para convencerlos. Eventualmente, se le asignaba una carta de control a dicha variable y el problema de calidad estaba solucionado. Esto me empujó a predicar la importancia de combinar herramientas avanzadas de análisis con las actividades de mejora de procesos. El equipo se dio cuenta que la minería de datos de extremo a extremo daba más beneficios que los análisis aislados, en muchas instancias, para problemas de datos de alto volumen y de alta velocidad—especialmente para procesos complejos. Los análisis avanzados más que disruptivos son progresivos.

Análisis de texto Existen programas que usan procesamiento de lenguaje natural (NLP) para visualizar un texto (datos no estructurados) de dos maneras: 1. Para examinar el cuerpo de un texto y determinar grupos de palabras que están relacionadas entre sí. Dado que las computadoras leen la información como código binario, típicamente ceros y unos, una computadora convierte el texto en cadenas de ceros y unos para poderla analizar. Estas cadenas son agrupadas para encontrar términos comunes y frases relacionadas a través de algoritmos de análisis de conglomerados. El software invierte el proceso y regresa los ceros y unos a texto para mostrar los conglomerados como palabras, frases e ideas relacionadas. Esto nos brinda una buena visualización de temas en una bitácora de mantenimiento, por ejemplo. 2. Para remover temas conocidos, como los encontrados mediante un análisis de conglomerados, y colocarlos en un glosario que se utilice para buscar estos temas en documentos. Esto comúnmente se denomina clasificación. Buscar temas en documentos acelera significativamente los análisis. Por ejemplo, si hablamos de VOC, se puede analizar publicaciones de redes sociales usando ambos métodos. Una organización puede explorar la red para identificar cuáles temas sobre sus productos o servicios son tendencia en las redes sociales, pero esto consume mucho tiempo. En vez de esto, la organización puede crear un glosario de términos relevantes y buscar la red para adelantarse a los problemas, lo que puede ayudar a mantener o mejorar la satisfacción de los clientes. El glosario puede clasificar el texto en subtemas para realizar un análisis de opiniones, que una organización puede usar para evaluar en tiempo real los tweets positivos y negativos que sus clientes están publicando, por ejemplo. En algunos casos, esta forma de recolectar y analizar texto es más oportuna y completa, puede ser disruptivo al diseño tradicional de encuesta,

y para las técnicas de recuperación y distribución. He aquí un ejemplo de una pizzería: mediante encuestas el restaurant encontró que los clientes estaban muy insatisfechos con las pizzas entregadas. Pero la información recolectada no era lo suficientemente específica para determinar la causa raíz de la molestia. Cuando las ventas de pizzas se redujeron, el restaurant comenzó a monitorear las redes sociales. Y no sólo obtuvieron detalles del problema, sino también vieron fotos publicadas por los clientes. El restaurant entregaba en una motocicleta. Cuando el chofer daba una vuelta, las pizzas se movían dentro de las cajas, provocando que los ingredientes se resbalaran. Con información más específica y oportuna, el restaurant diseñó un sistema para mantener las pizzas horizontales. Al implantar esta tecnología a sus motocicletas, las cajas de las pizzas se mantenían niveladas y se eliminó el problema.

Software DES Después que un proyecto de mejora es seleccionado, se debe usar un VSM para tener un mejor entendimiento del proceso. Históricamente esto ha sido una ardua tarea que involucra notas auto adhesivas y una pared grande. El software DES ahora nos hace más simple este proceso. Un proceso no es más que una serie de cosas que se van moviendo en colas como filas en un supermercado, aparatos avanzando por una línea de ensamble o hipotecas atravesando un proceso de aprobación. Las colas se forman entre los pasos del proceso (o nodos), donde algo les pasa a las cosas. En su libro, The Goal: Excellence in Manufacturing, Eliyahu M. Goldratt3 habla de las restricciones en cada nodo. La pregunta es: “¿cuál nodo crea el mayor cuello de botella?” Para procesos sencillos, encontrar el cuello de botella podría

MAYo 2018 • CALIDAD • 23


BIG DATA ser obvio. El problema surge para procesos largos y complejos. Por ejemplo, el proceso de creación de equipo eléctrico es muy complejo, desde circuitos impresos y ensamble hasta probar cada componente de manera individual y colectiva. El VSM de este proceso puede tomar una gran cantidad de notas auto adhesivas y varias paredes. El software DES, por otro lado, puede soportar no sólo el flujo, sino también todos los datos relacionados con cada paso. La complejidad de un proceso como este da como resultado di-

Jim Duarte es el director de L J Duarte & Associates LLC en Clermont, FL. Tiene una maestría en estadística de la Brigham Young University en Provo, UT. Duarte es miembro de ASQ fellow y está certificado como Ingeniero de Calidad y como Black Belt en Six Sigma por la ASQ. También tiene 2 patentes nacionales y 2 internacionales para análisis.

ferentes distribuciones estadísticas de tiempos de proceso en cada etapa. Dado este nivel de complejidad, las organizaciones rara vez intentan siquiera optimizar los flujos. Las técnicas de manufactura Lean ayudan significativamente, pero normalmente las organizaciones dependen de los análisis aislados para mejorar sus flujos de procesos como en una función definida a trozos. Esto se puede asemejar al ejemplo de los métodos de Taguchi de los análisis aislados, donde el paquete DES permite una visión del proceso de punta a punta con todas sus interacciones y el trabajo en proceso que está respaldando. Existen dos grandes beneficios que DES brinda. Primero, el análisis de teoría de restricciones se puede hacer rápidamente y cuantitativamente. Un evento kaizen , por ejemplo, puede crear el VSM básico e identificar los nodos. El equipo puede recolectar datos muestrales en cada nodo para estimar la distribución estadística de los tiempos de servicio respectivos. La distribución más precisa se puede cargar al programa DES para comprender el flujo de colas. Vaciar los VSMs a DES es únicamente utilizar la tecnología y la estadística para visualizar cómo el VSM se puede analizar como colas, que es lo que al final son. En segundo lugar, se pueden hacer cambios en el proceso a través del software para evaluar alternativas. Hacer físicamente los cambios en el proceso de una fábrica, por ejemplo, puede ser caro y tomar mucho tiempo. Usar el software para crear un flujo alterno, no requiere de movimiento físico de equipo ni de personal para evaluar mejoras en el proceso. Por ejemplo, imagine que alguien sugirió un ajuste al proceso, pero que el resto del equipo lo consideró una idea terrible. Ya que probar la idea en el software es fácil y rápido, el ajuste se probó. El resultado fue una mejora mayor ya que el cambio integró una pieza de información que únicamente tenía una persona y nadie más estaba enterado. Nuevamente, esta herramienta no es tan disruptiva como progresiva. Puede eliminar, o al menos minimizar, todo el trabajo de las notas auto adhesivas (y liberar una pared) para procesos complejos. Optimizar flujos mediante la identificación y remoción de cuellos de botella, beneficia a toda la organización. También ayuda a tomar la decisión de si resulta más conveniente comprar o fabricar, ya que el software DES puede crear un proceso para evaluar la capacidad que tiene la organización de ahorrar dinero al mantener algunas actividades en casa.

Mantener la mente abierta REFERENCIAS 1.Taiichi Ohno and Norman Bodek, Toyota Production System: Beyond Large-Scale Production, first edition, CRC Press, 1988. 2.Genichi Taguchi,Taguchi on Robust TechnologyDevelopment:Bringing Quality Engineering Upstream, ASME Press, 1992. 3.Eliyahu M. Goldratt, The Goal: Excellence in Manufacturing, North River Press, 1984. BIBLIOGRAFÍA Bekti, Antonius, Stephanie Cipressi, Emma Clark, Ariane Gragnani, LewisJones, Dongho DK Kang, Kaci Karlsson and Roland Salita, “Station Simulation,” undergraduate study at the University of Queensland School of Engineering, Australia, May 2015. “Difference Between Classification and Clustering in Data Mining,” stackoverflow.com. Konstantinova, Natalia, “Machine Learning Explained in Simple Words,” nkonst.com.

24 • CALIDAD • MAYO 2018

Los análisis avanzados me han ayudado a resolver diversos problemas de calidad a lo largo de mi carrera cuando las herramientas tradicionales fallaron. Hoy, su disponibilidad es mucho mayor para que más y más gente pueda lograr resultados similares. No estoy sugiriendo que los métodos tradicionales sean descartados. Al contrario, siempre existe un tiempo y un espacio para las cosas que han sido ampliamente consideradas como obsoletas. Los coleccionistas de autos clásicos aún trabajan con carburadores, algunos sectores de la sociedad aún se desplazan en caballo y los teléfonos fijos aún existen en algunos hogares. Lo que estoy sugiriendo es que la gente abra su mente a las posibilidades que la tecnología nos ofrece, cómo nos puede ayudar a entender mejor los procesos, las necesidades de los clientes y sus expectativas, y cómo nos puede ayudar para seleccionar la mejor tecnología y software que nos ayude a cumplir estos objetivos.


DATA Y TI

Sólo los hechos

Por Kishore Erukulapati y John W. Sinn

La mejor

inteligencia Incorporar análisis avanzados con Lean Six Sigma puede llevarnos a una toma de decisiones y resolución de problemas más efectivos

Las organizaciones que buscan mejorar sus productos y servicios pueden explotar información crítica tanto interna como externa, y combinarla para brindar la información adecuada a las personas adecuadas en el momento adecuado. Las herramientas analíticas avanzadas pueden ayudar en hacer uso significativo de información estructurada, no estructurada y semiestructurada de manera oportuna. Integrar análisis avanzados con sistemas de gestión de Calidad basados en Lean Six Sigma puede llevarnos a tomar decisiones basadas en hechos y a resolver problemas complejos en niveles estratégico, táctico y operativo.

Las Tecnologías

de la Información (TI) están cambiando la manera en que vivimos, en que amamos, en que ganamos y aprendemos. El mundo parece estar más interconectado que nunca antes. La cantidad de información disponible en internet, incluyendo redes sociales, sensores y dispositivos conectados está creciendo rápidamente, y se espera que esta tendencia continúe en una mayor tasa. 1, 2 Cada vez más organizaciones se están dando cuenta que una experiencia de cliente excelente ya no es suficiente, y las organizaciones están usando múltiples canales de comunicación para educar, atraer y empoderar a sus clientes. Las organizaciones utilizan las redes sociales para publicitar y vender sus productos en el mercado global. Clientes, empleados y miembros de la comunidad también usan las redes sociales para expresar opiniones, preferencias, prioridades, actitudes, comportamientos,

MAYo 2018 • CALIDAD • 25


DATOS Y TI conocimientos y sentimientos. Los clientes toman en cuenta la opinión de amigos, colegas, vecinos y familiares para tomar decisiones sobre si comprar productos y servicios y también hacen recomendaciones a todos ellos. Las organizaciones que continuamente están buscando maneras para mejorar servicios y productos pueden explotar información crítica tanto interna como externa, y combinarla para brindar la información adecuada a las personas adecuadas en el momento adecuado. Proporcionar la información adecuada a la gente adecuada en todos los niveles, en el momento adecuado, ayuda a las organizaciones a permanecer competitivas y a prosperar en el mercado global.

La mecánica de los análisis avanzados Las herramientas tradicionales de gestión de calidad se enfocan en analizar información histórica y estructurada usando herramientas avanzadas de Lean Six Sigma, tales como modelado estadístico, diseño de experimentos avanzado y diagramas de pescado, para descubrir qué sucedió y porqué sucedió. Según IBM, la información estructurada constituye únicamente el 20% de toda la información generada.3 El 80% restantes es, ya sea datos sin estructura o semi-estructurados. Los datos sin estructura se pueden crear en cualquier lugar, por cualquier persona, en cualquier momento y de cualquier manera. Las más recientes innovaciones de TI han desembocado en herramientas avanzadas de análisis para hacer uso signficativo de información estructurada, sin estructura y semi-estructurada de manera oportuna. Estas herramientas integran información histórica con informa-

26 • CALIDAD • MAYO 2018

ción actual para proporcionar análisis descriptivo (qué sucedió), diagnóstico (por qué sucedió), predictivo (qué sucederá) y prescriptivo (qué se debe hacer).4 + Análisis descriptivo se enfoca en reportar eventos pasados y provee alertas sobre eventos actuales. Las técnicas usadas incluyen modelado estadístico y diseño experimental. + Análisis diagnóstico se enfoca en precisar porqué sucedió. Las técnicas utilizadas incluyen localización de datos, minería de datos, investigación específica y correlaciones. + Análisis predictivo se enfoca en predecir eventos futuros. Las técnicas usadas incluyen modelado, reconocimiento de patrones, aprendizaje automático, procesamiento de lenguaje natural y pronósticos. + Análisis prescriptivo se enfoca en prescribir las acciones a tomar para el desempeño futuro del negocio. Las técnicas utilizadas incluyen simulación, optimización y extrapolación. Las herramientas avanzadas de análisis combinan varias herramientas de minería tales como:5 + Minería de datos, que maneja los datos almacenados en bases de datos relacionales. + Minería de texto, que maneja datos almacenados en formato de texto. + Minería de red, que se puede dividir en 3 tipos: Minería del contenido de la red que maneja el contenido de los sitios web. Minería de estructura web, que se enfoca en la estructura de los sitios de internet. Minería del uso de la red, que trata con los datos almacenados en los registros del servidor web. Esto también se conoce como minería de web log.6 + Minería de link, la cual trabaja con asociaciones entre entidades. + Minería de imagen, que se encarga de datos de imagen. + Minería de video, que trabaja con datos de video. + Minería del habla, que se enfoca en datos de audio.

Análisis avanzados / FIGURA 1 Selección de Fuente de Datos

+ Fuentes internas de datos + Fuentes externas de datos Análisis avanzados

+ Recolección de datos (internos, externos, estructurados, no estructurados y semi-estructurados) + Fusión de datos + Minería de datos + Minería de texto + Minería de la web (contenido, estructura y uso) + Minería del habla + Minería de link + Minería de imagen + Minería de video + Análisis estadístico de datos + Herramientas amigables y modelos (descriptivo, predictivo y prescriptivo)

Sistemas de Gestión de calidad basados en Lean Six Sigma

+ Toma de decisiones basada en hechos y resolución de problemas (estratégico, táctico y operacional) + Excelencia operativa + Satisfacción de las partes interesadas


DATOS Y TI La Figura 1 representa el diseño típico de análisis avanzados en las organizaciones.

Fuentes de datos Los análisis y las herramientas obviamente necesitan datos. Las fuentes de datos pueden incluir: + Grandes cantidades de datos digitales no estructurados almacenados en las organizaciones como correos electrónicos, reportes de auditoría, notas y bitácoras del centro de atención, registros y comentarios de intranet, notas de estudios, wikis internos, blogs, sitios de redes sociales internos, documentación técnica, bases de conocimientos internas, alertas de proveedores, pruebas de defectos, reportes de investigación interna y reportes de desempeño de los empleados. + Grandes cantidades de datos digitales no estructurados almacenados en sitios de redes sociales tales como Wikis, blogs, Facebook, LinkedIn, Google+, YouTube y Twitter. + Grandes cantidades de información semi estructurada como XML o EDI intercambiada entre organizaciones. + Información histórica estructurada, operacional y transaccional disponible a través de sistemas de gestión de bases de datos.

Análisis avanzados Los análisis avanzados son un conjunto de herramientas que se usan para recolectar información requerida de fuentes específicas, hacer fusión de datos, aplicar algoritmos de minería, hacer análisis tradicionales y brindar herramientas y modelos amigables para los usuarios. La fusión de datos incluye limpiar, pre-procesar, transformar e integrar los datos.7 Los algoritmos usados para minería incluyen árboles de decisión, análisis de conglomerados, redes neuronales, análisis de clasificación, detección de anomalías, análisis de asociación y regresión. Las herramientas amigables incluyen sistemas de visualización, tableros de control y sistemas de recomendaciones.

SGC basados en Lean Six Sigma Integrar análisis avanzados con sistemas de gestión de calidad (SGC) basados en Lean Six Sigma nos lleva a toma de decisiones basadas en hechos y a una resolución de problemas complejos en niveles estratégico, táctico y operativo. Las organizaciones se pueden beneficiar al complementar las herramientas de análisis estadístico de datos tradicionales con las herramientas de análisisa vanzadas. Estos beneficios incluyen:8-11 + Ganar una nueva visión. + Identificar patrones ocultos, interesantes y con significancia, así como asociaciones desconocidas. + Identificar cambios, anomalías y tendencias. + Identificar riesgos y los planes de mitigación apropiados. + Ahorrar tiempo, dinero, recursos y optimizar los procesos de negocio y su desempeño. + Entender, predecir y anticipar la actitud de los consumidores, su comportamiento, prioridades y preferencias para entregar productos y servicios innovadores.

+ Tomar decisiones inteligentes, precisas, oportunas y efectivas en niveles operativos, tácticos y estratégicos. + Romper silos y aplicar pensamiento de sistemas para resolver problemas, responder preguntas, cautivar a los clientes y mejorar la satisfacción de los stakeholders. + Ganar una visión de 360°de las operaciones y de los clientes.

Software de análisis avanzado Las compañías líderes de TI como IBM, SAS, Microsoft y Oracle lanzaron productos que analizan las redes sociales y se pueden integrar a herramientas de análisis de datos existentes. Estas se resumen en la Tabla 1. Según Paško Konjevoda y Nikola Štambuk, el software libre de análisis avanzado, tal como R y Weka, es totalmente comparable al software comercial en términos de funcionalidad y confiabilidad.12 Otros ejemplos de software libre de análisis avanzados son Tanagra, Orange y Past. Algunos escenarios donde las organizaciones pueden aplicar análisis avanzados son: + Formular o ajustar estrategias evaluando fortalezas, debilidades, oportunidades y amenazas. Por ejemplo, una compañía de seguros podría usar información recopilada mediante análisis avanzados para trabajar con proveedores de servicios de salud para diseñar una nueva estrategia sanitaria, como ofrecer servicios de salud remotos para algunos segmentos de miembros. + Identificar algún segmento de clientes inexplorado que pudiera llevar a un nuevo producto o estrategia de precios. La compañía de seguros que usa información proveniente de aná-

MAYo 2018 • CALIDAD • 27


DATOS Y TI

Productos para análisis de redes sociales / tabla 1 Herramienta

Compañía

Descripción

IBM

SPSS modeler— Premium

Habilidad para procesar datos estructurados, no estructurados y semiestructurados para descubrir relaciones entre conceptos y sentimientos, y crear los modelos más precisos posibles. Esto incluye minería de datos, de texto y de la web.

SAS

SAS analytic

Provee un ambiente integrado para modelado predictivo y descriptivo, minería de datos, análisis de textos, pronósticos, optimización, simulación y diseño experimental.

ORACLE

Oracle advanced analytics

Provee una plataforma comprensible para análisis en tiempo real que brinda entendimiento de temas clave de negocio como predicción de abandono, recomendación de productos y alerta de fraude.

MICROSOFT

XLMiner

Provee un add-in comprensible para minería de datos para Excel.*

*Fuente: Galit Shmueli, Nitin R. Patel y Peter C. Bruce, Data Mining for Business Intelligence: Concepts, Techniques and Applications in Microsoft Office Excel With XLMiner, Wiley, 2011.

lisis avanzados, podría ofrecer planes de salud no tradicionales—tales como planes personalizados—para ciertos segmentos. + Rediseñar o cambiar procesos existentes o eliminar cuellos de botella en un proceso actual. El gerente del call center de la empresa de seguros puede usar análisis avanzados para el proceso de dotación de personal o para el proceso de mantenimiento del call center. Algunos cambios al proceso de dotación de personal pueden incluir ajustes a las tasas del personal basados en un análisis del volumen de llamadas actual y proyectado a través de análisis avanzados. Los cambios al proceso de mantenimiento pueden incluir ajustar las horas del mantenimiento del sitio web y las horas del call center para cubrir las necesidades de los clientes basados en una revisión en tiempo

28 • CALIDAD • MAYO 2018

real de los registros del uso de la web, información de redes sociales y registros de llamadas. + Identificar clientes potenciales. La empresa de seguros puede llevar a cabo una campaña de mercadeo dirigida específicamente para atraer miembros de algún competidor que estén expresando su frustración en las redes sociales. + Prevenir abandono de clientes.13 La empresa de seguros puede utilizar la información de las redes sociales y solicitar la información de los registros del call center y de los registros de voz, para identificar la potencial deserción de grupos de empleadores o miembros individuales y tomar las acciones necesarias para prevenir el abandono. + Identificar valor agregado para clientes existentes. La empresa de seguros podría analizar la información recopilada mediante análisis avanzados para ofrecer productos y servicios de valor agregado— tales como servicios combinados para sus miembros. Los servicios combinados pueden incluir 20% de descuento en gimnasios locales o farmacias. Los hospitales y las empresas de seguros se pueden asociar con bolsas de información locales y nacionales para compartir información en tiempo real. También pueden combinar datos internos con los datos reportados por los clientes en tiempo real provenientes de aplicaciones de bienestar, dispositivos portátiles y sensores utilizando análisis avanzados para prevenir enfermedades, infecciones intrahospitalarias y readmisiones hospitalarias, mejorar la coordinación de los cuidados y mejorar la salud y el bienestar de la población total facultando a los consumidores y a los clientes.


DATOS Y TI + Reducir los fraudes.14 La empresa de seguros puede usar análisis avanzados que integren los sistemas de elegibilidad de los miembros y quejas, los sistemas de información de los proveedores, los sistemas de detección de fraude y abuso, los de clientes provenientes del call center, y los de gestión de reclamaciones, para reducir la cantidad de fraudes. + Reducir costos. La empresa de seguros puede integrar los datos de elegibilidad de miembros y quejas con información recopilada del Centro para la Prevención y Control de Enfermedades y redes sociales locales para recomendar medidas preventivas pertinentes a los miembros. La organización puede usar los análisis avanzados para transformar el cuidado de la salud de modelos de pago basados en volumen, a nuevos modelos de pago basados en valor, como remplazar los modelos tradicionales de tarifa por servicio e introducir pagos basados en desempeño de los proveedores de salud. La empresa de seguros también puede usar los análisis avanzados para identificar un sector emergente de alto costo y de alto riesgo, e implementar las intervenciones adecuadas y el monitoreo. + Hacer recomendaciones, tales como planes de tratamiento personalizado y acciones de prevención. La empresa de seguros puede recomendar una póliza de seguro de salud apropiada o un proveedor de cuidado de salud, o medidas preventivas adecuadas, al vincular los datos disponibles de múltiples fuentes, tales como elegibilidad de miembros, quejas, registros electrónicos de salud, retroalimentación de estudios, retroalimentación de clientes, y llamadas telefónicas de servicio al cliente. Los departamentos de RH pueden utilizar análisis avanzados que combinen datos de habilidades, de certificación e información de descripciones de puestos para identificar a los mejores candidatos para diferentes posiciones. + Tomar decisiones basadas en datos. La empresa de seguros puede tomar mejores decisiones usando análisis avanzados que combinen datos de quejas actuales y anticipadas, riesgos de negocio, riesgos de mercado de valores y reservas anticipadas.

SGC para integrar análisis de calidad avanzados Las organizaciones utilizan métodos de Lean Six Sigma típicamente para mejorar la productividad, reducir los costos y mejorar la satisfacción de los stakeholders. Estas organizaciones usan herramientas estadísticas tradicionales tales como cartas de control, diseño de experimentos, regresión lineal, análisis de varianza y superficies de respuesta. Las organizaciones pueden obtener ventaja competitiva al potenciar la cultura de Lean Six Sigma y el enfoque de definir, medir, analizar, mejorar y controlar (DMAIC) al complementar las herramientas estadísticas tradicionales con análisis de datos avanzados. Los métodos de Lean Six Sigma DMAIC apoyan el pensamiento analítico y las herramientas para la toma de decisiones basadas en hechos, y éstas pueden dar a las organizaciones una ruta para impulsar estas nuevas oportunidades. Sin contar con un enfoque estructurado como el que brinda Lean Six Sigma DMAIC, la implementación de análisis avanzados sería abrumadora. La cultura de mejora continua de Lean Six Sigma permite que la gestión de cambio, la gestión del conocimiento y la infraestructura de apoyo de la gerencia se enfoquen en sus metas.

Definir: Esta etapa comienza definiendo áreas de problemas claros y concisos u oportunidades de mejora alineadas con la visión y misión de la organización. Esto incluye la identificación de stakeholders, la selección del equipo, la creación de un horario, la definición de resultados, el establecimiento de la justificación, la obtención del patrocinio de la gerencia y el lanzamiento del proyecto, donde la implementación de análisis avanzados puede tener un impacto. Se debe desarrollar un caso de negocio claro sobre cómo pueden ayudar los análisis avanzados a resolver problemas o a contribuir a las oportunidades de mejora. Medir: En esta etapa se identifican las fuentes de información internas y externas, de donde se recopilarán los datos. Se pueden usar herramientas como el enfoque GQM (goal-question-metric) y la voz del cliente, para entender cuáles fuentes de datos se necesitan. Se revisa la accesibilidad, utilidad, calidad y cantidad de los datos, se explora la abundancia de estos y se recoleta el conjunto de datos inicial durante esta fase.15 Las organizaciones toman, compran o construyen decisiones en esta etapa. Llevan a cabo análisis de costo-beneficio y pueden escoger si usarán herramientas de análisis avanzado comerciales, si su departamento de TI puede desarrollar o adaptar las herramientas de análisis adecuadas, o si usarán herramientas de análisis avanzado libres. Así como los investigadores Robert Nisbet, John F. Elder y Gary Miner escribieron, una solución al 90% obtenida con una herramienta relativamente barata, puede resultar más efectiva en costo que utilizar “la mejor herramienta” que es cara.16

MAYo 2018 • CALIDAD • 29


Analizar: Esta etapa incluye la creación de modelos descriptivos, de diagnóstico, predictivos y prescriptivos, usando análisis avanzados integrados con herramientas de control estadístico de procesos y con herramientas de reporte de datos operativos. Mejorar: Esta etapa incluye identificar, evaluar, implementar y optimizar modelos y soluciones. Los modelos y las soluciones se optimizan o mejoran, y se revisan y enriquecen las fuentes de datos y las herramientas que se usan para desarrollar los modelos. Control: En esta etapa se establecen los planes tanto a corto como a largo plazo para mantener las mejoras a través del tiempo.

La infraestructura del conocimiento de calidad Las organizaciones pueden colaborar con instituciones educativas para educar y entrenar a su fuerza de trabajo para que construyan la infraestructura necesaria de conocimiento de calidad que se requiere para integrar los análisis de calidad avanzados con los métodos de Lean Six Sigma. Por ejemplo, se desarrolló un curso nuevo de aplicaciones de minería de datos en gestión de calidad

30 • CALIDAD • MAYO 2018

en el departamento de tecnologías de ingeniería de la Universidad Bowling Green State University, en Ohio, como parte del programa de Colaboración Educativa en Sistemas de Calidad (QSEC). Este programa está diseñado para atender las necesidades de la fuerza de trabajo para industrias tales como manufactura, construcción, cuidados de salud, servicios, gobierno, educación, minoristas y sin fines de lucro.17 Dado que los análisis avanzados suplementan y complementan los métodos de Lean Six Sigma, parece muy natural incluir cursos de análisis avanzados como parte de la infraestructura de conocimiento de Calidad. El objetivo de este nuevo curso es enseñar análisis estadístico y conceptos de minería de datos, métodos, herramientas y técnicas para que los estudiantes adquieran conocimiento de valor que puedan aplicarse a situaciones de la industria. El contenido del curso incluye: + Antecedentes históricos y teóricos del análisis estadístico y minería de datos. + Integración de la preparación de datos y las operaciones de identificación necesarias para desarrollar modelos. + Crear modelos de minería de datos costeables. + Tips para evitar errores en la práctica de minería de datos. Las actividades de aprendizaje incluyen: + Obtener conocimiento en conceptos de análisis estadístico y minería de datos, métodos, herramientas y técnicas, y crear grandes ideas. + Trabajar de manera efectiva en los equipos para presentar grandes ideas. + Presentar grandes ideas a los stakeholders (otros estudiantes e instructores), entender las perspectivas y obtener retroalimentación para mejorar el conocimiento en general. + Criticar el trabajo de otros estudiantes con el objetivo de mejorar el conocimiento general. + Aplicar la planeación, liderazgo, trabajo en equipo, pensamiento crítico, resolución de problemas y habilidades interpersonales. Los resultados de aprendizaje esperados del curso incluyen: + Adquirir conocimiento en los conceptos de análisis estadístico y minería de datos, herramientas, métodos y técnicas. + Trabajar en equipo para desarrollar planes, analizar problemas y presentar soluciones e ideas a los stakeholders de una manera clara y concisa, tanto de manera oral como por escrito. + Demostrar comportamiento ético y profesional.

Añadiendo herramientas a Lean Six Sigma Como el autor Greg S. Nelson escribió, las oportunidades para mejorar nuestros métodos de toma de decisiones continuarán creciendo conforme busquemos mejorar nuestra efectividad y eficiencia mediante la combinación de información, técnicas de visualización, redes sociales y nuevos modelos de colaboración.18 Los ejecutivos, gerentes y trabajadores ya no tendrán que tomar decisiones basadas en la intuición o el instinto.19 Las organizaciones se pueden beneficiar al aprovechar las últimas innovaciones de TI, como análisis avanzados, para ser competitivos en el mercado global. 20 Las organizaciones que no aprovechan estas nuevas oportunidades, no se mantendrán competitivos y se quedarán atrás. 21


Todos los sectores—incluyendo el gobierno, cuidado de salud, educación, manufactura y servicios—se pueden beneficiar de estas nuevas oportunidades. Por ejemplo, una agencia federal de EUA— la Intelligence Advanced Research Projects Activity— asumió la tarea de analizar conjuntos de datos públicos masivos para ayudar a los oficiales del gobierno a predecir eventos significativos, tales como inestabilidad política, brotes de enfermedades o desastres naturales.22 El mercado global es dinámico. Como escribieron los autores Søren Bisgaard y Jeroen de Mast, los SGC siempre se deben mejorar y adaptar a las circunstancias cambiantes. Por tanto, las ideas y modelos nuevos deben estarse probando constantemente.23 Los principios básicos de los modelos de mejora de calidad no se pueden extinguir nunca. Los modelos viejos pueden desaparecer, y los nuevos modelos pueden evolucionar para cubrir las necesidades cambiantes. Las organizaciones deben innovar continuamente para entregar valor a sus clientes al tomar ventaja de múltiples modelos que sean efectivos y eficientes y que se ajusten a sus metas y objetivos para mejorar el desempeño del negocio.24 Los profesionales de la calidad juegan un papel importante de liderazgo como catalizadores al comunicar el valor a la organización en general. Los profesionales de la calidad usan las fortalezas, competencias, pensamiento sistémico y pasión para ayudar e influenciar a las organizaciones a seleccionar un marco de trabajo apropiado e integrarlo con sistemas ya existentes de Lean Six Sigma de manera efectiva y eficiente. Las herramientas de análisis avanzado son una adición excelente al conjunto de herramientas de Lean Six Sigma y ya es momento de tomar ventaja de SGC inteligentes para llevar a las organizaciones al siguiente nivel.

Kishore Erukulapati es un estudiante de doctorado en gestión de tecnología, sistemas de calidad en la Indiana State University en Terre Haute. Como miembro senior de ASQ, Erukulapati está certificado como Gerente de calidad de excelencia organizacional. Actualmente es presidente de la sección de Hawaii de ASQ. También es miembro senior del Institute of Electrical and Electronics Engineers (IEEE) y presidente del capítulo de la IEEE’s Hawaii Computer Society.

John W. Sinn es presidente del departamento de tecnologías de ingeniería y profesor de la Bowling Green State University (BGSU) en Ohio. También es el líder de programa para la especialización de sistemas de calidad para la Indiana State University’s Technology Management Ph.D. consortium en Terre Haute. Es miembro senior de ASQ, Sinn tiene un doctorado en calidad de tecnología de la West Virginia University en Morgantown.

REFERENCES 1. J. Aquino, “Transforming Social Media Into Predictive Analytics,” CRM Magazine, 2012, Vol. 16, No. 11, pp. 38-42. 2. Sowniya Ramachandran andKalyan Malladi, “Leveraging Unstructured Data for Improved Decision Making: A Retail Banking Perspective, ” Global Finance, 2012, Vol. 26, No. 12, pp. 20-21. 3. IBM, “The Enterprise Answer for Managing Unstructured Data,” www-304.ibm.com/events/ idr/idrevents/detail. action?meid=6320. 4. Thomas H. Davenport, Enterprise Analytics: Optimize Performance, Process and Decisions Through Big Data, FT Press, 2012. 5. Doug Henschen, “Advanced Analytics, ” InformationWeek, 2012. 6. Ranjit Bose, “Advanced Analytics: Opportunities and Challenges,” Industrial Management + Data Systems, 2008, Vol. 109, No. 2, pp. 155-172. 7. Jiawei Han and Micheline Kamber, Data Mining: Concepts and Techniques, Morgan Kaufmann, 2006. 8. Bose, “Advanced Analytics: Opportunities and Challenges,” see reference 6. 9. S. LaValle, E. Lesser, R. Shockley, S.H. Michael and N. Kruschwitz, “Big Data, Analytics and the Path From Insights to Value,” MIT Sloan Management Review, 2011, Vol. 52, No. 2, pp. 21-32. 10. Evan Stubbs, Delivering Business Analytics: Practical Guidelines for Best Practice, Wiley, 2013. 11. Travis B. Murdoch and Allan S. Detsky, “The Inevitable Application of Big Data to Health Care,” Journal of the American Medical Association, 2013, Vol. 309, No. 13, pp. 1,351-1,352. 12. Paško Konjevoda and Nikola Štambuk, “OpenSource Tools for Data Mining in Social Science,” which appeared in Asunción Lopez-Varela Azcárate, ed., Theoretical and Methodological Approaches to Social Sciences and Knowledge Management, InTech, 2012. 13. Dion Hinchcliff e, “Are Universal Social Engagement Standards Possible?” InformationWeek, 2013. 14. Bose, “Advanced Analytics: Opportunities and Challenges,” see reference 6. 15. Robert Nisbet, John F. Elder and Gary Miner, Handbook of Statistical Analysis and Data Mining Applications, Academic Press, 2009. 16. Ibid. 17. Angel Estrada and John W. Sinn, “The Audit Answer,” Quality Progress, June 2012, p. 36. 18. Greg S. Nelson, “Business Intelligence 2.0: Are We There Yet?” in proceedings of the SAS Global Forum, 2010. 19. Jeanne G. Harris and Thomas H. Davenport, Competing on Analytics, Harvard Business School Press, 2007, p. 46. 20. Ibid. 21. R.B. Ferguson, “The Big Deal About a Big Data Culture and Innovation),” MIT Sloan Management Review, 2013, Vol. 54, No. 2, pp. 1-5. 22. Greg Goth, “Digging Deeper Into Text Mining: Academics and Agencies Look Toward Unstructured Data,” IEEE Internet Computing, 2012, Vol. 16, No. 1, pp. 7-9. 23. Søren Bisgaard and Jeroen de Mast, “After Six Sigma—What’s Next?” Quality Progress, January 2006, pp. 30-36. 24. James B. Taylor, John W. Sinn and William S. Lightfoot, “Quality Curriculum, ”Quality Progress, February 2012, p. 30.

MAYo 2018 • CALIDAD • 31


editorial invitado

Mejor antes de los

Big Data Cuando un conjunto de datos, grande o pequeño, se analiza por primera vez, pueden existir diversas trabas para extraer información útil. Por varios años,

los Big Data han recibido mucha publicidad. Según la sabiduría convencional, las organizaciones están generando y están siendo inundadas de altos volúmenes de datos que pueden contener patrones no identificados y relaciones que tienen el potencial de revelar nuevos conocimientos. Los datos se consideran fuentes

Por Nathan Soderborg, Autor

32 • CALIDAD • MAYO 2018

que se pueden explotar para obtener información que podría mejorar la capacidad de toma de decisiones, y brindar estrategias y tácticas de negocio más inteligentes. Dado que Six Sigma es una metodología impulsada por datos, el movimiento del big data debería ser un gran impulso para Six Sigma. Los esfuerzos que mejoran la manera de gestionar y analizar los Big Data, expanden la capacidad de una organización para identificar problemas latentes y emergentes, descubrir oportunidades de mejora y generar soluciones potenciales. En aquellas organizaciones donde se generan cantidades masivas de datos, los practicantes de Six Sigma deberían dedicar tiempo y recursos en las capacidades de análisis de Big Data. Sin embargo, esta inversión quedará corta contra el potencial prometido, a menos que esté acompañada de esfuerzos organizados para generar datos de alta calidad y significativos en primer lugar. Cuando un conjunto de datos (grande o pequeño) se analiza por primera vez, pueden existir diversas trabas para extraer información útil. Por ejemplo, los datos disponibles pueden no aplicar directamente para la pregunta planteada. En ocasiones, los elementos son los incorrectos; faltan piezas; o los datos recolectados de una fuente son inconsistentes con los datos provenientes de otra fuente, supuestamente similar a la primera. O puede resultar difícil, si no es que imposible, rastrear un problema a un periodo específico, a transacciones particulares o a unidades de producción identificables.


editorial invitado

Uno de los primeros pasos al analizar un conjunto de datos grande es “limpiar” los datos, esto es, arreglar o remover los datos corruptos e imprecisos. Pero si los datos no contienen los elementos necesarios ni la estructura para resolver un problema en particular, ningún tipo de limpieza ayudará. Entre mejor sea la calidad y relevancia de los datos generados, mejor conocimiento se obtendrá a partir de los datos y se tendrá una mejor resolución de problemas y mejores procesos de mejora. Por tanto, es importante para las organizaciones, y para los equipos de Six Sigma en particular, involucrarse proactivamente en crear y seleccionar fuentes de datos, así como en estructurar el sistema de datos. Los practicantes de Six Sigma deberían encontrar formas para: • Proveer entradas o información a los equipos donde especifiquen cómo y cuáles datos se recolectarán a través del ecosistema de información de la organización. • Participar en el proceso de recolección de requerimientos de TI para los sistemas que capturen información operativa y transaccional importante, relativa a áreas tales como desarrollo de productos, cadenas de suministro, retroalimentación de clientes y finanzas. • Convertirse en parte del sistema de retroalimentación sobre la integridad y efectividad del sistema de datos. Si este sistema no existe, los equipos de Six Sigma deben ayudar a crearlo. Aquellos involucrados en estas actividades, deben identificar activamente cuándo y dónde se usarán los datos para actividades tales como monitoreo en tiempo real, control de procesos, análisis causa raíz y resolución de problemas. Cada organización tendrá sus propias necesidades. Pero en general, la gente encargada de identificar y solucionar problemas existentes, y de prevenir problemas futuros, necesitan acceso a datos que tengan cinco características: integridad, consistencia, habilidad para capturar características clave, rastreabilidad de unidad y transacción, así como disponibilidad oportuna.

Integridad Los datos deben ser correctos cuando se capturan y cuando se están almacenando. Mientras que los datos generados por humanos de manera natural contienen errores, los datos generados por máquinas también pueden contener una variedad de errores. En cualquier momento un sistema que recopila datos está siendo instalado o remplazado, y la validez de los datos se debe checar mediante preguntas como: ¿Los valores son correctos?, ¿se conocen las unidades?, ¿los registros de tiempo o la información de identificación (como los metadatos) es correcta? Cuando un sistema es dado de alta, a partir de ese momento, los datos generados por la máquina se deben validar a intervalos específicos mediante un análisis del sistema de medición y calibración, para asegurar su exactitud y precisión. Los datos generados por humanos deben estar sujetos a reglas claras sobre cómo y cuándo deben ser creados. Se deben emplear mecanismos a prueba de error para que se capturen datos objetivos, y se debe considerar apoyar con ayudas visuales para guiar el proceso. Se debe dar entrenamiento de manera frecuente sobre el proceso de recolección de datos y se deben revisar de igual manera los datos

recolectados para asegurar que son correctos.

Consistencia Los campos del contenido y la fuente de los datos se deben definir y documentar de manera clara. Cambios en el campo del contenido o de la fuente deben ser muy poco frecuentes. Si un cambio ocurre, se debe documentar y comunicar claramente a los usuarios de los datos. Los sistemas para almacenar y extraer los datos deben tener métodos de acceso sencillos y directos. Datos objetivos, generados ya sea por una máquina o por un humano, se deben capturar en campos de datos estandarizados que correspondan a cada salida de cada paso de proceso o transacción. Para datos subjetivos, generados por humanos, es importante considerar cómo estructurar los datos en el punto de entrada y cómo se puede estandarizar sin perder información importante. La descripción de cada campo debe ser accesible para los usuarios, y ellos deben ser capaces de buscar la instrucción sobre cómo se llena cada campo.

Habilidad para capturar características clave Los datos disponibles deben incluir tanta información como sea posible para facilitar la solución de problemas, para impulsar la mejora y para generar conocimiento. Para este fin, los datos deben contener o permitir la derivación de entradas, características y salidas clave del proceso. Los datos nos deben permitir monitorear el desempeño de los indicadores clave de una operación. Algunos preguntarán, “¿Qué es clave?” Esto en ocasiones puede ser como el problema del huevo y la gallina. ¿Cómo se pueden determinar las prioridades sobre cuáles datos recolectar, sin saber

MAYo 2018 • CALIDAD • 33


editorial invitado

LA RASTREBILIDAD ES UNA DE LAS COMPETENCIAS MÁS IMPORTANTES PARA LA RESOLUCIÓN DE PROBLEMAS Y ANÁLISIS DE CAUSA RAÍZ. cuáles son las características clave? Por otro lado, ¿cómo se puede determinar una característica como clave sin tener datos disponibles para demostrarlo? Típicamente, la identificación de características clave en un proceso iterativo incluye: • Recolectar opiniones de expertos, en los procesos y en la materia, sobre qué características son importantes. • Evaluar los campos de datos disponibles e identificar diferencias que requieran de atención. • Crear una lista priorizada de necesidades a incorporar a una actualización futura del sistema y de la adquisición de datos. • Evaluar el éxito de las actualizaciones y comenzar nuevamente.

NATHAN SODERBORG es un científico principal en la práctica de las ciencias de la estadística y de los datos en la firma Exponent en Farmington Hills, MI. Tiene un Doctorado en Matemáticas de la Universidad de Michigan en Ann Arbor. Es un miembro Senior, y cuenta con las certificaciones de ASQ de Ingeniero de Confiabilidad y Black Belt en Six Sigma. También está certificado como Master Black Belt en Six Sigma por Ford Motor Co.

34 • CALIDAD • MAYO 2018

Rastreabilidad de unidad y transacción La rastreabilidad es una de las competencias más importantes para la resolución de problemas y análisis de causa raíz. En una operación de manufactura, esto significa ser capaces de rastrear una unidad de producción por todo el proceso de creación—desde fuentes de materia prima hasta la distribución. Para una operación de servicio, significa identificar la historia y todas las fuentes de entradas que nos conducen a una transacción en particular.La rastreabilidad requiere de la recolección de información relevante en cada paso del proceso, incluyendo la identificación de: • Individuos involucrados. • Procedimientos aplicados. • Estándares que rijan la actividad. • Decisiones tomadas y la razón de éstas. • Equipos usados y sus parámetros de set up y de operación. • Resultados de cualquier actividad de monitoreo o de control de calidad. • Materiales utilizados y sus propiedades particulares, fuentes y características clave.

Disponibilidad de tiempo La utilidad de los datos a veces depende de qué tan rápido están disponibles para su uso. Los datos usados para ayudar en el control de un proceso, normalmente se necesitan de manera inmediata en cuanto son generados, y en este caso se deben incorporar a un sistema de control de proceso efectivo. Los datos usados para análisis y resolución de problemas deben estar disponibles de una manera en que estén listos para ser analizados— es decir, que se haya completado todo el procesamiento y limpieza necesarios— y deben estar disponibles en tiempo para resolver problemas rápidamente. Los datos usados para rastrear el desempeño operacional, deben llegar al personal responsable regularmente con una frecuencia y formato tales, que ayuden para la toma de decisiones. Cuando se tiene conjuntos grandes de datos, puede resultar desafiante extraer y distribuir rápidamente la información más importante para el control y análisis de proceso. Justo como una organización se esfuerza por asegurar la calidad de sus datos, también debería asegurar la entrega oportuna de éstos— entregarlos a quienes los necesitan, cuando los necesitan, en una manera útil y eficiente. La disponibilidad de conjuntos de datos masivos y la oportunidad para explorarlos para hacer nuevos descubrimientos, puede resultar muy emocionante, pero el impacto del conocimiento ganado dependerá de la calidad, relevancia y puntualidad de la entrega de los datos. Los esfuerzos proactivos para crear un sistema de datos que genere la información necesaria para el proceso de monitoreo, control y análisis detallado, debe ser una prioridad para cualquier programa de mejora. El tiempo invertido en asegurar que los datos cuenten con las cinco características, será tiempo bien invertido. Los proyectos se desarrollarán con mayor velocidad y eficiencia. Las posibilidades de descubrir relaciones y patrones valiosos en los datos, se multiplicará, y será entonces más probable que los big data cumplan su promesa.




Turn static files into dynamic content formats.

Create a flipbook
Issuu converts static files into: digital portfolios, online yearbooks, online catalogs, digital photo albums and more. Sign up and create your flipbook.