Revista Electrónica
Volumen 1- Núm. 1 Año 2016.
e stadística Si quieres aprender enseña. -Cicerón. INFERENCIAS REFERENTES A PROPORCIONES
El impacto de la Estadística como herramienta de gestión para el mejoramiento continuo de procesos
ANÁLISIS DE VARIANZA
El TIGRE, AÑO 2016
1
Edita: ALBA Creación de Contenidos: Ing. Gineth Velásquez
Ing. Yaneth Figuera Ing. Angélica Carreño
Ing. Erika Páez Coordinación: Gineth Velásquez Revisión: Yaneth Figuera Edición:
Angélica Carreño
Diseño: Erika Páez 2
e
stadística EDICION ESPECIAL TEMATICA DE LA REVISTA
EDITORIAL CONTENIDO pp. Editorial
3
Definiciones y prácticas de mantenimiento
4
La estadística y la Ingeniería
5
Estimación de Proporciones
6
Estimación Bayesiana
7
Pruebas de Hipótesis
8
Síntesis
9
Entretenimiento
10
Referencias
11
Hipótesis referentes a varias proporciones
12
Análisis de Tabla RxC
16
Bondad de Ajuste
18
Entretenimiento
23
Referencias
24
Diseño Completamente Aleatorizados
25
Diseño con bloques aleatorizados
31
Ingeniería de Confiablidad y Estimación de Riesgo
33
Análisis de Confiabilidad
34
Covarianza
35
Validez y Confiabilidad
36
Comparaciones Múltiples
37
Técnicas de Control
38
Factores de Control
39
Procedimientos de Control
40
Entretenimiento
41
Aplicación del caso practico
42
3
e
stadística EDICION ESPECIAL
EDITORIAL
Generalmente, al hablar de Estadística frecuentemente nos viene a la mente imágenes de números agrupados en grandes arreglos y tablas, de volúmenes de cifras relativas. La ausencia de la Estadística conduciría a un caos general, dejando a los administradores y ejecutivos sin la información vital a la hora de tomar decisiones en tiempos o momentos de incertidumbre. Por lo tanto la estadística es mucho más que números apilados y gráficas bien hechas. Es una ciencia con tanta antigüedad como la escritura, y de por sí, representa un auxilio de todas las demás ciencias. Las organizaciones a nivel mundial están conscientes de la importancia de la gestión de mantenimiento y han invertido numerosos recursos para lograr su evolución utilizando diversas estrategias, herramientas y modelos gerenciales, apoyándose en un enfoque de mejoramiento continuo como eje principal para la optimización del uso de los mismos. En la Edición Especial de la Revista Electrónica Estadística se presenta como influyen la estadística en la ingeniería a de acuerdo a los procesos probabilísticos y estadísticos de análisis e interpretación de datos.
4
Las definiciones y prácticas de mantenimiento han evolucionado constantemente desde principios del siglo XX, cuando la mención de la palabra mantenimiento y todos aquellos recursos, herramientas e incluso el personal eran considerados como un mal necesario, aunque lamentable en muchas organizaciones tal percepción permanece intacta hoy en día.
No obstante, todavía existe un número muy limitado de organizaciones a nivel mundial que aplican un concepto holístico y sistémico de gerencia de activos, apoyándose en un enfoque de mejoramiento continuo como eje principal para la optimización del uso de los mismos. Muchas empresas conscientes de la importancia de la gestión de mantenimiento han invertido numerosos recursos para lograr su evolución utilizando diversas estrategias, herramientas y modelos gerenciales.
Así mismo la gestión de mantenimiento tiene como principales objetivos planificar, organizar, dirigir y controlar los procesos de mantenimiento para brindar soluciones, por otro lado, las organizaciones empresariales desarrollan actividades en sectores cada día más complejos y competitivos, motivos por los cuales la gestión de mantenimiento se ha convertido en un factor importante para lograr la productividad y la diferenciación dentro del mercado.
A lo largo del tiempo, la gerencia de mantenimiento ha venido transformándose en una actividad cada vez más importante dentro de los complejos industriales y ha adquirido en los últimos años vital importancia, para lograr que las instalaciones y equipos sean mantenidos en las mejores condiciones operacionales dentro de un ambiente óptimo. El análisis y estudio de las relaciones globales dentro de una organización y de su entorno, requieren de pruebas específicas examinando varios factores, entre los cuales está la misma organización estructural, el uso de los recursos materiales y financieros, la operación de los sistemas, el control de los costos y el soporte logístico y técnico asociado.
Ing. Gineth Velásquez
5
La estadística es muy utilizada en la ingeniería aplicándola en los procesos probabilísticos y estadísticos de análisis e interpretación de datos o características de un conjunto de elementos con la finalidad de ayudar en la toma de decisiones y en el control de procesos industriales y organizacionales. Las herramientas estadísticas permiten describir si se pueden utilizar determinados datos o si los resultados obtenidos carecen de valor y por consiguiente, no se debe ampliar.
Cabe destacar que la estadística para su estudio se divide en dos grandes ramas: la estadística descriptiva y la inferencial. Ambas ramas comprenden la estadística aplicada. La estadística descriptiva se dedica a la descripción, visualización y resumen de datos originados a partir de los fenómenos de estudio.
La estadística inferencial, comprende los métodos y procedimientos mediante el cual una muestra es analizada y con base en su información, se infiere, se deduce o se concluye sobre lo que está sucediendo en una población. La estadística inferencial comprende: la estimación de proporciones, la estimación bayesiana, las pruebas de hipótesis, entre otras.
La estadística es la gramática de la ciencia. -Karl Pearson
Ing. Gineth Velásquez
6
La estimación de proporciones es un conjunto de técnicas que permiten dar un valor aproximado acerca de la medida de una población a partir de los datos que nos proporciona previamente una muestra.
La estimación tiene el objetivo de obtener estadísticos, es decir, fórmulas matemáticas que permitan conocer, a partir de ellos y de manera resumida, las características más relevantes de una población, utilizando la información contenida en una muestra..
La estimación de las proporciones poblacionales constituye una parte esencial en muchos estudios donde se busca calcular la probabilidad de éxito o de fracaso con que puede ocurrir un evento.
La estimación de proporciones se utiliza en muchos campos relacionados con el conocimiento, por ejemplo, en la administración de las empresas, en las finanzas, en la economía, en las ciencias de la comunicación, en la contabilidad, en la mercadotecnia o en la administración de la información. DATO CURIOSO El 54% de las compañías bloquean el acceso de redes sociales a sus trabajadores. 7
Ing. Gineth Velásquez
La estimación bayesiana es un tipo de inferencia estadística en la que las evidencias u observaciones se emplean para actualizar o inferir la probabilidad de que una hipótesis pueda ser cierta. El enfoque bayesiano se basa en la interpretación subjetiva de la probabilidad, el cual considera a ésta como un grado de creencia con respecto a la incertidumbre. Definición Formal
Un parámetro es visto como una variable aleatoria a la que, antes de la evidencia muestral, se le asigna una distribución a priori de probabilidad, con base en un cierto grado de creencia con respecto al comportamiento aleatorio. Cuando se obtiene la evidencia muestral, la distribución a priori es modificada y entonces surge una distribución a posteriori de probabilidad.
Aplicaciones
La estimación bayesiana utiliza aspectos del método científico, que implica recolectar evidencia que se considera consistente o inconsistente con una hipótesis dada. Es de progresivo interés y aceptación en distintas áreas, son numerosas sus aplicaciones por ejemplo, en el área financiera, el área de la salud, en el campo de ingeniería. Las cosas complejas y estadísticamente improbables, son por naturaleza más difíciles de explicar que las cosas simples y estadísticamente probables.
Richard Dawkins 8
Ing. Gineth Velásquez
PRUEBAS DE HIPOTESIS Muchos problemas de ingeniería, ciencia y administración, requieren se tome una decisión entre aceptar o rechazar una proposición sobre algún parámetro. Esta proposición recibe el nombre de hipótesis, y el procedimiento de toma de decisión sobre la hipótesis se conoce como prueba de hipótesis, este es uno de los aspectos más útiles de la inferencia estadística, puesto que muchos tipos de problemas de tomas de decisiones, pruebas o experimentos en el mundo de la ingeniería, pueden formularse como problemas de pruebas de hipótesis. Características
La prueba de hipótesis, viene a ser un supuesto que se plantea el investigador antes de iniciar una determinada investigación. Supuesto que al final de la investigación puede ser cierto y aprobarse, así como también puede ser falso y rechazarse. La finalidad de la prueba de hipótesis, no es cuestionar el valor calculado del estadístico muestral, sino que se encarga de hacer juicio con respeto a la diferencia entre el estadístico muestral y un valor planteado del parámetro.
Aplicaciones Las pruebas de hipótesis son necesarias en muchas áreas del conocimiento y en especial en la administración e ingeniería.
¿SABIAS QUE? El cuerpo humano contiene la capacidad suficiente de carbono como para fabricar nueve mil lápices.
Ing. Gineth Velásquez
9
SINTESIS Los métodos estadísticos constituyen un medio efectivo para controlar la calidad en el proceso de producción y reducir sus defectos; lo importante no es el conocimiento de los métodos estadísticos sino más bien la actitud mental hacia su utilización. Estos métodos estadísticos tienen un campo muy amplio de aplicación en la industria, especialmente en el control de la calidad y en el análisis de procesos.
En los procesos de producción se generan simultáneamente grandes volúmenes de información cuantitativa y cualitativa a través de las cuales se pueden controlar los costos, la producción y la calidad, es decir, lo que significa el control de gestión administrativa de la compañía. La recopilación, presentación y análisis de este flujo de información permite a la gerencia conocer los resultados y establecer controles y así mismo comparar los resultados obtenidos con lo deseado, pudiendo establecer acciones correctivas cuando se observen discrepancias significativas entre ellos.
Ing. Gineth Velásquez
La eficiencia y efectividad de una organización para alcanzar en forma exitosa los objetivos de calidad son dados por la identificación, el entendimiento y la gerencia de todos los procesos como un solo sistema. Uno de los objetivos permanentes de una organización debe ser la mejora continua de su total desempeño. La mejora continua supone aplicar los resultados de las distintas evaluaciones hechas en la organización a fin de perseguir un continuo progreso en la calidad. El resultado deseado puede lograrse cuando las tareas y los recursos relacionados son administrados como un proceso. La estadística es de gran importancia para las organizaciones, ya que le permite a la gerencia tomar decisiones más válidas, acerca de lo que puede acontecer en la empresa por medio de las predicciones futuras analizadas. Las herramientas estadísticas ayudan a visualizar acertadamente hacia donde hay orientar los esfuerzos de una empresa, y hacer lo necesario para moverla al menor costo, de donde esta 10 hacia el estado deseado.
Ing. Gineth Velรกsquez 11
Referencias Boxer, L. (1986). Estadística para Ingenieros. México. Editorial Prentice Hall.
Colaboradores de Wikipedia (2006). Estadística. Wikipedia, La Enciclopedia libre. Documento en línea disponible en: https://es.wikipedia.org/wiki/Estad%C3%ADstica [Consulta: 2016, Junio 01]. Colaboradores de Wikipedia. (2016). Estadística Inferencial. Wikipedia, La enciclopedia libre. Documento en línea disponible https://es.wikipedia.org/wiki/Estad%C3%ADstica_inferencial [Consulta: 2016, Junio 24]. Colaboradores de Wikipedia (2016). Inferencia Bayesiana. Wikipedia, La enciclopedia libre. Documento en línea disponible en https://es.wikipedia.org/wiki/Inferencia_bayesiana [Consulta: 2016, Junio 24]. Díaz, E. (1994). Aplicaciones Prácticas de la Estadística en el Control de la Calidad. UNEG. Gil E. (2010). Estadística. Monografías. Documento en línea disponible en: http://www.monografias.com/trabajos82/estadistica-historia/estadisticahistoria2.shtml#ixzz4AM4adQdM [Consulta: 2016, Junio 01]. Kume, H. (1992) Herramientas Estadísticas Básicas para el mejoramiento de la calidad. Colombia. Editorial Norma. León W. (2013). Prueba de Hipótesis para proporciones. . Documento en línea disponible en http://es.slideshare.net/williamleon20/prueba-de-hipotesis-para-proporciones-est-indclase02?qid=3268290f-37ec-44ec-a0f4-42cba559c59d&v=&b=&from_search=6 [Consulta: 2016, Junio 24]. Montgomery, D.C. y Runger G.C. (1996). Probabilidad y Estadística Aplicadas a la Ingeniería, Primera Edición, Mc Graw Hill.
Sánchez C. (2011). Estimación de medias, proporciones y varianzas. Documento en línea disponible en http://gc.initelabs.com/recursos/files/r157r/w13122w/Estad%20para%20Neg_1aEd_07.pdf [Consulta: 2016, Mayo 24]. Suarez M. (2012). Pruebas de Hipótesis para Proporciones. Documento en línea disponible en http://www.monografias.com/trabajos91/prueba-hipotesis-proporciones-z-y-ji-cuadradoempleando-excel-y-winstats/prueba-hipotesis-proporciones-z-y-ji-cuadrado-empleando-excely-winstats.shtml#ixzz49iVhIKv4 [Consulta: 2016, Mayo 24].
12
Ing. Gineth Velásquez
Hipótesis referente a varias proporciones Existe una clara tendencia
A través de la evolución de los tiempos el mantenimiento forma parte fundamental para las empresas, toda compañía tiene en su estructura organizativa el departamento de mantenimiento, de la misma manera la estadística se ha transformado en una herramienta de estudio para mejor comprensión de los procesos, diagnósticos pronósticos y probabilidades. La estadística es amplia; lo cual sirve para aplicarla en cualquier rama del ámbito laboral. Está compuesta por una gama de herramientas y estudios como lo son pruebas, parámetros, tablas, graficas, diagramas, histogramas, entre otros.
global en posicionar a las organizaciones de mantenimiento con lo que realmente son: entidades que generan valor cumpliendo un rol fundamental para el cumplimiento de los objetivos corporativos entre los que rentabilidad, confiabilidad, calidad, seguridad y disponibilidad. Estas herramientas van de la mano con el estudio de Estadística y la Ingeniería en un ámbito de gran amplitud. Primero que nada un ramo muy importante de la estadística nos ayuda a pronosticar eventos para un futuro tomando sola una muestra o un conjunto de muestras aleatorias, considerando sus diferentes variables. Ing. Yaneth Figuera
13
Estudiar con música ¡es moda!
La estadística aplicada como herramienta fundamental para la ingeniería, es de vital importancia ya que al aplicarla se puede obtener a través de simulaciones estadísticas una serie de pronósticos y a su vez factores contribuyentes que darán pie a dichos procesos, mediante los cuales se puede obtener productos de mejor calidad, números exactos de tamaños de piezas, cantidad de humedad, esto se logra con estudios estadísticos que garantizan que el producto o material no sea rechazado.
Existen dos ramas claramente diferenciadas dentro de la estadística, la estadística descriptiva y la inferencial. Referente al contraste de hipótesis se puede saber que un problema es investigable cuando existen una o más soluciones alternativas y tenemos dudas acerca de cual de ellas es la mejor. Esta situación permite formular, una o mas hipótesis de trabajo, ya que cada una de ellas, destaca la conveniencia de una de las soluciones sobre las demás. Si nuestro propósito es comprobar una teoría ella misma será la hipótesis ni significativa que ya esté resuelto el problema, al contrario, que nuestra duda nos impulsa a comprobar la verdad o la falsedad de cada una de ellas.
La estadística es la ciencia que utiliza conjuntos de datos numéricos para obtener, a partir de ellos, inferencias basadas en el cálculo de probabilidades. Es también una disciplina que nos proporciona una metodología para recolectar, organizar, resumir, analizar datos y hacer inferencias a partir de ellas. Ing. Yaneth Figuera
14
La decisión final partirá de las decisiones previas de aceptar o rechazar las hipótesis de trabajo. Para el factor de estudio llamado: hipótesis referente a varias proporciones, existen dos hipótesis, las cuales son hipótesis Nula denotada con las letras (Ho) que es aquella en la que se asegura que los dos parámetros analizados sin independientes uno del otro; y la hipótesis alternativa denotada con las letras (H1) Es aquella en donde se asegura que los dos parámetros analizados si son dependientes.
Ing. Yaneth Figuera
La prueba de hipótesis referente a varias proporciones, igualmente conocida como docimasia o contrastación de hipótesis es uno de los métodos estadísticos más usados en las ciencias naturales por ser un procedimiento que le proporciona al investigador un criterio objetivo para tomar decisiones con base a un número limitado de observaciones. Frecuentemente el biólogo tiene que decidir: a) al comparar magnitudes de propiedades físicas, químicas o biológicas en dos o más condiciones o categorías, como es el caso de confrontar el valor medio de la presión arterial en personas pertenecientes a dos grupos etarios; b) al valorar los efectos de diferentes niveles de algún factor ambiental como la temperatura, la humedad, el contenido de oxígeno sobre algún proceso, característica o propiedad de un organismo; y c) al relacionar dos o más variables, como la intensidad 15 lumínica y la tasa fotosintética.
El objetivo es comparar la proporción de “éxito” en dos poblaciones independientes. Al realizar pruebas de hipótesis, se parte de un valor supuesto (hipotético) en parámetro poblacional, después de recolectar una muestra aleatoria ,se compara la estadística muestral, así como la media (x), con el parámetro hipotético, se compara, con una supuesta media poblacional, después, se acepta o se rechaza el valor hipotético según proceda. Se rechaza el valor hipotético solo si el resultado muestral resulta muy poco probable cuando la hipótesis es cierta. Existen una serie de etapas para realizar esta prueba de hipótesis referente a varias proporciones. Etapa 1.- Planear la hipótesis nula y la alternativa, la hipótesis nula conocida como Ho, es el valor hipotético del parámetro que se compara con el resultado muestral que resulta muy poco probable cuando la hipótesis es cierta .
Etapa 2.- Especificar el nivel de significancia que se va a utilizar, mayormente el nivel de significancia es de 5% (0.05), entonces se rechaza la hipótesis nula solamente si el resultado muestral es tan diferente del valor hipotético que una diferencia de esa magnitud o mayor, pudiera ocurrir aleatoriamente con una probabilidad de 1.05 o menos. Etapa 3.-Elegir la estadística de prueba, esta puede ser la estadística muestral, o una versión un poco modificada de esa estadística muestral , por ejemplo, para probar el valor hipotético de una media poblacional, se toma la media de una muestra aleatoria de esa distribución normal, entonces es común que se transforme la media en un valor Z el cual a su vez sirve 16 como estadística de prueba. Ing. Yaneth Figuera
Tablas RxC ó Tablas de Contingencia Las tablas juegan un papel importante en lo que es la estadística, es importante analizarlas para lograr una mejor comprensión y entendimiento de lo que se quiere obtener.
¿Sabias que las mujeres son mas adictas a los tlf. inteligentes que los hombres?
En estadística estas tablas son empleadas para registrar y analizar la asociación entre dos o más variables, habitualmente de naturaleza cualitativa (nominales u ordinales), las tablas de contingencia es una de las formas más comunes de resumir datos categóricos En general, el interés se centra en estudiar si existe alguna asociación entre una variable fila y la otra variable columna y calcular la intensidad de dicha asociación (en las que se obtendrán las frecuencias marginales y el gran total). Se trabajan con datos bivariantes X y Y respectivamente. Estas tablas contienen las frecuencia de valores observados con la debidamente obtenemos lo 17 que será la frecuencia de valores esperados. Ing. Yaneth Figuera
Esta herramienta ofrece a simple vista una proporción estimada de lo que se quiere calcular siempre y cuando debidamente analizada y pueden ser utilizadas para estudios psicológicos y en nuestro caso para una mejor comprensión estadística. Usualmente los análisis estadísticos de una muestra compleja se hacen como si las observaciones cumplieran con los supuestos del muestreo aleatorio simple. La Prueba Chi Cuadrada de Pearson, además conocida como Ji cuadrado, es una de las más usadas para estudiar la bondad de ajuste, igualmente la prueba de Kolmogorov Smirnov, y Anderson Darling.
Muchos de los análisis estadísticos que aplican requieren de las observaciones sean independientes y que tengan iguales probabilidades de selección. Estos supuestos, solo se satisfacen cuando se emplea un muestreo aleatorio simple con reemplazo, y se cumple aproximadamente una prueba aleatoria simple sin reemplazo, para una fracción de muestreo pequeña, aunque existen tres tipos de muestras con las que se puede trabajar que son las muestras grandes, las aleatorias y las independientes Ing. Yaneth Figuera
18
Bondad de Ajustes La bondad de ajuste describe lo bien que se ajusta un conjunto de observaciones. Las medidas de bondad en general resumen la discrepancia entre los valores observados y los k valores esperados en el modelo de estudio. Tales medidas se pueden emplear en el contraste de hipótesis.
Estas pruebas permiten verificar que la población de la cual proviene una muestra tiene una distribución especificada o supuesta. Sus principales características son: Permiten determinar si los datos disponibles se ajustan a una determinada distribución. Es posible predecir el comportamiento de la variable en estudio.
Ing. Yaneth Figuera
Chi Cuadrado Se basa en la comparación entre la frecuencia observada en un intervalo de clase y la frecuencia esperada en dicho intervalo, calculada de acuerdo con la distribución teórica considerada. Es decir, se trata de determinar si las frecuencias observadas en la muestra están lo suficientemente cerca de las frecuencias esperadas bajo la hipótesis nula formulada. Para aplicar esta prueba se debe agrupar las observaciones de la muestra en intervalos de clase, preferiblemente del 19 mismo tamaño.
Kolmogorov Smirnov (K-V) Es un test no paramétrico que permite establecer si dos muestras se ajustan al mismo modelo probabilístico, sirve para muestras grandes y muestras pequeñas; es necesario determinar la frecuencia observada acumulada y la frecuencia teórica acumulada; una vez determinadas ambas frecuencias, se obtiene el máximo de las diferencias entre ambas.
Anderson – Darling Esta Prueba no paramétrica es una modificación del test de Kolmogorov Smirnov, donde se le da mas peso a las colas de la distribución que la prueba de K-S.
20
Ing. Yaneth Figuera
Para el desarrollo de la prueba Chi cuadrado o Ji cuadrado, es fundamental el desarrollo de 7 pasos 1.) Realizar una hipótesis
2.) Escribir la hipótesis nula y la alternativa 3.) Calcular el valor de X2
4.) Determinar el valor de P y el grado de libertad Esto se logra mediante formulas matemáticas y estableciendo el grado de significancia Es el error que se puede cometer al rechazar la hipótesis nula siendo verdadera. Por lo general se trabaja con un nivel de significancia de 0.05 que indica que hay una probabilidad del 0.95 de que la hipótesis nula sea verdadera.
5.) Obtener el valor critico Esto se obtiene a través tablas, estas tablas las encontramos en el final de los libros estadísticos y se llaman tablas para valores de Chi Cuadrado Critico. 6.)Realizar una comparación entre el Chi Cuadrado calculado y el valor critico. Si el valor de Chi Cuadrado Calculado es menor o igual que Chi Cuadrado critico entonces se acepta la hipótesis nula, caso contrario no se la acepta. 7.) Interpretar comparación
la
21
Ing. Yaneth Figuera
La estadística es una ciencia que tiene una alta jerarquía en lo que es la Ingeniería, todos los ingenieros cursamos estadística a lo largo de la carrera, lo cual incluye control de calidad, planeación, producción, por supuesto la probabilidad, riesgo económico; para emplear modelos estadísticos para lograr entender estos sistemas. Un ingeniero en mantenimiento industrial es importante dentro de una organización, ya que aporta herramientas disciplinas de la ingeniería para llevar a cabo un correcto control de la calidad, aumentan la productividad, manejar procesos productivos, cuidar la salud de los trabajadores con el fin de mejorar la empresa, todo esto se logra con el adecuado y correcto engranaje que se debe tener de una organización con otra..
Ing. Yaneth Figuera 22
La estadística
es importante ya que permite apreciar la cantidad de mejoría o, en su defecto, la disminución de la productividad, también, notar si las cosas se están realizando de la manera correcta, si se están aprovechando los recursos, Además gracias a esta ciencia, conocida y usada por muchos, se pueden hacer análisis de todo esto y hacer un pronóstico de lo que se podría utilizar en ocasiones futuras, de las ganancias, si la empresa deberá o no corregir algo para incrementar ganancias, o si los proyectos implementados tendrán una buena función; mediante diversos tipos de pruebas, diagramas, datos reales, tablas estadísticas, graficas, histogramas, entre otros.
Existen varios métodos alternativos para probar bondad de ajuste considerando la complejidad de lo que se quiera estudiar.
23
Ing. Yaneth Figuera
24
Ing. Yaneth Figuera
Referencias Segnini, S (2000) Fundamentos de Bioestadística. Venezuela. Documento en línea disponible en http://webdelprofesor.ula.ve/ciencias/segninis/materias/capitul o_06.pdf León, W (2013) Prueba de hipótesis para proporciones. Documento en línea disponible en http://es.slideshare.net/williamleon20prueba-de-hipotesispara-proporciones-est-ind-clase02?qid=3268290f-37ec-44eca0f4-42cba559d&v=&b=&from_search=6 [Consulta: 2016, Junio 24] Sandoval, A. (s/f), Estadística II, Escuela de Ciencias Contables Económico Administrativas de la Universidad Panamericana. Grupo Editorial Iberoamericana. México. Colaboradores de wikipedia (2016). Tabla de Contingencia. Wikipedia la enciclopedia libre. Documento en línea disponible en https://es.wikipedia.org/wiki/Tabla_de_contingencia
Ing. Yaneth Figuera
25
26
Diseño Completamente Aleatorizado Diseño en Bloques Aleatorizado Los diseños de experimentos son métodos que permiten obtener la mayor cantidad de información valida acerca de una investigación, teniendo en cuenta el factor costo y el uso adecuado del material disponible mediante métodos que puedan disminuir el error experimental. Actualmente las aplicaciones en cuanto a los diseños de experimentos son múltiples y especialmente se utilizan en la investigación de las ciencias naturales, ingeniería, laboratorios y gran parte de las ramas de ciencias sociales
En la industria, el diseño de experimentos suele aplicarse básicamente en dos áreas: el diseño y la mejora de procesos y productos, aunque la mayoría de los problemas industriales están condicionados por el tiempo y el presupuesto, lo que seria una limitación importante a la hora de experimentar.
Documento en línea disponible en http://www.uru.edu/fondoeditorial/libros/pdf/manu aldestatistix/cap2.pdf
Ing. Angélica Carreño
Dentro de los diseños de experimentos se pueden estudiar el diseño completamente aleatorizado y el diseño en bloques aletatorizado, cada uno de ellos cuenta con distintas herramientas para su aplicabilidad.
carrenoange14@gmail.com
Aleatorizar: todos aquellos factores no controlados por el experimentador en el diseño experimental y que puedan influir en los resultados serán asignados al azar a las unidades experimentales. El bloqueo: es dividir o patrocinar las unidades experimentales 27 en grupos llamados bloques de modo que las observaciones realizadas en cada bloque se realicen bajo condiciones experimentales lo más parecidas posibles. Unidad Experimental: es el objeto o espacio al cual se aplica el tratamiento y donde se mide y analiza la variable que se investiga, es decir, son los objetos, individuos, intervalos de espacio o tiempo sobre los que se experimenta. Variable de interés o respuesta: es la variable que se desea estudiar y controlar su variabilidad. Factor: son variables independientes que pueden influir en la variabilidad de la variable de interés.
El Diseño Completamente Aleatorizado es el diseño en el cual los tratamientos se asignan al azar entre las unidades experimentales o viceversa, el mismo se utiliza cuando las condiciones del sitio o las unidades experimentales son totalmente homogéneas. Este diseño es aplicable en experimentos de laboratorio donde casi todos los factores están controlados, en ensayos clínicos, experimentos industriales, ensayos de invernaderos y experimentos agrícolas.
Ing. Angélica Carreño
La homogeneidad de las unidades experimentales puede lograrse ejerciendo un control local apropiado (seleccionando por ejemplo, sujetos, animales o plantas de una misma edad, raza, variedad o especie), pero debe tenerse en cuenta que todo material biológico por homogéneo que sea presenta cierta fluctuación. Documento en línea disponible en http://www.uru.edu/fondoeditorial/libros/pdf/manu aldestatistix/cap2.pdf
carrenoange14@gmail.com
Se caracteriza por no imponer ninguna restricción en cuanto a las unidades experimentales, deben 28 ser en todo caso homogéneas, estas deben ser en todo caso homogéneas, también el diseño en su estructura no se ve afectado por el número igual o desigual de observaciones por tratamiento.
Modelo Aditivo Lineal:
Es una expresión algebraica que condensa todos los factores presentes en la investigación. Resulta útil para sintetizar que factores son dependientes o independientes, cuales son fijos o aleatorios, cuales son cruzados o anidados. Documento en línea disponible en
Ing. Angélica Carreño
http://www.uru.edu/fondoeditorial/libros/pdf/manu aldestatistix/cap2.pdf
carrenoange14@gmail.com
Modelo I o Modelo de Efectos Fijos Cuando los factores son fijos el investigador ha escogido los factores en forma no aleatoria y solo esta interesado en ellos.
29
En este caso el investigador asume que ∑ti = 0 1 lo cual refleja la decisión del investigador que únicamente esta interesado en los t tratamientos presente en el experimento.
Modelo II o Modelo de Efectos Aleatorios o Modelo de Varianza En este caso el investigador asume que los Ti tratamientos están distribuidos normal e independientemente con media cero y varianza sigma cuadrado, lo cual se abrevia así DNI ( 0, σ ² t), lo que refleja la decisión del investigador que solo esta interesado en una población de tratamientos, de los cuales únicamente una muestra al azar (los t tratamientos) están presentes en el experimento.
Modelo Mixto Date un gusto!!! Ven y disfruta! Documento en línea disponible en
Ing. Angélica Carreño
Hace referencia a aquellos casos en los cuales el investigador considera tanto factores fijos como aleatorios en el experimento. http://www.uru.edu/fondoeditorial/libros/pdf/manu aldestatistix/cap2.pdf
carrenoange14@gmail.com
30
1
2
…
K
Observaciones
Y11 Y12 Y13 . . Y1n1
Y21 Y22 Y23 . . Y2n2
… … … … … …
Yk1 Yk2 Yk3 . . Yknk
Totales
Y1
Y2
…
Yk
Medias
Y1
Y2
Yn
Su nombre deriva que del hecho que existe completamente una aleatorizacion como la prueba F de Fisher. También se le conoce como Diseño de una vía o solo un criterio de clasificación. Documento en línea disponible en http://www.uru.edu/fondoeditorial/libros/pdf/manu aldestatistix/cap2.pdf
Ing. Angélica Carreño
carrenoange14@gmail.com
Estadística
Experimentos
31
Ingeniería
Datos Laboratorios Industria Investigación Calculo Se puede afirmar que la estadística comienza alrededor del año 1749, aunque con el tiempo, ha habido cambios en la interpretación de la palabra estadística. En un principio, el significado estaba restringido a la información acerca de los estados. Este fue extendido posteriormente para incluir toda colección de información de cualquier tipo, y mas, tarde fue extendido para incluir el análisis e interpretación de datos.
Historia Ing. Angélica Carreño
Un gran numero de conceptos de la estadístico han tenido un importante impacto en un amplio rango de ciencias . Estos incluyen el diseño de experimentos y enfoques a la inferencia estadística como la inferencia bayesiana , para cada uno de los cuales se puede considerar que tiene su propia secuencia en el desarrollo de las ideas que subyacen en la estadística moderna.
carrenoange14@gmail.com
Diseño en Bloques Aleatorizados
Posteriormente se encuentra el diseño en bloques aleatorizados el cual es un diseño que suele utilizarse para minimizar el efecto de la variabilidad cuando está asociada con unidades discretas (por ejemplo, ubicación, operador, planta, lote, tiempo). El caso habitual consiste en aleatorizar una réplica de cada combinación de tratamientos dentro de cada bloque.
32
Criterios para el bloqueo: • Proximidad (parcelas vecinas) • Características Físicas • Tiempo • Manejo de las Unidades experimentales en el experimento
Por lo general, no hay un interés intrínseco en los bloques y se considera que son factores aleatorios. El supuesto habitual es que la interacción de bloque y tratamiento es cero, y esta interacción pasa a ser el término de error para probar los efectos del tratamiento. Si identifica a la variable de bloque como Bloque, los términos presentes en el modelo serían Bloque, A, B y A*B. También especificaría Bloque como un factor aleatorio. Documento en línea disponible en
Ing. Angélica Carreño
http://www.iuma.ulpgc.es/~nunez/mastertecnologiastelec omunicacion/Tema3DisenodeExperimentos/doe-4bloques_al_azar.pdf
carrenoange14@gmail.com
33
Este diseño se caracteriza por: • Existir una variación máxima entre los bloques, • Existir una variación mínima entre las unidades experimentales dentro del bloque • Todos los tratamientos, se le aplican en todos los bloques. Diseño de cuadro latino
Anzoátegui
El diseño de cuadro latina se usa para eliminar dos fuentes de variabilidad que no interesa estudiar por si mismas. Se hace un bloque en dos direcciones. Los renglones y las columnas representan dos restricciones en aleatorizacion.
Documento en línea disponible en
Ing. Angélica Carreño
Venezuela
http://www.iuma.ulpgc.es/~nunez/mastertecnologiastelecomuni cacion/Tema3DisenodeExperimentos/doe-4-bloques_al_azar.pdf
carrenoange14@gmail.com
Las herramientas estadísticas dan objetividad y precisión a estas observaciones tomando en consideración algunas precisas como son en darle mayor importancia a los hechos que a los conceptos abstractos, no expresar los hechos en termino de sentimientos o ideas, mas bien hay que utilizar cifras derivadas de los resultados específicos de las observación y por ultimo considerar qué los resultados de las observaciones, acompañados como están por el error y la variación, son parte de un todo oculto. Encontrar ese todo oculto es la finalidad de las observaciones (Kume; 1994:13)
Se define “Diagnóstico proactivo e integrado” como un proceso que busca caracterizar el estado actual y predecir el comportamiento futuro de equipos, sistemas y/o procesos, mediante el análisis del historial de fallas, los datos de condición y datos técnicos, con la finalidad de identificar las acciones correctivas y proactivas que puedan efectivamente optimizar costos a través de la sistemática reducción de la ocurrencia de fallas y eventos no deseados, y minimizar en consecuencia, su impacto en el negocio medular. Adicionalmente, se destaca a la Ingeniería de Confiabilidad como el marco teórico-conceptual en el que conviven las metodologías y técnicas para lograr este fin; y adicionalmente se define Confiabilidad Operacional como un proceso de mejora continua, que incorpora, en forma sistemática, avanzadas herramientas de diagnóstico, metodologías basadas en confiabilidad y el uso de nuevas tecnologías, en la búsqueda de optimizar la planificación y la toma de decisiones. “Ingeniería de Confiabilidad; porque una de las mejores formas para agregar valor; es evitar que se destruya”
El Cálculo del riesgo, involucra la estimación de la Probabilidad de Fallas y/o la Confiabilidad, (Confiabilidad = 1 – Probabilidad de Fallas), y de las Consecuencias. La figura nos muestra la descomposición del indicador “riesgo” en sus componentes fundamentales. En ella se muestra claramente que para calcular riesgo, deben establecerse dos (2) vías, una para el calculo de la confiabilidad y/o la probabilidad de fallas, en base a la historia de fallas o en base a la condición; y otra para el cálculo de las consecuencias.
Ingeniería de Confiabilidad; Pilar Fundamental del Mantenimiento http://reliabilityweb.com/sp/articles/entry/ingenieria-de-confiabilidad-pilar-fundamental-delmantenimiento
El análisis de Confiabilidad Puede seleccionar diversos estadísticos que describen la escala y sus elementos. Proporciona estadísticos descriptivos sobre las distribuciones de los elementos a través de todos los elementos de la escala: •Medias. Estadísticos de resumen de las medias de los elementos. Se muestran el máximo, el mínimo y el promedio de las medias de los elementos, el rango y la varianza de las medias de los elementos, y la razón de la mayor media sobre la menor media de los elementos. •Varianzas. Estadísticos de resumen de las varianzas de los elementos. Se muestran el máximo, el mínimo y el promedio de las varianzas de los elementos, el rango y la varianza de las varianzas de los elementos y la razón de la mayor varianza sobre la menor varianza de los elementos. •Covarianzas. Estadísticos de resumen de las covarianzas entre elementos. Se muestran el máximo, el mínimo y el promedio de las covarianzas entre elementos, el rango y la varianza de las covarianzas entre elementos, y la razón de la mayor sobre la menor covarianza entre elementos. •Correlaciones. Estadísticos de resumen para las correlaciones entre elementos. Se muestran el máximo, el mínimo y el promedio de las correlaciones entre elementos, el rango y la varianza de las correlaciones entre elementos, y la razón de la mayor correlación sobre la menor correlación entre elementos.
El análisis de la covarianza es una técnica estadística que, utilizando un modelo de regresión lineal múltiple, busca comparar los resultados obtenidos en diferentes grupos de una variable cuantitativa, pero "corrigiendo" las posibles diferencias existentes entre los grupos en otras variables que pudieran afectar también al resultado (covariantes). El análisis de covarianza es una de las técnicas usadas para reducir el error experimental, y con ello poder detectar diferencias entre tratamientos.
Objetivos del análisis de covarianza Los usos mas frecuentes del análisis de covarianza son: Para aumentar la precisión de los experimentos. Para remover el efecto de variables que afectan estudios observacionales. Para dar mayor información sobre la naturaleza de los tratamientos. Para ajustar regresiones en modelos de clasificación múltiple. Para corregir por observaciones perdidas.
Formula: Modelo Lineal
Yij i (x ij X ) ij
Análisis de fiabilidad: Estadísticos http://www.ibm.com/support/knowledgecenter/es/SSLVMB_22.0.0/com.ibm.spss.statistics.help/spss/base/idh _reli_sta.htm URU www.uru.edu/fondoeditorial/libros/pdf/manualdestatistix/cap6.pdf
• La medición de una variable es válida cuando mide lo que pretende medir. Se suele clasificar en
•
Validez interna: exactitud en la interpretación de los conceptos que se pretende medir
•
•Validez externa: posibilidad de generalización La medición de una variable es fiable si al repetir la medición en circunstancias similares se obtiene el mismo resultado.
•
La fiabilidad se puede estudiar mediante la aplicación del testretest así como con el alfa (α) de Cronbach, test disponible en el programa SPSS. Los valores del alfa (α) de Cronbach varían entre 0 y 1. La regla que se suele usar es que para valores del alfa superiores a 0’7 el conjunto de indicadores es aceptable. Pero el valor de alfa puede ser bajo por la falta de homogeneidad de las varianzas entre los items y también puede dar bajo cuando el número de items que conforman la variable latente es pequeño. Pero que el alfa (α) de Cronbach sea aceptable no implica la unidimensionalidad del constructo ya que se parte de suponer que existe. Cronbach, L.J. (1951) Coefficient Alpha and the internal structre of Test. Psychometrica 16: 297-334.
Validez y Confiabilidad www3.uji.es/~mateu/t2-alumnos.pdf
¿Con cuánta profundidad dentro del diseño debería comparar medias? Las comparaciones múltiples le permiten evaluar la significancia estadística de las diferencias entre las medias utilizando un conjunto de intervalos de confianza, un conjunto de pruebas de hipótesis o ambos. Como siempre, se rechaza la hipótesis nula de que no existe diferencia alguna entre las medias si y solo si el intervalo de confianza no contiene cero.
Cualquier decisión que tome en este sentido tiene sus ventajas y desventajas: si compara medias en todas las combinaciones de dos factores y los órdenes mayores resultan ser significativos, entonces las medias que compare podrían ser una combinación de efectos; si compara medias con un mayor nivel de profundidad, perdería potencia debido a que los tamaños de las muestras serían más pequeños y el número de comparaciones sería mayor. Es posible que decida comparar medias para las combinaciones de niveles de factores para las que considere que las interacciones son significativas.
Por lo general, debería decidir cuáles medias comparar antes de coger sus datos. Si compara solo aquellas medias con diferencias que parezcan ser grandes, lo cual se conoce como "pesca de datos", entonces estaría aumentando la probabilidad de que los resultados indiquen una diferencia real que no existe. Si usted condiciona el uso de las comparaciones múltiples al logro de una prueba F significativa, entonces aumenta la probabilidad de que existan diferencias entre los grupos, pero usted no las detecta. Debido a que los métodos de comparación múltiple ofrecen protección contra la detección de una diferencia que no existe, no necesita que la prueba F se proteja de esta probabilidad.
http://wdb.ugr.es/~bioestad/wp-content/uploads/ComparacionesMultiples.pdf http://mazinger.sisib.uchile.cl/repositorio/lb/ciencias_quimicas_y_farmaceuticas/cide01/cap4/4-4-2.html http://www.uv.es/aliaga/COMPMU93.html
Mediante Técnicas de Control buscan optimizar y asegurar los procesos. TÉCNICAS DE CONTROL Control como función administrativa, esto es, como la cuarta etapa del proceso administrativo. Constituye la cuarta y ultima etapa del proceso administrativo. Este tiende a asegurar que las cosas se hagan de acuerdo con las expectativas o conforme fue planeado, organizado y dirigido, señalando las fallas y errores con el fin de repararlos y evitar que se repitan
Control: Proceso para asegurar que las actividades reales se ajusten a las actividades planificadas. Permite mantener a la organización o sistema en buen camino. La palabra control ha sido utilizada con varios y diferentes sentidos
Establecimiento de Estándares: Un estándar puede ser definido como una unidad de medida que sirve como modelo, guía o patrón con base en la cual se efectúa el control. Medición de resultados: Si el control se fija adecuadamente y si existen medios disponibles para determinar exactamente que están haciendo los subordinados, la comparación del desempeño real con lo esperado es fácil. Pero hay actividades en las que es difícil establecer estándares de control por lo que se dificulta la medición. Corrección: Si como resultado de la medición se detectan desviaciones, corregir inmediatamente esas desviaciones y establecer nuevos planes y procedimientos para que no se vuelvan a presentar. Retroalimentación: Una vez corregidas las desviaciones, reprogramar el proceso de control con la información obtenida causante del desvío. http://html.rincondelvago.com/control-estadistico-de-procesos.html
FACTORES DE CONTROL Existen cuatro factores que deben ser considerados al aplicar el proceso de control.
Los tres primeros son de carácter cuantitativo y el último es eminentemente cualitativo. El factor cantidad se aplica a actividades en la que el volumen es importante. A través del factor tiempo se controlan las fechas programadas. El costo es utilizado como un indicador de la eficiencia administrativa, ya que por medio de él se determinan las erogaciones de ciertas actividades. La calidad se refiere a las especificaciones que debe reunir un cierto producto o ciertas funciones de la empresa.
TIPOS DE CONTROLES Control preliminar. Este control
tiene lugar antes de principiar operaciones e incluye la creación de políticas, procedimientos y reglas diseñadas para asegurar que las actividades planeadas serán ejecutadas con propiedad. La consistencia en el uso de las políticas y procedimientos es promovida por los esfuerzos del control.
Control concurrente. Este control
tiene lugar durante la fase de la acción de ejecutar los planes e incluye la dirección, vigilancia y sincronización de las actividades, según ocurran. Control de retroalimentación. Este tipo de control se enfoca sobre el uso de la información de los resultados anteriores, para corregir posibles desviaciones futuras del estándar aceptable.
http://html.rincondelvago.com/control-estadistico-de-procesos.html
PROCEDIMIENTO DE CONTROL DE ACTIVIDADES Para controlar las actividades de la empresa mediante indicadores se deben seguir los siguientes pasos:
•Establecer los métodos de calculo y anotación o recolección de la información.
•Definir el indicador o variable representativa del proceso a controlar (tiempo, costos, cantidad, atributos de calidad y otros).
•Observar e interpretar los resultados obtenidos en los pasos anteriores.
•Investigar las causas que originan las desviaciones del indicador. •Tomar una decisión o plan de acción según lo observado.
•Comprobar la efectividad de las acciones o decisiones tomadas.
http://html.rincondelvago.com/control-estadistico-de-procesos.html
Las Autoras
Organización que fundamentalmente posee capacidad administrativa para desarrollar y controlar la realización de actividades de mantenimiento a los equipos y plantas de vapor; capacidad técnica para aplicar procesos y procedimientos y capital o crédito para financiar sus operaciones
43
Editoras
44
Las Autoras
Las Autoras
45
Diseñar un sistema de gestión de mantenimiento, basándose en técnicas estadísticas y mejoramiento de la calidad, con la finalidad de optimizar las condiciones de trabajo y la ejecución de las actividades de mantenimiento, así como establecer un mejor manejo en cuanto a los sistemas de información de dichas actividades y mejorar la disponibilidad de los equipos que intervienen en la producción.
46
Editoras
Seleccionar las estrategias para mejorar el sistema de gestiĂłn de mantenimiento.
Ciclo de Deming
Largo es el camino de enseĂąanza por medio de teorĂas; breve y eficaz por medios de ejemplos. Para saber algo, no basta con haberlo aprendido. (Seneca)
47
Editoras
Seleccionar las estrategias para mejorar el sistema de gestión de mantenimiento. Fortalezas •
•
La empresa cuenta con personal capacitado para la ejecución de las actividades de mantenimiento Se cuenta con los recursos necesarios para la puesta en practica de actividades de mantenimiento predictivo
Debilidades • • •
•
La filosofía del mantenimiento no incluye el mantenimiento predictivo Los subsistemas y sistemas no pueden ser propensos a paradas continuas No existen conformidades en cuanto a la filosofía de mantenimiento actualmente utilizada en la planta. No existe la iniciativa, ni motivación, ni cultura de mejoramiento continuo
Oportunidades
Amenazas
• Existe gran variedad de proveedores los cuales pueden ofrecer los equipos y productos requeridos para la ejecución de actividades de mantenimiento • Existe gran variedad de proveedores los cuales pueden ofrecer los equipos y productos requeridos para la ejecución de actividades de mantenimiento
• En la zona no existen empresas encargadas de impartir cursos de capacidad de personal
48
Editoras
Una vez determinados los aspectos primordiales para un anรกlisis FODA, se establecieron bajo consenso las estrategias de acuerdo a cada una de las fortalezas, oportunidades, debilidades y amenazas expuestas
49
Editoras
Análisis Según los resultados la empresa se encuentra ubicada en el cuadrante donde se relacionan las fortalezas con las oportunidades, en esta situación se recomienda una estrategia ofensiva, aprovechar las oportunidades externas con el empleo de las fortalezas. Se recomienda no descuidar las debilidades de mayor impacto y minimizar todo cuanto sea posible las amenazas externas. Las principales fortalezas con las que se cuenta son: el personal capacitado, los recursos necesarios y la implementación del mejoramiento continuo, las principales debilidades son en orden: no se está realizando el mantenimiento predictivo, existen paradas continuas y no hay motivación por parte del personal debido a que el pago del salario no se efectúan a tiempo y no reciben bonificación por producción.
50
Editoras
Planificar, establecer todos los objetivos y procesos.
51
Editoras
Planificar, establecer todos los objetivos y procesos.
El objeto de esta etapa es planear las acciones correctivas que van a desarrollar para resolver los problemas que estรก enfrentando la empresa, por no contar con un Plan de Mantenimiento preventivo, emplearemos el plan de acciรณn para las causas mรกs importantes definidas en la etapa anterior.
52
Editoras
HACER Conjuntamente se elaboró un programa de actividades de mantenimiento enfocado no solo en los equipos críticos (separadores y calentadores) sino también en todos los equipos considerados en la muestra para fortalecer la actuación general de la estación sometida a estudio
53
Editoras
HACER Plan de implementaciรณn del Manual de Procesos de Mantenimiento
54
Editoras
El gerente de recursos humanos desea determinar el salario que debe pagar a cierta categoría de obreros.. Para determinar dicho salario se realiza un estudio en el que intervienen las variables Salario Mensual( en miles de ptas), Nivel de Producción Anual en la Empresa( en millones de ptas) y Nivel de especialización Media del Trabajador ( de 0 a 10). El gerente obtiene esta serie de resultados:
Se desea Calcular: 1. 2. 3.
Calcular el plano de regresión lineal mínimo cuadrático que explica el salario en función de la producción y del nivel de especialización. Estudia la validez de la función obtenida en el apartado anterior por medio de una medida descriptiva. ¿ Cuánto vale la varianza residual? Calcula el coeficiente de correlación parcial para dos variables explicativas. http://www3.uji.es/~mateu/t2-alumnos.pdf
55
1) Variable Y=Salario Xi=Producciรณn X2=Nivel de especializaciรณn.
La tabla de cรกlculos es:
http://www3.uji.es/~mateu/t2-alumnos.pdf
56
Con estos datos el sistema de ecuaciones a resolver es:
http://www3.uji.es/~mateu/t2-alumnos.pdf
57
Que tiene por solución a=56198 b1=0.158 b2=3.664 . Por tanto el plano de regresión es : y*=56.198+0.158x1+3.664x2 2) Las medidas descriptivas que vamos a utilizar son el coeficiente de determinación y el de correlación. Y definidas serían así:
El coeficiente de determinación múltiple viene expresado como:
Donde s2 es la variable residual. Una expresión de la varianza residual que simplifique el cálculo es:
En este caso R2 =0.438 R=0.661 s2 =138.506 http://www3.uji.es/~mateu/t2-alumnos.pdf
58
3) El coeficiente de correlación parcial entre la variable dependiente y una variable explicativa mide la fuerza de la relación lineal entre ambas cuando eliminamos el efecto lineal de las otras variables explicativas. Su resultado es:
Donde SCE(xi) es la variación no explicada . Observando esta expresión vemos que el coeficiente de determinación parcial nos da el incremento relativo de la variable aplicada. El coeficiente de correlación parcial se consigue de la raiz cuadrada del coeficiente de determinación. En este caso SCE(x1)=1582.51 SCE(x2)=1643.06 SCE(x1,x2)=1385.06 r2 =0.157 r 2 =0.124
y*=56.198+0.158*315+3.664*6.6=130.15
http://www3.uji.es/~mateu/t2-alumnos.pdf
59
Análisis: El calculo para el salario en función de la producción y el nivel de especialización dio como dio resultado 130.15 Bs la hora De la validez de la función se obtuvo que residual dio de 138.506Bs. Mensual
la varianza
Al implementar las herramientas estudiadas anteriormente se obtuvo un mejoramiento continuo en cuanto a la calidad de los servicios y a su vez se empezó la motivación al personal por medio de bonificaciones por producción.
60
Editoras
61