Post on 23-Jan-2023
MII Alfonso Meneses Durán Instituto Tecnológico de C.
Juárez ameneses.duran46@gmail.com
ITCJ Julio 22, 2013
Fundamentos de Estadística
2
Fuentes de variación
Proceso
Resultados
Retroalimentación
• Maquinaria/ equipo
• Mano de obra
• Métodos
• Materiales
• Medición
• Medio ambiente
Actividades de verificaciónFactores
3
Datos cuantitativos
Datos Discretos Atributos
(pasa no pasa)
Datos Continuos Variables
4
Histograma
5
El Histograma
Es un gráfico de barras de la distribución de un conjunto de mediciones el ayuda a:
! Estudiar y evaluar la dispersión de los datos
! Estratificar y comparar datos
! Estratificar e investigar factores de influencia
! Reportar los avances de las mejoras
6
Función de densidad
! Es una función suave que se aproxima a un histograma
! El área bajo una curva de densidad es uno
! La media de la curva de densidad es el punto al cual se balancea la curva
! En las curvas de densidad simétricas el punto de balance (media) y la mediana es el mismo
7
Distribución Normal
8
9
Grafico bigote (boxplot)
UL = Q1 + 1.5 * IQR = 75% + 1.5 * IQR
LL = Q1 - 1.5 * IQR = 25% - 1.5 * IQR
IQR = (Q3 - Q1)Mediana Centro de los datos
Q3 = 75%
*Valor atípico (Outlier)
La mitad de las observaciones es igual
o menor a ésta. Q1 = 25%
10
Formas de la variación
! Variación controlada (común) Está relacionada directamente con el proceso
!!
!!
! Variación no controlada (irregular) La causada por factores que se pueden identificar
claramente y con posibilidad de controlar
Distribución normal
11
Variación de causas comunes
! Combinación de gente, máquinas, métodos, material y mediciones (sistema) para producir un producto que consistentemente cumplirá los límites del diseño ó las expectativas del cliente
! Sistema constante de causas totalmente aleatorias
! Causas propias e inseparables del proceso
! El proceso forma una distribución que es estable a través del tiempo y además predecible
12
Variación de causas asignables
! Situaciones meramente accidentales
! Fallas en el equipo/ maquinaria
! Error humano
! Error de proceso; parámetros, formulaciones,
! Especificaciones incorrectas fallas en el equipo/ maquinaria
! Etc.
13
Variación controlada! Patrón consistente/ estable sobre el tiempo debido a
causas comunes (aleatorias)
! Media y ancho constante
LSC
LIC
Tiempo
Frecuencia de las mediciones
Se puede predecir su
futuro
El 85% pertenecen al sistema
14
Variación No controlada
Frecuencia de las mediciones
LSCLIC
Tiempo
?No se puede predecir su
futuro
Origina una curva distorsionada
LSCLIC
Cuando se detecta una causa asignable se debe investigar antes de que se pierda la pista
15
¿Qué es el sistema?! El estilo gerencial ! Las políticas y procedimientos de la compañía ! Los empleados (dirección y demás) ! El tipo de gente del país:
! su experiencia ! su educación ! su desempeño
! Los clientes ! Las limitaciones ambientales, etc.
16
Causas COMUNES
Cambiar el proceso
85%
Gerentes
Corregir el proceso
15%
CAUSAS DE LA VARIACIÓN
Acción requerida
Oportunidades de mejora
Responsabilidad
⇒
⇒
⇒
⇒
Gente cercana al proceso
Causas ASIGNABLES
Ejercicio 2
17
ESTADÍSTICA
18
EstadísticaCiencia de tomar decisiones bajo cierto riesgo
¿Cuantos focos debo comprar para que duren una mision de tiempo t?
Aplicación:
" Conocimiento de un todo a partir de una muestra
" Representar la población en forma condensada
" Conocimiento de una muestra futura para utilización real
19
Estadística Descriptiva! Se dedica a los métodos de recolección,
descripción, visualización y resumen de datos originados a partir de los fenómenos en estudio. Los datos pueden ser resumidos en forma numérica y/o gráfica.
20
Estadística Inferencial
! Métodos/ procedimientos para interpretar propiedades (hacer inferencias) de una población, a partir de una muestra. !Inferencias:
⎯ estimación de parámetros ⎯ pruebas de hipótesis ⎯ pronósticos de futuras observaciones ⎯ estudios de asociación (correlación) ⎯ modelos de relaciones entre variables (análisis de regresión)
21
Estadística o estimador
Parámetro
Media aritmética X-barra µ Varianza s² Desviación estándar (SD) s σ Coeficiente de correlación R r
Estadística, cont." Parámetros: los valores calculados para las poblaciones " Estadísticos: para las muestras, estas mismas medidas descriptivas
22
Muestra aleatoria! Muestra representativa de la población;
! En una muestra aleatoria de tamaño n es un conjunto de “n” individuo y cada subgrupo posible tienen igual probabilidad de ser elegidos
23
La distribución normal! Tiene forma de
campana y es simétrica
! Se determina por la media (µ) y la desviación estándar (σ)
! La media µ controla el centro y (σ) controla el ancho
24
Transformación estándar Z
Ejercicio 3
25 26± 3 σ
99.98%
Distribución normal estandarizada Area bajo la curva = 1
27
ESTADÍSTICA DESCRIPTIVAESTADÍSTICOS DE CENTRALIDAD
# Media
# Mediana
# Moda
28
Media aritmética
! Es la medida de tendencia central que posee menor varianza
! Engloba en ella toda la información de la muestra ! Desventaja; los valores muy extremos, en muestras
pequeñas afectan mucho a la media ! En poblaciones normales, la distribución de la
media es normal
29
Mediana! Se define como el punto para el cual la función de
distribución alcance el valor 0.5; en una muestra la mediana es el valor central.
! Calculo: se ordenan las observaciones de menor a mayor. Si n es impar, la mediana es la observación central,
! Si n es par, la mediana se define como la media de
las dos observaciones centrales,
z
30
Moda! Indica el punto (o puntos) en la
escala de las medidas donde se centra a la población
! Es el valor en la población que ocurre con más frecuencia
! La moda no es la frecuencia del valor que mas ocurre sino el propio valor
! Si hay 2 (o más) valores con la misma frecuencia y ésta es la más alta, se describe como multimodal
31
Distribuciones normal y bimodal
32
Estratificación
Grosor de láminas de acero
33
Sesgada a la derecha
Sesgada a la izquierda
34
! Mide la falta de simetría ! Una distribución es asimétrica si
una de las colas se extiende más alla que la otra
! Un valor cercano a 0 indica datos simétricos
! Los valores negativos indican asimetría negativa/ izquierda
! Los valores positivos indican asimetría positiva/ derecha
Asimetría (Skewness)Distribución negativa o sesgada a la izquierda; (skewness = - 1.01)
Distribución positiva o sesgada a la derecha; (skewness = 1.08)
35
! ¿Qué tanto está afilada la distribución?
! Los valores cercanos a 0 indican picos con datos normales
! Los valores negativos indican una distribución que es más aplanada que la normal
! Los valores positivos indican una distribución que es más afilada que el pico normal
Forma (Kurtosis) Distribución más aplanada que la normal; (kurtosis = – 1.03)
Distribucion más afilada que la normal; (kurtosis = 0.76)
36
ESTADÍSTICOS DE DISPERSIÓN
# Rango # Varianza
# Desviación Estándar
37
El rango
! Es la diferencia entre las dos observaciones extremas (máxima menos la mínima).
! El rango estima el campo de variación de la variable.
! Se afecta mucho por observaciones extremas y utiliza únicamente una pequeña parte de la información.
x↓ 52.03
52.10
52.14
52.16
↑ 52.25
Rango (R) = 52.25 – 52.03 = 0.22
38
6:55 PM45 43 48 45 50
Range = 7
9:35 PM44 48 43 42 45
Range = 6LCL
UCL
CL
Range = Max of Data Subgroup – Min of Data Subgroup
Gráfico del rango en subgrupos
39
Varianza! Es uno de los índices que mas se utilizan para
caracterizar la dispersión entre las medidas en una población
40
Varianza, cont.Es la desviación cuadrática media de las observaciones a
partir de la media muestral:
Varianza poblacional (se dispone de todos los valores):
41
Estimación de sigma para muestras en subgrupos
Tamaño de la muestra
d
2 1.1283 1.6934 2.0595 2.3266 2.534
10 3.078
42
EL Teorema de Límite Central
! Si la población original es normal, la distribución de muestreo de las medias también será normal.
! Si la población original no es normal, la distribución de muestreo de las medias se aproximará a la normalidad a medida que el tamaño de la muestra se aumenta.
43
Teorema de límite central, cont.
44
45
Función de Densidad de Probabilidad
46
Intervalo de Confianza! Rango de valores dentro del cual está el verdadero
valor del parámetro, con una cierta “p”
! La “p” se denomina “Nivel de Confianza”; Nivel de confianza = (1- α)
!Nivel de significación (α)
! La “p” del máximo riesgo tolerable de tener un error Para un Intervalo de Confianza: (1- α) = 95%
el nivel de significación (α) = 5%
p (-1.96 < z < 1.96) = 0.95
47
Intervalos de confianza95%
99%
En área entre las líneas muestra el 95% de la distribución. Por tanto, hay un 95% de probabilidad de observar un valor dentro del rango: media ± 1.95·σ
48
Error Estándar de la Media (SE)! Si no hay control sobre el tamaño, ¿cuál es la confianza de
la media? ! Si el tamaño de la muestra se puede controlar, ¿qué tan
grande debe ser para asegurar que el intervalo de confianza se encuentre entre los límites requeridos?
! Solución: se basa en el error estándar de la media (SE) (error de muestreo o margen de error), que es la SD de la media de la muestra:
49
Error Estandar, cont.! Limites de confianza para la media de la muestra:
! 90% media ± 1.64·SE ! 95% media ± 1.96·SE ! 99% media ± 2.58·SE
! Intervalo de Confianza (95%) = (media ± Zα/2·SE) = (media ± 1.96·SE)
50
Coeficiente de variación
$ Sin dimensiones
$ Compara muestras de variables de distinta naturaleza, o,
$ Muestras de la misma variable en poblaciones donde la magnitud de las observaciones es muy diferente
51
Prueba de normalidad Anderson-Darling
! Se utiliza para probar si una muestra de datos es de una población con una distribución específica.
! Es una modificación de la prueba Kolmogorov-Smirnov (K-S) y da más peso a las colas
! Criterio: verificar el valor de “P”;
P < 0.05 ⇒ no normal (rechazo de Ho)
P ≥ 0.05 ⇒ normal (acepta Ho)
52
Prueba de normalidad Anderson-Darling
FIN