0estadistica empresarial

53
ESTADÍSTICA EMPRESARIAL INTRODUCCIÓN : La estadística es un conjunto de técnicas que permite sacar información a partir de unos datos recogidos o una serie de observaciones realizadas. Cuando se aplican técnicas estadísticas se dice que se está realizando un “Estudio estadístico”. Estadística descriptiva : Conjunto de técnicas que permiten DESCRIBIR los elementos de un colectivo a partir de la información contenida en las observaciones realizadas en los elementos de dicho colectivo. Inferencia estadística : (Conclusiones para la totalidad) Técnicas que permiten EXTRAPOLAR* a un colectivo la información contenida en las observaciones realizadas en un subconjunto de elementos de dicho colectivo. Los resultados de inferencia llevan asociada una INCERTIDUMBRE que se mide con el “Cálculo de probabilidades”. *(Extrapolar es como adjudicar) Tema 1 : Cálculo de probabilidades. 1. INTRODUCCIÓN. El cálculo de probabilidades es una herramienta que usa la estadística para medir la incertidumbre que llevan asociada los procesos de inferencia. 2. EXPERIMENTOS CIENTÍFICOS. La finalidad de estos experimentos es la obtención de información acerca de un fenómeno de la naturaleza. Se pueden clasificar en dos grupos/tipos según se lleven a cabo en un contexto de incertidumbre o no. a) Experimento determinista : Experimento en el que el investigador puede anticipar el resultado antes de realizarlo, una vez fijadas las condiciones del mismo. Es decir, su resultado es previsible con certidumbre.

Transcript of 0estadistica empresarial

ESTADÍSTICA EMPRESARIAL

INTRODUCCIÓN:La estadística es un conjunto de técnicas que permite sacarinformación a partir de unos datos recogidos o una serie deobservaciones realizadas.Cuando se aplican técnicas estadísticas se dice que se estárealizando un “Estudio estadístico”.

Estadística descriptiva: Conjunto de técnicas que permitenDESCRIBIR los elementos de un colectivo a partir de lainformación contenida en las observaciones realizadas enlos elementos de dicho colectivo.

Inferencia estadística: (Conclusiones para la totalidad) Técnicas quepermiten EXTRAPOLAR* a un colectivo la informacióncontenida en las observaciones realizadas en un subconjuntode elementos de dicho colectivo.Los resultados de inferencia llevan asociada unaINCERTIDUMBRE que se mide con el “Cálculo deprobabilidades”.*(Extrapolar es como adjudicar)

Tema 1: Cálculo de probabilidades.

1. INTRODUCCIÓN.El cálculo de probabilidades es una herramienta que usa laestadística para medir la incertidumbre que llevan asociadalos procesos de inferencia.

2. EXPERIMENTOS CIENTÍFICOS.La finalidad de estos experimentos es la obtención deinformación acerca de un fenómeno de la naturaleza.Se pueden clasificar en dos grupos/tipos según se lleven acabo en un contexto de incertidumbre o no.

a) Experimento determinista: Experimento en el que elinvestigador puede anticipar el resultadoantes de realizarlo, una vez fijadas lascondiciones del mismo. Es decir, suresultado es previsible con certidumbre.

P.E: (El espacio recorrido es ½ de la gravedad por el tiempo alcuadrado)

b) Experimento aleatorio: Experimento en el que elinvestigador no puede anticipar el resultado antes derealizarlo, aunque se hayan fijado las condiciones delmismo, es decir, puede dar lugar a resultados diferentesaunque se realice bajo las mismas condiciones(INCERTIDUMBRE).P.E: (El lanzamiento de un dado)

Se suele decir que los fenómenos que van asociados a losexperimentos aleatorios de penden del AZAR. Son el objetode estudio del “Cálculo de probabilidades”.

* En un experimento aleatorio, lo que tiene incertidumbreno es el conjunto de posibles resultados sino unsubconjunto de este.

3. ESPACIO MUESTRAL.Conjunto de todos los resultados posibles distintos que sepueden observar al realizar un experimento aleatorio.La forma de representarlo es por “w” o por “Ω”

4. SUCESOS.Un suceso es un subconjunto de espacio muestral W asociadoa un experimento aleatorio. Se simboliza con letrasmayúsculas (A, B, C…) y se representa mediante diagramas deVenn.

P.E: Experimento aleatorio “Lanzar un dado”w = {1,2,3,4,5,6}A = nº par = {2,4,6}B = nº ≤ 2 = {1,2}C = nº 7D = nº par < 6 = {2,4}E = nº 3 = {3}

Ocurre un experimento A cuando al realizar un experimentoaleatorio el resultado es algún elemento de este. En caso contrario, se dice que no ocurre A.

4.1. TIPOS DE SUCESOS.- Simple o elemental: Suceso constituido por un soloelemento del espacio muestral. (Suceso E)- Compuesto: Suceso constituido por dos o más elementos delespacio muestral. (Sucesos A, B y D)- Imposible: Suceso que no ocurre nunca; es IMPOSIBLE. Noestá constituido por ningún elemento del espacio muestral.Se simboliza por ø. (Suceso C)- Contrario o complementario: Sea A ϵ w el suceso contrariode A es aquel suceso que ocurre cuando no ocurre A. Sesimboliza por Ac y está formado por los elementos de w queno están en A. Ac = {1,3,5} Bc = {3,4,5,6} Cc = {w} Dc = {1,3,5,6}Ec = {1,2,4,5,6}

4.2. OPERACIONES CON SUCESOS.Consideramos dos sucesos A, B ϵ w

- Unión de sucesos: Suceso unión de A y B esaquel que ocurre cuando ocurre A, B o A y B ala vez. [ A U B ]* En el ejemplo del dado, A U B = {1,2,4,6}

- Intersección: Suceso que ocurre cuandoocurren A y B simultáneamente. [ A ∩ B ]* En el ejemplo del dado, A B = {2}∩

* Un caso especial: A ∩ B = øNo pueden ocurrir los dos a la vez, A y B sonincompatibles o mutuamente exconcluyentes.

- Diferencia: Suceso que ocurre cuandoocurre A y NO ocurre B. [ A - B ]* En el ejemplo del dado, A - B = {4,6}

- Inclusión: El suceso B está ocurrido en Asi la ocurrencia de B implica la de A. [ Aϲ B ]* En el ejemplo del dado, un ejemplo sería, D c A

4.3. PROPIEDADES DE LA UNIÓN E INTERSECCIÓN.- Distributiva: A U (B ∩ C) = (A U B) ∩ (A U C)

A ∩ (B U C) = (A ∩ B) U (A ∩ C)

- Elemento neutro: A U ø = A (para la unión) A ∩ w = A (para intersección)

- Leyes de Margan: (A U B)c = Ac ∩ Bc

(A ∩ B)c = Ac U Bc

- Conmutativa: A U B = B U A A ∩ B = B ∩ A

- Asociativa: A U (B U C) = (A U B) U C A ∩ (B ∩ C) = (A ∩ B) ∩ C

5. Probabilidad.Sea un experimento aleatorio con su correspondiente espaciomuestral w.La probabilidad es una FUNCIÓN DE CONJUNTO del espaciomuestral w en el intervalo [0,1] de los números reales,

P: w → [0,1] A → P(A) ϵ [0,1]

que cumple los siguientes axiomas ( de Kolmogorov).1) P(w) = 12) ▼A ϵ w es P(A) ≥ 0 (sucesos que

sean distintos)

3) Toda sucesión A1, A2, … An ϵ w tal que Ai ∩ Aj = ø, ▼ i≠ j ,

verifica P(A1 U A2 U … An) = P(A1) + P(A2) + … P(An)→ Ley aditiva

- Consecuencia de los axiomas. Si A ϲ B → P(A) ≤ P(B) (B Tiene mas elementos por lo que es mas

probable) P(A) ≤ 1 porque A ϲ w y P(w) = 1 ▼ A ϵ w es P(Ac) = 1 - P(A) La ley aditiva es finita

Si A ∩ B ≠ ø P (A U B) = P(A) + P(B) - P(A ∩ B) Dados tres sucesos A, B y C cualesquiera se tiene que

P (A U B) = P(A) + P(B) - P(A U B U C) = P(A) + P(B) +P(C) - P(A ∩ B) - P(A ∩ C) - P(B ∩ C) + P(A ∩ B ∩ C)

6. FORMAS DE ASIGNAR PROBABILIDADES.a) Regla de Laplace- Sea un suceso A ϵ w. La probabilidad de ocurrencia de Aes igual al cociente entre el número de resultados posiblesfavorables a A y el número total de resultados posibles.

IMPORTANTE: Solo se aplica en experimentos aleatorios en los que todos lossucesos elementales tienen la misma probabilidad de ocurrir ante unarealización del experimento.

En el ejemplo “Lanzar un dado”w = {1,2,3,4,5,6} P(A) = 3/6 = 0,5A = nº par = {2,4,6}

b) Frecuentista- Sea un suceso A ϵ w.Experimento aleatorio repetido n veces → nA veces queocurre A

→ n - nA veces que no ocurreALa probabilidad de ocurrencia de A es el límite de sufrecuencia relativa cuando el número de veces “n” que serealiza el experimento tiende a infinito.

En el ejemplo “Lanzar unamoneda” w = {cara,cruz}A = caraP(A) = 0,5 (Se va estabilizando)

*No siempre se puede aplicareste procesoSolo se aplica en experimentos aleatorios que se puedenrepetir tantas veces como se quiera.

Calculo combinatorioa) Variaciones de m elementos tomados de n en n:

(No se puede repetir e importa el orden)

n nA tr (A)20 14 14/20 = 0,7200 91 91/200 = 0,45352000 1012 1012/2000 =

0,50620000 10040 10040/20000 =

0,502

Número de grupos distintos que pueden formarse tomandon elementos de un conjunto de m elementos, sin que sepueda repetir ningún elemento e importando el orden delos elementos dentro de cada grupo.

b) Permutaciones de n elementos: Número de formas de ordenar n elementos distintos. Sonvariaciones de n elementos tomados de n en n. Pn = n! → Factorial (nº multiplicado por todos los que están detrás deel, por ejemplo: 3! = 3 x 2 x 1)

c) Variaciones con repetición de m elementos tomados de n en n: (Se puede repetir e importa el orden)Número de grupos distintos que pueden formarse tomandon elementos de un conjunto de m elementos, pudiéndoserepetir elementos e importando el orden delos elementos dentro de cada grupo.

d) Combinaciones de m elementos tomados de n en n: (No se puede repetir y no importa el orden)Número de grupos distintos que pueden formarse tomandon elementos de un conjunto de m elementos, sin que sepueda repetir ningún elemento y sin importar el ordende los elementos dentro de cada grupo.

e) Combinaciones con repetición de m elementos tomados de n en n: (Se puede repetir y no importa el orden)Número de grupos distintos que pueden formarse tomandon elementos de un conjunto de m elementos, pudiéndoserepetir elementos yno importandoel orden de loselementos dentro de cada grupo.

OBSERVACIÓN:

Una variación es una combinación permutable.

*Ejemplo de cálculo combinatorio:{a,b,c} m=3

a) V3,2 = 3! / (3 - 2)! = 6 / 1 = 6 {a,b} {a,c} {b,c}{b,a} {c,a} {c,b}

b) P3 = 3! = 6 {a,b,c} {a,c,b} {b,a,c} {b,c,a}{c,a,b} {c,b,a}

c) VR3,2 = 32 = 9 {a,b} {a,c} {b,c} {b,a} {c,a}{c,b} {a,a} {b,b} {c,c}

d) C3,2 = 3! / 2!(3 - 2)! = 6 / 2x1 = 3 {a,b}{a,c} {b,c}

e) CR3,2 = 4! / 2!(4-2)! = 24 / 4 = 6 a,b} {a,c} {b,c}{a,a} {b,b} {c,c}

7. PROBABILIDAD CONDICIONADA.

A1 = 1ª bola Par 1ª Extracción P(A1) = 2/4= 0,5

w = {1,2,3,4}

A2 = 2ª bola Par 2ª Extracción P(A2) = 2/4= 0,5

w ={1,2,3,4}

A1 = 1ª bola Par 1ª Extracción P(A1) = 2/4 = 0,5

w = {1,2,3,4}A2 = 2ª bola Par 2ª Extracción w = {¿?}P(A2) = ?/3 → Si 1ª Extracción sale par P(A2) = 1/3 (Dependen de lo que salga en A1) → Si 1ª Extracción sale impar P(A2)= 2/3

Sean los sucesos A, B ϵ w. Se llama probabilidad de Acondicionada a B a la probabilidad de que ocurra A sabiendoque a ocurrido B.

Análogamente, la probabilidad de B condicionada a A es

TEOREMA DE LA INTERSECCIÓN O REGLA DEL PRODUCTO.

P(A ∩ B) = P(B)P(A │B) o P(B ∩ A) = P(A)P(B │A)

Para n sucesos A1, A2, … An es

P(A1, A2, … An) = P(A1) x P(A2 │ A1) x P(A3│ A1 ∩ A2) ... P(An│A1 ∩ A2 ... ∩ An)

8. INDEPENDENCIA DE SUCESOS.Un suceso A es independiente de otro suceso B si laocurrencia o no de B no afecta a la probabilidad deocurrencia de A, es decir P(A │ B) = P(A)Análogamente, B es independiente de A si P(B ∩ A) =P(B)

Dos sucesos A y B son independientes si A es independientede B y B de A, es decir se tienen que dar ambas condicionesa la vez, en cuyo caso se verifica que P(A ∩ B) = P(A)x P(B)

Por ejemplo dos sucesos independientes pueden ser A = aprobarun examen

B = ser hombreHay que aclarar que incompatible no es lo mismo queindependiente; Dos sucesos incompatibles son totalmentedependientes, tanto que si se da uno no se puede dar elotro. Por ejemplo: A = aprobar B = suspender

9. TEOREMAS DE LA PROBABILIDAD TOTAL Y DE BAYES.- Sea un experimento aleatorio con espacio muestral w.- Sean E1, E2, … En ϵ w un conjunto de sucesos tales que:

mutuamente excluyentes, es decir Ei ∩ Ej = ø, ▼i =j

P(Ei) > 0, i = 1, 2, … n Forman una participación del espacio muestral, es

decir E1 U E2 … U En = w

- Sea A ϵ w un suceso cualquiera para el que se conocen P(A │ Ei), i = 1, 2, … n

Bajo estas condicione se puede afirmar que:

OBSERVACIÓN: P(Ei), i = 1, 2, … n → Probabilidades a priori P(Ej │A), j = 1, 2, … n → Probabilidades a

posteriori

Tema 2: Variable aleatoria.

1. INTRODUCCIÓN.w = {1,2,3,4,5,6} Lanzar un dadow = {cara, cruz} Lanzar una moneda

Variable aleatoria: variable o medio para transformar lasposibles situaciones no numéricas en numéricas, con laintención de que sea más fácil calcular la probabilidad.

2. CONCEPTO DE VARIABLE ALEATORIA.Sea un experimento aleatorio con su correspondiente espaciomuestral w.Una variable aleatoria (v.a) X es una función definidasobre el espacio muestral w que toma valores en la recta delos números reales.

x: w ------------ R w ------------ x (w) = x ϵ R

Ejemplo: Lanzar una moneda dos veces.X = nº de caras obtenidas w = {cc, cx, xc, xx} X(w1) = 2 X(w3) = 1 w1 w2 w3 w4 X(w2) = 1 X(w4) = 0

X(w) = {0,1,2} = Sx

La definición de una v.a transforma el espacio muestral wen un subconjunto de números reales denominado espaciomuestral de la v.a. X X(w) = Sxque es el subconjunto de posibles valores diferentes quepuede tomar la v.a. X

A = obtener 2 caras = {CC} X(A) = X(CC) = 2B = obtener 1 cara como mucho = {CX,XC,XX} X(B) =[0,1] →X(CX,XC,XX) = {0,1}

w2 w3 w4

En general, a un suceso A ϵ w, una v.a. le asocia unintervalo de números reales X(w) = I

P(A) = P(x=2) = 1/4 = 0,25P(B) = P(x ϵ [0,1]) = P(x=0) + P(X=1) = 1/4 + 2/4 = 3/4 = 0,75

Por lo que P(A) es equivalente a P(X ϵ I)

3. FUNCIÓN DE DISTRIBUCIÓN.Una función de distribución (F.D) es una función de losnúmeros reales en el conjunto de los números reales tal quesea:

F: R ------------ R X ------------ F(x) ϵ R

- Monótona no decreciente.- Contínua por la derecha

- -

Con una función de distribución podemos caracterizar laprobabilidad de que una v.a. tome valores en un determinadointervalo.

3.1. FUNCIÓN DE DISTRIBUCIÓN DE UNA v.a. X.Función de distribución que toma valores en el intervalo[0,1]

F: R ------------ [0,1] X ------------ F(x) ϵ [0,1]

de la forma F(X) = P(X ϵ (-∞,x]) = P(X ≤ x) ▼ x ϵ R

X(B) = [0,1]F(1) = P(x ≤ 1) = P(x=0) + P(x=1)

P(-∞,1]

Propiedades de la F.D. de una v.a. X.- Monótona no decreciente.- Contínua por la derecha:

- → F(+∞) = 1- → F(-∞) = 0

3.2. PROBABILIDAD DE UN INTERVALO.La F.D de una v.a X permite calcular la probabilidad de quedicha variable tome valores en cualquier intervalo:

(a,b] → P(X ϵ (a,b]) = P(a < X ≤ b) = F(b) - F(a)

- (a,b] → P(X ϵ (a,b]) = P(a < X ≤ b) = F(b) - F(a)- [a,b] → P(X ϵ [a,b]) = P(a ≤ X ≤ b) = F(b) - F(a) + F(X= a)- (a,b) → P(X ϵ (a,b)) = P(a < X < b) = F(b) - F(a) - P(X= b)- [a,b) → P(X ϵ (a,b]) = P(a < X b) = F(b) - F(a) + P(X =a) - P(X = b)

4. TIPOS DE VARIABLE ALEATORIA.

4.1. VARIABLE ALEATORIA DISCRETA.Una v.a X es discreta si tiene como espacio muestral Sx un

conjunto finito o infinitonumerable y una función deprobabilidad de la forma

que verifica: - P(X = x) > 0 ▼ x ϵ Sx

- F.D de una v.a discreta:Si C es una v.a discretacon Sx = {x1, x2, … xk, …} sufunción de distribución esde la forma

se trata de una función escalonada cuyos saltos o escalonesse producen en los puntos de Sx. (Ver ejercicio 4)

4.2. VARIABLE CONTÍNUA.Una v.a X es contínua si tiene como espacio muestral Sx unconjunto no numerable y una función de distribucióncontínua y derivable de la forma

Siendo f(x) = F’(x)

OBSERVACIONES:- f(x) → función de densidad de probabilidad, (esto indicaque es contínua, si fuese solo f. de densidad sería de las otras), queverifica:

- f(x) ≥ 0 ▼ x ϵ R

- La función de densidad es tal que f(x) = 0 por lo que

-

Área bajo la función de densidad hasta el punto de abcisax.

- P(X0x) = 0 ▼ x ϵ REjemplo: X = peso Sx = [40,120 P(X=70) = 0 = 1/∞

- La probabilidad en cualquier intervalo (a,b], [a,b),(a,b), [a,b] es

F(b) - F(a) =

5. MOMENTOS DE UNA VARIABLE ALEATORIA.Son unos valores numéricos que proporcionan informaciónsobre una v.a X.

5.1. MOMENTO DE ORDEN r RESPECTO AL ORIGEN.

- Si X es discreta Sx = {x1, x2, … xk, …} →

- Si X es continua →

El momento de orden 1 (r=1) respecto al origen se denominaesperanza matemática (o media) de la v.a y se denota

α1 = µ = E[x]

PROPIEDADES DE LA ESPERANZA MATEMÁTICA:- Si K es una constante entonces E[K] = K- Si X es una v.a y K es una constante entonces

E[Kx] = KE[x]- Si X e Y son 2 v.a entonces E[X ± Y] = E[X] ±

E[Y]- Si X es una v.a y a,b son 2 números reales

cualesquiera, entonces E[a + bX] = a + b E[X]

5.2. MOMENTO DE ORDEN r RESPECTO A LA MEDIA.

- Si X es discreta Sx = {x1, x2, … xk, …} →

- Si X es continua →

El momento de orden 2 (r=2) respecto a la media se denominavarianza de la v.a y se denota µ2 = Ϭ2 = V(x)

Desviación típica de una v.a = D(x) = + √V(x)Ϭ

PROPIEDADES DE LA VARIANZA:

- Si K es una constante entonces V[K] = 0- Si X es una v.a y K es una constante, V[Kx] =

K2V(x)- Si X es una v.a, V(x) = α2 - α1

2 = µ2

- Si X es una v.a y a,b son 2 números realescualesquiera, V(a - bx) = b2 V(x)

Tema 3: Algunas distribuciones de probabilidad.

1. INTRODUCCIÓN.

Distribución de probabilidad.Dada una v.a X, si distribución de probabilidad es elconjunto formado por so espacio muestral Sx y su funciónf(x) de probabilidad si es discreta o de dnsidad deprobabilidad si es contínua.Existen experimentos aleatorios que, aunque físicamentesean diferentes, les corresponde la misma distribución deprobabilidad.

2. DISTRIBUCIÓN DE PROBABILIDAD PARA V.ADISCRETAS.

2.1. DISTRIBUCIÓN DISCRETA UNIFORME.Una v.a X tiene una distribución discreta uniforme si suespacio muestral es Sx = {x1, x2, … xk} con k finito, y su función deprobabilidad es

2.2. DISTRIBUCIÓN DE BERNOUILLI.- Experimento de Bernouilli: Experimento aleatorio con solo2 resultados posibles; w = {éxito, fracaso} = {E,F} dondela probabilidad de ocurrenciade cada uno de ellos es lamisma en cada realizaciñon del experimento.P(€ = p P(F) = q tal que p + q = 1 por lo que q = 1 - p

- La distribución de Bernouilli surge al definir una v.abinaria sobre un experimento Bernouilli. Asi su espaciomuestral es x(w) = Sx = {0,1} pues X(E) = 1, X(F) = 0, y su funcion de probabilidad es:

Se representa por X ~ B(p)Esperanza → µ = E[x] = p = 0.q + 1.pVarianza → Ϭ2 = V(x) = p.q = α2 - µ = p - p2 = P(1-p) = p.q

α2 = 02.q + 12.p = p

2.3. DISTRIBUCIÓN BINOMIAL.Se trata de un experimento de Bernouilli repetido n veces.

Sean Xi ~ B(p), i = 1, 2, … n. Entonces la v.a

mide el nº de exitos obtenidos alrealizar n veces un experimento de Bernouilli, y se diceque tiene una distribución binomial de parametros n y p.Así su espacio muestral es Sx = {0, 1, 2, … n} y su funciónde probabilidad es:

Se representa por X ~ b(n,p)Esperanza → µ = E[x] = n.pVarianza → Ϭ2 = V(x) = n.p.q

2.4. DISTRIBUCIÓN DE POISSON.

La Distribución de Poisson es el límite de la distribuciónbinomial b(n,p) cuando n → ∞ y p → 0, manteniéndoseconstante el producto n.p = λAsí una v.a X tiene distribución de Poisson de parámetro λsi su espacio muestral es Sx = {0, 1, 2, … } y su funciónde probabilidad es:

Se representa por X ~ P(λ)Esperanza → µ = E[x] = λ

Varianza → Ϭ2 = V(x) = λ

*APROXIMACIÓN BINOMIAL POISSON.- La aproximación es buena cuando n ≥ 20, y En este caso diré quemi- p ≤ 0,05 y/o n.p ≤ 5 binomial se parece a unaPoisson

OBSERVACIONES:- Generalmente, una v.a X ~ Poisson se utiliza para

cuantificar el nº de individuos que representan undeterminado carácter por unidad de tiempo, volumen,superficie, etc.

- Si Xi ~ P(λi) i = 1, 2, … n, e independientes,entonces,

x = x1, x2, … xn = ~ P(λ1 + λ2 + … λn )2.5. DISTRIBUCIÓN HIPERGEOMÉTRICA.Ejemplo:

Sea un conjunto de N elementos que se puede dividir en 2grupos según una característica

del que se extraen al azar n elementos sin reemplazamiento.Entonces la v.a X que mide el nº total de elemenos tipo Apresentes en los n extraídos se dice que hace unadistribución hipergeometrica de parametros n, a y N, siendosu funcion de probabilidad:

Se representa por X ~ h (n, a,N)Esperanza → µ = E[x] = n . a/NVarianza → Ϭ2 = V(x) = n . a/N

*APROXIMACIÓN HIPERGEOMÉTRICA-BINOMIALSi n/N ≤ 0,1 → h(n ,a, N) ≈ b(n, p = a/N)

2.6. DISTRIBUCIÓN GEOMÉTRICA.Sea un experimento de Bernouilli, con P(éxito) = p, que serepite hasta que se obtiene el primer éxito.Una v.a X con distribución geométrica de parámetro p esaquella que mide el nº de veces que se realiza unexperimento de Bernouilli hasta que se obtiene el primer

éxito. Así, si espacio muestral es Sx = {1, 2, …} y sufunción de probabilidad es:

Se representa por X ~ G(p)Esperanza → µ = E[x] = 1/p

Varianza → Ϭ2 = V(x) = q/p2

2.7. DISTRIBUCIÓN BINOMIAL NEGATIVA.Sea un experimento de Bernouilli, con P(éxito) = p, que serepite hasta que se obtiene el k-ésimo éxito.Una v.a X con distribución binomial negativa de parámetro ky p es aquella que mide el nº de veces que se realiza unexperimento de Bernouilli hasta que se produce el k-ésimoéxito. Así, si espacio muestral es Sx = {k, k+1, k+2, … } y sufunción de probabilidad es:

Se representa por X ~ bn(k,p) Esperanza → µ = E[x] = k/p Varianza → Ϭ2 = V(x) = kq/p2

3. DISTRIBUCIONES DE PROBABILIDAD PARA V.ACONTÍNUAS.

3.1. DISTRIBUCIÓN UNIFORME O RECTANGULAR.Una v.a X con distribución uniforme o rectangular esaquella que toma valores en un intervalo de la forma Sx =(a,b) siendo equiprobables todos los puntos de dichointervalo. Así su función de densidad es:

Se representa por X ~ U(a,b) Esperanza → µ = E[x] = (b+a) / 2 Varianza → Ϭ2 = V(x) = (b-a)2 / 12

3.2. DISTRIBUCIÓN EXPONENCIAL.Una v.a X sigue una distribución exponencial de parámetro

a>0 si su espacio muestral es Sx = (0,+∞)y su función de densidad es de la forma: Se representa por X ~ Exp(a) Esperanza → µ = E[x] = 1/a

Varianza → Ϭ2 = V(x) = 1/a2

3.3. DISTRIBUCIÓN NORMAL.Una v.a X sigue una distribución normal de parámetro µ y Ϭ2

> 0, si su espacio muestral es Sx = (-∞,+∞) y su funciónde densidad es:

Serepresentapor X ~

N(µ,Ϭ2)Esperanza → µ = E[x] = µVarianza → Ϭ2 = V(x) = Ϭ2

GRÁFICA DE LA FUNCIÓN DE DENSIDAD:- Campana de Gauss- Simétrica respecto al origen. X1 ~ N(µ1,Ϭ2

1) * Si µ1 > µ2

X2 ~ N(µ2,Ϭ22) Ϭ2

1 = Ϭ22

* Si µ1 = µ2

Ϭ21 > Ϭ2

2

PROPIEDAD: Si X1 ~ N(µ1,Ϭ21) y X2 ~ N(µ2,Ϭ2

2) sonindependientes para 2 numeros reales cualesquiera a y b severifica:X = aX1 + bX2 ~ N(aµ1, bµ2, a2Ϭ2

1, b2Ϭ22)

FUNCIÓN DE DISTRIBUCIÓN:

Esta integral no se puede resolver por los métodos habituales.

*DISTRIBUCIÓN NORMAL ESTÁNDAR O NORMAL TIPIFICADA.Caso particular para µ = 0, Ϭ2

= 1 → Z ~ N(0,1)Sz = (-∞,+∞)

Función de distribución:

No se puede resolver por los métodos habituales.

Métodos numéricos proporcionan valores de f(z) que aparecenrecogidos en las tablas de áreas acumuladas de la N(0,1).

Si X ~ N(µ,Ϭ2) se verifica Portanto:

3.4. DISTRIBUCIÓN JI-CUADRADO E REARSON.Si Zi ~ N(0,1), i = 1, 2, … n, independientes.

Entonces la v.a se dice que tienedistribución ji-cuadrado con n grados de libertad. Suespacio muestral es Sx = (0,+∞).Se representa por X ~ X2(n)Esperanza → µ = E[x] = nVarianza → Ϭ2 = V(x) = 2nGRÁFICA DE LA FUNCIÓN DE DENSIDAD:PROPIEDAD:

3.5. DISTRIBUCIÓN t DE STUDENT.Sean Z ~ N(0,1) e Y ~ X2(n), independientes.Entonces, la v.a Se dice que tiene una distribución t de Student con ngrados de libertad. Su espacio muestral es Sx = (-∞,+∞).Se representa por X ~ t(n)Esperanza → E[x] = 0Varianza → V(x) = n/(n-2) si n > 2

PROPIEDAD: GRÁFICA:

3.6. DISTRIBUCIÓN F DE SNEDECOR.Sean X1 ~ X2(n1) e X2 ~ X2(n2), independientes.Entonces, la v.aSe dice que tiene una distribución F de Snedecor con n1 yn2 grados de libertad. Su espacio muestral es Sx = (0,+∞).Esperanza → E[x] = n/(n2-2)

PROPIEDAD: GRÁFICA:

4. DESIGUALDAD DE MARKOV Y DE CHEBYSHEV.

4.1. DESIGUALDAD DE MARKOV.Sea X ~ D(µ,Ϭ2) con µ conocida y D y Ϭ2 desconocidos.Entonces, dada la constante k>0 se verifica P(X>kµ) ≤ 1/k

4.2. DESIGUALDAD DE CHEBYSHEV.Sea X ~ D(µ,Ϭ2) con µ y Ϭ2 conocidos y D desconocido.Entonces. dada una constante k>0 se verifica P(│X - µ│>k) ≤ 1/kϬ 2

5. TEOREMA CENTRAL DEL LÍMITE.

Sea una sucesión de v.a X1, X2, … Xn, definidas todas ellassobre un mismo experimento aleatorio, con medias yvarianzas finitas. Entonces dicha sucesión obedece al

teorema central del límite si, solo si, a medida que

aumenta n, la v.a. converge en ley hacia unadistribución normal, es decir:

5.1. TEOREMA CENTRAL DE LEVY-LINDEBERG.Una sucesión de v.a X1, X2, … Xn, obedece al teorema centraldel límite si todas sus v.a son independientes y tienen lamisma distribución con media y varianza finitas: Xi ~D(µ,Ϭ2), i = 1,2,3,…n

Así para se verifica:

y por tanto:

La aproximación es buenacuando n ≥ 30

5.2. TEOREMA DE MOIVRE.Una sucesión de v.a X1, X2, … Xn, obedece al teorema centraldel límite si todas sus v.a van asociadas a la repeticiónde un experimento de Bernouilli: [P(éxito) = p] → Xi ~B(p), i = 1,2,…nAsi, en este caso es:

se tiene que

El teorema de Moivre se extiende a la Poisson.Concretamente como para una X ~ P(λ) es E[x] = V[x] = λ Setiene que

Si λ≥10 la aproximación es buena.

5.3. CORRECCIÓN POR CONTINUIDAD.

Si X discreta ≈ X* continua, entonces P(X=a) ≈ P(a - ½ < X* < a + ½)P(X≥a) ≈ P(X* ≥ a - ½)P(X≤a) ≈ P(X* ≤ a + ½)

Tema 4: VARIABLE ALEATORIA BIDIMENSIONAL.

1. INTRODUCCIÓN.Si sobre el espacio muestral W asociado a un experimentoaleatorio se definen las variables aleatorias x1, x2, … xk ,resulta lo que se denomina variable aleatoriamultidimensional o variable aleatoria k-dimensional →(x1,x2, … xk)En particular sik = 1 → x: variable aleatoria unidimensional (TEMA 2)k = 2 → (x1, x2): variable aleatoria bidimensional2. CONCEPTO DE VARIABLE ALEATORIA BIDIMENSIONAL.Sean X e Y dos v.a definidas sobre un mismo experimentoaleatorio, con espacio muestral W.Una v.a bidimensional (x,y) es una función definida sobreel espacio muestral W que toma valores en el plano R 2

(x,y): W R 2

w (x(w),y(w)) = (x,y) ϵ R 2

La definición de una v.a bidimensional transforma elespacio muestral W en un subconjunto de R 2 denominadoespacio muestral de la variable aleatoria (x,y) (x,y)(w) = S(x,y) ϵ R 2 que es el conjunto deposibles valores diferentes que puede tomar la variablealeatoria (x,y).

3. FUNCIÓN DE DISTRIBUCIÓN EN R 2.Es una función definida en R 2 que toma valores en elconjunto de los numeros reales.F: R 2 R (x,y) F(x,y) ϵ R 2

tal que sea:- Monótona no decreciente- continua por la derecha- Lim F(x,y) = 1 x→+∞ y→+∞- Lim F(x,y) = 0 ▼y ϵ R Lim F(x,y) = 0 ▼x

ϵ R x→ -∞ y→ -∞

Con una función de distribución podemos caracterizar laprobabilidad de que una variable aleatoria bidimensionaltome valores en un determinado subconjunto de R 2.

3.1. FUNCIÓN DE DISTRIBUCIÓN DE UNA VARIABLE(x,y).Función de distribución de dos variables que toma valoresen el intervalo [0,1].F: R 2 [0,1] (x,y) F(x,y) ϵ [0,1]de la forma:F(x,y) = P(x ϵ (-∞,x] , y ϵ (-∞,y]) = P(X≤x, Y≤y) ▼(x,y) ϵR 2

Representa que se da una cosa y la otraal mismo tiempo (INTERSECCIÓN)

* PROPIEDADES DE LA FUNCIÓN DE DISTRIBUCIÓN DE UNAV.A (x,y).

- Monótona no decreciente respecto a cada una de lasvariables

- Continua por la derecha respecto a cada una de lasvariables

- Lim F(x,y) = 1 → F(-∞,+∞) = 1 x→+∞ y→+∞- Lim F(x,y) = 0 ▼y ϵ R → F(-∞,y) = 0 ▼y ϵ R

x→ -∞ - Lim F(x,y) = 0 ▼x ϵ R → F(x,-∞) = 0 ▼x ϵ R

y→ -∞

3.2. FUNCIÓN DE DISTRIBUCIÓN MARGINALES DE UNAVARIABLE ALEATORIA (x,y).Funciones de distribución de cada una de las v.aunidimensionales que constituyen la bidimensional conindependencia de los posibles valores de la otra.

- FUNCIÓN DE DISTRIBUCIÓN MARGINALES DE X:Fx(x) = P(X ≤ x, Y ϵ R) ▼x ϵ R- FUNCIÓN DE DISTRIBUCIÓN MARGINALES DE Y:Fy(y) = P(X ϵ R , Y ≤ y) ▼y ϵ R

Si (x,y) es una variable aleatoria discreta con S(x,y), dondeSx = { x1, x2, … xk, …} y Sy = { y1, y2, … yk, …} se define:

a) FUNCIÓN DE DISTRIBUCIÓN DE UNA VARIABLE ALEATORIABIDIMENSIONAL DISCRETA:

b) FUNCIONES DE PROBABILIDAD MARGINALES:Son las funciones de probabilidad de cada una de lasvariables aleatorias unidimensionales que constituyen labidimensional con independencia de los posibles valores dela otra.

- FUNCIÓN DE PROBABILIDAD MARGINAL DE X:

- FUNCIÓN DE PROBABILIDAD MARGINAL DE Y:

c) FUNCIONES DE DISTRIBUCIÓN MARGINALES:- FUNCIÓN DE DISTRIBUCIÓN MARGINAL DE X:

- FUNCIÓN DE DISTRIBUCIÓN MARGINAL DE Y:

d) FUNCIONES DE PROBABILIDAD CONDICIONADAS:Son funciones de probabilidad de una de las variablesaleatorias unidimensionales que constituyen labidimensional conocidos uno o varios valores de la otra.

- FUNCIÓN DE PROBABILIDAD DE X CONDICIONADA A Y:

- FUNCIÓN DE PROBABILIDAD DE Y CONDICIONADA A X:

4. VARIABLE ALEATORIA BIDIMENSIONAL CONTINUA.Una v.a. bidimensional (x,y) es continua si x e y soncontinuas, es decir, si tiene como espacio muestral S(x,y)un conjunto no numerable y una función de distribucióncontinua y derivable de la forma

siendo

OBSERVACIONES:- f(x,y) → funcion de densidad de probabilidad de la v.a(x,y) que verifica

- f(x,y) ≥ 0▼(x,y) ϵ R 2

- La función de densidad es tal que por loque

* A f(x,y) se le suele llamar función de densidad conjunta

- f(x,y) es una superficie, por lo que es un volumen.

- P(X=x, Y=y) = 0 ▼(x,y) ϵ S(x,y)

a) FUNCIONES DE DENSIDAD MARGINALES:Son las funciones de densidad de cada una de las v.a.unidimensionales que constituyen la bidimensional conindependencia de los posibles valores de la otra.

- FUNCIÓN DE DENSIDAD MARGINAL DE X:

- FUNCIÓN DE DENSIDAD MARGINAL DE Y:

b) FUNCIONES DE DISTRIBUCIÓN MARGINALES:- FUNCIÓN DE DISTRIBUCIÓN MARGINAL DE X:

- FUNCIÓN DE DISTRIBUCIÓN MARGINAL DE Y:

c) FUNCIONES DE DENSIDAD CONDICIONADAS:Son funciones de densidad de una de las v.a.unidimensionales que constituyen la bidimensionalconocidos uno o varios valores de la otra.

- FUNCIÓN DE DENSIDAD DE X CONDICIONADA A Y = y* :

- FUNCIÓN DE DENSIDAD DE Y CONDICIONADA A X = x* :

También se pueden definir las funciones de densidad de Xcondicionada a Y, y de Y condicionada a X:

5. INDEPENDENCIA DE VARIABLES ALEATORIAS.Sea (x,y) una v.a. con función de distribución F(x,y)siendo Fx(x) y Fy(y) las funciones de distribuciónmarginales de C e Y respectivamente.Se dice que x e y son independientes si, y solo si, F(x,y) = Fx(x)Fy(y) ▼(x,y) ϵ R 2

es decir si, y solo siP(X≤x, Y≤y) = P(X≤x)P(Y≤y) ▼(x,y) ϵ R 2

OBSERVACION:- La condición de independencia es equivalente a f (x,y) = fx(x)f y(y) ▼(x,y) ϵ R 2

6. MOMENTOS DE UNA V.A. BIDIMENSIONAL.Son unos valores numéricos que proporcionan informaciónsobre una v.a (x,y).

a) Momentos de ordenes (r,s) respecto al origen:* Si (x,y) es discreta con S(x,y) = {(x1,y1), (x2,y2), …(xk,yk) …} es

* Si (x,y) es continua es

El momento de ordeners (r=1, s=1) respecto al orifen sedenomina esperanza matemática (o media) de la v.a. (x,y)

α11 = E[(x,y)]

OBSERVACIONES:α01 = E[y] = µy → Esperanza de la v.a Yα10 = E[x] = µx → Esperanza de la v.a X

b) Momentos de ordenes (r,s) respecto a la media.* Si (x,y) es discreta con S(x,y) = {(x1,y1), (x2,y2), …(xk,yk) …} es

* Si (x,y) es continua es

El momento de ordenes (r=1, S=1) respecto a la media sedenomina covarianza de la v.a (X,Y)

µ11 = COV(x,y) = Ϭxy

que mide el grado de relación lineal entre X e Y de maneraque

- si Ϭxy > 0 → Relación lineal creciente- si Ϭxy < 0 → Relación lineal decreciente- si Ϭxy = 0 → No hay relación lineal

PROPIEDADES DE LA COVARIANZA- µ11 = α11 - α10α01 → COV(x,y) = E[(x,y)] - E[x]E[y]- si X e Y son independientes → COV(x,y) = 0OBSERVACIONESVarianza de la v.a X µ20 = V(x) = Ϭ2xVarianza de la v.a Y µ02 = V(y) = Ϭ2y

ESTADÍSTICA DESCRIPTIVA

Tema 1: Escalas de medida.

1. ESCALAS DE MEDIDA.X = característica observada x1, x2, … xn = observacionesxi ϵ S = conjunto de posibles valores diferentes que puedetomar X

Ejemplo: X = sexo S = {hombre, mujer} → puede sernumérico o no, y

clasifica lasvariables en 2 grupos.

a) No numéricas, categóricas o cualitativas :Sus valores son no numéricos (clases o categorías) ymiden cualidades. Hay dos tipos:- Nominal: No tiene sentido ordenar las categorías. P.E:X = sexo S = {H, M}- Ordinal: Las categorías pueden ordenarse. P.E: X =opinión sobre producto

S = {mal, regular, bien} mal <regular < bienLas clases o categorías suelen clasificarse con dígitos,aunque no se pueden realizar operaciones aritméticas conestos. (Solo sirve para facilitar el trabajo altransmitirlo a un ordenador).

b) Numéricas o cuantitativas :Sus valores son numéricos y miden la cantidad delcarácter observado en el individuo. Hay 2 tipos:- Por intervalo: No tiene origen. Con sus valores sepuede realizar cualquier operación aritmética.P.E: X = temperatura 0ºC = Frío (no sería nada o nulo)- Por ratio: Tiene origen. Con sus valores se puederealizar cualquier operación aritmética.Los datos numéricos se pueden pasar a categóricosdefiniendo clases o categorías. P.E: La renta la pasamos denº a (baja, media, alta) Se hace por intervalos.

2. VARIABLES CONTÍNUAS Y DISCRETAS.Las variables numéricas se pueden clasificar en:

- Variables continuas: Pueden tomar cualquier valor dentrode un intervalo. P.E: X = peso [70,75] → cualquier peso dentro del intervalo es válido.- Variables discretas: Solo pueden tomar algunos valoresdentro de un intervalo.P.E: X = nº de hijos [2,5] → solo pueden tomar ciertos números (2, 3,4 o 5)

3. REPRESENTACIÓN DEL CONJUNTO S.a) X es no numérica o numérica discreta con k posiblesvalores:S = {x*1, x*2, … x*n}P.E: X = sexo S = {hombre, mujer} x*1 = hombre x*2 = mujer (2posibles valores)

b) X es numérica continua:S = (a,b) , a,b ϵ R tales que xi ϵ (a,b) ▼i (el intervalo tiene que cubrir todos los posibles).

Tema 2: Análisis Univariante.

1. INTRODUCCIÓN.Aplicación de técnicas estadísticas para estudiarcaracterísticas (variables) observadas en unos individuossin tener en cuenta las relaciones que puedan existir entredichas características.En descriptiva existen las siguientes técnicas pararealizar un análisis univariante.

- Representaciones gráficas.- Medidas descriptivas (media, varianza, …)

En algunos casos, para aplicar dichas técnicas es necesarioconstruir la tabla de distribución de frecuencias de lavariable en cuestión.

2. FRECUENCIAS.X observada en n elementos, x1, x2, … xn, con xi ϵ S = {x*1,x*2, … x*k}- Frecuencia absoluta de x*j ϵ S: Nº de veces que se repiteese valor en el conjunto de observaciones realizadas nj X = edad, n=100, x1, x2, … x100,xj ϵ S = {niños x*1, jóvenes x*2, adultos x*3, ancianos x*4}→ k = 4(15 niños / 20 jóvenes / 35 adultos / 30 ancianos)

x*1 = niños → n1 = 15x*2 = jóvenes → n2 = 20x*3 = adultos → n3 = 35x*4 = ancianos → n4 = 30

- Frecuencia relativa de x*j ϵ S: Cociente entre lafrecuencia absoluta de x*j y el numero total deobservaciones.

F(x*1) = 15/100 = 0,15F(x*2) = 20/100 = 0,20F(x*3) = 35/100 = 0,35F(x*4) = 30/100 = 0,30

- Frecuencia absoluta acumulada de x*j ϵ S: Suma defrecuencias absolutas de valores inferiores o iguales ax*j. (Nj = n1 + n2 + … nj)

N1 = 15N2 = 15 + 20 = 35N3 = 15 + 20 + 35 = 70N4 = 15 + 20 + 35 + 30 = 100

- Frecuencia relativa acumulada de x*j ϵ S: Suma defrecuencias relativas de valores inferiores o iguales ax*j. ( F (x*j) = F(x*1) + F(x*2) + … F(x*n)F(x*1) = 0,15F(x*2) = 0,15 + 0,20 = 0,35F(x*3) = 0,15 + 0,20 + 0,35 = 0,7F(x*4) = 0,15 + 0,20 + 0,35 + 0,7 = 13. TABLA DE DISTRIBUCIÓN DE FRECUENCIAS.a) Variable categórica o numérica discreta.

X / n / x1 … xn xi ϵ S = {x*1, x*2, …x*k}

Continuando el mismo ejemplo:OBSERVACIÓN:Para las variables nominales notiene sentido calcularfrecuencias acumuladas.

b) Variable agrupada en intervalos.X / n / x1 … xn xi ϵ S → Se clasifican en K intervalosde la forma siguiente:Cj = (aj,bj] o Cj = [aj,bj) que deben ser disjuntos* ycubrir al conjunto S.

*disjunto: que no haya hueco entre ellos y queno se solapen.

A cada intervalo Cj se le asocia un número x*j que lorepresenta:x*j = ½ (aj + bj) → marca de clase

OBSERVACIÓNES: - Las clases pueden ser de amplitud distinta.- Agrupar en intervalos es una forma de categorizar unavariable numérica, pero supone pérdida de información.

4. REPRESENTACIÓNES GRÁFICAS.Ilustraciones que ayudan a visualizar la información quecontienen las observaciones de una variable.

a) Diagrama de barras. Para variables categóricas y numéricas discretas.*Construcción:Dados unos ejes de coordenadas; en abcisas se colocanlos posibles valores de la variable (x*1, … x*k) y sobrecada uno de ellos se levanta una línea perpendicularcuya altura sea igual o proporcional a la frecuenciaabsoluta o relativa de dicho valor.

b) Histograma. Para variables que previamente se han colocado enintervalos.*Construcción:Dados unos ejes de coordenadas; en abcisas se colocan losintervalos o clases en las que se ha agrupado la variable(C1 … xk) y sobre cada uno de ellos se levanta unrectángulo cuya área sea igual o proporcional a lafrecuencia absoluta o relativa de dicho intervalo.

c) Gráfico de sectores. Típico de variables categóricas.*Construcción:Dado un círculo, a cada una de las categorías de lavariable (x*1, x*2, … x*k) se le asigna un sector circularde amplitud proporcional a la frecuencia absoluta orelativa de dicha categoría.

d) Gráfico de caja y patas. Informa de la posición y simetría de una distribución dedatos numéricos. También identifica datos anómalos.

e) Diagrama de tallo y hojas .Informa sobre la forma de una distribución de datosnuméricos, e identifica datos anómalos. (Para que aporteinformación necesita al menos 5 tallos).

5. MEDÍDAS DESCRIPTIVAS.Valores que resumen la información contenida en lasobservaciones de una variable.

5.1. MEDÍDAS DE POSICIÓN. Determinan valores alrededor de los cuales se concentranlas observaciones.

- Media aritmética, mediana moda. (TENDENCIA CENTRAL)- Cuantiles, máximo, mínimo.

a) Media aritmética: Da una idea sobre el centro de unconjunto de datos numéricos.

OBSERVACIÓN: Está afectada por valores extremos.Ejemplo: X = crecimiento n = 5 46,48,46,8,47

b) Mediana: (me) valor que deja a su izquierda y a suderecha igual numero de observaciones, una vez ordenadasestas de menor a mayor.

8,46,46,47,48 → me = 468,46,46,47,48,50 → EN CASO DE SER Nº PAR me = (46 + 47) / 2 = 46,5

c) Moda: (mo) valor de la variable que tiene la máximafrecuencia en el conjunto de las observaciones.

8,46,46,47,48 → mo = 46 (VALOR QUE MÁS SE REPITE)

d) Cuantil: de orden α (Xα) Valor que dicide al conjunto dedatos ordenados de menor amayor en 3 partes, de formaque a su izquierda queda el (1 -α)100% de los datos y a su derecha el α100%.

- Mediana: 2 partes iguales (50% cada una) = me

- Cuartiles: 4 partes iguales (25% cada una) = Q1, Q2, Q3

- Deciles: 10 partes iguales (10% cada una) = d1, d2, …d9

- Tercentiles: 100 partes iguales (1% cada una) = P1,P2, …P99

e) Máximo: X(n) Mayor valor observadof) Mínimo: X(1) Menor valor observado X(1) ≤ X(2) ≤ …X(n)

5.2. MEDÍDAS DE DISPERSIÓN. Establecen valores que miden la variabilidad de los datosalrededor de un determinado valor (normalmente la medidaaritmética) permitiendo valorar la representatividad dedicho valor.

Ejemplo:

g) Rango o recorrido: Diferencia entre los valores másextremos de un conjunto de datos R = X(n) - X(1)

h) Varianza y cuasi-varianza: Miden la dispersión de unconjunto de datos numéricos en torno a su media aritmética.

- Datos originales: x1,X2, … xn

Varianza →

S21 = ½ [(1-5)2 + (9-5)2] = ½ x 32 =16

S22 = ½ [(4-5)2 + (6-5)2] = 1

Cuasi-Varianza →

- Datos agrupados en k clases: C1, x*1, n1, ... Ck, x*k,nk

Varianza →

Cuasi-Varianza →

OBSERVACIÓN: Se verifica →

i) Desviación típica y cuasi-desviación típica: Miden ladspersión de un conjunto de datos numéricos en torno a sumedida aritmética.

Desviación típica →

Cuasi-desviación típica →

S1 = √16 = 4 S2 = √1 = 1

j) Coeficiente de variación: Mide ladispersión de un conjunto de datos numéricos(en escala por ratio) en torno a su media

aritmética.

k) Rango intercuartílico: RI = Q3 - Q1

5.3. MEDÍDAS DE FORMA.Establecen valores que informan sobre determinados aspectosrelacionados con la forma de la distribución de datos, comopor ejemplo la asimetría y el apuntamiento. Para n datos numéricos, x1,X2, … xn,

a) Coeficiente de asimetría: →

A > 0 Asimetría positiva o a la derecha

A < 0 Asimetría negativa o a la izquierda

A ≈ 0 Simétrica

b) Coeficiente de Kurtosis: →K > 0 Más apuntada que la normal (Leptocustica)

K < 0 Menos apuntada que la normal (Platicustica)

K ≈ 0 Apuntamiento similar a la normal (Mesocustica)

6. DATOS ANÓMALOS.Un dato anómalo es aquel valor observado que es muypequeño/grande respecto de los demás valores. (Distorsionael valor de algunas medidas descriptivas).Dados n datos numéricos, X1,X2, … xn, uno de ellos esanómalo si cae fuera del intervalo

Tema 3: Análisis Bivariante.

1. INTRODUCCIÓN.El análisis multivariante es la aplicación de técnicasestadísticas para estudiar las relaciones que puedanexistir entre varias características (variables) observadasen unos individuos.Existe relación o asociación entre variables cuando elhecho de que una de ellas tome un valor concreto favorece odesfavorece que las otras tomen determinados valores.Si el análisis solo implica 2 variables, X e Y, se denominaanálisis bivariante → (X,Y) variable estadísticabidimensional.En descriptiva, existen las siguientes técnicas pararealizar un análisis bivariante: - representacionesgráficas.

- medidas de asociación.En algunos casos, para aplicar dichas técnicas, esnecesario construir la tabla de distribución de frecuenciasbivariante de la variable bidimensional en cuestión.

2. DISTRIBUCIÓN DE FRECUENCIAS BIVARIANTE.Sea (X,Y) una variable específica bidimensional observadaen n individuos, (X1,Y1), (X2,Y2), … (Xn,Yn) tal que conozca xi ϵ Sx = {x*1, x*2, … x*r} yj ϵ Sy = {y*1, y*2, …y*k}

TABLA DE CONTINGENCIA. (Página 20 del 201).

- Frecuencia absoluta del par (X*i,Y*j):Número de veces que se repite el par (X*i,Y*j) en elconjunto de pares de observaciones.

- Frecuencia relativa del par (X*i,Y*j):Cociente entre la frecuencia absoluta del par (X*i,Y*j) yel numero total de pares de observaciones.

- Frecuencia absoluta marginal de X*i (o Y*j):Número de veces que se repite el valor X*i (o Yj) sin teneren cuenta los valores de y (o x) Xi* → ni• Yj* → n•j

- Frecuencia absoluta marginal de X*i (o Y*j):Cociente entre la frecuencia absoluta marginal de X*i (oYj) y el número total de pares observados

Xi* → Yj* →

- Frecuencia absoluta de X*i (o Y*j) condicionado a Y*j (oX*i): Número de veces que se repite el valor X*i (o Yj) sabiendoque Y = Yj* (o X = Xi*)

- Frecuencia relativa de X*i (o Y*j) condicionado a Y*j (oX*i):Cociente entre la frecuencia absoluta marginal de X*i (oYj) condicionada a Y*j (o X*i) y la frecuencia absolutamarginal de Y*j (o X*i)

3. REPRESENTACIONES GRÁFICAS.Ilustraciones que ayudan a visualizar la información quecontienen las observaciones de una variable bidimensional.

a) Diagrama de barras. Para variables (X,Y) donde X e Y sonvariables categóricas y/o numéricas discretas.*Construcción:Dados unos ejes de coordenadas, en abcisas se colocan losposibles valores de la variable X (x*1, x*2, … x*r) y en elde ordenadas los de la variable Y (y*1, y*2, … y*k). En elpunto que representa cadapar (x*i, y*j) selevanta una líneaperpendicular cuyaaltura sea igual oproporcional a lafrecuencia absoluta orelativa de dicho par.

b) Histograma tridimensional. Para variables (X,Y) donde Xe Y son variables numéricas que previamente se han agrupadoen intervalos.*Construcción:Dados unos ejes de coordenadas, en abcisas se colocan lasclases en las que se ha agrupado la variable X (C1, C2,… Ck)y en el de ordenadas los de la variable Y (C1’, C2’,… Ck’).Sobre cada par declases (Ci,Cj’) selevanta un paralepípedocuyo volumen sea igual oproporcional a lafrecuencia absoluta orelativa de dicho par declases.

c) Diagrama de dispersión. . Paravariables (X,Y) donde X e Y sonvariables numéricas sin agrupar.*Construcción:

En unos ejes de coordenadas se representan los puntos queconstituyen cada par de observaciones.

4. MEDIDAS DE ASOCIACIÓN.Valores que informan sobre el grado de asociación existenteentre 2 variables. Dada una variable bidimensional (X,Y)observada en n individuos.(X1,Y1), (X2,Y2),… (Xn,Yn) existen diferentes medidas deasociación según la escala de medida de X e Y.

a) X e Y no numéricas.En este caso, se conoce xi ϵ Sx = {x*1, x*2, … x*r} yj ϵSy = {y*1, y*2, … y*k}Se tiene la tabla de contingencia, y las medidas propuestasse basan en la comparación para cada par de (x*i, y*j) desu:

Frecuencia observada (nij) Frecuencia esperada (Eij) en caso de no

asociación entre x e y.

- Coeficiente ji- cuadrado:donde t = min {(r -1), (k - 1)}

- Coeficiente de contingencia:

- V de Cramer:

b) X e Y numéricas sin agrupar.Se estudian dos medidas que miden el grado de asociaciónlineal existente entre dos variablesnuméricas.

- Covarianza : Sxy > 0 → relación lineal creciente o

positiva

Sxy < 0 → relación lineal decreciente o negativa

Sxy = 0 → no hay relación lineal

OBSERVACIONES:Expresión equivalente:

Depende de la unidad en que estén medidos los datos (xi,yj)

- Coeficiente de correlación lineal de Rearson .Es un número adimensional tal que rxy ϵ [-1,1]

rxy = +1 → relación lineal crecienteexacta

rxy = -1 → relación lineal decrecienteexacta

rxy = 0 → no hay relación lineal

0 < rxy < 1 → relación linealcreciente no exacta

-1 < rxy < 0 → relación lineal decreciente exacta

c) Coeficiente de correlación lineal de Spearman.Mide si entre dos variables X e Y (condicionales y/onuméricas) existe relación monótona, creciente odecreciente.Es el coeficiente de correlación lineal de los rangos delas observaciones (xi, yj)rSxy = rrxi ryi- Rango de una observación: Número de orden que ocupa en lamuestra de datos ordenada de forma creciente. (Ver Pag.12 del 201)

rSxy = +1 → relación monótona creciente exacta

rSxy = -1 → relación monótona decreciente exactarSxy = 0 → no hay relación monótona 0 < rSxy < 1 → relación monótona creciente no exacta-1 < rSxy < 0 → relación monótona creciente no exacta

Tema 4: Regrsión.

1. INTRODUCCIÓN.Entre variables (Y, X1, X2,… Xk) pueden existir relacionesde dependencia (relaciones causa-efecto) → la casualidad esalgo extraestadístico.

Y = f(X1, X2,… Xk)Estas relaciones permiten predecir los valores de labariable dependiente (Y) conocidos los valores de lasvariables independientes (X1, X2,… Xk).Distinguimos 2 tipos de dependencia:

- Dependencia funcional : Existe una expresiónmatemática que relaciona a las variables de formaexacta.

- Dependencia aleatoria : No existe una expresiónmatemática que relacione a las variables de formaexacta.Y = f(X1, X2,… Xk) + ε = Ŷ + εDonde ε es el término de error que representa laparte de la Y que no es explicada por las X.

La regresión es una técnica estadística cuyo objeto deestudio es la dependencia aleatoria, y se denomina:

- Regresión simple si K = 1- Regresión múltiple su K > 1

2. REGRESIÓN SIMPLE.Sea (X,Y) una variable bidimensional con X e Ynuméricas, observada en n individuos, (X1,Y1),(X2,Y2),… (Xn,Yn) siendo el correspondiente diagrama de dispersión, y

supongamos que se verifica

La regresión simple intenta ajustar una función de ecuaciónconocida a la nube de puntos.

Recta → f(x) = a + bxParábola → f(x) = a + bx + cx2

Exponencial → f(x) = a kbx

Potencial → f(x) = a Xb

… etcAdaptando el nombre de la función elegida (lineal,parabólica…)El ajuste consiste en determinar el valor de los parámetrosque aparecen en la ecuación de la función elegida, a partirde las observaciones de la variable (X,Y). Dichosparámetros se denominan coeficientes de regresión.

- Método de mínimos cuadrados ordinarios (MCO).Establece como valores para losparámetros de la función elegidaaquellos que hacen mínimo la suma deerrores al cuadrado.

En caso de la regresión lineal simple [Y= a + bx + ε] es 3. COEFICIENTE DE DETERMINACIÓN.Indicador que determina el grado de ajuste de un modeloestimado a la nube de puntos. Concretamente mide el % de lavariabilidad de la variable dependiente que esexplicado por la(s) independiente(s).Suponiendo que Y sea la variable dependiente, suexpresión es:Es un número adimensional tal que R2 ϵ [0,1]Interpretación:

- Si S2ŷ = 0 → la(s) variable(s) independiente(s) noexplica(n) nada de la varianza de la dependiente.

- Si S2ŷ = S2y → la(s) variable(s) independiente(s)explica(n) toda la varianza de la dependiente(ajuste perfecto)

A partir de 0,8 se considera un ajuste aceptable; explicasuficiente.Observación:En regresión lineal simple (con término independiente) severifica que R2 = r2xy