métodos de diseño y análisis de experimentos iiniciador del analisis y dise´ no de experimentos,...
TRANSCRIPT
Metodos de Diseno y Analisis deExperimentos I
Patricia Isabel Romero Mares
Departamento de Probabilidad y EstadısticaIIMAS UNAM
enero 2020
1 / 82
Introduccion
Criterios de clasificacion de investigaciones
• Segun el proposito son Descriptivos o Comparativos
• Segun la evolucion son Transversales o Longitudinales
• Segun la fuente de informacion son Prospectivos oRetrospectivos
• Segun el control del investigador son Observacionales oExperimentales
2 / 82
Introduccion
• Experimento
• Estudio comparativo, 2 o mas poblaciones• Longitudinal• Prospectivo• Experimental
• Psudoexperimento o Cuasiexperimento
• El investigador solo observa el fenomeno, es observacionalen lugar de experimental
3 / 82
Introduccion
Estadıstica: Ciencia para recolectar, analizar y obtenerconclusiones de un conjunto de datos.
Los datos se recolectan a traves de encuestas por muestreo,estudios observacionales o experimentos.
Encuestas por muestreo: Estimar alguna caracterıstica de unapoblacion finita sin medir a todos los elementos de la poblacion(censo).
Estudios observacionales y experimentos: Determinar larelacion entre dos o mas caracterısticas en una poblacionconceptual (infinita).
4 / 82
Introduccion
R.A. Fisher, en la decada de los 20’s del siglo pasado, fue eliniciador del Analisis y Diseno de Experimentos, conexperimentos en Inglaterra en el area de agricultura.
De ahı se generalizaron al area de Medicina.
En la decada de los 80’s, tambien del siglo pasado, tuvieron unauge en la Industria, cuando surgio la escuela de Taguchi deControl de Calidad de procesos industriales.
5 / 82
Introduccion
En un experimento se consideran todas las variables relevantesque intervienen en el fenomeno, mediante la manipulacion delas que presumiblemente son su causa, el control de lasvariables extranas y la aleatorizacion de las restantes.
Se utilizan los experimentos para contestar preguntas,comparando varias situaciones generadas por variablesrelevantes (tratamientos).
6 / 82
Introduccion
Ventajas de los experimentos
• Los experimentos nos permiten hacer una comparaciondirecta entre los tratamientos de interes
• Podemos disenar experimentos para minimizar cualquiersesgo en la comparacion
• Podemos disenar experimentos para que el error en lacomparacion sea pequeno
• Lo mas importante, tenemos el control en losexperimentos, lo que nos permite tener inferencias massolidas acerca de la naturaleza de las diferencias queveamos, especıficamente, podemos hacer inferenciasacerca de causalidad
7 / 82
Introduccion
Los experimentos se realizan en muchas areas deinvestigacion, algunos ejemplos son:
Veterinaria. Se desea saber cual de cuatro dietas diferentesA,B,C y D proporciona mayor ganancia de peso en cerdos.
Biologıa. Se desea saber cual es el efecto en el crecimientode las plantas de centeno de la aplicacion de ciertas dosis deradiacion en presencia de uno de tres radioprotectores.
Agricultura. Se desea saber cual es el mejor fertilizante de ungrupo de cinco, en cuanto a rendimiento de plantas de maız.
Industria. Se desea comparar la eficiencia de tres maquinasde hilados. La eficiencia se mide como un ındice entre eltiempo que tarda la maquina en hilar una tela de cierto tamanoentre el numero de errores.
8 / 82
Introduccion
Medicina. Se desea investigar el funcionamiento de ciertadroga para aliviar el dolor de cabeza.
Experimento. Es un tipo de investigacion en el que se hacencambios a las variables bajo estudio y se observan los efectosde estos cambios.
El diseno estadıstico de experimentos es el proceso de“planear” el experimento de tal manera que se puedananalizar por metodos estadısticos los datos recolectados yque resulten en conclusiones objetivas y validas.
9 / 82
Lineamientos para disenar experimentos
1. Reconocimiento y establecimiento del problema.
Esto se hace preferentemente por un equipointerdisciplinario con un estadıstico en el.
• En el ejemplo de agricultura.
Cual de los cinco fertilizantes produce mayor rendimientoen las plantas de maız de cierto tipo definido?
Estos cinco fertilizantes modifican su accion segun el tipode maız?. Hay interaccion?
Que dosis de fertilizante es mas efectiva para aumentar elrendimiento?
10 / 82
Lineamientos para disenar experimentos
2. Definir factores, niveles. Equipo interdisciplinario.
• Factor: es la caracterıstica que controlaremos, cuyo efectoqueremos estudiar.En el ejemplo, un solo factor: Fertilizante.
• Nivel: es la categorıa (modalidad) estudiada del factor.En el ejemplo, cinco niveles: fertilizante A, B, C, D y E.
• Tratamiento: Combinacion de niveles de los factoresestudiados. Otro ejemplo,
Factor fertilizante: A,B,C,D,E.
Factor Cantidad de agua: 1,2,3.
Tratamientos: A1, B1,...,E3.
11 / 82
Lineamientos para disenar experimentos
Es importante considerar un tratamiento que es no recibirningun fertilizante o recibir el habitual, a este se le llama:
tratamiento testigo o control.
12 / 82
Lineamientos para disenar experimentos
3. Definir la unidad experimental (u.e.)
La unidad experimental es la subdivision menor delmaterial experimental que puede recibir un tratamiento enforma independiente.
13 / 82
Lineamientos para disenar experimentos
Submuestras. Cuando la u.e. esta compuesta de unidadesobservacionales mas elementales, a estas se les llamasubmuestras.
Por ejemplo, la u.e. es un grupo de alumnos, la unidadobservacional es el alumno y se mide a cada uno de ellos.
Las mediciones en las submuestras generalmente estancorrelacionadas y no pueden ser tratadas como observacionesindependientes.
14 / 82
Lineamientos para disenar experimentos
4. Definir la variable de respuesta.
La variable de respuesta es lo que se va a medir en cadaunidad experimental.
Se debe estar seguro que de informacion util acerca delfenomeno estudiado.
En el ejemplo, Kg. de maız
No es raro que se mida mas de una variable de interesprimario: kg. de maız, kg. de hojas, etc.
15 / 82
Lineamientos para disenar experimentos
Se debe tener cuidado en la toma de las mediciones paraeliminar sesgos introducidos por operaciones conscientes oinconscientes.
En medicina, se recomienda que ni los sujetos (u.e.) ni losmedicos que toman las mediciones conozcan los tratamientosasignados a cada u.e., a esto se le llama metodo de dobleciego.
16 / 82
Lineamientos para disenar experimentos
5. Eleccion del diseno experimental.
El diseno experimental es la forma de asignar lostratamientos a las unidades experimentales.
El diseno determina el modelo y el analisis estadıstico aseguir.
Aleatorizacion. Introducida por Fisher, sirve para“controlar” factores de variacion (de confusion) no incluidaen el modelo en forma explıcita. Se busca eliminar sesgossistematicos y justificar la independencia de los errores.
17 / 82
Lineamientos para disenar experimentos
Otro ejemplo en Agronomıa:
Aleatorizamos dentro de cada bloque (una restriccion a laaleatorizacion). Cada uno de los tratamientos los tenemos encada una de las dos condiciones de terreno.
18 / 82
Lineamientos para disenar experimentos
5. Eleccion del diseno experimental.
Un bloque es un grupo de u.e. mas o menos homogeneas.
El uso de bloques es la inclusion en el diseno (modelo) deun factor que, aunque no es de interes, se sabe que puedecausar una fuerte variacion en las u.e.
En general, los factores de bloqueo mas importantes sonlas posiciones en el tiempo y en el espacio.
El uso de bloques tiene como objetivo el control defactores de variacion en forma explıcita en el modelo,disminuyendo ası la varianza de los errores.
19 / 82
Lineamientos para disenar experimentos6. Determinacion del numero de repeticiones.
Las repeticiones (replicas) son el numero de u.e. a las quese les aplica, en forma independiente, un mismotratamiento.
• Dan una estimacion de la varianza del error experimental• Incrementan la precision del experimento. A mayor numero
de repeticiones menor la varianza de los estimadores.
7. Hacer el experimento y colectar datos.
El estadıstico solo asesora.
8. Efectuar el analisis estadıstico.
9. Obtencion de conclusiones.
El estadıstico auxilia.
20 / 82
Error experimental
El error experimental describe la variacion entre u.e. identica eindependientemente tratadas.
Se origina por:1. Variacion natural entre u.e.2. Variabilidad en la medicion de la respuesta3. Incapacidad de reproducir las condiciones de los
tratamientos exactamente de una u.e. a otra4. Interaccion de tratamientos y u.e.5. Cualquier otro factor externo que afecte las caracterısticas
medidas
21 / 82
Error experimental
Lo que se busca es tener un diseno del experimento queminimice el efecto del error experimental.
Hay ciertos aspectos del diseno que hacen esto y que veremosmas adelante. Aleatorizacion, repeticion y bloqueo.
22 / 82
Repaso
Una variable es la caracterıstica numerica de interes que semide en los resultados de un estudio, puede ser la respuesta auna pregunta de un cuestionario, la medicion de algunacaracterıstica de interes.
Se llama variable aleatoria (v.a.) cuando se esta trabajandocon fenomenos aleatorios (aquellos en que no se sabepreviamente cual es el resultado). Denotemos por X una v.a. yx un valor especıfico que toma la v.a.
Variable aleatoria discreta, cuando solo puede tomar valoresdiscretos.
Variable aleatoria continua, cuando puede tomar cualquiernumero real en algun intervalo.
24 / 82
Repaso
Una v.a. esta completamente especificada por su distribucionde probabilidad asociada al conjunto de valores posibles, lacual se describe a traves de la funcion de densidad (deprobabilidad).
Sea fX(x) la funcion de densidad de una v.a. X. Para a y b dosconstantes reales tales que a < b, la probabilidad de obtener unvalor de X entre a y b es
P(a < X < b) =∫ b
afX(x)dx.
25 / 82
Repaso
Las funciones de densidad deben satisfacer dos condiciones:
fX(x)≥ 0 ∀x∫∞
−∞
fX(x)dx = 1
26 / 82
Repaso
La media o valor esperado de una v.a. X, se define (para v.a.continuas) como:
E(X) =∫
∞
−∞
x fX(x)dx.
La media es una medida de localizacion.
La varianza de una v.a., V(X), se define como:
V(X) = E{[X−E(X)]2
}V(X) = E
[X2−2XE(X)+E(X)2]= E(X2)−E(X)2
E(X2) = E(X)2 +V(X)
27 / 82
Repaso
Media y varianza de sumas de variables aleatorias.
Sean a, b y c constantes reales y sean X y Y v.a.independientes, entonces:
E(aX+bY + c) = aE(X)+bE(Y)+ c
V(aX+bY + c) = a2V(X)+b2V(Y).
28 / 82
Repaso
El objetivo de la inferencia estadıstica es obtener conclusionesacerca de una poblacion usando una muestra de esapoblacion.
Muestra aleatoria. Sean n variables aleatorias X1,X2, . . . ,Xn
independientes, todas con la misma funcion de densidad fX(x).Se dice que X1,X2, . . . ,Xn es una muestra aleatoria de tamano nde fX(x). La densidad conjunta de las n variables aleatorias es:
g(x1,x2, . . . ,xn) = f (x1)f (x2) · · · f (xn)
Nota. X1,X2, . . . ,Xn son v.a.i.i.d. y forman unamuestra aleatoria de f (x)
29 / 82
Repaso
Estadıstica. Una funcion de la muestra que no contieneparametros desconocidos.
Estimador. Es una estadıstica utilizada para estimar unparametro desconocido de la poblacion.
Estimacion. Es un valor numerico particular de un estimador,calculado en una muestra.
30 / 82
Repaso
Hay algunas caracterısticas que se requieren para ser un buenestimador. Dos de las mas importantes:
1. Insesgamiento. Un estimador es insesgado cuando suvalor esperado es el parametro que esta estimando.Aunque es deseable el insesgamiento, esta propiedad porsi sola no garantiza un buen estimador.
2. Varianza mınima. El estimador de varianza mınima tieneuna varianza que es menor que la de cualquier otroestimador del parametro.
31 / 82
Repaso
Suponga y1,y2, . . . ,yn una m.a. de fY(y) con E(yi) = µ yV(yi) = σ2.
Sean y = ∑ni=1 yin y S2 = ∑
ni=1(yi−y)2
n−1 dos estimadores.
E(y) = E(
∑ni=1 yi
n
)=
1n
E
(n
∑i=1
yi
)
=1n
n
∑i=1
E(yi)
=1n
nµ = µ
y es un estimador insesgado de µ.
32 / 82
Repaso
E(S2) = E
[n
∑i=1
(yi− y)2
n−1
]
=1
n−1E
[n
∑i=1
(yi− y)2
]=
1n−1
E [SS]
donde SS = ∑ni=1(yi− y)2 es la Suma de Cuadrados corregida
de las observaciones.
E (SS) = E
[n
∑i=1
(yi− y)2
]
= E
[n
∑i=1
y2i −ny2
]
=n
∑i=1
E(y2i )−nE(y2)
33 / 82
Repaso
Por otro lado:
V(y) = E[(y−E(y))2]
= E[y2−2yE(y)+ [E(y)]2
]= E
[y2]−2E(y)E(y)+ [E(y)]2
= E[y2]− [E(y)]2
σ2 = E
[y2]−µ
2
por lo tanto
E(y2) = σ2 +µ
2
34 / 82
RepasoY por otro:
V(y) = V
(1n
n
∑i=1
yi
)=
1n2 V
(n
∑i=1
yi
)
=iid 1n2
n
∑i=1
V(yi)
=1n2 nσ
2 =σ2
n.
Entonces,
V (y) = E(y2)− [E(y)]2
E(y2) = V(y)+ [E(y)]2
= σ2/n+µ
2.
35 / 82
RepasoRegresando,
E (SS) =n
∑i=1
E(y2i )−nE(y2)
=n
∑i=1
(µ2 +σ2)−n(µ2 +σ
2/n)
= nµ2 +nσ
2−nµ2−σ
2
= (n−1)σ2
Por lo tanto,
E(S2)= 1
n−1E (SS) =
1n−1
(n−1)σ2 = σ2
S2 es un estimador insesgado de σ2.
36 / 82
Repaso
Distribucion muestral.
Es la distribucion de probabilidad de una estadıstica.
Se puede determinar la distribucion muestral de unaestadıstica si conocemos la distribucion de probabilidad de lapoblacion de la que se extrajo la muestra.
37 / 82
NormalSi y∼ N(µ,σ2) entonces:
f (y) =1
σ√
2πe−
12σ2 (y−µ)2
−∞ < y < ∞
−∞ < µ < ∞
σ2 > 0
5 10 15 20
0.1
0.2
0.3
0.4
NH10,9L
NH10,4L
NH10,1L
39 / 82
Normal
Caracterısticas
1. Es simetrica respecto a su media2. Media, mediana y moda son iguales
Entre (µ−σ ,µ +σ) esta aproximadamente el 68% del areabajo la curva.
Entre (µ−2σ ,µ +2σ) esta aproximadamente el 95% del areabajo la curva.
Entre (µ−3σ ,µ +3σ) esta aproximadamente el 99% del areabajo la curva.
40 / 82
Normal
Si y∼ N(µ,σ2) entonces:
z =y−µ
σ∼ N(0,1)
A la distribucion N(0,1) se le llama normal estandar ycomunmente se utiliza la letra Z para denotar a una variablecuya distribucion de probabilidad es la N(0,1).
fZ(z) =1√2π
e−z2
2 −∞ < z < ∞
41 / 82
Normal
Media y varianza de una muestra aleatoria normal.
Sea X1,X2, . . . ,Xn una muestra aleatoria de una distribucionN(µ,σ2).
Sea X la media muestral y S2 la varianza muestral, es decir,
X =1n
n
∑i=1
Xi, S2 =1
n−1
n
∑i=1
(Xi− X
)2.
X ∼ N(µ,σ2/n)
(n−1)S2
σ2 ∼ χ2n−1
42 / 82
Normal
Existen tablas construidas para la Normal estandar queproporcionan el area bajo la curva en ciertas regiones.
Ejemplos de determinacion de probabilidades en N(0,1) con R:
P[0 < z < 2] = P[z < 2]−P[z < 0]
= pnorm(2)−pnorm(0)
= 0.97725−0.5 = 0.47725
43 / 82
Normal
P[z≥ 2.71] = 1−P[z < 2.71]
= 1−pnorm(2.71)
= 1−0.9972 = 0.0028
P[|z|> 1.96] = P[z <−1.96]+P[z > 1.96]
= pnorm(−1.96)+1−P[z < 1.96]
= 0.025+1−pnorm(1.96)
= 0.025+1−0.975 = 0.05
44 / 82
Normal
Ejemplos de obtencion de porcentiles en N(0,1).
Obtener el porcentil 2.5; el porcentil 2.5 es el valor de z quedeja a su izquierda una area de 0.025, es decir, encontrar elvalor de z tal que P[z < P2.5] = 0.025.
45 / 82
Normal
Con R:P2.5 = qnorm(0.025) =−1.96
Obtener los porcentiles que, entre ellos, se encuentra una areadel 99% en el centro de la distribucion.
P0.005 = qnorm(0.005) =−2.57
P0.995 = qnorm(0.995) = 2.57
Otro ejemplo,Suponga que el IQ tiene aproximadamente una distribucionnormal con media 100 y desviacion estandar 16.
Sea X = IQ de una persona, X ∼ N(100,162)
46 / 82
Normal
Cual es la probabilidad de que una persona tenga un valor deIQ de al menos 120?
En R:
P[X > 120] = 1−P[X < 120] = 1−pnorm(120,100,16)
= 1−0.89 = 0.11
P[X > 120] = pnorm(120,100,16,FALSE) = 0.11
47 / 82
Normal
Cual es la probabilidad de que una persona tenga un IQ demenos de 84?
En R:P[X < 84] = pnorm(84,100,16) = 0.16
Cual es el valor de IQ que solo el 1% de la poblacion tienevalores mayores que el? Es decir, encontrar el valor de P.99,P[X < P.99] = 0.99.En R:
P.99 = qnorm(0.99,100,16) = 137.22
48 / 82
Ji-cuadrada
Una distribucion muestral que se puede definir a traves de v.a.normales es la distribucion Ji-cuadrada χ2
Si Z1,Z2, . . . ,Zk son v.a.i.i.d. N(0,1) entonces:
X = Z21 +Z2
2 + . . .+Z2k
tiene una distribucion χ2k .
La densidad tiene la forma:
f (x) =1
2k/2Γ( k2)
xk/2−1e−x/2 x > 0
dondeΓ(z) =
∫∞
0tz−1e−tdt
49 / 82
Ji-cuadrada
La distribucion es asimetrica con µ = k y σ2 = 2k.
Un ejemplo de v.a. con distribucion Ji-cuadrada es el siguiente:
Suponga que y1,y2, . . . ,yn es una m.a. de N(µ,σ2), entonces:
SSσ2 =
∑ni=1(yi− y)2
σ2 ∼ χ2n−1
51 / 82
t-Student
Si Z tiene distribucion normal estandar y X tiene distribucion χ2k
y Z y X son independientes, entonces la v.a.
T =Z√X/k∼ tk
La funcion de densidad tiene la forma:
f (t) =Γ[(k+1)/2]√
kπΓ(k/2)1
[(t2/k)+1](k+1)/2 −∞ < t < ∞
La distribucion es simetrica con µ = 0 y σ2 = k/(k−2) parak > 2.
52 / 82
t-Student
Un ejemplo de v.a. con distribucion t es:
Si y1,y2, . . . ,yn es una m.a. de N(µ,σ2) entonces:
t =y−µ
S/√
n∼ tn−1
donde,
S =
√∑
ni=1(yi− y)2
n−1
54 / 82
Distribucion F
Si χ2u y χ2
v son dos v.a. χ2 independientes con u y v g.l.respectivamente, entonces
F =χ2
u/uχ2
v /v∼ Fu,v
55 / 82
Distribucion F
Como ejemplo de una estadıstica que se distribuye como F,suponga que tenemos dos poblaciones normalesindependientes con varianza comun σ2, es decir,
y11,y12, . . . ,y1n1 es una m.a. de la primera poblacion
y21,y22, . . . ,y2n2 es una m.a. de la segunda poblacion
entonces,S2
1
S22∼ Fn1−1,n2−1
donde
S21 =
∑n1i=1(y1i− y1)
2
n1−1y S2
2 =∑
n2i=1(y2i− y2)
2
n2−1
56 / 82
Distribucion F
Sabemos que:
S21 =
SS1
n1−1y S2
2 =SS2
n2−1
ySS1
σ2 =(n1−1)S2
1σ2 ∼ χ
2n1−1
SS2
σ2 =(n2−1)S2
2σ2 ∼ χ
2n2−1
Por lo tanto:
(n1−1)S21
(n1−1)σ2
(n2−1)S22
(n2−1)σ2
∼ Fn1−1,n2−1
57 / 82
Procedimiento general
1. Haga algunas suposiciones en sus datos2. Escriba una hipotesis nula H0 y una alternativa Ha
3. Calcule una estadıstica de prueba4. Pregunte: ¿El valor observado de la estadıstica de prueba
es compatible con la hipotesis nula?
Si no entonces rechazar la hipotesis nula.
Si sı entonces no rechazar la hipotesis nula.
59 / 82
Un ejemploUn ingeniero desea comparar la resistencia de una formulamodificada de cemento a la cual se le agrega latex durante elmezclado. Se tienen diez observaciones de la resistencia parala formula modificada y otras diez para la formula usual.
mezcla modificada mezcla sin modificarj kgf/cm2 (y1j) kgf/cm2 (y2j)
1 16.85 17.502 16.40 17.633 17.21 18.254 16.35 18.005 16.52 17.866 17.04 17.757 16.96 18.228 17.15 17.909 16.59 17.96
10 16.57 18.15 60 / 82
Primero un ejemplo
Factor: formula con dos niveles: modificada(1) y usual(2). Dostratamientos 10 repeticiones y1 = 16.76 y y2 = 17.92.
61 / 82
Primero un ejemplo
Los promedios de resistencia son diferentes entre estas dosmuestras, sin embargo, no es obvio que esta diferencia sea losuficientemente grande para que implique que las dos formulasson “realmente” diferentes.
Tal vez esta diferencia observada en los promedios deresistencia es el resultado de fluctuaciones muestrales y quelas dos formulas son realmente iguales. Posiblemente otrasdos muestras podrıan dar resultados opuestos.
Para probar si las dos formulas son iguales o no, se utiliza unatecnica de estadıstica inferencial llamada Prueba de Hipotesis,la cual permite hacer la comparacion de las dos formulas enterminos objetivos, con el conocimiento del riesgo asociado allegar a una conclusion erronea.
62 / 82
Prueba de hipotesis con un ejemplo
Primero, necesitamos establecer un modelo para los datos:
yij = µi + εij i = 1,2 j = 1, . . . ,10
donde
yij es la j-esima observacion del i-esimo tratamiento
µi es la media de la respuesta en el tratamiento i, i = 1,2
εij es el error asociado a la ij-esima observacion.
Suponga que εij ∼ NID(0,σ2) i = 1,2 j = 1, . . . ,10.
Esto implica que
yij ∼ NID(µi,σ2) i = 1,2 j = 1, . . . ,10.
63 / 82
Prueba de hipotesis con un ejemplo
Lo que interesa probar es:
H0 : µ1 = µ2 hipotesis nulavs.
Ha : µ1 6= µ2 hipotesis alternativa dos colasµ1 < µ2 o µ1 > µ2
Para probar una hipotesis necesitamos una estadıstica deprueba, su distribucion muestral y especificar una region derechazo o region crıtica, que es el conjunto de valores de laestadıstica de prueba que llevan a rechazar la hipotesis nula.
64 / 82
Prueba de hipotesis con un ejemplo
Se pueden cometer dos tipos de error al probar una hipotesis:
situacion real (desconocida)H0 es cierta H0 no es cierta
rechazar H0 error Tipo I 3
conclusionestadıstica
no rechazar H0 3 error Tipo II
α = P(error tipo I) = P(rechazar H0 |H0 es cierta)
β = P(error tipo II) = P(no rechazar H0 |H0 no es cierta)
65 / 82
Prueba de hipotesis con un ejemplo
El procedimiento general en pruebas de hipotesis esespecificar un valor de α, llamado nivel de significancia de laprueba y disenar el procedimiento de tal manera que β seapequeno.
Regresando al ejemplo.
y1 = 16.764 y2 = 17.992
S1 = 0.3164 S2 = 0.2479
S21 = 0.100 S2
2 = 0.061
n1 = 10 n2 = 10
66 / 82
Construccion de la estadıstica de prueba
Suponga, por el momento, que las varianzas de las dospoblaciones son iguales. Es decir,
y1j ∼ NID(µ1,σ2) y2j ∼ NID(µ2,σ
2) j = 1, . . . ,10
y1 ∼ N(µ1,σ2/n1) y2 ∼ N(µ2,σ
2/n2)
Si las dos poblaciones son independientes, entonces:
y1− y2 ∼ N(
µ1−µ2,σ2(
1n1
+1n2
))y1− y2−(µ1−µ2)
σ
√1n1+ 1
n2
∼ N (0,1)
67 / 82
Construccion de la estadıstica de prueba
Si σ2 es conocida y si H0 : µ1 = µ2 es cierta, entonces:
z0 =y1− y2
σ
√1n1+ 1
n2
∼ N (0,1)
Si no conocemos σ2, entonces se utiliza la estadıstica deprueba:
t0 =y1− y2
Sp
√1n1+ 1
n2
∼ tn1+n2−2
donde,
S2p =
(n1−1)S21 +(n2−1)S2
2n1 +n2−2
(pooled)
68 / 82
Region de rechazo
Para determinar la region de rechazo, es decir, los valores dela estadıstica de prueba que llevan a rechazar H0, se fijaprimero el nivel de significancia α.
69 / 82
Region de rechazo
Se compara t0 con t1−α/2n1+n2−2 porcentil (1−α/2) de la distribucion
t con n1 +n2−2 g.l.
Si |t0|> t1−α/2n1+n2−2 se rechaza H0.
Esto es, si H0 es cierta entonces t0 ∼ tn1+n2−2 y esperarıamosque el 100(1−α)% de los valores de t0 cayeran entre tα/2 yt1−α/2.
Si una muestra produce un valor de t0 fuera de estos lımites,serıa “extrano” si la hipotesis nula es cierta, por lo que esevidencia de que H0 se debe rechazar.
70 / 82
De vuelta al ejemplo
Haciendo los calculos del ejemplo:
t0 =y1− y2
Sp
√1n1+ 1
n2
=16.76−17.92
0.284√
210
=−9.13
Si fijamos α = 0.05 entonces rechazamos H0 si
|t0|> t0.97518 = 2.101
Como 9.13 > 2.101 entonces, rechazamos H0 al 5% de nivel designificancia. Y concluımos que en promedio, la resistencia delas dos formulas es diferente.
71 / 82
p-value
Esta es una forma de reportar los resultados, es decir, lahipotesis nula se rechazo o no se rechazo a un nivel designificancia α especificado.
Sin embargo, esto no da al investigador idea de si el valorcalculado de la estadıstica de prueba estaba en la frontera dela region crıtica o si estaba muy adentro de esta. Para eliminaresta deficiencia se utiliza el p-value.
72 / 82
p-value (valor p)
El p-value (significancia observada) es la probabilidad, si lahipotesis nula es cierta, de que la estadıstica de prueba resulteen un valor tan extremo como el observado o mas.
73 / 82
p-value
En el ejemplo anterior, la integral de menos infinito a -9.13(igual a la integral de 9.13 a infinito) es 1.77784x10−8.
Entonces el p-value serıa este valor por 2, es decir,
p− value = 1.77784x10−8(2) = 3.5556x10−8.
74 / 82
Suposiciones de la prueba t
• Ambas muestras provienen de poblaciones independientesy que pueden ser descritas por distribuciones normales.
• Las varianzas de ambas poblaciones son iguales.
• Las observaciones son independientes.
75 / 82
Intervalos de confianza
Aunque las pruebas de hipotesis son una herramienta muy util,algunas veces no dan todo el panorama. A veces es preferibledar un intervalo en el que esperamos que este el verdaderovalor del parametro. O puede suceder que el investigador yasabe que las medias µ1 y µ2 son diferentes, pero quiere saberque tan diferentes pueden ser.
Suponga que θ es un parametro desconocido. Para construirun intervalo de confianza para θ necesitamos dos estadısticasL y U tales que:
P(L≤ θ ≤ U) = 1−α
El intervalo (L,U) es llamado intervalo del (1−α)100% deconfianza para el parametro θ .
76 / 82
Intervalos de confianza
La interpretacion de este intervalo es:
Si en un numero grande de muestreos repetidos se construyenintervalos de confianza para θ , entonces el (1−α)100% deestos contendran al verdadero valor de θ .
L y U son los lımites de confianza, inferior y superior.
1−α es el coeficiente de confianza.
Los intervalos de confianza tienen una interpretacionfrecuentista, esto es, no sabemos si la aseveracion es ciertapara esta muestra especıfica, pero sabemos que elprocedimiento usado para calcular el intervalo de confianzaproduce aseveraciones correctas el (1−α)100% de las veces.
77 / 82
Intervalos de confianza
Para el caso que estamos tratando de dos poblacionesnormales independientes, el intervalo de confianza para µ1−µ2se construye de la siguiente manera:
y1− y2− (µ1−µ2)
Sp
√1n1+ 1
n2
∼ tn1+n2−2
P
−t(1−α/2)n1+n2−2 ≤
y1− y2− (µ1−µ2)
Sp
√1n1+ 1
n2
≤ t(1−α/2)n1+n2−2
= 1−α
78 / 82
Intervalos de confianza
P
(y1− y2− t(1−α/2)
n1+n2−2Sp
√1n1
+1n2
≤ µ1−µ2
≤ y1− y2 + t(1−α/2)n1+n2−2Sp
√1n1
+1n2
)= 1−α
79 / 82
Intervalos de confianzaUn intervalo del (1−α)100% de confianza para µ1−µ2 es:[(y1− y2)− t(1−α/2)
n1+n2−2Sp
√1n1
+1n2
,(y1− y2)+ t(1−α/2)n1+n2−2Sp
√1n1
+1n2
]
Regresando al ejemplo del problema del cemento:
y1 = 16.76 y2 = 17.92
Sp = 0.284 n1 = n2 = 10
t0.97518 = 2.101
El intervalo es: (−1.43,−0.89).
Note que si el valor 0 (cero) no esta incluıdo en el intervaloimplica que los datos no sostienen la hipotesis de que µ1 = µ2al 5% de nivel de significancia.
80 / 82
Prueba de hipotesis cuando σ21 6= σ2
2
Si estamos probando
H0 : µ1 = µ2 vs. Ha : µ1 6= µ2
y no podemos suponer que las varianzas σ21 y σ2
2 son iguales,la prueba t se modifica. La estadıstica de prueba es ahora:
t0 =y1− y2√
S21
n1+
S22
n2
.
Esta estadıstica no se distribuye exactamente como una t. Sinembargo, se aproxima muy bien a una t si usamos comogrados de libertad:
ν =
(S2
1n1+
S22
n2
)2
(S21/n1)
2
n1−1 +(S2
2/n2)2
n2−1
81 / 82