• Barajar
    Activar
    Desactivar
  • Alphabetizar
    Activar
    Desactivar
  • Frente Primero
    Activar
    Desactivar
  • Ambos lados
    Activar
    Desactivar
  • Leer
    Activar
    Desactivar
Leyendo...
Frente

Cómo estudiar sus tarjetas

Teclas de Derecha/Izquierda: Navegar entre tarjetas.tecla derechatecla izquierda

Teclas Arriba/Abajo: Colvea la carta entre frente y dorso.tecla abajotecla arriba

Tecla H: Muestra pista (3er lado).tecla h

Tecla N: Lea el texto en voz.tecla n

image

Boton play

image

Boton play

image

Progreso

1/185

Click para voltear

185 Cartas en este set

  • Frente
  • Atrás
las variables cualitativas ordinales también se llaman...
cuasicuantitativas
tipo de escala de medida que tienen el origen (0) como ausencia
cuantitativa de razón
en las escalas de medida cuantitativas de INTERVALO, el origen es...
arbitrario (0 arbitrario, no como ausencia de)
para los tests contraste de hipótesis paramétricas se utilizan variables...
cuantitativas

y siguen distribución normal
índice más utilizado para medir intensidad de una relación lineal entre variables
correlación de Pearson
para dos vv cuantitativos
límites de la covarianza
-infinito y +infinito

por eso se utiliza Pearson, con límites -1 y +1
el índice de correlación de Pearson se calcula con las...
puntuaciones típicas

es la raíz cuadrada de la varianza común (coeficiente de determinación). porque coeficiente de determinación es pearson al cuadrado
si se realiza transformación lineal de alguna de las vv y las constantes multiplicadoras son del mismo signo, pearson...
no se altera.

si son de signos diferentes, pearson también lo será
cuanta más variabilidad (en una o las dos variables), la correlación de pearson...
aumenta (Su valor absoluto)

cuanta mayor restricción de rango, menos valor absoluto de Pearson
si la relación entre dos variables no es lineal, el índice para calcular la relación es...
la razón de correlación
coeficiente de correlación derivado de Pearson:
para dos variables dicotómicas
coef de correlación Phi
coeficiente de correlación derivado de Pearson: para dos variables, una dicotómica y la otra cuantitativa
biserial puntual
coeficiente de correlación derivado de Pearson: dos variables cuantitativas, una de ellas dicotomizada artificialmente
correlación biserial
coeficiente de correlación derivado de Pearson: para dos variables cuantitativas artificialmente dicotomizadas
correlación tetracórica
correlación sin tener en cuenta el efecto de una tercera variable
correlación parcial

reduce más la varianza de error que la semiparcial
correlación entre x y otras variables consideradas conjuntamente
correlación múltiple
correlación quitando el efecto de la variable extraña sobre la variable predictora, no sobre la criterio
correlación semiparcial

el valor de la semiparcial siempre será menor que el de la parcial
la correlación parcial, semiparcial y múltiple es para variables...
cuantitativas
coeficiente de correlación para vv ordinales, ningun empate
coef. de correlación de Kendall
coeficiente de correlación para vv ordinales, escasos empates
coef. de correlación de Spearman
coeficiente de correlación para vv ordinales, muchos empates
coeficiente de correlación gamma de Goodman y Kruskal
relación entre variables nominales, con más de dos modalidades cada una
coeficiente chi-cuadrado
a mayor (f empírica - f teórica) en chi-cuadrado,...
mayor relación o dependencia entre variables
si "n" es grande, el coeficiente chi-cuadrado sigue una distribución...
Chi-cuadrado
en la práctica, para utilizar chi-cuadrado se tolera un máximo de ...% de f teórica menor que 5
20%

porque las frecuencias teóricas son un indicador indirecto del tamaño muestral y nos interesa que la muestra sea grande para que el estadístico siga distribución chi-cuadrado
se utiliza para tablas 2x2 (dos variables nominales dicotómicas)
corrección de Yates en la utilización de chi-cuadrado
se utiliza en variables dicotómicas, para "n" pequeñas, con alguna f teórica menor de 5 o sumas marginales desiguales
test exacto de Fisher
es sensible a "n", por lo que si aumenta "n" también aumentará su valor, sin implicar mayor asociación de variables
coeficiente chi-cuadrado
la f teorica en chi-cuadrado representa...
las frecuencias que obtendriamos si hubiera independencia entre las dos variables que estamos relacionando.

por ejemplo: género (h/m) y supervivencia (si/no) en el titánic. también se aplicaría corrección de Yates porque son 2 variables dicotómicas
índices de tamaño del efecto que no se ven afectados por la ley de los grandes números
- coeficiente de contingencia: para 2 vv dicotómicas o politómicas, entre 0 y <1 (nunca alcanza valor 1). alcanza su valor máximo si número de filas = a número de columnas

- Phi: para 2 vv dicotómicas, va de 0 a 1 y para ver la dirección de la relación hay que revisar la tabla de frecuencias

- V de Cramer: 2 vv dicotómicas o politómicas, y va de 0 a 1
herramienta estadística que te dice como de grande es la magnitud entre tu relación de variables, o diferencias entre medias de grupos
índices de tamaño del efecto
índice de tamaño del efecto aplicable a 2 variables dicotómicas, y valores entre 0 a 1
Phi
índice de tamaño del efecto que se aplica a 2 variables dicotómicas o politómicas
Coeficiente de contingencia, y no llega al valor 1

V de Cramer, valores entre 0 y 1
siempre hay que complementar la información de Chi-cuadrado con índice de tamaño del efecto porque...
puede dar un valor inflado por tener una "n" muy grande, y dar estadísticamente significativo sin verlo (alto ERROR TIPO I)

o bien dar un valor no estadísticamente significativo por tener una "n" pequeña y que realmente el tamaño del efecto sea grande (BAJA POTENCIA ESTADÍSTICA)
mide relación entre dos variables nominales y dicotómicas, en presencia de una tercera variable nominal
prueba cochran-mantel-haenszel
su resultado se expresa en common odds ratio
(hipótesis nula = 1)
prueba cochran-mantel-haenszel

es una técnica de control estadístico como ANCOVA, correlación parcial y semiparcial
diferencia entre cochran-mantel-haenszel y correl. parcial, semiparcial y ancova
cochran-mantel-haenszel sirve para variables nominales
correl parcial y semiparcial para vv cuantitativas
ancova para vv cuantitativas
en la regresión lineal, la variable criterio siempre es...
cuantitativa
tanto en RL simple como múltiple
sino sería regresión logística
en la regresión lineal, la variable predictora es...
cuanti o cuali
tanto en RL simple o múltiple
supuestos del modelo lineal general en regresión
linealidad
normalidad
independencia de los errores
homocedasticidad
no colinealidad
outliers / valores extremos
supuesto del modelo lineal general en regresión:
si no se cumple, incremento de error tipo II. se evalúa con gráfico de dispersión de puntos
linealidad
la linealidad se evalúa con...
gráfico de dispersión de puntos
supuesto del modelo general lineal:
los errores han de ajustarse a una distribución normal. se evalúa con la cuantificación de la asimetría y curtosis, mediante histogramas y mediante gráficos P-P
normalidad
mediante qué se evalua el supuesto de normalidad?
histogramas y gráficos P-P, valor de asimetría, valor de curtosis
supuestos del modelo lineal general:
los errores (residuales adyacentes) asociados a una observación no deben estar correlacionados con los errores de otra observación
independencia de los errores

se evalúa mediante Durbin-watson
oscila entre 0 y 4, y los valores entorno a 2 indican que se ha cumplido el supuesto
ante incumplimiento de la independencia de los errores...
se podría usar modelos lineales multinivel
supuestos del modelo lineal general
la varianza de una variable debe ser estable en todos los valores de la otra variable. su violación aumentaría el error tipo I
homocedasticidad
para comprobar el supuesto de homocedasticidad en regresión, se utiliza...
gráficos de dispersión
prueba Levene
supuesto del modelo lineal general en regresión
que las variables predictoras no estén altamente correlacionadas entre ellas (dependencia lineal)
no colinealidad
se evalúa con índices de tolerancia o factor de inflación de la varianza (FIV)
supuesto del modelo lineal de la regresión que se evalúa mediante indices de tolerancia y el factor de inflación de la varianza (VIF)
no colinealidad

(QUE ENTRE LAS VARIABLES PREDICTORAS NO HAYA CORRELACIÓN, esto quiere decir q no se solapen)
supuesto del modelo lineal:
las variables predictoras VVII y las criterio VVDD deben ser medidas con instrumentos fiables
no errores de medida (hace referencia a fiabilidad)
transformación logarítmica
transformación de raíz cuadrada
transformación recíproca
transformación de puntuaciones invertidas

se usa para el incumplimiento de...
supuesto de normalidad

las tres primeras para asimetría positiva
la última para asimetría negativa

LA MISMA TRANSFORMACIÓN A TODAS LAS VARIABLES, Y SI NO ES POSIBLE: Pruebas no paramétricas, o tests robustos (no los vemos)
transformación logarítmica
transformación de raiz cuadrada
transformación recíproca

se usan para el incumplimiento de...
supuesto de normalidad para asimetría positiva (+ la transf. de puntuaciones invertidas en caso de asimetría negativa)

y para el supuesto de homocedasticidad

LA MISMA TRANSFORMACIÓN A TODAS LAS VARIABLES, Y SI NO ES POSIBLE: Pruebas no paramétricas, o tests robustos (no los vemos)
la transformación de mínimos cuadrados ordinarios se utiliza para el incumplimiento de...
independencia de los errores

LA MISMA TRANSFORMACIÓN A TODAS LAS VARIABLES, Y SI NO ES POSIBLE: Pruebas no paramétricas, o tests robustos (no los vemos)
la representación gráfica de la regresión simple es...
recta de regresión (criterio de mínimos cuadrados)
la representación gráfica de la regresión múltiple es...
es un plano: se añade una dimensión por variable predictora suplementaria
(criterio de mínimos cuadrados)
el coeficiente de determinación (Valores entre 0 y 1) en la regresión simple es...
la proporción de varianza común. la proporción de variable del criterio que queda explicada por el modelo lineal

(coeficiente de correlación de Pearson al cuadrado)
el coeficiente de determinación múltiple (en la regresión múltiple) (Valores entre 0 y 1) es...
pronóstico de variable criterio a partir de las variables predictoras
la herramienta es la correlación parcial/Semi
a más variables no puede disminuir su valor

(coeficiente de correlación de Pearson al cuadrado)
coeficiente de correlación ajustado en función del número de variables predictoras incluidas en el modelo
coeficiente de determinación corregido
para determinar la ecuación que comete menos error al predecir, se utiliza...
el criterio de los mínimos cuadrados
es el promedio de los errores elevados al cuadrado
criterio de mínimos cuadrados
en la regresión lineal múltiple, B0 es...
una constante, Y cuando los predictores son 0
métodos para identificar el mejor modelo predictivo con el menor número de predictores posibles, en regresión lineal múltiple
- basados en literatura:
*introducir (simultáneo) o de entrada forzada: todos a la vez. es el peor.
*jerárquico (se añaden los predictores en distintos pasos) basándose en el criterio del analista

- basados en criterios estadísticos:
*hacia delante (forward) en que se añaden y se retienen los más predictivos
*escalonado (stepwise) en que se añaden y se retienen, pero se van eliminando los menos predictivos a la vez
*hacia atrás (backward) que parte con todos y elimina el menos predictivo en cada paso.
la herramienta estadística en el coeficiente de determinación de la regresión simple es...
coef. de correlación de Pearson al cuadrado
la herramienta estadística en el coeficiente de determinación múltiple es...
correl. parcial o semiparcial
el coeficiente de regresión tipificado o estandarizado B1 equivale a...
correl de pearson entre X e Y (porque pearson se calcula con puntuaciones típicas)
la constante en la regresión simple es...
la a, intercepto o beta0
si tus datos son puntuaciones tipificadas o estandarizadas, al calcular la pendiente (b) va a coincidir con...
la correlación entre VI y VD (pearson)
si tus datos son puntuaciones diferenciales, la pendiente (b) va a coincidir con...
la misma pendiente que obtendríamos con las puntuaciones directas
el coeficiente de correlación de pearson se calcula con puntuaciones...
típicas
el mejor método basado en criterios estadístico para identificar el mejor modelo predictivo es...
hacia atrás (backward)
método basado en criterios estadísticos para identificar el mejor modelo predictivo, en que se retienen los más predictivos en cada paso
hacia delante o forward
método basado en criterios estadísticos para identificar el mejor modelo predictivo, en que se van añadiendo y reteniendo pero a la vez eliminando el menos predictivo en cada paso
escalonado o stepwise
método basado en criterios estadísticos para identificar el mejor modelo predictivo, en que se parte con todos los predictores y elimina el menos predictivo en cada paso
hacia atrás o backward
método basado en literatura científica para identificar el mejor modelo predictivo, en que se introducen todos los predictores a la vez
introducir (simultáneo)
método basado en literatura científica, en que se introducen predictores en diferentes pasos para identificar el mejor modelo predictivo (los más importantes primero)
jerárquico
bondad de ajuste es sinónimo de...
índice de tamaño del efecto

para regresión simple: coef. de determinación
para regresión múltiple: coef. de determinación múltiple
- hipótesis que se refieren a un parámetro poblacional
- requieren el cumplimiento de al menos dos supuestos ppales: variables con nivel de intervalo como mínimo (cuanti), y n>30 sujetos y/o distribuirse normalmente
pruebas paramétricas
- hipótesis que no se refieren a un parámetro poblacional
- muestras que no cumplen los supuestos para pruebas paramétricas
pruebas no paramétricas
estadístico que se utiliza para hipótesis sobre una media, cuando se conoce la varianza de la pob.
estadístico Z
estadístico que se utiliza para hipótesis sobre 1 media, cuando NO se conoce la varianza de la población
estadístico T
el estadístico T se distribuye según
la cura t de Student
el estadístico z se distribuye según
la curva normal
estadístico que se utiliza para comparar las medias de dos grupos diferentes
estadístico T para medias independientes
estadístico que se utiliza para comparar medias de dos variables del mismo grupo
estadístico T para medias relacionadas
análisis de varianza de medias independientes
ANOVA

La nalidad del análisis de la varianza (ANOVA) radica en comprobar si alguno de los parámetros del modelo se desvía sucientemente de cero y, por ende, si alguno de los tratamientos experimentales ejerce una influencia significativa sobre el fenómeno objeto de estudio.
Para realizar tal comprobación se siguen una serie de etapas que conducen a la estimación de la razón F, razón en la que se fundamenta la prueba de la hipótesis
la ANOVA vs varias t de Student para comparar más de 2 medias tiene la ventaja de...
no tener tasa de error por familia de comparaciones
para comprobación de la hipótesis nula con ANOVA se examina
la variabilidad de las observaciones
las categorías en las que se dividen los factores en ANOVA se denominan...
niveles
pruebas para comprobar supuesto de normalidad en análisis de varianza de medias independientes
kolmogorov-smirnov o Shapiro-Wilk

la hipótesis nula es que se hay normalidad. queremos que se cumpla H0
.... es la corrección que se aplica a Kolmogorov-Smirnov ante N>....?

(y Kolmogorov-smirnov se utiliza para verificar...)
Corrección de Lilliefors ante n>50

se utiliza para verificar el supuesto de normalidad
la independencia de los errores en el análisis de varianza para medias independientes se garantiza con...
la aleatorización de los sujetos a las condiciones experimentales
la independencia de las observaciones en el análisis de la varianza se puede comprobar con...
- durbin-watson
- box-Ljung
- Rachas
el supuesto de igualdad de varianzas en ANOVA es el supuesto de...
homocedasticidad
homocedasticidad
el supuesto de homocedasticidad en ANOVA se comprueba con...
prueba de Levene
Brown-Forsythe
Barlett* poco rebusta si se incumple normalidad
C de Cochran
Fmax de Hartley

*en regresión se utiliza prueba de Levene y gráficos de dispersión
prueba de Levene
Brown-Forsythe
Barlett* poco rebusta si se incumple normalidad
C de Cochran
Fmax de Hartley

*en regresión se utiliza prueba de Levene y gráficos de dispersión
la prueba de Bartlett es recomendada para comprobar el supuesto de Homocedasticidad V o F
F, es una de las pruebas que se puede utilizar pero es poco robusta ante el incumplimiento de normalidad
en caso de incumplimiento de la independencia de las observaciones en ANOVA, recurrimos a...
mínimos cuadrados
mínimos cuadrados
en caso de incumplimiento de homocedasticidad en ANOVA recurrimos a...
pruebas conservadoras como Welch
otra prueba Brown-Forsythe

transformaciones como:
- trans. logaritmica neperiana
- transf. de raíz cuadrada
- transf. recíproca
procedimiento de O'biren
las pruebas omnibus son...
para ver si hay diferencias entre medias una vez comprobados los supuestos pero SIN SABER ENTRE QUÉ GRUPOS HAY DIFERENCIAS
la ratio de la varianza es...
Fmax de Hartley, una prueba para el SUPUESTO DE HOMOCEDASTICIDAD para cuando las "n" o tamaños muestrales son muy grandes.

coge la varianza mayor de todos los grupos y la menor de todos los grupos y calcula una ratio
PRUEBA ROBUSTA significa...
que no se perturba por el incumplimiento de supuestos
comparaciones a posteriori una vez cumplido el supuesto de homocedasticidad
bonferroni
HSD de tukey
scheffé
sidak
dunnett
student-newman-keuls*
duncan*
fisher*

*siendo estas 3 poco robustas
si la prueba omnibus no sale estadísticamente significativa quiere decir...
que no hay diferencias entre grupos
pruebas conservadoras son para cuando...
no se ha cumplido el supuesto
ponen más difícil rechazar hipotésis nula

por ejemplo Welch o Brown-Forsythe cuando no se cumple homocedasticidad
si la prueba conservadora Welch o Brown Forsythe son estadísticamente significativas...
habrá que hacer comparaciones a posteriori:
- games-howell
- c de dunnett
- T3 de Dunnett
- T2 de Tamhane
bonferroni
tukey
scheffé
sidak
dunnett
student-newman-keuls*
duncan*
fisher*

son pruebas para...
para comparaciones a posteriori habiéndose comprobado el supuesto de homocedasticidad

*siendo estas poco robustas
herramienta estadística del ANOVA, prueba omnibus para cuando se cumple el supuesto de homocedasticidad
F de fisher-snedecor
- Dunn-sidak
- dunn o desigualdad de bonferroni (Dunn-bonferroni)
- comparación de desviación de cada nivel con la media de los restantes
- comparación simple: cada nivel con una categoría de referencia
- Helmert: cada nivel con promedio de los posteriores
- Diferencia: Helmert invertidos
- Polinómicos: análisis de tendencias
- Repetidos: cada categoría, excepto la primera, se compara con la categoría anterior

son...
comparaciones a priori o planificadas
la prueba de Helmert es...
prueba de comparaciones a priori o planificadas
la prueba de Games-Howell es...
prueba de comparaciones a posteriori o no planificadas, en caso de medias heterocedásticas una vez Welch o brown-forsythe indican diferencias entre medias
supuestos que hay que cumplir en ANOVA de medias relacionadas
normalidad
homocedasticidad
indep. de los errores
esfericidad/circularidad
aditividad
normalidad
homocedasticidad
indep. de los errores
esfericidad/circularidad
aditividad
las varianzas de las diferencias entre cada par deniveles de VI son iguales en la población
esfericidad o circularidad
se podría prescindir del supuesto de esfericidad o circularidad si se emplean pruebas multivariantes para el contraste de hipótesis como...
lambda de wilks, traza de Pillai, traza de Hotelling y raíz mayor de Roy
supuesto que supone que no existe una interacción entre los diferentes factores y los sujetos.
aditividad
buscamos aceptar H0 por lo que queremos que NO haya interacción entre variables extrañas y los factores
si la VI solo tiene dos niveles, el supuesto de esfericidad...
siempre se cumple
la variabilidad total en ANOVA I se descompone en
varianza intersujetos: diferentes respuestas de sujetos distintos al mismo tto: es la variabilidad controlada en las medias relacionadas (son los mismos sujetos entre ttos)

varianza intrasujetos: respuesta de cada sujeto a los distintos tratamientos sucesivos. se descompone en:
- varianza intertratamiento: debida a los ttos
- varianza residual o error: parte de la varianza intrasujeto debida a variables ajenas
en el test de contraste de hipótesis para medias relacionadas en ANOVA:
- F esfericidad asumida, épsilon será...
- F ajustadas con épsilon es cuando...
- esfericidad se asume cuando épsilon = 1
- cuando la esfericidad no es perfecta o no se asume, se utilizan F ajustadas:
greenhouse-geisser, límite inferior, Huynh-feldt
épsilon es...
un complemento a la W de Mauchly. te dice si la esfericidad es perfecta (cerca de 1) o no
prueba omnibus una vez se ha cumplido el supuesto de esfericidad
F de fisher-snedecor
pruebas omnibus si no hay esfericidad
F ajustadas con épsilon:
- greenhouse-geisser: es la más conservadora
- límite-inferior
- Huynh-Feldt: es la menos conservadora
Huynh-feldt es...
una prueba omnibus de f ajustada con épsilon por no haberse cumplido esfericidad.
es la menos conservadora de las 3 que se pueden usar
comparaciones posthoc cumpliéndose esfericidad
bonferroni: es la más conservadora
sidak
WSD de tukey
prueba más conservadora para las comparaciones posthoc habiéndose cumplido esfericidad
bonferroni
pruebas posthoc despues de f ajustadas con épsilon (no esfericidad)
bonferroni
roy-bose
- dunn o desigualdad de bonferroni (Dunn-bonferroni)
- comparación de DESVIACIÓN de cada nivel con la media de los restantes
- comparación SIMPLE: cada nivel con una categoría de referencia
- Helmert: cada nivel con promedio de los posteriores
- Diferencia: Helmert invertidos
- Polinómicos: análisis de tendencias
- Repetidos: cada categoría, excepto la primera, se compara con la categoría anterior

son...
COMPARACIONES A PRIORI QUE SE PUEDEN UTILIZAR PARA MEDIAS REPETIDAS Y MEDIAS NO RELACIONADAS

LA ÚNICA QUE SOLO ES PARA MEDIAS NO RELACIONADAS, Y NO SE PUEDE UTILIZAR PARA MEDIAS REPETIDAS ES: - Dunn-sidak
en las comparaciones a priori o planificadas se utilizan las pruebas omnibus V o F
Falso, al realizar las comparaciones planificadas o a priori ya sabemos que hay diferencias entre medias y no utilizaremos omnibus ni comp. a posteriori
la variabilidad total en ANOVA II se descoompone en
variabilidad debida al factor A
variabilidad debida al factor B
variabilidad debida a la interacción AxB
variabilidad de error
en ANOVA II, si la proporcion de cada una de las variabilidades (debidas a cada factor o a la interacción entre factores) es elevada en relación a la variabilidad error, se puede concluir que...
las variaciones en el factor A y/o en el factor B y/o en la interacción son estadisticamente significativas
influencia de cada factor aislado sobre la VD en ANOVA II
prueba F para el efecto ppal
esta prueba F omnibus se ha de descomponer en efectos diferenciales: diferencia entre dos niveles de un mismo factor o entre más de dos niveles de un factor
efecto específico de un factor al ser combinado con otro en ANOVA II
prueba F para el efecto de interacción
esta prueba F omnibus se ha de descomponer en las siguientes comparaciones por pares:
- efecto simple: efecto de un nivel de un factor bajo cada nivel del otro
como se interpretan los efectos interactivos en ANOVA II?
- gráficos
- análisis estadístico en todo efecto simple
- contrastes planificados
contesta a las preguntas "como" y "por qué" de los efectos interactivos entre X e Y
mediación
contesta a las preguntas "cuando" y "para quien" de los efectos interactivos entre X e Y
moderación
es un aNOVA realizado sobre unas puntuaciones corregidas mediante una recta de regresión
ANCOVA

Al igual que el ANOVA, el ANCOVA es un procedimiento de análisis robusto a la violación de la normali- dad y de la homogeneidad de las varianzas, cuando se trabaja con diseños equilibrados. Sin embargo, no es una técnica robusta frente al incumplimiento del supuesto de independencia.

Es un procedimiento estadístico que permite eliminar la heterogeneidad causada en la variable depen- diente por la inuencia de una o más variables extrañas (covariables: cuantitativas).
Se utiliza, por tanto, para controlar estadísticamente parte del error experimental.
procedimiento estadístico que permite eliminar la heterogeneidad causada en la VD por la influencia de una o más VV extrañas
ANCOVA
Las covariables en ANCOVA siempre serán...
CUANTITATIVAS
porque la herramienta estadística es correl. parcial o semi
concepto que hace referencia a la igualdad de las varianzas
homocedasticidad
categorías en las que se dividen los factores en análisis de varianza
niveles
como ANCOVA pero para vv nominales
CMH
Mantel haenzel
cuantas más comparaciones entre grupo, más error...
tipo I
la tasa de error tipo I es....
la tasa de error por familia de comparaciones
para controlarla se utilizan las pruebas omnibus
para controlar la tasa de error tipo I se utilizan...
las pruebas omnibus
y luego las comparaciones entre medias
se aplican a contrastes que no plantean hipótesis sobre parámetros y que generalmente no cumplen los requisitos para realiz. de pruebas paramétricas
contrastes NO paramétricos
los contrastes no paramétricos son robustos a la violación de los supuestos de las pruebas paramétricas V o F
Verdadero

son más flexibles que los contrastes paramétricos pero tienen menos potencia y no contemplan determinada información (solo orden y numero de observaciones versus la info de las variables cuantitativas)
las pruebas no paramétricas requieren que las muestras utilizadas cumplan supuesto de normalidad V o F
F, no lo requieren y se pueden aplicar a vv que se definen a nivel nominal y ordinal además de intervalo y razón
pruebas de contrastes que se pueden utilizar en muestras pequeñas
contrastes no paramétricos
prueba no paramétrica para 2 grupos de medias independientes
Mann-whitney

su equivalente paramétrico sería t de student
prueba no paramétrica para más de dos grupos de datos independientes
Kruskal-wallis

su equivalente sería ANOVA
prueba no paramétrica para 2 grupos de medias dependientes
Wilcoxon
equivalente: t student
prueba no paramétrica para más de dos grupos de medias dependientes
Friedman
equivalente: ANOVA
prueba no paramétrica para vv nominales (grupos de datos independientes)
Chi-cuadrado
corrección de yates si 2x2
si tamaño de efecto r es 0.40 el tamaño del efecto es...
tamaño de efecto es de CORRELACIÓN y es mediano

a partir de 0.10 pequeño
a partir de 0.30 mediano
a partir de 0.50 grande
si tamaño de efecto R^2 es de 0.10 el tamaño del efecto es...
de REGRESIÓN MÚLTIPLE y es pequeño.

a partir de 0.02 pequeño
a partir de 0.13 mediano
a partir de 0.26 grande
si tamaño de efecto f^2 es 0.40 el tamaño del efecto es...
de REGRESIÓN MÚLTIPLE, y será un efecto GRANDE

a partir de 0.02 pequeño
a partir de 0.15 mediano
a partir de 0.35 grande
si la d de Cohen da un tamaño del efecto de 0.10, el tamaño del efecto es...
de comparación entre 2 grupos y no es efecto significativo

a partir de 0.20 pequeño
a partir de 0.50 mediano
a partir de 0.80 grande
si la omega cuadrado tiene un valor de 0.20, el tamaño del efecto es....
referente a ANOVA (grupos indep y dep.), y es tamaño del efecto GRANDE

a partir de 0.01 pequeño
a partir de 0.06 mediano
a partir de 0.14 grande
la d de Cohen se utiliza para...
dos grupos de medias dependientes o independientes.
para t student (paramétricas), t wilcoxon (no paramétricas, grupos dependientes), y mann-whitney (no paramétricas, datos independientes).

es la diferencia de medias estandarizada
es la diferencia de medias estandarizada
d de Cohen (Es el índice de tamaño del efecto para comparación entre 2 grupos, ya sea de medias dependientes o indep.)
la F conservadora consiste en...
corrección de los grados de libertad de la prueba F

serían Welch y Brown-forsythe en el caso de incumplimiento de homocedasticidad, y greenhouse-geisser, límite inferior o Huynh-feldt para incumplimiento de esfericidad (siendo greenhouse la más conservadora y Huynh-feldt la menos)
eta cuadrado es un estimador sesgado del tamaño del efecto V o F
V
para interpretar una interacción estadísticamente significativa, se debe analizar...
los efectos SIMPLES (la interpretación de los efectos ppales supone error de interpretación)
tipo de muestreos no aleatorios o no probabilísticos similar al muestreo aleatorio estratificado, pero sin elección probabilística. sujetos seleccionados según conocimiento del peso de cada valor de una característica de la población
por cuotas
tipo de muestreos no aleatorios o no probabilísticos en la muestra seleccionada según criterios prefijados por los investigadores

El investigador selecciona la muestra con un propósito en mente, es decir, según su idea sobre qué o quién debe formar la muestra.
intencional, opinático, de juicio o selección experta
tipo de muestreos no aleatorios o no probabilísticos en que se seleccionan los casos que están disponibles en el momento del estudio
incidental, casual, subjetivo o de conveniencia
tipo de muestreos no aleatorios o no probabilísticos en que se recurre a los contactos de los primeros participantes en el estudio
bola de nieve
muestreos
- por cuotas
- intencional, opinático, de juicio o selección experta
- incidental, casual, subjetivo o de conveniencia
- bola de nieve

son...
muestreos no aleatorios o no probabilísticos
tipo de muestreo probabilístico o aleatorio, en que se da elección de sujetos individuales, que han de tener igual probabilidad
simple
tipo de muestreo probabilístico o aleatorio, en que se da selección de una o varias de las aglomeraciones naturales
conglomerados
tipo de muestreo probabilístico o aleatorio, en que se da una característica de interés en la población dividida en varios estratos, y se extrae aleatoriamente una muestra aleatoria simple de cada uno.
estratificado

suma de submuestras obtenidas = muestra total.
la afijación en el muestreo estratificado puede ser...
simple o uniforme: igual número de participantes en cada estrato
proporcional: selección en función del peso de cada estrato en la población
óptima: menos individuos de los estratos más homogéneos y más individuos de los estratos heterogéneos (tiene en cuenta la VARIABILIDAD)
tipo de muestreo probabilístico o aleatorio, en que se da división de la población (N) por el n deseado en la muestra.
N/n=K
dentro de los K primeros elementos, se selecciona al azar uno de ellos (el primer elemento). para la selección del segundo elemento, se sumará el valor de K al primer elemento seleccionado; para la selección del tercer elemento, se sumará el valor de K al segundo, etc... hasta obtener n.
sistemático
tipo de muestreo probabilístico o aleatorio, en que se da muestreos distintos en sucesivas etapas
polietápico
tipo de muestreo en que la probabilidad de los elementos a seleccionar es conocida y hay más validez externa
muestreo aleatorio o probabilístico
tipo de muestreo en que no se conoce la probabilidad de los elementos a seleccionar y hay menos validez externa
muestreo no aleatorio o no probabilístico
las muestras no son representativas
Si la variable predictora es politómica, se deberá transformar en variables dicotómicas (dummy). Para n niveles de la variable predictora politómica, obtendremos ... variables dicotómicas: presencia (1), ausencia (0).
n-1 variables dicotómicas

Por ejemplo, la variable régimen (régimen hospitalario) de nuestro archivo: Tratamiento adicción alcohol, que tiene K = 3 categorías, puede convertirse en K-1 = 2 variables dicotómicas
Supuesto de homogeneidad de las varianzas
homocedasticidad
Influencia específica ejercida por los factores sobre las respuestas de los sujetos en la VD.
efectos factoriales

Mediante el Análisis de la varianza se puede comprobar la inuencia de los factores aisladamente, así como la inuencia de su interacción. No obstante, existe otro procedimiento de contraste-vericación de hipótesis en un diseño factorial: el análisis de los efectos factoriales

Permite inferir la inuencia de factores aislados y sus interacciones con cada una de las modalidades

Es conrmatorio (si la F procedente de un factor o interacción resultó signicativo; por lo que este análi- sis tendrá que conrma o contradecir este punto) y complementario (nos añade información = especica la inuencia de cada nivel en la fuente de variabilidad) al ANOVA.
A partir de la comparación de medias Existen 2 bloques de efectos:
- efectos producidos por los factores aisladamente (ppales, diferenciales)
- efectos que hacen referencia a la acción combinada de dos o más factores: son más relevantes (Efectos de interacción). mediante gráficos o ef. simples.
nuencia especíca de un factor cuando actúa en combinación con otro. Puede ser de 1r orden (acción combinada de dos factores), 2o orden (acción combinada de tres factores), 3r or- den (acción combinada de cuatro factores), y así sucesivamente
efectos de interacción.
Hay dos procedimientos para comprobar la interacción:

- Gráficamente: situamos los valores de la VD (medias) en el eje de ordenadas y el valor de uno de los niveles del factor en el eje de abscisas.
Línea paralelas: no hay interacción
Líneas que se cruzan o se distancian en algún extremos:
A veces la gráca no ofrece información tan clara, y no se puede ver si hay interacción o no. En estes casos usaremos el segundo método, alternativo:
- Efectos simples: Efectos de un factor en cada uno de los niveles del resto de factores.
 Ya1b1 – Ya1b2
Para un CI bajo... ¿qué tal le va cada terapia?, ¿ y para un CI alto? Comparamos, p.ej, para CI bajo, puntua- ciones entre pares de terapias.
Efectos de un factor en cada uno de los niveles del resto de factores.
 Ya1b1 – Ya1b2
Para un CI bajo... ¿qué tal le va cada terapia?, ¿ y para un CI alto? Comparamos, p.ej, para CI bajo, puntua- ciones entre pares de terapias
efectos simples

es una de las formas de comprobar la interacción
comparo medias de diferentes niveles de un mismo factor; lo que biene a ser la diferencia entre los efectos diferenciales de dos niveles de ese factores = la diferencia entre los efectos principales
efectos diferenciales
recordar que existen dos bloques de efectos:
1. los que hacen referencia a los efectos producidor por los ff aisladamente (efectos ppales y diferenciales)
2. los que hacen referencia a la acción combinada de dos o más factores: son más relevantes.
diferencia entre a media de un nivel de un factor y la media general de este factor ≈
efecto medio de ese factor bajo todos los niveles del otro
efectos principales

recordar que existen dos bloques de efectos:
1. los que hacen referencia a los efectos producidor por los ff aisladamente (efectos ppales y diferenciales)
2. los que hacen referencia a la acción combinada de dos o más factores: son más relevantes.
Una ventaja de los diseños de dos factores sobre los diseños de un factor es que necesitan ... sujetos para alcanzar la misma potencia.
menos
Los efectos que interesa analizar en un modelo de dos factores completamente aleatorizados son ...
tres: los dos efectos principales (los efectos de cada factor individualmente considerado) y el efecto de la interacción entre ambos factores (el efecto conjunto o combinado de ambos factores)

El concepto de interacción entre factores admite varias formulaciones, todas ellas equivalentes. Desde un punto de vista no formal, decimos que existe interacción entre dos factores cuando el efecto de uno de ellos sobre la variable dependiente no es el mismo en todos los 2 niveles del otro factor. Esto equivale a armar que existe interacción cuando el resultado de la combinación de dos factores diere de la suma de los efectos principales de esos factores.
qué reflejan las sumas de cuadrados en el ANOVA?
reflejan las diferentes variaciones que tienen lugar en un experimento y constituyen un elemento fundamental para el cálculo de las varianzas. Los términos de esta ecuación corresponden a lo que se conoce, respectivamente, como suma cuadrática total, suma cuadrática intergrupos y suma cuadrática intragrupo.
qué examina las diferencias entre medias poblacionales de los distintos grupos en dos o más variables dependientes simultáneamente?
el MANOVA