5% de descuento en todos los libros solicitados por la web
Este manual de Análisis de datos en ciencias sociales y de la salud está pensado para estudiantes, profesores e investigadores que se ven en la necesidad de aplicar herramientas estadísticas. Tanto los contenidos como la exposición se han intentado ajustar a la idea de que un profesional de las ciencias sociales y de la salud no es un estadístico (muy probablemente, tampoco pretende serlo) y, consecuentemente, no necesita ser un experto en los fundamentos matemáticos de las herramientas estadísticas que aplica. Por esta razón, la exposición se ha orientado a resaltar la utilidad de los procedimientos disponibles y las claves para saber elegirlos, aplicarlos e interpretarlos correctamente (aunque sin prescindir de los detalles necesarios para entender la lógica y el significado de los mismos).

Además, gracias a programas informáticos como el SPSS Statistics ya no es necesario invertir tiempo en complejos cálculos que no contribuyen en absoluto a entender el significado de lo que se está haciendo. Aunque todos los procedimientos se presentan con suficiente detalle como para poder aplicarlos con una calculadora de bolsillo, de todos ellos se explica cómo aplicarlos con el SPSS Statistics y cómo interpretar correctamente los resultados que se obtienen.

1 La inferencia estadística
La inferencia estadística 17
El contraste de hipótesis 18
Un ejemplo 20
Qué significa rechazar y no rechazar la hipótesis nula 23
Contrastes bilaterales y unilaterales 26
Errores Tipo I y II, y potencia de un contraste 28
Factores de los que depende la potencia 31
Tamaño del efecto 33
Clasificación de los contrastes de hipótesis 35
Programas informáticos para el análisis de datos 38
Apéndice 1
Cálculo de la potencia 39
Curva de potencias 40
Ejercicios 43
2 Inferencia con una variable
Contrastes sobre el centro de una distribución 47
La prueba de Wilcoxon para una muestra 48
La prueba de los signos para una muestra 51
La prueba T, la de Wilcoxon y la de los signos 55
Los contrastes sobre el centro de una distribución con SPSS 56
Contrastes sobre la dispersión de una distribución 59
Contrastes sobre la forma de una distribución 61
La prueba de Kolmogorov-Smirnov sobre bondad de ajuste 61
Los contrastes sobre la forma de una distribución con SPSS 63
Apéndice 2
La prueba de las rachas 68
La prueba de los cuantiles 70
Ejercicios 71
3 Inferencia con dos variables categóricas
Proporciones independientes y relacionadas 74
Homogeneidad marginal y simetría 77
Simetría con variables dicotómicas: la prueba de McNemar 77
Simetría con variables politómicas: la prueba de Bowker 81
Homogeneidad marginal y simetría con SPSS 82
Índices de riesgo 86
Riesgo relativo 87
Odds ratio 89
Relación entre el riesgo relativo y la odds ratio 92
Consideraciones sobre la interpretación de los índices de riesgo 93
Los índices de riesgo con SPSS 95
Índices de acuerdo 97
Acuerdo con variables nominales: kappa 98
El índice de acuerdo kappa con SPSS 102
Asociación entre variables categóricas ordinales 104
Medidas de concordancia-discordancia 105
Medidas de concordancia-discordancia con SPSS 108
Apéndice 3
Simetría relativa 110
Combinación de tablas 2 2 (Cochran y Mantel-Haenszel) 111
La paradoja de Simpson 114
Medidas de asociación basadas en la reducción proporcional del error 115
Muestras pequeñas: la prueba exacta de Fisher 119
Concordancias y discordancias en una tabla de contingencias 120
Cómo reproducir una tabla de contingencias en SPSS 122
Ejercicios 123
4 Inferencia con una variable categórica y una cuantitativa
La prueba T de Student para muestras independientes 130
La prueba de Mann-Whitney 132
La prueba de Mann-Whitney con SPSS 136
La prueba de Kruskal-Wallis 138
La prueba de Kruskal-Wallis con SPSS 141
Medidas del tamaño del efecto 143
El caso de dos grupos 143
El caso de más de dos grupos 148
Medidas del tamaño del efecto con SPSS 148
Cálculo de la potencia y del tamaño muestral 149
Contrastes de equivalencia y no-inferioridad 150
Métodos para demostrar equivalencia 151
Doble contraste unilateral de Schuirmann 151
Intervalo de confianza de Westlake 152
Métodos para demostrar no-inferioridad 154
Limitaciones de los contrastes de equivalencia y no-inferioridad 155
Apéndice 4
La prueba de Kolmogorov-Smirnov para dos muestras independientes 156
La prueba de las rachas de Wald-Wolfowitz 157
La prueba de reacciones extremas de Moses 158
Ejercicios 159
5 Inferencia con dos variables cuantitativas
La prueba T de Student para muestras relacionadas 162
La prueba de Wilcoxon para dos muestras 164
La prueba de Wilcoxon para dos muestras con SPSS 166
La prueba de los signos para dos muestras 169
La prueba de los signos para dos muestras con SPSS 170
El coeficiente de correlación de Pearson 171
El coeficiente de correlación de Spearman 174
El coeficiente de correlación de Spearman con SPSS 177
Medidas del tamaño del efecto 178
Cálculo de la potencia y del tamaño muestral 179
Apéndice 5
Correlaciones parciales 180
Ejercicios 182
6 Análisis de varianza (I) Un factor completamente aleatorizado
Modelos de análisis de varianza 186
Número de factores 186
Tipo de asignación de las unidades de análisis a las condiciones del estudio 186
Forma de establecer los niveles del factor 188
Clasificación de los modelos de análisis de varianza 189
La lógica del análisis de varianza 189
ANOVA de un factor completamente aleatorizado (A-CA) 192
Supuestos del ANOVA de un factor 196
Independencia 196
Normalidad 197
Igualdad de varianzas (homocedasticidad) 197
Transformación de las puntuaciones 198
Efectos fijos y aleatorios 200
Medidas del tamaño del efecto 200
Cálculo de la potencia y del tamaño muestral 204
Comparaciones múltiples entre medias 206
Comparaciones lineales 206
Tasa de error en las comparaciones múltiples 209
Comparaciones planeadas o a priori 211
Prueba de Dunn-Bonferroni 211
Comparaciones de tendencia 215
Prueba de Dunnett 218
Comparaciones post hoc o a posteriori 219
Prueba de Tukey 220
Prueba de Scheffé 222
Comparaciones múltiples: qué procedimiento elegir 224
ANOVA de un factor con SPSS 225
Supuestos 226
Hipótesis de igualdad de medias 228
Tamaño del efecto y potencia observada 229
Comparaciones post hoc 230
Comparaciones planeadas y de tendencia 232
Apéndice 6
Distribución muestral del estadístico F 234
Tabla de la Distribución F 236
La distribución F con SPSS 237
Estadísticos F robustos: Welch y Brown-Forsythe 237
Comparaciones post hoc: procedimientos alternativos 238
Métodos secuenciales 238
Efectos aleatorios 240
Ejercicios 242
7 Análisis de varianza (II) Dos factores completamente aleatorizados
Estructura de los datos y notación 248
La interacción entre factores 250
ANOVA de dos factores completamente aleatorizados (AB-CA) 253
Supuestos del ANOVA de dos factores 260
Efectos fijos y aleatorios 260
Medidas del tamaño del efecto 261
Cálculo de la potencia y del tamaño muestral 263
Comparaciones múltiples 264
Efectos principales 265
Efectos simples 267
Efecto de la interacción 270
ANOVA de dos factores completamente aleatorizados con SPSS 274
Hipótesis globales (efecto de A, de B y de AB ) 274
Tamaño del efecto y potencia observada 276
Comparaciones post hoc: efectos principales 277
Comparaciones múltiples: efectos simples 278
Comparaciones múltiples: efecto de la interacción 280
Apéndice 7
Casillas con tamaños muestrales distintos 282
Más sobre los efectos simples y el efecto de la interacción 284
La sentencia LMATRIX 285
Modelos jerárquicos o anidados 291
Ejercicios 291
8 Análisis de varianza (III) Un factor con medidas repetidas
Características de los diseños con medidas repetidas 295
ANOVA de un factor con medidas repetidas (A-MR) 298
Supuestos del modelo 303
Alternativas al estadístico F 304
Estadístico F con los grados de libertad modificados 304
Aproximación multivariada 304
Qué solución elegir 305
Medidas del tamaño del efecto 306
Cálculo de la potencia y del tamaño muestral 307
Comparaciones múltiples 308
ANOVA de un factor con medidas repetidas (A-MR) con SPSS 308
Esfericidad 310
Igualdad de medias 310
Tamaño del efecto y potencia observada 312
Comparaciones planeadas 312
Comparaciones post hoc 313
La prueba de Friedman 315
Apéndice 8
Cómo estimar épsilon ( ) 318
Prueba de Cochran 319
Coeficiente de concordancia W de Kendall 321
Prueba de no-aditividad de Tukey 323
Ejercicios 325
9 Análisis de varianza (IV) Dos factores con medidas repetidas
ANOVA de dos factores con medidas repetidas en ambos (AB-MR) 329
Supuestos del modelo 333
Medidas del tamaño del efecto 333
Cálculo de la potencia y del tamaño muestral 334
Comparaciones múltiples 334
ANOVA de dos factores con medidas repetidas en ambos (AB-MR) con SPSS 335
Esfericidad 338
Hipótesis globales (efecto de A, de B y de AB ) 339
Tamaño del efecto y potencia observada 341
Comparaciones post hoc: efectos principales 341
Comparaciones múltiples: efectos simples 342
Comparaciones múltiples: efecto de la interacción 343
ANOVA de dos factores con medidas repetidas en uno (AB-CA-MR) 346
Supuestos del modelo 349
Medidas del tamaño del efecto 350
Cálculo de la potencia y del tamaño muestral 351
Comparaciones múltiples 351
ANOVA de dos factores con medidas repetidas en uno (AB-CA-MR) con SPSS 351
Esfericidad multi-muestra e igualdad de varianzas 356
Hipótesis globales (efecto de A, de B y de AB ) 357
Comparaciones post hoc: efectos principales 358
Comparaciones múltiples: efectos simples 359
Comparaciones múltiples: efecto de la interacción 360
Apéndice 9
La sentencia MMATRIX 362
Análisis de los efectos simples 363
Comparaciones entre los niveles de un mismo efecto simple 364
Análisis del efecto de la interacción 365
Ejercicios 368
10 Análisis de regresión lineal
Regresión lineal simple 372
Diagramas de dispersión 373
La recta de regresión 375
Mínimos cuadrados 376
Coeficientes de regresión 376
Coeficientes de regresión tipificados 378
Bondad de ajuste 379
Significación de los coeficientes de regresión 382
Intervalos de confianza 383
Cómo efectuar pronósticos 384
Regresión lineal múltiple 385
La ecuación de regresión 386
Coeficientes de regresión 387
Coeficientes de regresión tipificados 387
Bondad de ajuste 388
Significación de los coeficientes de regresión 390
Importancia relativa de las variables 392
Variables independientes categóricas 394
Regresión jerárquica o por pasos 396
Criterios para seleccionar variables 397
Métodos para seleccionar variables 397
Supuestos del modelo de regresión lineal 399
Linealidad 399
No colinealidad 401
Independencia 403
Normalidad 404
Homocedasticidad 405
Casos atípicos e influyentes 406
Casos atípicos 406
Casos atípicos en Y 407
Casos atípicos en X j
Casos influyentes 408
Cambio en los coeficientes de regresión 410
Cambio en los pronósticos 411
Cambio en los residuos 411
Qué hacer con los casos atípicos e influyentes 411
Regresión lineal con SPSS 412
Regresión múltiple 412
Bondad de ajuste 413
Ecuación de regresión 414
Significación de los coeficientes de regresión 414
Pronósticos 415
Importancia relativa de las variables 415
Chequeo de los supuestos 416
Casos atípicos e influyentes 420
Regresión jerárquica o por pasos 421
Regresión jerárquica o por pasos con variables categóricas 424
Comentarios finales 424
Validez de una ecuación de regresión 424
Consideraciones sobre el tamaño muestral 425
Apéndice 10
Regresión curvilínea 426
Ejercicios
ISBN
978-84-9756-704-6
EAN
9788497567046
Editor
Sintesis Editorial, S.A.
Stock
NO
Idioma
Castellano
Nivel
Profesional
Formato
Encuadernado
Rústica
Páginas
492
Largo
-
Ancho
-
Peso
-
Edición
Fecha de edición
02-09-2010
Año de edición
2010
Nº de ediciones
1
Colección
-
Nº de colección
-