Basado en el séptimo capítulo del libro: Social Science Research: Principles, Methods, and Practices de Bhattacherjee (2012).
Recomendado para la introducción a las practicas avanzadas de la investigación científica en ciencias sociales.
Imagen de Zoltan Tasi en: https://unsplash.com/photos/APvZiFU7v1A
3. • A veces, los constructos que se pretenden medir representan conceptos
imaginarios y son multidimensionales.
• Al elegir una escala debemos asegurarnos que esta sea valida y
confiable:
4. Definición
Grado de consistencia que presentan
los resultados de un instrumento.
• Consistencia no significa precisión (validez).
• Algunas de las principales factores que afectan la confiabilidad
son:
a) La subjetividad del investigador (sobre todo con métodos
cualitativos).
b) Realizar preguntas ambiguas o imprecisas.
c) Preguntas sobre temas que el encuestado no conoce.
d) Preguntas sobre temas privados o sensibles.
5. ¿Cómo se puede mejorar la confiabilidad de una escala?
a) Utilizar métodos menos sensibles a la subjetividad del investigador.
b) Realizar preguntas cuyas respuestas son conocidas por el
encuestado.
c) Evitar indicadores ambiguos o muy sensibles.
d) Simplificar la forma en que los indicadores están redactados.
6. Formas de calcular la confiabilidad de una escala:
• O confiabilidad “entre-evaluadores”.
• Consistencia entre dos o más evaluaciones realizadas independientemente.
Inter-rater
• Consistencia entre dos mediciones del mismo constructo, en la misma muestra pero en
dos momentos distintos en el tiempo.Test-retest
• Consistencia entre dos mitades de la escala.
• Entre más extenso el instrumento, más probabilidades de una alta consistencia.
Split-half
• Consistencia entre diferentes ítems de la misma escala.
• Se puede calcular con las correlaciones inter-ítem o ítem-to-total, o con el coeficiente
alfa de Cronbach.
Consistencia
interna
7. Definición
Grado en el cuál un instrumento mide el
constructo que se supone debería medir.
• La validez de un instrumento puede (debe) obtenerse a través de dos
aproximaciones:
vs. Evaluación empírica
(Validez del criterio)
Verifica que los resultados de la prueba son
similares a otros criterios externos.
Cuatro subtipos: convergente, discriminante,
concurrente y predictiva.
Evaluación teórica
(Validez de traducción o representacional)
Verifica que la imagen del constructo se ha
representado adecuadamente en la prueba
empírica.
Dos subtipos: aparente y del contenido
9. Evaluaciones teóricas
Validez aparente
• Grado en el cuál el instrumento parece medir el constructo
subyacente.
• Evaluado por un panel de expertos.
Validez del contenido
• Grado en el cuál el instrumento incluye elementos relevantes del
dominio del constructo.
• Evaluado por un panel de expertos.
10. Evaluaciones empíricas
Validez convergente
• Relación que tienen los ítems de la prueba con el constructo que se mide.
Validez discriminante
• Separación que tienen los ítems de la prueba con otros constructos que no se miden
Validez predictiva
• Grado en el cuál la medición predice satisfactoriamente resultados que teóricamente
deberían presentarse
Validez concurrente
• Relación que tiene la medición con otros criterios que deberían ocurrir simultáneamente.
12. Teoría clásica de la prueba o teoría del puntaje verdadero:
• En el conjunto de datos observados en la muestra:
• El objetivo del análisis psicométrico es estimar y minimizar var(E)
X = T + E
Valor observado Valor real Error
var(X) = var(T) + var(E)
13. • Los errores de medición pueden ser de dos tipos:
vs. Error sistemático
• Afectan sistemáticamente a toda la
muestra.
• Crean sesgos positivo o negativo ya que
son consistentes en todas las
observaciones.
• Los errores sistemáticos deben ser
identificados y corregidos.
Error aleatorio
• Se atribuye a factores externos
desconocidos e incontrolables.
• Afectan la medición de forma aleatoria.
• Se consideran “ruido” en la medición y es
generalmente ignorado.
X = T + Er + Es
Valor observado Valor real Error aleatorio Error sistemático
14. Error estándar
Añade variabilidad a la distribución
Reduce la confiabilidad
Error sistemático
Mueve la tendencia central de la
distribución
Reduce la validez (más grave)
Distribución
con error
Distribución
sin error
Distribución
sin error
Distribución
con error
15. 1. Conceptualización
de constructos
2. Creación /
selección de
indicadores
3. Análisis de
refinamiento o
descarte
4. Evaluación de la
validez aparente y de
contenido
5. Realizar prueba
piloto
6. Evaluación de la
validez convergente y
discriminante
7. Evaluación de la
confiabilidad por
dimensiones
8. Evaluar validez
predictiva
Instrumento
validado
Evaluación teórica
Evaluación empírica
16. Debido a que las inferencias realizadas a partir de mediciones
hechas con escalas comprometidas no tienen ningún valor, la
validación de escalas es una de las etapas más importantes de
la investigación empírica