3.1 Criterios para asegurar la calidad del diseño
Desde SUMMA promovemos que el diseño de una evaluación esté guiado por los principios de la evaluación para la mejora, tal como se expuso en los Módulos 1 y 2 de este curso.
Con la intención de contribuir al fortalecimiento de las capacidades en evaluación, en esta sección revisaremos un conjunto de buenas prácticas metodológicas que permiten asegurar resultados más válidos, útiles y pertinentes, así como optimizar los recursos disponibles y minimizar la carga sobre los equipos involucrados.
A continuación, se presentan lineamientos clave para el diseño de una evaluación robusta, organizados en torno a tres ejes: pertinencia del alcance, solidez del diseño, y viabilidad operativa.
3.2 Alcance y pertinencia
3.3 Calidad técnica del diseño
Tabla: Tipos de muestreo: características y aplicaciones en evaluación
Tipo de muestreo |
Definición y características |
Ejemplos y usos en evaluación |
|
1. Muestreo probabilístico Cada unidad tiene una probabilidad conocida y distinta de cero de ser seleccionada. Permite generalizar resultados al total de la población y calcular errores muestrales. Ideal para encuestas con representatividad estadística. Útil en evaluaciones de impacto o diagnósticos poblacionales. |
1.1 Aleatorio simple |
Selección al azar de unidades individuales de una lista completa. |
Sortear estudiantes desde un padrón completo para aplicar una encuesta. |
1.2 Estratificado |
La población se divide en subgrupos homogéneos (estratos), y se selecciona aleatoriamente dentro de cada uno. |
Seleccionar estudiantes por nivel socioeconómico y región. Aumenta precisión comparativa entre subgrupos. |
|
1.3 Por conglomerados |
Se eligen grupos naturales (como escuelas o municipios) y luego se incluyen todas o algunas unidades dentro de estos. |
Seleccionar escuelas completas cuando no se cuenta con un registro individual de estudiantes. |
Tipo de muestreo |
Definición y características |
Ejemplos y usos en evaluación |
|
2. Muestreo no probabilístico La selección no se basa en el azar, sino en criterios definidos por el equipo. No permite inferencias estadísticas, pero es útil para la exploración cualitativa y casos específicos. | Ideal en evaluaciones cualitativas, estudios exploratorios o cuando se busca comprender diversidad de experiencias más que representar poblaciones. |
2.1 Por cuotas |
Se definen cupos por características relevantes (sexo, edad, región) y se seleccionan personas que los cumplan hasta llenar los cupos. |
Entrevistar a igual número de mujeres y hombres docentes, sin selección aleatoria. |
2.2 Intencional / estratégico |
Se eligen personas o casos clave por su conocimiento, experiencia o rol relevante en la intervención. |
Entrevistar a directores/as o docentes referentes de escuelas pioneras. |
|
2.3 Bola de nieve |
Se parte de un grupo inicial de participantes que refieren a otros con perfiles similares. Útil con poblaciones ocultas o difíciles de acceder. |
Identificar estudiantes desvinculados del sistema educativo a partir de referencias entre pares o docentes. |
|
2.4 Por conveniencia |
Se seleccionan participantes por su disponibilidad o accesibilidad. |
Aplicar encuestas a estudiantes presentes en una clase específica, sin aleatorización. |
|
2.5 Saturación teórica |
Estrategia común en estudios cualitativos: se continúa recolectando datos hasta que las nuevas entrevistas no aportan información diferente. |
Finalizar entrevistas con docentes cuando se repiten patrones en sus discursos y ya no emergen nuevas categorías analíticas. |
3.4 Maximizar el uso de datos disponibles
En el diseño de una evaluación, una buena práctica es aprovechar al máximo los datos ya existentes antes de planificar la generación de nueva información. Esto no solo optimiza recursos y tiempos, sino que también evita sobrecargar a las escuelas y otros actores involucrados.
Los datos utilizados en una evaluación pueden clasificarse en dos grandes tipos:
Generalmente, se recomienda una combinación estratégica de ambos tipos. Esta integración permite obtener una comprensión más rica y robusta sobre los resultados y procesos evaluados. Por ejemplo, los datos secundarios pueden ofrecer contexto o permitir establecer líneas de base, mientras que los primarios pueden profundizar en aspectos cualitativos o generar evidencia específica para la evaluación.
Antes de definir los instrumentos a utilizar, es clave:
En el caso de evaluaciones de impacto, la planificación temprana de la recolección de datos es fundamental. Esto incluye prever una línea de base robusta (datos recogidos antes del inicio de la intervención), así como datos comparativos que permitan estimar el contrafactual. En muchos casos, acceder a estos datos implica negociaciones con actores institucionales o la coordinación entre distintos sistemas de información.
3.5 Maximizar el uso de instrumentos disponibles
Cuando no existen datos secundarios útiles o suficientes, y es necesario generar información primaria, una buena práctica es revisar y aprovechar instrumentos de medición ya existentes y validados. Esto permite ahorrar tiempo y recursos, asegurar la comparabilidad con otros estudios y, sobre todo, mejorar la validez y confiabilidad de los resultados.
Utilizar instrumentos previamente probados (por ejemplo, cuestionarios de habilidades socioemocionales, rúbricas de observación docente o pruebas de aprendizaje estandarizadas) permite:
Solo en caso de que no exista un instrumento adecuado, se recomienda diseñar uno nuevo. En ese proceso, será clave realizar pruebas piloto, validaciones con personas expertas y ajustes iterativos que aseguren su adecuación técnica y contextual.
3.6 Triangular los datos
Una vez recolectada la información —sea primaria o secundaria, con instrumentos nuevos o existentes— es fundamental aplicar estrategias de triangulación para fortalecer la credibilidad de los hallazgos y enriquecer el análisis.
La triangulación consiste en combinar distintas fuentes de información, métodos de recolección o perspectivas analíticas, con el objetivo de validar, contrastar y comprender más profundamente los fenómenos evaluados. Existen distintos tipos de triangulación, siendo la más común la triangulación metodológica, que integra técnicas como encuestas, entrevistas, grupos focales, análisis documental u observación directa.
Según Carvalho y White (1997), esta estrategia puede cumplir diversas funciones dentro de una evaluación:
En síntesis, triangular no solo mejora la validez y confiabilidad de los resultados, sino que también permite integrar múltiples voces, perspectivas y niveles de análisis, fortaleciendo el carácter formativo y útil de la evaluación.
3.7 El plan de evaluación
El plan de evaluación es un documento estratégico que sistematiza todos los componentes clave de la evaluación, desde su justificación, alcance y diseño, hasta los aspectos operativos y financieros. Su propósito es asegurar que la evaluación sea factible, útil y coherente con los recursos disponibles, los objetivos del programa y las decisiones que se espera informar.
Un buen plan de evaluación actúa como hoja de ruta y debe ser elaborado antes de iniciar el trabajo de campo, permitiendo su revisión por parte de actores clave. En evaluaciones contratadas a equipos externos, suele ser el primer entregable formal.
A continuación, se presentan los principales elementos que debe incluir un plan de evaluación:
Elementos del plan de evaluación
Cuando la evaluación es realizada por un equipo interno, este será el responsable de elaborar el plan, ya sea de manera autónoma o con apoyo externo, y en coordinación con la persona responsable del programa y otros actores relevantes.
En el caso de evaluaciones llevadas a cabo por un equipo externo, el plan de trabajo suele ser el primer producto contractual que se debe entregar. Es recomendable que el plan se desarrolle con anticipación al inicio de la evaluación. Este plazo (2 a 3 meses) permite realizar una revisión por parte de los actores clave e incorporar los ajustes necesarios. La revisión del plan considera principalmente si este es coherente con los recursos disponibles y con los objetivos acordados. También es importante verificar que el enfoque esté centrado en la información más relevante con respecto a las preguntas de la evaluación, que no genere una carga excesiva sobre el equipo del proyecto o las personas participantes, y que cumpla con criterios éticos y sea culturalmente apropiado.
💡 Sugerencia: Es fundamental que el plan no solo cumpla criterios técnicos, sino que también sea realista, práctico y contextualmente sensible. Esto implica no sobrecargar a los equipos ni a las comunidades participantes, enfocarse en información realmente útil y asegurar un enfoque ético y participativo.
Haz clic en siguiente/next para avanzar ➡️