jueves, 26 de diciembre de 2019

Escalas de valoración

¡Por fin! Ya puedo ponerme un rato a seguir con el blog. He hecho récord sin hacer una entrada. El inicio de curso y trimestre ha sido especialmente ajetreado y me ha alejado de estos lares, aunque he seguido aprendiendo y haciendo otras cosas. Entre las relacionadas con evaluación del aprendizaje: coordinando el curso del INTEF, Evaluación de competencias: estrategias e instrumentos, ya finalizado, y espero que bien valorado. Y también coordinando la publicación de Cuadernos de Pedagogía: Especial Evaluación, junto con el amigo Lucas Gortázar. Publicación que ha visto la luz este mes y donde podéis leer el artículo de REDE: Hacia un nuevo modelo de evaluación, responsabilidad y mejora educativa.

Ahora a lo que nos interesa: las escalas de valoración, entrada con la que finaliza el repaso por los instrumentos de evaluación más utilizados en la valoración de los aprendizajes que podéis encontrar en este blog.

Las escalas de valoración son un instrumento que se situaría entre una lista de cotejo y una rúbrica:
  1. Mantiene los criterios de realización de forma explícita, al igual que las listas de cotejo.
  2. Se establecen niveles de logro en una escala, siguiendo uno o varios criterios de graduación: frecuencia, intensidad, modo, autonomía..., como lo hacen las rúbricas.
Por tanto, a lo largo de la entrada se harán continuas referencias a los dos instrumentos anteriormente descritos.

Definición

Instrumento para valorar, en un rango definido, el grado de cumplimiento de tareas de desempeño, niveles de habilidad, procedimientos o procesos, cantidades o cualidades.

El tesauro de ERIC, las define como una forma de registrar la magnitud estimada de un rasgo o cualidad y nos remite a términos más concretos o específicos como las escalas Likert, las de diferencial semántico y las escalas de valoración de conductas. Sobre las dos primeras seguramente realizaré una entrada, aunque no suelen utilizarse en el aula para valorar aprendizajes o desempeños cayendo más bien en el campo de la valoración de actitudes.

Así, estas tareas de desempeño, niveles de habilidad... se valoran en un nivel concreto dentro de un rango de valores. Por lo tanto, son similares a las listas de cotejo excepto en que indican el grado de cumplimiento, en lugar de señalar si se cumple o no se cumple (sí/no).Dicho de otro modo, las escalas de valoración añaden un elemento más a la listas de cotejo, la escala por la cual se van a valorar los distintos criterios de desempeño (o realización). En este caso, los criterios de desempeño no pueden valorarse en términos de realiza/no realiza porque admiten grados en función de alguna cualidad.

Ejemplos:
- Frecuencia: siempre, casi siempre, a veces, nunca
- Autonomía: sin apoyos, con apoyos puntuales, con apoyos frecuentes...
- Cumplimiento: completamente, en parte, sin realizar...
...

A veces la escala simplemente permite puntuar el criterio de desempeño sin la guía la cualidad que se pretende observar, aunque no es aconsejable.
En otras ocasiones, puede darse el caso de que tengamos distintas cualidades a tener en cuenta: frecuencia, autonomía...en distintos criterios de realización. Debemos procurar redactar los criterios de realización para intentar manejar sólo una de estas cualidades y mantener la homogeneidad de la escala.
Cuando se trata de frecuencias, suele ser habitual señalar el rango de cada nivel. Por ejemplo, Escribe la receta atendiendo a las normas de ortografía (Ortografía): Siempre (0 a 5 faltas de ortografía); A veces (6 y 10 faltas de ortografía); Nunca (Más de 10 faltas de ortografía).

Estructura de una escala de valoración

En una escala de valoración los criterios de desempeño van en una columna y el rango de cumplimiento con palabras descriptivas, con o sin números, en otras columnas. Estas otras columnas forman la "escala" y como se ha comentado pueden indicar un rango de logro, de acuerdo, de frecuencia, de autonomía, de motivación... En muchas ocasiones los criterios de desempeño se sustituyen por atributos, pero solo es aconsejable si se tiene claro qué hay detrás de cada atributo, es decir, el criterio de desempeño.

Usos principales


En cuanto a sus usos principales las escalas de valoración son un instrumento que se alinea con las rúbricas y las escalas de valoración. Son una buena herramienta para evaluar desempeños y proporcionar feedback a los estudiantes sobre qué aspectos deben mejorar en función de un criterio o cualidad determinada.

También puede ser un excelente instrumento para que elaboren los propios estudiantes y que lo utilicen como herramienta de coevaluación y autoevaluación según lo requiera el caso. Últimamente se están desarrollando elementos visuales que facilitan esta labor y atractivo para el alumnado: dianas de evaluación, estrellas, likes, acelerómetros, semáforos, uso de emoticonos...son todo versiones de escalas de valoración.
Autor: Proyecto Aprender (CC BY-NC-SA)


Ojo con esto, porque cuando nos hablan de un instrumento nuevo (ocurre con las dianas especialmente) en realidad no nos están ofreciendo nada nuevo, son escalas de valoración que se visten para salir de fiesta, nada más. Independientemente de lo atractivo de éstas, en el fondo se ha de procurar que estén diseñadas de forma que lo importante, los criterios de desempeño, o en su defecto los atributos, estén bien alineados con el currículo y con el contexto de realización de la actividad.

(Esta entrada está extraída en parte del contenido del curso del INTEF: Evaluación de competencias: estrategias e instrumentos. Autor: Javier Cortés De las Heras)

martes, 16 de julio de 2019

¡Feliz verano! - 2019

Estamos llegando ya a la finalización de otro curso más. Aún queda alguna tarea por acabar, en mi caso. Pero básicamente informes, papeleos, planificación del curso que viene...Ya sin alumnado por aquí... la parte más rollo. Como dice nuestro querido alumnado, ¡qué pateo!

Al igual que el año pasado, os quiero dar las gracias por continuar leyendo el blog, por enviar comentarios, por valorar este trabajo. Este año ha sido muy intenso y quizá he sido algo menos regular con las entradas, que básicamente se han centrado en cuestionarios cognitivos. Aunque también ha sido el curso en el que más visitas ha recibido este blog. Quizá porque lo recomiendo en los cursos que imparto a otros centros y compañeros, que este curso han sido unos cuantos. Y claro, me hacen caso (¡qué majos/as!). En definitiva, la valoración que hago es positiva.

¿Qué nos deparará el curso que viene respecto a la Revoluación? Pues se plantea intenso. Al respecto de las entradas que voy a continuar ofreciendo, quizá algunos de los aspectos en los que me centre sea en análisis más concienzudos sobre el uso de la calificación, resultados de distintas evaluaciones internacionales, marcos teóricos de evaluación, como el de lectura de PISA...y alguna que otra conclusión de las que estamos trabajando en Red por el Diálogo Educativo (REDE), cuando sean públicas. Aunque también me gustaría ir ofreciendo poco a poco más recursos, entre ellos tengo un proyecto pendiente sobre evaluación de competencias clave.



Os dejo por aquí un enlace al blog de Asociación Educación Abierta. En la Jornada que organizó esta asociación el día 11 de mayo, con el título "Lo que PISA no ve" tuve el honor y el placer de hacer una pequeña intervención al respecto de la evaluación del aprendizaje. Y aquí tenéis el vídeo:


Por último, pero no menos importante, también estaré desde septiembre coordinando un curso del INTEF sobre evaluación de competencias clave, junto con otros compañeros/as que realizarán la tutoría. Aquí tenéis el tag de Twitter para cuando comience: #EvalComp_INTEF. Y un artículo donde se explica el contenido del curso.

Sed felices, descansad y disfrutad al máximo de lo esencial (que no es la evaluación). Nos vemos en el curso que viene.


sábado, 8 de junio de 2019

Cuestionarios cognitivos (IV): ítems de respuesta cerrada y abierta

Para empezar, quien dice ítem dice pregunta. En esta entrada vamos a dedicarnos a describir los formatos de ítems que se pueden utilizar en un cuestionario cognitivo. Los formatos de respuesta cerrada han ido desapareciendo de nuestros cuestionarios de clase  (especialmente los de elección múltiple) quizá porque se han ganado una mala fama, injustificada en muchos casos dados los tipos de ítems de respuesta abierta que aparecen habitualmente:

Pregunta de respuesta abierta corta de un cuestionario de CC. Sociales 6º Ed. Primaria - Ed. SM

¿Qué aspecto del aprendizaje se persigue evaluar con este tipo de ítems del ejemplo?, ¿qué proceso cognitivo está implicado fundamentalmente? ¿Qué diferencia habría entre escribir el concepto o seleccionarlo de una lista?

Qué es un ítem

El ítem es la unidad mínima de medida de una prueba.

En una unidad de evaluación pueden presentarse ítems de distinta tipología, pero todos ellos están vinculados a un estímulo, un contexto determinado. En otras pruebas, los ítems no dependen de un estímulo concreto, como ocurre en la mayor parte de cuestionarios de clase.

Los hay de repuesta cerrada y de respuesta abierta. En algunas clasificaciones a los ítems de respuesta abierta se les denomina ítems de respuesta construida. Y existiría entre medio de los de respuesta cerrada y construida, los de respuesta semi-construida. A todos los efectos:

- Ítem de respuesta cerrada: se proporcionan las respuestas al alumno/a (que se tendrá que seleccionar, asociar, ordenar, colocar en un espacio...).

- Ítem de respuesta abierta: las respuestas las ha de proporcionar el alumno/a, sean cortas (una palabra o frase, un dibujo sencillo, gráfico, la resolución de una operación, colorear un área pequeña...) o largas (párrafos, textos, desarrollo de operaciones complejas o problemas).

Reglas a seguir en la escritura de ítems (de cualquier tipología)

La escritura de un ítem y su inclusión dentro del conjunto del cuestionario debe permitir la medida del rendimiento de los alumnos en la competencia evaluada.  Crear un ítem de forma aislada puede ser relativamente sencillo. Crear un conjunto de ítems que se adapte a los aprendizajes que queremos evaluar (determinados en criterios de evaluación, indicadores de logro o descriptores) y además en un número elevado, ya no es tan sencillo. A esto se añade la posibilidad de utilizar estímulos, con lo que se complica la redacción, ya que hay que hacerla en un determinado contexto.

En definitiva, para construir un ítem debemos tener, al menos:
  • Conocimiento en profundidad de los contenidos de la competencia o materia a evaluar.
  • Conocimiento de los aspectos concretos de los procesos cognitivos que se evalúan.
Estos dos puntos son los que definen la tabla de especificaciones de un cuestionario y por tanto es el elemento de partida para comenzar la creación y construcción de preguntas de manera organizada. Ejemplos de tablas (o matrices) de especificaciones y de cómo un ítem responde a la evaluación de un determinado aspecto los podéis encontrar en cualquier marco de evaluación. Por ejemplo:

En cuanto a las sugerencias generales:

Los ítems son independientes unos de otros, la resolución de uno de ellos no ha de influir en la de otro.
El objetivo de un ítem es obtener una conducta observable y claramente interpretable (debe ser capaz de discriminar). De la respuesta que proporciona un alumno/a debe poder inferirse, con un grado suficiente de fiabilidad y validez, un nivel de dominio de la competencia.

  1. Cada ítem debe ser diseñado para evaluar sólo el resultado seleccionado del dominio y por tanto debe de servir para provocar las ejecuciones deseadas.
  2. Cada ítem debería referirse a una sola cuestión o concepto con una respuesta correcta clara o mejor opción.
  3. Los ítems no deben proporcionar pistas a la persona que contesta.
  4. En cuanto a su redacción, deben ser claros y sintéticos, formulados en forma de pregunta (a ser posible) y siempre en positivo, evitando la negación y mucho más la doble negación.  Han de incluir contenidos importantes o significativos.
  5. Es muy importante también situar toda la información de un mismo ítem en una misma página, fácilmente abarcable con la mirada.
  6. En cuanto a su resolución se debe procurar minimizar el tiempo que el alumno necesita para su lectura y comprensión.
El objetivo principal de todo esto es evitar añadir a cada ítem dificultad irrelevante que lo aleje del propósito para el que ha sido creado, la evaluación de un aspecto del dominio de aprendizaje. Así que todos estos aspectos deberían tenerse en cuenta en una posible revisión del cuestionario.

Volviendo a cómo se encabezaba esta entrada, es muy habitual rehuir de los ítems de respuesta cerrada y utilizar todos los ítems de respuesta abierta. Sin embargo, no es lo recomendable cuando lo que se quiere evaluar es la recuperación (identificación, clasificación, reconocimiento...) de conocimientos (especialmente de hechos o conceptos), básicamente porque van a proporcionar mayor ventaja tanto al alumnado (en su respuesta) como al profesorado (en su corrección) sin restar un ápice de validez para lo que se pretende evaluar. Obviamente, los ítems de respuesta cerrada son más complejos de diseñar que los de respuesta abierta, porque incluyen (además de la pregunta (o tronco)) las alternativas de respuesta. Se aportará una entrada sobre las reglas de generación de ítems, sus ventajas e inconvenientes más adelante.

Formatos y usos más habituales de ítems

Puedes descargar la infografía que aparece a continuación. Cada tipología tiene unas reglas de generación (diseño) propias, y unas ventajas e inconvenientes. De las más señaladas como ventajas de los ítems de respuesta corta es la facilidad en su corrección, y de los de respuesta larga la posibilidad de valorar conocimientos y aspectos cognitivos más complejos (aplicar, analizar, evaluar y crear).













martes, 7 de mayo de 2019

Cuestionarios cognitivos (III): Estímulos

En esta tercera parte vamos a abordar el asunto de los estímulos en cuestionarios cognitivos. Ya se ha indicado en anteriores entradas referidas a este instrumento de evaluación que su aparición ha sido más frecuente en cuestionarios sobre evaluación de competencias clave en las evaluaciones de diagnóstico (LOE) y las individualizadas (LOMCE), todas ellas de carácter externo.

Sin embargo, el uso de este tipo de elementos en los cuestionarios de clase no es tan habitual. Generalmente, en los cuestionarios que se usan en clase, cada pregunta presenta en su enunciado la información necesaria para responder, e independiente del resto de preguntas. Esta información, a menudo, está desprovista de un contexto de aplicación de los conocimientos demandados.



Fuente: Extracto de preguntas de una prueba de Matemáticas 6º Ed. Primaria (ANAYA)

Entonces...

¿Qué hace que un cuestionario de este tipo evalúe una competencia?

O bien que el dominio de evaluación sea una competencia o, en el caso de no serlo, que se refiera a una asignatura, presentando los conocimientos a evaluar en un contexto de aplicación.
Recordemos que una competencia se define por el conjunto de conocimientos, destrezas y actitudes que se aplican de manera efectiva en un contexto determinado.

Estos contextos pueden ser: personales, académicos / laborales, sociales; personales, locales, nacionales, globales... Y se concretan en situaciones (problema) mediante los llamados estímulos. Dicho de otra manera, un estímulo es una pieza de información referida a un contexto o situación, utilizada en los cuestionarios cognitivos para evaluar unos conocimientos.

Los reactivos (ítems / preguntas) se ponen en relación con este estímulo (que representa un contexto) para movilizar conocimientos (factuales, conceptuales, procedimentales y metacognitivos) y en menor medida destrezas, de manera eficiente.

Materiales para generar estímulos

La verdad es que toda información que nos rodee que sirva para evidenciar un tipo de conocimiento en nuestro alumnado mediante la respuesta a preguntas que hagamos sobre esa información, es susceptible de convertirse en estímulo. Aquí va una lista:
  • Noticias, artículos – en papel o en Internet.
  • Compras, incluyendo anuncios.
  • Objetos reales y su embalaje – comida, bebidas, ingredientes, materiales, jardín, hogar, medicinas, productos de limpieza, etc.
  • Cocina y comida – recetas.
  • Panfletos y octavillas
  • Mapas y guías.
  • Información financiera.
  • Información sobre edificios, jardines, campos de deporte, parques, etc.
  • Información sobre vacaciones y viajes.
  • Materiales de trabajo, si se ve apropiado.
  • Una foto con texto al pie.
  • ...
Muchos de estos estímulos tendrán que modificarse para hacerlos asequibles a nuestro alumnado. Por ejemplo, si cogemos una factura de la luz tal cual es en el mundo real, quizá haya que escanearla y editarla: eliminado toda información que excede a las competencias a evaluar, quitando la publicidad y datos personales, agrandando alguna tipografía o destacándola, etc.

En la evaluación de la competencia lectora (o comprensión lectora) el estímulo es un texto, que se refiere a un contexto determinado y que puede clasificarse según su fuente, organización, formato o tipología textual. Sobre ellos y las estrategias para generar preguntas a partir de ellos se hará una entrada especial.

Criterios básicos para seleccionar un buen estímulo

  • Que sea rico en los matices que proporciona la información que contiene, e interesante. Evitar temáticas que no generen demasiado interés y que puedan llegar a aburrir.
  • Que presente un reto óptimo a los estudiantes, ni demasiado difícil ni demasiado fácil para el nivel al que va dirigido. No ha de plantear retos artificiales o añadidos, que lo harían más difícil de comprender. Se debe cuidar especialmente la cantidad de información que contiene, sobre todo en niveles educativos inferiores, que puede sobrecargar la tarea cognitiva más importante: contestar a las preguntas planteadas sobre él.
  • Que ofrezca la oportunidad de realizar preguntas sobre el conocimiento a evaluar. 
  • Que sea accesible y equitativo atendiendo a posibles diferencias en los alumnos. Por supuesto, no se ha de utilizar algo que sea potencialmente ofensivo o que pueda molestar o discriminar.
Una advertencia final, antes de exponer algún ejemplo de estímulos. No evaluar conocimientos con este tipo de estrategia si antes en las actividades de clase el enfoque no es este. Recordad que lo importante en evaluación no es ser más o menos "moderno", "guay", si no más bien ser coherente con la metodología de enseñanza y el currículo de referencia (véase esta entrada: El papel de la evaluación en la taxonomía de Bloom (II)).

Ejemplos


PISA - Competencia Matemática
(OCDE)


PISA - Competencia Científica (estímulo digital interactivo)
(OCDE)

Evaluación de Diagnóstico 2011-12 - Conciencia y Expresión Cultural 4º Ed. Primaria
(Junta de Andalucía)

Evaluación de Diagnóstico 2010 - Competencias Sociales y Cívicas 
(Gobierno del País Vasco)

miércoles, 24 de abril de 2019

Aclarando conceptos de evaluación: pruebas, instrumentos, técnicas y procedimientos.

Después de tener una conversación con una compañera del instituto me ha venido la inspiración. Cuántas veces nos preguntamos si esto o aquello es un instrumento de evaluación o no: ¿un portafolio, un diario de aprendizaje... son instrumentos de evaluación?¿Y la autoevaluación o coevaluación?¿Las dianas de evaluación conforman un instrumento de evaluación diferente de otros, con categoría plena?

Hay un "cacao" auténtico en este tema, incluso en autores reconocidos dentro del campo de la educación. Y aquí esta sencilla entrada para intentar aclarar algunas cosas al respecto (desde mi punto de vista, claro). No es que las definiciones con sus ejemplos vayan a cambiar las prácticas docentes. Incluso algunos/as podéis pensar que -¡qué más da como se nombre o lo que sea, con saber cuándo y cómo quiero utilizarlo-. Y en parte se tiene razón, pero ¿qué pasa cuando nos piden que definamos alguna cuestión de éstas en una oposición, entrevista de trabajo, en una charla dirigida a o entre compañeros...? Así que, espero que estas definiciones os ayuden un poco en vuestro buen hacer docente.

Antes de empezar

¿Cómo se debería proceder con las definiciones de los conceptos que voy a proporcionar con sus ejemplos?
1. Leed y comprended la definición
2. Leed los ejemplos y comprobar que se ajustan a la categoría en la que están incluidos y no en otra (definida o no).
3. Para validar la definición, buscad más ejemplos o contraejemplos. En este último caso habrá que redefinir el concepto.

Por tanto, si tenéis:

  • contraejemplos que hagan repensar la definición o,
  • ejemplos que completen a lo que hay expuesto o,
  • matizaciones a las definiciones 


Por favor, aportadlos en los comentarios a la entrada. Prometo actualizarla en cuanto haya suficientes. Y si no hay, quedará como está.

Métodos de evaluación - cómo evaluamos

Conjunto de pasos (procedimiento objetivos o subjetivo) con sus estrategias y técnicas, que usa el docente (evaluador) para someter al estudiante (evaluado) a una prueba y así valorar el grado de consecución del aprendizaje con uno o varios instrumentos de evaluación.

De forma genérica se pueden distinguir:
  • Métodos de observación
  • Métodos de encuesta
  • Métodos de entrevista
  • Administración de pruebas
  • Autoinformes

Pruebas de evaluación (evidencias) - qué evaluamos

Retos o situaciones en las que se demanda a un estudiante (evaluado) que realice una acción (o conjunto de ellas) con el objeto de evaluar sus conocimientos, destrezas y/o actitudes.

  • Respuestas a preguntas cerradas / abiertas o construidas (por escrito, oralmente, digitalmente): elección múltiple, verdadero/falso, asociación, ordenación; rellenar huecos (frases o palabras), frases o párrafos, etiquetar un diagrama, tablas, ilustraciones, mapas conceptuales, diagramas de flujo.
  • Desempeños: presentación oral, baile, demostración en ciencias, habilidades atléticas, actuación teatral, debate, recital...
  • Productos: ensayo, trabajo de investigación o laboratorio, entrada o artículo de un blog, poema o canción, portfolio, exhibición artística, modelo, maqueta, proyecto de ciencias, vídeo, audio, hoja de cálculo, base de datos...
  • Procesos: toma de decisiones, proceso de descripción, análisis, creación, planificación, etc., un diario de aprendizaje, entrevista, conferencia, diálogos, participación en grupo…

Instrumentos de evaluación - con qué evaluamos

Herramientas que permiten establecer una valoración sobre el grado de consecución de los aprendizajes (cualitativa – cuantitativa).

  • Cuestionarios (cognitivos)
  • Escalas actitudinales
  • Listas de cotejo o comprobación
  • Escalas de valoración y sus variantes creativas (p. ej.: diana de evaluación)
  • Rúbricas (analíticas y holísticas)


domingo, 31 de marzo de 2019

Cuestionarios cognitivos (II): Diseño y estructura

Por fin, la cosa va estando más relajada de trabajo y puedo continuar con el propósito de incluir más entradas sobre cuestionarios cognitivos. Me iré poniendo al día...
Gracias por seguir visitando el blog, a pesar de la inactividad.

En esta entrada voy a dejar una infografía sobre el diseño y estructura de los cuestionarios cognitivos. En resumen, van a estar conformados por unidades de evaluación. Cada unidad de evaluación está referida a un contexto, representado por un estímulo. En torno a ese estímulo, se realizan una serie de preguntas (ítems) de diferente formato que se relacionan también con un dominio de aprendizaje.


Algunas consideraciones para su uso en el aula


Ya se adelantó en la anterior entrada (Cuestionarios cognitivos (I): Fundamentación y características) que no todos los cuestionarios cognitivos han de incluir estímulos. Son aquellos que tienen un enfoque más tradicional o, si se quiere, menos dirigido a la evaluación de competencias. Un ejemplo a nivel internacional es TIMSS. La mayor parte de cuestionarios utilizados en clase carecen de estímulos y se centran en evaluar conocimientos, casi siempre de hechos o conceptos, a un nivel cognitivo de recordar o comprender, aplicar a lo sumo...incluso cuando se trata de ejercicios o problemas en matemáticas o física, por ejemplo: recordar un algoritmo o fórmula, comprender el problema (datos) y aplicar el proceso de resolución. Así que si queremos evaluar estos aspectos es una buena estrategia seguir con este tipo de pruebas.

Otra de las consideraciones a tener en cuenta es que diseñar un cuestionario cognitivo con estímulos supone aumentar la complejidad de la prueba, y si no se trabaja en clase de esta forma, también supone sesgar la evaluación y hacerla menos válida. En definitiva rompemos con la alineación entre enfoque de enseñanza-aprendizaje y evaluación.

En cuanto al tipo de preguntas (ítems), es habitual encontrarse en las pruebas de clase pocas de formato cerrado. No es malo utilizar formatos de este estilo siempre y cuando el tipo de conocimiento a evaluar se centre en hechos y conceptos. Además son mucho más rápidas de "corregir" y producen menos errores de tipo interpretativo. Con las preguntas abiertas, lo ideal sería tener guías de valoración, para aumentar la fiabilidad (véase:
Guías de valoración: mejorando la calificación de las respuestas abiertas).

Por último, se ha hablado de unidades de evaluación. Estas tienen sentido en cuestionarios largos (con gran número de ítems). Una unidad de evaluación va a incluir un estímulo con sus preguntas, habitualmente entre 5-15 preguntas. En este tipo de cuestionarios se pueden encontrar entre 3-5 unidades de evaluación. En los cuestionarios utilizados en clase también es muy difícil aplicar este formato, y las preguntas girarán en torno a un único estímulo, a lo sumo dos, que den origen entre 5-15 preguntas, dependiendo del formato de éstas.

Se irá avanzando en aspectos a tener en cuenta tanto para estímulos como para preguntas próximamente.