 Vamos a finalizar el curso, fijándonos en un tópico que da sentido al resto, siguiendo el ya conocido forismo. Dime cómo evaluas y te diré cómo enseñas y aprenden tu alumno. Lo objetivo a conseguir son identificar recursos e instrumentos para la evaluación del alumnado para el desarrollo de la competencia STEM y de los propios diseños instruccionales. Evaluar los diseños confeccionados durante la realización del curso. No vamos a autorizar sobre qué es evaluación, pero sí queremos enfatizar que se trata de un proceso complejo. Así, la profesora Jelly define evaluación como recoger información sobre los procesos y los resultados del proyecto educativo, desde el inicio hasta el final de su desarrollo, y analizarla e interpretarla respecto al proceso de enseñanza aprendizaje de los alumnos y respecto de todos los factores que inciden en la calidad del mismo. La evaluación debe estar integrada en el proceso didáctico, ser continua en el mismo, global e individual. La evaluación al responder a las preguntas para qué, cuándo, qué y cómo o quién adopta distintas tipologías. Así hablamos de evaluación diagnóstica, formativa, final o sumativa, formadora de control de la calidad del proyecto educativo, de promoción, de evaluación del profesorado, autoevaluación o evaluación, etcétera. Se trata de huir de unos exámenes unas preguntas que se refieren directamente a contenidos teóricos o algoritmicos, que no requieren conocimientos integradores, ricos en relaciones mutuas y que se plantean en contextos estrictamente académicos, sin relación con los ámbitos cotidianos. En la tabla que se encuentra completa en los materiales del curso, encontrará algunas propuestas para la evaluación de competencia, distinguiéndose entre distintas dimensiones. Concretando en la evaluación del alumnado, en una secuencia de actividades de tipo indagatorio, puede ser muy útil la utilización de la rúbica que se encuentra entre los materiales del MOOC. Presenta cinco niveles de logro y se fija en siete categorías. Identificación de problemas investigables, formulación de hipótesis, identificación de variables, planificación de la investigación, recogida y procesamiento de los datos, análisis de datos y obtención de conclusiones y finalmente metareflesión. Cabe plantearse la evaluación de los propios diseños de actividades que están pensados para el desarrollo de competencia. Podríamos considerar en que, a medida que se movilizan capacidades y qué demanda cognitiva implican. Nuestra evaluación se limita a la mera reproducción o por el contrario buscamos comprobar el desarrollo de capacidades de alta demanda cognitiva, como puede ser la transferencia que suplone aplicar el conocimiento aprendido a nuevas sustituciones o la horística que requiere el diseño de un plan o la descripción de los pasos que es necesario seguir para llegar a una solución o la argumentación que requiere razonar de forma argumentada para explicar el fenómeno que se trate comunicando la conclusión. Si analizamos las pruebas PISA o de algunas evoluciones diagnósticas de comunidades autónomas en relación con ciencia y matemática, algunos autores han encontrado sorprendentemente unos resultados mejorables tal como indica la gráfica. Esto junto con la dificultad en estas pruebas para considerar la componente actitudinal que estaría en ese saber hacer y ser complejo de la competencia estén supone una limitación. No obstante, centrémonos en lo positivo que otros autores surrayan y quedémonos con aquello del diseño PISA que nos puede ayudar a elaborar nuestras pruebas de papel y lápiz. En este sentido os presentamos un instrumento de análisis que sigue la perspectiva de PISA contextualizado para el área de tecnología, para analizar nuestras pruebas. Está vertebrado en las siguientes dimensiones, a autenticidad de la prueba, creación de una situación problema, explicitación del proceso de resolución, ayudas y criterios de corrección.