 Bien, llegado a este punto, vamos a aplicar aquello de que un imagen vale más que mil palabras. Vamos a trabajar estas ideas que hemos estado diciendo con una aplicación que es muy sencilla de utilizar y que, sin embargo, es muy potente a la hora de aclarar estos conceptos y a la hora de entender qué significa Machine Learning. La aplicación se llama Teachable Machine, esa es la URL, la URL la tenéis también en la página que hemos decoded in Tev, aquí en Code Week, el evento in Tev, bueno, pues en la parte de secundaria aquí tenéis el enlace para arrancar esa aplicación. La aplicación le de a Skip de Tutorial, hay un tutorial, si queréis verlo más detenidamente, pues es muy interesante pero bueno, para eso lo estoy contando ya ahora. La cosa es que esta aplicación como veis tiene tres partes y se corresponde más o menos con los tres fases que hemos dicho del Machine Learning. Por un lado tenemos una entrada de vídeo porque esta aplicación lo que va a ser es un clasificador de imágenes, clasifica imágenes, las imágenes que vayan entrando por la webcam o por la cámara que tengáis conectado al ordenador, eso es el input. Después tiene un módulo de aprendizaje, Learning y ese módulo nos va a servir para que las imágenes que nosotros queramos le digamos esta pertenece a tal clase, es decir, para que clasifiquemos nosotros las imágenes y se lo digamos al ordenador, a partir de ahí el ordenador aprenderá a clasificar. ¿Cómo hacemos esa clasificación? Pues muy fácil, aquí tenemos tres clases que le han llamado los autores de la aplicación verde, púrpura y naranja y nosotros a esas tres colores le asociemos la clase que queramos, por ejemplo, yo voy a jugar al, os voy a enseñar al ordenador a jugar al juego de piedra, papel o tijera, recordad piedra es este símbolo, papel es este gesto y tijera es este gesto. Entonces, para enseñarle lo que voy a hacer es tomar varias imágenes de piedra y lo asocio al verde, que va a ser para mí la piedra, vale, para asociarlo simplemente tengo que presionar y mantener presionado el botón, lo mantengo presionado y empiezo a recoger muestras, me muevo un poco para que tenga varias imágenes de lo que es piedra, de lo que es el gesto de piedra. Lo mismo hacemos con papel, papel base esto, vale, pues presiono el botón púrpura y pillo otras cuantas de imágenes para papel y tijeras, es este gesto, pues nada, lo voy a asociar al naranja, para mí naranja base tijeras y empiezo a tomar imágenes que inmediatamente quedan clasificadas como tijeras. Entonces, esto que vemos aquí son los ejemplos que decíamos pues aquí es el conjunto de entrenamiento, lo que acabo de hacer ahora mismo es pillar el conjunto de entrenamiento y con eso el algoritmo de machine learning ya se ha puesto a funcionar y va a ser capaz de clasificar nuevas imágenes. La tercera fase que está de aquí el output es simplemente cuando ya no estamos entrenándolo, cuando ya no le estamos diciendo a qué clase pertenece una imagen, pues él nos va a decir lo que el algoritmo cree. Vamos a poner esto así un poquito más divertido, voy a cambiar esa imagen por una piedra, stone, a ver, aquí, esto es stone, bueno, las cositas de internet, papel, vamos a buscar por aquí paper, este por ejemplo y aquí vamos a colocar una tijera, sí, sol, por ejemplo, perdona, pero no lo escrito bien aquí, esta de aquí que me gusta. Bien, si ahora yo introduzco una nueva imagen que no he grabado antes, ahora ya no le voy a dar al botón para clasificar, ya simplemente utilizo el algoritmo, vamos a sacar el gesto piedra, lo clasifica con un 99% de probabilidad de confianza, lo dice aquí, como este gesto como piedra, tijeras, con un 99% lo está clasificando como tijeras, y papel, piedra, papel o tijeras, y lo interesante es que estos gestos son nuevos en el sentido de que no los he grabado, los que grabé eran parecidos, pero no son exactamente los mismos, y él es capaz de, incluso ahora mismo, está diciendo que este es el gesto de piedra, obviamente está interpretando mi cabeza como que pues algo redondo, un puño, entonces con esta aplicación si queréis podéis incluso cambiarle en lugar de que la salida sea una imagen, pues podéis jugar con sonidos o con palabras, basta con que pongáis aquí lo que queráis, por ejemplo pues piedra, pues ahora pasa que con acento inglés, ahora hay que ponerlo en inglés para que realmente se escuche correctamente, bien, ahora lo que vamos a hacer es que os vamos a dar unos minutos, tres, cuatro minutos para que vosotros, perdonad, vamos a callar aquí a este, para que vosotros jugáis con esta aplicación y vayáis conociendo pues cómo funcionan estos algoritmos de machine learning, y vayáis las posibilidades que tiene, y pasado unos cuatro minutitos aproximadamente volveré y plantearemos una nueva actividad en la que veremos algo curioso de estos algoritmos. Hola de nuevo, espero que hayáis jugado con la aplicación, que os hayáis divertido, hayáis visto el potencial un poquito que tiene, de todas formas esto lo interesante es que cuando termine la sesión pues que sigáis vosotros utilizándola, de hecho os voy a proponer ahora una nueva actividad para hacer uso de esta aplicación, no sé lo que habréis hecho, pero bueno, una de las cosas que podéis hacer es jugar con vuestros gestos, grabar gestos de cuando reis, gestos de cuando estáis tristes, gestos de alegría, no sé, o incluso clasificar por ejemplo como verde la cara de uno de vosotros, como púlpura la cara de otro de vosotros y como naranja otra cara de distinta y ver que es capaz realmente de reconocer quién es el que está en frente de la cámara una vez que ha sido entrenado el algoritmo, que ha sido entrenada la máquina esta.