 Hola a todos, en este vídeo os vamos a mostrar la solución al problema que propusimos en la actividad sobre Inteligencia Artificial que hicimos hace unas dos semanas para la Code Week. En aquella ocasión propusimos construir un clasificador de perros y gatos utilizando una potente herramienta que se llamaba Tishibor Machine que era esta de aquí, recordadla. Bien, con esa herramienta podemos construir clasificadores. Propusimos una serie de imágenes de entrenamiento para los perros, otra serie de imágenes para los gatos y con esas imágenes pues había que entrenar la red. Vimos que funcionaba bastante bien, cuando poníamos un perro como este pues lo clavaba, acertaba cuando poníamos un perro como este pues también acertaba, con los gatitos pues teníamos la misma cosa, va funcionando muy bien pero resulta que cuando colocamos un perro negro como este se equivoca absolutamente, dice con prácticamente un 80% de probabilidad que se trata de un gato. ¿Por qué está ocurriendo esto? Nosotros dejamos abiertas las siguientes preguntas ¿Por qué ocurre esto? ¿Por qué no está clasificando correctamente ese perro? Bueno, la razón es sencillamente que un algoritmo de Machine Learning no puede ir más allá de los datos con los que ha sido entrenado y nosotros utilizamos para este ejercicio un montón de gatos que eran negros y no negros pero sin embargo todos los perros que hemos utilizado eran perros no negros, eran perros más bien claritos. ¿Qué ocurre? pues que el algoritmo cuando ve un perro negro se fija posiblemente mucho en el color y como no tiene ningún ejemplo de perro negro pues lo está confundiendo con un gato negro esto es lo que se llama el sesgo de los datos y es posiblemente el problema principal que tienen los algoritmos de Machine Learning es que si no utilizamos un conjunto de datos suficientemente diverso para nuestro problema pues vamos a tener fallos debido al sesgo no haber elegido correctamente los ejemplos que constituyen el data set, el conjunto de datos ¿Cómo podemos resolver este problema? bueno pues es muy sencillo, seguir añadiendo ejemplos al conjunto de entrenamiento de perros ejemplo en este caso de perros negros como por ejemplo este que ya lo he metido hace un momento este de aquí que también lo he metido fuera de cámara y entonces ya con esos ejemplos de perros negros el algoritmo ha aprendido algo más y ya es capaz de saber que no solamente hay gatos negros sino que también hay perros negros ya le colocamos el de antes en el que fallaba antes y vemos que en efecto empieza a clasificarlo correctamente y la última pregunta que planteábamos era qué consecuencias puede tener aplicar la inteligencia artificial concretamente el machine learning a problemas reales bueno pues está muy claro, si realmente estos algoritmos tienen el problema del sesgo es decir que no se utilice un conjunto de datos lo suficientemente diverso como para clasificar correctamente las cosas que nosotros queremos pues a lo mejor resulta que si nos fiamos demasiado de un problema real si nos fiamos demasiado de un algoritmo que ha sido mal entrenado pues podemos tener bastantes problemas, problemas de tipo éticos por ejemplo y lo que estoy hablando lo puedo ilustrar con un caso que ocurrió en el 2015 con las inteligencias artificiales de Google concretamente de Google Photos resulta como sabéis que Google posiblemente sea de las empresas que más han investigado y que más potentes son el tema de inteligencia artificial y siempre están probando cosas nuevas bueno pues las fotos de Google las clasificaba automáticamente utilizando un algoritmo de este tipo de machine learning y en el 2015 esos algoritmos pues no habían sido entrenados con los conjuntos de datos suficientemente extenso y diverso de forma que se equivocaba bastante y en algún caso la equivocación pues podía llegar a ser bastante ofensiva como por ejemplo clasificar a personas de color como gorilas y por supuesto son muchos más los ejemplos que actualmente existen sobre problemas con este tipo de algoritmo en este artículo de aquí de Artificial Intelligence White Guide Problem que se publicó en The New York Times en junio del 2016 se habla precisamente de este tema y recomiendo encaracidamente su lectura puesto que nos ofrece una visión pues bastante realista del problema que podemos llegar a tener si confiamos fiegarmente en los algoritmos de inteligencia artificial en los algoritmos concretamente de Machine Learning entre otras cosas en ese artículo hablan de una herramienta de Machine Learning que están utilizando en Estados Unidos los jueces para determinar, evaluar la probabilidad de reincidencia de los criminales y bueno obviamente son cuestiones éticas que conviene cuando menos reflexionarlas o planteárselas porque son muy delicadas aún más viendo que estos algoritmos están sometidos a un problema muy importante como es el sesgo y bueno pues se abre un amplio abanico de cuestiones éticas que relacionadas con el uso cada vez más intenso de estas técnicas en la sociedad que merecen la pena su reflexión y no podemos reflexionar sobre dichos problemas éticos si no conocemos los fundamentos las bases de funcionamiento de estos algoritmos y creo que esto es una de las principales razones por las que es importante que tanto los profesores como nuestros alumnos en general los ciudadanos sepan al menos un mínimo de cómo funcionan los algoritmos de inteligencia artificial