 Bueno, pues muy buenas, bienvenidas y bienvenidos. Estamos en directo en este evento del NUC, Inteligencia Artificial para el Bien Común. Y para esta tarde contamos con dos personas que son, vamos, exponentes increíbles de esta tecnología. Tenemos a Lucía Ortiz de Zarate. ¿Qué tal? Hola Jorge, encantada, gracias. Pues gracias a ti por estar aquí y a Nerea Luis. ¿Qué tal? ¿Cómo estás? Hola, ¿qué tal? Jorge, gracias, bien bien. Pues estupendamente, pues deciros rápidamente que Lucía es investigadora prelctoral en la Universidad Autónoma de Madrid, investigadora asociada en el Círculo de Bellas Artes, graduada en física, también graduada en filosofía, donde obtuvo un premio extraordinario de fin de grado, premio de la Universidad Complutense alunidad mejor expediente de grado, tiene un máster en astrofísica, otro en democracia y gobierno. Vamos, un currículum impresionante actualmente, realiza una tesis doctoral sobre ética y gobernanza de la inteligencia artificial. Vamos, increíble, podríamos estar aquí hablando de un montón de temas, ¿verdad? Relacionados con distintos ámbitos, pero esta tarde hablaremos de inteligencia artificial. Y por otro lado, tenemos también a Nerea, que es doctor en ciencias de la computación, trabaja como ingeniera en inteligencia artificial. ¿Cómo se pronuncia, perdona, Nerea? Singular. Muy bien, perfecto. ¿Dónde lidera proyectos relacionados con machine learning y computer vision, entre otros, y apasionada de la divulgación, la inteligencia artificial, la robótica, de hecho relacionado con este tema de la divulgación, pues no en vano es cofundadora del TechFest y del Women TechMaker School, ¿no? Y pues nada, muchísimas gracias por estar esta tarde y sed bienvenidas. El Nuke, de la que forma parte de este evento, es inteligencia artificial aplicada al bien común y yo creo que para ir rompiendo un poco el hielo, lo que había pensado es que me contaseis cuándo fue la primera vez que oísteis hablar de inteligencia artificial y si de alguna manera lo cuando investigasteis o cuando pusisteis a estudiar esta disciplina, tenía que ver con lo que habíais pensado o dijisteis, wow, esto es una cosa completamente distinta. ¿Quién empezará? ¿Quién la ptc? Venga Lucía, dale. Bueno, pues mira, yo, Jorge, me parece una pregunta súper interesante porque me parece más difícil de lo que parece, porque no está lo pensando y no tengo claro cuándo fue la primera vez que yo escuché hablar de inteligencia artificial, inteligencia artificial siendo lo que realmente es la inteligencia artificial, o sea, yo recuerdo ser pequeña o adolescente incluso y tener yo creo esta idea de, o sea, de inteligencia artificial pero más relacionado con la cultura popular, con cuestiones que tienen que ver con las películas de la ciencia ficción, las típicas Terminator, Robo, incluso 2001 Design El Espacio, está un poco esta imagen de como máquinas súper inteligentes a las que había que tener como mínimo respeto y en verdad los casos un poco de temor porque era mucho. Entonces, luego, cuando estudié física y fui introduciéndome ya más en el mundo de, o sea, yo no me especialicé en física electrónica pero bueno, tenía amigos y tal, nos teníamos en naturas transversales, pues claro, veíamos más cosas de electrónica, de programación, tal, pues ya ahí me fui familiarizando con una noción mucho más cercana y real de lo que realmente es la inteligencia artificial y yo creo que ahí fue como la primera aproximación que tuve, como os digo, algo real y claro, sí que supuso un cambio muy grande con lo que yo tenía y yo, y pienso que seguro que lo vamos a hablar de forma errónea presente su inteligencia artificial y que yo creo que es algo que tiene presente la mayor parte de las personas en lo que podríamos denominar su imaginaria tecnológico-colectivo, o sea, que hay una mala idea o idea tendente errónea, no por culpa de los ciudadanos sino por un poco de desconocimiento de lo que es la inteligencia artificial. Entonces, para mí, al menos para mí, sí que supuso un cambio muy grande de lo que descubrí que era la inteligencia artificial, lo que yo, es decir, que tampoco me había parado como mucho a reflexionarlo, pero desde luego lo que yo tenía entendido como que podía ser algo similar a inteligencia artificial, ¿no? En la cultura popular la inteligencia artificial está muy asociada a lo que es la inteligencia artificial general, que son estas máquinas súper inteligentes, que pueden hacer todo, replicar la inteligencia humana en todos los sentidos, entonces, es un poco la imagen que yo tenía cuando ya me di cuenta que era una cosa mucho más tangible, mucho más limitada. Esto cuando estudiaba física era algo ya cuando empecé a estudiar filosofía en Met y como tal en el campo de estudio, pues lo vi como una cosa mucho más tangible, real y obviamente limitada. Entonces, sí, mi concepción cambió muchísimo. Pues, muy interesante lo que comentas de filosofía y luego podríamos entrar a ver cómo están implicadas, ¿no? Este tema de la inteligencia artificial con la filosofía, porque tiene que ver, aunque parezca aquí que son cosas como muy separadas, estaría bien que luego pensásemos en cómo se relaciona. Muy bien. Estupendo, pues muchas gracias Nerea. ¿Cómo fue tu experiencia con la inteligencia artificial? Pues parecida, eh. Esca y net, ¿no? Yo recuerdo además, fíjate, ahora estoy estudiando unas clases también como docente en unir y en el máster este que tiene la inteligencia artificial y da la casualidad de que doy la clase con el que me dio la primera clase de inteligencia artificial. O sea, somos los dos profesores de la estimatura y cuando hablaba con él ahora que nos hemos reencontrado, digo, madre mía, no ha llovido, ¿eh? O sea, y la primera vez que yo escuché inteligencia artificial, obviamente, fue con estas películas, ¿no? Determinado, la de AI, de Spielberg, bueno, todas estas, pero claro, cuando llegas a una ingeniera informática hay dos cosas que mola mucho. Una, los videojuegos, ¿no? Que todo el mundo quiera hacer videojuegos. En su momento también apps móviles estaban ahí como emergiendo, pero en mi caso todavía en 2009 era un poco temprano lo de las apps móviles. Y lo otro que sonaba así como futurista y que molaba era inteligencia artificial precisamente porque iba muy asociado a la robótica. Y recuerdo que cuando este profesor nos dio inteligencia artificial, ostras, tío, era una clase muy de órica. O sea, era una clase que te quería tirar de los pelos de las cosas que veías, que es el juego de tablero, laberintos, que si toma de decisiones, modelos de conocimiento y era como, pero aquí, o sea, ¿dónde está la magia? ¿no? O sea, ¿qué, qué ha pasado, ¿no? Y es hora 2011. Entonces, a mí la verdad que me llamó mucho la atención la inteligencia artificial, aunque fuese a ese nivel, ¿no? Teórica, teníamos algunas prácticas y tal, pero, pero muy pequeñitas, pero sí que se empezaba a ver, digamos, como esa forma de razonar, ¿no? O sea, lo que, lo que nos centrabamos al final era intentar emular esto que antes se llamaba sistemas expertos, que consiste, pues, en que tienes un motor de reglas y ellas mismas se van como disparando en función de cómo evoluciona el estado actual. Por eso se trabaja mucho con juegos, ¿no? O sea, si yo quiero que Super Mario llegue al, al final de la partida, bueno, pues yo tengo que ir enseñándole distintas cosas, ¿no? Y en poco, pues, con ese símil, pues, intentábamos llevármelo a mundos más simples que moderábamos nosotros. Y a mí eso fue lo que me cautivo, el decir, oye, yo con código puedo hacer cosas que aprendan, ¿no? Y lo que pasa de claro, en los últimos siete años, cinco años, claro, esto ya ha llegado a un nivel de aplicabilidad muchísimo mayor, muchísimo más amplio, y ahora cuesta menos ver o palpar lo que es la inteligencia artificial, ¿no? Que es, yo creo que es lo guay, que ya ha dejado de ser un campo meramente académico y muy enclaro en razonamiento para irnos ya a otros temas, pues, mucho más aplicados y transversales, como comentabas, con este de filosofía, ¿no? Es que, además, claro, yo creo que este NUC, del que forma parte del evento, es un claro ejemplo de ello, ¿no? Es un NUC que pretende en tres horas dar unas pinceladas de cómo funciona la inteligencia artificial, que a mí esto me lo cuentan hace, pues, cinco años o siete años, como decís, o incluso diez ahí por el 2011, y dicen, no, no, hombre, la inteligencia artificial tendría que ser una cosa como mucho más complicada de explicar, pero, claro, ha avanzado tanto y lo tenemos ya tan metido en nuestro día a día que, a lo mejor, estamos más preparadas para trabajar con ello o para entenderlo, para comprenderlo, ¿no? Sí, sin duda, sin duda, sin duda. O sea, de hecho, antes era, claro, es que era mucho más complicado, o sea, cuando no tienes demos, cuando no tienes formas de enseñar visualmente qué efecto tiene esa inteligencia artificial, es muy difícil que se entienda los casos de uso y es que, pues, no lo sabía, o sea, el mayor caso de uso que podemos ver era, pues, en videojuegos, como darle sensación de inteligencia, por ejemplo, pues, a todos estos muñequitos con los que te vas encontrando, ¿no?, en el juego, pues, en juegos de estrategia o juegos tipo Pokémon, o como interacciones ahí con la gente que de repente te habla y parece que son inteligentes o que hasta cierto punto, según el tipo de juego, son inteligentes, pero más allá de eso, o sea, era una cosa, ya te digo, muy, muy, muy de campo de estudio, ahora es súper fácil, o sea, yo voy a mis clases o a mis charlas y tienes mogollón de ejemplos para enseñar y cada vez más, o sea, uno de los logros realmente de los últimos años ha sido el poder, digamos, en capsular esos modelos, o sea, antes eran trozos de código, ahora es que casi son como los punto-cips, son ficheros, hay comprimidos que te los puedes llevar de un lado a otro y prácticamente usarlos, o sea, con nuevos datos, entonces eso lo hace mucho más versátil y mucho más práctico a la hora de enseñarlo, pues, por ejemplo, en una clase. Y pasamos de esa concepción de inteligencia artificial súper potente, súper compleja y que hemos visto como en ocasiones malvadas, en las películas, a este concepto de aplicar la inteligencia artificial para beneficiarnos, para el beneficio social, para el bien común. Me gustaría preguntaros qué aplicaciones os llaman la atención de las que hay ahora mismo. Hay alguna que queráis comentarnos, que queréis compartir de a, pues, por ejemplo, se está utilizando para, no sé qué, en este campo. ¿Qué pensáis ahora que, o en algo que veáis que puede ser puntero dentro de poco, que se esté desarrollando? A mí, personalmente, bueno, perdona, Nerea, que me ha adelantado. Bueno, yo quería decir antes de una cosa, antes de lo que estamos hablando, yo quiero decir que si hablar de inteligencia artificial parece fácil, no es solo porque no es tanto porque lo sea, sino que está bien mérito de gente como Nerea, que es muy buena explicando lo que es, porque a veces parece fácil, pero ahí hay mucho trabajo detrás de hacerlo accesible, o sea, dicho eso. A mí, ¿sabes lo que pasa? Que yo normalmente me centro en el estudio de inteligencia artificial en el sector público, entonces, yo siempre voy a hacer referencias, vale, en general, a aplicaciones en el sector público, que están mucho más limitadas que en otros sectores, por los controles de reguladores que hay en Europa, etcétera, etcétera. Pero a mí, cuestiones o usos de inteligencia artificial, que me parecen especialmente interesantes y prometedores, por ejemplo, que ahora la inteligencia artificial ha utilizado la sanidad y la medicina, me parece, que probablemente sea uno de los campos donde más potencial tiene y donde más está invirtiendo, al menos, por ejemplo, dentro del sector público, ¿no? A mí parece súper interesante la capacidad que, por ejemplo, para cuando sucedió el COVID, no tuvo lugar, no fue posible, porque nosotros no estamos en un estadio tan avanzado de la implementación de la inteligencia artificial en ningún campo y menos en el sector público, pero, por ejemplo, la inteligencia artificial para hacer una predicción de posibles pandemias, de picos de enfermedades, por ejemplo, o si bien de periódicas como la gripe, etcétera. Luego, obviamente, en el diagnóstico médico, o la detección de precoz de enfermedades, ¿no? Una inteligencia artificial es capaz de hacerte una lectura, una necesidad de una radiografía donde el ojo humano no es capaz de detectar nada y la inteligencia artificial sí lo es. A mí me parece que en medicina, o sea robots también asistenciales en operaciones, porque tiene una capacidad de precisión muy grande, a mí me parece un campo súper prometedor, quizás, ¿no?, también por sus consecuencias y tan obvias, ¿no? que la mejora de la sanidad es una mejora de la calidad de vida, muy, muy obvia. Luego también me impactó mucho, porque a mí me interesa especialmente la intersección de la inteligencia artificial con cuestiones de género, por ejemplo, en Suecia, estaban utilizando inteligencia artificial para medir con qué frecuencia y durante cuánto tiempo duraban las intervenciones de las mujeres respecto a los hombres y muchísimas más cuestiones similares con el géner para poder cuantificar de una forma súper exacta cómo son las indiferencias de género, ¿no?, porque muchas veces en el discurso de la igualdad o de las teorías feministas tienen reivindicaciones importantes o se basan en cosas parecidas. Los hombres tienden a interrumpir a las mujeres o las mujeres tienden a intervenir menos, y parece que son cosas como muy subjetivas que es difícil, realmente se queda un poco el que se lo quiere creer bien y el que no, no. Pero la inteligencia artificial a mí no es los más prometedores, con limitaciones, me parece un poco ese ser capaz de cuantificar, de poner datos a lo que antes no se podía hacer y de esa forma darle un poco de objetividad a muchos ámbitos que hasta hace poco para nosotros serán como completamente o prácticamente su totalidad dejados en la subjetividad, ¿no? Yo pongo un ejemplo del género, pero se puede utilizar en muchísimas más cuestiones. También me parecen interesantes las posibles utilizaciones de los, de algunos íntegentes para, por ejemplo, predicción de escenarios del cambio climático, ese tipo de cosas. Esas son las cosas buenas, porque ejemplo, los que me han llamado atención a nivel de malos, también los tengo, pero quizás lo hablamos en otro momento más adelante. Sí, sí, porque eso es otro de los puntos que me gustaría tocar, ¿no? Esas desventajas o esos posibles problemas o más bien retos, ¿no? Que debamos tratar de aplacar de alguna manera, que eso quizás sea uno de los puntos fuertes, también, en los que se debería trabajar ahora, mi inteligencia artificial. Neread, ¿y qué aplicaciones destacarías tú? Pues, iba también a ir por la línea que comentaba Lucía de salud, pero sobre todo, o sea, iba a generalizarla, porque ha pasado en los últimos años algo y es que ha avanzado mucho el campo del procesamiento de textos, lo que llamamos procesamiento del lenguaje natural, y claro, eso nos ha abierto una cantidad de casos de uso que antes simplemente los ignorábamos, porque era inviable, ¿no? Procesar, yo que sé, un millón de documentos y tener, pues, encontrar patrones, ¿no? Entre distintos elementos del texto. Entonces eso nos puede llevar a hacer, por ejemplo, ahora, pues, un estudio de todo el histórico, yo que sé, de análisis clínicos, de un hospital, de una misma patología y cómo se han recetado a pacientes similares, por igual medicamentos similares o distintos, o se han tomado diferentes decisiones por estar en un sitio o en otro. Es decir, ¿qué nos va a permitir también escalar en un grado más, ¿no? Toda esa información, porque también nos estamos moviendo hacia, digamos, sistemas, lo que se llama sistemas federados, ¿no? Todavía esto es algo muy nuevo, pero sí que parece que uno de las arquitecturas a futuro, pues, va a estar muy centrada en mantener los datos en el sitio donde están y entonces trabajar solamente con los modelos, ¿no? Y ir exportando los modelos, intercambiándolos y demás. Y eso permitiría, por ejemplo, intercambiar fácilmente o de forma con cierta agilidad, pues información entre hospitales, entre una red de hospitales, información entre... Debo información, pero en realidad estoy hablando de modelo, ¿eh? O sea, los aprendizajes, digamos, el conocimiento que has traído el modelo entre distintos hospitales, entre distintas fábricas. Es decir, todo lo que tenga al final, digamos, entidades deslocalizadas a lo largo de un sitio y donde se puedan validar ciertas tareas que son laboriosas de hacer, pues parece que es otra de las tendencias muy interesantes. Y luego, pues, se abre una que genera mucha... Bueno, como mucha duda, ¿no? De si es para el bien o para el mal, que es toda esta tendencia generativa, ¿no? O sea, lo que nos ha llevado a tener defects, a tener imágenes muy de, pues, alta definición, ¿no? Que parece que ya podemos ver vídeos de políticos, ¿no? Que son todos falsos y tal, diciendo cosas que no han dicho. Pero, por otro lado, nos abre también mogollón de oportunidades en campos como el marketing, por ejemplo, ahora lo hemos visto con Dalidos, ¿no? Que ha salido recientemente una nueva AIA, que es capaz, bueno, la versión segunda de Nesaia, que es capaz, ya parece, como de dibujar cualquier cosa en cualquier estilo, con un contexto algo muy preciso. Y es que eso se puede llevar, yo que sea, al campo de la ciberseguridad. Imagínate que en vez de aplicarlo a cuadros, ¿no? O a arte digital, lo estás aplicando para generar mutaciones de un malware. Y, entonces, eso hace que añadas mayor robustez a las bases de datos de antivirus, ¿no? Entonces, es como un mundo que no deja de convertirse como en una espina dorsal, ¿sabes? De muchos sectores. Y yo estoy bastante intrigada por saber hasta dónde se va a llegar, porque creo que cada vez es más difícil encontrar un sector al que no exista ya un caso de uso, ¿no? Con inteligencia artificial. Pues la verdad es que sí, que muchas veces, como con la tecnología, ¿verdad? Vamos a ver qué depende del uso que le demos y, efectivamente. Es que, además, estabas comentando con el Dalí II. Hace poco hablaba con un amigo que es ilustrador y decía, Jolín, ¿qué sentido tiene ahora mi trabajo, no? Claro, esa es la cara mala. Entonces... O sea, que ahí luego también surge este tema, ¿no? Que se está vendiendo mucho. Bueno, y hay cierto peligro. Yo no voy a ser tampoco como tecnotimista, ¿no? Pero es verdad que se habla mucho de sustitución en vez de colaboración. Y yo lo intento taematizar, porque es verdad que, claro, lo que vemos en redes sociales, pues muchas veces no es el verdadero o la verdadera potencia de algoritmo, porque también estás como tú seleccionando los casos que funcionan bien y demás, y nos enseña cuando funciona mal, por ejemplo, ¿no? Pero que al final vamos hacia un modelo de colaboración y de intentar acelerar ciertas tareas, ¿no? Y que el ser humano se centre en otras pues que requieran más de ese componente, pues, más humano o más de terminar de perfeccionar, terminar de revisar, de evaluar todos ese tipo de actividades. Avanzar hacia una colaboración, no hacia una sustitución, que además, en principio, no tendría mucho sentido, ¿no? Porque alguien tiene que programar esos algoritmos. Sí, yo en esto, Jorge, si puedo decir una cosa, justamente, o sea, me parece que lo que ha hecho en Heriaz es súper importante y realmente creo que es un mensaje que es importante transmitir hacia Anía, porque cuando se habla de inteligencia artificial, es verdad que la inteligencia civil va a suponer un cambio importante en el modelo del empleo y a un nivel laboral. Eso es innegable. Que hay gente que se va a poder adaptar, otras que no, etcétera. O sea, es un reto muy importante. Pero en inteligencia artificial, ni a día de hoy, ni en los próximos 10 años, ni tan podría decir un poco más, no nos va a sustituir. Es importante tener claro que es un modelo de colaboración. Ni siquiera, por ejemplo, la regulación europea permite que muchísimos usos de la inteligencia artificial o sea, es que obliga por ley a que haya personas al mando. No van a tomar decisiones por nosotros. La mayor parte de los temas van a estar codiligidos. La última decisión la va a tomar las personas. No es un modelo que venga a sustituirnos. Es verdad que sí, y eso sería otro debate interesante. Habrá profesiones que sean más sensibles hacia una serie de años, un tránsito hacia desaparecer. Por ejemplo, el transporte. Cuando se habla de los vehículos autónomos, es verdad que es fácil pensar que, a lo mejor dentro de una década o dentro de 15 años, en la profesión de ser caminero-caminera, pues no entre las personas no tenga ya... No sea muy frecuente, no haya mucha demanda de empleo. Pero estamos hablando dentro de 15 años. No estamos hablando de mañana, que es que a veces parecen las cosas que van a ser mañana. O sea, incluso si se implementas en vehículos autónomos. Y dentro de dos años tres, tendrían que estar copilotados por personas. Es un modelo colaborativo 100% como el caso excepcional es que sean unas tareas tan básicas por un asistente virtual, un chat o de una cosa en la que... Igualmente siempre va a haber una persona detrás, o sea, en el fondo, fondo por si quieres. Entonces, a mí me parece importante señalar eso, y sobre todo, también por romper otro mito, que la inteligencia artificial, nos lo hemos dado ese nombre de inteligente, pero tampoco es tan inteligente. Es verdad que es capaz de cosas increíbles, que nos pueden ayudar y que puedan transformar muchísimas cosas. Pero no sus institutos de la inteligencia humana, de ninguna forma, de ninguna forma. En el fondo, es una secuencia de datos, o sea, una secuencia de pasos que computa una serie de datos. Insisto, que no es poco, eh, que no es poco. Pero, a mí me dan muchas veces los mensajes, también superalar mis asuntos en la inteligencia artificial, como se tiene muchos retos. Pero creo que, de que vaya a sustituir a una persona mañana, no es un mensaje adecuado. Creo que los retos están en otro sitio, personalmente. Mas allá de que, efectivamente, en algunos ámbitos, es una cuestión problemática, pero insisto, a largo plazo, y hay que insistir en que, a día de hoy, ir al futuro medio corto va a ser una razon de colaboración total. Sí, muy bien. Pues, antes de seguir hablando de estos retos, de estos desafíos, si os parece, tengo aquí un par de preguntas en el chat, que una pregunta, David, que es lo que se puede utilizar para trabajar con alumnos de primaria en la escuela, la inteligencia artificial. Y está bueno, pues, creo que puedo contestarla yo. Dentro del NUC, las propuestas que hay de realizar el reto, el trabajo a desarrollar, bueno, pues se propone trabajar con una aplicación que es Learning Machine Learning. Bueno, ha sido desarrollada por Juan David Rodríguez. Y es muy sencilla, es utilizar unos bloques muy facilitos de trabajar, si queréis echar un vistazo al NUC, ahí está. Y si no, luego os dejaré por aquí el enlace, que, bueno, es sencillo. En primaria, yo lo he utilizado a partir de tercero, lo estoy usando este año, pero quizás un poco pronto, yo lo recomendaría a partir de cuarto, de primaria. Y nos pregunta Enrique, unido a esta pregunta, no, al anterior, ¿en qué sector público, aparte de la sanidad, se podría destacar el uso de inteligencia artificial? ¿Podéis comentaros algún otro, que algún otro caso en el que conozcáis? Bueno, yo en el sector público, muchísimos, bueno, potencialmente lo ha dicho en el antes, a mí no se me ocurre ninguno en el que no se puede aplicar, es al revés. O sea, yo tendría que hacer un esfuerzo por pensar donde no se va a poder aplicar, que se aplique ahora. Insisto, en Europa el uso está mucho más limitado, porque justamente ahora se va a aprobar una regulación mucho más estricta, y nosotros estamos jugando con otro modelo para el inteligencia artificial, que se basa en legislar a priori, antes de tener casos de fracaso, tangibles que llevan consecuencias negativas para las personas, vamos a legislar primero, por si no tenemos tantos casos en el sector público, como, por ejemplo, Estados Unidos y China, ¿vale? Dicho eso, te digo, ejemplos, para los que se usen, o los que se pueden usar la inteligencia artificial en el sector público. Más allá de la sanidad, por ejemplo, en educación. En educación se puede utilizar la inteligencia artificial, por ejemplo, para detectar personas que tienen más facilidades o más probabilidades de fracaso escolar. De abandonar los estudios, en base a perfiles, a reconocimiento de patrones, a otros casos previos, ¿no? También se puede hacer... Y estos usos son problemáticos, hasta cierto punto, ¿eh? También se pueden crear perfiles en base a recomendaciones para decirte, por ejemplo, que tipo de carrera en base a tus cualidades o tus habilidades podría ser mejor, que destino, etcétera. Incluso tutores e inteligentes para después de clase que te ayuden. También, que me parece interesante, formas de inteligencia artificial para corregir exámenes o evaluaciones, ¿vale? Para que sea lo más neutra posible, por ejemplo, porque se detectan formas, aunque parezca mentira, y todos los docentes hacemos los mayores esfuerzos, pero son completamente objetivos en nuestra evaluación, pero se estudian usos de la inteligencia artificial para hacer estas evaluaciones más objetivas y que no caer en, por ejemplo, cuestiones de que pueden ser sesgos o prejuicios de género de los que no somos conscientes. Eso, por ejemplo, en educación, en transporte se transitará hacia... O el uso de, por ejemplo, como lo he dicho, vehículos autónomos, nosotros en la Universidad Autónoma de Madrid, tenemos un vehículo autónomo que no funciona muy bien. Pues hay que decir, porque se rompió, o a la primera vez, pero bueno, ahora parece que se está funcionando. La Administración Pública, por ejemplo, para hacer más eficacia y más eficiente los trámites burocráticos, ofrecer mejor servicios, agilizar la burocracia pública, ofrecer servicios más personalizados a los ciudadanos, en justicias, en el dictamen de sentencias, en control fronterizo, es que no sé cómo decirte, en los procesos de selección de personal, de contratación pública, en todo, en todo, que se use ahora, yo creo que los casos más frecuentes es, por ejemplo, la Policía Nacional, tiene un ejemplo, o sea, un caso real, en el que utiliza un algoritmo inteligente para detectar denuncias falsas. ¿Vale? Y realmente ha reducido el número de denuncias falsas que pasan a un estadio posterior, ¿no? Porque ya sea denuncia falsa, un policía, lo mejor, ordinario, le cuesta detectarla, entonces pasa a tramitarse, si la gente artificial antes detecta que es directamente falsa, pues ya no pasa más estadios y no gasta recursos. En el SEP, creo que también utiliza un algoritmo inteligente artificial para asistirle en el reparto de ayudas, y el caso más frecuente, desde luego, son los chatbots, los asistentes virtuales de voz. La subida social tiene uno que se llama ISA, el ayuntamiento de Murcia tenía uno y eso es muy, muy frecuente. La Universidad Autónoma de Madrid tiene uno que se llama ADA, que luego lo hablaremos, pero vamos a irlo. El problema es que ahí pueden haber muchos sesgos y muchos problemas, por ejemplo, los chatbots con los nombres que se han dado, pues a lo mejor queda claro que todos tienen un nombre de mujer. Y muchos de esos en Europa, en China, que tienen una regulación, bueno, que no tienen regulación y que ustedes lo utilizan de forma que nosotros no lo utilizan. Entonces, el problema es que, para detectar personas, identificar personas en aeropuertos, millones de cosas, es que a nosotros públicos en todo. Por eso tenemos una estrategia nacional y inteligencia artificial, una regulación europea, un plan de modernización de las administraciones públicas, es que, o sea, y de hecho, las teorías de la administración pública o de la inteligencia artificial aplicadas a la administración pública para transitar hacia paradigmas nuevos, a dejar el paradigma actual de la administración pública y transitar a un modelo nuevo que se va a llamar la gobernanza algorítmica, el ser gobernado para algoritmos inteligentes. Imagínate hasta que punto se plantea de la inteligencia artificial en el sector público cuando el paradigma de gobernanza cambia en todos. Asistir a los políticos en toma de decisiones, todo. Nerea, tú quieres aportar algún campo así dentro de... Yo creo que, o sea, lo ha resumido bien Lucía, iba a decir porque igual esto sí que ayuda y no lo conocéis. Yo estoy trabajando con una empresa que se llama Eticas Consulting y ellos hacen sobre todo auditorías algorítmicas que es algo que suena bastante futurista pero ya se empieza, se empieza a hacer en casos en verdad todavía aislados y tienen un recurso que me parece muy interesante yo te lo voy a pasar por el chat y ya tú me dices si es capaz de pasarlo por el stream pero básicamente ellos han hecho como un especial observatorio con todas estas investigaciones que ellos han llevado a cabo porque muchos son sociólogos y expertos en materias de este tipo, no más vienen del mundo más académico y han hecho una base de atos, o sea, es un arttable donde están tratando de taxomizar o taxonomizar no sé, clasificar todos estos algoritmos que van encontrándose alrededor del mundo creo que de España hay tres o cuatro ejemplos uno de ellos es Biogen que es un algoritmo que utiliza para medir el grado de peligrosidad de cuando una mujer víctima de violencia de género va a denunciar y demás todo ese proceso en el que entra respecto a su agresor y todo eso pues parece que se hace con un algoritmo al menos parcialmente también tienen otro de la factura de la luz que tiene que ver con una ayuda que se puede pedir del bono social de la factura de la luz o sea que podéis leer ahí un montón de ejemplos y yo creo que te da como de un vistazo una idea muy amplia de cuáles van a ser todos estos sectores a los que van a impactar todas estas medidas de regulación de los algoritmos a la hora de tomar decisiones en fin que creo que está muy bien ese recurso y que igual no se conoce y merece la pena y compartirlo pues muchísimas gracias he relacionado con todo esto porque luego quería hablar un poquito de esos retos o desafíos pero que diríais aparte de la inteligencia artificial no es tan inteligente y siempre hay personas detrás porque estamos hablando de cómo los algoritmos tienen ya gran importancia en nuestra vida y vamos a un mundo o a un futuro, una sociedad en la que va a tener todavía más cómo diríais a una persona que no está metida en todo este mundo de la inteligencia artificial cómo tranquilizaríais a esa persona para decir no esto que no va a ser algo como que nos gobiernos las máquinas claro no cómo tranquilizaríais cómo nos va a beneficiar este cambio que ya hemos empezado a vivir a ver hay una línea porque obviamente una es hacia el público general pero otra también es hacia bueno pues todos estos órganos de dirección o gente que tiene capacidad de decisión a la hora de implantar estos sistemas tiene que ser muy consciente de que los algoritmos funcionan muy bien en escenarios que ya conocemos es decir no se puede aplicar a todo por defecto se tiene que aplicar en aquellos casos donde generalmente tenemos un histórico de datos bastante amplio o somos capaces de generarlo en un corto periodo de tiempo y luego a paso otra cosa hay que es que funcionan muy bien en casos mayoritarios es decir funcionan muy bien con estos casos que decimos que son los que se dan más los que aparecen más y funcionan muy mal con aquellos que son casos raros es decir si yo me voy por ejemplo a hacer un análisis de sangre y un blog pues concierto imagínate una persona de 20 años se va a hacer un análisis de sangre lo más normal es que sea análisis salga bien o pensaríamos eso más o menos por defecto pues de todas las pruebas que vería un algoritmo largo de todo el día va a ser muy bueno discriminando aquellos análisis que parece que son correctos que no hay ninguna patología rara y luego va a haber otros donde ya tendrá como que verse cómo de bien está entrenado en todas estas patologías que se pueden detectar en un análisis de sangre por ejemplo y entonces de esos casos habrá algunos que no se van a identificar correctamente, son lo que nosotros llamamos outliers que son estos casos raros cosas que no se dan por ejemplo que hay una pandemia eso sería un outlier ningún algoritmo va a ser capaz nunca de predecir una pandemia salvo que de repente ahora yo que se ve en ocho de golpe y empezamos a analizar ahí movión de variables eso se les da mal entonces hay que entender eso de base y luego qué es lo que pasa que una vez entiendes eso ya ves el por qué hablamos de colaboración y una sustitución o sea porque siempre va a haber casos que va a ser imposible que un algoritmo gestione por sí mismo porque lo va a hacer mal o sea y la probabilidad de que lo haga mal es muy amplia y sobre todo eso pasa en colectivos digamos pues marginados minoritarios de la sociedad que no están en el salvaje de datos que no se han grabado de la misma forma sus datos respecto a otros yo sé en Europa igual están mucho más digitalizados por ejemplo que en Estados Unidos y en Estados Unidos resulta que sabemos que las bases de datos de detenciones pues hay muchísimas más detenciones afroamericanas que igual de cualquier otra etnia entonces qué es lo que sucede que vamos a empezar a ver cómo la colaboración puede ayudar a nivelar todo esto y a detectar, mitigar sesgos todo esto que estábamos comentando anteriormente y eso de crear la población hace que bueno le genere cierta calma en el sentido de que yo soy muy estética con que vaya a haber una sustitución 100% de los puestos de trabajo sí que creo que hay que divulgar cada vez más alrededor de estos temas hay que obviamente utilizar recursos públicos para empezar a también a formar a las personas y a montar ese reciclaje también de habilidades de habilidades tecnológicas y yo lo comparo un poco no es justa la comparación pero bueno como ha venido pasando con el software y el ordenador nos hemos habituado a utilizar ciertos programas de ofimática bueno pues igual los siguientes utilizar también software que de alguna forma ya te ejecutando sus algoritmos aunque tú a simple vista no lo veas y ya te da un report y entonces tu objetivo es analizar ese primer informe que te da algoritmo y ver ya estarle atención y eso es lo que yo intento transmitir o sea que al final obviamente va a ver que formarse, la tecnología está en constante cambio pero sí que mandaría un mensaje tranquilizador en el sentido de que bueno es difícil que un puesto de trabajo desaparezca de un día para otro y hay un documental en un youtube que lo hizo la fundación Cotec que se llama mi empleo o mi futuro que yo también suelo poner a veces en mis clases y cuenta muy bien toda esta paradójica de qué pasa con el empleo con la política de avances tecnológicos y demás y merece mucho la pena verlo por reflexionar también alrededor de esto pues luego también dejaremos el enlace a este vídeo mi empleo mi futuro de la fundación Cotec estupendo pues tenemos otra pregunta que nos hacen dice la relación entre gobernanza algorítmica y la edtech la que perdono la edtech la tecnología o sea imagino que viene por todos estos acuerdos que ya se han venido haciendo ahora también a través de la pandemia con tipo google microsoft entiendo que va también por ahí las nuevas tecnologías digamos que están penetrando muy fuerte en el sector educativo con sus pros y sus contras y entiendo que también eso o sea, claro, cuanto más organizados están los datos entiendo que a muchos centros iguales ha permitido recabar más datos de alumnos pero ahora es como los utilizo y quien accede a ellos entiendo que va un poco por ahí la pregunta, si no va por ahí la que lo he escrito que especifica pero vaya, no sé qué opinión tendrás tú ahí Lucía, pero yo en mi caso es verdad que me he encontrado con profesores que no les gusta demasiado esto de que se han firmado acuerdos tan rápidos con empresas, por otro lado es verdad que había que dar servicio y que han facilitado también ese servicio en la pandemia pero es verdad que ahora entran un poco esto que hemos pasado todos de puntillas en esta época loca de la generación o de la obtención de datos, extracción, analisis como que a veces nos ha preocupado poco la privacidad y la seguridad de esos datos y entonces ahora nos empezamos a preguntar oye, hay algún sitio donde lo que se esté guardando quien accede a según qué dato a qué datos están guardando de mí como estudiante, por ejemplo hasta qué punto de vista y este es otro melón, ¿eh? hasta qué punto de vista el estudiante tiene digamos privacidad sobre sus datos y esto lo cuenta muy bien Gemma Galdón que dice que claro, ahora con todo esto de que los datos o sea, todo graba, ¿no? todo graba lo que haces entramos en una dinámica de que parece que ya no te puedes equivocar, ¿no? y ella lo compara con la metáfora de los adolescentes y nosotros fuimos otra vez adolescentes y de repente tuviésemos desde, yo qué sé, los 10 años que igual fuiste tu primer contacto con la tecnología tienes todos tus tiktoks las fotos que has subido a Instagram todas la evolución de modas y demás, todo reflejado en redes sociales igual tienes como una percepción muy dura de la privacidad, ¿no? y con eso se explica también, yo qué sé que los jóvenes tengan cuentas candado o que intenten protegerse también ante gente que no conocen, ¿no? pero es algo que igual no se ha planteado desde el punto de vista a nivel de organismo, o sea, a nivel educativo yo me imagino no sé, pero los institutos, colegios no creo que todos tengan como un conocimiento muy exhaustivo en todos estos sistemas informáticos, ¿no? y menos si pertenecen a empresas de este estilo, ¿no? tipo Google, Amazon, etcétera entonces me preocupa pero bueno, os preguntaba vosotros porque sé que tenéis mayor conocimiento y lo habéis vivido también en primera persona no sé de ahí qué se podrá hacer la verdad hombre, yo personalmente con estas empresas que no tenemos muy claras sus políticas de privacidad no sé si todas las comunidades autónomas desde luego Madrid sí cuenta con unos recursos que son en principio seguros en Madrid está las herramientas de educa Madrid que es lo que se debería utilizar, vaya aún así se han firmado acuerdos con otras empresas ahí por principios creo que eso no se debería hacer sino que se debería mejorar los propios recursos de educa Madrid porque además se basan en software libre y no privativo con lo cual son dos puntos a favor que controlas quién accede y cómo accede y que estás de alguna manera promocionando ese software libre pero claro, ese es mi punto de vista porque yo atiendo a esa opinión de las cosas abiertas deberían promocionarse más ¿Tú qué opinas Lucía? Sí, estoy bastante acuerdo con vosotros decir que nosotros la experiencia que tenemos en la universidad en el ámbito de la docencia no es tan grande porque nosotros realmente no hemos llegado no tenemos ese nivel de recursos, nos ha planteado esa incorporación de los recursos tecnológicos yo creo que tanto como en otros niveles educativos me centraría más porque ya haberos dicho casi todo que el mayor reto de la gobernanza algorítmica que era un poco en el contexto en el que se preguntaba la pregunta es la ética que es un tema que habéis sacado la privacidad de los datos y otra serie de cuestiones que condicionan completamente el éxito o el fracaso del reto de gobernanza, vale toda la pena no te sirven de nada haber transitado la tecnología de por sí introducir tecnología de por sí en cualquier ámbito es que no tiene nada que ver con el progreso a mi me hace mucha gracia porque siempre lo veo de una perspectiva más crítica que es un poco mi labor en el campo de la filosofía de los entes sociales es un poco el cuestionamiento eso de hablar de tecnología como prácticamente un símil de progreso y de innovación y no es nada la innovación es creación donde antes no había nada el símil, la creación la innovación, si tiene una imagen una metáfora es la de la bombilla que además es muy explícita porque es la de la luz que tiene que ver que es un símil bíblico cuando se hizo la luz se crea algo donde no había absolutamente nada entonces la innovación lo que tiene que ver es con crear donde no había nada donde generar nuevos espaces, nuevas formas de hacer las cosas de lo mismo, con tecnología bueno, puede estar mejor en el sentido que a lo mejor ha hecho que algo se haga más rápido pero no es de por si innovador ni progresista a nivel de progreso o sea lo que queremos con la tecnología y yo creo que el objetivo principal es transformar realmente las prácticas y la vida de los ciudadanos de una forma notablemente a mejor pero transformarla en un sentido radical de que no se hace lo mismo para cambiarlo completamente y yo creo que es estar reto de la gobernanza algoritmica sinceramente o sea aplicada a la educación o cualquier campo bueno pues yo creo que nos queda un poquito más de 10 minutos y sí que me gustaría tratar pues algo que ya ha salido esos desafíos relacionados con la inteligencia artificial que se ha hablado mucho de esa ética al aplicarlo ¿Cuáles crees que son las mayores trabas en las que nos debemos fijar que es lo que deberíamos tener en cuenta a la hora de trabajar con estos algoritmos que van a estar tan presentes en nuestras vidas los problemas o esos desafíos que tenemos a día de hoy y si pensáis que puede haber otros distintos en el futuro si quieres el mundo de la ética y los algoritmos está todo por construir hay mucho escrito o teorizado pero a nivel técnico todavía te das cuenta de que es algo difícil porque la ética es difícil codificarla empezando por ahí y luego porque nos estamos apoyando con las estructuras de deep learning que son las que más están creciendo en todo el estado del arte de la inteligencia artificial son estructuras complejas opacas y al final son estructuras matriciales pero que es muy difícil trazarlas es muy difícil entender al bajo nivel cómo se están tomando o qué valores, qué variables influyen en esa toma de decisiones entonces ahora mismo a día de hoy lo más asequible es si la gente tiene interés por indagar un poco este tipo de cosas que vea los casos lo que lea sobre los casos típicos que han sucedido compas en Estados Unidos por ejemplo es un caso muy conocido está el trabajo de Volami que hizo un análisis de herramientas de reconocimiento facial para demostrar las pruebas de caja negra subiendo imágenes que había seleccionado previamente el ver cómo variaban los porcentajes de acierto y error y ahí te das cuenta de cómo influye ya de base el cómo se ha entrenado el algoritmo, es decir con qué datos cómo de diversas eran esas fuentes de datos dónde está ese análisis desde un punto de vista de diversidad de inclusión hecho sobre esos datos estoy hablando obviamente de algoritmos hay otros que estas cosas igual no les afectan tanto entonces de ahí lo que sucede es que nos vamos ya al propio entrenamiento del algoritmo y hay un momento en el que ese algoritmo se evalúa y empezamos a fijarnos en cómo de bueno es y entonces lo soltamos lo ponemos ahí en una web o en una caja, no sé qué para que cuando se ve a alguien por la cámara que haga algo y ahí es donde también hay que monitorizar porque muchas veces pensamos que los sesgos están sólo al inicio y lo que se ha venido demostrando es que los sesgos están a lo largo de todo el camino y eso lo que hace es que ahora se tenga que trabajar mucho una cosa que se llama el human in the loop que es, vale, yo tengo un modelo entrenado con mis datos que más o menos controlo le he hecho una evaluación exhaustiva, imagínate pero de repente lo pongo a trabajar en la administración pública y si yo no monitorizo este algoritmo está ingestando nuevos datos está tomando decisiones y demás es muy difícil que yo pueda monitorizar luego ese acierto o ese rendimiento de ese algoritmo tenemos que observar también cómo se hace esa evaluación a posteriori de que ya tenemos esa primera versión que pensamos que es definitiva y estar en constante en constante movimiento entonces por ahí se vienen los retos futuros y uno hacia el lado técnico pues viene pues a través de todas estas arquitecturas que ahora se llaman ML Ops o sea Machine Learning Operations que lo que pretendes darte ya como una base muy rápida en la que tú puedas iterar ese algoritmo y monitorizarlos sin tener que preocuparte demasiado desde cero de cómo montar esa infraestructura se empiezan a generar frameworks alrededor de eso y eso es muy interesante porque las empresas están centradas además en código libre y luego por otro lado hacia el tema digamos menos técnico pues empiezan a aparecer todos estos retos relacionados con las auditorías algorítmicas con la regulación que se le va a exigir a las empresas a la hora de poner un algoritmo en producción cómo se van a crear esos bancos de registro algorítmico en qué momento empoderas a formar frente a una decisión algorítmica cómo se le informa al ciudadano de que la decisión la ha tomado un algoritmo cómo pones yo que sea una marca de agua en los deepfakes para decir oye esto es falso es decir hay un un hueco ahora y abierto no sé qué hay que cerrarlo en los próximos años y que va a necesitar ayuda de mucha gente pues por ejemplo como del perfil de Lucia entonces que no nos cerremos solo al campo meramente técnico o sea esto se viene grande y va a ser un campo en el que se va a colaborar muchísimo con otras disciplinas pues cuéntanos Lucia bueno es que este tema es como para claro obviamente para mí el tema yo partiendo de cosas que ha dicho Nerea que obviamente vamos suscribo todo todos estos desafios es que en torno a los retos éticos yo veo dos cuestiones bueno la que está por un lado conseguir que todos estos principios éticos tengan una o sea se trasladen al aspecto técnico y que a nivel técnico efectivamente sea posible hacerlo porque yo te puedo decir como quiero que sea mi algoritmo pero es que luego hay gente como Nerea o la gente que trabaja en su empresa que tiene que hacerlo y eso no es fácil o sea yo puedo decirte oye Nerea por qué no me haces un algoritmo que haga no sé qué no sé cuándo es yo creo que la importancia del justa entero es decir Nerea de la colaboración porque tú puedes tener una idea muy buena que luego no es factir la vida real o gente en este caso no Nerea pero a lo mejor otros ingenieros sabes que a lo mejor no tienes esa consciencia que tampoco tienen por qué ser hasta cierto punto todos 100% conscientes es un paso hay puede haber distintos bloques pero bueno por centrarme en el cuestión de los retos éticos yo diría que en el plano de la ética primero vamos a decir los retos éticos como a posteriori tú lo primero y más importante que tienes que hacer es que si tú implementas un sistema inteligencia artificial sergo salemán existe un proceso viable y real de rendición de cuentas tiene que existir más o menos cuando hablábamos de qué puede tranquilizar la ciudadanía que sergo salemán quien sea responsable vaya a pagar las consecuencias políticas sociales o a nivel judicial legal de ellas cómo hacemos eso bueno pues primero con una regulación regulando que es como siempre el mecanismo mínimo de partida y luego cumpliendo una serie de principios éticos que también hablaba de eso en Nerea que es la transparencia y la explicabilidad de los algoritmos tú cuando tienes que rendir cuentas o sea si yo algo sale mal y quiero saber o sea lo primero que tengo que saber es que ha salido mal si mi algoritmo es opaco no tengo ninguna forma de hacerlo tiene que ser y de hecho la regulación en teorías va en ese camino los algoritmos que son opacos son ilegales porque tú no puedes garantizar la rendición de cuentas cuando tú no abres la caja y tú no tienes ni idea de qué ha pasado entonces tiene que haber transparencia los datos, transparenciaros algoritmos que tú puedas rastrear ese proceso, saber dónde ha fallado y luego tienes que ser capaz de explicarlo y no explicarlo no sólo para otros ingenieros porque a mí me sueltas un código o lo que sea y te digo mira a mí esto no es una explicación y ahí es donde hay un reto muy importante yo creo en la comunicación por ejemplo en los científicos sociales humanistas e ingenieros en convertir el lenguaje entendible para la oceanía el lenguaje computacional porque son caminos que de ida y vuelta son complejos o sea yo tengo un ingeniero tiene que ser capaz de decirme mira ha pasado esto este algoritmo estaba tomando estas decisiones, vas utilizando este criterio este otro, este otro para que la gente pueda saber que ha pasado, vale este éthico importantísimo la transparencia, la explicabilidad y la rendición de cuentas que van de la mano todos eso otros retos éticos, obviamente la privacidad que también lo hemos hablado, vale parece mentira pero bueno según las previsiones al menos a nivel político por ejemplo la implementación de robots y bueno no necesariamente de robots inteligentes pero otros ojos inteligentes artificial que no causen ningún tipo de daño a la ciudadanía de salud, ni a nivel o sea de salud física, ni salud mental por ejemplo armas autónomas o el tema de los vehículos autónomos tú tienes que garantizar que esos vehículos funcionan bien o no puedes estar permitiendo que haya armas autónomas o ni siquiera semiautónomas con los peligros que conlleva, vale respeto por la autonomía de la libertad de las personas que por ejemplo es un derecho un principio ético que contempla el marco regulatorio de la Unión Europea que es uno de los problemas de la inteligencia artificial y de la gobernanza algorítmica cuando tú pensemos que hacer el algoritmo de Netflix que es como el típico caso o cualquiera de nuestras plataformas te haces recomendaciones en base a tus preferencias previas si tú solo empiezas a aplicar en todos los todos los ámbitos lo que te puede generar es un sendero de independencia donde tú pierdes o sea y no de forma consciente ni amadas pero te dan cuestiones que son fáciles, te lo recomiendas y te da pues si tú me gusta entonces tú estás eligiendo a cierto punto voluntariamente pero también inconscientemente otro o todo un abanico de posibilidades entonces eso también se tiene que respetar y es otro principio ético y otro reto más cuestiones que o sea la explicabilidad la transparencia, la rendición de cuentas la privacidad es que por lo menos aquí tengo muchísimo teníamos que haber empezado por aquí ¿verdad? teníamos que haber empezado por aquí claro es que aquí es un sinfín igual tenés para dos horas sí obviamente que yo creo que es un tema que se parece porque como una tontería pero se pasa por alto que son los sesgos de género de sesgos que también ha hablado cuando hablaba de compas en Nerea hay sesgos raciales sesgos por edad, por orientación sexual pero los sesgos de género son bestiales pero una cosa vergonzosa, o sea yo no tengo ninguna forma de calificarlo porque esa tecnología no se ha cogido de la nada o sea la construyen personas y tienen unas evaluaciones muy concretas o sea ahí no había nada no quiero decirlo así pero obviamente porque había gente y súper válida lo que quiero poner de relieve es que hay cosas que tenemos tan intrínsecas en nosotros mismos que no somos ni conscientes de que estamos perpetuando el caso más básico del que hablaba un poco al principio de los chatbots con nombre sistemáticamente y voz de mujer incluso apariencia física pero pensemos porque van a llegar todos los robots asistenciales inteligentes cuando salen las ferias en asia etc etc o tiene un aspecto claramente robótico pero cuando se les da un aspecto humano normalmente tiene un aspecto de mujer y además no de cualquier tipo de mujer de mujer blanca, yo no he visto robots gordos un aspecto súper normativo y en algunos casos hiper sexualizados ahí he llegado a ver que para mí es el horror representaciones a construcciones de robots strippers utilizados para hacer como de stripper que me parece y o sea porque algo que asociamos con el progreso elegimos que perpetué algo tan archaico bueno y tan presente pero a mi me parece un reto súper importante ser conscientes que los estereotipos de género de cualquier tipo se van a reproducir si no tenemos en cuenta todos estos mecanismos y nos somos conscientes de que existen sesgos en los datos que en los algoritmos hay que poner una serie de mecanismos que impidan que se detecten por ejemplo creo que lo ha dicho Nerea, sino en 2014 cuando el caso de Amazon que puso un algoritmo en un proceso de selección de personal tú tenías la mayor parte de currículums de hombres y candidatos seleccionados para el trabajo han sido hombres y ese algoritmo que es lo que quería poner de revés es tan inteligente el fondo están contando patrones que encuentra que dice pues hombre pues a lo mejor si esta gente seleccionada resulta que tenían un máster y eran todos hombres pues igual que el máster era un valor a tener positivo a lo mejor ser hombre también porque la máquina no lo es no lo puedes saber entonces eso lo cambias garantizando por un lado que los datos con empresas como la que colaboran Nerea hay auditorías de datos que garanticen que esos datos son representativos y luego que todos los algoritmos implementen unos sesgos para sesgar los esgados que diseñan si tú identificas aquí una etiqueta hombre no lo consideres como algo que puede influir positivamente pero eso no es fácil decir lo que hacerlo también lo tengo claro y nosotros lo que decía Nerea tampoco la inteligencia artificial de lo que se habla un montón pero tampoco te creas o al menos mi percepción no tenemos ejemplos así así así de evaluaciones sistemáticas que nos permitan unos resultados súper extrapolables yo creo que estamos en una fase en la que hemos pasado un poco al menos a nivel de la literatura académica de poner sobre la mesa cuáles son los retos éticos que con diferencia si es un consenso más o menos grande sobre cuáles son falta mucha investigación muchísima ¿no? y ahí por ejemplo pues yo me dedico a eso o lo que el siguiente tramo que yo entiendo que es el que empezamos a entrar lentamente es el de bueno todo esto sobre el papel como decía Nerea vamos a coger casos reales vamos a empezar a ver como funciona que tenemos que hacer efectivamente no sólo en el inicio sino que los sesgos o las cuestiones éticas entran en todas las fases porque toda la tecnología tiene un ciclo de vida largo que incluye solo el diseño sino también su funcionamiento sobre la función del marketing que luego se vaya a hacer como simplemente quien las utilizando, quiénes son sus usuarios mil millones de cosas que ahí nos quedan años sino décadas de unos procesos de evaluación bestiales donde esos principios éticos van a entrar en el plano práctico más real vamos a ver como porque luego además que puedo pensar en mil cosas a lo mejor hay muchísimas cuestiones éticas de las que ahora no somos conscientes todavía o que lo que pensabas que a lo mejor iba a ser un problema bestial luego te das cuenta que los ingenieros lo resuelven mucho mejor de lo que pensabas ahí tenemos todo por explorar como decía osea cuando yo sobre el papel te doy una lista y te digo, fíen, retrocédicos no sabes si quieres pero yo creo que es un un paso apasionante y de decir que somos afortunados dentro de las limitaciones de cuando viví en Europa donde yo creo que aun con limitaciones nos hemos tomado relativamente en serio el tema de la ética que estamos intentando legislar a priori llevamos años pensando en esto empezan a crear centros de investigación solo para la ética de la inteligencia artificial en fin pues con todos estos retos que tenemos por delante me gustaría seguir aquí pues un ratazo más hablando con vosotras pero se nos acaba el tiempo así que me queda el agradeceros una vez más que os hayáis pasado que os hayáis compartido vuestra experiencia y vuestros conocimientos con nosotras y con nosotros y despediros si hay alguna cosita que queráis decir para finalizar alguna cosa que se ha quedado en el tintero yo creo que todo está más o menos dicho y es cierto que que nada que se animen a ver nuestros perfiles Lucía tiene un montón de charros yo también y nos cruzaremos seguramente en alguna más que estén también al tanto de cómo evolucionan este tema y sobre todo que se animen a descubrir también el lado bueno por eso estábamos hablando de inteligencia artificial para el bien común o sea que se animen y oye que ojalá unos cuantos que se animen terminen y que nunca se sabe trabajando en esto efectivamente yo quería decir que yo me centro los problemas pero yo estoy haciendo una lista de la compra contando todos los problemas pero si justamente nos preocupamos tanto por los problemas y dedicamos tanto tiempo es porque pensamos que vale la pena a los beneficios que nos va a traer y porque es un campo mal más que puede como decía transformar o sea que por supuesto es un campo que tiene mucho más beneficios que cosas negativas simplemente pues nosotros somos exigentes y pues pues bueno que las malas no pasen y efectivamente que como decía Neréa que la gente se meta porque a ver las cosas y informarse porque en el fondo yo creo que nosotros teníamos derecho frente a las tecnologías frente a la inteligencia artificial tienen derechos digitales solo pueden hacer uso de ellos cuando sean conscientes por desgracia porque los derechos nos tenemos de por sí pero cuando eres consciente de ellos puedes ejercerlos mejor entonces que se informen y que sepan que no se va a poder hacer contra ellos pues muy bien muchísimas gracias y a quienes habéis estado acompañándonos pues gracias también por estar ahí y a quienes veáis este vídeo que se suba a YouTube pues espero que lo disfrutéis tanto como lo he disfrutado yo muchísimas gracias y buenas tardes muchas gracias saludos hasta luego