 Hola y bienvenidos desde Washington DC y el Instituto de la Paz de Estados Unidos. Bienvenidos a todos los que se han unido para el evento de la Inteligencia Artificial y la próxima generación de promotores de la paz. Si desean escuchar en español en la página web, encontrarán otra transmisión en español en nuestra página web. Yo me llamo Michael Phelan. Soy el gerente del Centro de Excelencia aquí en el USIP, el Instituto de la Paz de Estados Unidos. Este instituto se estableció por el Congreso de Estados Unidos. Es un instituto no partidista que se compromete con la promoción de la paz a escala global y uno de nuestros objetivos es apoyar la siguiente generación de los promotores de la paz y destacar las ideas que traen los jóvenes a este espacio. Nuestro Consejo Asesor de la Juventud permite que los jóvenes del mundo tengan una plataforma para compartir sus ideas con el personal del USIP para incorporar sus ideas en los programas y la investigación. El evento de OES se ha organizado por los miembros del Consejo Asesor de la Juventud. Han reconocido que debemos abordar el tema de la Inteligencia Artificial como también el impacto que tiene en cuanto a la promoción de la paz. Esta es una conversación que une a varias generaciones, geografías y disciplinas. A medida que nos adentramos en la era de la Inteligencia Artificial, nos encontramos en la intersección de desafíos y oportunidades. La Inteligencia Artificial tiene el potencial de ser apalancada como una herramienta para la promoción de la paz, pero también puede presentar riesgos que socaban estos objetivos. La siguiente generación monitorea el uso de herramientas como la Inteligencia Artificial. Es un gran honor estar unido aquí junto a un panel de expertos especializados en la intersección de la Inteligencia Artificial la paz y el impacto en la sociedad. Muchas gracias por su participación. También contamos con promotores de la paz de todo el mundo. Hoy es un gusto presentarles a Oni Papa. Ella es una líder en el Consejo Asesor de la Juventud y participó en el programa de becarios del cambio generacional. También participa en una organización en Filipinas. Oni será nuestra moderadora. Muchísimas gracias. Hola a todos y todas. Gracias, Michael, por esa presentación y por esa bienvenida al evento de la Inteligencia Artificial y la próxima generación de promotores de la paz. Buenos días. Buenas tardes. Buenas noches. Dependiendo de su ubicación, me llamo Oni Papa. Soy participante en el Consejo Asesor de la Juventud del USIP y es un gran honor poder moderar esta conversación tan oportuna en cuanto a la Inteligencia Artificial y la próxima generación de promotores de la paz. Me gustaría presentar a nuestros distinguidos panelistas. Primero contamos con la presencia del doctor Andrew Inbre, es profesor asociado de la Cátedra Gracias en Seguridad y Tecnologías Emergentes en el Instituto de Georgetown. También está afiliado con el Centro de la Seguridad de Georgetown. Pero también es autor del libro La Paz, la democracia y la Inteligencia Artificial. También contamos con la presencia de la señora Branka Panik, fundadora y directora ejecutiva de la Inteligencia por la Paz. Ella es una defensora en el uso de la Inteligencia Artificial para la Paz y el desarrollo de seguridad. También contamos con la presencia de la señora Alexandra Hackenson Schmetz, que es consultora en Gobernancia Internacional Paz y Seguridad de ONU Mujeres y se enfoca en la región del sureste de Asia. También contamos con el señor C. Tuzani, fundador de TUNI Act y es becario también del USAIP. Actualmente está promoviendo la participación de los jóvenes en Tunisia y es promotor de la Inteligencia Artificial. Nosotros esperamos poder comunicarnos con el público de manera directa. Por favor, pueden escribir sus preguntas en el chat en cuanto al tema de la Inteligencia Artificial y la promoción de la Paz. Al final de nuestra conversación esperamos tener un tiempo para preguntas y respuestas. Así que en la página actual pueden ingresar en el chat y escribir cualquier pregunta que ustedes tengan. Muy bien. Sin más, vamos a iniciar esta conversación y explorar cómo es que la Inteligencia Artificial puede moldear nuestro futuro, la promoción de la Paz y la sociedad en general. Así que vamos a comenzar con nuestro panelista C. Tuzani. Sir, nos podría ayudar a entender exactamente qué es la Inteligencia Artificial, qué es lo que distingue a la Inteligencia Artificial de otros avances tecnológicos de nuestra época. Claro, me encantaría responder a esa pregunta primero abordando otros puntos. Debemos primero definir la Inteligencia Artificial. Es una disciplina ambiciosa que trata de replicar la Inteligencia Humana. Tenemos varias teorías. Primero teníamos el simbolismo en los 50 y los 60 que trataba de imitar la lógica humana. Por ejemplo, podemos decir que todos los hombres son mortales. Así que si alguien es mortal es un hombre, es un ser humano. Pero esto también requiría que los humanos participaran en el proceso para ayudar a la computadora a entender la lógica de las causas y sus consecuencias. En Microsoft Word y Google Docs vimos, por ejemplo, el corrector de ortografía que funcionaba bien, pero era un uso muy limitado. Esa es una de las maneras en las cuales tratamos de obtener esta Inteligencia Artificial. Otra escuela de la Inteligencia Artificial tomó impulso en el 2010 y es la escuela de condiciones. Esto se basa principalmente en la arquitectura y la red neural. Y tomó impulso porque en ese momento la computadora estaba rendiendo más y era más económica de utilizar. Un ejemplo es Chachi PT. O Google Bart. Ahora, la segunda pregunta. ¿Cómo funciona Chachi PT? Bueno, en la ciencia de computación debemos programar cada paso para que la máquina pueda completar ciertas tareas. Ahora hemos visto un cambio. Tenemos otro enfoque que es el aprendizaje automático. En vez de programar todos los pasos, la máquina puede aprender a su propio ritmo. ¿Cuáles son los patrones? ¿Cuáles son las reglas? Así que le damos a la máquina muchos ejemplos y la respuesta y así puede ir aprendiendo. Así que permitimos que la máquina trate de entender cómo es que se llega desde el inicio hasta el resultado final para que aprenda. Eso es lo que estamos haciendo en este momento. Ahora, ¿por qué se habla tanto de la inteligencia artificial? En este momento la inteligencia artificial está en boca de todos porque los expertos, personas como yo, realmente estamos asombrados de ver el buen desempeño que han tenido herramientas como Chachi PT y las respuestas tan concisas y precisas que nos da. Nosotros habíamos desarrollado una prueba para ver cuántas máquinas podrían desempeñar de manera inteligente. Así que la prueba era tener una persona en una sala, una computadora en otra sala y el ser humano tenía que averiguar quién ha respondido la computadora o otro ser humano. Pero hoy en día con Chachi PT realmente ha cambiado todo. Nos hace sentirnos asombrados, pero también genera un poco de temor. Desde Aristóteles hemos decidido que algo es inteligente si puede tener un dominio. Lo que difiere a un ser humano de un animal es el uso del lenguaje. Así que cuando interactuamos con Chachi PT si tenemos este sentido de que es un ser inteligente. Todo esto lo digo porque realmente debemos pensar en el potencial de la inteligencia artificial y el ritmo acelerado en el cual se desarrolló durante los últimos años. También debemos pensar en las consecuencias. Claro, creo que todos han escuchado de los reclamos de la inteligencia artificial. Es decir, que quieren una pausa en el desarrollo de esta tecnología para que los políticos, para que el gobierno piense en cómo gobernar esta herramienta, cómo se puede utilizar de manera positiva, porque también existe un potencial para un uso más negativo. Así que esto nos presenta con desafíos en todos los sectores, incluso en la promoción de la paz. Fantástico. Muchísimas gracias, Sid, por compartir. Me gustaría preguntar si algún otro panelista desea agregar un poco más a esta definición de la inteligencia artificial. Bueno, me gustaría hacer eco a los puntos de Sid y agregar solamente unas ideas adicionales para este público. Esta pregunta es de suma importancia. Quizá parezca algo académico enfocarnos en la definición, pero incluye en cuanto a la gobernanza, la exportación o importación de tecnologías y la manera en la cual los funcionarios y los líderes jóvenes piensan en impulsar los cambios positivos en este campo. Así que sí debemos pensar mucho en esto. Y es muy difícil definir este término, porque existen tantos subámbitos, tantas aplicaciones para esta tecnología. Muchos expertos que son pioneros, quizás no estarán de acuerdo con esta definición, ya que evoluciona tan rápidamente y los conceptos están siempre cambiando. Así que es muy difícil definirlo, pero yo diría que la inteligencia artificial es como las matemáticas. Existen muchas maneras de hacerlo y uno de los formatos más populares, como mencionó Sid, es el aprendizaje automático. Podemos utilizar a las computadoras para implementar algoritmos y aprender de los datos. Esto define las capacidades del sistema, el potencial para entender patrones complejos y datos. Y hemos visto en los últimos años un auge de datos de este poder de la aprendizaje automático y el aprendizaje profundo también es otra su categoría. Es el uso de redes más complejas de redes que se asemejan un poco a la estructura del cerebro humano. Y bueno, me gustaría resumir diciendo que esto realmente es importante. No es una pregunta técnica a nosotros como líderes jóvenes, como activistas, como científicos, como humanistas nos importan estos temas que surgen de esta arquitectura. Así que les pido por favor que piensen en estas preguntas más técnicas, muchos de los problemas con los cuales lidiamos en nuestra sociedad crecen de estos temas, surgen de estos temas. Y si no lo han notado aún, muchos de los sistemas de inteligencia artificial modernos fracasan en maneras distintas a los sistemas tradicionales. Debemos aprender esto para poder aplicar la tecnología de manera apropiada. Muy bien, gracias Andrew. Gracias Yed. Nuestra segunda pregunta es para el doctor Andrew Embry. Andrew, en su libro, en su libro, mejor dicho, usted destaca que la inteligencia artificial es como un fuego. Puede ser una fuerza para el bien, pero también puede destruir. Qué pasos debemos tomar para utilizar la tecnología en promoción de los valores democráticos y disminuir el uso para desestabilizar el entorno. Bueno, esa es una muy buena pregunta. Realmente es esta naturaleza de dos caras de la inteligencia artificial. En la compañía DeepMind, por ejemplo, han utilizado la inteligencia artificial para hacer un modelo de las proteínas. Y realmente esto nos permitiría avanzar en el campo de la medicina y curar enfermedades como Alzheimer o Parkinson. Es asombroso. Al inicio de este año en Carnegie Mellon utilizaron este modelo de inteligencia artificial para ver si podían identificar usos erróneos de la tecnología. Y básicamente creo instrucciones para ciertos medicamentos para ciertas sustancias. Y en Suiza han utilizado distintos modelos de computación para poder crear salvaguardas en el uso de ciertas tecnologías y medicamentos. Vemos que tiene mucho potencial para la salud, pero también podría utilizarse de manera perjudicial. Hemos visto usos increíbles de estas tecnologías. Se pueden utilizar para facilitar el diálogo internacional para mapear conflictos, para sistemas de advertencias tempranas y también el intercambio de datos. Pero no se imaginamos que esta tecnología también se podría utilizar para la desinformación, por ejemplo, que pone a los promotores de la paz en riesgo en todo el mundo. Así que realmente debemos pensar en este tema. Si pensamos en el aprendizaje automático como máquinas que implementan algoritmos y aprenden de los datos, pensamos en todo lo necesario para sustentar este sistema. Pero hay distintos niveles de influencia que pueden utilizar los políticos o los jóvenes para moldear este ámbito. Podemos cambiar la trayectoria de esta tecnología. Piensen en datos qué podemos hacer para facilitar la privacidad de datos. Hay otros enfoques en cuanto a la inteligencia artificial, donde ya no necesitamos bases de datos masivas. Hay otras tecnologías emergentes donde podemos responder a preguntas sin tener acceso a los datos específicos. Podemos pensar en el poder de la computación para avanzar, pero también podemos controlar la inteligencia artificial de cierta manera para que no se vea manipulada por los operadores negativos en nuestro sistema. Y también podemos animar al uso responsable de la inteligencia artificial a través de un sistema de informes para los usos erróneos. Podemos realizar más trabajo empírico. Así que hay muchas maneras para pensar en esto. Vemos muchos ejemplos del uso positivo de la inteligencia artificial en todo el mundo y ustedes pueden marcar la diferencia a nivel estatal y local en sus gobiernos, pero también en el ámbito multilateral. Cuando pensamos en cómo se desarrollan estos componentes de la tecnología, también podemos animar a que se promulguen más normativas para utilizar estos modelos de manera segura. Este es un desafío para todos, pero también nos presenta con una gran oportunidad de tener un impacto. Wow, espectacular. Muchísimas gracias, Dr. Embry. Para quizá profundizar un poco más en cuanto al tema de cómo apalancamos la inteligencia artificial de manera responsable, me gustaría preguntarle ahora a Branca Panic lo siguiente. Usted ha estado trabajando en el ámbito de seguridad humana. ¿Cómo se puede utilizar la inteligencia artificial de manera positiva? Gracias por esta invitación. Me parece esto ser de crucial importancia para introducirle, introducir una nueva generación de voces en esta conversación. Yo creo que esta conversación podría durar horas y horas. Hay tantas cosas fenomenales que han mencionado e intentaré conectar los puntos positivos para explicar cuál ha sido mi camino personal y el de mi organización, la de inteligencia artificial para la paz. Trabajando en la paz positiva, esto no es nada nuevo. Los profesionales llevan trabajando en este ámbito hace más de una década, pero lo que es vital en comprender es que este ambiente ha estado en evolución constante desde el principio y eso lo vimos desde todas las etapas tempranas del desarrollo de esta tecnología y tenemos que explicar por qué esta nueva etapa de desarrollo en el aprendizaje de máquinas, por qué está cambiando tanto. Y muchas veces hablamos de nuestra era como la era de los algoritmos para ayudar a nuestros profesionales de paz. Tenemos que tener esto en cuenta que el contexto está cambiando y que trabajamos en la época de los algoritmos. Eso significa que nosotros fortalecemos instituciones, estructuras, buscamos una manera de fortalecer las actitudes, una resistencia necesaria para establecer sociedades pacíficas. Y esto lo iremos constantemente. Necesitamos mayor disponibilidad de datos. Aún ahora estamos elaborando o estamos generando muchos datos con esta conversación en nuestros teléfonos celulares, en nuestras manos estamos mejorando el procesamiento de computadoras, especialmente bajando o diluyendo el precio del acceso a la nube. Y esto solamente se logró en instituciones inmensas hace unos años que tenían recursos para hacerlo. Universidades, empresas y ahora con menores precios y mejor acceso a estas tecnologías surgen nuevos actores. El ecosistema entero busca expandir en esta encrucijada de paz positiva y la aplicación de inteligencia artificial. La IA se ha vuelto una herramienta de inmensa potencia. Y por eso yo quiero verdad para compartir una anécdota personal. Cuando lanzamos nuestra organización le dimos un vistazo al campo y nos dimos cuenta de que con esta conversación el militar las fuerzas militares si instrumentalizan herramientas de IA bastante avanzados o bastante avanzadas en el monitoreo de amenazas, etcétera. Seguro ustedes ya han oído hablar de sistemas de armas autónomas. Hay aplicaciones en el área de cuidado de salud en el campo de batalla. Nosotros hemos nos hemos dado cuenta de que las aplicaciones de estas tecnologías en nuestros campos tienen sus límites y queremos que sean cada vez más las voces informadas y que se puedan pronunciar dentro de nuestro campo. Así que como había mencionado si nosotros estamos mirando el aprendizaje mecánico, el procesamiento de lenguaje y vemos cómo se puede usar para recopilar datos, procesarlos, identificar patrones. Yo creo que este es uno de los es una de las capacidades más valiosas de esta herramienta. El ojo humano no puede identificar esas, esos factores y a veces estamos en un en un contexto de urgencia y tenemos que asimilar datos de zonas de guerra. Hay que procesar esos datos más rápidamente para que podamos aprovechar la ayuda que representa esta herramienta. Es una nueva herramienta en la caja de herramientas para los, para los profesionales de paz. Andrew ya mencionó algunas aplicaciones, no solo potenciales, pero actuales de estas tecnologías. También estamos utilizando especialmente en la prevención del conflicto. Nosotros creemos que las tecnologías emergentes permiten mayor eficacia en el área de la prevención de atrocidades, discurso que incita el odio. Este es un ámbito donde antes no podíamos actuar mucho, pero buscamos usar los algoritmos para mejorar esa situación, para identificar los momentos en los que eso ocurre en línea, para y para ver cuándo esto se traduce en violencia física. Cómo podemos pronosticar cuándo habrán momentos de violencia en el área de los derechos humanos. También estamos viendo cómo las imágenes satelitales combinadas con este aprendizaje mecánico se pueden utilizar para proteger los derechos humanos. El conflicto climático seguro le interesa a muchas personas aquí en esta en esta sesión que Ramber donde es la intersección entre la paz y el clima. El conflicto climático ver cómo los datos científicos nos pueden ayudar a enfrentar estos problemas e identificar las relaciones entre ambos campos. Lo otro que quería mencionar y que me parece ser imprescindible en nuestra labor. Si nos emocionan estas herramientas, pero también buscamos identificar riesgos y hacemos hincapié en la aplicación de un aspecto de ontológico en la elaboración, el diseño, la implementación de estas tecnologías. Nosotros le ponemos pausa a nuestro desarrollo de ciertas, ciertas iniciativas hasta que tenemos estándares, pautas y eso todo el mundo lo puede ver para que todo el mundo para que para que confirmen que nosotros aún que nosotros introducimos ese elemento en el proceso entero, no simplemente al final. Obviamente hay mucho más que podría mencionar, pero voy a parar mientras tanto. Empecé con el aspecto de ontológico y también termino con la ética. Yo creo que podremos regresar a muchos de estos puntos. Después, según expresa su interés el público. Claro que sí y muchísimas gracias señora Branca. Esto, esto sinceramente está el centro de la conversación. Cómo podemos apalancar la ética, la ia, estas herramientas como dice usted hablando de límites. Cómo podemos responder ante esos contextos. Una pregunta para la señora Alexandra Schmidt. Entonces Alexandra Branca habló de las implementaciones de la ia en la construcción de paz y seguridad. Pero según su pericia podría usted hablarnos acerca de las ramificaciones, las ramificaciones de la implementación de la ia y lo que eso significa para la perspectiva de género y también la cuestión de seguridad. Muchísimas gracias. Debo mencionar que yo creo que ya esta conversación muestra la diversidad de perspectivas que existen en nuestro campo, lo complejo que puede ser el tema y cuánto se tiene que analizar todavía hablando de las potenciales ramificaciones de la ia está la equidad de género. Muchos estudios han mostrado que los sistemas de inteligencia artificial muestran sesgos de género y las mujeres, particularmente las mujeres de color tienden a ser a estar en posiciones desfavorecidas en el, según la perspectiva de la ia. La ONU junto a su universidad están mirando este tema específicamente en el ámbito de la aplicación de la ia en el sudeste asiático. Y hablaré después acerca de los datos que surgieron a partir de esos estudios. Vemos que hay discrimen a exclusión de mujeres en sistemas de ia y eso tiene consecuencias monumentales para la paz y la seguridad. Por ejemplo, la ia lo que busca hacer es procesar la información que se le introduzca estos sistemas tienden entonces a diseminar los prejuicios que existen en lo que en los datos originales. Entonces fortalecen los estereotipos sobre la sexualidad del género, la edad, religión, etcétera. Las mujeres y sufren mucho estereotipos en los ojos de la ia. Eso se ve en los modelos de lenguaje y los generadores de imágenes que sabemos que producen contenido sexualizado contra mujeres cuando se usa. Cuando se les sugiere algo bastante básico puede tener preconceptos sobre ciertas comunidades y desarrollar sesgos en contra de esos grupos. Como mencionó Branca, en muchos países en el sudeste asiático han visto que esto ha normalizado los actos violentos y el acoso contra mujeres y las minorías y esto alimenta otras dinámicas preexistentes. Este contenido se puede utilizar entonces para apoyar ciertas ciertas agendas políticas. En el sudeste asiático hay mucha desinformación y eso conllevo a mucha violencia contra los Rohingya en Myanmar. Hubo rumores de que los hombres Rohingya estaban acosando a las mujeres no Rohingya y eso estableció un estereotipo que sirvió de base para la violencia que enfrentó después esa comunidad. También hay sistemas de recomendaciones impulsados por ia en las redes sociales. Eso puede aumentar los estereotipos. Los usuarios solamente verán contenido que se parezca a lo que tienen en delante ya. Este confinamiento algoritmico puede conllevar a extremismo violento o violencia extrema, especialmente cuando lo que ocurre, lo que surge es contenido violento. Vemos que esto ha impulsado una cultura de insultas de insultos y esto también ha provocado actos de violencia impulsados por el odio. También vemos que las ia están menos preparadas. Las herramientas de ia están menos preparadas para trabajar con las voces de las mujeres. Por ejemplo, en el contexto de la paz y la seguridad, el reconocimiento de caras, sistemas de navegación, de navegación, podrían afectar la capacidad de las mujeres que quieren trabajar en fronteras, especialmente trabajando con víctimas de una migración forzada. Esto tiene que ver con la exclusión de las mujeres en espacios de toma de decisión y también en el desarrollo de políticas de desarrollo en general. Esta baja representación se ha visto reflejada en la ia y eso significa que podría haber sesgos que no se identifican después. También la brecha de género puede afectar estos temas. Las mujeres tienden a tener menos presencia en la internet y eso se puede ver reflejado en estas herramientas. Así que aunque la ia tiene muchísimo potencial para construcción de paz actualmente, podemos decir que es necesario mejorar en el ámbito del de la perspectiva de género, porque esto afectaría la capacidad de las mujeres de usar estas herramientas en sus labores en este ámbito. Es importante ver dónde es la intersección del género, la paz en el contexto de la seguridad. Hay que asegurarse de que el acceso y el beneficio de esas tecnologías sean iguales. Eso es increíble. Muchísimas gracias, Alessandra. Yo creo que estos diálogos son tan importantes, especialmente cuando vemos lo que podría ser otro factor a la hora de impulsar una verdadera equidad de género. Y quiero decir que las respuestas de todos nuestros oradores ya han impartido mucha información con nuestro público en casa. Y es por eso que es tan importante mantener un diálogo como este. Y con eso pasamos a la segunda ronda de preguntas y vuelvo a el doctor Andrew Embry. Andrew, hemos hablado mucho de la ia en las competencias globales y la competencia global. ¿Cuáles son las implicaciones de esta tecnología en este ámbito y qué significa ser líder en la IA? Y cómo se puede apalancar eso para ayudar a los hacedores de política? Bueno, yo creo que este tema nace natural, orgánicamente, de los comentarios que acaban de expresar las otras oradoras. Es liderazgo, pero hasta dónde? Obviamente hay dinámicas competitivas que tenemos que reconocer y hay que preguntarse. Nos vamos dirigiendo hacia qué queremos diseñar, desplegar sistemas fallidos que tienen límites que tienen sesgos que van a repetir injusticias raciales. Y yo creo que existe una tensión entre la velocidad y la seguridad. Habrá presión del mercado, presión geopolítica para responder a la demanda rápidamente y es el deber de cada cual garantizar una rendición de cuentas con los con las autoridades para controlar esas presiones. Y tiene que haber liderazgo con respecto al a la aplicación de estas herramientas para el apoyo de los objetivos del desarrollo sostenible. Nosotros nos enfocamos en la producción de investigaciones, quien ha publicado más artículos, quien tiene más patentes, pero la innovación tecnológica es mucho más compleja. A veces uno tiene que ver métricas de calidad, no solamente la innovación, sino lo que se llama la capacidad para diseminarse. Cobán, rápido eso se va a adoptar en nuestras sociedades y no hay siempre una ventaja clara. A veces es importante enfocarse en los casos de uso responsable y seguro. Me parece un elemento importante del liderazgo en este ámbito. Lo otro que debo mencionar con respecto a ese mismo tema. En el campo de la IA hay mucha colaboración, hay mucha cooperación y es de índole internacional. Cuando uno está en un subcampo específico, muchas veces hay colaboración con no solo socios, sino competidores. Y eso ha lanzado una conversación acerca de este tema, algo que ha definido la IA. Hasta ahora, un marco que me parece útil y sobre el cual he escrito con mi colega Caña, es preguntarnos cuáles son las capacidades de esta tecnología, a quién vamos a empoderar y cuáles son los ecosistemas que enhebran todos estos factores, nuestros sistemas de educación, de migración, nuestra diplomacia multilateral. Y pensar en esos tres niveles, eso nos permite estructurar el activismo y la participación que puedan apalancar la juventud. Y mucha de esa rendición de cuentas vendrá de mejores reportes de incidencia, de incidentes. Y pensamos en todos los casos de uso. Nos preguntamos cuáles son cuáles son las amenazas, los daños concretos, cómo podemos aumentar la utilidad. Eso se hace a veces en la política, en la regulación, pero mucho de eso viene de nuestros líderes, nuestros jóvenes que garantizarán esa responsabilización. Yo creo que se puede hacer tanto en el área de la IA para la ciencia, ya sea en modelaje climático, etcétera. Pero hay muchos sets de datos que requieren de mucha energía y eso se tiene que tomar como un factor de sacrificio. Yo creo que este tema es muy complicado, especialmente en los titulares, lo que quieren que entendamos en los medios. Y me parece importante que todo el mundo se familiarice con los datos de fuente abierta, porque hay tanta investigación publicada que nos permitiría entender cuáles son las capacidades hacia dónde se dirigen, cuáles son las aplicaciones que podrían ayudarnos, cuáles están en su periodo de gestación. Hay unas herramientas verdaderamente fenomenales y para mencionar una herramienta. Yo trabajo con el Centro para Tecnología Emergente en Georgetown y nosotros tenemos un observatorio de tecnología. Son recursos y fuentes que todos pueden explorar que nos permiten entender hacia dónde se encamina este campo maravilloso y les pido que se familiaricen con este tema y exploren estas herramientas como parte de los recursos disponibles para su liderazgo. Espero que cada vez más personas participen en estas actividades y que conozcan más estos métodos de fuente abierta. Gracias por definir ese aspecto de creación de política. Yo de hecho pienso explorar eso cuando terminemos aquí y usando ese elemento quiero pasar a la señora Branca con otra pregunta. Después de lo que acaba de explicar el señor Andrew, qué le parece a usted ser el aspecto más importante que los legisladores tienen que entender cuando buscan apalancar estas tecnologías en el área de la paz y la seguridad globales. Muchísimas gracias. Y antes de responder, tengo que conectar con algunos de los puntos que mencionó Andrew. Me parece un tema tan fascinante el del liderazgo y quizás postular esto como una pregunta. No sé si al público se le permita escribir por mensajes en esta conversación, porque seguro ustedes tienen un audiencia, cuentan con una audiencia con un público que se conecta de todas partes del mundo. Es importante ver cómo el liderazgo se va moldeando en distintas partes del planeta y con otros grupos de partes interesadas. Me emociona tanto que Andrew haya mencionado esta herramienta porque uno logra ver cómo los los jóvenes constructores de paz pueden adoptar roles del liderazgo y cómo pueden ir creando esta conversación. Yo viví en los Estados Unidos, ya viví en Europa. Ahora estoy en Latinoamérica mencionar cómo el liderazgo europeo se percibe distintamente en el desarrollo de la IA. Ustedes preguntaron acerca de las regulaciones, verdad, de los de la creación de política, su manera de regular o de controlar estas tecnologías aún con la protección de datos, GDPR. ¿Cuál fue el efecto de ese liderazgo a nivel internacional? No es solamente cuestión de, bueno, yo, yo, yo agradezco mucho el que Andrew haya dicho que hay muchas publicaciones, artículos, patentes. El efecto de esta tecnología se verá también manipulado de distintos ángulos y uno es cómo vamos a crear pautas para esta tecnología. Vemos que en ciertas áreas se enfocan más en la innovación que en otras partes del mundo, pero la invitación se la extiende al público. Pongan en el chat que han visto en sus países, que es lo que está afectando el liderazgo en el área de la IA. Tu pregunta. Yo creo que y me gustaría que te traes esto a la publicación y me gustaría también mencionar esto. En particular, ya que estamos hablando de la paz y seguridad debemos hacer una distinción entre la inteligencia artificial en general y la más específica. Yo en algunos lugares veo esta conversación que influye en la formulación de política. Cuando pensamos en los riesgos que observamos, qué tememos en ámbito de la inteligencia artificial? A veces en estas conversaciones pensamos en sistemas que aún no tenemos. Muchas personas ni saben si llegaremos a esta inteligencia artificial a nivel del ser humano o más inteligente que un ser humano. Así que pueden ver la pasión que tengo para este tema. Realmente es aquí que se está generando esta conversación de paz y seguridad, porque muchas personas piensan en tener miedo de sistemas que van a dominar el mundo. Eso era algo que quería mencionar. Y bueno, estamos volviendo a esta distinción que había hecho antes. En cuanto a la formulación de política, debemos entender que la seguridad no es lo mismo que la promoción de la paz. Estamos pensando en todos los esfuerzos que se están realizando. Es increíble apoyo y activismo que ha surgido de distintos sectores en específico de la sociedad civil, pero de los ganadores del premio Nobel de la paz. Quienes están en este proceso de activismo contra los robots asesinos, por decirlo así. Y creo que nos debemos enfocar más en el ámbito de la promoción de la paz para los que están aquí escuchándonos que les interesa las Naciones Unidas y las conversaciones en el alto nivel de la ONU. El secretario general comenzó la iniciativa de nuestra agenda compartida. Como parte de este proceso, me gustaría destacar dos puntos interesantes y, claro, hay muchos más. Pero estos puntos me entusiasvan, porque en la ONU, todos los países deben estar de acuerdo con este tema de la inteligencia artificial. Uno es el acuerdo digital que cubre temas como la inteligencia artificial. Y el otro es la nueva agenda de la paz. Cómo pensamos en la promoción de la paz? Cómo entendemos que el mundo, la ONU, está cambiando en cuanto a cómo trabaja y cómo nos ajustaremos a esta nueva realidad. Lo último que me gustaría mencionar, cambiando al lado de los practicantes, ONU había pedido que pensemos en la comunidad entera. Pero creo que sí debemos pensar en lo que tienen que hacer los practicantes en realidad y Kir había hablado con este tema antes. Trabajamos mucho con los científicos de datos. Realizamos estos esfuerzos para atender puentes entre el mundo de la política, los que tienen experiencias sobre el terreno, los que son expertos en el tema, pero no tienen capacidades tecnológicas, como también los científicos que quizás no entiendan el proceso de la promoción de la paz y estos problemas con raíces profundos. Y, claro, estoy hablando con los jóvenes promotores de la paz en el público. Cómo podemos facilitar esta conversación? Cómo podemos tender estos puentes? En nuestros proyectos suelo ver que los científicos también tienen miedo de sambullirse en nuestro mundo. Dicen, bueno, dejaremos que los promotores de la paz aborden ciertos temas como los que están relacionados con la ética. Creo que debemos comentar mayor entendimiento en ambos lados con los científicos de datos, como también con los promotores de la paz. No es que los promotores de la paz se tengan que convertir en científicos de datos. Deben ser más conscientes de esta tecnología, deben aprender más, pero creo que este trabajo es uno que debe ser bidireccional. Debemos entusiasmar a los científicos de datos en cuanto a este tema de la paz para que podamos trabajar todos juntos. Me encanta su perspectiva de las normativas éticas de la inteligencia artificial. Muchas gracias, Branca. Ahora me gustaría pensar cómo es que los jóvenes pueden llenar los roles que veremos en la inteligencia artificial si pudiera compartir su perspectiva para la participación de la juventud, cómo se pueden utilizar las herramientas de la inteligencia artificial para prevenir la desinformación y la retórica del odio entre los jóvenes y cómo se puede utilizar para promover la paz de manera cotidiana. Bueno, me gustaría citar a Yuval Herreri. Dijo que la tecnología favorece la tiranía. Creo que este es un desafío para todas las democracias del mundo. Creo que una elección justa y libre será más difícil para la democracia. Ya hemos visto en el pasado que las personas pueden influir en elecciones, haciendo perfiles de las personas en redes sociales para poder orientar o cambiar la decisión de los ciudadanos. El ejemplo más famoso es el de Cambridge Analítica. Lamentablemente veremos más manipulación de este tipo. Además, centremos los deepfakes, los videos que realmente imitan a personas famosas con la misma imagen, con la misma voz, pero son videos falsos. Así que sabemos que ya existe esta falta de confianza con los medios tradicionales en la sociedad, así que esto realmente no mejorará la situación, sino que las personas confiarán menos en qué es lo que dirán las redes tradicionales. Además, ahora es tan fácil generar artículos que puedan estar dirigidos a ciertos públicos. Y lo más espeluzante es que realmente podrán cambiar las opiniones de las personas. Van a poder identificar patrones y poder convencer a las personas. Así que yo creo que estos serán desafíos para nuestras democracias. A la misma vez, creo que la inteligencia artificial es una herramienta. Pero también usan para curar a las personas. Tenemos otras tecnologías como la radioactividad que fueron utilizadas para curar las personas, pero también para desarrollar armas. Así que para responder a su pregunta, creo que debemos empoderar a los patrones para que entiendan mejor esta tecnología y puedan aprovecharla. Es asombroso, lo fácil que es utilizar la inteligencia artificial hoy en día. En los últimos diez o cinco años, si tenía que programar un modelo, era muy complicado, tomaba mucho tiempo crear los parámetros para el servidor. Ahora es mucho más fácil y es accesible, digamos que el costo de la tecnología también ha disminuido. Así que esto es algo que presenta una oportunidad para los jóvenes, para los promotores de la paz. Nosotros podemos aprender a través del uso de la tecnología y no es solo para las personas en mundos distintos. O sea, no solamente para los países en desarrollo. Yo vine de un país en desarrollo y bueno, ahora cualquier persona puede utilizar esta tecnología, no tiene que estar en un país desarrollado, así que les insto a que aprovechen este momento para aprender más sobre esta tecnología y que la usen para poder mejorar el mundo. Creo que ya hemos visto algunos ejemplos donde la inteligencia artificial se utiliza para la promoción de la paz. Un ejemplo es de la ONU. Han utilizado la inteligencia artificial en Libia y Yemen para entender la opinión pública y abrir camino para la promoción de la paz. Así que sí existen maneras de utilizarlo para la promoción de la paz. Si capacitamos a los jóvenes, creo que estaremos mejor posicionados para contrarestar el uso perjudicial de esta tecnología. También nos enfrentamos a muchos desafíos para cualquier promotor de la paz. Un desafío es el acceso a los datos. Lo que han hecho que estos modelos realmente sean increíbles son los datos que se han utilizado. Tenemos datos de código abierto que se están utilizando para detectar las advertencias tempranas de crisis o conflicto. Será más fácil utilizar el aprendizaje automático, pero el desafío en este momento es acceder a datos que le permita a los promotores de la paz utilizar estas herramientas para el desarrollo, para poder promover la paz. Este es el desafío más grande del cual nos enfrentamos. Y yo he escuchado a muchos hablar de matar a los robots. Creo que algo que podría desestabilizar la paz y seguridad mundial es exactamente eso. Realmente me inquieta. Cualquier modelo tendrá sus sesgos. Debemos entender en qué medida es sesgado y cuáles podrían ser las consecuencias. Así que debemos entender eso. Y en cuanto a este tema de matar a los robots, lo que me realmente inquieta es que los datos vienen de los seres humanos. Podemos tener lo que se llaman los falsos positivos. Así que tenemos que aprender de los errores humanos del pasado. También pensaremos en cómo se implementará en el futuro. A medida que continuaremos por este camino, veremos que el gobierno quiere utilizar esta tecnología. En este momento tenemos a los seres humanos como intermediarios para identificar sesgos, pero en el futuro se van a dejar que la máquina decida por su propia cuenta, no tendremos un control de estos sesgos. Esto podrá crear problemas complejos para la humanidad en el futuro. Espectacular. Estoy de acuerdo con usted, Cid. Nosotros en el consejo asesor de la juventud si pensamos en la importancia de integrar el uso generalizado de los datos en la sociedad como una herramienta para la innovación, nosotros opinamos que esta es una oportunidad para el crecimiento y hace que este diálogo sea de suma importancia. No queremos acercarnos a esta tecnología de manera sospechosa, sino con curiosidad. Así que realmente podemos pensar en la inteligencia artificial y la siguiente generación de promotores de la paz. Alexandra hemos hablado de cómo la inteligencia artificial puede ser una herramienta o un obstáculo al nivel comunitario. Cómo se puede apalancar la inteligencia artificial para hacer incidencia en nombre de las mujeres para enfocarnos en los jóvenes promotores de la paz? Y cuáles son los desafíos de cara al futuro? Muchas gracias. Yo hablaré de muchos de los temas que ha mencionado Cid. Y bueno, me gustaría que volviéramos al tema de los sesgos. Esto es algo que había mencionado en la otra pregunta. Los sesgos de generos es algo que vemos cuando apalancamos la inteligencia artificial. Yo sí creo. Sin embargo, que esta tecnología tiene un gran potencial para apoyar la agenda de paz, de seguridad y de mujeres. Siempre y cuando tenemos un análisis específico al contexto. Como muchos de los ponentes han mencionado durante esta conversación, una de las fortalezas de la inteligencia artificial es que puede reconocer los patrones rápidamente para analizar los datos. Esto tiene implicaciones para los mecanismos de la advertencia temprana del conflicto que se ha mencionado ya. La inteligencia artificial podría permitirnos entender los desarrollos en contextos volátiles de manera inmediata. Esta tecnología, por ejemplo, se podría utilizar para detectar la difusión de la desinformación para permitirnos actuar de manera inmediata. Realmente podríamos responder y detener esta desinformación, lo cual es un componente esencial para los esfuerzos de mitigar conflictos. En cuanto a los mecanismos de las advertencias tempranas, creo que podríamos pensar un poco más allá en cuanto a los indicadores que vamos a incluir, incluyendo que también incluyan temas de la dinámica de género. Por ejemplo, hace algunos años, Ono Mujeres se asoció con una universidad para realizar investigación en narrativas isoginistas en línea y fuera de línea y vieron una correlación entre este tipo de narrativa y el apoyo para ideales más extremos. Así que esto nos permite entender la importancia de estos sistemas de monitoreo. Si habló de esto también, vemos que a medida que los deepfakes avanzan más, la tecnología de detección también debe ser más sofisticada. Cuando tenemos este contenido de manipulación de video y audio que no podemos detectar con el ojo humano, vemos que las aplicaciones de la inteligencia artificial se están utilizando para poder detectar que son falsos. En nuestra investigación hemos visto que la difusión de deepfakes, cual incluye contenido pornográfico, se ha utilizado para silenciar y desacreditar a las mujeres, incluyendo las promotoras de la paz, las defensoras de derechos humanos, etcétera. Así que debemos contrarrestar el uso de este contenido para salvaguardar el bienestar de las mujeres y garantizar que puedan seguir en sus luchas. Si mencionó esto, realmente es un ejemplo interesante, pero hemos visto que la inteligencia artificial se ha utilizado para los diálogos de la paz como en Yemen y Libia. Estos ejemplos realmente destacan el potencial de la inteligencia artificial para que el diálogo de la paz pueda ser más accesible, más inclusivo. Podremos eliminar barreras y permitir que otras partes interesadas participen en la toma de decisiones como las mujeres, especialmente las jóvenes, para que puedan participar en estos procesos de paz. Hemos visto que las mujeres, promotoras de la paz y las jóvenes dependen mucho de las redes sociales para realizar su trabajo en Filipinas. Por ejemplo, en el 2019 las jóvenes organizaron una campaña de redes sociales para animar a los jóvenes que salieran a votar y que apoyaran una ley que fue importante para institucionalizar el acuerdo de paz en el sur de Filipinas. Este es un gran ejemplo de cómo se utilizó las redes sociales en este proceso. Sin embargo, podemos volver a la conversación de la inteligencia artificial al pensar en redes sociales. Así que es importante reconocer que las mujeres se enfrentan a riesgos desproporcionados en redes sociales. Tenemos estos filtros de contenido que se utilizan en las plataformas de redes sociales para advertir el contenido perjudicial, contenido nocivo, pero se han criticado a las organizaciones de mujeres por no ser inclusivas de género, por quizás utilizar cierto contenido. Así que muchas están pidiendo que se vuelvan a diseñar estos mecanismos para que realmente respondan al acoso y a la amenaza en base al género. Para concluir, yo creo que uno de los desafíos a los cuales nos enfrentamos en el momento de garantizar que la tecnología y la inteligencia artificial se puedan utilizar para la promoción de la paz es que estas conversaciones aún se están realizando de manera aislada, así que debemos ser más inclusivos. Así que tenemos que pensar en la inteligencia artificial en el género, pero se está haciendo muy poco trabajo en la intersección de estos campos. Actualmente vemos una aceleración en el debate de la inteligencia artificial en el contexto de la paz y la seguridad internacional. Debemos garantizar que el género se incluya como un componente clave de este diálogo y no solamente es algo que se agrie después. Así que requerimos de un diálogo multisectorial, de un enfoque que incluya toda la sociedad, el gobierno, el sector privado como expertos en estas materias. Yo creo que las agendas de mujeres y seguridad, como también la promoción de la paz, pueden proporcionarnos con marcos. Gracias. Muchísimas gracias y me parece una perspectiva tan importante sobre el tema. Nuestro diálogo ha sido verdaderamente increíble y es una lástima que ahora hemos pasado a la última sesión, que es la parte de preguntas y respuestas. Antes de eso, para cerrar, quisiera que nuestros panelistas se dirijan a nuestros jóvenes que estén escuchando esta conversación. Si quieren, si pueden, en 30 segundos o menos. Puede hacer la siguiente generación para moldear la trayectoria de la IA en un sentido positivo que beneficia a las sociedades democráticas. Los repito, 30 segundos o menos. ¿Qué puede hacer la siguiente generación para moldear la trayectoria de la IA? Y encaminarla hacia algo que beneficie a las sociedades democráticas. Quizás empecemos con el doctor Andrzej. Bueno, me alegra mucho poder responder. Creo que ya hemos comentado mucho sobre eso. Yo creo que, bueno, antes yo tenía el honor de trabajar en la misión de Estados Unidos ante la ONU y ella. Y bueno, y una de nuestras líderes celebró una reunión con la señora en Yabala. Ella nos pidió que expandiéramos horizontes, que expandiéramos nuestra perspectiva, que pensáramos de manera multilateral e intergeneracional. Yo creo que es algo muy importante para nuestros líderes en el espacio multilateral. Si tenemos que pensar en cómo vamos a aumentar la confianza para asegurarnos de que las falsas percepciones no nos conlleven a un camino, no nos lleven por un sendero peligroso. Es importante mitigar las tensiones. Y eso se puede hacer buscando maneras de implementar la IA con una perspectiva transnacional. Es un espacio tan diverso. No son solamente los gobiernos que capitanean esto. Son gobiernos, son instituciones no gubernamentales. El gobierno local estatal. Yo pido que nosotros salgamos de estas divisiones y que busquemos conectar a nivel internacional. Especialmente ahora yo creo que esto es muy importante. Hay tantos problemas que han alimentado la imaginación de nuestros de nuestra juventud y la IA puede contribuir a resolver muchas de esas preocupaciones. Pero es de inmensa pertinencia. Entender cómo pueden integrarse estas tecnologías y estos sistemas dependen de contexto los que pueden traducir entre el mundo técnico y el mundo legislativo. Nosotros entendemos que ustedes son los que van a ayudar a palancar estas herramientas para el bien de todos. Y yo creo que esto es un desafío. Es un llamado a todos a que se levanten y que las personas que muchas veces no pueden participar en estos debates sí formen parte de nuestras conversaciones. Muy bien. Ahora quizás la señora Branca. Andrew lo dijo tan perfectamente. Yo no sé ni qué añadir para concluir. Debería decir, bueno, es importante amplificar lo que ya mencionaron los demás oradores tan espectaculares el día de hoy, especialmente los puntos que mencionó Alexandra. Quiero dirigirme a los jóvenes, pero especialmente a las mujeres y las niñas. Recuerden la poca representación que tienen y eso les debería animar a trabajar en este ámbito, pero también es nuestro deber permitirles ese espacio, amplificar sus voces. No solo si obviamente si tienen estas capacidades, son científicos en el área de la repulia recopilación de datos. Este es un campo mucho más con mucho más sobre el apamiento o mucho más solapamiento de lo que podrían pensar. Es importante llegar con su propia pericia, especialmente otro grupo. Bueno, que yo quiero que que participen de personas que viven en el sur global, la mayoría global, amplificando también lo que dijo. Sí, a verdad no. Ya no es el tema que las personas en los países desarrollados solamente pueden participar. Hay muchas voces increíbles, especialmente de las de la juventud, que están realizando una labor increíble o fantástica, que están haciendo llegar nuevas tecnologías a sus propios países. Son las personas que entienden el contexto, no tienen solamente experiencia profesional, sino experiencia vivida y saben cómo usar esta tecnología para el bien. Entonces les animo a todos, a todos ellos y a todos ustedes en el público que aprovechen este espacio y nos lideren a nosotros. Son ustedes los que van a poder mantener el ritmo de este desarrollo, la velocidad de este desarrollo. Contamos con ustedes. Muchísimas gracias, señora Branca. Entonces quizás. Sí, sí, Tuzani. Quizás quiera decir algo. ¿Cuál es su mensaje a los jóvenes que trabajan en este campo? Reitero. Hay oportunidades fenomenales para que la juventud aprenda. Son tantos los recursos gratis que se pueden conseguir en línea para dominar esas tecnologías. No existe excusa para no interesarse y no desarrollar nuestras capacidades, especialmente para la juventud. Quizás en el pasado para otras generaciones tenían que aprender a usar un ordenador, una computadora. Fue algo desafiante para nosotros, pero los que son nativos de ese ecosistema no debería ser tan difícil. La nueva generación se acostumbrará tanto a usar la IA que esto se volverá algo completamente banalizado. Intenten familiarizarse con esas herramientas. Son muchas más las que están disponibles ahora que lo que había antes. Y mientras más sean los que usan esa tecnología para el bien, podremos equilibrar con los que lo usan para el mal. Si son más las personas que apalancan esta tecnología para razones positivas, eso podrá superar las consecuencias negativas que generarán esas mismas tecnologías. Muchísimas gracias, Seid. Y por último, pero no por ello menos importante, cuál es su perspectiva, señora Alexandra? Yo creo que ya se ha dicho tanto sobre el tema. Es difícil contribuir más sin repetir lo que ya ha dicho otro, pero quiero hacer hincapié en lo siguiente. La IA, yo creo que tiende a el tiende a aparecer todo un misterio. Las personas no participan en estas conversaciones porque creen que esto es algo específico, es algo muy técnico. Pero hoy hablamos de cuáles tecnologías necesitamos y cuál es el entendimiento que buscamos. Este es un llamado a nuestros jóvenes científicos en el área de los datos, en la construcción de la paz para ver cómo podemos fomentar la paz y superar los problemas que enfrenta el mundo el día de hoy. Otra cosa quiero darle la vuelta a la pregunta, qué podemos hacer nosotros para garantizar que los jóvenes puedan acceder a estos espacios para ir encaminando a la IA en el sendero del bien. Independientemente del campo donde ejercemos nuestras profesiones, tenemos que apalancar nuestra pericia para asegurarnos de que todos tengan un espacio en la conversación. Increíble, muchísimas gracias, señor Alexandra. Me parece que esta este diálogo ha sido muy fructífero y profundo. Me encantó que la señora Alexandra haya cambiado la pregunta. Son conversaciones como estas que descentralizan a las personas que descentralizan el enfoque para poder incluir más personas que tal vez tengan pericia necesitada en este campo y nos permite tener más información. Y pues con eso vamos a ver cuáles han sido los comentarios, las dudas de nuestro público, cuáles han sido las preguntas que nos postularon mientras conversábamos. Tengo aquí la primera pregunta. Yo creo que la señora branca quizás pueda responder cómo es que la IA se puede utilizar como herramienta para construir empatía y con entendimiento. Hay hay herramientas que se pueden usar para mapear en los conflictos. Bueno, yo diría que son dos temas distintos para el para mapear conflictos. Claro que sí. Son muchos los en muchas las herramientas que buscan identificar los factores del conflicto o de violencia que es según distintas perspectivas o las organizaciones involucradas. Otra otra capa del potencial de estas herramientas es dar ese paso adicional. No es solamente mapear, sino crear sistemas de alerta temprana. Como dijo Siet, los ejemplos del discurso que es incitación al odio en Sri Lanka. Vimos ejemplos de esto. Trabajábamos con autoridades locales para darle a a los miembros del público. No una idea de cómo pueden participar en un proyecto ya en pie. Cómo pueden participar los expertos en datos para establecer o elaborar un modelo que permita identificar dónde aparece esa narrativa. Cómo prevenir la violencia, especialmente con este aspecto género verdad. Nosotros queremos identificar dónde están los ejemplos de violencia a base de género en distintos países, en distintas regiones y arrojar luz sobre las pruebas. Estamos en una etapa en la que hablamos cada vez más de política basada en evidencias. Y para eso necesitamos usar los los bols y nuestras reservas de datos. Muchas de las estos elementos, muchos de los elementos que estoy mencionando aquí, son humanos. Nosotros lo hemos visto en años recientes con la elaboración de nuevas tecnologías en distintos campos, como por ejemplo la diplomacia, donde escuchar de manera activa es muy importante. La empatía se tiene que activar cuál es el rol de los sentimientos en el ámbito de un diálogo o con con unidades que han sufrido conflicto, etcétera. Y ahí es donde sí todavía necesitamos ese aspecto humano y que muchas veces hablamos de tecnologías que centran al ser humano y con el ser con el ser humano al centro. El ser humano tiene que aportar al proceso, al ciclo. Pero algo bien interesante que acabamos de atestiguar con la idea generativa pensábamos durante tantos años que las capacidades artísticas son del reino humano, nada más. Pero vemos ahora bueno, muchos como quiera discreparían en opinión, pero vemos que muchas de estas productos generativos de arte sí han podido producir un efecto emocional o afectivo con los seres humanos. Yo creo que las tecnologías se están desarrollando de una manera muy interesante. Veremos que surgirá en ese ámbito de la empatía en los años venideros. Muchísimas gracias por decirnos eso. Me parece también muy interesante. Y quiero aprovechar para postular otra pregunta más. Quizás el doctor Andrew tengo una pregunta para él. Muy bien. Entonces sobre la el control de la y a hablamos de regulaciones, verdad? Pero las empresas dicen que esto ralentizará la innovación y quizás eso permitirá que otros países no democráticos superen en este ámbito. ¿Cuál es su opinión? Bueno, dos cosas para seguir con los comentarios previos. Hay quien dice que la y a es el es la interfaz humana entre nosotros y el mundo que nos rodea. Yo creo que lo que tenemos que entender es que hay una una definición humana para la inteligencia, pero hay inteligencia en todo, en las plantas, en los animales, en nuestro medio ambiente. Tenemos que reconocer cuáles son las señales que podemos entender del mundo que nos rodea del nuestro planeta y mientras nos vamos entrando, hay distintas maneras de interpretar lo que es la inteligencia y en esa sinfonía podemos inspirarnos de muchos elementos. Es una perspectiva que quiero que tengan en cuenta. Para esta pregunta creo que es una falsa percepción bastante común que la innovación y la regulación se oponen nuevamente. Han sido muchos los casos en los que una regulación inteligente efectiva que goce del apoyo del público general tiende a impulsar más innovación. Hay competencias en este ámbito a nivel global. Son muchos los competidores, muchos los países que buscan desarrollar o elaborar regulación en este ámbito específicamente. La regulación tiene que ser inteligente, tiene que implementarse con sabiduría. Y yo creo que se ve mucho progreso en el área de la regulación de procedimientos específicos que vemos en este ámbito. El gran debate ahora es si necesitamos nuevas instituciones dadas la rapidez del desarrollo de estas tecnologías o es que las agencias existentes pueden marcar el mismo ritmo. No creo que la insti una nueva institución sea necesaria como tal, pero es importante que las instituciones entiendan cuáles son las infraestructuras necesarias para entender el contexto general. Es difícil lograrlo, pero cada vez más personas familiarizadas con este ámbito y a medida que los las herramientas de fuente abierta gocen de mayor disponibilidad. Las personas entenderán esto cada vez más. Entenderán cuáles son las amenazas que existen o que implican estas herramientas. Pero hay un riesgo mayor que tenemos que recordar a medida que se vayan integrando estas tecnologías en nuestras sociedades, en nuestro ambiente, en nuestras economías. Muchísimas gracias, doctor Andrew. Y estoy tan agradecida en nombre de y griega hace el. Quiero expresar mi gratitud por el que ustedes hayan dedicado un poco de su tiempo para hablar con nosotros sobre este tema. Con eso vamos a concluir. Pero esto sirve de testamento. Afortunadamente, por ahora, de la importancia de nuestra conversación, son muchas las preguntas que hemos recibido. No podremos responder a todas ahora mismo, pero serán muchas más las oportunidades para nuestro público, nuestros panelistas. Si tienen una presencia pública en redes sociales, así que si quieren, pueden escribirles por esos medios. Esperamos que esta sea la primera de muchas más actividades dirigidas a la juventud para ver mayor innovación y participación en este ámbito. Muchísimas gracias por su participación y suerte en la labor que van realizando. Ustedes han sido fenomenales. Esperamos que todos nuestros jóvenes salgan de esta sesión con más información. Les habla Onipapa. Nos veremos en el siguiente webinario. Buenos días, buenas noches, buenas tardes. Independientemente de dónde estén en el planeta, les deseamos un lindo día. Gracias. Gracias.