 Hola, muchas gracias por acompañarnos hoy. Mi nombre es Carolina Cuelliche y soy parte del equipo de comunicaciones de IBM en América Latina. Y junto con los investigadores y el equipo de comunicaciones de IBM Research, queremos darles la bienvenida a esta jornada donde hablaremos sobre ciencia y salud. Frente a los desafíos que enfrentamos como sociedad, sin duda la ciencia es más importante que nunca. Las decisiones de hoy merecen anticiparse al conocimiento del mañana y esto es especialmente relevante para la salud. En IBM trabajamos para desarrollar soluciones como la inteligencia artificial, la nube híbrida y la computación cuántica, las cuales consideramos herramientas fundamentales para apoyar el trabajo de investigadores y profesionales de la salud del mundo. Bien, esto estamos trabajando los equipos de IBM Research, en particular los investigadores de América Latina y España que nos acompañan hoy. Antes de comenzar, quería comentarles que la sesión será grabada y luego compartiremos el link con ustedes, además de otros recursos, como un breve resumen del trabajo presentado por cada investigador, subidos y fotos. También decirles que pueden usar el chat que ven en su pantalla para enviar preguntas a las y los investigadores, pueden ir haciéndolo a medida que presentan durante todo el evento. Dedicaremos la última parte de esta reunión para responder la mayor cantidad de preguntas posibles y por cualquier pregunta adicional, los contactaremos con los investigadores correspondientes para ampliar la información al finalizar el evento. Por último, los invitamos a compartir sus impresiones durante la sesión de hoy en redes sociales, pueden usar el usuario de IBM en su país y Arroba IBM Research. Ahora sí, para comenzar, queremos compartir con ustedes una brevísima introducción con Aya Irojuru, IBM Fellow y vicepresidente de Healthcare and Life Science Research. Voy a hablar hoy sobre la intersección que está ocurriendo en el domenio de Healthcare and Life Sciences con las avances rápidas en tecnología de información, especialmente con Cloud y Aya Irojuru. Un gran tren que está ocurriendo en Healthcare es la digitización, lo que significa que las cosas que no se han hecho electrónicamente están ahora comenzando a hacer electrónicamente, y hay un flujo de nuevo data y nuevos procesos de manejar el data, eso realmente requiere más integración de tecnología en el Cloud y operando con esa información con avances en Aya Irojuru. En nuestro portfolio de investigación, vemos tres grandes cosas. Uno es en la salud computación, donde las inclinicales en el grupo actualmente están ahora digitizadas, como mencioné, y usan esa información para ver la longitud de los acciones de la paciencia y, por último, cosas más significativas, como la progresión del diseño o la estación del diseño y el incremento de los pacientes en las inclinicales, etcétera. Así que eso es un área de investigación para nosotros. El segundo, en el área de la salud digital, estamos obteniendo información sobre dónde el paciente o el individuo está en su viaje con el diseño, y haciendo eso, no solo en un set clínico, sino también, más a veces, en el paciente en su casa o en el ambiente de trabajo, y usando eso para obtener un minuto a minuto de asesino de la condición de los pacientes es ahora posible con todas las tecnologías de tecnología digitales. Eso es un área de investigación para nosotros, donde estamos buscando condiciones progresivas de crónica, en la neurología, por ejemplo, con diseases como Alzheimer's o Parkinson's. Y hablando de Alzheimer's, hoy escucharemos a mi colega, Guijar Mosechi, en usar el asesino de la conversa y el texto escrito para informar, no solo la condición presentada de pacientes, pero ¿qué es posible en el futuro? ¿Pueden aplicar AI en ese tipo de conversa y el data de texto escrito, y predictor, quién es posible tener qué variedad de diseño, y en qué momento y tiempo en el futuro? Así que eso es una aplicación de salud digital con tecnología AI para entender la manifestación de diseño en el futuro. El tercer aspecto de la investigación está en la biología computación o en entender los mecanismos de diferentes diseños. Y en particular, es un área muy rápida de investigación en la comunidad científica, porque la biología ha empezado a ser digitizada y las prácticas laborales están generando muchos nuevos datos y las preguntas previosas están ahora siendo accesibles a las investigaciones que combinan los datos y los experimentos. Mi colega, Maria Rodrigues, va a hablar de usar algunas de esas avances en el área de proteomics, en el área de patrullos biológicos, en las cámaras, para entender el maquillaje imunológico, y, por supuesto, la imunología es integral a muchos, muchos diseños, porque es el sistema de inmunidad de los módios que facilita la reacción y la reconocimiento de los objetos fuera y actualmente prevencia la manifestación del diseño, que es lo que ocurre en muchos diseños infecciones, o en el otro lado de eso, tienes disorders de inmunidad, donde, malvamente, el sistema de inmunidad actualmente ataca los módios de sus cámaras y crea la inmunidad de autoimmun o las disorders del sistema de inmunidad. Entonces, entender el sistema de inmunidad a través de este lento de la biología computación y data, aplicar el AI a ese data, nos da nuevos insights también, que vamos a escuchar de Maria Rodríguez. Y acudir a todos estos es, por supuesto, verás el Cloud Hybrid y AI o avances que son relevantes a estas, y una particular área de AI que también es interesante a nosotros, es la naturaleza de la AI, porque es una nueva metodología que están aplicando, tenemos que empezar a entender cómo poner el mismo número de tecnología para ganar la confianza. ¿Cuándo es el AI haciendo las cosas correctas? ¿Cuándo es el remaining biased? ¿Cuándo es el fair? ¿Cuándo no es el fair y cómo mejorar la falso de la aplicación de AI? Entonces, vamos a escuchar a mi colega Celia sobre los métodos que estamos buscando para llevar esa falso de confianza y falso a las aplicaciones de AI. Entonces, esos son algunos de los topics que vamos a ver hoy. Agradezco tu interactión con la equipo y los seguintes. Gracias. Como vimos en el vídeo, acelerar los descubrimientos en salud con inteligencia artificial y nube es un área foco para IBM. A continuación, investigadores de América Latina y España que trabajan en los laboratorios de IBM en Nairobi, Africano, Mallorca, Estados Unidos y Zurich, Suiza, compartirán sus últimos estudios con modelos de inteligencia artificial para acelerar la investigación en salud. En esta primera parte, hablaremos con tres investigadores de IBM sobre diagnóstico temprano al SEMAR y el estudio del sentido del olfato. La primera charla está a cargo de Guillermo Cechi, quien trabaja en IBM hace 20 años y hoy dirige el laboratorio de psiquiatría computacional y neuroimágenes del Thomas J. Watson Research Center en Nueva York, Estados Unidos. Guillermo nos hablará sobre uno de los muchos proyectos en los que trabaja su equipo, el diagnóstico temprano al SEMAR a través de marcadores del habla. Guillermo, bienvenido. Te escuchamos. Hola. Buenos días. Buenas tardes. Se ve bien mi presentación, es como que sí. Sí, como decía, Carlos, estamos trabajando en lo que llamamos con el nombre de psiquiatría computacional, que es el estudio usando métodos de computacionales matemáticos de salud mental. Este es el equipo, no es todo el equipo, pero está altamente dominado por hispanoparlantes, incluso en la Carla Agurto y Eduardo Castro, que son peruanos, y Pablo Poloseque, que es argentino. Pero hoy en particular van a oír hablar de su trabajo de parte de Pablo Mayer, que es mexicano, y de Raquel Kelly Norel, que es chilena. ¿Qué es lo que estamos haciendo? ¿Por qué estamos haciendo esto? La motivación de nuestro trabajo recibe entender que hay un contraste flagrante entre lo que pasa en la clínica y en el uso cotidiano de tratamiento salud mental y lo que pasa fuera de la clínica. En lo que pasa en la clínica realmente no ha cambiado mucho en casi 100 años por buenas razones, y en gran parte la evaluación y el tratamiento se basan en las interacciones que tiene un paciente con su médico, con su clínico, con su psiquiatra, con su neurólogo, y que fundamentalmente están determinadas por el diálogo y por producción lingüística, durante la cual el paciente explica sus problemas y el médico trata el clínico, el psiquiatra trata de ayudarlo. Pero como todos sabemos, fuera de la clínica, hoy por hoy vivimos en un mundo digital donde enorme cantidad de transacciones se hacen digitalmente, desde emails, textos, llamadas telefónicas, y al mismo tiempo, esa provisión digital es analizada con un detalle increíble, pero con la motivación, no precisamente de ayudar al tratamiento de salud mental, sino con motivaciones más comerciales, o otro tipo de aplicaciones. Nuestros teléfonos están corriendo todo tipo de algoritmos tratando de determinar si preferimos una marca de cerveza sobre otra o una marca graciosa sobre otra. Entonces, lo que reconocemos nosotros es que este contraste es posible de utilizarlo positivamente y de traer herramientas que conocemos muy bien de salud mental, de computación a la salud mental, y que básicamente es eso lo que hacemos. Tomamos muestras de lenguaje tanto escrito como hablado que se producen en particular evaluaciones de pacientes con problemas de salud mental, manteniendo todas las restricciones necesarias para confidencialidad y diversidad. Siempre en el marco de estudios clínicos hemos hecho todo este trabajo en clínicos estrictamente clínicos con médicos y con todas las regulaciones correspondientes. Se tratamos de generar de tomar pruebas de lenguaje que sean fáciles para los pacientes que sean cotidianas, entretenidas y que podamos tomar con alta frecuencia lo posible desde el hogar para facilitar la interacción con el paciente. Y a partir de eso utilizamos todo tipo de técnicas de procesamiento de señales como por ejemplo identificar el tono de la voz de una persona a tener más abstractas y por ejemplo recientemente trabajando en la sociedad detectar la presencia de metáforas en el discurso de una persona. Esto es para ese abstracto pero concretamente les quiero mostrar dos ejemplos relacionados que son bastante relevantes para el problema de la demencia y en general del clírico cognitivo de las personas a medida que envejecen. El primero es un trabajo que publicamos más o menos recientemente en el que mostramos que tomando un examen que se viva siendo en el campo de la neurología desde hace décadas que es la descripción de la imagen que ven aquí en la pantalla a la izquierda como ven es algo que se origina en Estados Unidos en los años 40 o 50 si sigue usando como parte de una batería de evaluación del estado cognitivo de una persona se le pide que describan esa cena simplemente es algo muy simple uno tiene que hacer es describir la cena en sus propias palabras y lo que mostramos es que tomando simplemente la estructura sintáctica la estructura de sujetos y predicados que lo aprendemos en la escuela primaria es posible inferir la escala de exterior o cognitivo que se conoce como mini estado mental con una precisión de un 70% teniendo en cuenta que estos son menos de dos minutos de producción lingüística y que se puede hacer tanto en la clínica como en casa y se puede hacer repetidamente todo con lo que toma hacer la evaluación de ese mini estado mental que es traer la persona a la clínica ponerla en frente a un negrólogo y estar entre una o en una orimedia de interacción total pero lo más interesante es lo que tomando esto como base hicimos más recientemente que fue inspirado en un trabajo que es un clásico en la neurología pero que hasta el momento ha sido puramente cualitativo que se conoce como el estudio de las monjas y es algo que también se hizo en Estados Unidos analizando la evolución de monjas en un convento desde el momento que entren al convento típicamente son muy jóvenes años 20 incluso menos y viendo lo que pasa una vez que llegan a una edad avanzada entre 75 y 95 años y lo que se había visto de forma muy cualitativa y con muy pocos casos es que lo que ellas escribían el ensayo que escribían para entrar al convento incluso sus diarios personales tenían información acerca de si iban a desarrollar Alzheimer o no o algún tipo de denencia cuando ya estuvieran en una edad avanzada y básicamente la idea es que los ensayos que tenían baja densidad de ideas como se lo conoce este término correlacionaban de alguna manera con la propensión de desarrollar Alzheimer en la edad avanzada entonces lo que hicimos nosotros fue basado en esta idea recurrimos a un estudio longitudinal que lleva décadas y está basado en un pueblo de Massachusetts en Estados Unidos y en el cual se evalúa la salud general de las personas todos los años incluyendo la salud cognitiva y se sigue la misma persona durante décadas entonces este es el gran valor de este estudio y lo que hicimos fue a partir de esto formularnos la pregunta si es posible tomando una muestra lingüística muy simple de las personas en el momento que los neurólogos las consideraron como cometidamente sanas si es posible predecir si van a desarrollar Alzheimer para tener Alzheimer antes de la edad de 85 años o después o nunca usando los 85 años como la barrera de Alzheimer temprano o tardio o no existente y entonces lo que hicimos fue tomar la misma prueba lingüística que es la descripción de ese dibujo que se lo conoce como la tarea del robo de la galleta y probamos que si tomamos la información lingüística presente ahí solamente eso es posible determinar con una precisión del casi 75% si la persona que en ese momento se la consideraba cometidamente sana va a desarrollar Alzheimer antes de los 85 años lo que es interesante es que bueno si no sabemos nada al respecto esa probabilidad de 50% pero además si tomamos todo el resto la información clínica disponible en ese momento los datos demográficos, la historia clínica los otros exámenes neurocognitivos todo lo cual toma una gran cantidad de tiempo y nuevamente como decía requiere la presencia del individuo en la clínica apenas llegan 60% entonces esto para nosotros demuestra que usando técnicas de inteligencia artificial es posible obtener una información riquísima acerca de la trayectoria de la persona que como está indicado en la lámina en promedio se obtiene entre 7 y 8 años antes de que haya ningún síntoma reconocible para los métodos tradicionales de evaluar el estado cognitivo pero lo que quería decir como último punto antes de pasar al siguiente tópico es que el valor de esto no es tanto en sí decir bueno yo puedo predecir si una persona va a desarrollar Alzheimer con cierta precisión sino que es algo que podemos usar ahora y qué quiero decir con esto si yo tengo una persona que considero altamente probable que desarrolle Alzheimer y luego hago algún tipo de intervención que puede ser farmacológica o puede ser algún tipo de cambio de estilo de vida o como se conoce remediación cognitiva la persona empieza a leer más o lo que sea y 6 meses más tarde hago la misma prueba y ahora veo que la prioridad de que se convierte al Alzheimer es menor entonces tengo una forma muy precisa analítica de determinar que mi tratamiento tiene éxito y no tengo que esperar años en el futuro, esta es la ventaja de poder ver en el futuro con alta probabilidad qué va a pasar con esta persona y aquí me detengo y vamos a pasar al próximo tópico, caro vos supongo que vas a introducir a Guillermo por tu presentación es muy interesante conocer cómo nuestra forma de hablar y lo que decimos puede ser analizado con inteligencia artificial para intentar mejorar el diagnóstico y tratamiento hoy como bien dijiste de enfermedades neurodegenerativas en este caso el Alzheimer, así muchas gracias continuamos ahora con Diego para nosotros contar con tu participación quiero presentarles nos acompaña Diego Fernández Eslesac que es director del laboratorio de inteligencia artificial aplicada del Departamento de Computación de la Facultad de Ciencias Exactas y Naturales de la Universidad de Buenos Aires y cofundador de Entelaí Diego bienvenido y quería que nos cuentes con tu experiencia en inteligencia artificial y machine learning aplicada en salud para la academia e instituciones en Argentina ¿cuál crees que es el aporte de este tipo de investigaciones para nuestros países? Sí que tal, muchas gracias por la invitación y gracias Guille por tu presentación antes hago un paréntesis breve lo presentaron a Guille como hace 20 años trabajando en IBM y casualmente con Guille hice la cuenta llevamos 14 años trabajando juntos en temas de investigación que significa este tipo de avances es un hito más en algo que está justamente Guille en la vanguardia desde hace muchísimos años y que lo vengo siguiendo de ser que ahí venimos trabajando mucho el respecto que es cómo hacer para incorporar estas últimas tecnologías la inteligencia artificial en salud y este hito particular abre una nueva ventana que muy bien explicó recién Guille de utilizar técnicas que se vienen desarrollando hace 10, 15, 20 años en índices cuantitativos que permiten al médico en este caso neurologo o psiquiatra o psicólogo tomar mejores decisiones con información cuantitativa que es uno de los grandes desafíos en particular en lo que es salud mental y en lo que es Guille la estrategia utilizada en este tipo de enfermedades es la entrevista y en general un análisis cualitativo con algunas raras excepciones pero este tipo de herramientas despierta un nuevo interés con conceptos básicos que todo el mundo acepta incluso en la psiquiatría pero que la inteligencia artificial logra sistematizar y cuantificar así que yo creo que la gran ventaja y el gran desafío ahora es incorporar estas nuevas técnicas y estos nuevos resultados para tratar de llegar a la clínica y darle al médico nuevas herramientas cuantitativas que le permitan hacer su trabajo más rápido, mejor, con menos costo más dándole el foco al paciente y liberarle tiempo para que pueda hacer su diagnóstico con información cuantitativa en el medio ¿no? Muchas gracias Diego por tu opinión quería saber en cuanto a los beneficios que comentabas que tienen que ver con devolverle el tiempo a los médicos para que puedan ocuparse en tareas de mayor valor y ahorrar costos y poder expandir la información de salud a lugares que quizás ahora no estamos llegando con una especialista quería preguntarte específicamente en el caso de Argentina ¿Cómo estás trabajando vos en este tipo de investigaciones puntualmente en esta de Anza Iban? Sí, nosotros en Argentina de vuelta yo con Guille tengo una relación hace muchísimos años y nos vamos siguiendo en cuanto vimos la publicación y yo ya venía con Guille hablando del tema decidimos tratar de en algún sentido replicar parte de esas investigaciones casi todas estas investigaciones se hacen en idioma inglés y el análisis de datos con inteligencia artificial en texto en español u otros idiomas siempre está un paso por atrás entonces la idea fue tratar de replicar los resultados de presentados en esta publicación en Argentina en idioma en español y para eso estamos iniciando un protocolo de lo que llamó el Kukijar o Kukicef en el Instituto Flény con investigadores y médicos de ese instituto que trabajan con nosotros tanto en la pata de investigación yo soy investigador en la Universidad de Buenos Aires tanto como en la parte si quieren más de las empresas, el sector privado yo además soy cofundador de Entelay que justamente lo que busca es tratar de generar estos productos a partir de investigaciones que se hacen, ¿no? Cómo hacer para llevarle a un médico estas nuevas tecnologías de inteligencia artificial para que se usable, no es lo mismo leer un paper y generar prototipos de investigación que yo es un médico, así que en Argentina algo que estamos iniciando ahora entre la Universidad, Entelay y el Instituto Flény justamente es replicar estos resultados, generar un protocolo con pacientes de con Alzheimer ya avanzado o con probabilidad de Alzheimer y tratar de adaptar todas estas técnicas al español y que llegue a la clínica lo mejor posible y lo antes posible, ¿no? Completamente, Guillermo, perdón, Diego, estaremos atentos a cómo avance entonces esa investigación en el Instituto Flény de Argentina para que puedas compartirnos próximamente esperamos más resultados y novedades sobre este estudio. Te agradezco mucho tu tiempo y le recuerdo a quienes nos están mirando que pueden enviar preguntas en el chat tanto para Guillermo como para Diego para que cuando finalicemos podamos responder todas las preguntas que tienen que ya están llegando un montón así que les agradezco. Continuamos ahora con Raquel Norel y Pablo Meyes Rojas que presentarán parte de su trabajo sobre el estudio, el sentido, el olfato y los cambios que se producen en diferentes enfermedades como el COVID-19. Raquel, Norel, trabaja en IBM hace 10 años y actualmente es investigadora de Digital Health y Pablo Meyes Rojas es gerente de análisis y modelados biomédicos y hace 10 años que trabaja en IBM ambos en el laboratorio de IBM en Nueva York. Raquel, Pablo, bienvenidos, las escuchamos. Muchas gracias, Caro. Sí, hoy les vamos a hablar un poco de nuestra investigación que empezó hace unos años en relación con olfato. Guille, si puedes compartir la diapositiva, por favor. El sentido del olfato es un sentido a mi ver muy interesante en parte por qué es poco estudiado. ¿Y por qué es poco estudiado? Bueno, una de las razones que vienen desde el siglo XIX y los estudios de anatomía es porque comparado con el resto del cerebro el bulbulofactivo es órgano muy chico, digamos. Si se ve aquí en la foto en rojo en la foto transversal y de frente se ven estos dos puntitos verdes que serían el bulbulofactivo. Entonces, en comparación con el resto de la corteza es realmente parecer un detalle. Lo interesante es que el tamaño del bulbulofactivo es constante a través de los animales desde el elefante hasta el ratón. Entonces, obviamente, proporcionalmente nuestro bulbulofactivo es mucho más chico que el resto del cerebro pero es del mismo tamaño que el de animales a los que se pensaría que el olfato es extremadamente importante como los perros o los ratones o inclusive los elefantes. Yo creo que esta es una de las razones. La segunda razón es que el olfato es un sentido un poco animal primitivo, se siente y en parte por eso se piensa que los humanos no somos buenos a oler cosas y inclusive que igual el olfato es un sentido degenerado y no muy importante. Y por ello, mucha gente, científicos y la gente piensa que lo único que es importante para un humano en cuanto al olfato es qué intensidad tiene el olor si te causa placer o no o si te recuerda a cómo cocinaba tu abuela o alguna memoria de la infancia. Entonces, con este, si quieres ser reducido de poder describir los olfatos, era muy difícil hacer investigación. Entonces, lo que nosotros decidimos es organizar un concurso utilizando una base de datos en donde 50 gente solieron 500 moléculas puras y las describieron no sólo con la intensidad de placer, pero sino también con todas estas otras palabras que ven aquí como si huele, que te antibío o huele, orina, frío, especies, ácido, agrio inclusive olor a pan o a peso, a quemado y si lento estas palabras todas las palabras las van a relacionar con un olor. Entonces, con este, si quieres 21 dimensiones o 21 palabras caracterizamos gracias a estos datos de las 50 personas que olieron toda esta gran cantidad de moléculas, 500 moléculas y los repetieron y las olieron varias concentraciones Generamos nuestros colaboradores general en la Universidad Rockefeller la mayor base de datos humana en cuanto a psicofísica olfactiva, si es. Todos los datos que existían antes eran no más chicos o no eran accesibles porque obviamente hay mucho trabajo alrededor del olfato. El olfato es algo que genera economía, perfume vino, etcétera es algo muy presente si quieres en el mercado pero no tanto en la investigación y lo que nosotros pudimos lograr con estos datos fue por primera vez generar un modelo que dado una molécula podríamos decir a qué iba a oler esa molécula en estas dimensiones, que tan intenso que te aplazen entero y si iba a oler a quemado, a pesa, dulce, etcétera Entonces de alguna manera hicimos lo que muestra esta pequeña animación que hicieron mis colegas y señores de IBM, es decir tenemos una computadora y si le pones enfrente un elemento te va a decir a qué huele entonces sandía, huele a fruta ajo pues huele a ajo y pescado podría parecer un poco tautológico e inútil tener algo así pero ya como lo van a ver es muy útil porque por primera vez podemos realmente saber a qué va a oler algo en base a su composición molecular no en base a si es una sandía Entonces por ejemplo en lo que llamamos esto una gráfica de telaraña pueden ver en la línea continua negra es a lo que huele una molécula entonces huele un poco a madera es bastante intenso es un poco caliente no es muy frutal y es tampoco muy placentero bueno y lo que logra nuestro modelo es predecir a qué va a oler esa molécula con la marca roja que ven entonces como ven el modelo funciona bastante bien no previse muy bien que va a oler a madera pero esto funciona bastante bien se sobrelapa bastante bien entonces de alguna manera rompimos una barrera de cristal con este modelo y con estos datos mostrando que no sólo se podía predecir intensidad de placer sino que también las palabras que describen un oler también podrían ser predecidas y esto es un elemento bastante importante porque siempre se ha pensado que el lenguaje y el ofato están completamente separados y que no existen buenas categorías de palabras para describir olores y para que vean una de las aplicaciones de este trabajo que hemos hecho le deseo el micrófono y la palestra a mi colega Kelly Inore Hola, buenos días buenas tardes les vamos a explicar acá un poquito de qué es lo que estamos haciendo con estos modelos y con el uso del lenguaje relacionado al fato entonces como información base les quiero contar que nosotros en el 2014 ya empezamos a trabajar con estos modelos de olfato y lenguaje ahí es cuando organizamos este challenge de dream que es donde se creó este modelo salió una publicación en el 2005 en la revista de Atlántica acá diciendo que tan malo son los científicos en predecir olores porque nadie se esperaba que íbamos a ver que nadie va a poder hacer modelos y mostramos si se puede hacer después con esto del covid gente que estudia olores empezó a dar cuenta que de forma anecdótica gente decía tengo covid y no puedo oler esto o el gusto de la comida sabe diferente decidieron que hacen una encuesta donde hicieron dos tipos de preguntas por supuesto preguntaron cosas como edad género cuanto estudios tienen pero después preguntaban en forma binaria te cambió el gusto te cambió el sabor tienes fiebre tienes tos pero también dejaron lugar para que la gente entre texto en forma libre explicando que cambios sentían ellos si la cambiado la percepción de olores o sabores ahora nosotros hace tiempo venimos usando una técnica que convierte las palabras en vectores y estos vectores nos permiten jugar con ellos usar matemáticas y ciencias de la computación para hacer modelos e inferencias estos vectores están creados para que nos digan que significa las palabras y como se han creado estos vectores tiene que ver con coherencia las palabras en un cuerpo de data muy grande para entrenar esto se ocupa todo Wikipedia diarios y libros es un cuerpo de data enorme y como pueden ver los vectores estos tienen 300 dimensiones acá están viendo a la izquierda una proyección en dos dimensiones para que sea más fácil visualizar ahí hay varios ejemplos que muestran como superlativos de estos adjetivos mantienen las mismas tendencias parto con una palabra me voy a un superlativo un poco más todo va un poco a la derecha y arriba y si me voy al superlativo mayor va aún más a la derecha y arriba y como ven esto se mantiene en muchos ejemplos también se ven las mismas tendencias con otro tipo de comparaciones que hacemos esto nos permite otra vez usar estos vectores que de alguna manera entienden relación entre palabras el sentido de la palabra basado en contexto y usamos entonces esto para analizar los textos que entraron los participantes de este estudio que hizo el GCCR y logramos clasificar si una persona tuvo COVID o no con una precisión de 85% y para que compare se hicieron modelos usando las respuestas binarias si o no que eran muchas más preguntas y con eso se obtiene una precisión de 70% es decir con solamente un par de líneas que la gente tipió tenemos una precisión muchísimo mayor que lo que se dice con un montón de preguntas de si o no esto fue una nota de estos apareció en la revista del domingo en la portada del New York Times hace un par de semanas ahora es importante notar que otra vez con algo simple que es en análisis de un par de líneas de texto somos capaces de predecir quien tuvo COVID o no así que no sé, fascinante sin duda muy interesante Raquel muchas gracias Raquel y Pablo por su presentación y cuánto podemos aprender estudiando uno de los sentidos menos estudiados que sin duda pasó al frente en este último tiempo por COVID-19 pero que tiene mucho más para decirnos y gracias también a ustedes por las preguntas que están compartiendo en el chat en breve los investigadores van a responder a continuación sería Cintas quien hace más de dos años es investigadora de equipo de inteligencia artificial en IBM Research Africa en el laboratorio de Nairobi Celia nos hablará de detección y representación automática de sesgos en conjuntos de datos para diagnóstico y tratamiento en dermatología Celia bienvenida te escuchamos muchas gracias caro, hola a todos bueno en esta chat lo que les quiero contar es cómo utilizamos machine learning para poder analizar y evaluar sesgos tanto en datos que se desarrollan para diagnosticar enfermedades de piel particularmente en este caso nos interesa disparidades respecto del tono de piel en dermatología los trabajos que les voy a presentar hoy fueron desarrollados gracias al equipo de cual formó parte y está compuesto por varias instituciones IBM Research con tres laboratorios en New York Town, Surik en Nairobi en Carnegie Mellon University en Rwanda Kigali y Stanford University los miembros de este equipo son de diversas áreas de dermatología, ciencia y computación y está compuesto por estudiantes de maestría, doctorandos e investigadores disparidades respecto al tono de piel existen en dermatología y en otras áreas de la salud sabemos que en poblaciones afrodescendientes el melanoma es comúnmente diagnosticado en etapas tardías actualmente en estos épocas de pandemia la escasez de imágenes de manifestaciones cutáneas en COVID en pacientes latinos y afrodescendientes es un problema ya que dificulta la identificación de COVID tanto para dermatólogos como para el público en general y dado que el amplio uso de machine learning en salud, tenemos que investigar y evaluar que estas soluciones no estén perpetuando ni profundizando estas disparidades a gran escala viendo el panorama algunas preguntas nos surgen, por ejemplo si las imágenes que estamos usando para entrenar modelos en machine learning están sesgados respecto al tono de piel en alguna población en particular y pensando no solo en machine learning sino en qué materiales se usan para educar a nuestros dermatólogos y médicos, podemos cuantificar o detallar la representación de los distintos tonos de piel en papers o libros si vemos el espacio en lo que se investigó últimamente tenemos dos grandes grupos primero el diagnóstico de enfermedades de piel mediante el aprendizaje automático en los últimos años vemos un gran boom de deep learning ya que está alcanzando performance similares a los dermatólogos para detectar distintos tipos de melanomas también vemos comunidades como ICIC que lo que hacen es juntar investigadores desde dermatología de ciencia de la computación distintos data sets con problemas actuales para poder en dermatología para poder proponer mejores formas de segmentar imágenes, mejores técnicas para detectar distintas enfermedades y demás por el otro lado hay un gran área de investigación que es inequidades en varias aplicaciones de visión computacional particularmente a nosotros nos interesaba con tono de piel por ejemplo bulwami y gebru tienen un análisis de imágenes faciales para el sistema de clasificación de género y ven como el tono de piel impacta en este tipo de clasificación hay otros trabajos similares en detección de peatones en vehículos autónomos nosotros lo que queremos es generar un puente en estas en estas dos grandes áreas es generar modelos que ya han sido entrenados que sabemos que tienen buena performance para detectar enfermedades de piel y poner una vista con qué tipos de datos están siendo entrenados y cómo performan esos modelos en distintos tonos de piel para esto no tenemos datos etiquetados con tonos de piel ni hay evaluaciones stratificadas por poblaciones para estos modelos por esto es que producimos este framework que tiene tres pasos vitales primero es tener un modelo que se comente automáticamente piel, poder separar qué píxeles contienen lesiones y cuáles no poder estimar el tono de piel a partir de esos píxeles que extrajimos y luego tener una evaluación stratificada tanto de clasificador como de los datos que usamos para entrenar este trabajo fue presentado el año pasado en conferencia de imágenes médicas llamada Mika y lo que ahora voy a hacer es mostrarles paso por paso cómo realizamos estos steps una duertencia vamos a estar mostrando ejemplos de enfermedades de piel lo cual puede herir la sensibilidad de algunos de los espectadores estamos mencionando esto para que los espectadores, si así lo desean se puedan desconectar por unos minutos y volver ahora recién charlé tipo de framework o solución que proponíamos para evaluar estos datos en distintos tonos de piel qué tipos de datos usamos para estudiar usamos dos datos que son comúnmente utilizados en dermatología y machine learning estos son imágenes dermatoscópicas por un lado pero también imágenes clínicas cada una de estas imágenes tiene asociada el tipo de enfermedad y en algunos casos tenemos imágenes con máscaras de segmentación manuales que nos están diciendo cual parte de las píxeles es sin lesiones y con lesiones nuestro primer paso es poder cementar de manera automática tener la región de la piel sin lesiones ya que estos son los píxeles que tenemos que utilizar para estimar el tono de piel para hacer esto adaptamos un modelo pre-entrenado que se llama Mascar CNN esto es un modelo de la familia de deep learning pero para darles la idea general es obtenemos una imagen de la piel y la salida de este modelo sería una máscara binaria que nos dice con color negro todas las regiones de la piel sin lesiones y en blanco el área de la lesión tenemos que eliminar antes de estimar el tono de piel ¿Por qué usamos modelos pre-entrenados? en este caso dos buenas razones uno generaliza mejor, esto significa que son mejores segmentadores y la segunda es no necesitamos gran capacidad de computó para poder reentrenar ya que sólo iteramos un par de veces con las nuevas imágenes de piel ahora llenemos los píxeles de la región sin lesiones lo que tenemos que hacer ahora es asignarle un valor que esté asociado el tono de piel para eso usamos unos valores que se llaman individuos topology angle que es un es un valor estimado que está altamente correlacionado con el índice de milanina lo cual nos da un buen proxy para poder estimar los tonos de piel a la izquierda pueden ver una tabla con distintas categorías esto es sólo un ejemplo de distintos estudios de hormatológicos van a encontrar distintas variaciones fijamos esto adaptable para que distintos grupos puedan tener distintos rangos de tonos de piel pero para darle una idea valores ita mayores a 55 estamos hablando de tonos de piel muy muy claros y valores ita menores a 10 estamos hablando de tonos de piel más oscuros es una idea de qué es lo que nos muestra el modelo que proponemos pueden ver abajo del todo la máscara de segmentación automática le dimos imágenes nuevas y nos dice qué píxeles contienen lesiones y cuáles no y también tenemos el valor ita estimado como pueden ver 50 son valores de piel muy claritos después que tenemos esta información lo que podemos hacer es evaluar los data sets que fueron usados para entrenar lo que vimos en ambos data sets evaluados que son bastante comunes en dermatología es que las poblaciones ascendientes están subrepresentadas en ambos casos y la mayoría de los datos corresponden a poblaciones caucásicas hasta ahora vimos cómo están representados los datos qué se usan para entrenar modelos en Machine Learning de ligencia artificial pero otra cosa que nos interesaba con nuestros colegas dermatólogos era cómo se preparaban los profesionales cómo es la representación de distintos tonos de piel en materiales educativos y tenemos alguna manera de poder automatizar este tipo de representación como ya saben imaginar utilizamos un framework parecido al que le mostré al comienzo tuvimos que hacer varias adaptaciones porque no estamos hablando de datos curados para entrenar modelos en Machine Learning sino que estamos hablando de libros y papers que pueden tener diagramas pueden tener imágenes de microscopio a como pueden tener imágenes de tono de piel hay unos resultados preliminares que tenemos y fueron presentados hace poco en un WorldShop de Triple Dark pueden ver a la izquierda la distribución de tonos de piel de tres libros distintos de dermatología como ven todos ellos están altamente representados en poblaciones caucásicas similar que vivíamos en los datos de Machine Learning obviamente estos son resultados preliminares y seguimos trabajando queremos mejorar los segmentadores que tenemos que usamos para Machine Learning pero ahora los queremos trasladar y mejorar para material bibliográfico también estamos interesados en trasladar el tipo de tecnologías de la medicina para que todos puedan usar y ver la representación con respecto a tono de piel y a otros sesgos en los materiales que se usan para educar distintas carreras pero algo que podemos rescatar de nuestras interacciones en el desarrollo de crear soluciones como Machine Learning para salud es un par de recomendaciones por ejemplo los grupos que desarrollan estas soluciones tanto para educación o salud aplicaciones que tengan impacto directo en la sociedad tienen que ser grupos interdisciplinarios esto es desde el tener gente del ambiente médico, de computación como tener gente de la ciencia social que nos pueda mostrar distintos sesgos que deberíamos estar observando o que pueden afectar la clasificación o el diagnóstico del modelo los investigadores y los desarrolladores tienen que ser tal o más diversos que sus usuarios finales tenemos que garantizar que la aplicación que vamos a llevar a producción, a llevar a la población funciona para todas las poblaciones funciona para todas las demografías y cuando tenemos nuestro modelo solución realizada y la vamos a llevar a producción, tenemos que explicar en qué contexto funcionan en qué momento qué tipo de datos es la mejor performance y cuál es la peor ser transparentes en cómo estos modelos entrenan qué tipos de datos estamos utilizando y clarificar que sesgos fueron evaluados en este caso estamos mostrando sesgos contra el tono de piel pero también no estamos mirando edades ni géneros por ejemplo si se encuentran sesgos en los datos, qué técnicas de mitigación se están utilizando para que este modelo reduzca sus sesgos muchas gracias por su tiempo quedó para preguntas al final muchísimas gracias Celia por tu exposición como bien dijiste es clave poder entrenar modelos de inteligencia artificial más equitativos cuidando y supervisando los datos así como también fomentar equipos diversos, muchas gracias cerramos las presentaciones con María Rodríguez Martínez quien es líder técnica de biología de sistemas computacionales en el laboratorio de IBM en Zurich María trabaja en IBM hace 7 años y hoy presentará su investigación sobre modelos moleculares integrales en infunología para apoyar a los médicos en tratamientos personalizados bienvenida María, tus mismas gracias gracias Carol por la invitación y por la presentación y si por favor Brian puede compartir mis transparencias como comentaba Carol yo estuve en el laboratorio de Zurich en el que llevo 7 años y ahora estoy liderando el grupo de systems biology y ideología de sistemas lo que hacemos es trabajar principalmente con datos moleculares datos moleculares son por ejemplo datos de genómica de proteómica y otros componentes de la célula, componentes moleculares y lo que hacemos el objetivo es analizar estos datos para obtener modelos de medicina personalizada que nos ayuden en la lucha contra el cáncer para ello utilizamos herramientas bastante de machine learning, deep learning y la idea es siempre intentar primero identificar cuáles son los mecanismos de cáncer porque un paciente tiene un cáncer agresivo cuáles son las mutaciones y todo ello con el objetivo desarrollar terapias, mejores terapias que podrán ayudar a este paciente recientemente hemos abierto otra línea de investigación en la que estamos enfocados en el sistema inmunitario y la razón es que el cáncer y el sistema inmunitario están muy relacionados con el fallo del sistema inmunitario cuando tenemos un sistema inmunitario activo puede detectar las células potencialmente cáncer higienas y eliminarlas con lo cual hay una línea de investigación bastante activa en la que se intenta reeducar el sistema inmunitario para que luche más eficazmente contra el cáncer y de eso es lo que quería hablar un poquito hoy si can we have the next slide please pero antes de contar un poco lo que estamos haciendo en esta línea de inmunoterapias quería dar una pequeña introducción del sistema inmunitario porque entiendo que es un sistema complejo del que sabemos la mayoría y tu vida yo sabemos poco entonces el sistema inmunitario es quizás el sistema más complejo de nuestro cuerpo y está exquisitamente diseñado para integrar señales que ocurren tanto a nivel molecular por ejemplo los rectores de ciertas células que son los que están detectando los antígenos los patógenos que nos invaden y todos ello a lo que hacen es integrar y hay diferentes actores que integran diferentes señales y se va desde lo muy pequeño desde las interacciones moleculares hasta las respuestas sistémicas comemos en este diagrama esos receptores detectan una señal la transmiten al núcleo de la célula que genera unos proteínas y unos genes que desarrollan una afucción y todo eso resulta en una respuesta inmunitaria que es lo que nos protege contra el virus o la bacteria o contra una enfermedad compleja como el cáncer entonces para entender bien para desarrollar bien entonces como le decía el sistema inmunitario está a la base de realmente casi todas las enfermedades complejas bueno no decir todas pero muchas en particular aquí nos enfocamos en dos enfermedades complejas para empezar un poco más de enfoque el primero evidentemente es la lucha contra el cáncer que es algo que resuena con lo que hemos estado haciendo en los últimos años y aquí estamos muy interesados en utilizar nuestro mejor entendimiento del sistema inmunitario para desarrollar inmunoterapias más eficaces pero también otro de los objetivos los que estamos trabajando es entender este mejor entendimiento del sistema inmunitario para comprender un poco las enfermedades autoinmunes como por ejemplo el lupus no todavía relativamente desconocidas en el sentido de que no sabemos muy bien cuando se produce un episodio autoinmune no sabemos muy bien qué es lo que lo provoca ni lo que el paciente puede hacer para recuperar cuanto antes el estado de salud este tipo de modelos también importantes para avisarnos en las enfermedades autoinmunes entonces ahora lo que quería sin entrar mucho en los detalles más técnicos quería darle un par de ejemplos que estoy trabajando ahora mismo que pueden dar alguna idea de lo que estamos viendo en el contexto del trabajo de desarrollar inmunoterapias contra el cáncer entonces voy a hablar de dos ejemplos que estamos ahora mismo desarrollando uno enfocado en células B y el otro enfocado en células C solamente para dar un poco de contexto sin entrar mucho en los detalles las células B y T son ambas limfocitos y son de una manera por decirlo así son actores efectivos que es los que montan la respuesta del sistema adaptativo que es aquel que se enfrente a nuevos patógenos por ejemplo cuando nos infectamos de un virus como la gripe o como covid es el sistema principalmente el sistema adaptativo el que está en células B y T y otras son las que realmente están montando la respuesta inmunitaria entonces en este primer proyecto del que me gustaría hablar un poco nos hemos enfocado de las células B las células B son las que generan los anticuerpos que son realmente los que van a luchar los que van a los anticuerpos son los elementos que le van con un sello que se le pone a la célula invasora o al virus invasor y con ese sello, con esa marca en otras células inmunitarias son capaces de detectar esa célula invasora y destruirla célula o virus o bacteria aquí cuando empezamos a trabajar en este campo había muchos aspectos de las células de la dinámica de las células B que no se entendían bien por ejemplo sabemos que las células B tienen un receptor especial que se identifica potencialmente el patógeno de repente la célula con su receptor llega y detecta un virus y dice esto no es una proteína normal del cuerpo humano con lo cual voy a generar anticuerpos contra esta proteína sin embargo bien estos procesos había muchos detalles que no conocíamos adecuadamente nos sabemos como la célula decidía que esto es un virus extranjero o que esto es una proteína humana y tampoco sabíamos como que células decidemos cuáles se replican de manera extensa para generar muchos anticuerpos y cuáleslo entonces aquí desarrollamos utilizando herramientas matemáticas y estocásticas desarrollamos un modelo multi-scala de las células B que lo que nos explica es desde la detección del receptor que se acopla por ejemplo potencialmente a este virus y decide alerta esto es un virus extraño hasta siguiendo todos los procesos que siguen a continuación desde la arreguración de ciertos pathways genéticos hasta las interacciones con otras células las células T hasta la producción de anticuerpos y todo este modelo seguía en detalle todos estos procesos y nos decía cómo se formaban ciertas células que generaban estos anticuerpos y esto por ejemplo la complicación es que este tipo de modelo tiene que son modelos mecanísticos es que nos enseñan una vez que están entrenados con datos podemos utilizarlos para investigar ciertas anomalías de desarrollo de las células B por ejemplo ciertos linfomas se desarrollan en ciertos estadios de desarrollo de las células B en el que ciertos mecanismos regulatorios no pasan como deberían y se desarrolla un linfoma por ejemplo es el en ingles dice DCLB este modelo nos permite identificar cuáles son los mecanismos más importantes para que se desarrolle este tipo de cáncer el otro ejemplo que me gustaría mencionar es ahora nos vamos a las células T la de las células B las células T es por decirlo de manera un poco simplista es la policía del cuerpo humano es aquella que cuando hay las células T también tiene un recepto que está constantemente intentando unirse a cualquier tipo de proteína o componente molecular con el que se encuentre y la función que tienen es muy importante son las células que nos van a decir esto es una proteína del cuerpo humano con lo cual no hay que hacer nada o esto es la proteína de un virus con lo cual alerta vamos a montarnos una respuesta emunitaria con lo cual es extremadamente importante que esta distinción entre esto es normal o esto no alerta se haga de manera correcta las células T también son las que se utilizan en muchas de las terapias de las inmunoterapias contra el cáncer que se están experimentando actualmente con lo cual muchas de ellas están basadas en las modificaciones de las células, están basadas en alterar y terapias genéticas que se hacen las células T con lo cual entender la biología de las células T en detalle es extremadamente importante para activizar estas inmunoterapias Next slide uno de los problemas cruciales de los desafíos que hoy día nos encontramos para empezar primero para entender la biología de las células C pero ya más a largo plazo para optimizar las inmunoterapias es que necesitamos entender exactamente cómo una célula T distingue que esto es una proteína del cuerpo humano con lo cual no hay que hacer nada o que esto es una proteína del virus con lo cual sí hay que hacer eso digamos que en lenguaje un poco más técnico es simplemente predecir qué se va a unir o no a esta proteína lo que decimos en los técnicos predecir la afinidad para eso lo que hemos desarrollado bueno, es bastante relativamente complejo y para eso lo que hemos desarrollado es un modelo de deep learning que lo que hace este modelo le introducimos al receptor de la célula T en la secuencia es una proteína tenemos la secuencia de aminoácidos le introducimos también la secuencia del hipitopo que es una parte pequeña de esta proteína y el modelo es capaz de decirnos este receptor y este hipitopo van a interaccionar uno con otro sí o no y esto es un paso muy importante hace adelante porque con este tipo de modelos podemos ahora optimizar empezar a entender cómo la célula T reconoce sus dianas y uno de los aspectos que me gustaría aquí subrayar es que para empezar el primer paso está muy bien que hayamos desarrollado este modelo y la parte de permitirnos predecir si un receptor reacción ha sido un hipitopo también nos presenta unas preguntas de hecho si queremos predecir si queremos optimizar una immunoterapia vamos a saber cómo optimizar un receptor supongamos que sabemos que estas células cantarígenas tienen esta proteína y querríamos diseñar una célula T que se pueda reconocer esta proteína digamos que lo que tenemos que hacer es una manera que reconozca esa proteína para eso es necesario conocer las reglas del reconocimiento y el modelo que presenté antes solamente dice si se acopla, si o no, pero no nos da las reglas todo lo que hemos hecho, lo que estamos haciendo ahora es añadir la herramienta de interpretabilidad son simplemente modelos y técnicas de deep learning técnicas que se aplican generalmente una vez que el modelo se ha construido y que nos permiten investigar los experimentos que han sido más importantes para predecir una respuesta en nuestro caso en particular, por ejemplo, lo que enseñó en este dibujo, a la izquierda tendríamos una secuencia de un posible receptor aquí las retas corresponden a aminoácidos y a la derecha tenemos una estructura que representa los posibles un posible epitopo, que digamos esta parte pequeña de una proteína entonces digamos que este modelo ha predecido que esta secuencia se interacciona con este epitopo pero además nos dice los colores, que aminoácidos han sido más importantes para predecir esta interacción y con esto, partir este tipo de información es muy útil para entender cuáles son las reglas porque este receptor se ajopla con gran intensidad y este no, y esto es fundamental para optimizar en un medio futuro para optimizar receptores que se acuplen a dianas que hemos definido de antemano como por ejemplo una diana cancerígena Next slide y con esto me gustaría un poco cerrar estos dos ejemplos que he presentado quería un poco ponerlos en contexto como presamos de aquí en el futuro cercano como traer todo esto en un solo ponerlo todo junto entonces la idea es que queremos desarrollar modelos multi-escala que se incluye por una parte los modelos multi-escala de células B que expliqué en un momento y creen también modelos para células C que nos cuenten un poco de la dinámica como una célula secómica como la otra como las señales se comunican a nivel también sistémico del cuerpo humano pero también queremos modelos de deep learning que nos expliquen como un receptor se activa ante cierta proteína si es que se activa y si se activa que nos diga que aminoácidos son importantes para poder optimizarlo para incrementar aún más la afinidad y al poner estos juntos digamos que tengamos un modelo multi-escala porque podemos incluirnos que ocurren a escalas muy diferentes y híbrido porque integramos herramientas matemáticas, estocásticas y de deep learning y el objetivo es como expliqué al principio queremos optimizar terapias contra el cáncer y queremos entender enfermedades autoinmunes lo que queremos hacer de aquí en un futuro cercano Next slide please y con esto ya me gustaría concluir esto ha sido hablando un poco de los desafíos biomédicos enfrentando la lucha contra el cáncer y cómo un mejor entendimiento de sistema inmunitario nos puede ayudar a luchar de una manera más efectiva y con menos efectos secundarios contra el cáncer lo que estamos haciendo es desarrollar modelos híbridos que combinan tanto modelos matemáticos tradicionales con deep learning y los combinan de manera inteligente para modelar sistemas complejos que funcionan a diferentes escalas como el sistema inmunitario lo que es realmente importante en este modelizado es la interpretabilidad cuando queremos desarrollar modelos deep learning que sean cajas negras queremos un modelo de deep learning que nos da una respuesta exacta y precisa pero que además nos diga por qué cuáles son los elementos que hacen que este receptor reaccione si o no a esta proteína y como aplicación como comentaba optimización de inmunoterapias y entender un poco mejor las enfermedades autoinmunes entender qué es lo que las producen y qué podemos hacer para que el paciente recupere lo antes posible un sistema salud normal el siguiente slide y yo no creo estar la última eso suelo comentar que si tienen curiosidad les invito a que visite nuestra página web que pueden encontrar información de este proyecto pero también otros proyectos que también hemos desarrollado en la lucha contra el cáncer en otros tipos de técnicas de medicina personalizada y con esto muchas gracias por la profesión y esto y a todos nosotros estaremos encantados de recibir sus preguntas Muchísimas gracias María es muy interesante ver también cómo usar inteligencia artificial para inmunoterapia ¿no? para poder conocer más y aprovechar bien los datos y como bien decías modelos que sean transparentes y explicables que eso es lo que sobre todo el salud pero también en todas las disciplinas necesitamos entonces voy a comenzar con alguna de las preguntas en el chat pueden seguir dejando preguntas en nuestro chat voy a comenzar con Pablo porque tenemos una pregunta sobre cómo funciona el método para determinar que un paciente tiene COVID-19 nos explicarás un poco más que esto no es definitivo sino es parte de una investigación y cómo se discrimina la respuesta de sujetos con problemas cognitivos por ejemplo que podrían variar su percepción descripción de los olores Sí, gracias por la pregunta una, digamos como describió Kelly el proyecto de COVID surgió porque hicimos un sondeo una serie de preguntas en donde entre ellas se preguntaba del 0 al 100 que tanto perdiste el olfato el gusto y lo que se llama que mostasis que si quieres de una manera es una de las sensaciones de picante y de agrias que hay en la boca que es parte del mismo sistema pero es menos conocido y entonces entre esas preguntas les dijimos describenos con tus propias palabras cómo ha cambiado tu sentido del olfato pero también como dije del 0 al 100 cómo podría evaluar que ha cambiado entonces la idea es que hasta hoy se pensaba que simplemente tener una evaluación de cuánto cambió tu sentido del olfato es suficiente y sería suficiente armar un modelo y poder predecir si tienes COVID o no y eso es un modelo que se hizo y que está publicado y que lo hicieron unos colaboradores lo hicimos junto con los colaboradores lo que ahora hicimos es más bien preguntar si hay más información en describir cómo cambió tu sentido del olfato y eso es lo que hicimos ahora y lo que encontramos es que y esto es un trabajo que no se ha sido publicado encontramos que en realidad si hay más información en el texto y que somos capaces de predecir de mejor manera que simplemente diciendo si del 0 al 100 qué tanto ha cambiado tu olfato no sólo eso sino que además podemos interpretar qué dentro de lo que estás diciendo qué es lo que más ha cambiado entre los participantes y así es realmente como formado nuestro modelo nuestro modelo en cierto sentido no es tan diferente al modelo de Alzheimer publicado por Guillermo porque lo que intentamos hacer es diferenciar propiedades de lo que se podría llamar lenguaje natural entre pacientes que tienen covid y pacientes que no tienen realmente tiene que ver únicamente con sus descripciones con la frecuencia de palabras que usan qué tipo de palabras etcétera entonces esto te conecta directamente con la segunda pregunta que me hicieron que es cómo podemos distinguir los cambios de cambios que podrían ser cambios cognitivos más bien o neurocognitivos y esa pregunta es una muy buena pregunta porque justamente en olfato el olfato es una de las primeras cosas que cambian en muchas enfermedades o padecimientos crónicos y también cognitivos en depresión en esquizofrenia en Parkinson en Alzheimer en todas esas enfermedades el olfato es una de las cosas que más cambia y eso se sabe pero el problema es que hasta ahora no es realmente una manera de medir esos cambios cuantificar y poder predecir bien entonces la esperanza es que estos cambios en olfato poder medir que también están ligados y poder predecir también la velocidad y los cambios de estas otras enfermedades entonces en realidad no es que puede haber problemas cognitivos también en covid y lo sabemos a largo plazo pero lo que nos dedicamos ahora simplemente fue a intentar saber si hay covid o no y puede ser que dentro de los análisis relaciones con olfato también se pueden esconder si quieres cambios en la estructura de las frases y cosas así en lo que aún no nos hemos metido pero que podría ser interesante en el contexto de covid pero también en el contexto como dije de otras enfermedades que tienen que ver con cambios comportamentales gracias muchísimas gracias Pablo por tu respuesta y ahora voy a Guillermo para la pregunta del millón hay una luz en el camino para la cura del Alzheimer al momento que sepamos no lo que sí sabemos es algo que mencioné en nuestra presentación es que hay intervenciones que se pueden hacer y que tienen efecto positivo cambios el vestido de vida los patrones de descanso si la gente duerme bien o mal estar en actividades físicas y cognitivas y realmente eso tiene tiene un efecto considerable pero como decía el valor de lo que estamos haciendo es que justamente tenemos una forma de entender de manera bastante rápida si cualquier tipo de terapia incluyendo farmacológica esto fue una de las motivaciones inciares de este trabajo porque el trabajo que mencioné lo hicimos con la compañía Pfizer que ahora todo el mundo conoce por la vacuna contra el covid lo hicimos con ellos como parte justamente de acortar el ciclo del desarrollo farmacológico para algo como el Alzheimer utilizando estos métodos de poder saber si cualquier cosa que hemos hecho va a tener un efecto largo plazo sin tener que esperar es el largo plazo si entonces la pregunta de millones tenemos algo eficiente contra el Alzheimer al momento no pero justamente tenemos que ayudar a lo que estamos haciendo es ayudar a la industria y a las investigaciones de salud mental a cortar estos plazos como sabemos que se puede hacer ya lo hemos visto con covid justamente cuando un esfuerzo consaltado, logramos cambiar el ciclo del desarrollo de la vacuna de varios años a menos del año y creo que este es el mensaje esperanzador entre la pregunta del millón Muchísimas gracias por esa ventana de oportunidad María, queríamos preguntarte a qué tipos de cáncer se puede aplicar los modelos que compartiste con nosotros Depende de qué tipo de modelo podemos estudiar cáncer de este hemoritario como el que me decioné no sé como usted en español el diffuse large biselinforma el informa de las células grandes difusas para este tipo de cáncer podemos usar el modelo estocástico o cáncer de otros tipos de linfomas basados en células B podemos utilizar el modelo en multiscala de células B o variantes de ello en cuanto a las similoterapias ahora mismo es todavía una terapia relativamente nueva que se con la que está experimentando mucho y es muy prometedora está ya aprobada para tratamiento de ciertas liucemias y se empieza a experimentar para tratamiento de un subtipo de cáncer de pulmón todavía en camino que recorrer por ejemplo se piensa mucho que pueden ser efectivas en todo tipo de cánceres sólidos es decir no cánceres de sangre sino cánceres de tejidos sólidos sin embargo hay desafíos es difícil que las células que se enriquecen el paciente alcancen el tejido canceroso con lo cual hay desafíos que aún hay que solventar antes de que esto se pueda aplicar a muchos tipos de cánceres diferentes pero como decía es una investigación que está creciendo muy rápidamente hay otros tipos también de terapias inmunitarias que no es necesariamente basados en células B modificadas hay otros tipos de terapias que simplemente lo que hacen es reactivar el sistema inmunitario o sea de muchas herramientas en las que se pueden tratar diferentes tipos de cáncer y para cada cáncer tenemos que encontrar el modelo adecuado gracias muchísimas gracias María por tu respuesta y tengo una pregunta para Celia y es bueno todo el tema de la ética de la inteligencia artificial sin duda es fundamental especialmente en la salud ¿Cómo pueden las organizaciones de la tecnología para disminuir los sesgos en sus sistemas y en los datos? gracias claro muy buena pregunta creo que lo primero que podemos hacer es visibilizar el primer paso el primer paso a poder mitigar sesgos en tanto datos o cómo los modelos son entrenados es poder presentar distintos sesgos y ver cómo se representan creo que esto del mago tiene que ir de la mano con expertos en distintas áreas que puedan ayudarnos a entender cómo los datos fueron recolectados imagínense que siempre hay un entorno social en cómo se hacen ciertas preguntas en cuestionarios a qué tipo de población se targetea cuando se colectan los datos creo que es un mix de tener expertos en áreas y tener tecnología que nos ayude a poder representar de manera automática distintos sesgos como aparecen y obviamente cuando sabemos que un sesgo está presente hay varias técnicas en las cuales se puede emitir tanto en etapa de preprocesamiento trabajando en los datos o también después de que el modelo ya está en producción pero primero hay que detectar qué sesgos encontramos y de ahí se puede decidir a distintas técnicas de mitigación muchísimas gracias Celia por tu respuesta lamentablemente nos quedamos sin tiempo para más preguntas pero no se preocupen porque todo lo que haya quedado sin responder vamos a contactar offline con la información o la posibilidad de hablar exactamente con las y los investigadores y vamos a responder todas sus preguntas hecho hay muy buenas preguntas y muy interesantes así que sin duda hay más para conversar nuevamente queremos agradecerles por su tiempo y por acompañarnos en esta conversación sobre ciencia y salud con algunos de los investigadores de América Latina y España de IBM Research espero que haya sido una jornada interesante y de valor para ustedes porque para nosotros es fundamental generar estos espacios entre periodistas e investigadores sobre ciencia y tecnología el tema es clave para la sociedad como la salud del cambio climático la computación cuántica entre otros temas antes de terminar me gustaría pedirles si pueden dejar un breve comentario en el chat sobre qué les pareció el encuentro si les resultó útil y la información de valor todo el feedback es bienvenido además quería recordarles que les vamos a compartir la grabación de la sesión y información adicional sobre los estudios presentados nuevamente gracias estamos disponibles si necesitan ampliar la información o si quieren conocer más sobre las investigaciones de IBM Research cuentan con nosotros y nos vemos la próxima