 Mi nombre es Micaela Mantegna y represento al Centro de Tecnología y Sociedad de la Universidad de San Andrés, donde estamos desarrollando o impulsando la creación de un área de investigación sobre inteligencia artificial y propiedad intelectual. Son varios desafíos que hay que atacar, pero creo que el primero pasa por la visibilidad de los algoritmos, porque los algoritmos están tejidos dentro del entramado social y la gente no se da cuenta que está siendo rodeada e interactúa permanentemente con algoritmos. Entonces, creo que el primer paso sería lo que llamaremos Algorithmic Awareness, es tomar conciencia de que los algoritmos procesan nuestros datos y hasta qué nivel de pervasividad tienen en el manejo de nuestros datos. Y a partir de ahí, poder ampliar el discurso para que la gente empiece a involucrarse un poco más y entender qué es lo que pasa con sus datos. Desde nuestro papel, como reguladores, como académicos, como policímakers, tendríamos que, en vez de hablar de vallas o hablar de sesgos en general, entender cómo son estos procesos algoritmicos, desarmarlos e entrar en el campo técnico y ver dónde la discriminación puede añadar. Un problema que realmente a mí me preocupa es que las legislaciones de protección de datos personales mayormente hablan de retirar datos o de derechos de retirar datos y que eso puede impactar negativamente el hecho de que alguien se encuentre sin representación en el resultado final. O sea, la medida en que un algoritmo tenga, los algoritmos funcionan en base a datos. Si no tienen esos datos para funcionar, el resultado final puede ser mucho más perjudicial para la persona cuya clase se ve no representada.