 Bona tarda. Molt honorable, president. Rector Magnífic de l'Universitat Ponteu Fabra, il·lustríssim, tinent d'alcalde. Rectores i Rector Magnífics, il·lustre regidora, autoritats, presidenta del Consell Social, membres de la Comunitat Universitària, estudiants, amics i amigues, senyores i senyors. El s'agraeixo molt la seva presència en aquest celebrat d'inauguració del curs 2019-2020 i, sobretot, pel retrat que hem hagut. I, especialment, agraeixo al rector Jaume Casals la seva amable invitació a pronunciar aquesta conferència inaugural i la seva habilitat negociadora, que ha permès que estem tots aquí. Gràcies per la confiança depositada en mi. Reconozco que mi tarea no és fàcil. I per fer-la un poc més fàcil, em passa al castellà on soc més fluida. En primer lloc, dada la altíssima qualitat de les ponències de mis predecesores. I, en segon lloc, perquè el començament de cursos sol ser dur, aunque espero que normalmente no sea tan duro como hoy, y los ánimos no acostumbran a estar muy boyantes, marca el retorno a la rutina, después el descanso estival, las clases, el estrés, los madrugones. Así que quizás debería haber propuesto, en contrapartida, dar la charla de clausura de curso, donde en general la gente está mucho más contenta, sobre todo los estudiantes, y las vacaciones de verano son inminentes. Espero que esta charla magistral les inspire y marque el comienzo de un curso apasionante, aunque quizás no tan intenso como hoy. Me hace mucha ilusión dar la charla en esta universidad, la Pompeu Fabra, una universidad a la que siento un caníño muy especial, y que casi considero una segunda casa. Hace 12 años regresé de Estados Unidos aquí a Barcelona, donde he vivido hasta hace cuatro años. Y desde mi regreso he podido colaborar con la Pompeu Fabra en distintas ocasiones, dando charlas en cursos de posgrado, actuando como miembro de tribunal en algunas tesis de doctorado, y más intensamente, al formar parte del comité científico-asesor externo del departamento étic de esta universidad. Precisamente en este trabajo asesor he podido conocer con detalle el programa docente que hemos visto en el vídeo, y también el programa de investigación e innovación del étic, y la verdad es que me han impresionado. Destaca el espíritu moderno y abierto de esta universidad su internacionalización y la excelente calidad científica, pero también humana de muchos de sus profesores, a muchos de los cuales considero mis amigos. Además, hace exactamente un año, exactamente el día de hoy, celebramos con éxito un Congreso Internacional muy grande llamado Mobile HCI, que tuvo lugar justamente en este auditorio, y que coorganizamos con el profesor Joseph Blatt de esta universidad, y con la profesora Lynn Bailey de la universidad Harriet Watt de Edinburgo. Era la primera vez que Mobile HCI, que es el principal Congreso del mundo en interacción persona-móvil, tenía lugar en la península ibérica, y además celebramos su vigésimo aniversario. Desde hace veinticinco años he centrado mi actividad investigadora al modelado computacional del comportamiento humano utilizando técnicas de inteligencia artificial. He construido habitaciones, coches, ropa y móviles inteligentes. A través de decenas de proyectos, muchos de los cuales han tenido impacto, no solo científico, sino también social. Y además, algo que quizás no es muy común en nuestro país, he podido desarrollar una carrera científica en un entorno empresarial. He sido no solo testigo, sino también contribuyente activo al desarrollo tecnológico, a la presencia cada vez más importante de la tecnología en nuestras vidas, y a la codependencia que hemos desarrollado con la misma. Durante mi carrera, el factor motivante para mis proyectos siempre ha sido una pregunta con una clara aplicación social. La persona, a nivel individual o colectivo, ha sido el factor motivante de mis proyectos, tecnología por y para la sociedad, tecnología que nos entiende como paso previo para poder ayudarnos. Sin embargo, hoy más que nunca, siento preocupación por el impacto que esa tecnología está teniendo en nuestras vidas, impacto que no necesariamente siempre es positivo. De hecho me pregunto si no nos encontramos ante una crisis social de base tecnológica. La disponibilidad de cantidades ingentes de datos, lo que llamamos Big Data sobre el comportamiento humano, en gran parte debido a la adopción masiva de los móviles, ya hay muchos más móviles que humanos desde hace tiempo, y la digitalización del mundo físico, sobre todo impulsada por el desarrollo del Internet de las Cosas, están transformando sin duda el mundo en el que vivimos. Hoy contamos con cantidades masivas de datos que podemos utilizar para entrenar algoritmos de inteligencia artificial que permiten a investigadores, a empresas, a gobiernos y a otros actores del sector público abordar problemas complejos. Decisiones, tanto con impacto individual como con impacto colectivo, que antes eran tomadas por humanos, generalmente por expertos, hoy en día cada vez más son tomadas por algoritmos de inteligencia artificial, incluyendo decisiones relativas a la contratación de personas, a las sentencias judiciales, a la concesión de créditos y préstamos, a los tratamientos y diagnósticos médicos o a la compraventa de acciones en bolsa. Podíamos preguntarnos ¿y por qué queremos usar algoritmos? Si ya los humanos nos hemos estado tomando las decisiones durante tanto tiempo. Las decisiones algorítmicas basadas en datos tienen el potencial de mejorar nuestra toma de decisiones, esa es la motivación. De hecho, todos sabemos que en la historia nos ha demostrado que las decisiones humanas no son perfectas, los humanos somos susceptibles a la corrupción, a los conflictos de interés, al egoísmo, tenemos sesgos cognitivos, lo que ha resultado en procesos injustos o ineficientes, de manera que la idea de usar algoritmos refleja l'aspiración de poder movernos hacia una toma de decisiones que esté basada en la evidencia y que nos permita tomar esas decisiones de una manera más justa. Y el potencial, realmente, creo que es inmenso. Precisamente, desde hace 10 años, una de las áreas de investigación que creé, primero en Telefónica y más de, luego en Vodafone, y también a la que está dedicada la ONG, llamada Data Pop Alliance, donde soy investigadora jefa de datos, es el área que llamamos la inteligencia artificial y las ciencias de datos para el bien social. El objetivo es investigar el valor que tiene el Big Data, datos agregados, anonimizados y analizados con algoritmos de inteligencia artificial, para ayudarnos a tomar mejores decisiones que impactan la vida de miles o millones de personas, decisiones alineadas con los 17 objetivos de desarrollo sostenible, por ejemplo, en áreas como la salud pública, la educación, la inclusión financiera, la respuesta ante desastres naturales, la crisis energética o las migracciones y el cambio climático. Sin embargo, la toma de decisiones, usando algoritmos basados en datos, no está exenta de retos, sino ya habremos resuelto todos los problemas del mundo. De hecho, curiosamente, las palabras de Platón de hace 2.400 años son extremadamente vigentes. Platón, según las fuentes, dijo una buena decisión, no está basada en conocimiento, no está basada en números o datos, podríamos interpretar. Y cuando estas decisiones afectan a miles o millones de personas, realmente surgen dilemas muy importantes. ¿Quiere esto decir que las decisiones escaparán a nuestro control? ¿Qué niveles de seguridad poseen estos sistemas para garantizar que no son vulnerables ante los ciberataques o ante un uso malicioso de los mismos? ¿Cómo podemos garantizar que estas decisiones o las actuaciones, resultado de ellas, no tienen un impacto negativo en las personas? ¿Quién es el responsable de estas decisiones? ¿Qué sucederá cuando un algoritmo nos conozca a cada uno de nosotros mejor que nos conocemos a nosotros mismos y pueda utilizar ese conocimiento para manipular nuestras decisiones o nuestro comportamiento subliminalmente? Por ello me gustaría compartir con ustedes cinco pilares que considero fundamentales para conseguir que esta nueva toma de decisiones realmente sea positiva y realice el potencial que tiene. Y estos pilares en inglés los resumo con un acrónimo que es feiten. Veamos lo que significa cada letra de feiten. La F de feiten significa fairness, es decir, justicia. Las decisiones algorítmicas basadas en datos pueden discriminar, pueden no ser justas, aunque en principio lo que queremos es que sean más justas. ¿Por qué? Porque, por ejemplo, los datos pueden estar sesgados y usamos esos datos para entrenar los algoritmos, o simplemente por el uso de un determinado algoritmo o de un determinado modelo en un contexto equivocado. La A de feiten es triple. En primer lugar, es de autonomía o autonomy en inglés. La autonomía es un valor, un pilar básico en la ética occidental. Según el principio de la autonomía, los seres humanos deberíamos ser libres para decidir nuestros propios pensamientos y nuestras propias acciones, asegurando, por tanto, la libre elección. Sin embargo, como he comentado antes, hoy en día podemos construir, y de hecho yo misma he construido, modelos computacionales de nuestros gustos, nuestros deseos, nuestros intereses, nuestra personalidad, nuestro comportamiento, modelos que pueden tener la capacidad de influenciar nuestras decisiones o nuestras acciones. Como, por ejemplo, ha quedado patente en procesos electorales en Estados Unidos y en el Reino Unido. Por ello, deberíamos exigir y garantizar que los algoritmos que utilizamos para ayudarnos a tomar estas decisiones preserven siempre la autonomía humana. La A también es de accountability o atribución de responsabilidad. Es decir, debemos tener claridad con respecto a quién es responsable de las consecuencias de estas decisiones algoritmicas. Y, finalmente, la A también es de augmentación o aumento de la inteligencia. A lo que deberíamos aspirar es aprovechar toda esta tecnología para complementar nuestra propia inteligencia y ayudarnos a tomar mejores decisiones, no para necesariamente reemplazar la inteligencia humana. La T de Feiten és doble. En primer lugar, es de trust o confianza. La confianza es un pilar básico en las relaciones entre humanos e instituciones. La tecnología necesita la existencia de confianza por parte de sus usuarios que cada vez más delegamos nuestras vidas en servicios digitales. Sin embargo, todos hemos sido testigos de una pérdida progresiva de la confianza por parte de la sociedad hacia el sector tecnológico, sobre todo alimentada por escándalos como el de Facebook, Cambridge Analytica o el de Huawei. Para que exista confianza, se tienen que dar tres condiciones. En primer lugar, la competencia, es decir, la habilidad para poder ejecutar con solvencia la tarea comprometida. La segunda es la fiabilidad, es decir, la competencia sostenida en el tiempo. No valdrá hacer las cosas bien una vez, sino que hay que demostrar que tienes la capacidad de hacerlo repetidamente. Y en tercer lugar, la honestidad y la transparencia. Por eso la T de Feiten también es de transparencia. En este contexto, la transparencia, lo que quiere decir, es que un sistema computacional es transparent cuando una persona no experta, lo observa y entiende cómo funciona. Desgraciadamente, esta no es la situación hoy en día. La falta de transparencia o la opacidad puede ser causada por tres motivos. Lo que se conoce como opacidad intencional, que surge cuando los creadores de los algoritmos o de los sistemas intencionalmente no quieren que sean transparentes porque quieren proteger su propiedad intelectual. La segunda causa de la opacidad es, en inglés se dice, eliterate. Está relacionada con el alfabetismo digital. Aunque queramos ser transparentes, yo puedo intentar explicar a las personas no expertas cómo funciona mi sistema, pero si no tienen un mínimo de educación y conocimiento tecnológico, a lo mejor no lo van a entender. Y la tercera causa de opacidad es lo que se conoce como opacidad intrínseca. Hoy en día, muchos de los sistemas de inteligencia artificial que usamos en nuestro día a día están basados en unos métodos concretos que se llaman de aprendizaje profundo, que son extremadamente complejos, de manera que, intrínsecamente, son muy difíciles de entender. Podemos estar hablando de redes neuronales con cientos de capas y cientos de millones de parámetros, con lo cual son muy difícilmente interpretables. Además, los sistemas de inteligencia artificial deberían ser transparentes con respecto a qué datos captan y para qué utilizan esos datos de las personas o del medio ambiente, pero también, por ejemplo, con respecto a cuando interaccionamos con un sistema artificial, por ejemplo, un chatbot, y cuando estamos interaccionando con un humano biológico homosapiens de carne y hueso. La E de Feiten es triple. En primer lugar, es de educación. Tenemos que invertir en educación en todos los niveles, comenzando por la educación obligatoria. Creo que es urgente que introduzcamos una asignatura de pensamiento computacional, que es el equivalente a saber leer i escribir, pero en el siglo XXI y en la Cuarta Revolución Industrial. Pero tan importante como enseñar pensamiento computacional es cultivar y reforzar la creatividad, el pensamiento crítico y habilidades de las inteligencias social y emocional que creo que no estamos desarrollando lo suficiente y que cada vez van a ser más importantes para garantizarnos una coexistencia armoniosa y pacífica, no sólo con la tecnología, sino sobre todo con otros humanos y con nuestro planeta. Pero también tenemos que invertir en educación a la ciudadanía. Lo he comentado, sino no va a ser muy difícil poder tener transparencia a los profesionales, sobre todo aquellos cuyas profesiones se están viendo afectadas por el desarrollo tecnológico, al personal de la administración pública y también a la clase política. Una apuesta ambiciosa por la educación también es urgente para permitirnos compensar una situación de asimetría extrema en la que nos encontramos hoy en día. Asimetría, no sólo con respecto al acceso a la tecnología y los datos, sino sobre todo con respecto al acceso a las capacidades necesarias para poder hacer algo útil con esos datos. Yo siempre digo, los datos en sí mismos es basura digital, si no sabes qué hacer con ellos. Todos tenemos miles de fotos, probablemente en nuestros móviles o en nuestros ordenadores, que no las volvemos a ver, seguramente después de tomarlas. Y en este punto de la educación comparto las palabras de Marie Curie, que sabiamente dijo, nada en la vida debería temerse, sino entenderse. Es momento ahora de entender más para así temer menos. La E también es de la beneficiencia. Al principio de la beneficiencia lo que dice es que hay que maximizar el impacto positivo del desarrollo tecnológico, con sostenibilidad, con diversidad, con honestidad y veracidad. Porque no tenemos que olvidarnos que no todo desarrollo tecnológico es progreso y en lo que deberíamos enfocarnos y donde deberíamos invertir es en el progreso. Pero claro, deberíamos primero definir que entendemos por progreso. Desde mi punto de vista, el progreso implica una mejora de la calidad de vida de todas las personas, no solamente de algunas, y también del resto de seres vivos en el planeta y de nuestro propio planeta. Y en este punto me gustaría destacar, como se ha mostrado en el vídeo, la iniciativa de esta universidad llamada Bienestar Planetario o Planetary Wellbeing, que está totalmente alineada con esta visión. Su objetivo es invertir en investigación transversal, tan necesaria, rompiendo silos entre departamentos, orientada a contribuir a la consecución de los 17 Objetivos de Desarrollo Sostenible. Aprovecho para transmitir mi más sincera i efusiva norabuena a la UPS por esta iniciativa, por el liderazgo y por la sàvia decisión de invertir en un proyecto que contribuye al progreso. Espero que esta iniciativa sirva de inspiración para otras iniciativas similares. I la E de Feiten también es de equality o de igualdad. El espíritu de solidaridad e igualdad quizás se está diluyendo con el desarrollo tecnológico. La creación, el desarrollo y el crecimiento de Internet y del World Wide Web durante la tercera y la cuarta revoluciones industriales han sido sin duda clave para la democratización del acceso al conocimiento. Sin embargo, estos principios originales de universalización del conocimiento quizás se están viendo cuestionados hoy en día, en gran parte por la dominancia extrema de un conjunto pequeño de grandes empresas tecnológicas, sobre todo en Estados Unidos, las grandes empresas como Alphabet, Facebook, Apple, Amazon o Microsoft, y en China las tres grandes empresas, Tencent, Alibaba y Baidu. Con un fenómeno que se conoce como the winner takes all o el ganador se lo lleva todo. Juntos, estos gigantes tecnológicos tienen un valor de mercado de más de 5 millones de millones de euros y unas cuotas de mercado en Estados Unidos de un 90% de búsquedas Google, un 70% de redes sociales, Facebook y un 50% de comercio electrónico Amazon. De hecho, el siglo XXI se caracteriza por una polarización en la acumulación de la riqueza. Un estudio reciente de Credit Suisse encontró que el 1% más rico del planeta posee la mitad de la riqueza del planeta y las 100 personas más ricas tienen más que las 4.000 millones de personas más pobres. Esta acumulación de riqueza en manos de unos pocos en parte se ha atribuido a la Cuarta Revolución Industrial y al Desarrollo Tecnológico. Con la revolución agraria en el neolítico y durante miles de años, la riqueza venía asociada a la posesión de la Tierra. Con la primera revolución industrial en el siglo XVIII, la riqueza pasó a quedar reflejada en la posesión de fábricas y máquinas. Y hoy en día podríamos argumentar que el activo más valioso son los datos, lo que ha dado lugar al concepto de la economía de los datos, que se estima que el año que viene supere los 700 billones de euros en Europa. No podemos olvidar que de los cinco países más poblados del mundo que son en este orden Facebook, WhatsApp, China, India e Instagram, tres son de Facebook, son países digitales, globales, con menos de 15 años de existencia, con miles de millones de ciudadanos y ciudadanas y gobernados por un presidente no elegido democráticamente. En consecuencia, un elevado porcentaje de los datos sobre el comportamiento humano existentes hoy en día, son datos privados, captados, analizados y explotados por estas grandes empresas tecnológicas que no solamente conocen nuestros gustos, nuestros intereses o nuestras relaciones sociales, sino que también conocen nuestra orientación sexual o política, nuestros niveles de felicidad, de educación o de salud mental. Por tanto, si queremos maximizar el impacto positivo del desarrollo tecnológico y en particular de la inteligencia artificial, dado que la inteligencia artificial necesita datos para poder aprender, creo que es muy importante que intentemos encontrar nuevos modelos de gestión, regulación y propiedad de los datos. Y en este sentido Europa ha sido pionera con la Regulación Europea de Protección de Datos, el famoso GDPR o RGPD, que es un paso positivo hacia una dirección que considero es correcta. Sin embargo, la complejidad en su aplicación práctica pone de manifiesto lo difícil que es definir e implementar el concepto de propiedad cuando estamos hablando de un bien que es intangible, que es dinámico, que es creciente, que es variado y que además es replicable infinitas veces, prácticamente a coste cero. Y finalmente la n, de Feiten, es de no maleficiencia, que es diferente a la beneficiencia. El principio de la no maleficiencia lo que dice es que tenemos que minimizar el impacto negativo, aplicando un principio de prudencia, teniendo garantías de fiabilidad, reproducibilidad y seguridad en los sistemas y garantizando siempre la privacidad de las personas. Será solamente cuando respetemos estos principios de Feiten que conseguiremos uno de mis sueños, que es un modelo de gobernanza democrática basado en la inteligencia artificial y los datos por y para las personas. A pesar de estas limitaciones, la inteligencia artificial es evidente que tiene un impacto inmenso en nuestras vidas y también económicamente. Me atrevería a decir que todos los que estamos aquí hoy en día hemos interaccionado con varios sistemas de inteligencia artificial antes de venir aquí. Por ejemplo, si hemos hecho fotos con el móvil y nos ha salido un recuadro donde están las caras de las personas, eso es un sistema de inteligencia artificial. Si hemos hecho una búsqueda en internet y ha encontrado algo relevante, es gracias a un sistema de inteligencia artificial. Si hemos hablado con Siri o con Alexa o con Cortana y nos ha entendido y quizás incluso hasta nos ha contestado, es gracias a los sistemas de inteligencia artificial. Según Price Waterhouse Cooper, el mercado mundial de la inteligencia artificial superará los 15 millones de millones de euros en el 2030. En España se estima que el producto interior bruto podría aumentar en 0,8 puntos si somos capaces de aprovechar la inteligencia artificial. Y el foro económico mundial predice una profunda transformación del mercado laboral como consecuencia de la Cuarta Revolución Industrial y de la inteligencia artificial que está en el corazón de la Cuarta Revolución Industrial. Se va a producir una destrucción masiva de puestos de trabajo porque van a verse afectados por el desarrollo tecnológico, pero también se va a producir una creación masiva de puestos de trabajo, de manera que el resultado neto se estima que serán 58 millones de nuevos puestos de trabajo. La clave es que estos nuevos puestos de trabajo van a ser radicalmente diferentes a los puestos que se van a ver afectados, de manera que si no invertimos en educación y información a los profesionales, vamos a tener un gran problema de más doble, no vamos a tener suficiente gente que supla estos nuevos puestos y vamos a tener colectivos enteros que no están preparados para poder contribuir a esta sociedad del mañana, pero muy cercano, futuro muy cercano. Debido al gran impacto de la inteligencia artificial, las grandes potencias mundiales, tanto los gobiernos como las empresas, se han dado cuenta de que quien domine la inteligencia artificial no solamente tendrá una dominancia económica, sino que también tendrá una dominancia política y social. Por eso, en los últimos dos o tres años, los gobiernos de muchos países han publicado sus estrategias nacionales de inteligencia artificial, como Francia, Reino Unido, por supuesto China, Estados Unidos, Canadá, México, India, Finlandia, etc. A nivel europeo, la Comisión Europea publicó en diciembre del 2018 un comunicado sobre inteligencia artificial seguido en abril del 2018, hizo el primer comunicado, y en diciembre del 2018 un segundo comunicado donde establecían las bases para el desarrollo de la inteligencia artificial y la exigencia a todos los estados miembros de que publicasen sus estrategias de inteligencia artificial antes de julio del 2019. En junio de este año del 2019, un grupo de expertos de la Comisión Europea de inteligencia artificial del que soy miembro reserva publicó tanto un conjunto de guías éticas para el desarrollo de la inteligencia artificial. El concepto es inteligencia artificial confiable o trusted AI y unas recomendaciones sobre inversiones en inteligencia artificial y políticas en inteligencia artificial. La Comisión Europea tiene un compromiso de invertir 20.000 millones anuales de euros en inversión tanto pública como privada en el periodo 2021-2027. Y esta inversión es necesaria para reducir la brecha de inversión que existe en imas de inteligencia artificial entre Europa y China y América, que es entre 3.000 a 15.000 millones de euros anuales. Desde una perspectiva de los estados miembros, muchos estados miembros europeos ya han publicado sus estrategias, pero además las han acompañado de compromisos presupuestarios muy ambiciosos. Por ejemplo, Alemania se ha comprometido a una inversión anual de 500 millones de euros entre el 2019 y el 2025. Finlandia ha 100 millones de euros anuales a partir de este año. Y Francia ha otros 500 millones anuales de euros también empezando este año en los próximos cinco años. Y hay gobiernos como el británico que han dado un paso más y han decidido crear organizaciones transversales dentro del gobierno para estimular y fomentar el uso de la inteligencia artificial en la sociedad. Por ejemplo, han creado lo que se llama the Office of AI and the Office of Ethics in AI. A nivel estatal he sido miembro portavoz con un grupo multidisciplinar de expertos que se creó para crear una estrategia estatal de inteligencia artificial. Pero con el cambio de gobierno la estrategia estatal todavía no se ha publicado. Se publicó en junio una estrategia de Imas de Masí y se creó una comisión interministerial para empujar el que se publique la estrategia estatal. Si tomamos como referencia países de nuestro entorno sería esperable un compromiso presupuestario de unos 250 millones de euros anuales en los próximos 5 o 7 años. Catalunya ha sido pionera y sí que ha publicado la estrategia catalana. Se llama Catalonia.ai y les invito a todos que la lean en la página de web y fue publicada en julio de este año. Destaca por su alineamiento con la visión europea, por la ambición para convertir a Catalunya en un polo de inteligencia artificial y por su foco para desarrollar una inteligencia artificial que esté basada en las personas, por y para las personas. Así que enhorabona, felicitats. Espero y deseo que la estrategia se vea convertida en realidad y también espero que sirva de inspiración para la elaboración de otras estrategias en el territorio estatal, incluyendo la estrategia estatal. Porque el impacto de la inteligencia artificial no estará necesariamente distribuido homogéneamente o justamente en la sociedad como consecuencia de las limitaciones que he comentado antes y por eso creo que es muy importante desarrollar también una estrategia estatal que nos permita garantizar que efectivamente el impacto va a ser positivo en todos los sectores de la sociedad. Conseguir la visión, detener una inteligencia artificial por y para la sociedad. Talla estrategia, desde mi punto de vista, debería incorporar un claro plan de acción en seis dimensiones y muchas de estas dimensiones están incluidas en la estrategia catalana. En primer lugar, la dimensión tecnológica. Tenemos que invertir en investigación, educación y uso de tecnología puntera en inteligencia artificial, incluyendo la disponibilidad de las infraestructuras y los datos necesarios para poder utilizarla. En segundo lugar, la dimensión legal y regulatoria. Adaptando nuestro marco legal y regulatorio para que contemple un futuro o un presente quizás en el que la inteligencia artificial es ubicua en nuestras vidas. En tercer lugar, el marco ético, yendo más allá de la defensa de los derechos humanos universales y cumpliendo con estos principios feiten que he comentado de justicia, atribución de responsabilidad, transparencia, beneficiencia y no mal eficiencia. En cuarto lugar, la dimensión humana. He hablado de la importancia de la educación. Creo que va a ser fundamental. No vamos a poder beneficiarnos de la inteligencia artificial si no estamos preparando tanto a las nuevas generaciones como a las personas existentes adultas a abrazar y aprovechar esta gran revolución. En quinto lugar, la dimensión social. Incorporando el uso de la inteligencia artificial en las administraciones públicas para, por ejemplo, mejorar la eficiencia en los procesos, para dar una atención personalizada y permanente a la ciudadanía y para ayudarnos a tomar mejores decisiones como he comentado, que nos permita, por ejemplo, ser más eficientes y más justos en ámbitos como la salud, el transporte, el turismo, la energía, etcétera. Y finalmente, la dimensión económica y laboral para asegurarnos que el crecimiento económico efectivamente tiene lugar y que esta promesa de 0,8 de crecimiento de nuestro producto interior bruto tiene lugar. Desde mi punto de vista, creo que solamente si tenemos una apuesta ambiciosa, holística, plurianual, consensuada por un pacto entre diferentes grupos políticos y avalada por la ciudadanía, seremos capaces de conseguir este sueño que he mencionado de poder tener un modelo de gobernanza en la inteligencia artificial i los datos por y para la sociedad. Creo que tenemos una gran oportunidad no solamente de aumentar nuestro crecimiento empresarial y económico, sino sobre todo de mejorar la calidad de vida de todas las personas y de nuestro planeta. Por eso espero y deseo que no dejemos escapar esta oportunidad. Está en nuestras manos y quizás nuestro futuro y el de nuestros hijos dependa de ello. Moltes gràcies i feliços de 2019-2020.