 En un momento todo lo que hemos visto hasta ahora ha sido cómo se está aprovechando Bitata, la capacidad de software y de middleware que hay, para hacer grandes queries, para manejar todo el volumen grande de datos que hay, entonces la presentación que os voy a hacer hoy, es cómo aprovechar qué es lo que hay por debajo los motores, las dúgidas cómo se utilizan en motores de búsquetas y cuál es la ingeniería que hay detrás para mover estas grandes cantidades de datos. Deciros que BUL, yo soy el director de la INIA negocio de HPC de BUL, y BUL es una empresa europea, es el líder tecnológico en High Performance Computing en Europa y lleva más de diez años dedicado a supercomputación. Tenemos el mayor equipo europeo de desarrolladores y de gente que tiene conocimiento en High Performance Computing con más de 600 empleados solo exclusivamente dedicados en BUL a lo que es HPC en Europa. Como veis, nuestra base que tenemos de computación es enorme, más de 500.000 cores instalados en los últimos cinco años y lo que nos permite tener en Europa una gran cantidad de clientes que, si os fijáis, son clientes que a día de hoy están demandando la tecnología ya de Bitata también, gente como el BVVA, gente como el SARA, gente como MeteoFrance, muchas entidades financieras, muchos centros de genómica, como caso del CENAC, como caso del CENIO, YPCP Felipe en España. Estos usuarios, como veis, son usuarios de computación, pero también a la vez son usuarios de Bitata. Hoy os voy a enseñar las analogías que hay entre HPC y Bitata, porque la realidad es que en muchos casos todos los clientes servicionales de HPC están haciendo ya Bitata desde hace tiempo. A día de hoy contamos ya con sistemas que son capaces de llegar hasta el nivel petaflop. Tres ejemplos que tenemos instalados en Europa y Japón. Uno es el CEA, que es el Centro Energía Atómica, en el cual veis la gran cantidad de información y de cores que es capaz de manejar. Hablamos de un sistema que fue el primer sistema petaflop que se instaló en Europa y que tiene a día de hoy 140.000 cores instalados. Pero quizás lo más llamativo a la hora de hablar de Bitata es, por un lado, el almacenamiento que tiene, que son 30 petabytes de almacenamiento, pero, por otro lado, es cómo esos 140.000 cores llegan a esos 30 petabytes. Tiene una red de lustre formada por 500 gigabytes, o sea, una red que te da 500 gigabytes por segundo dentro de la salida, para que esos 140.000 cores sean capaces de manejar la información de esos 30 petabytes. Esto es 500 gigabytes por segundo, fue record mundial en la instalación que se hizo en el 2011, y ahora ya estamos avanzando mucho más en construir los nuevos sistemas que serán a nivel de seaflop. Otro regalo es el Al-Quri, como veis, 10 petabytes, que es la máquina patrocinada por Bool y por Francia para proyecto Prey, en la cual Europa iba a competir tecnológicamente contra Estados Unidos y Japón en tema de su preocupación. En la semana pasada hemos conseguido dos grandes referencias más, que es el Meteo France, otro claro candidato de lo que puede ser un Bitata, y el Sara, que es el centro de su preocupación en Holanda. Estos son sistemas que van a tener cerca de cinco petaflos de rendimiento y hablamos de más de 200.000 cores. Bien, como veis, en HPC los problemas que estamos resolviendo son muy parecidos a problemas que se quieren resolver también Bitata. Son problemas de meteorología, de climatología, ozenografía genómica. Genómica es un claro candidato a resolver Bitquery y Bitdata, porque se buscan patrones a lo largo de muchas bases de datos, y lo que pretende es acelerar estas bújidas binarias, estas bújidas de queries, a lo largo de una serie de datos que están no estructuradas. Biotecnología, física y materiales, química, compuestos químicos, matemáticas, finanzas. Allá aparece otro de los sectores muy típicos también de Bitata, del cual se pretende analizar con modelos más matemáticos, valores del mercado futuribles, análisis de riesgos, etcétera. Oilangás, criatografías, otro de los escenarios muy típicos también de clientes que hacen Bitata. Dinámica de fluidos, automoción, renderizado, industria naval, astrofísica, teronomíaica, etcétera. Como veis, en muchos campos, en los cuales la visión tradicional de HPC y de computación está presente ya en Bitata. Por eso, yo espero decir, hay muchas similitudes entre lo que es HPC y Bitata realmente. Bitata lo que pretende es hacer repetidas observaciones sobre el tiempo y el espacio. Ejemplo que te sabemos, los servidores web graban los de millones de visitas al día de las páginas para que luego tú puedas hacer bújidas de información y sacar eurísticas, información de valor sobre esas búsquedas. La base de todas las operadoras, sin ir más lejos, pues graban el tiempo y la localización de cada 15 segundos, cada 15 segundos de miles de millones de móviles que hay en el mundo. Otro ejemplo es los retailer. Cualquier cadena de supermercados tienen miles de supermercados, decenas de miles de cruces, millones de clientes, los cuales generan a la vez miles de millones de transacciones y registros anuales que deben ser analizadas para sacar una información válida para la cadena de decisión. Bújidas en Google, en WhatsApp, en las redes sociales, todo esto Bitata. Pero si no nos vamos a dar cuenta, los científicos, históricamente, siempre de los años 50, 60, ya han atacado estos retos porque realmente hay una analogía muy clara de la paralización porque para los clientes HPC eso ya no es un reto. Es el pan nuestro de cada día que todo usuario de HPC se lo viene generando todos y todas las veces que ha estado utilizando el sistema de supercomputación. Entonces vemos que hay una gran similitud entre HPC y Bitata porque tenemos el famoso las tres subes de paradigma de Bitata que están aprendidas también en clientes de HPC, gestión y tratamiento de grandes volumenes de datos, necesidad de aumentar la velocidad de computación, hay una gran variedad de conjunto de datos. Pero a la vez necesita también necesidad de escalabilidad, tanto de programación como del hardware que esté soportando todos estos paradigmas de programación paralela. Además también tiene el problema de un gran consumo de electricidad. Los cpds actuales de Google, del CEA, del Quri consumen unos grandes recursos de electricidad que deben disminuir a la hora de que vas a meter cada vez más servidores de computer. El espacio en sala también es un reto y se debe reducir también el espacio en sala para no pagar al final tanto espacio que tienes en tu cpd. Hago también un coste, a día de hoy se puede hacer un gran sistema así, a un coste extraordinario. Con lo cual las metas que tienen los clientes de Bitata y los clientes HPC son los mismos, reducir el consumo y el espacio, reducir el coste, aumentar el rendimiento, aumentar el paralismo y la concurrencia y aumentar la escalabilidad de las soluciones. Yo por eso casi paso más que al 3V al decir un 5V. La famosa programación de 3V de velocidad, variedad y volumen que se da Bitata, yo añadiría también otras dos V's, una es valor. Todo lo que se saque a la vez de aumentar la velocidad sobre el volumen de datos que tenemos, que a la vez es muy variado, necesitamos también que eso sea un valor añadido al usuario y a la toma de decisiones y a la reducción de costes que implica tener estas búsquedas y esta extracción de la información valuable para nosotros. Para demás, también mete una quinta, tal como montadas cores también, que es visión, visión de futuro. Todo esto se necesita tener una visión de futuro de hacia dónde quieres ir y cómo innovar. Entonces el paradigma de Bitata debe abordar no solo los 3V, sino también valor añadido y una visión clara de futuro. A día de hoy el modelo que tenemos de base de datos ocurre que se están plantados sobre datos relacionados, sobre todo sobre temas de datos relacionados, las cuales están ignorando el ordenamiento de las filas que hay en las tablas. Entonces es un problema inherente a la hora de hacer Bitata. Es más, cuando crece la información el problema se va volviendo cada vez más en definitivo y aumenta en complejidad. Lo cual, yo diría que hay que abandonar un modelo tradicionales de RDBMS por modelos que reconozcan la ordenación de los datos inherentemente. Porque veremos luego cuando se hace búsquedas aleatorias en vez de secuenciales y los tiempos que se jocutan sobre un disco o sobre la memoria son extraordinariamente más lentos que si se hacen búsquedas ordenadas. Y no solo ya solo es base de datos, también lo que implica es meter la cadena de software y desarrollar aplicaciones en las cuales se manifieste este hecho del impacto de acceso no óptimo hacia los datos. A medida que crece el problema de datos se hace cada vez esto más importante con lo cual hay que elegir algoritmos y metodologías de programación para que se manifieste el acceso a los datos y que además el problema de la modificación y la arquitectura de hardware que tengas por debajo sea óptima para estos modelos que quieres ejecutar. Un ejemplo de lo que sería unas penalizaciones debido a un acceso beneficiente a los datos. Como veis aquí he puesto ejemplos de lo que es acceso a memoria secuencial, acceso a memoria aleatoria, búsquedas en discos de estado sólidos secuenciales y aleatorias. Si veis por ejemplo, cuando tengo accesos secuenciales a memoria, soy capaz de generar hasta 358 millones de valores en el segundo. Mientras que si lo que tengo que hacer son aleatorios, el rento baja un orden de magnitud, son 36 millones. Es más, nos damos cuenta que es más rápido el acceso a secuencial a disco que el acceso aleatoria a la memoria. Uno de los paradigmas fundamentales de VTATA es que los datos y las búsquedas se deben hacer secuenciales, no tener que tener el paradigma de hacer búsquedas aleatorias, porque eso afecta como veis mucho al rendimiento. Pero bueno, a día de hoy también ha ocurrido que los comodities, los cluster, los servidores de computación, han disminuido y nos han permitido acceder a un volumen enorme de computación a un cueste más económico que lo que era antiguamente. Los servidores X86 ya llegan a escalar hasta 4 teras, 160 cores, un ejemplo es el servidor Bool 66030, es un ejemplo del sistema X86 que ya escala hasta 4 teras y 160 cores. De ahí que el destruir, como hemos visto en las otras sesiones, todas las queries y toda la carga paralela a través de un cluster distribuido es la estrategia que más existo se está implantando hoy para analizar los grandes volúmenes de datos, porque es un comodity, es barato y nos permite llegar a unos rendimientos de una escala de vida hasta ahora no reconocida. También es muy importante el tema de las latencias. Depende si quieres llegar a un volumen de datos, tener tus datos y tu información local a cada servidor, a cada nodo, en el cluster, o lo quieres detener en otro lado distribuido. Necesitamos tener una redes de acceso entre los nodos de altas prestaciones. Como es tradicionalmente en el caso de HPC, es un tema típico de MPI. Para ahí más de programación de MPI que a través de las redes infiniband actuales de cerca de 56 Gb se han visto solucionados. La latencia ya entre nodos a día de hoy no es un factor, que así se tarda igual en acceder al disco local que acceder también via infiniband a la información de otro nodo. Todo esto ha beneficiado que se pueda distribuir la carga de trabajo a miles y miles de cores. Luego también, otros factores de cuenta es la fiabilidad. Los sistemas, los clusters que nosotros fabricamos se construyen con modos de fiabilidad de tal forma que tenga redundado y replicado la mayoría de los factores críticos dentro del cluster. Y el éxito de VITATA lo consideran aquellos desarrollores que sean capaces de mirar más allá, de saber lo que tienes por debajo, la arquitectura que también tienes por debajo y construir modelos de programación, que puedan resolver y que analicen qué hardware también tienes por debajo. Y esto realmente es el HFC de toda la vida. Si no nos vamos a cuenta, HPC y VITATA son almajemelas. A ver, los dos se basan en, al final, tener muchos y muchos nodos con muchos cores, miles, como hemos visto en el caso de Google. Atacan los mismos problemas que tenemos de eficiencia energética, reducción del consumo, calor, espacio. Y al final, al cabo, aquí tenéis dos ejemplos de lo que este es el CPD de Google y este es el CPD del Quri. Sus problemas son iguales. Todo ello ya vemos que en el caso de Google, hemos implantado ya, tenemos un portfolio de soluciones completas para HPC y para VITATA. Pasado en servidores standard para cables, servidores Blaze, servidores de media compartida. Todo esto ya está en, es más, en el caso del cloud competing, Google ya tiene solucionado el problema desde hace tiempo a través de dos cloud que tenemos, uno es Extreme Factory dedicado exclusivamente para HPC y otro es Numergy, también dedicado para cloud. Y ahora qué? Una vez que ya vemos que somos capaces de montar sistemas que puedan acceder a VITATA y HPC a estos niveles de computación, ¿cuál será el siguiente paso? El siguiente paso se llama el SLSaflop. SLSaflop nos dice que vamos a tener que multiplicar por diez, bueno, por diez, vamos a tener que aumentar por 32 de los elevados ocho la capacidad de cálculo en los próximos ocho años. Es decir, pasar de un petaflop a un SLSaflop es multiplicar por mil y eso nos va a dar una capacidad de cálculo que vamos a tener que manejar millones de cores y millones de threads, ¿vale? SLSaflop si podemos un ejemplo práctico sería, a ver, en el cerebro humano tenemos cerca de 100.000 millones de neuronas, ¿vale? En Madrid hay más o menos, hay más de un kilómetro de amor redondeado a cinco millones de habitantes. Bueno, eso nos da, ¿vale? El total de neuronas que hay en Madrid es el doble del poder de computación que es capaz de hacer todos los cerebros que tenemos en Madrid, ¿vale? Eso es un SLSaflop a día de hoy, ¿vale? Allí, como digo, hay dejo un tal de algunos políticos que son no computa, con lo cual no es suma capacidad de cálculo, ¿sabes? Al total lo podemos ignorar en esta manera, ¿no? Entonces, para que hay un poco lo que es un SLSaflop es tener la capacidad de cálculo que tenemos los cinco millones de habitantes de Madrid, ¿vale? Eso sería un SLSaflop. Es más, a nivel de paradigma de procesamiento, si vamos un poco a la historia, entre los años 75 y 90 estuvo dominado por sistemas vectoriales, ¿vale? Y a partir de los años 90, cambió el concepto de arquitectura de tal forma que eran máquinas escalares, procesadores x86, procesadores que, ¿por qué realmente los procesadores acabaron con la máquina vectoriales? Porque eran caras, ¿vale? La máquina es muy buena para su propagación, pero eran caras, ¿vale? Entonces, ¿qué nos depara el futuro? Si vemos un poco cómo va el TOC 500, que son las máquinas de propagación más grandes del mundo, ¿vale? Nos dice que cerca del 2014 hay un sistema de 50 petaflop. El otro día, el martes, sacaron la nueva lista de noviembre, ya hay un sistema de 20 petaflop, ¿vale? El siguiente paso, probablemente sobre el 2017, se llega a 200 petaflop y se espera llegar al SLSaflop entre el 2019, 2020, dependiendo de cómo vuelve la tecnología, ¿vale? Para Big Data, ¿vale? Temos que pasar más en extreme, en caso de las extremas, es decir, multiplicar por mil, ¿sí significa? Vamos a tener que pasar por mil o por un millón los requisitos de usuario, ¿vale? Eso es un usuario extremo, o sea, el usuario realmente no tiene límites, le ponga lo que les ponga si tú le pones una capacidad de cálculo de un millón de cores, te pedirán 10 millones de cores, para ellos no hay límites a la hora de los requisitos, ¿vale? Es también pasar por mil en capacidad de memoria, ¿vale? Lo que sería memoria extrema. Hay que resolver estos problemas. El ancho de banda de comunicaciones, ¿vale? El stream network, disminuir por mil la latencia, multiplicar por mil el número de nodos, lo que sería una extrema arquitectura extrema, multiplicar por mil o por un millón, ¿vale? La capacidad de almacenamiento que vemos, que es una explosión de datos global la que hay a día de hoy, ¿vale? Es multiplicar por mil, lógicamente, el poder de computación, pero además multiplicar por mil la escalabilidad, la fiabilidad, el problema de la visualización de datos, ¿vale? Podemos tener que resolver grandes cores y grandes opres, si no somos capaces de visualizar la información que recibimos, también eso sería un fracaso. Hay que multiplicar por mil también la administración, todo eso sobrevuelve, ¿vale? ¿Qué no es lo que nos piden nuestros clientes a día de hoy? Que todo eso lo hagamos, ¿vale? En el 2020 el sistema que pongamos debe ser igual que el sistema que hemos instalado actualmente de un petaflop, es decir, si a nosotros nos pagarán mil veces más por construir un sistema, oye, esto fantástico, un sistema de un petaflop a día de hoy te puede salir entre 20 millones de euros, ¿vale? Si a mí me pagarán 20.000 millones de euros, oye, se lo ponía aquí ahora mismo un desaflop sin ningún problema, pero ese es el problema. El problema también es que, además, hay que mantener el consumo actual, y hay que mantener también el espacio en sala. Y todo eso, ¿vale? Hay proyectos y iniciativas, tanto en Estados Unidos como Europa, en el caso de Europa, son tres iniciativas de esa escala, que se llaman Mont Blanc, Deep y Cresta. Y Big Data, indirentemente, va a aprovechar todas estas mejoras que se están produciendo en el mercado de computación. En el caso del reto del consumo, vemos, ¿vale?, que para construir un sistema actual ese aflop debería poderse fabricar, sí, pero consumiría cerca de 500 millones de debatios. El futuro reto, ¿vale?, de la visión de esa aflop futura, es que ese sistema consuma no más de 20 millones de debatios. Vemos el caso del CEA, por ejemplo, el sistema petaflop de CEA consume 5 millones de debatios. Entonces, el reto es pasar. En vez de 5 petaflop, son 5 millones de debatios, pasar como máximo a un consumo de 20 millones de debatios. Es más, otro de los problemas en el reto del consumo es que si os fijáis, a día de hoy, la electricidad, es uno de los componentes más caros a la hora de construir un sistema de computación. Cerca del 28% es el coste de electricidad, mientras que el hardware en sí, los servidores, son 37%. El resto es gestores de colas, software, personas, etcétera. Pero es que además se me ha dado cuenta que la electricidad es un factor que está subiendo mucho en toda Europa. Desde los años 90, en el caso, por ejemplo, más sangrantes el de España, que de tener un coste más o menos de electricidad que era asumible, nos hemos puesto a ser los países que el coste más caro tenemos de Europa en electricidad, mientras que, por ejemplo, en Francia, es la mitad. Con lo cual es muy importante tratar de reducir al máximo el consumo de estos sistemas que estamos hablando de consumir 5 millones de debatios. ¿Qué ocurre? Que a día, si nos fijamos, es una evolución de cómo ha venido pasando los procesadores históricos y cuánto debería consumir en el ratio megavatio por esa flop. La tecnología ha ido reduciendo para ir construyendo un sistema saflop con un Alfa, con un Pentium, etcétera. A día de hoy, construir un sistema basado en Intel-SEON-E5, que te llegara un saflop, consumiría cerca de 727 millones de debatios. El reto es conseguir un procesador que más o menos, con una frecuencia de 2 gigaercios, tenga 16 cores, consuma un solo batio, sea cerca de 64 gigaflops, para que me permita construir un saflop con 16 millones de debatios. Y ese procesador, según vemos, todavía no existe, tiene que ser inventado un procesador que tenga esta capacidad. Una de las líneas estratégicas en las cuales se estaban plantando es utilizar la capacidad de computación de los móviles, lo que es un presador ARM, convertir máquinas de supercomputación y máquinas de bitdata que sean capaces de utilizar los procesadores de los móviles, un procesador en Bebit, para hacer sistemas de computo. ¿Por qué? Porque el precio reducido por el procesador es muy barato. Un presador ARM es enormemente más económico que un presador standard, caso de un intelectual. Tiene muy bajo consumo y no produce calor. Además, espera que tenga soporte ya para darle precisión en los próximos años. Y el software existente que tiene estos procesadores es muy fácil de utilizar. 100 lindos, con lo cual, es todo resuelto. Entonces, como veis, al igual que se decía, que los procesadores acabaron con las máquinas vectoriales a día de hoy, se empieza también los futuros servidores con procesadores móviles y en Bebit, podrán también ocupar un gran sitio dentro de los sistemas de supercomputación. Si nos fijamos en la relación que tiene actual Gigaflops con VATIO, nos damos cuenta que Intel con un procesador S105 aquí tendríamos en esta línea lo que es una tarjeta Nvidia, una Kepler, una Tesla K20 de las que ha salido ahora esta semana o un BlueGin, no tiene un punto de comparación con lo que es el nuevo corte S15 de ARM. 2 GHz, 32 Gflops con un ratio de Gflops por VATIO mayor y muy significativo con respecto a los que tiene la competencia. Si nos vamos a comparar una arquitectura Intel Sion versus una arquitectura ARM, nos damos cuenta a nivel de prestaciones, 2 Socket Intel Sandy Bridge versus 8 Socket ARM Cortes A15 en capacidad de cómputo es parecida eso sí, tenemos que manejar más direcciones de datos tienen menos memory and chip tienen menos capacidad de acceso a la memoria interna y mientras que aquí tenemos 2 QPI, ahí sólo tenemos enlaces de Gigabit. Si eso lo metemos, sin embargo, no obstante una tarjeta gráfica lo que sería por ejemplo una Mali nos encontramos ya con el actual Samsung Exynos de las tabletas actuales de Samsung. En este caso fijaros la diferencia ya en computación es muy similar son 1.600 Gflops en cuestión de memoria y demás, empieza a ser bueno, pero si nos damos cuenta fijaros sobre todo la diferencia que hay en coste mientras que esto estamos hablando que puede ser cerca de 3.000 dólares lo otro estamos hablando de cerca de 200 dólares y es más, el consumo se divide por 4 por eso en el 2011 la comisión europea dio un proyecto que se llama Mound Blank en el cual está formado por los Tire Zero los centros de computación más grandes de Europa, como son del Barcelona Super Computing, Jullich, LRZ, Jensi, Cineca y CNRS para construir un sistema basado en procesadores ARM una red de interconcisión genodal y bull como integrador de toda la solución esto ha sido financiado por la comisión europea con un presupuesto de 15 millones de euros, con varios objetivos el objetivo número 1 sería construir un prototipo en el 2014 que llegara a escalar hasta 50 petaflop y consumiera 7 millones de debatidos en base a esta tecnología y a la vez desarrollar todo el software de un sistema completo de computación el objetivo número 2 es construir y diseñar los siguientes sistemas europeos de esa flop en base a tecnología exclusivamente europea que compita con tecnología asiática y tecnología americana el objetivo claro de la comisión europea es apostar por tecnología europea no adquirir tecnología americana o tecnología asiática este sistema debería llegar hasta 200 petaflop con 10 millones de debatidos para llegar a ser escalable a un esaflop con 20 millones de debatidos y el tercer objetivo que se marca en Montblanc es portar y optimizar todo un conjunto de aplicaciones representativas a esa escala porque de nada te sirve costura un sistema de estas características si luego no tienes un software y una capa de aplicaciones que no pueden llegar a escalar hasta arquitectura el martes anunciamos también en supercompeting que hemos elegido a San Sunésinos para ser la tarjeta con la cual vamos a construir el prototipo Montblanc como veis la tarjeta San Sunésinos son dos San Cortes con una tarjeta una GPU Mali con dos gigas de memoria lleva conexión también megabit lleva conexión interna que se diseña con esto una capacidad que la proyección que tenemos en el model 20 es que construir chips que tengan cerca de 200 cores el chips que tenga un nodo de computación será cerca de 7.200 cores para que un rack lleno de estos servidores tengan 42 nodos de computación por decir algo y que sea cerca de 300.000 cores por rack de tal forma que un esaflop podría llegar a tener más de 12 millones de cores y consumir 20 millones de debatios a la vez vemos que podemos aumentar la capacidad de computación pero también otros de los retos que hay es cómo abordar la evolución de la memoria cómo acceder más rápidamente cada vez a la memoria en ese caso si vemos la densidad de cómo va evolucionando cada dos años se duplica la capacidad de memoria ayer de hoy ya hay dinas de 32 gigas y los dinas de 64 gigas aparecerán por el 2014 más o menos 2013-2014 pero también vemos que la transferencia de datos no evoluciona a unos ratios muy grandes lo que es la transferencia de datos ahora mismo estamos en tecnología de DR3 y DR4 aparecerá ya más o menos el año que viene pero no aumenta mucho la transferencia de datos es más también aumentando de la tecnología también aumenta mucho el consumo lo que se aborda también con el precio Montblanc es utilizar tecnología 3D stacking de tal forma si a día de hoy estamos aquí que la ancho de banda son 100 gigas por segundo la memoria 3D stacking me permite integrar la memoria dentro ya de la propia CPU de tal forma que consiga anchos de banda de memoria por encima de un terabyte por segundo entonces esos son anchos de banda de acceso a memoria para vida data que soportan unas cueres enormes de acceso a memoria además como estamos viendo antes construir un sistema hasta JPC debe ser debe tener prioridad un sistema de refrigeración absolutamente críticos que sean capaces de absorber todo el consumo y todo el calor que desprenden estos sistemas en estas tecnologías actualmente hay diferentes hablamos de refrigeración por aire lo que ocurre es que el PUE que es la eficiencia de lo que consumes versus lo que tú te estás consumiendo en electricidad para refrigerar lo que estás gastando es lo que se llama el PUE cuando tú tienes un PUE de 2 es que te estás gastando un millón de electricidad te estás gastando también un millón en refrigerar lo que está consumiendo ese millón de vatios con un sistema de refrigeración de puerta trasera puedes bajar el PUE a 1,4 y lo que hemos sacado también son sistemas que son de diary liquid cooling de tal forma que llevamos el agua directamente a los componentes se refrigera directamente la CPU y los tienes de memoria con agua líquida y eso me permite bajar el PUE hasta 1,1 el siguiente reto que nos damos es y por qué no coger que desprende estos sistemas utilizarlo para generar electricidad de tal forma que entonces hagamos cogeneración los CPDs se conviertan en cogeneradores a la vez de electricidad así que como os decía para acabar me gustaría que os gedereis con 5 mensajes que son los que debemos recordar los grandes retos son los que mueven la innovación como ha dicho esta mañana a buscar el HPC es un impulsor nato de todo lo que es innovación es el inerente es el motor que hace 30 años todos los avances tecnológicos en el mundo luego esos avances tecnológicos en HPC han sido replicados por nuestros sistemas tradicionales o lo que se llama el mercado común de servidores los arquitectos y las arquitecturas HPC son las mismas arquitecturas que para VITATA realmente al construir sistemas para VITATA estamos construyendo realmente arquitecturas especializadas que también son arquitecturas HPC millones de cores nos van a permitir para realizar enormemente todas las búsquedas que hemos estado hablando de VITATA y Montblanc puede que sea la plataforma europea futura de VITATA que surja y bueno, y se implementa acá diciendo que es Bulls el líder en los sistemas de superputación tanto para computación como para VITATA así que nada más