 Buenos días a todos y gracias por regalarnos un poquito de vuestro tiempo para que os contemos una cosita. La charla va principalmente ahora lo veréis de problemas a la hora de aplicar la analítica, de por qué deberíamos optar por una otra opción y si tiene de cierto sentido como vamos a ver el no reinventar la rueda en algunos casos. Ahora proyectos en los que sí aplique el empezar y montar la infraestructura de de cero un cluster, la configuración del mismo, las aplicaciones y demás y habrá otros en los que no tenga sentido ¿no? Entonces bueno, básicamente vamos a ver el por qué de esa necesidad o de esa problemática, vamos a ver si la nube o servicio gestionado nos pueden ayudar a eliminar esa problemática, vamos a ver una demo en vivo ahí arreglando con todo, ya veremos, fallará seguro y luego veremos unas conclusiones ¿no? Lo primero presentarnos, él es Andrés, Andrés Navidad, yo soy Andrés Macarrilla, hacemos un lo que podría es un rol de solución alquité, todo el arquitecto de soluciones y los últimos años hemos estado prácticamente trabajando con tecnología Big Data y los últimos meses o el último año ya, trabajando con soluciones en la nube aplicando tecnología Big Data ¿no? Como veréis porque venimos uniformados para ello, somos de la Inva Empresa, somos de paradigma en este caso y estamos en un equipo en concreto que trabaja única y exclusivamente con soluciones de Google ¿vale? Conocemos el resto de nubes pero nuestra especialización al menos los últimos meses ¿vale? Es con la nube de Google. Dicho eso, yo creo que no os descubro nada, nos ponemos allá en materia, yo creo que no os descubro nada si os digo que actualmente estamos generando más datos de lo que hemos generado en toda la historia ¿no? Estamos hablando de que generamos a día de hoy 33 Zbytes de información o hemos generado 33 Zbytes de información datos del año pasado y la previsión no parece que se vaya a estancar ¿no? 175 Zbytes de estimación que vamos a generar de información dentro de ella 6 años para el 2025. Además, yo creo que hay una cultura orientada al dato más o menos en la mayoría de las empresas y desde hace prácticamente 10 años pues quien más que es menos ha tenido proyectos de analítica ¿no? Estoy seguro que si levantamos la mano quién ha hecho o quién está haciendo a día de hoy proyecto de analítica pues al menos en la mitad de la salda ¿no? Más o menos efectivamente pues nos hemos enfrentado con alguno de ellos ¿no? Pero si te vas a las encuestas o nuestra propia experiencia nos dice que no es tan sencillo este tipo de proyectos ¿no? Nos encontramos con una encuesta de este mismo año de Fredo del 2019 de la Universidad Harvard en la que dice que 69% de las empresas siguen sin crear esa cultura orientada al dato y siguen sin sacarle al dato todo lo que se le podría sacar ¿no? Bien porque no aplicaba bien los procesos y demás. De hecho el 52% no dice que no se ven capacitado dentro de la empresa bien por perfiles o bien por tecnología ¿no? Muchas veces la tecnología es un lastre en vez de un cohete que nos empuja. Gran problema pues tampoco descubro nada ¿no? Venimos de un ecosistema, venimos de un paradigma anterior en el que las aplicaciones eran los dueños del dato ¿vale? Los captores del dato y en algunos casos no se podía sacar ni siquiera de ahí y en el caso que se podía compartir información a exceder a ella era costoso, era delicado, teníamos una visión sergada de la información que esas aplicaciones tenían y de alguna manera todo nos complicaba o eran todo trabas a la hora de hacer esos proyectos de analítica ¿no? Donde lo importante es obtener la máxima información posible, incestar la mayoría o juntar la mayoría de datos de las diferentes fuentes que haya y tener una visión no sergada de la misma ¿no? Problemas, como digo, visión sergada, problemas de integración, replicación del dato cuando empezamos a mover el dato de una a otro. La solución pues el concepto también lo conoceréis, no descubro nada ¿no? Después de 3 minutos hablando no les estoy descubriendo nada, vamos bien. Nada el concepto es lo que decíamos ¿no? Es orientar toda tu empresa a que el dato sea el correo de tu información, a esas arquitecturas datacéntricas o centrales en el dato que nos van a ayudar a empezar a glomerar información, tenerla en un mismo sitio y empezar a consumirla y a mezclarla, quien deba acceder a ella y quien deba mezclarla ¿no? Tenerlo de una manera controlada ¿no? Es juntar todo en un mismo lado y que cualquiera pueda acceder. Si es tan sencillo al menos como concepto ¿por qué luego hay tanta problemática? Bueno pues por diferentes razones, aquí he puesto algunas de ellas ¿no? Hay problemas de regulación y normativa ¿no? Desde el año pasado sobre todo aquí en Europa nos hemos vuelto mucho más escritos y para bien, yo creo. Hay problemas de seguridad, hay problemas de costes de infraestructura o decisión si vamos a on-premise o vamos a la nube. Tenemos que decidir si apostar por un producto que nos va a crear cierto vendor locking o no. Tenemos que decidir si el producto que nos interesa es para analítica en batch o en streaming. En fin hay un montón de matices que nos complican la elección ¿no? La mayoría de matices a nivel de negocio. Pero luego los matices técnicos o más ligados a la tecnología también son importantes porque a día de hoy desde nuestro punto de vista la solución de analítica de cualquier empresa debe cumplir estos cuatro puntos que estoy viendo aquí detrás. Tiene que ser una solución que nos permita escalar ante cualquier pico de demanda o ante cualquier volumetría de datos que podamos tener. Tiene que ser resiliente a fallos ¿vale? Tiene de alguna manera que poderse integrar de forma sencilla o al menos permitir que haya un montón de conectores para diferentes fuentes de datos ¿vale? Y tiene que de alguna manera demostrar o hacer valer ese ahorro de costes que nos proponen estos servicios gestionados ¿vale? Dicho eso ¿Cómo podemos empezar a plantear todas esas todos esos temas o problemas que hay de inicio? Bueno pues lo primero que tenemos que tener claro es el proceso en sí. El proceso en sí de analítica si lo resumimos muy muy mucho y lo simplificaban muy mucho son cinco fases. No hay más. No hay más magia. Hay mucho detalle dentro de cada uno de estos puntos pero no hay más magia. Hay una fase de ingestión donde recogemos los datos sea del tipo que sea y de la fuente de datos que sea. Hay una fase de preparación de los datos donde puede ser una simple limpieza o puede ser una transformación mucho más compleja, agregación de los datos. Está la fase de almacenamiento que decíamos ¿no? Es el agua de datos que hace 10 años venimos viendo por ahí y nos da lo mismo. Ahora mismo no nos interesa el tipo de almacenamiento que queremos. No da igual si es un SQL, una base de datos relacional o orientado a la analítica. Está donde de verdad empezamos a hacer los datos ¿no? Esa parte de donde aplicamos inteligencia y analítica a la información ya sea a través de algoritmia, a través de la creación de modelos de lo que de lo que queramos y está la última parte en la que consumimos ¿vale? Los datos o los resultados de la aplicación de esa analítica y esa inteligencia. La parte donde la podemos explotar a través de una herramienta de BI, a través de un Dalbo, un informe o compartirla con cualquiera de los compañeros de la empresa. Una vez solucionado o teniendo claro de dónde partimos y dónde queremos poner nuestro foco en la parte analítica, simplifiquemos todo. Quitémonos de encima todo lo que nos sobra o lo que nos hace perder un poco el foco de nuestro objetivo real que es un proyecto de analítica ¿vale? Habrá proyectos como decía en inicio en el que tenga todo el sentido del mundo crearse un cláster configurarlo, securizarlo, administrarlo y habrá otros en los que no, en los que los KPIs sean el time to market, el probar si esto funciona para de verdad luego seguir invirtiendo en el proyecto. Entonces en este tipo de proyectos lo que hay que quitarse es todo lo que no aporta ¿vale? ¿Qué no aporta? Pues todo en este caso el manejo de la infraestructura. Tenemos que ir a servicios gestionados donde no tengamos que instalar nada ni configurar nada donde la seguridad nos venga de caja y tenemos que ir un pasito más allá además. Si hay a día de hoy nubes o soluciones en la nube en la que nos dan una serie de servicios gestionados en las que apoyarnos para implementar los pasos anteriores pues es perfecto. Insisto no aplica para todos pero hay muchos casos en los que hay una serie de KPIs que nos indican que tenemos que ir por aquí ¿no? Y la nube en este caso es un aliado perfecto ¿no? Porque en las diferentes evoluciones desde esos CPD de hace 25 o 30 años que actualmente sí que ni tienen que seguir existiendo en los que la mayoría de las acciones que se hacen sobre ellos son todas manuales y todo el mantenimiento es manual a la virtualización o la aparición de la misma principio de este siglo a la gestión de alguna manera de la infraestructura o de esa infraestructura gestionada hace ya de casi diez años y a la aparición desde hace unos años dos tres cuatro años de esos servicios gestionados ¿no? Con todo este paso hemos por una parte aumentando nuestra productividad cuando hacemos ciertos tipos de proyectos sobre este tipo de servicios gestionados en la nube y en algunos casos determinados el coste vale también se ha visto reducido aquí muchos matices ya sabemos que utilizar la nube también puede ser muy caro. ¿Con qué objetivo finalmente? Os lo decía antes con el de centrarnos verdaderamente en lo que estamos buscando en este caso estamos haciendo un proyecto de analítica y lo deberemos obtener de la manera más rápida la juntar la mayor información posible para empezar a aplicar inteligencia y empezar a conocer mejor a nuestros clientes. El objetivo al final de cualquier empresa sobre todo de cualquier empresa que está de cara al cliente es intentar conocerlo de la mejor manera posible para estar no solo en contacto con ellos cuando ellos nos reclaman para algunos de estos servicios sino intentar adelantarnos a sus necesidades en este caso la foto si veis tiene su miga ¿no? unos que están ya preparando un viaje ¿no? pues oya vamos a adelantarnos al viaje ¿no? ese es el objetivo final de esta analítica ¿no? intentar conocer nuestros usuarios o incluso si los datos son internos conocen cómo están los entres hijos de nuestra propia empresa y funcionan en base a ellos. Hemos simplificado el proceso, nos quitamos la infraestructura, ya somos capaces de aplicar analítica a todos los estados, de aplicar inteligente artificial desde el minuto cero. Nuestra experiencia no dice que no, nuestra experiencia no dice que tenemos que coger valga la redundancia una experiencia en problemas y en proyectos de analítica para poder pasar por los diferentes estados que hay ¿no? deberíamos empezar por proyectos en sillo de analítica o analítica descriptiva en este caso en la que en base a los datos somos capaces de determinar ciertos patrones ¿no? cuando ya estos proyectos están de alguna manera hayan calado dentro de nuestra organización o de nuestro equipo de personas vamos a esa analítica predictiva que en base a ese histórico y en base a la aplicación de una serie de algoritmos para crear unos modelos somos capaces de determinar o de hacer ciertas predicciones de los resultados ¿vale? y por último la más compleja es la aplicación de esa inteligencia artificial de esa analítica preescriptiva que nos va a ayudar a decidir cuál es la mejor de las opciones que se nos plantean a futuro en base a una determinada demanda o un caso de uso ¿no? eso es lo que vamos a ver ahora y así es nuestra solución ¿no? una solución que lo más importante era probar y validar que la idea era viable en el menor tiempo posible con costes muy contenidos y con personas dedicadas o con un número terminado de personas dedicadas limitado también ¿no? de alguna manera hemos reutilizado es una solución que reutiliza a componentes que tiende a crecer de lo más simple a lo más complejo para que vamos a sobre arquitecturizar si existe la palabra o sobre dimensionar a nivel de elementos que vamos a utilizar o para que vamos a crear un arco de iglesia cuando no tiene sentido de inicio vamos a centrarnos de nuevo en nuestro caso de uso y no vamos a perder el foco y por último como como veis es una solución que tiene que dar cabida y servicio a diferentes servicios a diferentes perfiles dentro de nuestra compañía de nada nos vale crear la mejor solución del mundo técnicamente si luego no es usable por el resto de la compañía ¿vale? y eso es lo que ahora mi compañero Andrés os va a enseñar bueno tú esto no necesitas ¿no? Sí, sí, sí, sí. Buenos días. Queríamos no solo hacer una presentación sino también hacer una demo en vivo y antes de empezar antes de empezar a hacer la demo lo primero vamos un poco justo de tiempo para la demo para los componentes que tiene vamos a pasar por ciertas por ciertos puntos muy pura encima y lo que vamos también a intentar es poner un poco en contexto hemos creado una compañía ficticia de seguros que tiene un problema que es un problema que nos llega de negocio y es que la tasa de abandonos que está viendo nuestra compañía es muy alto entonces ese es el objetivo que intentamos cumplir aquí y que ahora veremos cómo resolvemos y una de las cosas que tenemos que hacer en este caso es lo primero identificar a nuestros clientes cuál es uno cliente que tiene un mayor perfil de riesgo de que se vaya o no se vaya y lo que también queremos es vale tengo identificado cuáles son mis clientes susceptibles de que se vaya con un potencial riesgo lo que vamos a hacer es en tiempo real crear una serie de notificaciones que nos llegará al equipo comercial que llegará al equipo comercial o llegará a un call center que se encargará de impactar y hacer una llamada a esos clientes para ello esa ingestión de datos externo viene a través de un mp que es un proveedor de datos externo que nos va a decir cómo es lo ciertos usuarios que algunos de ellos serán clientes nuestro navegan por la web entonces antes de empezar es un poco nos preocupa porque tiene muchas partes pero básicamente aquí no tenemos que quedar con la idea de que vamos a hacer una parte de ingesta de datos estáticos que tenemos nuestra compañía clientes contrato producto que tiene nuestra compañía aquí vamos a hacer la parte de ingesta de datos en tiempo real para posteriormente luego poder hacer analíticos por otro lado vamos a la parte que nos lleva esta charla que es la creación de un modelo en este caso vamos a utilizar un modelo un camín para clasizar a nuestros usuarios que clasificar a nuestros usuarios y posteriormente vamos a ver la demo completa desde que llega un evento que nos notifica que un usuario está navegando en una página web de seguros que no es la nuestra hasta que mostramos una notificación en el tablón y posteriormente si da tiempo para el final de la charla veremos también una visualización que podamos ver a través de datos estudio con datos que está en BigQuery lo primero vamos a ver la ingesta de datos estática van a ser unos ficheros CSV que tenemos en nuestra compañía que está en clodestora clodestora ese es el sistema de ficheros o sistema de objetos persistente y a través de clodestore que es un servicio gestionado de amazon que permite hacer ETL de manera visual sin tener que entrar en código y gestaremos esos datos en BigQuery bien intentar hacer las menos transiciones posibles porque va a tener que estar moviendo de pantalla vale vale esto es un flujo que hemos creado para ingestar a los usuarios en un flujo lo que se hace es definir un input que es el input de usuario que es un fichero de CSV en este caso por ejemplo que está en clodestora lo que hace es definir qué serie de transformaciones vas a hacer sobre esos sobre esos datos por ejemplo aquí podemos ver la transformación que vamos a hacer es tenemos los datos y tenemos un número de teléfono que está de normalizado hay guiones hay puntos de fines qué reglas vas a vas a hacer para transformar esos datos aquí podemos ver que hay una transformación que elimina puntos y coma de ese número de teléfono y añade un prefijo con el prefijo bueno de España y posteriormente lo que vamos a hacer es una ingestión a una tabla en BigQuery aquí es el único acto de fe que os voy a pedir y y quiero que imagináis que ya hemos conseguido esa ingestión el resto de cosas y vamos a hacerlo en vivo porque es que vamos un poco entonces aquí podéis ver que el número de teléfono ya está normalizado vamos a la parte de ingesta en tiempo real la parte ingesta en tiempo real vamos a suponer que nuestro DMP nuestro proveedor de datos externo va a enviar mensajes en tiempo real bueno o mensajes en streaming digamos así para que envía a un elemento a un componente de google que es que podemos ver que es el equivalente o es un servicio gestionado y es el equivalente a Kafka por si alguno conoce más y es un sistema de mensajería gestionado o escalado vamos a utilizar clodota flow que es un servicio que se va a encargar de leer de estos datos que llegan en streaming y persistirlos en BigQuery este va a ser nuestro lago central de datos entonces para ello vamos a crear el job que va a ser ingestion big things y poner los dos por si lo utilizamos de atrás lo hacemos un perima grande vamos a lanzar en europa y aquí dataflow te ofrece una serie de plantillas que aquí en este topic de entrada en este pub sub lo que va a llegar es datos en formato y eso lo que vamos a hacer es decir que queremos ingestar esos datos de pub sub a BigQuery lo que necesitamos en como parámetro es el nombre del topic que en este caso se llama external data en una arde de originalidad y por otro lado lo que está pidiendo es la tabla de salida de BigQuery no está creada un entonces lo primero que vamos a hacer es crear esa tabla fijaros que tiene una serie de campos que es user id y producto id y en fin son los datos que nos proporciona nuestro mp mientras se crea esta tabla ya está creada vemos que está vacía entonces vamos a copiar el nombre de la tabla vamos a llevar aquí y la ubicación temporal es un bucket es un sitio donde vamos a guardar fichero temporal de este proceso si tuviesen agregación de ventana pues quedarían ahí y vamos a utilizar este bucket que lo tenemos ya preparado y vamos a lanzarlo mientras se aprovisiona la máquina de esto vamos a continuar con el siguiente componente y ahora aquí vamos a la parte de analítica pura y dura vamos a utilizar vikwere donde tenemos nuestro dato estático de la compañía donde tenemos los usuarios donde tenemos los contratos donde tenemos los productos y lo que vamos a hacer es lo primero de todo darle una puntuación a nuestros clientes antes de entrar a clasificar lo le vamos a dar una puntuación aquí es donde está la importancia de los diferentes perfiles que comentaba antes mi compañera es un perfil de negocio conoce mejor que nadie el negocio y lo que va a hacer es decirnos oye hay ciertos clientes que en función de la edad en función de una serie de parámetros sé cómo se comporta entonces vamos a aprovechar ese conocimiento que hay de negocio para darles una puntuación vale aquí hemos puesto un poco que lo que hemos utilizado pero sin entrar tampoco mucho en detalle básicamente lo que queremos es sacarle un scoring de cliente ese scoring de cliente tiene en cuenta esa puntuación tiene en cuenta la edad que tiene el cliente y en función de esa edad siendo cero una puntuación la más baja la más baja que puede tener es un perfil que es muy susceptible de que se vaya a nuestra compañía y una persona que tenga en este caso por ejemplo 75 años tiene un scoring muy alto es una persona que es difícil que se vaya esto lo tenemos que extrapolar a las diferentes dimensiones a los diferentes parámetros que queremos en este caso hemos tenido en cuenta la edad y los años de permanencia tanto para la edad como por la para los años de permanencia hemos ponderado y esa ponderación al final también no la tiene que decir ese negocio de decir hoy quiero que pese un 07 sobre el resultado final y los años de permanencia 1.0.3 pues vamos a ir a la parte de generación del vamos a hacer lo primero de todo es dar esa puntuación que hemos que hemos dicho vamos a crear una tabla de scoring aquí no hay nada todavía de de algoritmo de machine learning aquí todavía no entra en juego nuestro camí y esto tarda relativamente poco y podemos lanzar de 2017 que es un histórico que tenemos en nuestra compañía y ahora vamos a lanzar también la de 2019 que podríamos decir que estamos haciendo analítica descriptiva una aproximación a ella ya se ha creado y ahora vamos a si soy capaz en algún momento de seleccionarlo estoy aquí con la rodilla doblar y vamos a lanzar este mientras y ahora lo siguiente que vamos a ver es ya la generación del modelo yo cuando empecé en este momento no sabía que era un modelo que no era que en qué se materializa y aquí en esta parte estamos utilizando un componente de vizcuerica vizcueri machine learning que te permite teniendo una serie de conceptos básicos o relativamente básicos generar un modelo evaluarlo y luego hacer una predicción sobre ese modelo vamos a utilizar un camí porque es un algoritmo de clasific de clasificación no supervisado en este caso en el que el número de clasitaria óptimo es 4 y es 4 porque os pido de nuevo un acto de fe porque es el mejor porque hemos hecho prueba con tres clasitar con cinco y la distancia cuadrática media de los centroides a todos los puntos de ese clasitar es la menor es un poco si te dais cualquier duda podéis poder luego pasar por el estan esta frase la ha practicado para que nadie le puede total e aquí improvisado esa parte nada vale pues vamos a crear el modelo vale y ese modelo fijaros el data set de entrenamiento que tiene y de evaluación el data set ese de 2017 el scoring que hemos creado antes de nuestro de nuestros clientes y mientras esto se ejecuta y se entrenan el modelo y se y se evalúa si es bueno o no y ya digo que bueno vamos a la parte de ver cómo se está ingestando el dato en tiempo real que la parte anterior vale para eso vamos a levantado hasta ahora el servicio estábamos levantando el servicio gestionado pero no hemos empezado a ingestar datos en tiempo real vamos a ir a esta parte para que lo veáis porque aquí crea una tabla que es external dita que sigue estando vacía y ahora vamos a lanzar un script en demo que simula ese simulador que envíases esos datos de esos clientes no vamos a enviar 2000 clientes 2000 usuarios que están navegando por la web y ahora veremos aquí cómo empiezan a entrar datos fijaros que ha sido en dos clip prácticamente hacer un proceso de ingesta de datos verdad que no hacemos ninguna modificación que ingestamos los datos en crudo mientras tanto vamos a ir a la siguiente parte porque entiendo que el modelo no ha terminado todavía vale justo acabado sea perfecto lo que vamos a hacer con ese modelo aquí se pueden ver una serie de características fijaros que el modelo prácticamente lo puede representar o puede visualizar como una tabla en donde te dice una predicción te dice una evaluación de ese modelo aquí donde tenemos la distancia cuadratica media y al final lo mismo es el cláster número 3 es el que tiene a nuestros clientes de riesgo o de mayor riesgo lo que vamos a hacer mientras es lanzar la predicción cómo se lanza la predicción pues es lanzar al final casi una sentencia sql y fijaros lo que es el fron es un método previst sobre ese algoritmo sobre ese modelo que hemos generado sobre el conjunto de datos de 2019 y mientras esto se hace vamos a pasar a la siguiente que es lo que pasa cuando tengamos esta predicción tendremos a todos nuestros usuarios de nuestra compañía clasificados pero no interesa impactar a todos los usuarios lo que le interesa es impactar a todos los usuarios de mayor de mayor riesgo bicoer y machi rena tiene la posibilidad de evaluar a un único cliente pero eso implicaría una query para cada evento que está llegando entonces lo más óptimo en este caso es que esos usuarios que son de riesgo publicarlos a una caché en este caso utilizamos el servicio de memoria store que es al final un redistraccionado por google y mientras podemos ver ya porque yo supongo que la predicción habrá acabado mira justo no lo tenía preparado y lo que vamos a hacer en este caso es un pequeño script que le de bicoer y lo y lo inserta en esa caché este script lo que hace es leer esa tabla de predicción de 2019 si queréis para que le veáis es básicamente una tabla donde con esos datos de entrada que tenía al final te va clasificando esos usuarios en según que en según que clas te de este caso de riesgo el uno es un riesgo muy bajo y el número 3 es el de riesgo más alto y fijaros lo rápido que ha sido crear un modelo o entrenar un modelo evaluarlo y después hacer una predicción con él ya hemos hecho la ingesta en esta parte de derecha aquí que se ven tantos formatos ya hizo la ingesta de esos usuarios de perfil de perfil con un perfil de riesgo muy alto a memoria esto entonces lo siguiente que vamos a hacer en la parte en la parte más vistosa y vamos a simular que nuestro dmp envía un evento a un cliente nuestro de la compañía que está en un perfil de riesgo de la casualidad que no es casualidad lo tenemos preparado evidentemente y lo que va a hacer es ir por este camino tenemos una clas función clas función en servicios serverless para ejecutar código de google aquí tenemos un pequeño script de paito que lees los eventos y para cada evento consulta en la caches si está ese evento si está ese usuario con ese perfil de riesgo y si la página web es diferente a la nuestra propia lo que va a hacer es enviar otro evento a otra cola de pubsup donde habrá otra clas función que guarda en firestore firestore es el servicio de mantenimiento gestionado no es SQL de de google y permite guardar información semi estructurada y tendramos un frontal donde veremos la alerta vale este es el tablón donde van a aparecer donde nuestro cliente estará pendiente a que a ver si aparece un evento no realmente esa modo de demo esto habría que enviar una notificación por correo por slack por donde sea para que no sea algo que tenga que estar mirando pero aquí queda más vistoso entonces tenemos este evento que es el que lo envía nuestro dmp y lo que vamos a hacer es ingestarlo en esa cola pubsup y en 5 o 6 segundos deberíamos de ver cómo parece ahí este es el momento en el que respira esto es un noto que teníamos preparado ahora vamos a probar con uno que no te hemos preparado habría visto que tiene un poco de tiempo de latencia eso pasa porque tenemos cloud función que son funciones que se ejecutan sin servidores un servicio serverless que pasa cuando tú desplegas por primera vez una función google tiene que instanciarla a juntar sus dependencias depende del tipo de lenguaje que se utilice tarda más menos tiene que provisional la memoria arranque tú quieres con la que se ejecute esa función pero ahora podemos ver que una vez que ya he hecho la primera llamada si volvemos a lanzar otro evento vamos a enviar a aríadana por ejemplo que tiene el user id este vale ahora ha tardado bastante menos y en medida y eso al final es algo se llama cool start y es el tiempo que la primera vez que llamas a una normalmente el tiempo de vida en una clave función es de se dice por ahí de gente que ha hecho estudio porque google realmente no te dice un dato exacto pero dicen que el 80 por ciento de las funciones sobreviven durante un periodo de inactividad de cinco horas puede ser que llevan media hora de inactividad con la tuya y justo google la ya desaprovisionado y con esto nos queda una última parte de la demo en la que vamos a ver cómo podemos de una manera muy rápida de una manera muy rápida previsualizar esos datos que ya tenemos ingestados en bicuery en este caso lo que vamos a visualizar es cómo se han clasificado nuestro cliente como se han clasificado vamos a poder consultar el histórico de un cliente en concreto de cómo ido evolucionando para ello utilizamos data studio de estudio es esa herramienta no es una herramienta de vei como tal o tan potente como la mejor podemos tener en mente un tipo tablón tipo power vei pero pero en detrimiento de eso tiene la facilidad de uso la rapidez con la que puedes hacer dashboard y que es gratis entendamos por gratis que es gratis el servicio pero las queries que tira contra bicuery te las vale en este caso tenemos este tablón voy a intentar ponerlo un poquito más en grande ya que estamos que ya hemos terminado la parte de consola y aquí podamos ver cómo nuestros clientes se han clasificado en cuatro clusters que es lo que hemos puesto en el camino y el perfil de mayor riesgo es el muy high risk y todos los seguros se va agrupando el 7% de nuestro usuario está en un perfil de riesgo muy alto a la derecha podemos ver cómo se van clasificando esos sobre qué producto tiene el mayor riesgo fijaros que eso muy parecido a todo el record count porque al final la generación de datos al final ha generado una distribución uniforme pero podemos ver por ejemplo un seguro de vida una lista de clientes que están en un perfil de riesgo muy alto de seguros de vida vamos a coger a jesus mismo está aquí el primero bueno voy a coger a maite que no tiene tilde por lo que pueda pasar vale está un poquito porque está lanzando la query contra mis query para recuperar cierta información entonces aquí vamos a buscar a maite y aquí vamos a buscar por ese uso de ahí y aquí tenemos a maite aquí podemos ver un dato concreto de maite podemos ver cómo ha ido su evolución como cliente nuestra compañía en función de ese scoring que hemos tenido históricamente de 2000 hemos hecho la primera prueba cuando mil 17 para la primera tabla que hemos creado en 2017 pero podríamos tener 2014 2015 2016 y por último bueno esto es un poco más técnico y ha sido como hemos hecho la selección del cláster teniendo en cuenta ciertos ciertos patrones aquí podemos ver que no sé muy bien verte en terra cerzón si podemos ver que fijaros que nuestro perfil nuestro perfil de riesgo muy alto que es el naranja empieza en la edad de 35 años antes no hay perfil de riesgo muy bajo porque puede ser que sea muy susceptible de que se vaya pero por el motivo que sea en nuestra compañía interesa a la gente mayor de 35 40 años porque la mejor la gente que es un poco más joven es muy susceptible de muy volatil de que se vaya por el tema de que miran más la pasta o lo que sea y con esto pues ya hemos terminado hemos terminado la demo vale entonces doy paso a mi compañero o robo los últimos dos minutos para resumir un poco todo lo que hemos visto y ponerlo en de alguna manera en contexto no insistimos en lo de siempre esta experiencia nos dice que no hay que empezar un proyecto siempre de cero si la circunstancia lo requieren o hay una serie de objetivos que nos va a facilitar la vida en ese proyecto hagámoslo pero no otros muchos hay otra serie de KPI insistimos en este caso lo hemos puesto nosotros los KPI y los objetivos y aplicar perfectamente pero el reutilizar herramientas el ir algo que nos acorte el camino y poder probar o validar esa idea tiene todo el sentido del mundo vale al final esto que veis aquí son hechos vale ha habido dos personas que en cuatro semanas han montado todo esto la mayor parte se la lleva la analítica la creación de los datos y el entrenamiento del modelo porque como veis en realidad luego la ingesta de los datos y el tratamiento de los mismos no lleva tanto tanto tiempo vale pero han sido cuatro semanas de dos personas y han logrado hacer un trabajo que de otra manera empezando de cero solo con la instalación y configuración de las máquinas y la administración del cláster se te hubiera ido y lo importante aquí era validar la idea hemos aplicado más y learning no sólo de una forma relativamente sencilla decir no hemos tenido que importar librerías externas no hemos tenido que acudir a ningún lado a por ellas no hemos tenido que tener un científico de datos a nuestro lado nosotros no los somos ni lejos sino que gracias a lo que nos permite en este caso la nube de google hemos aplicado más el learning casi con una consulta de secuel de alguna manera también hemos escrito muy poco código ese número de líneas no está tirado al hacer son 127 líneas de código las que hemos escrito no hay más vale tampoco necesitamos un perfil experto desarrollador para ello hemos creado una solución que se adapta a diferentes perfiles a esa persona que es más analítica le gusta jugar tirando queries y demás pero también hay una persona de negocio que va a poder explorar esa información a través de data estudio o incluso hemos hecho una integración con una interfaz o una aplicación un servicio hemos simulado en este caso que es un cocentre al cual le llegue a los avisos de esos clientes en riesgo que están navegando por esas webs de compañías de la competencia y por último decíamos ahí también hemos creado gracias a esa herramienta de exploración de datos no de business intelligent como decía andrés pues un dashboard bastante visible que además es funcional que nos permite hacer drill down o filtrar sobre diferentes usuarios para ver un detalle y demás insisto lo que nos gustaría es que lleváis esa idea de plantear ciertos servicios o ciertas soluciones en este caso gestionadas sea google en este caso porque nosotros estamos ahora mismo con ellos sea amazon sea azure la que sea pero esto es una solución en muchos casos no al menos en lo nuestro así así ha sido de nuevo agradeceros a todos la asistencia y la atención prestada que tengáis un buen día