 Empezamos. ¿Qué es lo que es el control? Vamos a aplicar todo el tema del tema del control. Un 10-point de uso un poco de la construcción de la inteligencia artificial y cómo poder utilizar las historias para preparatorias. Vamos a dedicar, sobre todo, más tiempo a cómo generar contenido con la inteligencia artificial, pero después veremos una otra función de inteligencia. Es para más, pero muy pesado porque esto puede ser pesado, si no manejaréis, si no programáis, ¿vale? Es una primera mitad de la presentación, de 20 minutos, para explicarles cómo funcionan estos sistemas de la inteligencia artificial. Y una segunda parte, con una demostración, que está en el paito, creo que desplazaremos un poco, o desplazaremos un poco para que podáis desplazar el lugar con el con el que utilizamos la inteligencia artificial. La inteligencia artificial y cómo aplicarla a la necesidad. Principalmente, lo que vamos a hablar es de... Es que comentarles un poquito más. Sí, vamos a ir por la mesa y a todos también. Bueno, pues, principalmente lo vamos a dedicar a trabajar con el contenido, ¿vale? Lo que vamos a intentar solucionar el problema es que tenemos cuando nos encargan la generación de contenido para las páginas web o para productos de los comercios o similar, que muchas veces implica que tengamos que andar investigando porque no tenemos los concimientos del negocio lo suficiente y perdamos mucho tiempo y mucho suerte. Hasta ahora esto, lo hacemos nosotros echándole horas o contratamos a algún equipo de reacción para poder generar ese contenido, ¿vale? Ahora con la inteligencia artificial todo esto ha dado un vuelco, ¿vale? Y podemos utilizarla para que haga muchas de estas tareas. El tipo de inteligencia artificial que nosotros vamos a utilizar es un tipo muy específico que se llama LLM que se pediría significar como moveros de lenguaje largo, grande, ¿no? Estos moveros son un tipo de inteligencia artificial que están diseñados para comprender y generar texto de manera bastante avanzada y en el cuento, ¿vale? Son un tipo de moveros que de manera natural, ¿vale? Nos permiten generar texto y permiten asociarlo dentro de una frase. ¿Vale? Hay muchos. Hay StarCloud, StarGemini, Yama, Mistral y el más famoso de todos que ya sea ChatGPT o los GPT de OpenAI son moveros de lenguaje que son los que vamos a utilizar. ChatGPT. ¿Cómo funciona? Los LLM son moveros que están como si así creamos enseñados tienen un aprendizaje por detrás, ¿vale? Y son reves neuronales basadas en clascomogones. ¿Vale? ¿Qué es lo que hacen los LLM? Son muy buenos lenguajes y nos permiten estimar la probabilidad de que una palabra esté cerca de otra. Nos permiten estimar si una palabra está cerca de un carácter, de una frase o ventre un texto. Aquí tenéis un ejemplo, ¿vale? Donde pone the sky is, ¿vale? Lo que hace realmente un LLM es que cuando yo le facilito esa frase, ¿vale? El cielo es calcula qué probabilidad tiene una palabra de asociarse a esa frase. En este caso, la que más probabilidad tiene es azul. ¿Vale? El cielo es azul. Os voy a poner otro ejemplo. Estos moveros de lenguaje realmente quieren imitar lo que es el cerebro humano. ¿Vale? Entonces, piensan de una manera similar a la que podríamos pensar nosotros. Pero tienen una serie de deficiencias y que todo lo que te van a contar se lo tienes que ver previsto antes, ¿vale? O por lo menos darle alguna herramienta para que lo pueda adivinar. En el ejemplo este, que es bastante claro, ¿vale? Cuando le decimos a un LLM cuánto es 2 más 2, ¿vale? Es muy probable que nos responda que es 4, ¿vale? Pero no realmente porque ese LLM se va a sumar, sino porque se mira toda la información con la que ha sido entrenado y el trato de encontrar qué podría ir a continuación. Y se va a encontrar con que normalmente a lo de 2 más 2 igual o que cuánto es 2 más 2 se va a encontrar un 4 y nos lo va a responder y nos lo va a responder bien. Así funciona un LLM. ¿Pero qué pasaría si en esa documentación que yo le facilitado en ese aprendizaje que yo le facilité resulta que decimos que 2 más 2 es igual a 5 es una reformación arroja, ¿no? Bueno, pues si realmente solamente ha estudiado eso, solamente ha sido entrenado con eso lo más probable es que nos responda 5, ¿vale? Todos estos errores es que quieren arrocer los LLM cada vez menos, pero como tiene su tiempo de aprendizaje es lo que llamamos alucinaciones, ¿vale? Y es un poco lo que en un principio te traía a la hora de utilizarlo para la generación de contenido o para la generación de aplicaciones o para cualquier generación que queramos. Y eso suele ser porque los modelos o no conocen de qué le estamos preguntando y se lo va a inventar o no tienen buenos datos de entrenamiento, ¿vale? Los primeros modelos eran más jóvenes así pero hoy en día con todas las técnicas que hay no suele ser, ¿vale? Vamos a supear un poquitito de cómo funciona un LLM y cómo funcionamos ¿vale? Habíamos dicho que los LLM aprenden leyendo mucha información que facilitando de muchos datos de entidad, ¿vale? Y nosotros aprendemos, observando el mundo escuchando a la gente, ¿vale? El conocimiento que adquiere un LLM se basa en toda la información que les facilitamos muchísimos testos y el conocimiento que las personas adquirimos se basa en lo que nos han enseñado otras personas en lo que hemos aprendido de los demás o lo que hemos descubierto por nosotros mismos, ¿vale? Paso lo mismo con las respuestas. Nosotros un LLM va a responder a las preguntas buscando siempre patrones en lo que conoce y nosotros respondemos a preguntas pues utilizando entendiendolas, comprendiendolas y en base a nuestra experiencia y lo mismo a la hora de crear contenido que es lo que vamos a ver ahora, ¿vale? Un LLM puede tener respuestas creativas basadas en la información que tiene o puede al final si no tiene esa información y nosotros basamos en nuestros conocimientos o en nuestra imaginación en realidad nosotros cuando no conocen una cosa sí podemos alucinar, ¿vale? Lo que pasa es que un LLM posiblemente acabe la respuesta si no le vivo lo contrario y nosotros cuando vemos que no sabemos algo pues nos callamos, ¿no? Vale, pues teniendo en cuenta que es un LLM sabiendo que es una especie de proceso de información en una red neuronal vamos a ver cómo lo podemos utilizar para huertes, ¿vale? Todos estos modelos de lenguaje nos suelen facilitar una API es una interface que nos permite intercambiar información nos permite en este caso hacerles una consulta y obtener una respuesta, ¿vale? API de OpenAI y de todos los sellos de todos los modelos de lenguaje tiene una estructura muy cilida, ¿vale? Nosotros le damos una indicación al modelo esa indicación se le pasa al proceso y nos va a devolver una respuesta si conocéis un poquitito cómo funciona la API de WordPress o cualquier otra API, ¿vale? En este ejemplo que os pongo aquí veis que estamos llamando a un modelo de OpenAI que se llama YPC 3.5 Turbo estamos dando unas dedicaciones en este caso le estamos dando un rol y nos mira, eres un asistente útil ¿vale? y le estamos haciendo una entrevista en este caso que es la que trae el ejemplo OpenAI, es donde se fue la serie mundial de 2020 este se lo pasamos al modelo por esa información y son tan buenos que consiguen darnos un resultado en el idioma que lo hayamos preguntado ¿vale? Con la respuesta a la pregunta si la tiene sino se la va a inventar ¿vale? Por eso muchas veces nos encontramos con que algunos modelos están entrenados con datos pasa mucho con noticias y con documentación de este tipo hasta el año 2021 o hasta el año 2022 por lo cual todo lo que ha pasado de ahí hacia adelante en principio no lo tiene ¿vale? ¿vale? por otro lado tenemos la API de WordPress la API de WordPress es otro tipo de API, es una API res ¿vale? donde nosotros le indicamos un valor de algunas pilas de Wordpress y se los enviamos pues para que grave o para que haga una acuerdición o para que utilique una categoría porque he modificado un POS ¿vale? en este caso pues el proceso que tenéis ahí le voy a mandar un título, le voy a mandar un contenido y lo vas a publicar pues con la fecha y con la categoría que yo que yo te evita ¿vale? ¿Cómo vamos a relacionar estas dos cosas? Bueno pues es mi sencillo tenemos en indicación un prompt que es la manera de conocerlo o un mente en la API esa indicación la vamos a mandar a un modelo de interesante artificial ¿vale? le vamos a hacer una pregunta le vamos a dar unas premisas en este caso en el ejemplo este le vamos a decir eres un especialista en marketing de artículos de perfumería crea una institución para este producto ¿vale? el modelo va a propesar esa información para tener un título para tener una respuesta ¿vale? que nosotros podremos separar en título y en contenido y la vamos a publicar así es sencillo ¿vale? pero vamos a ver qué es lo que pasa aquí ¿vale? estos modelos de prompt pregunto o sea hago una indicación lo paso al modelo y obtengo una respuesta son propensos a alucinación que vaya a decir que me hago una descripción de un producto de perfumería y no conozca ese modelo en concreto porque tiene mucha información pero no la tienen todos para que sea un producto que sea nuevo es un producto que no conocer para que no conozca todos los artículos y todas las marcas ¿vale? entonces la evolución de los LLM hoy en día del LLM artificial ¿vale? nos permite que a estos modelos se les pueda facilitar información extra ¿vale? que es lo que le llamamos contexto ¿vale? yo no sé cuál es este producto pero sí que te puedo pasar un catálogo o te puedo pasar las características de este producto y tú me haces la descripción ¿vale? y ¿cómo puedo pasar esta información? te puedo pasar un vídeo de producto te puedo pasar una imagen del producto y así encarga el de sacar los polores y demás ¿vale? o le puedo leerle algo o pasarle un audio ¿vale? o mandarle un PDF de catálogo un texto ¿vale? el modelo va a procesar toda esa información y esa información nos la va a devolver en el formato que lo digamos porque queremos que nos saca si devolvamos una imagen queremos que nos devuelva una imagen modificada eso serían los modelos de imagen ¿vale? son otro tipo de modelos que nos permiten mediante difusores pues generar a partir de una imagen pues otra en el caso de nuestro casi siempre vamos a utilizar así algo de imagen pero sobre todo queremos contenido de test ¿vale? pero bueno que podríamos indicarle que mandarle texto con una versión y que nos devuelva un vídeo de poco vimos lo nuevo que tenía OpenAI en esto y cada vez son mejores generando en texto son muy muy buenos ¿vale? en imagen sin vídeo cada vez son mejores y cuando quedará yo posiblemente sea perfecto ¿vale? pues eso es lo que vamos a hacer ¿vale? os vamos a dejar el código aquí en esta dirección y en zoom porque parece ser que tú sí que vamos a dejar un enlace perdón la vista no tenemos una página de Conferrada WordPress lo compartimos por ahí entonces lo subire ahí y os voy a poder el ejemplo pues esto es lo que os he explicado desde las imágenes ahora sí consigo arrancar aquí Python no lo sé ¿estás compartiendo la presentación solamente? ah vale tengo que compartir la otra pantalla esto tengo aquí voy una pantalla voy a compartir vale voy a compartir la otra sería eso es solamente comparte una pantalla a la vez ¿no? si solo tenemos compartido los dos compartidos los territorios si quieres vale si de momento los compartimos si puedo compartir todos los territorios si quieres compartir los territorios no tienes que compartir uno solamente vale es una pena porque nos va a saltar vale bueno vamos a probarlo bueno os voy a dejar así por encima el código pero el código a lo mejor no os vais a entrar mucho sin ver cómo funciona vale pero vamos a vale claro el código este es muy sencillo ¿vale? os voy a pasar porque no vamos a entrar mucho en esto porque nos sería larguísimo vale dos programitas un programa ¿vale? en Python que simplemente va a conectar la API de OpenAI con nuestras preguntas ¿vale? y una serie de funciones que lo que hacen es pues crear un mensaje ¿vale? estas funciones no lo ves a encontrar así las ves a encontrar bastante comentadas ¿vale? y por otro lado un programa en Python ¿vale? que estará por aquí ¿vale? que nos va a permitir grabar en nuestro WordPress ¿vale? vamos a obtener una respuesta y esa respuesta pues te la va a mandar a un WordPress ¿vale? por favor vamos a pasar una vez templo pues bueno con esto os va a ir a WordPress ¿vale? voy a arrancar este programa porque si no me quedo en el editor para que no porque no lo vais a ver todo ¿vale? no voy a arrancar la aplicación y así comparto la parte de event ¿vale? esto cuando lo compartamos tengo unas instrucciones ¿vale? porque no tenéis que hacer osea no tenéis que hacer mucha cosa simplemente lo que va a hacer esto es arrancar un Chrome ¿vale? voy a compartir la pantalla otra vez pues ¿vale? y Carlos voy a ver cómo puedo compartir otra pantalla ¿vale? para que podáis partir y compartir otra vez la aplicación que vais a utilizar ¿vale? es muy parecida al ejercicio del canal simplemente tiene un texto osea tiene un cuadro de mensaje para ponerle una indicación y vamos a darle un contexto para hacer un artículo ¿vale? el contexto lo podéis dar en los criterios yo en este caso he cogido un catálogo del castillo de los templarios aquí de Juan Ferrada ¿vale? es un catálogo bastante grande de 5 megas ¿vale? que como es muy probable que ofen ahí no tengan ni para soler idea o por lo menos se ha ido a lo mejor de la wikipedia del castillo de los templarios ¿vale? y habrá cosas que seguramente la wikipedia no pone o habrá cosas que sí que ponga el catálogo ¿vale? el caso es que le voy a ver un contexto el contexto es el castillo y ahora le voy a ver un vídeo ¿vale? vale, le voy a decir pues crea un artículo un blog ¿vale? o un artículo para un blog ¿vale? o la temática, este documento temática este documento ¿vale? y le voy a decir una buena cosa y añade al final con los puntos de conciber es más interesante ¿vale? y es una pena que no podáis ver porque no puedo cambiar tan rápido el patalla porque ¿qué está haciendo esto por detrás? ¿vale? esto por detrás le está llamando a chagipiti es aquí si que lo podáis ver si lo que estamos en directo lo podemos ver así que animamos la próxima vez y veis estas cosas mandando esta consulta a chagipiti está leyéndose todo ese contexto tan grande que tiene que es un catálogo de la Interventa de Conferrada ¿vale? y con esa información va a hacer caso a las indicaciones que nosotros estamos viviendo ¿vale? y a la vez estas indicaciones las va a publicar en una página de WordPress ¿vale? la que ahora yo enseño que está echado en la aplicación que voy a compartir también es un botón para que no os publique automáticamente, como tampoco se veía muy bien cómo va a funcionar aquí pues le he hecho todo ese ¿vale? pues fijaros ¿vale? pues se ha leído el catálogo ¿vale? y ha salido toda la información y bueno, nos ha puesto un título de la Conferrada, una fortaleza de la historia ¿no es cuenta la historia de la Conferrada? ¿vale? nos cuenta algún artículo principio, propósito, el orden ¿vale? puntes templarios nos habla de los puntos que ha encontrado y el documento más importante pues los pices, los orígenes el puente por ferrata no sé lo que aporta en un documento pero estoy seguro que lo que me ha dicho ¿vale? es cierto ¿y qué ha pasado con esto? pues esto nos ha llevado a una página como lo ha hecho pero si yo consigo llevar aquí todo abriendo por otra estaña estaña vamos a ver esta la veis no, si vamos a ir punto de que es una página de Wordpress normal, que tengo para pruebas esto mal vamos a ella y fijaros, me ha quedado un artículo que es el castillo de los templarios una fortaleza para la historia ¿vale? bueno pues con todas las indicaciones que habéis ¿vale? ha puesto aquí alguna negreta y tal ¿vale? se ha considerado machinó la tabla y ya está así ves en fin ¿vale? para que lo veis es un poquito claro, tendría que enseñaros la parte de pantalla que lo hace vamos a ver si puedo cambiar de pantalla cada parte de pantalla que lo hace partir pantalla para que veáis lo que ha pasado aquí ¿no? nosotros hemos lanzado el mensaje la aplicación que en realidad son mandar los mensajes que visteis antes ¿vale? en la presentación ¿vale? de coge la información y nos la envía y lo que es OpenAI empieza a trabajar, estoy imprimiendo pantalla que es lo que está haciendo si puedo subir esto por acá arriba ¿vale? y nos empieza a generar contenido ese contenido lo empieza a probar empieza a dar los últimos mensajes de qué es lo que está haciendo y mensajes continúan que está procesando que está procesando y llega un momento donde hace toda la información y nos las cupe nos las cupe en formato JSON que nosotros lo recogemos y posteriormente lo metemos en acuerdo ¿vale? cuando veáis los archivos en Python que están comentados lo vais a ver claramente ¿vale? pues nada, esto es todo ¿vale? preguntármelo qué queráis que los intentos explique bueno pues para explicar este momento de preguntas yo tengo unas límites ¿tamaños que se pueden subir? me parece que son ahora mismo unas 100 pero el límite no nos tiene que importar porque cuando empezó un poquitito este tema de OpenAI el límite era el equivalente a no me acuerdo a 4.000 palabras 4.000 tokens ¿vale? después los hubieran 8.000 tokens ¿vale? ahora parece ser que ya va por 10.000 o por 20.000 tokens y lo que anunció ahora Google de Gemini me parece que están 10 millones de tokens por lo cual el problema del contexto no te tiene que preocupar quizás lo que te puede preocupar es el precio porque todo esto tiene un coste de consulta ¿creo? pero los costes son 4.000, es un poquitito más caro pero son cortes que son asuntos es decir, un artículo de este tipo nos puede costar 20.000 tokens no más subiendo todo ese contenido que era un fichero de 5.000 pero un fichero de 5.000 pero o sea de los de 5.000 pero era un fichero a ver si lo puedo, bueno lo vais a ver porque lo subiré en el ejemplo aquí si que lo estamos viendo pues se pedimos está es el tatalo o sea es un fichero que lleva texto lleva imágenes y el mismo se encarga de de separar lo que es texto de lo que es imagen pero si podemos hacer la pantalla vamos aquí compartimos otra vez y está, fichero que hemos subido para darle contexto es este fichero el tatalo de la intamienda y sobre este fichero le podríamos seguir haciendo preguntas para que me vaya a fundar no tiene más podríamos con el modelo que tenemos pues está aquí pero hay una versión de este que es tipo vision si que lo podríamos si lo podríamos vale hay otros modelos que son específicos para generación de imagen, hay modelos específicos para generación de images porque hemos utilizado nosotros, es muy bueno entendiendo pero no pintado la verdad este es bastante bueno escribiendo otra vez es el trabajo de esta gente que ya hemos visto que las imágenes no se relajan bueno, hay muchas más cuestiones la versión de compren ahí de imágenes son bastante buenos esto va mejorando diálico porque van estudiando las capacidades de los modelos y van con nuevas técnicas esto llegará un momento en que prácticamente no tenemos que muy poco escribir o llarme esto y ya está a la paridad de los consumidos cada vez, de la medida en que la base de datos de la AI aumenta cada vez tiene más capacidad de respuestas sin embargo, esto puede ser más atractivo o un momento para las personas y en ese aspecto pues entran muchas cuestiones solamente de darme conocimiento pero fíjate realmente a un mobile del lenguaje no le importa lo que está haciendo le va igual con esto hay que decir realmente es un juntar letras una, la probabilidad que tenga de que la letra está la de la otra imagínate que yo dentro de este contexto le voy varios artículos tuyos propios que están bien escritos que es tu estilo de escritura se les va a imitar a la perfección porque va a entender que esa es la manera de escribir cuanto más documentación tenga para poder lo que hemos tenido que comienzo a imitar porque realmente está pensando cómo hacerlo está detectando cómo es el sistema de escritura se lo va a hacer si yo ahora mismo que le he dicho escribe un artículo de blog si queréis vamos a esperar la prueba escriba un artículo de blog sobre castillos de los templarios al estilo de góngora me escriba el estilo de góngora sin ningún problema porque a góngora sí que lo conoce por qué tú puedes escribir un texto romántico y el tema es romántico pero es que hay una forma romántica si si él conoce el estilo te lo va a hacer perfecto y si no, no te va a llevar más remedio que añadirle entrenado en ese tipo de escritura o añadirle ese contexto y te aseguro que le vale muy pocas cosas me pones 10 ejemplos o 13 ejemplos de obras literarias con ese estilo de escritura romántica y en seguida te lo va a hacer le vas las indicaciones para que te diga esto es así las premisas que tú quieres y te lo va a sacar muy bien nada más mejor llevado un poquito a lo que está diciendo él si yo le doy mi blog que tengo mil artículos publicados te va a escribir los 25000 bueno tienes que escribir la temática tienes que ver la documentación le voy a deducir más esto que los publico en la red de calendar y contenidas para el 25 año si, perfectamente ahí el límite lo tenemos en el contexto ahora mismo no sé cuánto está pero bueno no sé si son 8000 8000 palabras o así pero bueno estamos hablando de que Gemini llega con muchísimas más y estos llegarán con muchísimas más en la próxima versión pero vamos, le puedes meter un libro entero como vamos a poder distinguir que antes en Chacau se iba al límite del vago y ahora bajo el vento y ahora bajo la caída y se va a ver ¿cómo está a necesitar un profesor? no lo vas a poder desarrollar si es disto que es el libro del aspecto artístico del límite, si lo ha escrito una idea no lo vas a poder distribuir igual que ahora con los escritores por eso un negro que lo estás viviendo pero en el caso de los niños no lo vas a poder escribir bueno pues que tendrá que un poquitito entiendo yo el sistema de educación tendrá que ser una educación menos de hazme esto y más de interactuar, más de otro tipo los sistemas de examen o de control serán de otro tipo es un problema no es solamente un problema para educación de pequeño para la universidad también han sentado normas de que a ver cómo usamos esto el problema que la ventaja que había antes es que un modelo de lenguaje este tipo puedes detectar si no le dices nada, según bienes cómo está el CPT puedes detectar facilmente un estilo de escritura a lo fina de vez en cuando, porque no se lo sabe pregunta sobre todo que son muy recientes, pero ahora mismo no, porque tú si llevas un contexto es decir, tú lo conectas a internet le vas a ser blog y se sabe todo, lo conecto al diario de León te vas a ver las noticias de hoy y encima te las va a volver a redactar y te vas a ver lo importante, o sea, le paso al diario y oye, no quiero rollos lo estrictamente importante y me haces un resumen y eso es el camino pues el camino de eso está allá cuando se sale el camino, pues no será mucho mayor pero a nivel de educación sí, es un problema hay que cambiar el sistema eso es como cuando las calcula ahora implica que no debamos saber sumar pero después te van a dejar la calculadora te la vas a ver hasta la universidad y te la van a dejar, si no sabes hacer el problema tema es la que se pasó y esto va a ser una cosa parecida el problema es que está encima de Juan C. Perrorre hay modelos muy específicos y cuando estábamos hablando antes de alguna web que tiene que traducir idiomas antes se utilizaban traductores específicos que había específicas que un modelo de este tipo como el de Microsoft como el de Google, de Gemini que están hablando de 10 millones de tokens un millón de pico de tokens ahora y van a eso incrementando pasamos un dicionario entero de un idioma un idioma que no lo conozca a nadie con sus ejemplos de plazas y demás y ya lo ha perdido y te va a traducir cualquier cosa he hecho la prueba que tienen es por un idioma que no sé dónde es que lo hablan dos ciertas personas y ahora mismo pues yo le pregunto en espanol y me conecta en espanol pero le puedo decir oye hazme un artículo de blog pero me lo haces en polaco sobre el castillo de los templarios se coge su texto y el resultado final es en polaco porque esto lo haces por la parte de pago de... esta es de pago es una cosa muy rara en las que los insomíntoques me parece que la versión 4 tiene 16.000 es la suma del contexto más la respuesta pero normalmente se lo gasta todo el contexto no necesito una respuesta tan grande si quiero hacer un libro de pasero un contexto a ver capítulo háblame le voy a ir alto y me voy a decir continúa con esto y me voy a ir haciendo el libro pero el contexto es el mismo vale, luego el cuento del tema de las fotos que no las puedes generar en las imágenes pero las van a ver bien pero las llega a a leer como contexto si, usted tiene la capacidad de revisar lo que ve en las imágenes para bueno, cuando subáis el ejemplo lo vas a ver porque escamas se ven muy claras y van a ser un poco de si es que se van a gustar, es por ser un aspecto de Jason hemos utilizado el modelo 3.5 vale un apartado que tiene re-tria para resumir información pero en el programa este que voy a estar tiene otra parte, que es el vision, donde yo le subo una foto y me vale por ejemplo lo que te escribo en el ar vale, este es el castillo este es una vista general, estos son los espacios les vale todo un vídeo son últimobiles antes no solamente texto y ahora ya tanto chatpetei como gaming son 24 vale, y incluso una dirección si le puedo pasar esta dirección y le de este hace un resumen bueno si lo hacemos a ver en el caso de chatpetei, cuando estamos utilizando la app desde Python él sabe que es una opción de internet somos nosotros los que tenemos que ir a ella y explicar y traer contenido de momento no la vgmini la vgoogle si, la vgoogle si que sabe y traer contenido la app y la chatpetei no lo hace la app y lo hace la que es de Python la toma de 20€ si, pero la app si hay que pagar por la app o sea la que es la app y por el modelo aparte no, la app la app se paga si tu vas de alta y ya por darte de alta tienes acceso a una si metes un que van a regalar 15€ o si si metes un la 3ª de crédito ya conforme la estás utilizando ya te estás consumiendo y lo que entiendes es la posibilidad de que tiene un fin de mano para poderse bajar de la página web eso es en open para bajarse otras páginas web para que las leas me la resumen eso es de yemin y lo hace pero el jopen ahí me parece pero bueno, se puede scrapear o sea, scrapear es decir como respare ese contenido y ya lo hace aparte tenemos aquí nuestros puntitos en la chat vamos a darles contexto el contexto lo hemos alimentado de forma anual con la carga de un quichero entiendo que sería compatible y ahora estamos una basada visualizada para que se traiga esos contextos en una búsqueda por similitud en elastic search por ejemplo el elastic search con qué el elastic search en cloud no lo sé por defecto tiene una serie de formatos la propia documentación a pideopen ahí si vamos a formato excel formatos csv sql darlo de formato de grabar de archivo pero bueno, siempre hay maneras de convertir lo que queremos y pasarlo antes por una aplicación pero por defecto pdf por ejemplo si estamos hablando de consultar una base a dos que por la tipología es muy grande probablemente son muy grandes bueno, ahí todo dependemos de límites de contexto es que dependen de lo que llaman muy grandes y por ejemplo, una base a tres cql de tres mil artículos la lee perfectamente si, pero hay no tan límites como el valor que decíamos es que aquí cuando estamos utilizando los que suben archivos intervienen otra cosa que no lo he explicado que no es el contexto en sí es ellos tienen un sistema que se llaman babies de incrustaciones donde todo eso cuando es muy grande porque el método 10 megas de información lo parte en cachos y después lo va a recuperar lo va a recuperar conforme lo necesite que es un sistema que se llama RA y entonces ahí ya rompemos el tema de de los de límites de contexto porque como ya tengo algo resumido el paso resumido me me ha dado la respuesta pero la base de información es mucho mayor en el caso específico este el asset set ¿cuál? si, crea como un si, crea un sistema lo parte si, crea una base de tokens porque todo esto que nosotros estamos metiendo en realidad lo convierten números y esa base de datos material la puede almacenar y después puede decodificarlos y buscar en ellos y recuperarlos y barnos de información que nosotros necesitamos claro, si vale, más preguntas que tenemos por aquí estamos usando el modelo 3.5 de SAPT se puede reentrenar con fine tuning si, pero nosotros este que utilizo ahora en el ejemplo era 3.5, el que he usado era el 4 pero bueno, podéis utilizar cualquiera el sistema de recebiles admite muchos ¿vale? se pueden entrenar, si se pueden entrenar es interesante entrenarlos bueno, pues a ver, hoy en día no vale, porque sale muy caro y porque piensa que supongamos que la versión esta de 4 de SAPT tiene almacenados 70 mil millones de parámetros ¿vale? yo le voy a meter un entrenamiento y lo voy a meter pues mil ¿vale? no le va a arrolar mucho no le va a ayudar mucho a lo que ya tiene ¿vale? por eso la mayoría de las veces ahora mismo lo que se está haciendo es crear buenos contextos grandes ¿vale? y recuperar lo que necesitemos, con técnicas que den babies que te facilita echa GPT para hacerlo echa GPT otros ¿eh? más, ya va también te facilita sus sistemas de en babies para para guardar la información que queremos nosotros que sea especialista en entrenamiento antiguo que decíamos el finetuning y recuperar ¿vale? se puede hacer finetuning que es un entrenamiento que es un entrenamiento más cosas pero salga a arrocar ¿no? la pregunta también por dos alternativas lanchein y zoran ¿vale? lanchein ¿vale? lanchein es un sistema es como un marco para hablar con distintos lenguajes ¿vale? lanchein es como un marco que ya tiene hechas una serie de funciones para que el primero pueda guardarme esta información recuperarla, el rato lo hace directamente ¿vale? o hacer distintos procesos tipo asistentes ¿imaginaros lo que lo que decías tu antes de ir a internet? ¿vale? lanchein te hace eso, es decir le pregunto a hecha GPT oye, sacame la información de StarWare y hay un proceso de lanchein que es un marco un python ¿vale? y el que va a recoger su información te la va a traer y se la va a meter a hecha GPT eso es lo que se llama un asistente bueno pues con lanchein si podrías recuperar la información para el software PT o para Gemini o para Llama o por cualquiera de ellos también ya lo hacía de pias que eres la gente ¿no? lo hacía de hacerle pias lo hacía de la gente ¿no? ¿lo hacía de la gente ¿no? ¿lo hacía de la gente ¿no? ¿lo hacía de la gente ¿no? ¿lo hacía de la gente ¿no? ¿lo hacía de la gente ¿no? en temas de peligrosidad yo ni me fui ahí ellos tienen ninguna opción de decir ¿tus datos nos vamos a usar? en principio le dices no, no los uses ¿vale? pero bueno, me resisten allí yo no lo haría si yo para una empresa por ejemplo no utilizaría sin un acuerdo bien tal de conciencia de hecha GPT hay otros que sí que los puedes tener en el local y que los puedes utilizar pero para algo en la nube ¿lo has terminado? sí, sí, es muy bien terminado ¿lo hacía de la gente ¿no? hay varios, por ejemplo a mí el que más me gusta es Mistral que es de los francés y ese tiene versiones pequeñitas que podrías tener aquí en el portal depende para lo que quieras por ejemplo si es para definir artículos artículos para un comercio electrónico y tal, que valdría a presentar es muy bueno y en el local porque si no es una máquina a vota ya, para parciar una tabla de no sé sacame esta tabla te valdría Mistral sacame toda la tabla te valdría Mistral pues me recuerdo hasta de hoy la dirección porque hasta hace poco regalaban 150 euros para que hicieras pruebas con la no sé si lo están haciendo ya los hay también los hay también bastante bueno ¿y en Gran Turismo de abajo? si, si, si bueno a ver con la IP para con la IP prácticamente todo hay que apagar excepto que instales tú en el local un sistema pequeñito pero los chat de escribir y demás son todos tienen su versión gratuita a todos el de Google tiene es gratuito el de Bixi que son unos chinos gratuito el de Mistral es gratuito tu antrópica es gratuito hay unos cuantos pues te voy un listado y puedes practicar con cualquiera de ellos ahora si lo que quieres es hacer un programita que te metan WordPress y todo eso ahí ya tenemos que tirar de no sé si alguna si me parece que hay alguna versión de llama WordPress que se podría utilizar con un lab te creo que es su bueno pues si os parece como unas cuestiones vamos hablando por aquí y ya podemos hablar de otros temas muchas gracias Chuchu lo tenéis en un día subido a vosotros TV y os mandaremos el enlace a todos que hayis estado o salis un poquito al menos al diario yo corto por aquí aquí aquí me has quitado y se me mueve los botones