Bueno, lo primero presentarme porque algo 00:00:11.880 --> 00:00:14.880 Soy Fernando Pescador, vicerrector para la Universidad Digital y dentro de mi vicerrectorado pues trabaja conmigo Jessica Díaz, profesora de la Escuela de Sistemas Informáticos, que desde la Oficina de Apoyo al Docente es la que realmente han organizado todo todas estas serie de conferencias. Y bueno, pues nada, agradecerle a ella, a Sonia y a todo el equipo, por el mogollón de trabajo que han tenido que hacer para poder poner en marcha esta iniciativa, a diferencia de lo que hicimos en otoño, digamos en este primavera, hemos hecho unas conferencias un poco más, eh, digamos orientadas a diferentes colectivos. Hay algunas empresas para PTGAS, para investigadores, otras para profesores. ¿En cualquier caso, si la temática os interesa, está todo está abierto a que os apuntéis a cualquiera de ellas Las hemos aumentado un poco. Pues para que también veáis hacia dónde, hacia dónde van o hacia dónde están orientadas cada una de ellas. Los ponentes de hoy son Javier y Fernando, que tienen la cámara activada. ¡Hola chicos! ¿Qué tal? Profesores, Creo que los dos de la Escuela de Sistemas Informáticos. No uno de una informática. Vale, pues perdonad. Bueno, ahora os presentáis de todas maneras. Y nos importa. Disculpad, que os. Os he metido en la escuela incorrecta. 00:01:37.960 --> 00:01:42.200 Pues como sabéis, el título de hoy es un poco una presentación general y algunos conceptos generales de de de inteligencia artificial. Y bueno, la ronda esta de de conferencias tiene un poco como objetivo ir evangelizando un poco en la comunidad con idea de que ya en próximos cursos, próximos eventos pues ya demos unas formaciones un poco más completas, más regladas. Pero bueno, de momento este es un formato que podemos organizar de forma ágil y que la edición anterior que hicimos en otoño, pues la verdad es que hemos recibido muy buenos comentarios y por eso nos hemos animado a hacer una segunda edición, así que yo no me entretengo más. Javier Fernando, no sé cómo tenéis organizada la presentación, pero todo vuestro vale. No he comentado una cosa. Como somos un montón ahora mismo. 133 Bueno, nos nos alegra muchísimo que haya tanta gente. ¿Es un lujazo tener a tanta gente online, eh? Para evitar interrupciones y demás. ¿Pues en principio, como sea, quitamos los micrófonos y si hay alguna cuestión, digamos estamos pendientes del chat y nos la vais poniendo por el chat, que es más fácil, vale? Así que Javier, Fernando ahora sí, ya, definitivamente os paso la palabra. Muchas gracias Fernando. Arranco yo y deberías estar todos viendo mi mi pantalla. Creo que sí. Vale. Bueno, pues yo soy Fernando Ortega. ¿Vale? No confundir con Fernando Pescador. Estamos ahí. Dos Fernando Y para no tener líos tenéis aquí también mi correo electrónico. Vale Fernando Ortega. El punto es por si quisieras hacerme cualquier pregunta posterior, lo que fuera. Y voy a dar 1/1 de esta charla de iniciación a la inteligencia artificial generativa. 1/2, la de la Javier, la mía, es un poquito más a nivel teórico. Vale que entendáis cuáles son los fundamentos que hay detrás de esos grandes modelos de lenguaje que hoy en día utilizamos todos y Javier dará una parte un poquito más aplicada, entendidos a estos conceptos previos. Vale, es una charla de una hora. Os lo voy a contar para que tengáis la idea general de cómo funciona esto. Aunque es verdad que los mecanismos que hay detrás para entenderlos bien, pues en un poquito más complejos. Pero vamos, no tengáis miedo en preguntar cualquier cosa y os ayudo en lo que sea. Entonces, lo primero, vamos a hablar de qué es la inteligencia artificial, más a modo filosófico. Vale que tenéis unas definiciones un poquito largas y él hace resaltado algunas palabras que considero importantes. Vale, es una rama de la informática. Esto se puede realizar a raíz de la informática, aunque no es una disciplina única de la informática, que hay muchas matemáticas metidas y la inteligencia artificial sin matemáticas no podría existir. Y luego también están entrando otros factores como valores éticos y cosas por el estilo que hay que valorarlos dentro de lo que es la inteligencia artificial. Pero la potencia realmente que esto empieza a funcionar ha sido la informática, pues nos quedamos con con esa tribu de gran creación que hemos hecho entre todos los que trabajamos en informática y lo que buscamos básicamente es imitar la inteligencia humana. Queremos una máquina que sea capaz de imitar lo que hacen los humanos y de ahí el término de inteligente. Para ello la silla lo que tienen que hacer es aprender. Ahora entenderemos qué es esto de aprender artificial. No es lo mismo que el aprendizaje humano, pero bueno, como queremos darle publicidad, vale hacer que esto se venda muy bien. Decimos que la inteligencia artificial es aprenden a partir de la experiencia que han ido observando. Al final de todo, la inteligencia artificial se basa en una serie de algoritmos y unas reglas matemáticas que son los que le permiten luego poder funcionar, como veremos en las siguientes diapositivas. ¿Cómo ha ido evolucionando la inteligencia artificial a lo largo de la historia? ¿Bueno, pues lo primero que vino ya cuando empezaba la informática es por qué si tenemos ordenadores no conseguimos hacer también máquinas inteligentes? ¿Con esta idea en la cabeza? Alan Turing, uno de los padres de la informática, propuso lo que se conocía como el Test de Turing, año 1950. Fijaros si hace tiempo que ya se habla de este concepto. El test de Turing era una idea en la cual una persona tenía que interactuar con un humano y una máquina a través de un teclado, una pantalla y si se decía que no era capaz de distinguir que era el humano y quién era la máquina, pues habría pasado esa máquina, habría pasado el test de Turing. Hoy en día, con los modelos de lenguaje decimos que lo podemos tener resuelto, lo cual no quiere decir que realmente la máquina sea inteligente como tal, o sea, para darle inteligencia, pues harían falta muchas más cosas. Pero bueno, este primer concepto que definió Turing es el que se basaban para crear las primeras inteligencias artificiales. El término de inteligencia artificial se acuñó por primera vez en el año 1956 en la conferencia de Dartmouth, donde un grupo de personas de referencia a la informática se reunió para hablar de qué necesitarían las máquinas para ser inteligentes. Entonces ahí empezó el término a popularizarse. A partir de ahí nos vamos a la década de los 80, cuando surge las redes de neuronas, redes neuronales artificiales que hoy en día están tan de moda. Fijaros que no es una tecnología moderna. Luego veremos por qué ahora están más de moda, tienen más de 41 antigüedad y básicamente se quiso hacer un modelo matemático que mirara cómo funcionaba el cerebro humano A través de las conexiones de de neuronas empezaron a aparecer los primeros algoritmos de aprendizaje supervisado y bueno, pues empezamos a conseguir hacer que las máquinas fueran semi inteligentes. Pensad de todos modos en la potencia de cómputo que podíamos tener los 80, pues era muy limitada la cantidad de datos que teníamos era muy limitado y eso hacía que las redes tampoco se popularizaron demasiado. Obviamente todo esto siguió para adelante. En los años 2000 ya Internet era una herramienta de uso común para todo el mundo. Eso propiciaba que hubiera más herramientas, hubiera más datos, hubiera más usuarios y empezaron a aparecer algoritmos de aprendizaje automático o machine learning y diferentes modelos de predicción de datos, motores de recomendación, análisis predictivo. Digamos que el utilizar los datos para que las máquinas aprendieran se convirtió en una moda, en algo que se empezó a utilizar. Y a partir de ahí sí que la inteligencia artificial empezó a despegar realmente hacia usos comerciales y que llegaran a cualquier persona que la que quisiera utilizar. A partir de los años 2010, pues imaginad esa década ya es que Internet se popularizó a tope. Teníamos un montón de dispositivos móviles inclusiva, teléfonos móviles con conexión a internet, muchísimos datos. Aquí las redes neuronales vuelven a surgir 30 años después de que aparecieran gracias a unas redes que se llamaban redes convolucionales. Si habéis ido siguiendo más o menos la evolución, seguro que visteis esas primeras redes que se encargaban de hacer filtros a las imágenes. Quiero que me pintes como si fuera un cuadro de Van Gogh o del artista que fuera. Esto lo hacían gracias a redes convolucionales, por supuesto. Están años luz de los modelos que tenemos actualmente. Años luz para para mal eran mucho peores, pero fueron las primeras que empezaron a poder tratar con imágenes, a reconocer objetos dentro de imágenes y a poner a redes en una posición dominante respecto a otro tipo de algoritmos que antes no lo tenían. También aparecieron las redes recurrentes, que fueron las primeras que empezaba a trabajar con secuencias principalmente de palabras en el dominio que estamos trabajando ahora, en el que veía las frases como una secuencia de palabras y la red está pensada para trabajar sobre esas secuencias de palabras. Como hito de esta década, tenemos que el algoritmo de Deep Mind de AlphaGo vale, que es un algoritmo que sacó Google, fue el primero que logró vencer al campeón mundial del Go, que es un juego que tienes que ir, un juego de Asia que tiene muchísima complejidad, de muchísimas combinaciones para hacerlo. Y entonces consiguió un algoritmo que no por fuerza bruta conseguía ganar a los humanos. Y esta máquina fue la primera que consiguió derrotar A1A1 campeón en una partida. Parece que el resultado fue a cinco partidas y ganó cuatro uno la inteligencia artificial. Entonces la iba, iba, iba dando pequeños pasitos para convertirse en una herramienta que realmente podíamos utilizar. Y ahora estamos ya en 2020, avanzando en los 2020. Y todas estas herramientas creo que son conocidas para todos los que estáis en esta charla, seáis informáticos o no, porque todo el mundo ya oído hablar de GPT y seguramente haya utilizado y GPT tres utilizado Gemini, habréis utilizado CoPilot, Cloud, Llama o cualquier otro. Esto se ha convertido ya en una herramienta de uso de dominio público. Vale para todo el mundo. Cualquier persona la tiene. Hoy lo tenéis disponible en ordenadores, en móviles. Todo está conectado con la IA y bueno, pues han convertido en herramientas extremadamente útiles tanto para la industria como para nuestro día a día. ¿Entonces estamos en el boom final o final? Bueno, ya veremos dónde lleva esto de inteligencia artificial, que se ha integrado completamente en las rutinas de las personas. ¿Visto este pequeño repaso, es la pregunta que nos cabe es cómo funciona realmente Inteligencia artificial? Decir que esto Nosotros nos metemos en GPT, en Gmail veremos una frase y nos contesta Entonces. Pues vamos a ver si puedo explicar en media horita más o menos cómo funciona esto, que al menos tengáis una idea de cómo funciona y luego ya el que quiera indagar más o me pregunta o vais mirando por ahí que hay un montón de información, cursos y de formaciones que podéis hacer en este ámbito. Entonces, lo primero que tenemos que hacer es cuáles son los los actores que intervienen para hacer que una inteligencia artificial funcione. Lo primero que tenemos son los datos. La inteligencia artificial va a aprender a partir de datos y para aprender a partir de datos necesitamos muchos, muchos, muchos datos sobre los que aprender. Gracias a que las últimas décadas cada vez tenemos más datos porque cada vez estamos más conectados a Internet, pues conseguimos entrenar, mejorar las máquinas. Las máquinas lo único que hacen es van a repetir lo que ven en los datos. Lo que pasa es que los volúmenes de datos son tan grandes que nosotros no somos capaces de programar eso, sino que le dejamos a la máquina que se ponga leer datos a leer datos o leer datos y encuentre patrones que que hay por esos datos para poder replicarlos. Así que necesitamos de datos para poder funcionar. Y como podéis imaginar, cuanto mejor sea los datos, mejor aprenderá la IA. Y aquí vendrá uno de los grandes problemas que tenemos con las guías, que comentaré un poquito más adelante. Luego también necesitamos algoritmos, necesitamos algoritmos que sean capaces de leer estos datos, de interpretarlos y de sacarles provecho. Existen diferentes formas de entrenar y redes neuronales, una de ellas dentro de renovables tenemos un montón de familias de, como comentaba antes, redes convolucionales, redes recurrentes o las arquitecturas de Transformers, que os contaré más adelante. Pero hay muchos otros algoritmos que funcionan aquí. Algo más clásicos de cosas tan simples como un modelo de regresión que muchos habréis trabajado o sistemas de clasificación más complejos como Random Forest Bus o sistemas de aprendizaje no supervisado o clustering, o cualquier otra cosa. Vale, entonces tenemos muchísimos algoritmos y también ha ido surgiendo nuevos algoritmos que permiten hacer las cosas de forma diferente, el aprendizaje a partir de datos de forma diferente y por lo tanto tener resultados distintos. Y por supuesto, necesitamos este, esta pauta que es la potencia de cómputo. Si tenemos muchos datos y el algoritmo, por muy eficiente que sea, va a tardar mucho tiempo y si tarda mucho tiempo, nosotros queremos resultados para hoy. No nos vale lanzarlo y decir bueno, yo lo pongo a ejecutar y en diez años me das un resultado. Eso no sería válido hoy en día y por lo tanto necesitamos herramientas hardware que nos permitan ejecutar estos algoritmos sobre esos datos en un tiempo razonable y razonable. Bueno, pues pueden ser días, semanas, meses, según el objetivo que queramos conocer. Seguro que también abrir. Leído mucho sobre el tema de consumo energético, cómo están los grandes centros de datos, los precios del hardware derivados del aumento de memoria RAM, GPUs, CPUs. Bueno, pues estamos ahora requiriendo tanta potencia de cómputo que básicamente escasea los recursos hardware, escasea la energía. Vamos a ponerlo ahí un poco entre comillas. Tampoco que estemos teniendo que apagar las luces, pero es verdad que esto se empieza a poner en un problema porque los algoritmos están continuamente ejecutándose, ejecutándose y eso requiere mucha potencia. La IA no habría podido aparecer para el público sin ninguna de las tres patas. Vale, si no hubiéramos tenido suficientes datos derivados de Internet que nos hubieran permitido entrenar algoritmos que han ido evolucionando los años y no hubiéramos tenido un hardware en el que hacer que estos algoritmos, la primera de esos datos, esto no habría podido funcionar. Si que necesitamos los tres, ir evolucionando poco a poco, los tres para que la IA siga avanzando. El pipeline vale el flujo de trabajo que tenemos cuando trabajamos con cualquier algoritmo de inteligencia artificial, la inteligencia artificial generativa. Lo primero que habría que hacer de nuevo, incido, es recopilar datos. Necesitamos un conjunto de datos grande, heterogéneo, limpio, con un montón de propiedades que todos entenderíais deseables. Y esa es la parte más costosa. Al final, lo más difícil es esto porque requiere de muchísima intervención humana, generalmente para crearlo. Una vez que los tengamos, esos datos se procesan, se limpian, se les aplica una serie de reglas para dejarlos válidos para la IA y a continuación se le pasan a los algoritmos de aprendizaje. Elegimos. Bueno, pues esta tarea la quiero resolver con este algoritmo. Voy a probar estos pocos a ver cuál lo resuelve mejor. Eso nos lleva a una fase de optimización. Estos algoritmos hay que ajustarlos un poquito. Tenemos una serie de configuraciones que queremos, le podemos poner y tenemos que andar jugando con métodos de prueba error más o menos complejos para ver cuál es el que mejor hace la tarea para que queramos entrenar la IA. Una vez que lo tengamos tendríamos que explotarla, la podríamos lanzar ya al mercado. La IA aprendido la ponemos en el servicio, seguramente un servicio web o algún sitio en el que podamos ejecutarla y ya vamos dejando que la IA vaya evolucionando. Vale, pero siempre es lo mismo captar datos, entrenar la guía y luego ya la subimos a producción para que podamos explotar sus resultados. ¿Y entonces qué es esto de que la inteligencia artificial aprende? Esto es lo que se dice los periódicos. La he aprendido. A En realidad no estamos aprendiendo como concepto filosófico de aprendizaje, sea el que sea, sino que lo único que estamos haciendo es optimizar una serie de funciones matemáticas. Lo que hay detrás de la IA en realidad son todo matemáticas. Y esto funciona porque las matemáticas que tiene tras funcionan. Os lo voy a ilustrar esto con un pequeño ejemplo. Uno de los problemas clásicos que tenemos cuando empezamos a estudiar técnicamente gente artificial es queremos predecir el precio de venta de una casa. ¿Por qué hacemos esto? Porque nos interese mucho crear inteligencia, que precisamente de casa no, porque tenemos muchos datos que no es. Es muy fácil para vender casas. Imaginad que tenéis un portal inmobiliario y tenéis una serie de casas con todas sus características. Entonces tenemos, por ejemplo, los metros cuadrados que tiene la vivienda, cuántas habitaciones tienen, que año fue construida, el tipo de vivienda, si tiene o no tiene jardín, si tiene o no tiene terraza, un montón de características propias de la casa. Esto ya los tenemos o puramente los portales inmobiliarios. Tiene un pequeño formulario, una persona a mano donde viene el gran coste. Ha ido rellenando todo eso, haciendo visitas a las casas para tomar medidas para ver cómo son. Y a largo de los años las casas se han ido vendiendo y comprando, vendiendo y comprando y por lo tanto, lo que necesitamos para hacer que la IA aprenda es a parte de estas características, son las ventas de casas de los últimos, por ejemplo diez años. Vale este numerito lo puesto por poner alguno, pero necesitamos muchas ventas de casas para que pueda aprender. Entonces estos son los datos que nosotros hemos ido recopilando en este caso a lo largo de diez años y los tenemos todos guardados en algo tan sencillo como una hoja de cálculo. Vale, tenemos una tabla con las características de cada una de las casas y el precio de venta. ¿Cómo podemos hacer una IA para que aprenda de esto? Lo que tenemos que hacer es definirnos un modelo que nos permita combinar todas estas características para obtener el precio de venta. Y uno muy sencillito. Podría ser una cosa como esta. Vale, tenemos el precio de venta. Vale, es igual a, me cuenta. Creo que no veis el puntero del ratón porque yo voy señalando cosas y ahora me parece que no lo veis. Si, si lo vemos, si se ve a Vale, perfecto. Si vamos entonces tenemos el precio de venta será igual. Vamos a poner por ejemplo un valor básico. Decimos una casa solo por el hecho de ser casa la ponemos a 100.000€ por poner un precio y a continuación decimos vamos a incrementar ese precio en 8.953€ por cada metro cuadrado que tenga la vivienda. Estos números me los inventado, vale completamente solo para ilustrar el ejemplo y luego vamos a multiplicar ese precio. Vamos a sumar a ese precio 23.764€ por el número de habitaciones que tenga, de tal forma que es una casa, tiene cinco habitaciones, vale más que si tiene tres, que es una casa, tiene 200 metros cuadrados, vale más que si tiene 60. Y haciendo esto podemos tener una función que dormita, calcularlo. Ahora bien, cómo yo soy capaz de definir este 100.000, este 8000, este 23.500 aquí puesto, lo que vamos a hacer es que la red, la casa, la función matemática, la IA tenga una serie de parámetros. Esto lo llamamos parámetros que queremos aprender. ¿Y esto mismo que tengo aquí arriba es aquí puesto con palabras genéricas, vale? Con símbolos genéricos el precio de venta será igual a un W0 que se corresponderá con el precio base de la casa, más un modificador de la característica, una que aquí era metros cuadrados, pero podría ser cualquier caso. Más más más más Un modificador de la característica n que podría ser el tipo de el tipo de vivienda. Incluso estos pesos podrían ser negativos. Por ejemplo, si la casa es un bajo, a lo mejor le resta precio que si es una casa que está en un ático o cosas por el estilo. Y lo que hacemos es vamos a hacer que el sistema aprenda por sí solo y planteamos lo que decimos que es un problema de optimización. Un problema de optimización es resolver esta función matemática es Encuéntrame los valores de w0 w1 wn que hagan mínima la función. El precio que yo tenía por aquí aprendido. Por eso se llama aprendizaje supervisado, porque yo ya conocía los precios de venta de la casa, menos el precio que está prediciendo mi sistema. Esto es justo la predicción que está sacando y esto lo llevamos al cuadrado para que si me equivoco por arriba o por abajo me da igual. Yo quiero saber que me he equivocado y no se me he equivocado en exceso o en defecto. Si nosotros resolvemos esto, por ejemplo con algoritmo descenso de gradiente, hay muchos algoritmos que resuelve este problema. Obtenemos el conjunto de parámetros w0 w1 wn que hacen mínima esta función, es decir, conseguimos el sistema que predica los precios de venta de las casas con el menor error posible. Y esto es cómo funciona toda la guía. Vale, ahora mismo bueno, toda alguna que no, pero el 99% de la guía funciona de este modo. Simplemente planteamos un problema de optimización. Una vez que hemos definido la función, le pasamos datos y la guía se pone a aprender. Vais a ver que incluso los modelos de Transformers que se utilizan actualmente funciona así, con sistemas mucho más complejos que esta simple ecuación que tenemos. Pero este es el modelo más básico. Introduce un concepto importante que es que la IA, como lo decía antes, en realidad no está aprendiendo nada, no está aprendiendo en el sentido de aprender, está optimizando unos numeritos de tal forma que cuando llegue a una nueva casa, como yo conozco estos números, le pongo en x1, x2, x3, xn las diferentes características que tiene y me dice cuál es el precio por el que debería venderse esa casa. Pues esto mismo se hace así para todo. Así que la IA plantea dos grandes desafíos. Por un lado, tenéis que ser capaces de formular el objetivo de aprendizaje. Formular esa ecuación que yo os he puesto ahí era muy sencilla porque era un problema muy sencillo. Pero si queréis hacer que el modelo se ponga a predecir texto, a generar imágenes, pues ya el objetivo de aprendizaje no es tan sencillo y una vez que lo tenéis tenéis que resolver el problema de optimización, que en este caso, como la funcionada sencilla, era fácil de resolver, pero si el problema se complica, pues se nos hace un poquito más difícil. ¿Y cómo encaja las renovables en todo esto? Bueno, pues una red neuronal es una subrama dentro de la inteligencia artificial. Dentro inteligencia artificial tenemos los algoritmos de aprendizaje automático llamados Machine learning inglés. Y dentro de dentro de esta familia tenemos el Deep Learning, que es la rama que engloba las redes neuronales artificiales. El Deep learning tiene una serie de características. Vale, básicamente lo que hacemos es en lugar de resolver estas funciones matemáticas puestas de forma muy manual, como hacemos con algoritmo de machine learning, lo que hacemos es resolver el problema de optimización por fuerza bruta. Es decir, en lugar de ajustar muy bien los parámetros que yo creo que aprenda, le pongo muchísimos parámetros a base de sumas, multiplicaciones y restas, y la red se dedica a aprender. Por lo listo con un pequeño ejemplo. El ejemplo anterior de los precios de venta de las casas se puede representar con un esquema de red neuronal que es exactamente igual que lo que os he puesto antes. Fijaros que las redes neuronales, lo que vamos a tener serie de neuronas. Generalmente decimos que tenemos unas neuronas de entrada y neuronas de salida con el precio de venta de las casas. Las neuronas de entrada serán precisamente las características de la casa. Como decía antes, los metros cuadrados, el año de construcción, el número de habitaciones, el tipo de vivienda y las neuronas. Lo que hacemos es conectarlas entre sí unas con otras. En este caso tenemos una sola neurona de salida, que es el precio de venta a la casa. Es una red muy muy sencillita y veremos que luego se van a ir complicando mucho más La combinación de cómo obtengo cuál es el valor del precio de venta de la casa, es decir, cuál es la salida de esta. En respecto a las entradas, se hace exactamente igual que antes. Escogemos 1W0, que esto es lo que llamamos el vayas y a continuación vamos multiplicando los pesos. Esto sería las conexiones entre neuronas en las cuales van a tener una serie de pesos que son w1, w2, w3 w cuatro wn igual que antes, que se multiplican por la característica de entrada. Hacemos ya digo exactamente que antes la precio y la predicción del precio de venta es w0 más w1 por los metros cuadrados más wn por la característica xn le digo, es exactamente igual. ¿Qué es lo que cambia el algoritmo de cómo entrenamos todo esto? En lugar de utilizar el descenso de gradiente, utilizamos backpropagation que son muy similares, en realidad son muy similares, pero bueno, le hemos cambiado un poquito la forma. Este es un algoritmo optimización en el cual lo que vamos haciendo es ir modificando iterativamente estos pesos en función de cuánto se han equivocado. Si por ejemplo el precio de venta se ha equivocado porque habíamos puesto que los metros cuadrados valieran más que lo que tenían que hacer, vamos a sancionar mucho este peso y lo vamos a reducir. Y si nos hemos quedado muy corto lo vamos a aumentar mucho. Y el propio algoritmo, a base de dar diferentes vueltas, lo que tenemos es que va aprendiendo, va ajustando, va ajustando hasta conseguir minimizar la función como la que teníamos antes. Vale que le llamamos función de pérdida. Aquí importante la red neuronal. Entramos en el número de parámetros a aprender. Seguro que cuando veis el las características de los LM dice el modelo con 10 billones de parámetros. Bueno, pues en este caso es una red tan tonta que tiene n más uno parámetros. Es decir, que si tenemos las casas definidas por tres características, tenemos una red con 11 parámetros a aprender. Compararlo con los no sé cuántos billones que tiene ahora y ver la potencia que tiene una red y la que tiene el M. Y luego también Esto nos permite, aunque podemos imitar el modelo anterior, nos permite meter una cosa que llamamos funciones de activación no lineales, que es que podemos cortar la propagación de la señal entre diferentes neuronas. En este caso no tiene sentido, pero cuando hace más compleja podemos hacer que solo se propaguen señales cuando se saturen. Esto tiene sentido cuando pasamos a redes neuronales profundas, que es exactamente lo que antes, pero metiendo mucha más neuronas. Como decía antes, lo que vamos a hacer es resolver las funciones matemáticas de forma mucho más compleja. Fijaros la cantidad de primero de parámetros que tenemos. Aquí tenemos la capa de entrada, que son siete características, por ejemplo un parámetro de salida que podrían ser varios, pero aquí en medio tenemos un montón más de neuronas. Cada una de estas líneas grises son parámetros aprender por la red antes no pasado de n más uno. Aquí pues habría que multiplicar igual son n al cubo o alguna cosa por el estilo. Tendríamos que ir viendo y calculando, porque luego es verdad que en este caso tenemos conectado todo con todo y esas topologías de red, según cómo pongamos las capas de una a otra, podemos ir jugando con ellas para que no todo esté conectado con todo. Entonces, si nosotros vamos añadiendo más y más y más y más neuronas, y más y más y más capas, y ponemos encima función de activaciones no lineales, conseguimos que la red resuelva problemas más complejos que los que hacía inicialmente. Y este es justo el secreto a partir del cual funcionan los LLM. Es. Cómo llegamos al mes. En 2017, creo recordar, se publicó un paper que se llamaba Atención o UNIT, que es el que cambió el paradigma de cómo podíamos hacer que las redes neuronales trabajara en contexto. Tenían muchísimos problemas para trabajar con texto. ¿Por qué? Porque teníamos que superar primero la serie Desafíos. El primero es que las redes neuronales, como anteriormente, el ejemplo anterior era muy sencillo porque trabajamos con números cuando he hecho el número de habitaciones que tiene la casa, pues una, 234 o cinco, los metros cuadrados 60, 70, 80, 90. Eso es muy fácil de trabajar con números, porque luego lo voy a multiplicar por una serie de pesos. Números por números más números, más números nos da un número de salida, pero cuando trabajamos con palabras las cosas se se complican porque yo ya no puedo multiplicar por, por ejemplo, la palabra perro por un número, porque si multiplico 0,43 por perro, pues no me queda absolutamente nada. Vale, entonces lo primero que teníamos que hacer es tenemos que ser capaces de convertir las palabras en números. Para ello utilizaban en los primeros orígenes una codificación que se llamaba Hot Encoding. Básicamente lo que hacemos es crearnos una lista de números tan grande como el número de palabras que tengamos y ponemos un uno. Si la palabra es la que es, o sea, la primera posición es la de perro, la segunda la de gato, tercera manzana, la 4.ª la de pera y así, en lugar de pasarle las palabras, le pasamos estos vector de entrada y hacemos que la red aprenda. ¿Esto presenta muchos problemas porque el vocabulario aquí son cuatro palabras Cuántas palabras tenemos en español o cuántas palabras en inglés? O si queremos hacer una red que entienda varios idiomas. ¿Cuántas hay en español más inglés, más chino, más? Pues nos quedábamos tamaños gigantes que eran inmanejables para las redes. Y encima bueno, pues estas posiciones, esto al final son vectores. Estos vectores no están, no guardan relaciones. O sea, que perro esté al lado de gato es meramente una casualidad, porque yo he puesto el perro lado del gato, pero si hubiera permutado gato y manzana, pues ya no estarían tan cerca. Vale, entonces presentaba muchísimos problemas y hacían que las redes no funcionara muy bien. Pero bueno, el primer paso ya, ya somos capaces de introducirlo, vamos a mejorar el sistema. Así que surgió el concepto del en el lugar de trabajar con esos vectores que eran 1000, lo que hacemos es vamos a proyectar nuestras palabras a un espacio n dimensional, es decir, vamos a colocar todas las palabras en el espacio y vamos a hacer que palabras que estén, que sean parecidas, estén situadas cerquita, en espacio, De tal forma que si yo veo palabras como vectores y dos palabras se parecen, sus vectores están apuntando a posiciones muy parecidas. Esto es justo el embedding. Vale que son espacios semánticos y se popularizaron el tema del procesamiento del lenguaje natural. Cuando surgió un algoritmo que se llamaba World Tour Este. A lo mejor habéis leído sobre él, básicamente World Tour, que lo que hicieron fue entrenar una red neuronal para predecir dos cosas que que llamaban cebolla, nos daban un contexto de palabras y teníamos que predecir la palabra del medio. Por ejemplo, aquí el gato, el perro y el gato son animales, pues cogía un contexto, por ejemplo el perro y y después le pasaba gatos. Son animales y tenía que predecir que haya en medio, tenía que haber un él. Y gracias a entrenar esto con muchas palabras, pues íbamos aprendiendo estos embeddings. Cuando hacíamos el esquí, lo que decíamos es dábamos una palabra, por ejemplo en este caso merienda y queríamos predecir la anterior y la posterior. O bueno, podíamos configurar si era una, dos, tres, cuál era la ventana. Pues si decíamos merienda, queríamos que teníamos antes Juan y a continuación manzana. ¿Cómo hacían todo esto? Lo que hacían es meterlos en vez de aquí en estas capitas de en medio, que era en realidad una capa de n neuronas. Vale, que es lo que llaman aquí projection, en el que teníamos, pues en este tamaño el embedding de tamaño cuatro, pues teníamos cuatro neuronas conectadas y a partir de combinar esos diferentes embeddings seamos capaces de sacar la proyección de salida. Esto está muy bien porque primero reducimos mucho el tamaño. Si antes decíamos que teníamos el tamaño de los vectores de entrada igual al tamaño del vocabulario, aquí lo fijamos nosotros. Me parece que los modelos de GPS está puesto como mil palabras o una cosa por el estilo. Habría que ver cada uno cómo lo trabaja, en el que vamos a ver, por ejemplo, el ejemplo estaban en 712, que es lo que habrán probado, que funcionaba bien y ya son vectores mucho más manejables. Encima son vectores completamente densos. Estos de aquí tenía muchos ceros los ceros. Cuando multiplicamos las cosas nos vienen muy mal y sin embargo aquí es muy raro que tengamos un cero. Todo lo que te dije ver esto es como un espacio vectorial tamaño cuatro en el que podemos hacer combinaciones. Pero básicamente lo que quiero ir más allá de las matemáticas detrás es que lo que somos es capaces de codificar una palabra como un numerito de tal como bueno, como un vector vale con una secuencia de números de tal forma que dos palabras que se parezcan, por ejemplo perro y gato, fijaros que está puesto apuesta. En el ejemplo. Sus vectores son muy parecidos porque representan animales mamíferos que se suelen tener en casas. Bueno, pues tiene una característica muy comunes. Sin embargo manzana y pera, que también son dos palabras que sí se parecen, están cerca, pero los números están lejos entre sí. Si esto lo pudiéramos pintar un cuadro, no podemos, pues veríamos que los vectores apuntan a direcciones diferentes, que es justo lo que nosotros queríamos. Por lo tanto, lo que nos dimos cuenta luego para hacer que esto funcionara es que no solo teníamos que tener en cuenta las palabras, sino también su contexto. Vale, como hacíamos aquí, mirar las palabras previas y posteriores, tanto en el enfoque cebo con el escape Grand y. Y para eso teníamos diferentes tipos de redes que nos permitían trabajar con ellas. Por un lado teníamos las redes convolucionales, las redes sociales. Es muy parecido a lo que hacíamos aquí. Vale de tener. Estamos mirando las cadenas de texto como un vector de una sola dimensión y lo que hacían es aplicar una serie de funciones matemáticas con la palabra previa y las palabras posteriores. Eso está muy bien, vale. De hecho, este tipo de redes funcionaban súper bien en en imágenes. Cuando aplicamos a dos dimensiones vale porque cada píxel se miraba los píxeles que había alrededor y tenía mucho sentido que a partir de ahí éramos capaces de interpretar que estábamos viendo una imagen. Sin embargo, cuando estábamos trabajando con lenguaje, no funcionaba muy bien. Primero porque no solo la dimensiones o podía mirar hacia adelante, hacia atrás. No teníamos arriba y abajo y perdíamos relaciones que fueran de larga distancia porque tenía que poner una ventana de contexto. Pues digo, miro dos, tres o cuatro palabras antes y cuatro después. Y si me pasaba una frase como el perro que persiguió al gato ladró Pues si yo no pongo un contexto muy grande, me parece que el que está ladrando es el gato. Vale, si yo solo miro la palabra previa y la posterior, aquí tengo al gato ladró. Bueno, pues el gato estaba ladrando cuando en realidad que estaba ladrando era el perro. Vale, pero fijaros la distancia a nivel de saltos de palabras que teníamos, por eso estas redes no funcionaba muy bien. Teníamos también otro tipo de redes que funcionaba muy bien, que eran las redes recurrentes, las redes recurrentes, lo que eran es ir viendo secuencias de palabras y van pasando su información a la parte siguiente, de tal forma que empezaba, miraban él, luego miraban el perro y sabían que venían de él. Luego miraban, que miraban, sabían que venían de perro, que venía de él y así iban recorriendo toda la frase. Estas funcionaban mucho mejor en el sentido de capturar relaciones largas, pero se paralizaba muy mal si se paralizaba muy mal. Quiere decir que entrenar estas redes era muy costoso computacionalmente y por lo tanto si le pasaba a muchos datos para que aprendieran, tardaba mucho tiempo en conseguir optimizar su función y conseguir hacer que la red hiciera algo. Así que teníamos unas redes que se entrenaban rápido pero no funcionaban bien y teníamos luego otras que se entregaban rápido pero no funcionaban bien. Y a partir de aquí surgió la arquitectura Transformer, que es la que vino a cambiar cómo teníamos que trabajar con los grandes modelos de lenguaje, las redes de Transformers, Meter, una cosa que llamaban mecanismos de atención. Vale, que evitaban procesar las palabras secuencialmente para ganar eficiencia. Básicamente permitían hacer procesamiento en paralelo. Vamos a ver con un ejemplito gráfico. Luego también metían los mecanismos de atención que permitían calcular la influencia que tenía una palabra sobre otra sin tener en cuenta la distancia a la que estaban. Es decir, cada palabra. Podría mirar cualquier otra palabra de la frase para ver con cuál se relacionaba más. Y gracias a esto. Bueno, pues éramos capaces de entrenar modelos mucho más grandes. Vale, os lo voy a enseñar con un ejemplo pasito a paso, que lo vais a ver mucho más claro. Lo tenéis aquí subido. ¿Vale? Esta es una página que está aplicado y que me parece magnífica porque está ya puesto todo paso a paso y tenéis un montón de herramientas y tenéis este enlace. ¿Vale para que lo podáis ver y os recomiendo cuando acabe la charla tratéis un poquito sobre ella para que incidir en cosas que no me dé tiempo a contaros a vosotros, vale? Yo ya tengo abierta por aquí para poder ir contando las cosas. Y fijaros que esto es la arquitectura completa de un Transformer. Vale, aquí tenemos, aquí arriba tenemos lo que sería la la entrada. Vale que nosotros le pasamos esto es lo mismo que tenemos el prompt cuando estamos trabajando en modelos como GPT y CoPilot, pues el prompt lo tenemos aquí arriba. Fijaros que lo que le estamos pasando es una serie de palabras, una secuencia de palabras que dice David Visualization en poco tú y visualices la palabra que está prediciendo. Aquí tenéis las diferentes palabras que la prendido que puede predecir en este caso visualice es la que más probablemente vaya a continuación de tu. Porque claro dice, la visualización de datos permite a los usuarios visualizar. Pero había otra serie de palabras que podían haber ido ahí. Vale que podría ser crear, ver, Make y y Kiki. Teníamos una serie de palabras que nosotros podíamos hacer. ¿Cómo funcionan estos mecanismos de Transformer? Tenemos varias partes. ¿Vale? 1/1 es los. En vehículos. He comentado antes, aquí tenemos las palabras que nosotros le estamos pasando aquí arriba y las tenemos puestas en unos embeddings que vamos a ver un poquito más en detalle ahora, después. Luego tenemos lo que llamamos unos bloques de Transformer, bloque de transformación. Fijaros que aquí pone Block uno, porque en realidad tenemos 2345 encadenados todos unos a continuación de otros. Pensad esto, que son un montón de parámetros de una el ejemplito que os he puesto antes de aquí. Este comparado con esto es muy parecido. Lo que tenemos es muchos más puntitos en el diagrama que tenemos que optimizar y aprender. Tenemos varios millones de parámetros que tenemos que optimizar, pues en este caso van enganchando diferentes bloques de Transformer, uno a continuación de otro para que la red se vaya refinando lo que va aprendiendo. Y luego finalmente tenemos la salida de la red, que son estas probabilidades que os decía que simplemente vamos a coger a todas las palabras que tenemos en nuestro vocabulario. Vamos a decir cuál es la palabra que más probablemente tenga que ir a continuación de Data Visualización en Power User, Tú, lo que sea. Entonces paso a paso, fijaros, lo primero que vemos son los embeddings, los embeddings, lo que os he contado antes. Aquí tenemos un vector de de 168 elementos en el cual me dice cuál es el vector en el que está la palabra data, el vector en el que está la palabra visualization. Exactamente lo mismo que dicho antes con World Tour. Lo que pasa es que son tamaños un poquito más grandes. Estos vectores se aprenden, vale, no son vectores que estén prefijados. ¿Es decir, que este vector tenga una exposición, aquí lo ponen como un código de barras, vale? Iluminando más las posiciones, las que el numerito es más alto iluminando. Bueno, poniendo más negra la posibilidad de que el número más alto este vector lo va a aprender a partir de muchas ejecuciones de leer, leer, leer mucho texto y además meter otra cosa que se llama el posicional encoding. El posiciona encoding te va a decir en qué posición de la frase está la palabra para poder guardar relación, de qué distancia entre dos palabras ahora va a aprender. Vale, esto es un poquito más elaborado, pero digamos que no solo se quedan en el contexto de de qué significado tiene la palabra que sería el embedding dentro del espacio de los embedding, sino también te dice dónde estaba la palabra. Una vez que nosotros tenemos esto, se suman los dos venis y sacamos el embedding de la palabra, que es un vector de 768 posiciones para este modelo, que es el que se basa, por ejemplo GPT dos. A continuación entramos en los bloques de los Transformers. Vale, esa información se pasa y tenemos que. Aquí. Cada uno de esos embeddings se multiplica por tres. Cada una de las palabras que nosotros le pasemos a la entrada se va a analizar de tres perspectivas diferentes la que llamamos la query la, la K, que es la aquí y la V, que sería, que sería el válido. Vale. ¿Cómo trabajamos con todo esto? Básicamente tenemos lo que llamamos cabezas de atención, la cabeza de atención. Lo que va a hacer es atender a diferentes partes de la frase, es decir, va a mirar las palabras de diferentes perspectivas. De nuevo, todo esto lo aprende la red sola, es decir, tú le pones un montón de cabeza de atención. En este caso tenemos 12. ¿Vale? Fijaros que cada una de ellas está trabajando en paralelo. Todo esto se procesa una en paralelo con la otra, lo que permite cuando entramos la red, aprendan todas a la vez y por lo tanto lo hagamos muy rápido. Cada una de las cabezas lo que va a hacer es calcular relaciones que tenemos entre distintas palabras y cada una se va a especializar en una parte de en una parte de las frases cómo funciona cada una de las cabezas de atención. Lo que hacemos es por un lado vamos a multiplicar con un product. Este es el producto de dos product. El no sé cómo se traduce en español ahora mismo. Vale, bueno, el que multiplicas un vector por otro, de tal forma que cuando dos vectores están apuntando a la misma dirección, el dos produce saltos y los vectores están apuntando en direcciones diferentes, su producto es muy bajo. ¿Eso qué quiere decir? Porque tenemos la y la que la que es la que me permite actuar como si fuera un filtro. Si nosotros tenemos la que y que lo que está diciendo es Quiero que esta palabra se parezca con la consulta que estoy haciendo, de tal forma que si dos palabras se parecen, estén apuntando a la misma dirección. Así que tenemos que si dos palabras están relacionadas, este dos productos nosotros estamos haciendo lo que hacen es que su valor se aumente. Es como actuamos, como si tuviéramos una máscara. Vale, vamos a pasar las palabras por una máscara. Y cuando dos palabras van de relación, lo que vamos a hacer es aumentar su tamaño. Fijaros que después de hacer el dos produce una operación de escalado y una operación de sombra, que es otra función matemática que permite normalizar las cosas. Fijaros que la palabra que más se parece a data obviamente es data, pero a partir de ahí decimos data. Se parece mucho más a visualización que a tu, porque habitualmente la palabra de visualización suelen ir juntas y esto es lo que nos queda como salida. Vale, al final este este juego de y query lo que hace es buscar cuál es la relación que hay entre parejas de palabras y lo importante es que como estoy multiplicando todo con todo, no me quedo solo con las palabras que están al lado. Si yo aumento mi ventana de contexto para que en lugar de tendrá crisis palabras le meta 50 o mil, voy a hacer una multiplicación con mil a la vez y voy a conseguir ver cuál de las mil palabras que tengo a continuación se parece más a la palabra que estoy poniendo. Y todo esto lo estoy haciendo con un montón de sistemas que estamos funcionando en paralelo. Es decir, no lo hago solo una vez, sino que lo hago en este caso con 12 más el número de transforme que encaje una continuación de otro. Una vez que tengo este resultado, lo que hago es mezclarlo con los datos de entrada y se lo paso a una red que llaman MLP. ¿Una red MLP es esto que hemos puesto es tal cual lo que hemos puesto, de tal forma que el SEO es una función matemática que le digo empieza a combinar esto como a ti se te ocurra para conseguir sacar un resultado y la red se pone a aprender, vale? Se pone a aprender y se pone entrenarlo todo aquí dentro. Bueno, pues tenemos un montón de cosas. ¿Vale? Tenemos capas, tenemos funciones de activación GL que se escapan un poquito del alcance de este curso. Tenemos un montón de cosas más. No es tan sencillo como suelo enganchar neuronas. Pero bueno, después de todo esto y de los bloques de transformación, llegamos a la salida, que serían las probabilidades. Nosotros somos capaces de después de combinar estas palabras de entrada pasada por sus embedding, por todos estos procesos, me va a dar como resultado una lista en la que todas las palabras que nosotros tenemos van a tener una serie de probabilidades de ser puestas. Aquí tenéis las funciones que se aplican para calcular las probabilidades. Podemos además modular cómo queremos que sea esta probabilidad con un parámetro que se llama temperatura, que a lo mejor lo habéis leído. Si habéis mirado un poco documentación sobre algún LM que fijaros qué es lo que pasa cuando yo subo la temperatura, el modelo lo que hace es poner todas las probabilidades más o menos iguales. Digamos que le dejamos ser más creativo. Vale, no le captamos, Decimos bueno, pues elige tu por la palabra que más quiere que venga a continuación. Sin embargo, si yo le bajo la temperatura, concentra toda su probabilidad en un solo valor. Por ejemplo, en este caso con visualice según la temperatura que nosotros le pongamos, le permitimos al modelo ser más creativo, ser más exacto, más seguro lo que estamos diciendo. Y aquí podemos hacer, bueno, pues jugar un poquito con cómo queremos que sea la salida. También tenemos la opción del lugar de hacerlo, elegir las cinco palabras más prometedoras. Podemos jugar con la salida de probabilidades, es decir, quiero poder elegir entre las palabras cuya probabilidad acumulada sume 0,5 o lo puedo subir 0,7 0,8 si le pongo uno por fijaros que se me meten aquí un montón de palabras que son muy poco probable que aparezcan como lo que tenemos por aquí. ¿Entonces esto sé que bueno, pues visto en estos cinco minutos es complicado de seguir, pero que quiero que se dijo? La idea es que esto no deja de ser otra reunión a la que se han combinado las neuronas de una forma especial para conseguir que la red aprenda más rápido, pero que yo lo único que tengo que pasarle a la red para que aprenda es secuencias de palabras. Me cojo el diccionario todas las palabras que hay y le digo no es que después de esta frase en el texto aparecía Visualice y la red aprende. Y si la red se equivoca, la probabilidad de salida lo que hace es modificar sus pesos internos, los millones de pesos que tiene aquí dentro mediante un algoritmo que va castigando los errores que se han cometido, que eran cometido errores más grandes. Como va propagation lo vamos castigando y vamos hacia atrás hasta que el modelo se tiende a estabilizar. Cuando hemos conseguido que el modelo se estabilice, decimos que el modelo ha aprendido y lo pongo entre comillas el aprendido porque ya has dicho antes que en realidad estamos haciendo optimizar una función, pero sí que conseguimos que este aprendizaje se lleve a cabo y que el modelo sea capaz de predecir cuál es la palabra que va a continuación. ¿Cómo hemos pasado entonces de pequeños modelos a lo que tenemos hoy en día? Bueno, pues de arquitectura Transformer os he dicho que parece que databa del año 2017, pues ha ido evolucionando. Al principio teníamos modelos pequeños y tenemos modelos pequeños. Quiere decir que tenemos pocos parámetros para aprender y poco texto con el que entrenarle. Si tenemos un modelo pequeño quiere decir que podemos hacer cosas pequeñas. Vale, podemos sacar tokens de las frases, es decir, separar elementos de las frases, podemos poner etiquetas, ver si las palabras son sustantivos, son verbos. Podemos también sacar una serie de reglas, es decir, podemos hacer cosas como corrección ortográfica, predicción de palabras, cosas un poquito más simples a medida que tenemos más datos y para entrenar modelos de como Chase, que fue el que pega el pelotazo al principio, básicamente han cogido casi todo internet y se ha ido pasando en textos. Fijaros la cantidad de texto que le hemos le hemos pasado, pues conseguimos hacer modelos más complejos. Si tenemos más textos lo único que que hacer es dejarle más tiempo aprendiendo, pero también conseguimos hacer meterle más neuronas, poner el modelo con más parámetros para aprender, ponerle más cabeza a la atención por le más arquitectura transformer, ponerle más partes al modelo y necesitamos hardware más potente. Sacamos gráficas más potente de hecho. Bueno, ahora ya tenemos las TPUs. Vale que son gráficas especializadas en procesamiento. Lo ponemos con más elementos y cuanto más parámetros y más texto tenga el modelo puede hacer, más cosas vale. La IA puede hacer más cosas y es en el punto en el que estamos ahora mismo. Fijaros algunas gráficas. Vale como evolucionando el tamaño del modelo. Estos son el número de parámetros a aprender que os decía anteriormente en billones de 0,11. ¿Esto es escala logarítmica, vale? O sea, no es lineal, crece muchísimo. Estamos aquí en los 10 mil billones de parámetros para aprender. Fijaros que en el año 2017 estábamos aquí muy abajo y estoy teniendo un crecimiento súper grande. Vale, un crecimiento exponencial, vale, porque la escala que es logarítmica hasta GPT cuatro en el año 2023 y aquí yo creo que esto era inasumible. Vale a nivel costes de infraestructura para las empresas empezamos sacar lo que llamaron los SLM, que es el lugar del Large Lewis Model Small Language Model modelo de lenguaje Pequeños empezaron a cortar un poquito las cosas y la cosa se ha estabilizado. Vale, sacaron modelos más pequeños, conseguían hacer lo mismo, pues eliminando partes que no hacían falta o haciendo que los números, en lugar de ser tan largos, la representación de los números no fuera tan larga hacía un poquito más pequeña. Así el modelo ocupaba menos. Y bueno, visto esto, pues han ido cambiando, vale, pero la tendencia es verdad que ya es un poquito decreciente, porque esto implica básicamente gastar menos dinero para las empresas que venden inteligencia artificial. Es una condición obviamente deseable para ellas porque así consiguen ingresar más. También podemos analizar lo que es la ventana de contexto. La ventana de contexto es las palabras que yo le paso a la red. Vale lo que puedo escribir. En realidad cuando utilizamos modelos como GPT o Gemini, no solo lo que escribimos, porque esto se combina con las palabras anteriores y con algunas transformaciones que hace la propia herramienta. ¿Pero más o menos es cuántas palabras le puedo pasar de golpe a la red para que me saque una predicción? Fijaros que de nuevo escala logarítmica en número de tokens de mil tokens estamos ahora por los 10 millones de tokens. Vale, llama cuatro. En 2025 consiguió llegar a los 10 millones de tokens. Esto digo que cada vez va creciendo más, hacemos redes más eficientes, admiten más parámetros y admiten más parámetros. ¿Le puedo pasar más información? Si la red tiene más información es capaz de predecir mejor. Así que estamos consiguiendo mejores resultados simplemente con aumentar. ¿Cuál es la ventana de contexto que nosotros le pasamos? Entonces, lo que os decía, cuando vamos aumentando la escala tanto en número de parámetros como ventana de contexto, como el número de datos aprender, conseguimos representar cosas más complejas, conseguimos representaciones más difíciles, mejoramos por lo tanto coherencia, fluidez, fluidez y adaptación del texto y podemos tener en definitiva, para el nivel medio, mejores resultados. ¿Qué pasa si nosotros queremos aplicar un LLM para nuestro negocio en particular? Porque claro, estos modelos son de propósito general. Poquita gente tiene la capacidad de coger un dataset gigante y entrenar un bicho de esto sea un bicho de 10 mil billones de parámetros, pues es una burrada a nivel de consumo, a nivel de máquinas que te va a gastar para poder entrenarlo. Entonces has surgido una serie de herramientas que me permiten especializar las redes neuronales. Podemos entender la realidad como la red neuronal ya entrenada ha aprendido a hablar un idioma español e inglés, el que sea. Lo que podemos hacer es hacer un ajuste fino, hacer un pequeño ajuste a nuestra red para que aprenda a hablar de un dominio en particular. ¿Qué cosa podemos hacer aquí? Pues tenemos diferentes estrategias. Lo primero es la que llamamos un ajuste fino. Cogemos un LM que ya sepa hablar el idioma que nosotros queremos, que hay muchos modelos que ya no lo podemos bajar y lo podemos utilizar y lo que le pasamos es información actualizada sobre el campo que nosotros queramos. Por ejemplo en medicina. Pues es que las redes ha entrenado con foros de internet normales y queremos que aprenda a hablar sobre temas de medicina. Lo que hacemos es pasar la red, una serie de frases adicionales sobre medicina y la volvemos a entrenar, pero partiendo de un punto de partida nuevo. En este modelo se parte de aleatorio. Vale, todos los pesos iniciales son aleatorios. Lo que vamos a hacer es inicializar una red que ya sepa hablar inglés y la vamos a especializar para que sepa hablar inglés médico, por ejemplo. ¿Qué problema tiene esto? Sigue siendo costoso computacionalmente, por si tenemos un modelo con muchos parámetros, hay que meterle una máquina que sea capaz de cargar muchísimos parámetros y hay que dejarla entrenando y eso es un proceso lento. Por lo tanto, este ajuste fino funciona bien cuando los modelos son chiquititos, pero con modelos grandes no funciona muy allá porque no tenemos infraestructura para poder hacerlo. Así que han surgido estrategias de personalización ligera en la que tenemos dos enfoques distintos. Lora, que es el más popular actualmente, lo que hace es construirse una nueva matriz de pesos que se va a combinar con la del M para sacar nuevos resultados. Ahora lo pongo con un gráfico, pero básicamente es una matriz muy chiquitita en la cual somos capaces de combinar. Le hacemos que la salida del modelo del LM varíe ligeramente para que aprenda a representar las iteraciones de nuestro contexto específico. Y luego tenemos la otra opción, que esta es un poco más antigua, pero también se sigue utilizando, que son los adaptes, que lo que hacemos es insertar nuevas neuronas dentro de nuestra red neuronal para que aprenda. Aquí tienes un ejemplo de las dos. Vale, esto es la arquitectura Transformer que decía antes. Estas son las cabeceras atención y diferentes capas de normalización que le íbamos poniendo para sacar la salida en las probabilidades y a partir de la entrada del que nosotros tuviéramos se transformaba esto una serie de embeddings y se lo pasábamos al mecanismo. Si nosotros trabajamos con Lora, fijaros que lo que hacemos es dejamos la red como estaba, es decir, lo que hemos visto en este ejemplo de aquí y lo que hacemos es entrenar un par de matrices chiquititas que son A y B, que luego las combinamos, las multiplicamos, vale este decimos que son dimensionalidad baja para conseguir una del mismo tamaño que tenemos aquí y lo sumamos. ¿Qué ventaja tiene esto? Son muy poquitos parámetros a aprender, pocos parámetros a aprender. Lo traducimos en esto rápido de entrenar para cualquier ordenador que nosotros tengamos, así que aunque tengamos un servidor medianamente potente, podemos coger una M que ya sepa hablar un idioma, le metemos con Lora una especialización y muy rápidamente somos capaces de refinar ese modelo para que aprenda a hablar del tema que nosotros queremos. La otra alternativa, que es la de los adapter, lo que hacíamos era meter capas aquí en medio, meter capas aquí en medio es más complejo computacionalmente porque implica que tenemos que meternos dentro la arquitectura del Transformer y dentro de arquitectura del transporte nos tenemos que poner a hacer que estas capas se pongan a aprender dejando congeladas las otras. Es una operación computacionalmente más costosa tener las dos opciones para hacerlo. Hay herramientas que permiten hacerlo, pero vamos, que logra actualmente es la más sencilla porque te quedas fuera de la red y es muchísimo más rápida. Como casos de éxito. De esto tenemos podéis buscar ver que es un experto en biomedicina. Utilizaron el modelo, ver que igual os suena. Vale que es de propósito general y le pusieron a entrenar con colección de artículos de textos biomédicos. ¿Lo consiguieron? Es que el modelo de lenguaje entendía terminología biomédica y por lo tanto esto pedía, admitía acelerar investigación en temas biomédicos, pues le podía hacer preguntas que a lo mejor alguien no se había dado cuenta y bueno, pues permite hacer pequeños avances, ya digo, con un modelo de un ajuste fino sobre un LM que estaba previamente entrenado, que era Bert. También podemos especializar nuestro modelo sin hacer, sin que tengamos que retener la red. Para esto hay una cosa que se llaman RAG que igual también os suena. Habéis leído por ahí que sanadora muy de moda. Vale, básicamente RAG son las siglas de Retrieval amente Generation y es tiene tres fases. Vale, pues la fase de recuperación Retrieval, la fase de aumentación y la fase de generación. ¿Cómo funciona esto? Nosotros tenemos nuestro LLM, el que queráis. Vale, aquí funciona con cualquiera de ellos y le pasamos un prompt. Cuando nosotros le pasemos nuestro prom, lo que hacemos es. Aparte de pasar al modelo de lenguaje, vamos a ir a una base de datos documental que tengamos, por ejemplo con documentos de la universidad. Imaginad que queremos hacer un rap con normativa interna que tengamos en la universidad, pues hacemos que ese prom hagamos una búsqueda de documentos de la universidad que estén relacionados con el propio Estado, pasando por ejemplo normativa de evaluación. Así que buscamos encontramos que un documento normativa, valuación, lo que va a hacer el RAG va a recuperar los documentos que estén más relacionados y se los va a pasar como parte del prom al LM, junto con lo que nosotros lo hemos pedido. De tal forma que digo pueden varios alumnos sacar matrícula de honor si han tenido la misma nota. Ese es el que yo le voy a pasar a mi, a mí el LM va a coger, va a buscar la normativa de valoración y se va a pasar también como parte del no lo tengo que hacer yo con un copia y pega. Entonces el modelo se va a poner a leer los documentos que le pasemos junto con nuestro prom y va a poder generar una respuesta mucho más precisa. Si yo no le pasara estos documentos, él no sabría qué universidad estoy, No sabría cuál es la normativa interna de universidad y por lo tanto no podría. Una respuesta precisa al combinar los documentos internos de la organización con las preguntas del usuario, somos capaces de dar respuestas un poquito más certeras teniendo en cuenta que esto sigue siendo probabilístico. O sea, que el M se puede equivocar y puede cometer errores, Por lo tanto, tampoco coger la respuesta de dos como si fuera una verdad absoluta de la cual no podemos dudar. Y llegando al final de esta parte, nos encontramos con los principales problemas y limitaciones que tenemos de los elements actualmente. ¿Eh? ¿Lo primero que tenéis que tener en cuenta que esto, como os he dicho, son patrones estadísticos, vale? Son todo matemáticas, es estadística y los LLM no están entendiendo lo que les pasemos. De ahí que decimos que en realidad no están aprendiendo porque bueno, pues aprender es tiene un concepto filosófico mucho más fuerte, solo están optimizando funciones y eso es una limitación. Mal, Ellos no comprenden, simplemente reproducen, reproducen, reproducen. ¿Eso qué quiere decir? Que pueden aparecer sesgos. Si los datos que yo le he pasado a la IA están mal, las respuestas que va a dar la IA están mal. Si yo le paso lo que decía antes, imaginaros que solo se ha entrenado con textos de foros de gente joven en internet, pues seguramente el lenguaje que van a utilizar es un lenguaje mucho más informal que el que podríamos utilizar en otros ámbitos, por ejemplo un ámbito académico. Y la IA nunca va a ser saber hablar académicos. Y yo no le he pasado textos académicos sobre los que aprender, así que tenemos muchos sesgos y luego pues también problemas. Si la guía se ha pasado con textos racistas, la IA será racistas y la IA dado ciertas ideologías, tendrá sus ideologías y por lo tanto tenemos que tener cuidado con los datos. Ya digo, la parte más difícil es pasarle datos que sean heterogéneos, que estén limpios y que funcionen bien para que la IA pueda aprender. Luego también tenemos el problema de la opacidad. Al final, esto que os he pintado aquí es una caja negra muy negra. Son muchos números. ¿Vale? Nosotros podemos bucear y podemos extraer cuánto vale cada uno de los parámetros que tengo que aprender por aquí. Vale, en esta parte del MLP podemos mirarlo y fijaros que aquí hay un montón de números y un montón de cosas. Podría calcular cuánto vale este W1 uno y un montón de cosas, pero realmente es una ecuación matemática tan compleja que conocer un solo dato no me vale para nada y por lo tanto es una caja negra. ¿Yo le paso los datos, me dice la salida y me cuesta mucho comprender por qué ha dicho esa salida, lo cual en muchos casos da igual, pero en muchos otros es algo importante decir me está dando esa respuesta, pero por qué me lo estás diciendo? Si la IA fuera capaz de justificarse a sí misma, nos vendría muy bien y su salida sería estaría mucho más enriquecida. Y luego, también lo he comentado, el impacto energético. Esto está gastando luz, apuntala. Estamos gastando kilovatios y kilovatios por minuto para entrenar estos modelos y para mantenerlos. Incluso el proceso de inferencia, que es mucho más rápido cuando ya tengo el modelo entrenado que me dé una respuesta, pues estás teniendo un coste energético muy alto. Es verdad que se está reduciendo el el token por kilovatio vale el coste del token por kilovatios se está reduciendo el último tiempo porque interesa mucho. Pero bueno, que también tenemos que tener esa perspectiva. Y los modelos de Green Artificial Intelligence y demás, no teniendo mucha importancia aquí para conseguir mitigar este efecto. Y bueno, pues que no se nos vaya de las manos y al final tengamos un problema más grande el que teníamos originalmente. ¿Vale? Entonces son como sus principales problemas actualmente. Y bueno, para terminar, me gusta poner este meme vale de de internet que dicen que bueno está mirando ahí. Entonces en todo probabilidades dice siempre lo han sido. Vale, yo no quiero crearos mitos falsos. Esto que tenemos aquí son todo matemáticas. Estos son probabilidades Que el modelo me diga que esta palabra viene a continuación es porque estadísticamente es la que más probable tenía que venir a continuación y nada más. Vale, no hay ninguna otra magia detrás más allá de cómo se calcula toda esa probabilidad. Entonces quedaron que son matemáticas, que él lo ha ido teniendo aprendiendo a partir de datos y por lo tanto el modelo va a decir de lo que ha aprendido vale, y ninguna otra cosa. Y bueno, con esto termina esta primera parte. Creo que mejor hacemos las preguntas y no al final de toda la presentación, salvo que me digan lo contrario. Fernando O sí, Creo que sí, creo que que casi mejor no, porque así tenemos la perspectiva de todo. Le paso a Javier, yo me voy a quedar por aquí. Luego si tienes alguna pregunta al final pues me lo hacéis. Yo respondo encantado. Sí, si acaso. Bueno, estoy mirando el chat ahora mismo. No veo así ninguna, ninguna pregunta y las hemos contestado por remarcar antes de que empiece Javier y así le damos tiempo al que ponga su presentación. Simplemente remarcar estos últimos mensajes que ha comentado Fernando que me parecen fundamentales. Como todos sabemos la IA. Con ella podemos crear contenido nuevo, imágenes nos hace resúmenes, etcétera Todo eso lleva un consumo eléctrico que muchas veces no somos conscientes y deberíamos también serlo. Pero lo más importante, el último que ha dicho que no piensa no es una persona. Muchas veces atribuimos adjetivos de entender, comprender a la guía que no son, no son suyos, porque como bien ha remarcado, faltando todos son probabilidades y lo más importante es ser conscientes de esto justo para meter el factor humano. Es decir, puede equivocarse, puede inventarse información y tenemos estar ahí para verificar toda esa información. Muchas veces, como ha dicho Fernando, no nos dice la fuente, hay herramientas que sí, como notebook. LM Hay otras que no, en la mayoría GPT, CoPilot, Cloud no dicen la fuente. Entonces es importante que luego hagamos estas comprobaciones. Pueden reproducir sesgos dependiendo de los datos que estén entrenadas, que también lo ha mencionado Fernando. De hecho hay estudios por ahí que con un 1% que metan de sesgo de un partido político, por ejemplo, pueden cambiar mucho las cosas y de hecho ha habido problemas en este sentido. Por eso debemos ver, debemos ser muy estar muy atentos con la información que nos dan y pueden provocar alucinaciones, pueden equivocarse y por eso, porque al final son probabilidades, entonces simplemente que quede ese mensaje que hay mucha base matemática detrás, que no es magia y que tampoco es una mente humana que aprende a partir de esos patrones y de toda la cantidad de datos que va generando. ¿Y como he apuntado ahí en el chat, qué va a pasar cuando estos datos se acaben? Si a partir de ahora solamente consume datos que han sido generados a su vez, podría. A dónde nos puede llevar esto, que es una de las cuestiones más filosóficas a los que no puede llevar esto y eso que nos quede claro que tenemos que revisar las respuestas y que es una herramienta de apoyo y que no, no tiene toda la verdad. Y más allá de toda esta base matemáticas que que nos ha dado Fernando tío, fabuloso. Pero bueno, que nos quedemos con todo lo que hay detrás, pero que si no lo entendemos no pasa nada, pero que si conviene tener a lo mejor conceptos claros como el de token. Más que nada porque cuando vayamos a utilizar, por ejemplo CoPilot Chat, nos puede decir ya no tiene más tokens, significa que ya no podemos ir metiendo más palabras, aunque la correspondencia token palabra no es uno uno pero menos parecido, pues todo eso viene de ahí. Ventana de contexto que también ha mencionado Fernando. Pues que los. Si nos liamos a meter contenido y contenido en un en un blog que ahora no va a contar Javier, pues la guía se lía porque tiene un límite. Y así como otro concepto que podamos destacar el tema del tamaño cuando vemos lanzamientos, pues bien hechas GPT 5.5 5.6 ya no sé por cuál va. Pues todo eso es que crecen en billones de parámetros que son esto de las redes que nos ha comentado Fernando. Pues que sepamos un poco por dónde van los tiros y no sé si hay más preguntas. ¿Voy a bien yo, ya que ya que has arrancado, me gustaría aclarar una cosita adicional, eh? Digamos, y es quizás a lo mejor lo vamos a hablar de esto. Javier, si vas a hablar de esto me callo. Si no lo comento y es todas estas herramientas se puede acceder a ellas. En principio hay versiones gratuitas, pero no es lo mismo la versión gratuita que la versión de pago y hay que tener mucho cuidado con lo que hacemos. Mucho, mucho cuidado de las versiones gratuitas, porque los datos que subimos ahí, pues puedan ser utilizados por otras personas y utilizarlos para entrenar otros modelos. Y si lo que estamos pasando ahí pues no sé, son temas económicos y demás, pues hay que tener mucho cuidado en ese sentido. Desde la universidad estamos intentando conseguir y bueno, tendréis alguna noticia en breve, el acceso a otras herramientas, digamos de forma segura, de forma corporativa, versiones fesionales para evitar bajo todos los conceptos, utilizar versiones gratuitas en las que digamos ahí pueden nuestros datos pueden estar comprometidos. Me dejo eso ahí, encima de la mesa, que creo que es un tema muy relevante. De acuerdo y todo tuyo. Javier. Perfecto, Pues nada, muchas, muchas gracias a todos. A Fernando, Jessica, otro Fernando. O sea, habéis me habéis introducido muy bien para esta segunda sesión, que va a ser un poco más práctica que la primera y vamos a todos esos conocimientos técnicos aplicarlos a través de las herramientas que tenemos ahora mismo en nuestra disposición, que es CoPilot Chat y como ha dicho Fernando. Luego también voy a aclarar un poquito ese tema de que ocurre si utilizamos herramientas que son gratuitas y con las que no tenemos, digamos, un convenio con la con universidad. Entonces bueno, tengo por aquí también el chat a mi lado. Si hay cualquier duda abrís el chat y directamente me preguntáis. Y bueno, que no me presenté. Yo soy Javier Javier Conde, yo soy profesor en en teleco en el campus de Moncloa y voy a daros este taller sobre aspectos técnicos y económicos, usando siempre para para aplicar todos estos ejemplos. Bueno, aquí en la presentación, que luego la tendréis también tener diferentes cursos y eventos de Primavera Tech, hay muchos ya muy interesantes. Os dejo ahí. Os dejo ahí la referencia también. Otra cosa que en la que he participado yo, junto con muchas otras personas, gente que seguro que está en esta llamada y hemos hecho un un informe sobre cómo se está aplicando la inteligencia artificial en la educación superior. Hicimos uno en la edición 2024 y otro en 2025. Entonces tenéis ahí a vuestra disposición y que se está enseñando un poco más esa pauta docente, no tanto pasta investigadora o de administrativa como se está aplicando ya hoy en día la y aquí en la UPM. Pero bueno, en la agenda de hoy voy a hablar un poquito de una breve introducción de herramientas y después vamos a centrar sobre todo en técnicas de prompt y con ejemplos, yo creo que muy prácticos, de lo que se puede hacer hoy en día y también qué limitaciones tenemos hoy en día y tenemos que tener. Tener en cuenta después algo muy breve de costes en el uso de la herramienta ya generativa. Incluso si no nos da tiempo, esto se puede, se puede pasar y aspectos técnicos ligado un poco con lo que comentó Fernando, pero llevándolo ya directamente a nuestro terreno. Ya por último, unas unas conclusiones. Entonces lo. Lo primero como introducción la inteligencia artificial es una habilidad o competencia que tenemos que tener todos, ya seamos profesores, investigadores, personal administrativo. Ha venido un poco a cambiar las reglas del juego en el mundo laboral y tenemos que saber adaptarnos a ella para saber adaptarnos a ella, pues tenemos que saber sacarle el máximo partido. Y también yo creo que es muy importante conocer sus limitaciones y riesgos, pues vamos a ir viendo que no es infalible esto ya solo exclusivo para docentes. Sé que muchos no soy docentes, pero también muchos sí tenemos que tener en cuenta que el estudiante lo utiliza y entonces también tenemos que de alguna forma garantizar o ayudar al estudiante a utilizarla de forma adecuada. No siempre va a ser prohibir prohibido su uso, pero en algunos casos sí que tenemos que dejarles claro como profesor que pueden hacer y que no pueden hacer con inteligencia artificial. Me gusta enseñar varias diapositivas de herramientas con enlaces porque el ecosistema de herramientas es muy amplio. Aquí tenemos suerte en la universidad. Pues que como tenemos licencias con ciertas herramientas, pues ese paradigma ya se nos reduce. Entonces tenemos una suerte, por un lado, de que no tenemos que pensar todo el rato que herramientas utilizar, pero una ventaja que no podemos acceder a todo ese mercado que sí existe. Pero bueno, yo creo que es importante a nivel de cultura general conocerlas, ya sea no solo para nuestra vida laboral, sino también para nuestra vida privada. Entonces conocer el paradigma que hay y muchas veces va a ocurrir que herramientas o adquiera la universidad, licencias o que incluso sean absorbidas, pues en este caso, por ejemplo por por CoPilot, por tener un paradigma, entonces esta slide. Aquí tenéis un resumen de herramientas, pero me gusta mucho más. Esta es una tabla periódica. No sé si todos conocéis lo que es una tabla periódica, pero bueno, básicamente es una forma de estructurar herramientas en función de para qué sirven. También en función freemium con créditos gratuitos y es una buena forma de esa gente que no sabe muy bien por dónde empezar. Conocer un poco el paradigma que hay actualmente. Después también en el otro extremo está la gente que está deseando siempre conocer nuevas herramientas, nuevos usos. Yo creo que lo importante es un equilibrio, ni dejarnos abandonados de que la IA no va a servir para nada, ni tampoco estar siempre a la última, porque de no vas a llegar llegar a nada. Mi consejo es siempre intentar aplicar aquellos casos de uso que pueden ser beneficiosos, beneficiosos tanto para vuestra vida como para vuestro trabajo. Y si hay momentos que tenéis libres, ya sea durante la semana, durante el fin de semana, pues dedicarle media hora, una hora a la semana a explorar nuevos usos, nuevas herramientas, porque así es como realmente, realmente se aprende. Entonces vamos a empezar ya con con materia, con prompt. ¿Y entonces qué es esto? De seguro que a muchos suena. Yo creo que ya es un concepto que casi todo nos tiene que sonar. Es básicamente una instrucción y la forma en la que nosotros vamos a preguntar a las inteligencias artificiales. Y aquí es este un concepto que se llama ingeniería de prompt. A mí no me gusta nada llamarlo y ya no considero esta, pero bueno, mucha gente lo llama así y para mí es el arte o la ciencia de diseñar y optimizar estos proms, es decir, de cómo hablar con ellos, con la inteligencia artificial y la realidad parece puede ser muy complejo, pero es bastante sencillo. Yo siempre hago la analogía que hablar con estos sistemas de inteligencia artificial, con estas herramientas, es como hablar con una persona. Entonces a una persona le das unas instrucciones claras paso a paso, eres específico por la persona, va a entender la tarea. Si en cambio se le explica de una forma muy mala, eres muy vago en los detalles. Muy subjetivo por la persona, tampoco va a ser capaz de resolverla. Pues esto si a estos sistemas de inteligencia artificial funcionan un poco, un poco igual en esos términos. Pero bueno, la que vamos a utilizar en el taller y en la que tenemos acceso a día de hoy en la universidad con la licencia que ya veremos después Para qué sirve esa licencia es CoPilot. Entonces, bueno, para aquellos que no lo utilicéis tenéis este. Este enlace yo la tengo aquí abierta directamente. También podéis instalarla como aplicación de escritorio. Bueno, las funcionalidades son muy parecidas y aquí la ves. Esta es mi mi ventana de CoPilot y es muy parecido a GPT, que seguramente que es la que conocéis casi todos porque es la que primero llegó en este, en esta revolución de la idea generativa y todas las demás empresas pues básicamente copiaron un poco esa idea de tener un sistema, un chatbot con el que preguntar las cosas y eso sigue perdurando a día de hoy. Entonces un prompt básicamente preguntarle a través de este, de este chat, digamos de CoPilot, cualquier instrucción. En este caso se enseña que un ejemplo de explícame que es un pronto y me devuelve pues aquello que considera CoPilot que es un robot es. Una cosa que sí que me gustaría ya destacar es que en CoPilot, que es de Microsoft por dentro, utiliza los modelos de OpenAI. De hecho, si nos vamos aquí a la pestañita de perdonar de arriba que puedo seleccionar, vemos que pone GPT, pone GPT tres GPT cinco cuatro GPT 5252. Bueno, son diferentes modelos que en este caso son todos de OpenAI, pues hay un acuerdo entre OpenAI y Microsoft y por dentro utiliza sus modelos. A veces no es funcionan exactamente igual que en, pero bueno, intentan parecerlo lo máximo posible. Si son problemas de integración, bueno, no vamos a entrar a entrar en ellos. Entonces la realidad, como he dicho, es decir, cuanto mejor sea nuestras preguntas, mejor van a ser nuestras respuestas. Esto lo voy a enseñar con un ejemplito. De hecho es una investigación que hicimos nosotros hace un año ya. Los datos han cambiado, pero bueno, la esencia es la misma. Simplemente le planteamos un acertijo. ¿GPT era en este caso y si le planteamos el acertijo tal cual, fijaos que la pregunta es cuántas pelotas de golf azules hay? Es un poco más complejo si lo leemos. Si no le decíamos nada más, eso se lo pasábamos a muchas ideas y solo el 17% eran capaces de responder de forma adecuada. En cambio, si le añadíamos simplemente un vamos a pensar o piensa paso a paso al final de nuestro prompt, ya está por por 100 de las ideas acertaban o el 58%. Es decir, darle unos pasos adecuados, unas preguntas adecuadas incluso es tan simple como decirle oye, no me respondas directamente, vamos a hacerlo poquito a poco e ir orientándolo hace que los resultados sean mucho más beneficiosos, pues todas aquellas personas que lo usáis decís esto funciona fatal. Muchas veces el error es que la forma en la que le estamos preguntando no es la mejor posible. Entonces aquí lo que es básicamente es explicar cómo hacer buenos prompts. Va a ser sentido común, pero muchas veces el sentido común es complicado llegar a él. Bueno, pues aquí os enseño unas guías para que todas las tengamos presentes. ¿La primera es claridad y concisión, es decir, debe ser claro y directo, no por las ramas, evitando además ser específico explícitamente, pues qué tipo de texto quieres obtener? Oye, mira, quiero tener un poema. Quiero tener un ensayo, Quiero tener un texto legal. Quiero tener un tono formal e informal. Eso significa ser específico. Lo bueno de estas ideas es que tú le puedes pedir que se adapte a cualquier tono. Incluso puedes pedirle si es una cosa muy compleja, que te lo explique como si fueras un niño de cinco años y va a adaptar el tono y poniéndote ejemplos muy muy sencillos también instrucciones Oye, mira qué es lo que quiero. Igual lo que quiero es que me respondas una pregunta o me compares dos dos textos o que me lo contraste, analices. No va a ser todo, responde. ¿Me preguntas Puedo ser más específico con la tarea? Aquí veo en el chat que le puedes decir no inventes nada. Ojalá eso funcionara. Cuando tú le dices no inventes nada el modelo, pues como una persona tú se lo das. La persona tiene sus conocimientos y tampoco va a saber a ciencia cierta que se está inventando o que realmente es algo que tiene factual. Para eso hay herramientas como Notebook, LM o incluso el propio CoPilot. Si le pasamos documentos que le vamos a alimentar, más las fuentes de información en las que va a beber esa esos datos. Pero cuando le preguntamos no inventes nada, no vamos a asegurar asegurarnos que que no se vaya a inventar nada el contexto. Esto es importantísimo. Los modelos al final solo saben la información con la que han sido entrenados y a veces ni eso. Entonces, muchas veces los modelos no van a tener el contexto sobre la Universidad Politécnica de Madrid o determinado procedimiento administrativo o determinado problemática que tengamos. Entonces es muy importante pasársela ya sea a través de ficheros, ya sea a través del propio prompt. Decirle oye, mira, te voy a explicar, estoy en la UPM que trata sobre esto, esto. Ese contexto es vital y también es importante que ese contexto quepa y no seamos muy generosos, digamos, y quepa la ventana de contexto. Y has comentado antes, Fernando, vamos a ir viéndolo con ejemplos también ejemplos. Si tienes ya ejemplos de lo que tú quieres, pasárselos así se va a dar muy bien a lo que tú necesitas. Por ejemplo, si necesitamos que tengas un lenguaje de cierta forma pasa el ejemplos de textos en que utilices ese lenguaje y va a intentar imitarlo. La forma en la que tú hablas, por ejemplo. Yo creo que estas características de buen prompt es importante tenerlas, tenerlas en mente. Pero bueno, os pongo aquí varios ejemplos de pronto que yo creo que son efectivos. Este primero está orientado a docentes, después vemos uno adaptado a personal administrativo. En este caso lo que necesito es hacer una guía de una asignatura en diseño de una asignatura y fijaros qué pedazo prompt le estoy pidiendo. Oye, imagina que eres un docente de universidad. Sería Le estoy poniendo en un papel, en un rol y que tiene que enseñar un curso sobre la aplicación de la inteligencia artificial, Educación, como sería este taller, para entendernos, con el objetivo de proporcionar a otros profesores una comprensión profunda de cómo la IA puede transformar el sector educativo. La asignatura debe ser adecuada para profesores de universidad en áreas como ingeniería, arquitectura, ciencia, deporte. ¿Veis? Le estoy dando el contexto, en este caso de la UPM, que son las carreras que tenemos y además le voy diciendo lo que yo quiero. Oye, quiero que incluyas objetivos de aprendizaje, temario, metodología de enseñanza, evaluación y por último el tono. El tono debe ser académico y detallado, adecuado para el diseño curricular de una asignatura universitaria, etcétera, etcétera. Veis, es un pro muy amplio, con muchos detalles y esto me va a garantizar que el resultado sea mucho mejor, que se le pongo directamente una frase de diseñar una asignatura de inteligencia artificial. Incluso le podría haber dicho que era para la UPM y seguro que los resultados son son mejores. Lo que voy a hacer ahora es copiar este texto y me lo voy a llevar directamente aquí a CoPilot. Y de hecho, esto es lo que acabo de hacer, copiar todo ese prompt y se lo paso y ya vamos a ir viendo cómo los resultados se van a ir amoldando a lo que yo le estoy pidiendo. Cosas que ocurren a veces que a mí no me gusta mucho. Pues que te pone este tipo de texto introductorio. Esto lo hacen casi todos los modelos. A continuación se propone el diseño curricular. Etcétera etcétera. Pues muchas veces yo creo que ya entres en temario, incluso en este caso fue poco explícito porque a veces te dice si te voy a responder a tu pregunta aquí. Bueno, se lo escucha un poco con el texto que nos podríamos llegar a imaginar, pero bueno, aquí ya vemos todos los. No sé si se ve bien la pantalla. Vale, veo que sí. En aquí se ven ya todos los detalles. Descripción general de la asignatura La rápida evolución de la inteligencia artificial. Objetivos de aprendizaje que todos los que lo pedí en formato objetivos que era lo que le pedía dentro del temario y me lo da en módulos con módulos con sus submódulos, que era justo exactamente lo que le pedía en el prompt. Es decir, se adapta exactamente a mis necesidades. La metodología de enseñanza a la evaluación me propone una evaluación que aquí ni siquiera en el bronce la puse. Esa evaluación por porcentajes aquí me la propone. Si me gusta, pues la cojo. No le puedo decir, solo quiero que haya un examen final, una población y el sistema lo que va a hacer es adaptarse a esas necesidades que yo le estoy, le estoy pasando en cada en cada momento. Aquí si os fijáis, en vez de devolverme todo directamente me devuelve solo esa sección. Cinco con evaluación con un examen final de 100% de la calificación. Como vemos, es un proceso iterativo en el que yo voy a tener que ir pidiéndole cosas y me va a ir devolviendo. Aquí ya os quiero llamar la atención en cosillas que he visto en el propio pronta respuesta que me gustan siempre, siempre decir bueno, aquí no lo veo tan tan claro. A veces encuentro alguno pensaba que sí, pero no, también porque he sido muy claro en el Bronx. Vais a ver muchas veces que estos modelos tienen sesgos y te incluyen ciertas formas de actuar. Una forma de actuar es que están llenos habitualmente de guiones como estos que veis aquí. Enseñanza aprendizaje. Estaba buscando alguno, pero lo he visto que en este pronto el salto no nos lo ha devuelto. Para separar aclaraciones. En España no utilizamos guiones, utilizamos paréntesis o comas. Entonces si vemos un texto, el que lo publicamos en la web de la UPM con esos guiones, a la gente le va a sonar muy raro porque no la forma de escribir en España. Eso sí es muy típico en hablantes anglosajones, pero no en España. Nosotros tenemos que evitar los otros sesgo muy típicos que te devuelva todo en formato listas. Si os fijáis aquí, como yo he sido tan explícito en mi prompt, no me ha devuelto todo lleno de listas, salvo las cosas que yo le pedí que fuesen listas. Esas cosas las vas a tener que ir experimentando a medida que vayáis jugando con con diferentes props y vais a ver cómo va a mejorar la cosa poco a poco. Estoy leyendo por aquí en el chat. Si llega una respuesta que consideras definitiva lo dejas, pero dentro de tres días vuelves al prompt. ¿Se acuerda o hay que darle de nuevo todo el prompt contexto? Vale, eso es muy buena pregunta y aprovecho y lo enseño con el chat. Si yo ahora mismo esto me quedo aquí en esta tarea y y digamos que me paso a hacer otras tareas y vuelvo dentro de cinco días a la misma conversación. Esto es lo importante. Tengo que volver a la misma conversación. ¿De hecho, normalmente aquí puedes buscar en conversaciones pasadas, vale? O incluso entro en archivos, Pero si vuelvo a la misma conversación, he aquí los chats pasados. Imaginaros que ahora vuelvo yo a este chat, que no sé de qué va desde hace cinco días. Si vuelvo a escribirle aquí, él permanece la memoria con ese chat, con lo que tenía en ese hecho previamente. Si empiezo una nueva conversación, ahí sí que voy a tener que darle de nuevo el contexto de cero, ya no acordarse. ¿Te acuerdas de la asignatura? Es dábamos diseñando. En teoría no se debería de acordar. Si se acuerda ahora es porque igual Copei lo tiene integrado, que pueda mirar en otros chats, pero bueno, ya veis que no, ahora mismo lo tengo en contexto en esta conversación sobre esa asignatura. Sin embargo, si me vuelvo aunque sea dentro de cinco días a la conversación. De la asignatura de Estamos diseñando. Bueno, a decir que obviamente si claro, estamos diseñando la asignatura universitaria sobre la aplicación de la inteligencia artificial, entonces cositas que tenemos que tener claras. Por eso es bueno no mezclar. Si voy a hablar de otra cosa, abro nuevo chat y además si me interesa mucho este chat, lo puedo incluso cambiar el nombre para que me acuerde de diseño asignatura y así ya lo tengo ahí, ahí marcado. Bien, vamos a otro ejemplo de. De pronto este mes de hacer el front entero voy a ir poquito a poco y lo que le voy a pedir son caso para aplicable a cualquier tipo de persona, ya sea personal, administrativo, como personal de investigación, como profesores. ¿Pues oye, qué tipos de contratos de investigación existen en España actualmente? Y ya le digo oye, que solo quiero una lista y al final una tabla comparativa de todos ellos en una forma explícita, diciéndole lo que quiero y lo que no quiero y lo que va a hacer es llevármelo. Entonces abro un nuevo chat, como os digo yo que es buena idea siempre. Si cambiamos de tema totalmente, pues no vamos a dejar cosas. ¿Qué tipo de contrato de investigación existe en España actualmente? Que solo quiero una lista y al final una tabla comparativa de todos ellos. Aquí se os fijáis y ya os voy a adelantar dos cosas. Pone Alineando cosas. Esto lo que significa es que va a estar buscando en internet posiblemente esta información. Cuando los sistemas detectan que hay cosas que pueden encontrar la mejor en Internet que con lo que saben ellos internamente, muchas veces van a hacer una búsqueda primero en Internet, es lo que acaba de hacer. Y aquí pues llamada de vuelta. A continuación te indico los tipos de contrato de investigación vigentes en España y solo me da la lista y al final una tabla o esos. Pero yo. Lista de tipos de contratos. Contrato productora. El acceso de personal Investigador Doctor. Contrato de investigador distinguido. Contrato de actividades científico técnicas y una tabla de ellos. Bueno, vemos que yo creo que aquí faltan algunos en. O sea que los resultados no siempre son son los óptimos y a mi gusto sí que me gustaría que falta alguno más, pero vemos como a nivel de contenido me has devuelto lo que yo te he pedido, nada más ni nada menos. Una lista y una tabla comparativa. ¿Me dices etapa de investigador, duración, Navidad principal, etcétera, etcétera Además me dice importante de dónde lo has sacado? Estos son los orígenes. Como os dije, parecía que se quedó un rato ahí pensando eso de que había ido a buscar en internet y en concreto ha consultado estas fuentes de información para devolverme la la respuesta. Además, me propones Oye, si quieres profundizar, pues puedes preguntarme sobre esto, añadir ejemplos prácticos. ¿Veis? Aquí ya incluyo otros tipos de de contratos que pensaba que me iba a devolver FPI Juan de la Cierva, Ramón y Cajal ya me lo está sugiriendo entonces y veo que es un completo. Puedo aprovechar y decirle que sea más completo. Ahí tenemos que ser exactamente ejemplos. Como vemos, esto es justo el resultado y vamos a ir después a lo largo de la de la sesión, perfeccionando estas tareas. Aquí simplemente os estoy dando resultados muy, muy sencillos. Como digo, lo ideal es ir perfeccionándose. Una cosa que sirve para perfeccionarse es si nosotros vamos a tener una tarea bastante repetitiva y esto nos ocurre a muchos en nuestro en nuestro trabajo, pues esto es una capacidad. En CoPilot vamos a tratarlo con un agente en otro sistema se llaman System Prompt, que es donde tú defines ese rol o comportamiento general que quieres que tenga Tu modelo. Es como oye, mira, yo quiero que te comportes así en toda la conversación, en me defino al principio también se puede hacer al principio, si puedes definirlo en un sistema prompt, si sobre todo va a ser una tarea que vas a repetir muchas veces, pues definido como system prompt y es como la receta de lo que yo quiero que tú te comportes y después vamos a tener el prompt que es el de usuario, que es la conversación típica donde ya oye, sabiendo que tú te vas a comportar así, te voy a preguntar por algo específico para aquí tenemos varios ejemplos donde tenemos en rojo el system prompt. Pues oye, eres un corrector de faltas ortográficas y de puntuación. Solamente debes indicarme las faltas de ortografía o indicar correcto cuando todo esté correcto. Es decir, le estoy indicando aquel modelo que no tiene que hacer nada más ni explicarme nada más. Simplemente corrígeme ortográficamente o indícame si está correcto. Y en azul tenemos pues el correspondiente, que sería la pantalla de del chat, donde hoy estoy en el taller de Inteligencia artificial con fallos ortográficos y aquí me espero que simplemente me devuelvas, me devuelvas eso aquí os lo enseño con otro ejemplito. Pero yo creo que lo más sencillo, pues como siempre, es verlo en la práctica de lo que voy a hacer aquí es bueno nuevo chat y lo que voy a hacer es un nuevo agente para profesionalizarnos en agentes. No sé si hay alguna alguna sesión más relacionada con esto, pero no voy a entrar en todos los detalles. Así que sí, Javier, ahí hay alguna sesión posterior para hablar en concreto de la parte de agentes. Perfecto, Entonces solo me voy a quedar con lo superficie de la gente que va a ser poner el nombre. Así que yo le voy a dar el nombre que yo quiera. Pues Pepito, vale. Y aquí es la descripción y la instrucción. Esto sería nuestro system prompt. Vale, pues aquí yo le puedo decir que como instrucción y que me traduzcas todo lo que te ponga al inglés solo es vale, eso está haciendo una instrucción clara. A veces incluso vamos a ver que no se comporta del todo como queremos ser más explícito y no me incluyo nada más, ni una testo previo en un texto posterior, solo traduce vamos a intentarlo así incluso voy a copiar esto de una descripción y aquí veis que hay muchas configuraciones extra que no voy a entrar a ella. Eso ya lo dejamos para temas de agentes que vais a ver, que es una cosa mucho más potente que lo que os estoy enseñando ahora mismo. Pero para esta instrucción básica, eh, me va a servir. Ya tengo aquí yo mi agente Pepito y ya me de entrar con nuevo chat. Entraría a Pepito que tiene ese system configurado y le voy a poner un texto. Hola Javier, si la configuración ha salido bien y como os digo por culpa de la de que la llamas determinista, a veces vamos a tener un resultado, decís otro y a veces vamos a tener que mejorar ese system prompt, pues obtendremos el resultado esperado, que es que simplemente me lo traduzcas. Vale, está tardando un poquito, un poquito. Esto es normal a veces. Vamos a ver si me lo devuelves por aquí. ¿Mientras que termina Javier y por hacer un poquito de tiempo indicaros que ahora mismo Javier está alojado, o sea, está, digamos, accediendo con su cuenta de la UPM, de hecho arriba en la parte superior derecha, aunque muy pequeñito no? Ahí tienes el eh. ¿Vale, lo vas a comentar luego? Javier Si, lo voy a comentar, contarlo. Bueno, perdona, era por hacer un poco de tiempo mientras traducía ya traducido perfecto. ¿Ves? ¿Veis? Aquí en vez de devolver más información, simplemente me ha traducido esto es una tarea muy tonta traducirlo. Podríamos haber hecho con un Google traductor o con lo que sea, pero pueden ser tareas mucho más complejas y que sea mucho más complejo. Entonces ya no mañana. ¿Imaginaros que tuviese otra vez que traducir, no? Vuelvo a decir oye, traduce, me estoy solo, me traduzcas, me vengo a mi agente Pepito, a mi system Pepito y ya está como preconfigurado. Bien, eso sería el sistema. Existen pronto para para entendernos, más técnicas que nos pueden ser útiles. Pues aquí os enseño más. Es el primero que quiero enseñar es n n muestra se llama cuando yo quiero que el sistema se comporte también de una cierta forma. A veces si tengo ejemplos, me va a resultar muy muy útil el poder pasárselos. En este caso imaginaros que tenéis que sois alguien de la UPM que se encarga de ver las redes sociales y no sé si este este error, pero ver en los comentarios o en blogs o lo que sea para determinar si un comentario que nos dio las personas positivo o negativo podría hacerlo manualmente. Hoy en día que tenemos la IA podemos pasársela y que la IA sea capaz de entender si ese comentarios positivo o negativo. En esas tareas la IA funciona muy bien la verdad. Ya son capaces de entender el lenguaje también, como nosotros. Entonces sí Lee, me encantó la conferencia. Por mí pues vas a ver que eso es positivo o negativo. Lo que ocurre es que si nosotros le pedimos a una IA que nos lo clasifique, nos puede devolver mucho texto o puede inventarse, por ejemplo, una escala de positivo del uno al diez. Si no le indicamos los datos puede ser complicado que lo haga bien. Entonces aquí, en vez de ponerle ese prompt explícitamente que exigen positivo y negativo, le paso. Entonces se llama n y es lo que vamos a probar aquí. En este caso es simplemente clasifica textos en positivo o negativo. El verde serían los ejemplos y después lo que ponga yo por debajo que lo vemos ahora en CoPilot sería el voy a abrir un nuevo chat, el lo que yo me esperaría que ya fuese capaz de de clasificar. Este sería mis ejemplos como digo. Ejemplo uno. Ejemplo dos Si se lo voy a dar ya de de entrada con el que me esté en eso tenía que haberlo quitado. ¿Vale? ¿Dice Entendido? Ya sé lo que quieres hacer. Pues te paso ahora ese texto nuevo que yo no he clasificado ni se lo he pasado ya con el resultado. Y entonces la IA idealmente me va a dar pues un sentimiento positivo. La explicación fue clara y muy y no me ha dado más datos extra ni nada, simplemente te has limitado a esa tarea específica. Esto, por ejemplo, lo he hecho en un chat. Podría haberme llevado a un sistema como si lo enseñé antes. Y si tengo una tarea que hacer semanalmente de pasarle comentarios de personas, sería capaz de catalogar de una forma muy sencilla. Veis por caso de uso que también os voy explicando que yo creo que pueden ser útiles en muchos casos y no quedarnos simplemente en que no respondas a una pregunta bien según una técnica que puede ser muy útil y realmente en la que vamos a estar aplicando nuestro día a día aunque no nos demos cuenta, es la de cadena de pensamientos. Se consigue, existen forzar el modelo en que resuelva las cosas poco a poco. Si le doy una tarea muy muy compleja, le pido que me respondas ya. El modelo ahí va a tener, va a tender a inventarse la respuesta o a equivocarse. Esto como cuando nosotros estábamos en el colegio si nos ponían un problema. Típico problema. Imaginemos que eres un profesor de física. Me tienes que explicar cómo resolver el siguiente problema. Un portero del fútbol le da una patada a un balón con un ángulo de 30 grados tal que el balón sale 80 kilómetros hora del pie. ¿Qué distancia recorre? ¿O los típicos de los trenes que estamos todos acostumbrados del instituto? Si le pedimos directamente al alumno dame un resultado sin razonar, pues el alumno sin hacer ningún cálculo ni nada, pues va a intentar estimarlo, pero seguramente que falle puesto. Ocurre lo mismo con los modelos. Si al modelo voy y le digo oye, mira que devuélveme ya de si la respuesta, pues los modelos no van a ser capaces de hacerla de forma adecuada. Entonces, cuando nosotros vemos que el modelo no se comporta bien con el resultado que obtenemos, pues podemos ir guiándole poco a poco. Pues mira, quiero que primero hagas esto y con esto quiero que ahora utilices el resultado para hacer otra operación o este otro proceso. Cuando le vamos guiando es como a las personas la hacemos la tarea más sencilla y a veces cosas que son muy complejas son capaces de resolverlas. Esto mismo en en día se hace con lo que se llaman modelos razonadores y ya lo intentan hacer ellos automáticamente. Si detectan que algo es muy complejo, se intentan a sí mismos generar un plan de acción e ir haciéndolo. Pero a veces incluso tengo que yo forzarme a tener paciencia e irle poquito a poco guiándole. Entonces bueno, simplemente que nos quede ese ese concepto que muchas veces no vamos a ser capaces de tener lo que queramos con un simple prompt, sino que hay que ir guiándole poco a poco y así los resultados van a ir mejorando mucho, creedme. Creedme que eso es así. Vale, aquí os dejo más técnicas. De las que más me gusta son esas dos, la de bueno, esas tres, la del system prompt, la de los ejemplos y esta última. Pero aquí tenéis otros. Están enfocados en educación, pero si los leéis valen también para vuestro vuestro día a día, con ejemplos muy muy, muy útiles. Aquí era lo que os mencionaba antes. Vamos a tener diferentes dentro de los modelos, diferentes tipos o subtipos de opciones. Esta es la enseño Concha GPT, pero ahora me la llevo a la siguiente diapositiva CoPilot. Pero como muchos usuarios GPT en vuestra vida privada seguro que es muy familiar. Pues nosotros aquí en GPT se le damos a más. Como veis en la pantalla vais a ver que vienen diferentes acciones. Igual muchos ni la habéis visto, ya que quiero resaltar la que veis en rojo que pone búsqueda en internet, quiere decir que si lo accionamos le vamos a forzar al modelo a que busque la información en internet como si fuéramos nosotros buscando en internet, pues este busca en internet y con lo que te responde esto va a hacer que reduzca las alucinaciones. Como dije antes, los modelos ya van a intentar entender cuando es beneficioso buscar en internet y cuando no, y normalmente de forma automática lo van a hacer. Pero si vemos que no es el caso podemos forzarle. Eso es interesante. Pero bueno, ya digo que muchas veces lo hace automáticamente. Las que no son tan automáticas son estas dos la de pensar antes de responder. Estos son los modelos razonadores que son más caros porque dedica más tiempo a generar la respuesta. Realmente lo que hacen son muchos tokens de salida y se va realimentar el modelo con esos tokens, es decir, con su propia respuesta. Es como si va a resolver el problema paso a paso y se va guiando de lo que ha obtenido para ir evolucionando. La respuesta son más caros y las respuestas tardan más en llegar, pero suelen ser de mejor calidad. Y esta última vez, que para mí es muy muy muy chula, es la de Deep Research Investigación avanzada, que lo que hace es dedicar mucho tiempo, a veces incluso hasta diez 15 minutos investigando por diferentes fuentes de información. Pueden ser fuentes que tú le proporciones o si le dejas libertad por internet. Pero no es que se limite a entrar en una página y ver la superficie. No va a entrar en las tripas de la web y va a intentar si ve un enlace a otra página web, pues ir a esa otra página web y obtener un informe muy, muy avanzado, muy profundo de todo lo que tú le hayas pedido. Eso se llama investigación profunda de como es muy caro, normalmente se tienen unos usos limitados, incluso creo que ahora en la versión de CoPilot que tenemos esto no está activado, pero si activas el modo razonador que ahora lo vemos como hacer, llegas a un paso intermedio y posiblemente en futuras versiones sí que lo vuelvan a integrar. Lo de la investigación profunda en CoPilot sabéis que lo de licencias cambia casi de día a día, es importante al menos conocerla o si utilizáis otras herramientas para vuestra vida privada o cosas que no sean críticas. Por ejemplo, si le quiero preguntar algo que es público de acceso público en internet, pues ahí no tengo que tener peligro de que le esté pasando yo datos privados de la UPM que no estén protegidas por esa licencia que voy a contar luego. ¿Entonces puedo utilizar esta investigación investigación profunda en Copa y como es el equivalente puesto en esta diapositiva ahí arriba en el botoncito que ahora le doy, me dejas automático que le dejas elegir o respuesta rápida o razonamiento profundo automático? Pues va a intentar adivinarlo, pero si vemos que no es muy bueno puedo forzarla que haga este este razonamiento profundo y que va también a hacer una investigación profunda, no tan al profundo nivel en el caso que lo que sea necesario. Entonces lo que voy a hacer aquí es rápidamente me vuelvo a a mi copiloto. Lo digo, está aquí arriba. Respuesta rápida o razonamiento profundo, Les voy a abrirme una nueva, un nuevo chat. ¿Voy a seleccionar Razonamiento profundo y le voy a volver a hacer la misma pregunta que le había hecho antes de Oye, qué tipos de contratos de investigación existen en España? Solo quiero una lista y una tabla comparativa de todos ellos. Voy a quitar esto para dejarle que piense un poco más y esto en tu razonamiento profundo. Si antes no se activó por sí mismo, puede ser que se haya activado, porque cada detectado que requiere un razonamiento va a ser una búsqueda bastante profunda en las webs y va a pensar en lo que ha obtenido para intentar dar una respuesta más, más razonada. Esto puede tardar un poquito. Ahora me pone contrato de investigación, búsquedas, algo que antes parecía que no me hacía, pues ya dedica más tiempo a hacerlo. Esto no es resultado final, sino que veis cómo el modelo va haciendo cosas por detrás, así que nosotros nos demos cuenta y aquí realmente lo que está haciendo son estas búsquedas, búsquedas profundas y me va a tener un resultado. Pues sí, era una pregunta muy compleja, bastante mejor que el que tendría si no usas razonamiento profundo, entonces quedaros con esto. Razonamiento profundo. Me parece muy, muy útil que lo conozcáis. ¿Vale? Esto lo voy a ir dejándolo ahí, Que termine. Tardará un poquito y voy siguiendo yo mientras contándoos más, más cosillas le vamos a tareas específicas. Búsqueda de información en internet. Esto era lo que os había comentado. ¿Entonces simplemente lo cuentas y por encima que puedo utilizar CoPilot para preguntarle como si le preguntas a Google Por qué? Porque lo va a intentar buscar en Google y devolverme la respuesta. Igual lo que hago es ahorrarme ese clic de entrar yo en las páginas de Google y ver los resultados. Ojo, esta búsqueda de información en internet igual no es tan precisa como si voy yo manualmente, entonces muchas veces no nos va a dar los resultados que yo espero. Por ejemplo, si buscamos convocatorias de proyectos europeos, posiblemente no me encuentre todas las convocatorias, que si yo voy manualmente o si incluso le voy diciendo mira en esta página web específica que ya he localizado yo antes, o si tengo activado ese razonamiento profundo, ese deep research, muchas veces me vas a servir de punteros, pero no me vas a servir como el resultado final. Pero sí que suelen ser cosas muy muy actuales, Por ejemplo, y no lo hago porque si no tardo mucho os lo enseño directamente. La página Noticias sobre la Universidad Politécnica de Madrid en el último mes. Esto, obviamente el modelo no lo sabe por sí mismo. Tendrá que buscar en webs y lo que te devuelve. A continuación te dejo un resumen claro y actualizado de noticias. Nueva Cátedra Nairobi es otra gestión de tráfico aéreo abril 2016 Total. Y aquí vemos a la derecha los orígenes, como se enseñaba antes en el botoncito de abajo. ¿Que me dices de dónde has sacado esa información? Puede ser de la web de UPM o puede ser de otras webs que haya mencionado a UPM. También puedo ser muy explícito en el blog diciéndole oye, buscan estas webs o limítate a estos a esta franja temporal. Eso sería búsqueda de información en Internet y esto sería la investigación profunda que os acabo. Os acabo de contar. La tenéis aquí en las diapositivas también, Pero no, no vuelvo, no vuelvo a ella. Vale. Antes de pasar asistencia a la escritura, vamos a ver si me has terminado. Vale. ¿Veis? Aquí me ha terminado. Y de hecho vemos una cosa que no vimos antes, que era lo del razonamiento completado en 23 pasos. Incluso me dices aquí todos los pasos que ha ido haciendo. Esto era lo que os contaba. Se va creando como su plan y va evolucionando. Lo veo y pues primero voy a buscar información sobre el tipo de contrato de investigación en España atendiendo a leyes recientes, después a realizar sus contratos de investigación, pues amplia con búsquedas. Bueno, veis aquí que son bastantes pasos, algo que antes no hizo y por eso tarda tampoco. Y vemos aquí el resultado ya que me da. En este caso me he dado un formato tabla y no lo había especificado de lo que quería. Bueno, me vas diciendo diferentes tipos de contratos. Detalle de cada uno de ellos. Bueno, si vemos los resultados que puede ser que sean mejores, seguramente sean mejores que si hubiese hecho la búsqueda. Si en ese razonamiento apartado aquí vamos a tener que ser nosotros suficientemente listos para saber cuando dejamos al modelo que actúa automáticamente o cuando forzamos el razonamiento aunque me conlleve más tiempo o cuando no lo necesito. Por ejemplo, si le voy a preguntar cuál es la capital de España, pues no voy a necesitar razonamiento. Sé que no vas a responder bien, bien, esto es un poquito práctica, digamos. Vale, vamos. Asistencia a la escritura. Una de las tareas fundamentales que yo veo que me puede ahorrar mucho tiempo es ayudan a escribir mejor todo lo que hemos aplicado a diferentes tareas o las voy enseñando por aquí. Esta, por ejemplo, es una convocatoria de movilidad de investigadores. Seguro que muchos la conocéis tanto el destinador y docentes como incluso personal administrativo. ¿Gestionarse esta ayuda Profesionalidad compleja en la que va por un sistema de puntuación que también dependiendo del momento en el que se encuentre el investigador puede optar a ciertos puntos y a otros puntos, no? Bueno, tenéis ahí el enlace y el sistema de puntuación. ¿Veis que es una cosa un poco un poco enrevesada? Pues yo si me llega recién ahora es que estoy yo en un servicio de QA y alguien me pregunta esto mismo. ¿Una persona que obtuvo el título de doctor en el año 2024, qué puedo aplicar o que no puedo aplicar? O si quiero hacer una sección de ejemplos para que la gente que vaya a solicitar esta ayuda pues sepa cómo. ¿Cómo leer el documento? ¿Pues puedo hacerlo yo manualmente o directamente puedo pedirle a un LLM que me lo haga Para ello, qué voy a hacer? Pues le voy a pasar. El contexto vale, el contexto es básico. Le paso toda la ayuda en formato pdf que se la puedo adjuntar. Que bueno como es, son pocos en hojas. En este caso va a funcionar bastante bien o incluso son muchísimas hojas y yo quiero solo limitarme a esto. Le puedo estar el texto explícito de los puntos que aplican y le puedo preguntar por la pregunta que me ha hecho el usuario en vez de hacerlo yo automáticamente. Pues es lo que voy a hacer, me abro una nueva conversación. Vale, aquí lo que le estoy pegando, vale, es justo lo que veía. Es la diapositiva, los puntos hasta 15 punto por excelencia del centro destino, hasta diez puntos, etcétera Incluso el formato. ¿Veis que se lo paso aquí? No ha puesto ni saltos de línea ni nada. Lo van a entender bastante bien. Y le voy a poner justo esta pregunta. Esta información. Es para aplicar a una ayuda de movilidad en la UPV. Eh un doctor del año 2001 investigador, un investigador que tuvo su doctorado en el año 2024. ¿A qué puntos puede optar este medio? Limitarme a responderlo manualmente. Voy a delegar en el modelo en que sea capaz de hacerlo por sí mismo. Aquí, si os fijáis, tengo el razonamiento activado, pues igual esta tarea no requería razonamiento, lo tenía tirado porque se me quedó. Va a tardar un poquito. Entonces lo que voy a hacer es abrir un nuevo chat y voy a desactivar el razonamiento para que no tarde tanto. Yo creo que pasa también hace falta mucho razonamiento, es procesar texto muy muy sencillo. Te vemos que ya tarda mucho menos en responderme y ya me dices oye, a qué puntos puedo puedo optar como investigador de año 2024 y te en el centro de destino, plan de trabajo, etcétera, etcétera, etcétera. Esto me lo has dado en un formato que igual a mí no me gusta. Podría pedirle Oye, pues dámela al final en un texto, en un único párrafo, para que se lo pueda responder a la persona por email. Ojo, aquí no estamos libres de de que haya alucinaciones, pues tendría que verificar esto. Es importante siempre saber que no estás libre de alucinaciones del sistema. Lo ventaja es que yo escribí esto igual me lleva diez minutos, pero en cambio verificarlo me lleva uno ahorrado una fracción de diez por tiempo incluso. Bien, ya aquí estaría una tarea de asistencia a la escritura, en este caso a responder una pregunta Oye, que me piden que yo esto es lo que quiero. Al final es devolverlo a un formato tabla porque no quiero incluir la convocatoria para que sea una cosa muy visual, pues le puedo pedir oye, representa estas mismas condiciones en un cuadro con puntos y pues el sistema se va a adaptar. Pues veis, no lo hago, simplemente os lo muestre aquí me devolvería simplemente una tablita con hasta 15 puntos tipo mérito del centro de destino, condiciones previas como justificarlo, etcétera etcétera que es justo lo que le pido en el producto. ¿Representa las condiciones en un cuadro con puntos tipo condiciones previas, cómo justificarlo? Es decir, pídele lo que necesites que muchas veces va a ser capaz de resolverlo. Imaginaros que ahora nos llega alguien o una ayuda internacional y lo tenemos en España. Lo tenemos que traducirlo, pues tan fácil como pedirle que me lo traduzca al inglés. Podría utilizar sistemas de traducción previos que tengamos, hacerlo a mano. Realmente hay los LLM es para traducción son excelentes. Mucho mejor, por ejemplo que Google traductor utilizar traduce me las condiciones al inglés se lo he pedido y veis cada una de las condiciones. Vamos, tendría que hacer un chequeo rápido, pero en temas de traducción ya os digo yo que casi casi nunca se va a confundir. Yo últimamente no he visto ningún error en traducciones. Bueno, siempre que son cosas muy críticas, mejor echarle, echarle un vistazo. Vale, eso sería todo. Vale más ahorrar un poquito de tiempo a la hora de escribir, pero después pueden haber preguntas que incluso a mí me lleva hace un tiempo de razonar. Incluso tendría que hacer cuadrar varias cosas diferentes. ¿Como puede ser esta pregunta Cuántos puntos como máximo puede obtener una persona que obtuvo el doctorado en año respecto a una que otra tuvo hace 20 años como como doctor? Esta es una pregunta un poco más compleja porque requiere analizar como el gorro de persona que tiene el doctorado hace un año pasarle la pregunta yo como persona tendría que ir punto a punto apuntándome los que podría aplicar, guardarlo en algún sitio, pues sumar. Y lo mismo con la de 20 años. Pues si yo se lo pregunta al sistema, el sistema es capaz de hacer esa tarea por sí mismo. Aquí sí que me recomendación, por ejemplo, que esto es una tarea un poquito más compleja, es hacerlo incluso con el razonamiento activado. ¿Y os lo digo por qué? Porque esta demo la hice antes y me dio resultados diferentes a los que tenemos aquí en la comparación final. Es decir, que uno de los dos se equivocó, nos vamos a hacerlo. De hecho, y vemos el resultado que obtenemos. Vamos a preguntarle por aquí cuántos puntos podría obtener como máximo una persona que se doctoró hace un año versus una persona que se me todo hace 20 años, vemos que nos devuelven y con esto vemos que tareas muy complejas son capaces de resolverla. Pero oye, que también tenemos que tener cuidado, que no muchas veces nos va a dar la respuesta, la respuesta correcta. Vemos que aquí parece que se me ha quedado tostada. Esto algunas veces pasa simplemente si le doy a stop y vuelvo. A entrar, pues vuelvo a pedírselo por aquí. Vale, vamos a pedirle que me lo vuelva a hacer. Vale, pues mirando mientras el chat. Vale, Bueno, vamos a ir dejándolo por ahí mientras. Bueno, ya me está respondiendo. Puntos comunes. Personas. El doctor hace un año va haciendo su razonamiento y vemos que bueno, a ver si aquí al final me dará un resumen de todos ellos. Vale, vemos que me has dado un resultado diferente al que me diste. La diapositiva 92 versus 97 solo es que me da 92, es un 97 y en la diapositiva hemos visto que me da más 88 cinco Tarea poco complicada, no activé razonamiento con razonamiento. Yo creo que lo va a resolver bien, pero esto también nos tiene que llevar un poco a ojo. No todo es tan bonito como parece y tienes que chequear siempre, siempre las cosas, pero si identificamos tareas en las que funciona bien, que eso también va a ser labor nuestro, pues ya vamos a estar más seguros de si eso es capaz de hacerlo. Ahora que he visto que esta tarea no, igual ya no me fío tanto en esta. Si lo lleva a hacer bien, pues igual ya me fiaba más en otros, en otros casos siempre comprobándolo, pero intentaría resolverlo con con con CoPilot, más cosillas que yo creo que me parecen relevantes. El búsqueda en. En documentos que yo tengo en mi propio ser Paint o que incluso puedo adjuntar. Esto se puede, se puede hacer sin sin ningún tipo de de problema y lo vamos a hacer o los con un caso de uso también me gusta, me gusta mucho. Voy a abrir por aquí que es que va a haber una nueva conversación. Yo tengo un Excel vale Con todos los contactos que tengo de gente que conozco, de proyectos, gente que conozco de personal administrativo para diferentes procedimientos, pero yo tengo un experto, el que tiene muchas entradas, entonces si tengo que buscar a alguien, pues típicamente entro en el Excel y lo busco, ya sea por palabras clave, me tengo que acordar como había identificado a esa persona o a qué área pertenece. A veces no me sale el nombre del área, pues eso me lleva tiempo. En cambio si yo le puedo pasar el Excel en este caso y con esos datos puede utilizar el lenguaje natural. ¿Y voy a hacer esta pregunta en qué despacho se encuentra abierto? Vale, me pregunto por mi mismo que también hay una fila. Esa sociedad a mí con todos mis datos para que no se revela que la información de nadie y me está diciendo oye, mira que el despacho de Javier B2 uno y ten cuidado que ve 323 figura como antiguo exactamente en el Excel. En la fila pone eso que mi localización es el uno y entre paréntesis pone el anterior despacho del 323 pues en el que estaba anteriormente. Esto me puede ahorrar mucho tiempo. Vale, si tenéis información y hacer búsquedas sobre ella, pasar el documento y hazlo. Eso es lo que me lleva justo al punto que ya había mencionado Fernando previamente que es Me voy adelantar aquí que cuando nosotros utilizamos guías, sistemas de Ias que son gratuitas, no vamos a tener esta licencia que tenemos en la UPN. Que garantizan pues que todos los datos que tenemos dentro de de Copa y de y que le pasamos a CoPilot Chat van a estar protegidos, es decir, que no van a haber fugas de información. Justo en el caso que os acabo de enseñar puede ser importante. En ese caso, yo tengo contactos de UPM donde puede haber incluso información personal. Si yo soy solo un paso, pues no tengo una licencia ni tengo un seguro de que esos datos vayan a estar protegidos. Entonces pues bueno, si hay alguna fuga de dicha GPT, ellos no se van a responsabilizar de eso o si incluso en de alguna forma podrán utilizarlo para entrenar otros modelos. Tampoco se van a responsabilizar. A veces me dejan desactivar esa opción, pero tengo que hacerlo yo a mano. Muchas veces está por defecto que sí, que dejo que utilicen los datos para entrenar. En cambio aquí dentro de de la UPM, si haya cualquier fuga de información por parte de copiloto es culpa de Microsoft. No es culpa nuestra como investigador, como docente, como personal administrativo. Entonces es una cosa que debemos de tener clarísima. Y aquí esto se ve en el escudito. Arriba pone esto justo esto. ¿Protección de datos de prensa se aplica este chat que os lo enseño un segundito es este escudito? Vale, esto es por la licencia que tenemos. Si hay cosas que no son críticas, pues por ejemplo buscar hacer una pregunta sobre un documento que es público de acceso a internet por si hay alguna herramienta como un notebook. LM Que CoPilot no la tiene y que funciona muy bien, pues si es un documento público, ya ahí no pondría limitaciones de de usarlo. ¿Por qué? Porque ya lo puedes encontrar en internet. No hay ninguna fuga de información. Pero si es cosas restrictivas pues hay que tener, hay que tener cuidado. Y Javier es el paquete de interrumpa. ¿Disculpa que te interrumpa en la pantalla anterior que estabas, eh? ¿El hecho de estar conectado a nuestra licencia de la universidad hace que automáticamente se vean todos los documentos que tenemos en nuestro ser point, digamos, eh? Digamos. Creo que eso es relevante porque si tenemos documentación ya nuestra de trabajo habitual va a ser más fácil de encontrar la información. No sé si esto nos lo puedes confirmar. Si no es tan sencillo de que yo aquí le pregunte por un documento mío y me lo encuentre. Por ejemplo ahora preguntar Encuéntrame lo en mi documentación. Las asignaturas que imparto esto no lo tenemos activado. Nosotros en con la licencia de CoPilot sé que hay algunas licencias muy con muchas más cosas que sí que te te permiten hacer esto con la que tenemos nosotros actualmente no, salvo que esto haya cambiado de para otro. ¿Veis? Aquí me lo he intentado buscar en contactos. Si lo hubiese preguntado con otro chat, créeme que tampoco me diría que no es lo que sí podemos hacerle aquí, que esto está chulo es adjuntar archivos. Lo que yo quería decir. Esto sí que lo puedes hacer. Y tú aquí tienes acceso a tu, tu, tu OneDrive, digamos, y puedes buscar dentro de tu de tu drive. Aquí está mi drive. Y puedo asignarle pues este documento, por ejemplo, queda Open. Esto fue de una prueba que hice el otro día aquí. Es un documento que yo tengo en la que explica que es la que había preguntado a un chatbot. Eso sí puedo hacerlo. Sí, sí. Y es una forma muy, muy sencilla. Otra es arrastrando los ficheros. Si no tienes en tu en tu ordenador también es otra, otra opción. Vale, Javier, una cosa, a lo mejor la otra no te la ha contestado porque tú no tenías esa documentación en tu OneDrive. Quiero decir que todo lo que tengas en tu web drive sí que normalmente lo tiene indeseado y accede. De hecho, también en Teams te dice cuáles son las últimas conversaciones y puedes, dependiendo de las licencias. A lo mejor la de Copa de los Chats está más limitada y CoPilot, la de pago, sí que tiene ese acceso, pero de normal tiene acceso a tu ser point y a todo tu información en la en la licencia básica creo que no, en la que es un poco más avanzada. Creo que sí. Vale, tengo dudas. Es la que tenemos todo el mundo. Sí, se puede. ¿Se puede hacer o no? Yo tenía pensado que tenía creído que no hay en. Si no lo confirmo o en la próxima sesión Se puede, se puede decir, pero yo tenía entendido que no Bale. Aprovecho para comentar esto de las licencias, que es un lío tremendo. Tenemos por la licencia que tiene comprada la universidad para todo el personal que digamos. Lo que tenemos es lo que estamos tratando. Javier Vale que ya vimos, para la mayor parte de los usuarios es suficiente. Luego a partir de ahí y ya con un pago adicional, hay otra serie de licencias que dan otra serie de funcionalidades que no están incluidas para todo el mundo, entre otros motivos porque el coste es elevado y porque tampoco todo, no todo el mundo lo necesita, pero que si alguien, por su motivos, lo que sea, cree que lo necesita previo pago, lo podemos adquirir, digo previo pago. Lo podemos adquirir porque tenemos que comprarlo de forma centralizada. No lo puede comprar cada uno individualmente. Vale, lo gestionamos nosotros desde el rectorado y no se puede comprar individualmente, Vale, pero si alguien tiene interés que se ponga en contacto con nosotros y le decimos cómo lo puede hacer, vale, añade una serie de funcionalidades, pero ya digo, creo que no son de uso para todo el mundo y por tanto creo que tenemos algún otro seminario en el que hablamos un poco más en detalle de qué cosas tiene cada licencia, etcétera, etcétera. Vale, perdona Javier, que te hemos interrumpido y te hemos cortado el hilo. Nada, no te preocupes, a través del copiloto Chat A mí, por ejemplo, eso no me no me funciona Lo que comenta Jessica, igual desde Teams sí que tienen una vinculación directa, que eso no lo no lo he probado, pero vamos, es que todo depende mucho de la licencia y por ir por ir cerrando ya que son las dos quedan cosas pendientes, pero creo que no son tan relevantes. Lo único que quiero mencionar es que todo esto que estamos viendo de de aplicado a texto también lo podemos aplicar a imágenes. Entonces también con CoPilot podemos generar imágenes que pueden ser relevantes, pues si queremos hacer alguna imagen promocionando la UPN o para la web se puede pedir más técnicas de prompt, que estoy igual ya lo conocíais muchos. Y lo que se puede hacer ahora también muy chulo es pedirle gráficos gráficos para que la imagen no sea una imagen artística, sino un gráfico. Y en esto, puesto la convocatoria que os enseñé, le pedía que me diese un gráfico de todos los pasos que tiene que hacer el investigador para solicitarla. Lo malo de estos gráficos es que no puedo editarlo después, sino sí que puedo pasarle la foto y decirle que modifique cierto aspecto, pero son cosas que se van poniendo poquito a poco. Y en las imágenes vamos a ver que a ver, proceso muy grande, cada vez los modelos son mejores y vamos a poder pedir este tipo de cosas que igual antes era muy difícil de producir y ahora pues igual de muy sencillo de hacerlo, siempre verificando. Obviamente incluso se puede acompañar webs en procedimientos para que la gente lo entiende de una forma más sencilla, ahorrándote el tiempo de hacer que antes no lo teníamos, pues no lo hacíamos. Vale, pues una pregunta, cuando hablas, cuando hablas de buscar en imágenes, también hablas de buscar en PDF, que es otra cosa que habitualmente necesitamos. Si eso está relacionado con búsqueda de documentación, tú le puedes subir un PDF y le puedes preguntar y te va a responder. Es por eso Es un PDF que tiene información muy crítica que no puede salir Eso vete a CoPilot porque te garantiza con nuestra licencia. Después hay herramientas que están muy perfeccionadas para búsquedas en PDF como es Notebook. LM Pues yo ahí mi consejo es con cosas que son públicas, prueba también porque te ofrecen un beneficio en las cosas que necesita licencia, vete a CoPilot y te va a funcionar bastante bien en ese en ese aspecto, el pasarlo en PDF, eso sin duda hay, digamos. Javier ha hecho mucha insistencia en CoPilot y lo ha hecho porque así también se lo hemos pedido en no mucho tiempo. Anunciaremos algo relacionado con Google. Lo digo porque todo esto que está diciendo Javier, en unos días o semanas podemos aplicarlo también con otras herramientas. ¿Vale? A día de hoy lo único que podemos confirmar es CoPilot, pero bueno, ahora habrá más opciones para la gente de la UPM. Vale, pues me quedaron algunas cosas en el tintero, pero son cosas que si subimos las slides las podéis ver pero no son relevantes. Lo principal que quería que el llevases de esta sesión es esas técnicas de prompt y. Y por mi parte, a menos que haya alguna duda, pero creo ya estamos fuera de tiempo, lo dejaríamos ya por aquí. Denominado Javier en Bueno, hay alguna consulta en el chat. Yo no sé si podemos contestarla. Jessica, aunque cerremos la reunión, si las he ido contestando. A ver. Al UPM Drive, no a lo que pregunta María Ángeles no puede acceder. Lo que tú puedes es copiar ese fichero, arrastrarlo a CoPilot y ya se guarda automáticamente en tu web drive. Al final es tener la información duplicada, pero como tal no puede acceder directamente CoPilot a tu drive, es simplemente copiarlo. Eso es. Vi por ahí también lo del excel que preguntaba es que él está protegido. Si, si lo subo a CoPilot no es culpa de Microsoft. Si se difunde esa información no tendría que pagar una demonización. Si te atreves a responder lo del mito de lo del inglés, digo no sé, depende de lo de cómo estoy entrenado. Anabel Castillo dice Tengo una duda sobre un mito de que el plan funciona mejor si se escribe en inglés. ¿Vale? No, es que no me contesta tú siquiera, que supongo que también irás. Por lo menos no le había contestado. Yo. De todos modos, no, perdona, no lo he puesto. A lo mejor se le manda en privado, pero bueno, que si es verdad que seguramente antes la IA tiene sesgos. Si se ha entrenado con más inglés que otra cosa, es posible que en inglés pueda contestar mejor. Lo que pasa es que habría habría que valorar cada una respuesta por separado, no como algo genérico. En español hay bastante texto y funciona bastante bien en general. Sí, Por resumir un poquillo para las tareas que tenemos en nuestro día a día con español e inglés lo vamos a notar. La la diferencia. Además, el español es el segundo idioma que más acceso datos tienen a la hora de entrenar estos modelos. Entonces no es algo que preocupa mucho al principio, pero hoy en día irrelevante prácticamente escribirlo en inglés que en español. Estaba David tan preguntando. Fernando Sí, sí, un error que le di una vez dice que le había pedido números del uno al 100 y repitió número. Pues al final, como decía, esto es estadística. Si él está generado texto y no, realmente no está haciendo un programa que genere números y compruebe que no se repiten, pues caíste en la mala suerte que te tocó ahí un número repetido y pudo fracasar. Sí, también estos modelos cuando manejan números no son tan buenos porque están especializados en entender el lenguaje. Y hay tareas muy tontas que no funcionan bien. Nosotros como grupo de investigación justo vamos estas tareas y una cosa que hace muy mal es leerla. Ahora sí que tú le pasas un reloj analógico. Muchas veces fallan en decírtelo porque tienen un sesgo hacia las diez -10, que es la hora que aparecen todos los anuncios porque es una hora muy simétrica. Entonces hay muchas tareas que son muy simples, que fallan cada vez que no sé decirlo. En funcionalidades que como de similares o ancha GPT CoPilot. Vale, pues en GPT bueno, CoPilot tiene la ventaja de que está integrado todo en nuestro ecosistema con nuestro OneDrive. Lo que ocurre es que GPT sirve los modelos a CoPilot, entonces utilizan los mismos modelos, lo que pasa que la forma en que los utilizan pueden ser un poco un poco diferentes. En la integración suele ser un poco mejor directamente concha GPT, porque son los dueños del modelo los que mejor lo conocen, los que tienen acceso directo, pero las funcionalidades son muy parecidas. Por ejemplo, en generación de imágenes utilizan el mismo modelo de generación de imágenes. Entonces las diferencias entre imágenes generadas con CoPilot y GPT no suelen ser muy grandes. En las propias respuestas que te da el modelo. Tampoco son más cosillas de integración, pues el tema de los agentes, por ejemplo, que podéis ver mi percepción, pues cada uno lo hace a su forma. Pregunta sobre notebooks LM que inventó cosas. Es raro porque notebook LM Es precisamente relacionándolo con lo que contó Fernando, es una especie de Raj, es decir, que te limita las fuentes de las que puede consultar. Entonces no se suele equivocar, inventar porque tiene que referenciar, incluso te pone numerito para que vayas al documento donde sea, donde sea, de dónde has traído la información. Pero bueno, todo esto no lo contarán en las sesiones de Google y supongo que queda más claro. No funciona muy bien. ¿Yo hice un ejemplo con un TFG que es intentar meterle muchísima información y ver si fallaba y por ejemplo, le metimos todas las guías de las asignaturas que son públicas de todo el grado de teleco y le decimos preguntas como qué profesores son los que en más asignaturas imparten docencia? Y ese dato ni siquiera está en escrito, sino que tienen que ir guía por guía, encontrando a los profesores y haciendo toda la cuenta. Y lo respondió bien. Es una pregunta muy compleja, con muchísimos fuentes de información diferentes y muchos datos. Notebook no suele fallar. Muy muy raro que falle con tus documentos. Podría ser por pensar un poco. Depende mucho de cómo este codificado internamente el PDF le haya podido despistar al bucle porque según se genere luego se interna, tiene más texto, más imágenes, algo que sea y a lo mejor ahí la podido fallar. Pero bueno, habría que estudiar el caso en en particular. Bueno, la ley de contratos, que no la entiende nadie, entonces que lo que lo que falle. Bueno, pues a ver, seguro que hay muchas más dudas. Javier y Fernando se han dejado el correo electrónico. Podéis preguntarles si queréis. También nosotros estamos un poco a vuestra disposición. Vamos a hacer más sesiones en las que seguiremos profundizando en la parte de agentes, que creo que es un tema muy interesante para automatizar procesos y que bueno, creo que es algo que es interesante que conozcáis la mayor parte de vosotros. Así que bueno, os animo a que os apuntéis al resto de sesiones. Y nada más agradecer la asistencia ha desbordado nuestra expectativa, ha oído hasta 160 personas conectadas y la verdad es que no esperábamos generar tanto interés. Así que nada, encantados de que lo que hayamos hecho haya sido interesante para tanta gente por nuestra parte, Nada más. Nos vemos en principio la semana que viene si que al que le interese pues aquí estaremos en la siguiente sesión de Primavera Tech. Vale, Muy bien. Hasta luego a todos. Gracias. Chao.