1 00:00:07,200 --> 00:00:09,680 Bueno, lo primero presentarme porque algo mejor. 2 00:00:09,680 --> 00:00:11,880 3 00:00:11,880 --> 00:00:14,880 Soy Fernando Pescador, vicerrector para la Universidad Digital 4 00:00:16,040 --> 00:00:20,040 y dentro de mi vicerrectorado pues trabaja conmigo 5 00:00:20,040 --> 00:00:23,560 Jessica Díaz, profesora de la Escuela de Sistemas Informáticos, 6 00:00:23,920 --> 00:00:27,280 que desde la Oficina de Apoyo al Docente es la 7 00:00:27,320 --> 00:00:32,400 que realmente han organizado todo todas estas serie de conferencias. 8 00:00:33,000 --> 00:00:37,000 Y bueno, pues nada, agradecerle a ella, a Sonia y a todo el equipo, 9 00:00:37,040 --> 00:00:40,920 por el mogollón de trabajo que han tenido que hacer para poder poner 10 00:00:40,920 --> 00:00:45,680 en marcha esta iniciativa, a diferencia de lo que hicimos en otoño, 11 00:00:46,080 --> 00:00:50,280 digamos en este primavera, hemos hecho unas conferencias un poco más, 12 00:00:50,920 --> 00:00:53,520 eh, digamos orientadas a diferentes colectivos. 13 00:00:53,520 --> 00:00:58,280 Hay algunas empresas para PTGAS, para investigadores, otras para profesores. 14 00:00:58,320 --> 00:01:03,040 ¿En cualquier caso, si la temática os interesa, está todo está abierto a 15 00:01:03,280 --> 00:01:06,280 que os apuntéis a cualquiera de ellas 16 00:01:06,280 --> 00:01:07,920 Las hemos aumentado un poco. 17 00:01:07,920 --> 00:01:10,800 Pues para que también veáis hacia dónde, hacia 18 00:01:10,800 --> 00:01:13,800 dónde van o hacia dónde están orientadas cada una de ellas. 19 00:01:14,240 --> 00:01:19,160 Los ponentes de hoy son Javier y Fernando, que tienen la cámara activada. 20 00:01:19,200 --> 00:01:21,160 ¡Hola chicos! ¿Qué tal? 21 00:01:21,160 --> 00:01:24,960 Profesores, Creo que los dos de la Escuela de Sistemas Informáticos. 22 00:01:25,200 --> 00:01:27,600 No uno de una informática. 23 00:01:27,600 --> 00:01:29,280 Vale, pues perdonad. 24 00:01:29,280 --> 00:01:31,000 Bueno, ahora os presentáis de todas maneras. 25 00:01:31,000 --> 00:01:31,640 Y nos importa. 26 00:01:31,640 --> 00:01:33,440 Disculpad, que os. 27 00:01:33,440 --> 00:01:36,440 Os he metido en la escuela incorrecta. 28 00:01:36,520 --> 00:01:37,960 29 00:01:37,960 --> 00:01:42,200 Pues como sabéis, el título de hoy es un poco una presentación general 30 00:01:42,200 --> 00:01:46,400 y algunos conceptos generales de de de inteligencia artificial. 31 00:01:46,560 --> 00:01:51,560 Y bueno, la ronda esta de de conferencias tiene un poco como objetivo ir 32 00:01:52,800 --> 00:01:55,600 evangelizando un poco en la comunidad 33 00:01:55,600 --> 00:02:00,640 con idea de que ya en próximos cursos, próximos eventos 34 00:02:00,680 --> 00:02:04,080 pues ya demos unas formaciones un poco más completas, más regladas. 35 00:02:04,120 --> 00:02:09,160 Pero bueno, de momento este es un formato que podemos organizar de forma ágil 36 00:02:09,440 --> 00:02:12,800 y que la edición anterior que hicimos en otoño, 37 00:02:12,800 --> 00:02:15,440 pues la verdad es que hemos recibido muy buenos comentarios 38 00:02:15,440 --> 00:02:18,440 y por eso nos hemos animado a hacer una segunda edición, 39 00:02:18,680 --> 00:02:20,560 así que yo no me entretengo más. 40 00:02:20,560 --> 00:02:23,680 Javier Fernando, no sé cómo tenéis organizada la presentación, 41 00:02:23,720 --> 00:02:26,720 pero todo vuestro vale. 42 00:02:27,280 --> 00:02:28,320 No he comentado una cosa. 43 00:02:28,320 --> 00:02:30,800 Como somos un montón ahora mismo. 44 00:02:30,800 --> 00:02:35,480 133 Bueno, nos nos alegra muchísimo que haya tanta gente. 45 00:02:35,480 --> 00:02:38,920 ¿Es un lujazo tener a tanta gente online, eh? 46 00:02:39,640 --> 00:02:41,600 Para evitar interrupciones y demás. 47 00:02:41,600 --> 00:02:46,000 ¿Pues en principio, como sea, quitamos los micrófonos 48 00:02:46,240 --> 00:02:49,520 y si hay alguna cuestión, digamos estamos pendientes del chat 49 00:02:49,520 --> 00:02:52,520 y nos la vais poniendo por el chat, que es más fácil, vale? 50 00:02:52,640 --> 00:02:56,600 Así que Javier, Fernando ahora sí, ya, definitivamente os paso la palabra. 51 00:02:57,680 --> 00:02:59,080 Muchas gracias Fernando. 52 00:02:59,080 --> 00:03:02,640 Arranco yo y deberías estar todos viendo mi mi pantalla. 53 00:03:02,880 --> 00:03:03,560 Creo que sí. 54 00:03:03,560 --> 00:03:04,520 Vale. 55 00:03:04,520 --> 00:03:07,160 Bueno, pues yo soy Fernando Ortega. 56 00:03:07,160 --> 00:03:08,200 ¿Vale? 57 00:03:08,200 --> 00:03:10,120 No confundir con Fernando Pescador. Estamos ahí. 58 00:03:10,120 --> 00:03:14,280 Dos Fernando Y para no tener líos tenéis aquí también mi correo electrónico. 59 00:03:14,280 --> 00:03:15,920 Vale Fernando Ortega. 60 00:03:15,920 --> 00:03:18,640 El punto es por si quisieras hacerme cualquier pregunta 61 00:03:18,640 --> 00:03:20,240 posterior, lo que fuera. 62 00:03:20,240 --> 00:03:21,240 Y voy a dar 1/1 63 00:03:21,240 --> 00:03:24,680 de esta charla de iniciación a la inteligencia artificial generativa. 64 00:03:24,680 --> 00:03:28,080 1/2, la de la Javier, la mía, es un poquito más a nivel teórico. 65 00:03:28,080 --> 00:03:30,520 Vale que entendáis cuáles son los fundamentos que hay detrás 66 00:03:30,520 --> 00:03:34,160 de esos grandes modelos de lenguaje que hoy en día utilizamos todos y Javier 67 00:03:34,160 --> 00:03:37,960 dará una parte un poquito más aplicada, entendidos a estos conceptos previos. 68 00:03:38,040 --> 00:03:39,640 Vale, es una charla de una hora. 69 00:03:39,640 --> 00:03:42,400 Os lo voy a contar para que tengáis la idea general de cómo funciona esto. 70 00:03:42,400 --> 00:03:45,080 Aunque es verdad que los mecanismos que hay detrás para entenderlos bien, 71 00:03:45,080 --> 00:03:46,480 pues en un poquito más complejos. 72 00:03:46,480 --> 00:03:50,280 Pero vamos, no tengáis miedo en preguntar cualquier cosa y os ayudo en lo que sea. 73 00:03:51,040 --> 00:03:54,480 Entonces, lo primero, vamos a hablar de qué es la inteligencia artificial, 74 00:03:54,520 --> 00:03:56,200 más a modo filosófico. 75 00:03:56,200 --> 00:03:59,200 Vale que tenéis unas definiciones un poquito largas 76 00:03:59,200 --> 00:04:02,560 y él hace resaltado algunas palabras que considero importantes. 77 00:04:02,600 --> 00:04:04,720 Vale, es una rama de la informática. 78 00:04:04,720 --> 00:04:05,680 Esto se puede realizar 79 00:04:05,680 --> 00:04:08,280 a raíz de la informática, aunque no es una disciplina 80 00:04:08,280 --> 00:04:11,400 única de la informática, que hay muchas matemáticas metidas 81 00:04:11,440 --> 00:04:13,960 y la inteligencia artificial sin matemáticas no podría existir. 82 00:04:13,960 --> 00:04:14,640 Y luego 83 00:04:14,640 --> 00:04:19,600 también están entrando otros factores como valores éticos y cosas por el estilo 84 00:04:19,600 --> 00:04:22,040 que hay que valorarlos dentro de lo que es la inteligencia artificial. 85 00:04:22,040 --> 00:04:25,000 Pero la potencia realmente que esto empieza a funcionar 86 00:04:25,000 --> 00:04:30,000 ha sido la informática, pues nos quedamos con con esa tribu de gran creación 87 00:04:30,000 --> 00:04:33,040 que hemos hecho entre todos los que trabajamos en informática 88 00:04:33,800 --> 00:04:37,400 y lo que buscamos básicamente es imitar la inteligencia humana. 89 00:04:37,440 --> 00:04:38,960 Queremos una máquina que sea capaz 90 00:04:38,960 --> 00:04:42,640 de imitar lo que hacen los humanos y de ahí el término de inteligente. 91 00:04:42,800 --> 00:04:45,920 Para ello la silla lo que tienen que hacer es aprender. 92 00:04:45,960 --> 00:04:48,680 Ahora entenderemos qué es esto de aprender artificial. 93 00:04:48,680 --> 00:04:52,240 No es lo mismo que el aprendizaje humano, pero bueno, como queremos 94 00:04:52,640 --> 00:04:55,720 darle publicidad, vale hacer que esto se venda muy bien. 95 00:04:55,720 --> 00:04:57,040 Decimos que la inteligencia artificial 96 00:04:57,040 --> 00:05:00,440 es aprenden a partir de la experiencia que han ido observando. 97 00:05:00,880 --> 00:05:03,040 Al final de todo, la inteligencia artificial 98 00:05:03,040 --> 00:05:04,440 se basa en una serie de algoritmos 99 00:05:04,440 --> 00:05:06,400 y unas reglas matemáticas que son los que le permiten 100 00:05:06,400 --> 00:05:10,000 luego poder funcionar, como veremos en las siguientes diapositivas. 101 00:05:10,560 --> 00:05:13,600 ¿Cómo ha ido evolucionando la inteligencia artificial a lo largo de la historia? 102 00:05:13,640 --> 00:05:17,760 ¿Bueno, pues lo primero que vino ya cuando empezaba la informática 103 00:05:17,760 --> 00:05:20,920 es por qué si tenemos ordenadores no conseguimos hacer también 104 00:05:20,960 --> 00:05:22,320 máquinas inteligentes? 105 00:05:22,320 --> 00:05:23,960 ¿Con esta idea en la cabeza? 106 00:05:23,960 --> 00:05:27,000 Alan Turing, uno de los padres de la informática, 107 00:05:27,040 --> 00:05:30,200 propuso lo que se conocía como el Test de Turing, año 1950. 108 00:05:30,200 --> 00:05:32,880 Fijaros si hace tiempo que ya se habla de este concepto. 109 00:05:32,880 --> 00:05:36,640 El test de Turing era una idea en la cual una persona tenía 110 00:05:36,640 --> 00:05:40,800 que interactuar con un humano y una máquina a través de un teclado, 111 00:05:40,840 --> 00:05:41,560 una pantalla 112 00:05:41,560 --> 00:05:43,800 y si se decía que no era capaz de distinguir 113 00:05:43,800 --> 00:05:45,520 que era el humano y quién era la máquina, 114 00:05:45,520 --> 00:05:48,520 pues habría pasado esa máquina, habría pasado el test de Turing. 115 00:05:48,720 --> 00:05:52,960 Hoy en día, con los modelos de lenguaje decimos que lo podemos tener resuelto, 116 00:05:53,000 --> 00:05:56,280 lo cual no quiere decir que realmente la máquina sea inteligente 117 00:05:56,280 --> 00:05:59,280 como tal, o sea, para darle inteligencia, pues harían falta muchas más cosas. 118 00:05:59,280 --> 00:06:01,560 Pero bueno, este primer concepto que definió 119 00:06:01,560 --> 00:06:05,160 Turing es el que se basaban para crear las primeras inteligencias artificiales. 120 00:06:05,880 --> 00:06:09,760 El término de inteligencia artificial se acuñó por primera vez en el año 1956 121 00:06:09,760 --> 00:06:13,960 en la conferencia de Dartmouth, donde un grupo de personas de referencia 122 00:06:13,960 --> 00:06:17,960 a la informática se reunió para hablar de qué necesitarían las máquinas 123 00:06:17,960 --> 00:06:19,000 para ser inteligentes. 124 00:06:19,000 --> 00:06:22,000 Entonces ahí empezó el término a popularizarse. 125 00:06:22,600 --> 00:06:24,800 A partir de ahí nos vamos a la década de los 80, 126 00:06:24,800 --> 00:06:28,600 cuando surge las redes de neuronas, redes neuronales artificiales 127 00:06:28,600 --> 00:06:31,240 que hoy en día están tan de moda. Fijaros que no es una tecnología moderna. 128 00:06:31,240 --> 00:06:35,280 Luego veremos por qué ahora están más de moda, tienen más de 41 129 00:06:35,280 --> 00:06:40,520 antigüedad y básicamente se quiso hacer un modelo matemático 130 00:06:40,520 --> 00:06:41,000 que mirara 131 00:06:41,000 --> 00:06:44,880 cómo funcionaba el cerebro humano A través de las conexiones de de neuronas 132 00:06:44,920 --> 00:06:48,640 empezaron a aparecer los primeros algoritmos de aprendizaje supervisado 133 00:06:48,680 --> 00:06:52,520 y bueno, pues empezamos a conseguir hacer que las máquinas fueran 134 00:06:52,560 --> 00:06:53,640 semi inteligentes. 135 00:06:53,640 --> 00:06:56,680 Pensad de todos modos en la potencia de cómputo que podíamos tener los 80, 136 00:06:56,720 --> 00:06:58,840 pues era muy limitada la cantidad de datos que teníamos 137 00:06:58,840 --> 00:07:03,120 era muy limitado y eso hacía que las redes tampoco se popularizaron demasiado. 138 00:07:03,320 --> 00:07:05,360 Obviamente todo esto siguió para adelante. 139 00:07:05,360 --> 00:07:06,560 En los años 2000 140 00:07:06,560 --> 00:07:10,320 ya Internet era una herramienta de uso común para todo el mundo. 141 00:07:10,400 --> 00:07:12,320 Eso propiciaba que hubiera más herramientas, 142 00:07:12,320 --> 00:07:15,680 hubiera más datos, hubiera más usuarios y empezaron a aparecer algoritmos 143 00:07:15,680 --> 00:07:20,160 de aprendizaje automático o machine learning y diferentes 144 00:07:20,160 --> 00:07:24,200 modelos de predicción de datos, motores de recomendación, análisis predictivo. 145 00:07:24,360 --> 00:07:27,480 Digamos que el utilizar los datos para que las máquinas aprendieran 146 00:07:27,480 --> 00:07:30,400 se convirtió en una moda, en algo que se empezó a utilizar. 147 00:07:30,400 --> 00:07:32,440 Y a partir de ahí sí que la inteligencia artificial empezó 148 00:07:32,440 --> 00:07:34,920 a despegar realmente hacia usos comerciales 149 00:07:34,920 --> 00:07:38,120 y que llegaran a cualquier persona que la que quisiera utilizar. 150 00:07:38,560 --> 00:07:41,680 A partir de los años 2010, pues imaginad 151 00:07:41,680 --> 00:07:44,960 esa década ya es que Internet se popularizó a tope. 152 00:07:45,000 --> 00:07:48,040 Teníamos un montón de dispositivos móviles inclusiva, 153 00:07:48,040 --> 00:07:51,920 teléfonos móviles con conexión a internet, muchísimos datos. 154 00:07:51,960 --> 00:07:56,160 Aquí las redes neuronales vuelven a surgir 30 años después de que aparecieran 155 00:07:56,200 --> 00:08:00,160 gracias a unas redes que se llamaban redes convolucionales. 156 00:08:00,200 --> 00:08:03,760 Si habéis ido siguiendo más o menos la evolución, seguro que visteis 157 00:08:03,760 --> 00:08:06,840 esas primeras redes que se encargaban de hacer filtros a las imágenes. 158 00:08:06,840 --> 00:08:10,000 Quiero que me pintes como si fuera un cuadro de Van Gogh o del artista 159 00:08:10,000 --> 00:08:10,640 que fuera. 160 00:08:10,640 --> 00:08:13,600 Esto lo hacían gracias a redes convolucionales, por supuesto. 161 00:08:13,600 --> 00:08:17,760 Están años luz de los modelos que tenemos actualmente. Años luz para para mal 162 00:08:18,040 --> 00:08:20,120 eran mucho peores, pero fueron las primeras 163 00:08:20,120 --> 00:08:24,320 que empezaron a poder tratar con imágenes, a reconocer objetos dentro de imágenes 164 00:08:24,360 --> 00:08:27,280 y a poner a redes en una posición dominante 165 00:08:27,280 --> 00:08:29,880 respecto a otro tipo de algoritmos que antes no lo tenían. 166 00:08:29,880 --> 00:08:32,840 También aparecieron las redes recurrentes, que fueron las primeras que empezaba 167 00:08:32,840 --> 00:08:34,360 a trabajar con secuencias 168 00:08:34,360 --> 00:08:37,240 principalmente de palabras en el dominio que estamos trabajando 169 00:08:37,240 --> 00:08:40,720 ahora, en el que veía las frases como una secuencia de palabras 170 00:08:40,720 --> 00:08:44,320 y la red está pensada para trabajar sobre esas secuencias de palabras. 171 00:08:45,000 --> 00:08:49,000 Como hito de esta década, tenemos que el algoritmo de 172 00:08:49,640 --> 00:08:52,840 Deep Mind de AlphaGo vale, que es un algoritmo que sacó Google, 173 00:08:52,880 --> 00:08:57,360 fue el primero que logró vencer al campeón mundial del Go, 174 00:08:57,400 --> 00:09:00,760 que es un juego que tienes que ir, un juego de Asia 175 00:09:00,760 --> 00:09:03,880 que tiene muchísima complejidad, de muchísimas combinaciones para hacerlo. 176 00:09:03,880 --> 00:09:05,520 Y entonces consiguió un algoritmo que no 177 00:09:05,520 --> 00:09:07,640 por fuerza bruta conseguía ganar a los humanos. 178 00:09:07,640 --> 00:09:11,880 Y esta máquina fue la primera que consiguió derrotar A1A1 campeón 179 00:09:12,280 --> 00:09:13,320 en una partida. 180 00:09:13,320 --> 00:09:15,600 Parece que el resultado fue a cinco partidas y ganó cuatro uno 181 00:09:15,600 --> 00:09:16,600 la inteligencia artificial. 182 00:09:16,600 --> 00:09:19,840 Entonces la iba, iba, iba dando pequeños pasitos 183 00:09:19,880 --> 00:09:22,920 para convertirse en una herramienta que realmente podíamos utilizar. 184 00:09:23,120 --> 00:09:27,040 Y ahora estamos ya en 2020, avanzando en los 2020. 185 00:09:27,040 --> 00:09:29,560 Y todas estas herramientas creo que son conocidas 186 00:09:29,560 --> 00:09:33,680 para todos los que estáis en esta charla, seáis informáticos o no, 187 00:09:33,680 --> 00:09:38,240 porque todo el mundo ya oído hablar de GPT y seguramente haya utilizado y GPT 188 00:09:38,240 --> 00:09:42,800 tres utilizado Gemini, habréis utilizado CoPilot, Cloud, Llama o cualquier otro. 189 00:09:42,840 --> 00:09:47,120 Esto se ha convertido ya en una herramienta de uso de dominio público. 190 00:09:47,120 --> 00:09:49,120 Vale para todo el mundo. Cualquier persona la tiene. 191 00:09:49,120 --> 00:09:52,040 Hoy lo tenéis disponible en ordenadores, en móviles. 192 00:09:52,040 --> 00:09:55,920 Todo está conectado con la IA y bueno, pues han convertido en herramientas 193 00:09:55,960 --> 00:09:59,360 extremadamente útiles tanto para la industria como para nuestro día a día. 194 00:09:59,360 --> 00:10:02,320 ¿Entonces estamos en el boom final o final? 195 00:10:02,320 --> 00:10:04,520 Bueno, ya veremos dónde lleva esto de inteligencia artificial, 196 00:10:04,520 --> 00:10:07,720 que se ha integrado completamente en las rutinas de las personas. 197 00:10:08,880 --> 00:10:11,640 ¿Visto este pequeño repaso, es la pregunta que nos cabe 198 00:10:11,640 --> 00:10:13,720 es cómo funciona realmente Inteligencia artificial? 199 00:10:13,720 --> 00:10:14,240 Decir que esto 200 00:10:14,240 --> 00:10:19,080 Nosotros nos metemos en GPT, en Gmail veremos una frase y nos contesta Entonces. 201 00:10:19,080 --> 00:10:23,000 Pues vamos a ver si puedo explicar en media horita más o menos cómo funciona 202 00:10:23,000 --> 00:10:24,040 esto, que al menos tengáis 203 00:10:24,040 --> 00:10:27,920 una idea de cómo funciona y luego ya el que quiera indagar más o me pregunta 204 00:10:27,920 --> 00:10:30,920 o vais mirando por ahí que hay un montón de información, 205 00:10:30,920 --> 00:10:34,320 cursos y de formaciones que podéis hacer en este ámbito. 206 00:10:35,000 --> 00:10:37,880 Entonces, lo primero que tenemos que hacer es cuáles son los 207 00:10:37,880 --> 00:10:41,800 los actores que intervienen para hacer que una inteligencia artificial funcione. 208 00:10:42,160 --> 00:10:44,400 Lo primero que tenemos son los datos. 209 00:10:44,400 --> 00:10:46,880 La inteligencia artificial va a aprender a partir de datos 210 00:10:46,880 --> 00:10:48,040 y para aprender a partir de datos 211 00:10:48,040 --> 00:10:51,480 necesitamos muchos, muchos, muchos datos sobre los que aprender. 212 00:10:51,840 --> 00:10:55,640 Gracias a que las últimas décadas cada vez tenemos más datos 213 00:10:55,640 --> 00:10:57,840 porque cada vez estamos más conectados a Internet, 214 00:10:57,840 --> 00:11:00,160 pues conseguimos entrenar, mejorar las máquinas. 215 00:11:00,160 --> 00:11:03,320 Las máquinas lo único que hacen es van a repetir lo que ven en los datos. 216 00:11:03,360 --> 00:11:06,400 Lo que pasa es que los volúmenes de datos son tan grandes que nosotros no 217 00:11:06,400 --> 00:11:09,240 somos capaces de programar eso, sino que le dejamos a la máquina 218 00:11:09,240 --> 00:11:11,400 que se ponga leer datos a leer datos o leer datos 219 00:11:11,400 --> 00:11:15,200 y encuentre patrones que que hay por esos datos para poder replicarlos. 220 00:11:15,240 --> 00:11:17,160 Así que necesitamos de datos para poder funcionar. 221 00:11:17,160 --> 00:11:21,080 Y como podéis imaginar, cuanto mejor sea los datos, mejor aprenderá la IA. 222 00:11:21,120 --> 00:11:23,160 Y aquí vendrá uno de los grandes problemas que tenemos 223 00:11:23,160 --> 00:11:26,120 con las guías, que comentaré un poquito más adelante. 224 00:11:26,120 --> 00:11:29,360 Luego también necesitamos algoritmos, necesitamos algoritmos que sean capaces 225 00:11:29,360 --> 00:11:34,640 de leer estos datos, de interpretarlos y de sacarles provecho. 226 00:11:34,720 --> 00:11:37,720 Existen diferentes formas de entrenar y redes neuronales, 227 00:11:37,720 --> 00:11:40,720 una de ellas dentro de renovables tenemos un montón de familias de, 228 00:11:41,200 --> 00:11:44,000 como comentaba antes, redes convolucionales, redes recurrentes 229 00:11:44,000 --> 00:11:46,680 o las arquitecturas de Transformers, que os contaré más adelante. 230 00:11:46,680 --> 00:11:48,800 Pero hay muchos otros algoritmos que funcionan aquí. 231 00:11:48,800 --> 00:11:52,600 Algo más clásicos de cosas tan simples como un modelo de regresión 232 00:11:52,640 --> 00:11:56,520 que muchos habréis trabajado o sistemas de clasificación más complejos 233 00:11:56,520 --> 00:11:59,800 como Random Forest Bus o sistemas de aprendizaje 234 00:12:00,080 --> 00:12:03,080 no supervisado o clustering, o cualquier otra cosa. 235 00:12:03,120 --> 00:12:05,360 Vale, entonces tenemos muchísimos algoritmos y también ha ido 236 00:12:05,360 --> 00:12:07,120 surgiendo nuevos algoritmos que permiten hacer 237 00:12:07,120 --> 00:12:10,120 las cosas de forma diferente, el aprendizaje 238 00:12:10,120 --> 00:12:13,360 a partir de datos de forma diferente y por lo tanto tener resultados distintos. 239 00:12:13,600 --> 00:12:18,400 Y por supuesto, necesitamos este, esta pauta que es la potencia de cómputo. 240 00:12:18,560 --> 00:12:20,440 Si tenemos muchos datos 241 00:12:20,440 --> 00:12:23,480 y el algoritmo, por muy eficiente que sea, va a tardar mucho tiempo 242 00:12:23,520 --> 00:12:26,360 y si tarda mucho tiempo, nosotros queremos resultados para hoy. 243 00:12:26,360 --> 00:12:29,160 No nos vale lanzarlo y decir bueno, yo lo pongo a ejecutar y en diez años 244 00:12:29,160 --> 00:12:30,320 me das un resultado. 245 00:12:30,320 --> 00:12:34,720 Eso no sería válido hoy en día y por lo tanto necesitamos herramientas 246 00:12:35,520 --> 00:12:38,000 hardware que nos permitan ejecutar estos algoritmos 247 00:12:38,000 --> 00:12:41,680 sobre esos datos en un tiempo razonable y razonable. 248 00:12:41,680 --> 00:12:41,880 Bueno, 249 00:12:41,880 --> 00:12:45,600 pues pueden ser días, semanas, meses, según el objetivo que queramos conocer. 250 00:12:45,720 --> 00:12:46,640 Seguro que también abrir. 251 00:12:46,640 --> 00:12:49,600 Leído mucho sobre el tema de consumo energético, cómo están 252 00:12:49,600 --> 00:12:52,720 los grandes centros de datos, los precios del hardware derivados 253 00:12:52,720 --> 00:12:56,720 del aumento de memoria RAM, GPUs, CPUs. 254 00:12:56,760 --> 00:13:00,280 Bueno, pues estamos ahora requiriendo tanta potencia de cómputo 255 00:13:00,280 --> 00:13:04,120 que básicamente escasea los recursos hardware, escasea la energía. 256 00:13:04,120 --> 00:13:05,760 Vamos a ponerlo ahí un poco entre comillas. 257 00:13:05,760 --> 00:13:08,520 Tampoco que estemos teniendo que apagar las luces, pero es verdad 258 00:13:08,520 --> 00:13:11,000 que esto se empieza a poner en un problema porque los algoritmos están 259 00:13:11,000 --> 00:13:14,800 continuamente ejecutándose, ejecutándose y eso requiere mucha potencia. 260 00:13:15,400 --> 00:13:19,240 La IA no habría podido aparecer para el público sin ninguna de las tres patas. 261 00:13:19,240 --> 00:13:22,400 Vale, si no hubiéramos tenido suficientes datos derivados de Internet 262 00:13:23,040 --> 00:13:25,600 que nos hubieran permitido entrenar algoritmos que han ido 263 00:13:25,600 --> 00:13:26,800 evolucionando los años 264 00:13:26,800 --> 00:13:29,120 y no hubiéramos tenido un hardware en el que hacer que estos algoritmos, 265 00:13:29,120 --> 00:13:31,040 la primera de esos datos, esto no habría podido funcionar. 266 00:13:31,040 --> 00:13:32,520 Si que necesitamos los tres, ir 267 00:13:32,520 --> 00:13:35,640 evolucionando poco a poco, los tres para que la IA siga avanzando. 268 00:13:36,720 --> 00:13:37,840 El pipeline vale 269 00:13:37,840 --> 00:13:39,840 el flujo de trabajo que tenemos cuando trabajamos 270 00:13:39,840 --> 00:13:40,400 con cualquier 271 00:13:40,400 --> 00:13:43,520 algoritmo de inteligencia artificial, la inteligencia artificial generativa. 272 00:13:44,440 --> 00:13:47,520 Lo primero que habría que hacer de nuevo, incido, es recopilar datos. 273 00:13:47,520 --> 00:13:51,280 Necesitamos un conjunto de datos grande, heterogéneo, limpio, 274 00:13:51,320 --> 00:13:54,720 con un montón de propiedades que todos entenderíais deseables. 275 00:13:54,920 --> 00:13:56,600 Y esa es la parte más costosa. 276 00:13:56,600 --> 00:13:59,760 Al final, lo más difícil es esto porque requiere de muchísima 277 00:13:59,760 --> 00:14:02,480 intervención humana, generalmente para crearlo. 278 00:14:02,480 --> 00:14:05,040 Una vez que los tengamos, esos datos se procesan, se limpian, 279 00:14:05,040 --> 00:14:08,280 se les aplica una serie de reglas para dejarlos válidos para la IA 280 00:14:08,360 --> 00:14:11,400 y a continuación se le pasan a los algoritmos de aprendizaje. 281 00:14:11,440 --> 00:14:14,360 Elegimos. Bueno, pues esta tarea la quiero resolver con este algoritmo. 282 00:14:14,360 --> 00:14:17,400 Voy a probar estos pocos a ver cuál lo resuelve mejor. 283 00:14:17,560 --> 00:14:19,240 Eso nos lleva a una fase de optimización. 284 00:14:19,240 --> 00:14:21,760 Estos algoritmos hay que ajustarlos un poquito. 285 00:14:21,760 --> 00:14:25,280 Tenemos una serie de configuraciones que queremos, le podemos poner 286 00:14:25,280 --> 00:14:28,000 y tenemos que andar jugando con métodos de prueba error 287 00:14:28,000 --> 00:14:31,280 más o menos complejos para ver cuál es el que mejor hace la tarea 288 00:14:31,280 --> 00:14:33,000 para que queramos entrenar la IA. 289 00:14:33,000 --> 00:14:36,000 Una vez que lo tengamos tendríamos que 290 00:14:36,360 --> 00:14:39,600 explotarla, la podríamos lanzar ya al mercado. 291 00:14:39,600 --> 00:14:43,880 La IA aprendido la ponemos en el servicio, seguramente un servicio web 292 00:14:43,880 --> 00:14:45,880 o algún sitio en el que podamos ejecutarla 293 00:14:45,880 --> 00:14:48,000 y ya vamos dejando que la IA vaya evolucionando. 294 00:14:48,000 --> 00:14:50,520 Vale, pero siempre es lo mismo captar datos, entrenar la guía 295 00:14:50,520 --> 00:14:54,200 y luego ya la subimos a producción para que podamos explotar sus resultados. 296 00:14:55,520 --> 00:14:56,320 ¿Y entonces 297 00:14:56,320 --> 00:14:59,760 qué es esto de que la inteligencia artificial aprende? 298 00:14:59,840 --> 00:15:01,720 Esto es lo que se dice los periódicos. 299 00:15:01,720 --> 00:15:02,720 La he aprendido. 300 00:15:02,720 --> 00:15:08,160 A En realidad no estamos aprendiendo como concepto filosófico de aprendizaje, 301 00:15:08,200 --> 00:15:10,200 sea el que sea, sino que lo único que estamos haciendo 302 00:15:10,200 --> 00:15:12,640 es optimizar una serie de funciones matemáticas. 303 00:15:12,640 --> 00:15:15,360 Lo que hay detrás de la IA en realidad son todo matemáticas. 304 00:15:15,360 --> 00:15:18,200 Y esto funciona porque las matemáticas que tiene tras funcionan. 305 00:15:18,200 --> 00:15:21,200 Os lo voy a ilustrar esto con un pequeño ejemplo. 306 00:15:21,480 --> 00:15:25,320 Uno de los problemas clásicos que tenemos cuando empezamos a estudiar técnicamente 307 00:15:25,320 --> 00:15:28,680 gente artificial es queremos predecir el precio de venta de una casa. 308 00:15:28,680 --> 00:15:29,480 ¿Por qué hacemos esto? 309 00:15:29,480 --> 00:15:31,160 Porque nos interese mucho crear inteligencia, 310 00:15:31,160 --> 00:15:33,960 que precisamente de casa no, porque tenemos muchos datos que no es. 311 00:15:33,960 --> 00:15:36,000 Es muy fácil para vender casas. 312 00:15:36,000 --> 00:15:39,400 Imaginad que tenéis un portal inmobiliario y tenéis una serie de casas 313 00:15:39,440 --> 00:15:41,000 con todas sus características. 314 00:15:41,000 --> 00:15:42,640 Entonces tenemos, 315 00:15:42,640 --> 00:15:45,200 por ejemplo, los metros cuadrados que tiene la vivienda, 316 00:15:45,200 --> 00:15:49,120 cuántas habitaciones tienen, que año fue construida, el tipo de vivienda, 317 00:15:49,120 --> 00:15:51,720 si tiene o no tiene jardín, si tiene o no tiene terraza, 318 00:15:52,760 --> 00:15:54,600 un montón de características propias de la casa. 319 00:15:54,600 --> 00:15:56,920 Esto ya los tenemos o puramente los portales inmobiliarios. 320 00:15:56,920 --> 00:16:00,880 Tiene un pequeño formulario, una persona a mano donde viene el gran coste. 321 00:16:00,920 --> 00:16:04,080 Ha ido rellenando todo eso, haciendo visitas a las casas para tomar medidas 322 00:16:04,080 --> 00:16:05,320 para ver cómo son. 323 00:16:05,320 --> 00:16:08,600 Y a largo de los años las casas se han ido vendiendo 324 00:16:08,760 --> 00:16:11,680 y comprando, vendiendo y comprando y por lo tanto, lo que necesitamos 325 00:16:11,680 --> 00:16:14,120 para hacer que la IA aprenda es a parte de estas características, 326 00:16:14,120 --> 00:16:17,880 son las ventas de casas de los últimos, por ejemplo diez años. 327 00:16:17,880 --> 00:16:18,920 Vale este numerito 328 00:16:18,920 --> 00:16:20,160 lo puesto por poner alguno, 329 00:16:20,160 --> 00:16:22,920 pero necesitamos muchas ventas de casas para que pueda aprender. 330 00:16:22,920 --> 00:16:25,960 Entonces estos son los datos que nosotros hemos ido recopilando en este caso 331 00:16:25,960 --> 00:16:27,120 a lo largo de diez años 332 00:16:27,120 --> 00:16:30,520 y los tenemos todos guardados en algo tan sencillo como una hoja de cálculo. 333 00:16:30,520 --> 00:16:31,400 Vale, tenemos una tabla 334 00:16:31,400 --> 00:16:35,560 con las características de cada una de las casas y el precio de venta. 335 00:16:36,000 --> 00:16:38,720 ¿Cómo podemos hacer una IA para que aprenda de esto? 336 00:16:38,720 --> 00:16:42,320 Lo que tenemos que hacer es definirnos un modelo que nos permita 337 00:16:42,320 --> 00:16:45,520 combinar todas estas características para obtener el precio de venta. 338 00:16:45,760 --> 00:16:46,640 Y uno muy sencillito. 339 00:16:46,640 --> 00:16:47,880 Podría ser una cosa como esta. 340 00:16:47,880 --> 00:16:51,080 Vale, tenemos el precio de venta. Vale, 341 00:16:52,160 --> 00:16:55,360 es igual a, me cuenta. 342 00:16:55,360 --> 00:16:56,880 Creo que no veis el puntero del ratón 343 00:16:56,880 --> 00:16:59,880 porque yo voy señalando cosas y ahora me parece que no lo veis. 344 00:17:00,040 --> 00:17:02,320 Si, si lo vemos, si se ve a Vale, perfecto. 345 00:17:02,320 --> 00:17:05,800 Si vamos entonces tenemos el precio de venta será igual. 346 00:17:05,800 --> 00:17:07,800 Vamos a poner por ejemplo un valor básico. 347 00:17:07,800 --> 00:17:11,280 Decimos una casa solo por el hecho de ser casa la ponemos a 100.000 € 348 00:17:11,640 --> 00:17:15,760 por poner un precio y a continuación decimos vamos a incrementar ese precio 349 00:17:15,760 --> 00:17:20,280 en 8.953 € por cada metro cuadrado que tenga la vivienda. 350 00:17:20,280 --> 00:17:22,400 Estos números me los inventado, vale completamente 351 00:17:22,400 --> 00:17:26,920 solo para ilustrar el ejemplo y luego vamos a multiplicar ese precio. 352 00:17:27,000 --> 00:17:32,720 Vamos a sumar a ese precio 23.764 € por el número de habitaciones que tenga, 353 00:17:32,760 --> 00:17:35,880 de tal forma que es una casa, tiene cinco habitaciones, vale más que si tiene tres, 354 00:17:35,880 --> 00:17:39,440 que es una casa, tiene 200 metros cuadrados, vale más que si tiene 60. 355 00:17:39,640 --> 00:17:42,480 Y haciendo esto podemos tener una función que dormita, calcularlo. 356 00:17:42,480 --> 00:17:45,560 Ahora bien, cómo yo soy capaz de definir este 100.000, 357 00:17:45,640 --> 00:17:50,160 este 8000, este 23.500 aquí puesto, lo que vamos a hacer es que la red, 358 00:17:50,480 --> 00:17:54,720 la casa, la función matemática, la IA tenga una serie de parámetros. 359 00:17:54,760 --> 00:17:56,760 Esto lo llamamos parámetros que queremos aprender. 360 00:17:56,760 --> 00:18:00,800 ¿Y esto mismo que tengo aquí arriba es aquí puesto con palabras genéricas, vale? 361 00:18:00,800 --> 00:18:04,960 Con símbolos genéricos el precio de venta será igual a un W0 que se corresponderá 362 00:18:04,960 --> 00:18:09,280 con el precio base de la casa, más un modificador de la característica, 363 00:18:09,280 --> 00:18:12,080 una que aquí era metros cuadrados, pero podría ser cualquier caso. 364 00:18:12,080 --> 00:18:15,640 Más más más más Un modificador de la característica n 365 00:18:15,680 --> 00:18:18,200 que podría ser el tipo de el tipo de vivienda. 366 00:18:18,200 --> 00:18:20,640 Incluso estos pesos podrían ser negativos. 367 00:18:20,640 --> 00:18:23,080 Por ejemplo, si la casa es un bajo, a lo mejor le resta precio 368 00:18:23,080 --> 00:18:26,040 que si es una casa que está en un ático o cosas por el estilo. 369 00:18:26,040 --> 00:18:30,200 Y lo que hacemos es vamos a hacer que el sistema aprenda 370 00:18:30,200 --> 00:18:33,040 por sí solo y planteamos lo que decimos que es un problema de optimización. 371 00:18:33,040 --> 00:18:37,560 Un problema de optimización es resolver esta función matemática es Encuéntrame 372 00:18:37,680 --> 00:18:41,400 los valores de w0 w1 wn 373 00:18:42,360 --> 00:18:44,440 que hagan mínima la función. 374 00:18:44,440 --> 00:18:46,520 El precio que yo tenía por aquí aprendido. 375 00:18:46,520 --> 00:18:48,840 Por eso se llama aprendizaje supervisado, porque yo 376 00:18:48,840 --> 00:18:50,720 ya conocía los precios de venta de la casa, 377 00:18:50,720 --> 00:18:54,600 menos el precio que está prediciendo mi sistema. 378 00:18:54,640 --> 00:18:56,760 Esto es justo la predicción que está sacando 379 00:18:56,760 --> 00:18:58,760 y esto lo llevamos al cuadrado para que si me equivoco 380 00:18:58,760 --> 00:19:00,080 por arriba o por abajo me da igual. 381 00:19:00,080 --> 00:19:01,360 Yo quiero saber que me he equivocado 382 00:19:01,360 --> 00:19:04,000 y no se me he equivocado en exceso o en defecto. 383 00:19:04,000 --> 00:19:07,160 Si nosotros resolvemos esto, por ejemplo con algoritmo descenso de gradiente, 384 00:19:07,160 --> 00:19:08,960 hay muchos algoritmos que resuelve este problema. 385 00:19:08,960 --> 00:19:13,720 Obtenemos el conjunto de parámetros w0 w1 wn que hacen mínima 386 00:19:13,720 --> 00:19:17,240 esta función, es decir, conseguimos el sistema que predica 387 00:19:17,960 --> 00:19:20,960 los precios de venta de las casas con el menor error posible. 388 00:19:20,960 --> 00:19:22,880 Y esto es cómo funciona toda la guía. 389 00:19:22,880 --> 00:19:24,040 Vale, ahora mismo bueno, 390 00:19:24,040 --> 00:19:27,920 toda alguna que no, pero el 99% de la guía funciona de este modo. 391 00:19:27,960 --> 00:19:30,800 Simplemente planteamos un problema de optimización. 392 00:19:30,800 --> 00:19:31,960 Una vez que hemos definido la función, 393 00:19:31,960 --> 00:19:34,200 le pasamos datos y la guía se pone a aprender. 394 00:19:34,200 --> 00:19:37,920 Vais a ver que incluso los modelos de Transformers 395 00:19:38,040 --> 00:19:39,960 que se utilizan actualmente funciona así, 396 00:19:39,960 --> 00:19:43,040 con sistemas mucho más complejos que esta simple ecuación que tenemos. 397 00:19:43,080 --> 00:19:44,360 Pero este es el modelo más básico. 398 00:19:44,360 --> 00:19:47,480 Introduce un concepto importante que es que la IA, como lo decía 399 00:19:47,480 --> 00:19:49,400 antes, en realidad no está aprendiendo nada, 400 00:19:49,400 --> 00:19:50,160 no está aprendiendo 401 00:19:50,160 --> 00:19:52,760 en el sentido de aprender, está optimizando unos numeritos 402 00:19:52,760 --> 00:19:54,760 de tal forma que cuando llegue a una nueva casa, como 403 00:19:54,760 --> 00:19:58,080 yo conozco estos números, le pongo en x1, x2, x3, 404 00:19:58,080 --> 00:20:00,040 xn las diferentes características que tiene 405 00:20:00,040 --> 00:20:02,840 y me dice cuál es el precio por el que debería venderse esa casa. 406 00:20:02,840 --> 00:20:04,920 Pues esto mismo se hace así para todo. 407 00:20:06,040 --> 00:20:09,280 Así que la IA plantea dos grandes desafíos. 408 00:20:09,400 --> 00:20:13,040 Por un lado, tenéis que ser capaces de formular el objetivo de aprendizaje. 409 00:20:13,040 --> 00:20:14,880 Formular esa ecuación que yo os he puesto ahí 410 00:20:14,880 --> 00:20:16,960 era muy sencilla porque era un problema muy sencillo. 411 00:20:16,960 --> 00:20:18,480 Pero si queréis hacer que el modelo 412 00:20:18,480 --> 00:20:20,960 se ponga a predecir texto, a generar imágenes, 413 00:20:20,960 --> 00:20:23,560 pues ya el objetivo de aprendizaje no es tan sencillo 414 00:20:23,560 --> 00:20:26,040 y una vez que lo tenéis tenéis que resolver el problema de optimización, 415 00:20:26,040 --> 00:20:27,760 que en este caso, como la funcionada sencilla, 416 00:20:27,760 --> 00:20:30,240 era fácil de resolver, pero si el problema se complica, 417 00:20:30,240 --> 00:20:33,240 pues se nos hace un poquito más difícil. 418 00:20:33,960 --> 00:20:36,000 ¿Y cómo encaja las renovables en todo esto? 419 00:20:36,000 --> 00:20:37,720 Bueno, pues una red neuronal 420 00:20:37,720 --> 00:20:40,560 es una subrama dentro de la inteligencia artificial. 421 00:20:40,560 --> 00:20:43,640 Dentro inteligencia artificial tenemos los algoritmos de aprendizaje 422 00:20:43,640 --> 00:20:45,560 automático llamados Machine learning inglés. 423 00:20:45,560 --> 00:20:48,640 Y dentro de dentro de esta familia tenemos el Deep Learning, 424 00:20:48,800 --> 00:20:51,640 que es la rama que engloba las redes neuronales artificiales. 425 00:20:53,280 --> 00:20:56,160 El Deep learning tiene una serie de características. 426 00:20:56,160 --> 00:20:57,680 Vale, básicamente lo que hacemos 427 00:20:57,680 --> 00:21:02,040 es en lugar de resolver estas funciones matemáticas puestas de forma muy manual, 428 00:21:02,040 --> 00:21:03,840 como hacemos con algoritmo de machine learning, 429 00:21:03,840 --> 00:21:06,840 lo que hacemos es resolver el problema de optimización por fuerza bruta. 430 00:21:06,840 --> 00:21:10,240 Es decir, en lugar de ajustar muy bien los parámetros que yo creo que aprenda, 431 00:21:10,280 --> 00:21:13,600 le pongo muchísimos parámetros a base de sumas, multiplicaciones 432 00:21:13,600 --> 00:21:16,600 y restas, y la red se dedica a aprender. 433 00:21:16,640 --> 00:21:19,360 Por lo listo con un pequeño ejemplo. 434 00:21:19,360 --> 00:21:21,440 El ejemplo anterior de los precios de venta de las casas 435 00:21:21,440 --> 00:21:23,760 se puede representar con un esquema de red neuronal 436 00:21:23,760 --> 00:21:26,400 que es exactamente igual que lo que os he puesto antes. 437 00:21:26,400 --> 00:21:29,400 Fijaros que las redes neuronales, lo que vamos a tener serie de neuronas. 438 00:21:29,440 --> 00:21:33,120 Generalmente decimos que tenemos unas neuronas de entrada y neuronas de salida 439 00:21:33,240 --> 00:21:34,680 con el precio de venta de las casas. 440 00:21:34,680 --> 00:21:37,880 Las neuronas de entrada serán precisamente las características de la casa. 441 00:21:37,960 --> 00:21:41,120 Como decía antes, los metros cuadrados, el año de construcción, 442 00:21:41,160 --> 00:21:44,440 el número de habitaciones, el tipo de vivienda y las neuronas. 443 00:21:44,480 --> 00:21:47,360 Lo que hacemos es conectarlas entre sí unas con otras. 444 00:21:47,360 --> 00:21:49,480 En este caso tenemos una sola neurona de salida, 445 00:21:49,480 --> 00:21:50,600 que es el precio de venta a la casa. 446 00:21:50,600 --> 00:21:52,240 Es una red muy muy sencillita 447 00:21:52,240 --> 00:21:55,200 y veremos que luego se van a ir complicando mucho más 448 00:21:55,200 --> 00:21:58,800 La combinación de cómo obtengo cuál es el valor del 449 00:21:59,000 --> 00:22:01,760 precio de venta de la casa, es decir, cuál es la salida de esta. 450 00:22:01,760 --> 00:22:05,040 En respecto a las entradas, se hace exactamente igual que antes. 451 00:22:05,040 --> 00:22:07,920 Escogemos 1W0, que esto es lo que llamamos el 452 00:22:07,920 --> 00:22:11,360 vayas y a continuación vamos multiplicando los pesos. 453 00:22:11,400 --> 00:22:14,440 Esto sería las conexiones entre neuronas en las cuales van a tener 454 00:22:14,440 --> 00:22:17,920 una serie de pesos que son w1, w2, w3 w cuatro 455 00:22:17,920 --> 00:22:21,920 wn igual que antes, que se multiplican por la característica de entrada. 456 00:22:22,160 --> 00:22:24,920 Hacemos ya digo exactamente que antes la precio 457 00:22:24,920 --> 00:22:29,440 y la predicción del precio de venta es w0 más w1 por los metros cuadrados 458 00:22:29,440 --> 00:22:33,640 más wn por la característica xn le digo, es exactamente igual. 459 00:22:33,680 --> 00:22:37,200 ¿Qué es lo que cambia el algoritmo de cómo entrenamos todo esto? 460 00:22:37,240 --> 00:22:41,160 En lugar de utilizar el descenso de gradiente, utilizamos backpropagation 461 00:22:41,160 --> 00:22:43,240 que son muy similares, en realidad son muy similares, 462 00:22:43,240 --> 00:22:45,320 pero bueno, le hemos cambiado un poquito la forma. 463 00:22:45,320 --> 00:22:48,680 Este es un algoritmo optimización en el cual lo que vamos haciendo es 464 00:22:48,760 --> 00:22:53,200 ir modificando iterativamente estos pesos en función de cuánto se han equivocado. 465 00:22:53,240 --> 00:22:57,920 Si por ejemplo el precio de venta se ha equivocado porque habíamos puesto 466 00:22:57,920 --> 00:23:00,240 que los metros cuadrados valieran más que lo que tenían que hacer, 467 00:23:00,240 --> 00:23:02,840 vamos a sancionar mucho este peso y lo vamos a reducir. 468 00:23:02,840 --> 00:23:05,360 Y si nos hemos quedado muy corto lo vamos a aumentar mucho. 469 00:23:05,360 --> 00:23:08,360 Y el propio algoritmo, a base de dar diferentes vueltas, 470 00:23:08,400 --> 00:23:11,160 lo que tenemos es que va aprendiendo, va ajustando, 471 00:23:11,160 --> 00:23:14,400 va ajustando hasta conseguir minimizar la función como la que teníamos antes. 472 00:23:14,400 --> 00:23:16,680 Vale que le llamamos función de pérdida. 473 00:23:16,680 --> 00:23:18,080 Aquí importante la red neuronal. 474 00:23:18,080 --> 00:23:20,520 Entramos en el número de parámetros a aprender. 475 00:23:20,520 --> 00:23:24,760 Seguro que cuando veis el las características de los LM 476 00:23:24,800 --> 00:23:28,000 dice el modelo con 10 billones de parámetros. 477 00:23:28,040 --> 00:23:31,720 Bueno, pues en este caso es una red tan tonta que tiene n más uno parámetros. 478 00:23:31,760 --> 00:23:33,320 Es decir, que si tenemos las casas definidas 479 00:23:33,320 --> 00:23:37,080 por tres características, tenemos una red con 11 parámetros a aprender. 480 00:23:37,080 --> 00:23:39,480 Compararlo con los no sé cuántos billones que tiene ahora 481 00:23:39,480 --> 00:23:42,320 y ver la potencia que tiene una red y la que tiene el M. 482 00:23:42,320 --> 00:23:45,320 Y luego también Esto nos permite, aunque podemos imitar el modelo anterior, 483 00:23:45,320 --> 00:23:48,320 nos permite meter una cosa que llamamos funciones de activación no lineales, que 484 00:23:48,320 --> 00:23:51,840 es que podemos cortar la propagación de la señal entre diferentes neuronas. 485 00:23:51,840 --> 00:23:54,520 En este caso no tiene sentido, pero cuando hace más compleja 486 00:23:54,520 --> 00:23:58,320 podemos hacer que solo se propaguen señales cuando se saturen. 487 00:23:58,640 --> 00:24:01,560 Esto tiene sentido cuando pasamos a redes neuronales profundas, 488 00:24:01,560 --> 00:24:04,240 que es exactamente lo que antes, pero metiendo mucha más neuronas. 489 00:24:04,240 --> 00:24:05,920 Como decía antes, lo que vamos a hacer es resolver 490 00:24:05,920 --> 00:24:09,800 las funciones matemáticas de forma mucho más compleja. 491 00:24:09,840 --> 00:24:12,840 Fijaros la cantidad de primero de parámetros que tenemos. 492 00:24:12,840 --> 00:24:17,240 Aquí tenemos la capa de entrada, que son siete características, por ejemplo 493 00:24:17,240 --> 00:24:19,440 un parámetro de salida que podrían ser varios, 494 00:24:19,440 --> 00:24:21,960 pero aquí en medio tenemos un montón más de neuronas. 495 00:24:21,960 --> 00:24:24,520 Cada una de estas líneas grises son parámetros 496 00:24:24,520 --> 00:24:28,480 aprender por la red antes no pasado de n más uno. 497 00:24:28,520 --> 00:24:32,040 Aquí pues habría que multiplicar igual son n al cubo o alguna cosa por el estilo. 498 00:24:32,240 --> 00:24:33,960 Tendríamos que ir viendo y calculando, 499 00:24:33,960 --> 00:24:37,040 porque luego es verdad que en este caso tenemos conectado todo con todo 500 00:24:37,040 --> 00:24:40,960 y esas topologías de red, según cómo pongamos las capas de una a otra, 501 00:24:41,000 --> 00:24:44,680 podemos ir jugando con ellas para que no todo esté conectado con todo. 502 00:24:44,760 --> 00:24:48,440 Entonces, si nosotros vamos añadiendo más y más y más y más neuronas, 503 00:24:48,440 --> 00:24:52,280 y más y más y más capas, y ponemos encima función de activaciones no lineales, 504 00:24:52,280 --> 00:24:53,800 conseguimos que la red 505 00:24:53,800 --> 00:24:57,120 resuelva problemas más complejos que los que hacía inicialmente. 506 00:24:57,320 --> 00:25:01,120 Y este es justo el secreto a partir del cual funcionan los LLM. Es. 507 00:25:03,400 --> 00:25:05,000 Cómo llegamos al mes. 508 00:25:05,000 --> 00:25:10,000 En 2017, creo recordar, se publicó un paper que se llamaba Atención 509 00:25:10,240 --> 00:25:13,240 o UNIT, que es el que cambió el paradigma de cómo podíamos 510 00:25:13,240 --> 00:25:16,240 hacer que las redes neuronales trabajara en contexto. 511 00:25:16,240 --> 00:25:19,240 Tenían muchísimos problemas para trabajar con texto. 512 00:25:19,960 --> 00:25:20,640 ¿Por qué? 513 00:25:20,640 --> 00:25:22,800 Porque teníamos que superar primero la serie Desafíos. 514 00:25:22,800 --> 00:25:25,160 El primero es que 515 00:25:25,160 --> 00:25:28,040 las redes neuronales, como anteriormente, el ejemplo anterior era 516 00:25:28,040 --> 00:25:29,920 muy sencillo porque trabajamos con números 517 00:25:29,920 --> 00:25:33,960 cuando he hecho el número de habitaciones que tiene la casa, pues una, 234 o cinco, 518 00:25:33,960 --> 00:25:37,320 los metros cuadrados 60, 70, 80, 90. 519 00:25:37,360 --> 00:25:38,960 Eso es muy fácil de trabajar con números, 520 00:25:38,960 --> 00:25:41,000 porque luego lo voy a multiplicar por una serie de pesos. 521 00:25:41,000 --> 00:25:44,520 Números por números más números, más números nos da un número de salida, 522 00:25:44,560 --> 00:25:49,240 pero cuando trabajamos con palabras las cosas se se complican porque yo 523 00:25:49,240 --> 00:25:53,280 ya no puedo multiplicar por, por ejemplo, la palabra perro por un número, 524 00:25:53,400 --> 00:25:58,520 porque si multiplico 0,43 por perro, pues no me queda absolutamente nada. 525 00:25:58,520 --> 00:26:00,840 Vale, entonces lo primero que teníamos que hacer es 526 00:26:02,440 --> 00:26:02,840 tenemos que 527 00:26:02,840 --> 00:26:06,680 ser capaces de convertir las palabras en números. 528 00:26:06,680 --> 00:26:09,400 Para ello utilizaban en los primeros orígenes 529 00:26:09,400 --> 00:26:11,400 una codificación que se llamaba Hot Encoding. 530 00:26:11,400 --> 00:26:15,800 Básicamente lo que hacemos es crearnos una lista de números tan grande 531 00:26:15,800 --> 00:26:19,200 como el número de palabras que tengamos y ponemos un uno. 532 00:26:19,240 --> 00:26:21,560 Si la palabra es la que es, o sea, 533 00:26:21,560 --> 00:26:24,560 la primera posición es la de perro, la segunda la de gato, tercera manzana, 534 00:26:24,600 --> 00:26:27,680 la 4.ª la de pera y así, en lugar de pasarle las palabras, 535 00:26:27,680 --> 00:26:31,480 le pasamos estos vector de entrada y hacemos que la red aprenda. 536 00:26:31,600 --> 00:26:33,840 ¿Esto presenta muchos problemas porque el vocabulario aquí 537 00:26:33,840 --> 00:26:36,920 son cuatro palabras Cuántas palabras tenemos en español 538 00:26:37,160 --> 00:26:38,640 o cuántas palabras en inglés? 539 00:26:38,640 --> 00:26:40,560 O si queremos hacer una red que entienda varios idiomas. 540 00:26:40,560 --> 00:26:42,960 ¿Cuántas hay en español más inglés, más chino, más? 541 00:26:42,960 --> 00:26:46,440 Pues nos quedábamos tamaños gigantes que eran inmanejables para las redes. 542 00:26:46,680 --> 00:26:51,160 Y encima bueno, pues estas posiciones, esto al final son vectores. 543 00:26:51,160 --> 00:26:54,040 Estos vectores no están, no guardan relaciones. 544 00:26:54,040 --> 00:26:55,320 O sea, que perro esté al lado de gato 545 00:26:55,320 --> 00:26:59,560 es meramente una casualidad, porque yo he puesto el perro lado del gato, 546 00:26:59,560 --> 00:27:02,600 pero si hubiera permutado gato y manzana, pues ya no estarían tan cerca. 547 00:27:02,640 --> 00:27:03,360 Vale, entonces 548 00:27:03,360 --> 00:27:06,720 presentaba muchísimos problemas y hacían que las redes no funcionara muy bien. 549 00:27:06,720 --> 00:27:08,080 Pero bueno, el primer paso 550 00:27:08,080 --> 00:27:11,160 ya, ya somos capaces de introducirlo, vamos a mejorar el sistema. 551 00:27:12,000 --> 00:27:15,000 Así que surgió el concepto del en 552 00:27:15,080 --> 00:27:19,400 el lugar de trabajar con esos vectores que eran 1000, 553 00:27:19,440 --> 00:27:22,400 lo que hacemos es vamos a proyectar nuestras palabras 554 00:27:22,400 --> 00:27:26,400 a un espacio n dimensional, es decir, vamos a colocar todas las palabras 555 00:27:26,400 --> 00:27:30,040 en el espacio y vamos a hacer que palabras que estén, 556 00:27:30,080 --> 00:27:32,280 que sean parecidas, estén situadas cerquita, 557 00:27:32,280 --> 00:27:35,320 en espacio, De tal forma que si yo veo palabras como vectores y dos palabras 558 00:27:35,640 --> 00:27:39,160 se parecen, sus vectores están apuntando a posiciones muy parecidas. 559 00:27:39,200 --> 00:27:41,080 Esto es justo el embedding. 560 00:27:41,080 --> 00:27:44,840 Vale que son espacios semánticos y se popularizaron el tema del 561 00:27:44,840 --> 00:27:46,440 procesamiento del lenguaje natural. 562 00:27:46,440 --> 00:27:49,520 Cuando surgió un algoritmo que se llamaba World Tour Este. 563 00:27:49,520 --> 00:27:51,880 A lo mejor habéis leído sobre él, básicamente World Tour, 564 00:27:51,880 --> 00:27:55,120 que lo que hicieron fue entrenar una red neuronal para predecir dos cosas 565 00:27:55,960 --> 00:27:58,960 que que llamaban cebolla, nos daban un contexto de palabras 566 00:27:58,960 --> 00:28:00,760 y teníamos que predecir la palabra del medio. 567 00:28:00,760 --> 00:28:05,200 Por ejemplo, aquí el gato, el perro y el gato son animales, 568 00:28:05,240 --> 00:28:10,320 pues cogía un contexto, por ejemplo el perro y y después le pasaba gatos. 569 00:28:10,320 --> 00:28:13,360 Son animales y tenía que predecir que haya en medio, tenía que haber un él. 570 00:28:13,560 --> 00:28:15,760 Y gracias a entrenar esto con muchas palabras, 571 00:28:15,760 --> 00:28:18,200 pues íbamos aprendiendo estos embeddings. 572 00:28:18,200 --> 00:28:23,200 Cuando hacíamos el esquí, lo que decíamos es dábamos una palabra, por ejemplo 573 00:28:23,320 --> 00:28:27,880 en este caso merienda y queríamos predecir la anterior y la posterior. 574 00:28:27,880 --> 00:28:31,120 O bueno, podíamos configurar si era una, dos, tres, cuál era la ventana. 575 00:28:31,160 --> 00:28:34,120 Pues si decíamos merienda, queríamos que teníamos antes Juan 576 00:28:34,120 --> 00:28:36,080 y a continuación manzana. 577 00:28:36,080 --> 00:28:37,040 ¿Cómo hacían todo esto? 578 00:28:37,040 --> 00:28:40,040 Lo que hacían es meterlos en vez de aquí en estas capitas de en medio, 579 00:28:40,080 --> 00:28:43,080 que era en realidad una capa de n neuronas. 580 00:28:43,120 --> 00:28:46,240 Vale, que es lo que llaman aquí projection, en el que teníamos, 581 00:28:46,240 --> 00:28:48,120 pues en este tamaño el embedding de tamaño cuatro, 582 00:28:48,120 --> 00:28:52,360 pues teníamos cuatro neuronas conectadas y a partir de combinar esos diferentes 583 00:28:52,360 --> 00:28:55,760 embeddings seamos capaces de sacar la proyección de salida. 584 00:28:56,000 --> 00:28:59,080 Esto está muy bien porque primero reducimos mucho el tamaño. 585 00:28:59,080 --> 00:29:02,120 Si antes decíamos que teníamos el tamaño de los vectores de entrada igual 586 00:29:02,120 --> 00:29:04,400 al tamaño del vocabulario, aquí lo fijamos nosotros. 587 00:29:04,400 --> 00:29:06,080 Me parece que los modelos de GPS 588 00:29:06,080 --> 00:29:08,760 está puesto como mil palabras o una cosa por el estilo. 589 00:29:08,760 --> 00:29:10,800 Habría que ver cada uno cómo lo trabaja, en el 590 00:29:10,800 --> 00:29:13,840 que vamos a ver, por ejemplo, el ejemplo estaban en 712, que es lo que 591 00:29:13,840 --> 00:29:17,440 habrán probado, que funcionaba bien y ya son vectores mucho más manejables. 592 00:29:17,440 --> 00:29:19,240 Encima son vectores completamente densos. 593 00:29:19,240 --> 00:29:21,120 Estos de aquí tenía muchos ceros los ceros. 594 00:29:21,120 --> 00:29:23,320 Cuando multiplicamos las cosas nos vienen muy mal 595 00:29:23,320 --> 00:29:25,600 y sin embargo aquí es muy raro que tengamos un cero. 596 00:29:25,600 --> 00:29:27,360 Todo lo que te dije ver esto es como un espacio 597 00:29:27,360 --> 00:29:31,520 vectorial tamaño cuatro en el que podemos hacer combinaciones. 598 00:29:31,720 --> 00:29:34,760 Pero básicamente lo que quiero ir más allá de las matemáticas detrás 599 00:29:34,800 --> 00:29:35,640 es que lo que somos 600 00:29:35,640 --> 00:29:39,640 es capaces de codificar una palabra como un numerito de tal como bueno, 601 00:29:39,720 --> 00:29:43,440 como un vector vale con una secuencia de números de tal forma que dos palabras 602 00:29:43,440 --> 00:29:46,680 que se parezcan, por ejemplo perro y gato, fijaros que está puesto apuesta. 603 00:29:46,760 --> 00:29:47,440 En el ejemplo. 604 00:29:47,440 --> 00:29:51,320 Sus vectores son muy parecidos porque representan animales mamíferos 605 00:29:51,480 --> 00:29:53,120 que se suelen tener en casas. 606 00:29:53,120 --> 00:29:54,880 Bueno, pues tiene una característica muy comunes. 607 00:29:54,880 --> 00:29:58,040 Sin embargo manzana y pera, que también son dos palabras que sí se parecen, 608 00:29:58,040 --> 00:30:01,480 están cerca, pero los números están lejos entre sí. 609 00:30:01,720 --> 00:30:05,560 Si esto lo pudiéramos pintar un cuadro, no podemos, pues veríamos que los vectores 610 00:30:05,560 --> 00:30:09,280 apuntan a direcciones diferentes, que es justo lo que nosotros queríamos. 611 00:30:11,600 --> 00:30:13,200 Por lo tanto, lo que nos dimos cuenta 612 00:30:13,200 --> 00:30:16,200 luego para hacer que esto funcionara es que 613 00:30:16,240 --> 00:30:19,520 no solo teníamos que tener en cuenta las palabras, sino también su contexto. 614 00:30:19,520 --> 00:30:21,360 Vale, como hacíamos aquí, mirar las palabras 615 00:30:21,360 --> 00:30:25,000 previas y posteriores, tanto en el enfoque cebo con el escape Grand y. 616 00:30:25,480 --> 00:30:26,840 Y para eso teníamos diferentes 617 00:30:26,840 --> 00:30:29,480 tipos de redes que nos permitían trabajar con ellas. 618 00:30:29,480 --> 00:30:33,040 Por un lado teníamos las redes convolucionales, las redes sociales. 619 00:30:33,040 --> 00:30:35,600 Es muy parecido a lo que hacíamos aquí. Vale de tener. 620 00:30:35,600 --> 00:30:39,640 Estamos mirando las cadenas de texto como un vector de una sola dimensión 621 00:30:39,640 --> 00:30:41,880 y lo que hacían es aplicar una serie de funciones 622 00:30:41,880 --> 00:30:45,600 matemáticas con la palabra previa y las palabras posteriores. 623 00:30:46,520 --> 00:30:47,840 Eso está muy bien, vale. 624 00:30:47,840 --> 00:30:51,160 De hecho, este tipo de redes funcionaban súper bien en en imágenes. 625 00:30:51,160 --> 00:30:53,760 Cuando aplicamos a dos dimensiones vale porque cada píxel 626 00:30:53,760 --> 00:30:56,960 se miraba los píxeles que había alrededor y tenía mucho sentido que a partir de ahí 627 00:30:57,080 --> 00:30:59,680 éramos capaces de interpretar que estábamos viendo una imagen. 628 00:30:59,680 --> 00:31:03,360 Sin embargo, cuando estábamos trabajando con lenguaje, no funcionaba muy bien. 629 00:31:03,360 --> 00:31:06,120 Primero porque no solo la dimensiones o podía mirar hacia adelante, hacia atrás. 630 00:31:06,120 --> 00:31:07,920 No teníamos arriba y abajo 631 00:31:07,920 --> 00:31:11,480 y perdíamos relaciones que fueran de larga distancia porque tenía 632 00:31:11,480 --> 00:31:12,840 que poner una ventana de contexto. 633 00:31:12,840 --> 00:31:16,480 Pues digo, miro dos, tres o cuatro palabras antes y cuatro después. 634 00:31:16,520 --> 00:31:19,920 Y si me pasaba una frase como el perro que persiguió al gato ladró 635 00:31:20,280 --> 00:31:23,840 Pues si yo no pongo un contexto muy grande, me parece que el que está ladrando 636 00:31:23,840 --> 00:31:24,600 es el gato. 637 00:31:24,600 --> 00:31:28,480 Vale, si yo solo miro la palabra previa y la posterior, aquí tengo al gato ladró. 638 00:31:28,480 --> 00:31:29,960 Bueno, pues el gato estaba ladrando 639 00:31:29,960 --> 00:31:32,080 cuando en realidad que estaba ladrando era el perro. 640 00:31:32,080 --> 00:31:34,600 Vale, pero fijaros la distancia a nivel de saltos de palabras 641 00:31:34,600 --> 00:31:37,120 que teníamos, por eso estas redes no funcionaba muy bien. 642 00:31:37,120 --> 00:31:38,440 Teníamos también otro tipo de redes 643 00:31:38,440 --> 00:31:40,880 que funcionaba muy bien, que eran las redes recurrentes, 644 00:31:40,880 --> 00:31:43,920 las redes recurrentes, lo que eran es ir viendo secuencias de palabras 645 00:31:43,920 --> 00:31:47,840 y van pasando su información a la parte siguiente, de tal forma que empezaba, 646 00:31:47,880 --> 00:31:51,160 miraban él, luego miraban el perro y sabían que venían de él. 647 00:31:51,200 --> 00:31:52,760 Luego miraban, que miraban, sabían 648 00:31:52,760 --> 00:31:56,560 que venían de perro, que venía de él y así iban recorriendo toda la frase. 649 00:31:56,720 --> 00:31:59,680 Estas funcionaban mucho mejor en el sentido de capturar relaciones 650 00:31:59,680 --> 00:32:03,240 largas, pero se paralizaba muy mal si se paralizaba muy mal. 651 00:32:03,240 --> 00:32:06,320 Quiere decir que entrenar estas redes era muy costoso computacionalmente 652 00:32:06,360 --> 00:32:09,400 y por lo tanto si le pasaba a muchos datos para que aprendieran, tardaba mucho 653 00:32:09,400 --> 00:32:13,600 tiempo en conseguir optimizar su función y conseguir hacer que la red hiciera algo. 654 00:32:13,720 --> 00:32:15,960 Así que teníamos unas redes que se entrenaban rápido 655 00:32:15,960 --> 00:32:19,080 pero no funcionaban bien y teníamos luego otras que se entregaban rápido 656 00:32:19,080 --> 00:32:20,320 pero no funcionaban bien. 657 00:32:20,320 --> 00:32:23,920 Y a partir de aquí surgió la arquitectura Transformer, que es la que vino a cambiar 658 00:32:23,920 --> 00:32:28,080 cómo teníamos que trabajar con los grandes modelos de lenguaje, 659 00:32:28,640 --> 00:32:31,080 las redes de Transformers, Meter, 660 00:32:31,080 --> 00:32:34,080 una cosa que llamaban mecanismos de atención. 661 00:32:34,160 --> 00:32:39,920 Vale, que evitaban procesar las palabras secuencialmente para ganar eficiencia. 662 00:32:39,920 --> 00:32:42,520 Básicamente permitían hacer procesamiento en paralelo. 663 00:32:42,520 --> 00:32:45,280 Vamos a ver con un ejemplito gráfico. 664 00:32:45,280 --> 00:32:47,520 Luego también metían los mecanismos de 665 00:32:49,200 --> 00:32:50,440 atención 666 00:32:50,440 --> 00:32:53,240 que permitían calcular la influencia 667 00:32:53,240 --> 00:32:57,160 que tenía una palabra sobre otra sin tener en cuenta la distancia a la que estaban. 668 00:32:57,160 --> 00:32:58,040 Es decir, cada palabra. 669 00:32:58,040 --> 00:32:58,760 Podría mirar 670 00:32:58,760 --> 00:33:03,040 cualquier otra palabra de la frase para ver con cuál se relacionaba más. 671 00:33:03,480 --> 00:33:05,400 Y gracias a esto. 672 00:33:05,400 --> 00:33:08,880 Bueno, pues éramos capaces de entrenar modelos mucho más grandes. 673 00:33:08,920 --> 00:33:09,720 Vale, os lo voy a enseñar 674 00:33:09,720 --> 00:33:12,720 con un ejemplo pasito a paso, que lo vais a ver mucho más claro. 675 00:33:13,120 --> 00:33:14,240 Lo tenéis aquí subido. ¿Vale? 676 00:33:14,240 --> 00:33:17,440 Esta es una página que está aplicado y que me parece magnífica 677 00:33:17,440 --> 00:33:19,480 porque está ya puesto todo paso a paso y tenéis 678 00:33:19,480 --> 00:33:21,640 un montón de herramientas y tenéis este enlace. 679 00:33:21,640 --> 00:33:23,520 ¿Vale para que lo podáis ver y os recomiendo 680 00:33:23,520 --> 00:33:26,120 cuando acabe la charla tratéis un poquito sobre ella para que incidir 681 00:33:26,120 --> 00:33:28,640 en cosas que no me dé tiempo a contaros a vosotros, vale? 682 00:33:28,640 --> 00:33:31,520 Yo ya tengo abierta por aquí para poder ir contando las cosas. 683 00:33:31,520 --> 00:33:35,080 Y fijaros que esto es la arquitectura completa de un Transformer. 684 00:33:35,080 --> 00:33:40,720 Vale, aquí tenemos, aquí arriba tenemos lo que sería la la entrada. 685 00:33:40,760 --> 00:33:42,800 Vale que nosotros le pasamos esto es lo mismo que tenemos 686 00:33:42,800 --> 00:33:44,800 el prompt cuando estamos trabajando en modelos 687 00:33:44,800 --> 00:33:49,120 como GPT y CoPilot, pues el prompt lo tenemos aquí arriba. 688 00:33:49,120 --> 00:33:51,120 Fijaros que lo que le estamos pasando es una serie de palabras, 689 00:33:51,120 --> 00:33:54,240 una secuencia de palabras que dice David Visualization 690 00:33:54,400 --> 00:33:57,920 en poco tú y visualices la palabra que está prediciendo. 691 00:33:58,080 --> 00:34:01,840 Aquí tenéis las diferentes palabras que la prendido que puede predecir 692 00:34:01,840 --> 00:34:07,600 en este caso visualice es la que más probablemente vaya a continuación de tu. 693 00:34:07,600 --> 00:34:11,800 Porque claro dice, la visualización de datos permite a los usuarios visualizar. 694 00:34:11,840 --> 00:34:14,800 Pero había otra serie de palabras que podían haber ido ahí. 695 00:34:14,800 --> 00:34:18,640 Vale que podría ser crear, ver, Make y y Kiki. 696 00:34:19,120 --> 00:34:22,000 Teníamos una serie de palabras que nosotros podíamos hacer. 697 00:34:22,000 --> 00:34:25,360 ¿Cómo funcionan estos mecanismos de Transformer? 698 00:34:26,560 --> 00:34:27,600 Tenemos varias partes. 699 00:34:27,600 --> 00:34:30,000 ¿Vale? 1/1 es los. En vehículos. 700 00:34:30,000 --> 00:34:30,880 He comentado antes, aquí 701 00:34:30,880 --> 00:34:33,880 tenemos las palabras que nosotros le estamos pasando aquí arriba 702 00:34:34,000 --> 00:34:37,600 y las tenemos puestas en unos embeddings que vamos a ver un poquito más en detalle 703 00:34:37,600 --> 00:34:38,560 ahora, después. 704 00:34:38,560 --> 00:34:39,640 Luego tenemos lo que llamamos 705 00:34:39,640 --> 00:34:43,120 unos bloques de Transformer, bloque de transformación. 706 00:34:43,120 --> 00:34:45,760 Fijaros que aquí pone Block uno, porque en realidad 707 00:34:45,760 --> 00:34:51,800 tenemos 2345 encadenados todos unos a continuación de otros. 708 00:34:52,040 --> 00:34:55,040 Pensad esto, que son un montón de parámetros de una 709 00:34:55,360 --> 00:34:58,360 el ejemplito que os he puesto antes de aquí. 710 00:35:00,280 --> 00:35:03,520 Este comparado con esto es muy parecido. 711 00:35:03,520 --> 00:35:04,160 Lo que tenemos 712 00:35:04,160 --> 00:35:07,400 es muchos más puntitos en el diagrama que tenemos que optimizar y aprender. 713 00:35:07,400 --> 00:35:10,600 Tenemos varios millones de parámetros que tenemos que optimizar, 714 00:35:10,600 --> 00:35:14,760 pues en este caso van enganchando diferentes bloques de Transformer, uno 715 00:35:14,760 --> 00:35:18,280 a continuación de otro para que la red se vaya refinando lo que va aprendiendo. 716 00:35:18,440 --> 00:35:20,320 Y luego finalmente tenemos la salida de la red, 717 00:35:20,320 --> 00:35:22,400 que son estas probabilidades que os decía que simplemente 718 00:35:22,400 --> 00:35:25,800 vamos a coger a todas las palabras que tenemos en nuestro vocabulario. 719 00:35:25,800 --> 00:35:30,160 Vamos a decir cuál es la palabra que más probablemente tenga que ir a continuación 720 00:35:30,160 --> 00:35:34,000 de Data Visualización en Power User, Tú, lo que sea. 721 00:35:35,040 --> 00:35:38,080 Entonces paso a paso, fijaros, lo primero que vemos son los embeddings, 722 00:35:38,120 --> 00:35:39,640 los embeddings, lo que os he contado antes. 723 00:35:39,640 --> 00:35:46,280 Aquí tenemos un vector de de 168 elementos en el cual me dice cuál es el vector 724 00:35:46,280 --> 00:35:50,120 en el que está la palabra data, el vector en el que está la palabra visualization. 725 00:35:50,120 --> 00:35:52,120 Exactamente lo mismo que dicho antes con World Tour. 726 00:35:52,120 --> 00:35:54,600 Lo que pasa es que son tamaños un poquito más grandes. 727 00:35:54,600 --> 00:35:58,000 Estos vectores se aprenden, vale, no son vectores que estén prefijados. 728 00:35:58,000 --> 00:35:58,520 ¿Es decir, 729 00:35:58,520 --> 00:36:01,600 que este vector tenga una exposición, aquí lo ponen como un código de barras, vale? 730 00:36:01,600 --> 00:36:05,400 Iluminando más las posiciones, las que el numerito es más alto iluminando. 731 00:36:05,400 --> 00:36:08,120 Bueno, poniendo más negra la posibilidad de que el número más alto 732 00:36:08,120 --> 00:36:11,800 este vector lo va a aprender a partir de muchas ejecuciones de leer, leer, 733 00:36:11,840 --> 00:36:15,320 leer mucho texto y además meter otra cosa que se llama el posicional encoding. 734 00:36:15,400 --> 00:36:18,600 El posiciona encoding te va a decir en qué posición de la frase 735 00:36:18,800 --> 00:36:21,600 está la palabra para poder guardar relación, 736 00:36:21,600 --> 00:36:23,920 de qué distancia entre dos palabras ahora va a aprender. 737 00:36:23,920 --> 00:36:27,360 Vale, esto es un poquito más elaborado, pero digamos que no solo se quedan 738 00:36:27,360 --> 00:36:31,120 en el contexto de de qué significado tiene la palabra que sería el embedding 739 00:36:31,120 --> 00:36:34,440 dentro del espacio de los embedding, sino también te dice dónde estaba la palabra. 740 00:36:35,400 --> 00:36:38,160 Una vez que nosotros tenemos esto, se suman los dos venis 741 00:36:38,160 --> 00:36:42,120 y sacamos el embedding de la palabra, que es un vector de 768 posiciones 742 00:36:42,120 --> 00:36:45,120 para este modelo, que es el que se basa, por ejemplo GPT dos. 743 00:36:47,480 --> 00:36:51,680 A continuación entramos en los bloques de los Transformers. 744 00:36:51,680 --> 00:36:55,080 Vale, esa información se pasa y tenemos que. 745 00:36:57,280 --> 00:36:59,960 Aquí. 746 00:36:59,960 --> 00:37:03,680 Cada uno de esos embeddings se multiplica por tres. 747 00:37:04,120 --> 00:37:07,880 Cada una de las palabras que nosotros le pasemos a la entrada se va a analizar 748 00:37:07,880 --> 00:37:11,840 de tres perspectivas diferentes la que llamamos la query la, 749 00:37:13,680 --> 00:37:16,920 la K, que es la aquí y la V, que sería, que sería el válido. 750 00:37:17,680 --> 00:37:18,040 Vale. 751 00:37:18,040 --> 00:37:20,880 ¿Cómo trabajamos con todo esto? 752 00:37:20,880 --> 00:37:25,040 Básicamente tenemos lo que llamamos cabezas de atención, 753 00:37:25,240 --> 00:37:26,080 la cabeza de atención. 754 00:37:26,080 --> 00:37:29,720 Lo que va a hacer es atender a diferentes partes de la frase, es decir, 755 00:37:29,720 --> 00:37:31,680 va a mirar las palabras de diferentes perspectivas. 756 00:37:31,680 --> 00:37:33,480 De nuevo, todo esto lo aprende la red sola, 757 00:37:33,480 --> 00:37:35,640 es decir, tú le pones un montón de cabeza de atención. 758 00:37:35,640 --> 00:37:37,320 En este caso tenemos 12. 759 00:37:37,320 --> 00:37:37,600 ¿Vale? 760 00:37:37,600 --> 00:37:40,640 Fijaros que cada una de ellas está trabajando en paralelo. 761 00:37:40,680 --> 00:37:44,320 Todo esto se procesa una en paralelo con la otra, lo que permite cuando 762 00:37:44,560 --> 00:37:48,040 entramos la red, aprendan todas a la vez y por lo tanto lo hagamos muy rápido. 763 00:37:48,080 --> 00:37:52,120 Cada una de las cabezas lo que va a hacer es calcular relaciones que tenemos 764 00:37:52,120 --> 00:37:56,760 entre distintas palabras y cada una se va a especializar en una parte de 765 00:37:57,480 --> 00:38:01,840 en una parte de las frases cómo funciona cada una de las cabezas de atención. 766 00:38:01,880 --> 00:38:05,800 Lo que hacemos es por un lado vamos a multiplicar con un product. 767 00:38:05,800 --> 00:38:09,240 Este es el producto de dos product. 768 00:38:09,240 --> 00:38:12,320 El no sé cómo se traduce en español ahora mismo. 769 00:38:12,360 --> 00:38:14,640 Vale, bueno, el que multiplicas un vector por otro, 770 00:38:14,640 --> 00:38:18,120 de tal forma que cuando dos vectores están apuntando a la misma dirección, 771 00:38:18,160 --> 00:38:22,200 el dos produce saltos y los vectores están apuntando en direcciones diferentes, 772 00:38:22,240 --> 00:38:23,560 su producto es muy bajo. 773 00:38:23,560 --> 00:38:24,360 ¿Eso qué quiere decir? 774 00:38:24,360 --> 00:38:25,480 Porque tenemos la 775 00:38:25,480 --> 00:38:28,960 y la que la que es la que me permite actuar como si fuera un filtro. 776 00:38:29,240 --> 00:38:32,200 Si nosotros tenemos la que y que lo que está diciendo es 777 00:38:32,200 --> 00:38:35,160 Quiero que esta palabra se parezca con la consulta que estoy haciendo, de 778 00:38:35,160 --> 00:38:39,800 tal forma que si dos palabras se parecen, estén apuntando a la misma dirección. 779 00:38:39,920 --> 00:38:43,040 Así que tenemos que si dos palabras están relacionadas, este dos productos 780 00:38:43,400 --> 00:38:46,680 nosotros estamos haciendo lo que hacen es que su valor se aumente. 781 00:38:46,960 --> 00:38:48,920 Es como actuamos, como si tuviéramos una máscara. 782 00:38:48,920 --> 00:38:51,240 Vale, vamos a pasar las palabras por una máscara. 783 00:38:51,240 --> 00:38:55,200 Y cuando dos palabras van de relación, lo que vamos a hacer es aumentar su tamaño. 784 00:38:55,240 --> 00:38:59,320 Fijaros que después de hacer el dos produce una operación de escalado 785 00:38:59,320 --> 00:39:01,520 y una operación de sombra, que es otra función matemática 786 00:39:01,520 --> 00:39:03,240 que permite normalizar las cosas. 787 00:39:03,240 --> 00:39:07,080 Fijaros que la palabra que más se parece a data obviamente es data, 788 00:39:08,200 --> 00:39:10,120 pero a partir de ahí decimos data. 789 00:39:10,120 --> 00:39:15,080 Se parece mucho más a visualización que a tu, porque habitualmente la palabra 790 00:39:15,280 --> 00:39:19,520 de visualización suelen ir juntas y esto es lo que nos queda como salida. 791 00:39:19,560 --> 00:39:23,280 Vale, al final este este juego de y query 792 00:39:23,320 --> 00:39:27,400 lo que hace es buscar cuál es la relación que hay entre parejas de palabras 793 00:39:27,440 --> 00:39:30,480 y lo importante es que como estoy multiplicando todo con todo, 794 00:39:30,480 --> 00:39:32,400 no me quedo solo con las palabras que están al lado. 795 00:39:32,400 --> 00:39:33,920 Si yo aumento mi ventana de contexto 796 00:39:33,920 --> 00:39:37,560 para que en lugar de tendrá crisis palabras le meta 50 o mil, 797 00:39:37,600 --> 00:39:40,160 voy a hacer una multiplicación con mil a la vez 798 00:39:40,160 --> 00:39:41,560 y voy a conseguir ver cuál 799 00:39:41,560 --> 00:39:43,520 de las mil palabras que tengo a continuación 800 00:39:43,520 --> 00:39:45,560 se parece más a la palabra que estoy poniendo. 801 00:39:45,560 --> 00:39:47,760 Y todo esto lo estoy haciendo con un montón de 802 00:39:48,800 --> 00:39:50,720 sistemas que estamos funcionando en paralelo. 803 00:39:50,720 --> 00:39:54,480 Es decir, no lo hago solo una vez, sino que lo hago en este caso con 12 más 804 00:39:54,520 --> 00:39:57,520 el número de transforme que encaje una continuación de otro. 805 00:39:58,040 --> 00:40:00,720 Una vez que tengo este resultado, lo que hago 806 00:40:00,720 --> 00:40:04,760 es mezclarlo con los datos de entrada y se lo paso a una red que llaman MLP. 807 00:40:04,960 --> 00:40:09,120 ¿Una red MLP es esto que hemos puesto es tal cual lo que hemos puesto, 808 00:40:09,120 --> 00:40:10,040 de tal forma que el SEO 809 00:40:10,040 --> 00:40:13,000 es una función matemática que le digo empieza a combinar esto como a ti 810 00:40:13,000 --> 00:40:16,760 se te ocurra para conseguir sacar un resultado y la red se pone a aprender, 811 00:40:16,800 --> 00:40:17,080 vale? 812 00:40:17,080 --> 00:40:20,680 Se pone a aprender y se pone entrenarlo todo aquí dentro. 813 00:40:20,720 --> 00:40:22,960 Bueno, pues tenemos un montón de cosas. ¿Vale? 814 00:40:22,960 --> 00:40:26,280 Tenemos capas, tenemos funciones de activación 815 00:40:26,440 --> 00:40:29,720 GL que se escapan un poquito del alcance de este curso. 816 00:40:29,720 --> 00:40:31,120 Tenemos un montón de cosas más. 817 00:40:31,120 --> 00:40:33,400 No es tan sencillo como suelo enganchar neuronas. 818 00:40:33,400 --> 00:40:36,640 Pero bueno, después de todo esto y de los bloques de transformación, 819 00:40:36,680 --> 00:40:39,400 llegamos a la salida, que serían las probabilidades. 820 00:40:39,400 --> 00:40:42,800 Nosotros somos capaces de después de combinar estas palabras de entrada 821 00:40:42,800 --> 00:40:46,520 pasada por sus embedding, por todos estos procesos, me va a dar como resultado 822 00:40:46,520 --> 00:40:50,360 una lista en la que todas las palabras que nosotros tenemos 823 00:40:50,400 --> 00:40:53,240 van a tener una serie de probabilidades de ser puestas. 824 00:40:53,240 --> 00:40:56,600 Aquí tenéis las funciones que se aplican para calcular las probabilidades. 825 00:40:57,400 --> 00:41:00,280 Podemos además modular cómo queremos que sea esta probabilidad 826 00:41:00,280 --> 00:41:03,280 con un parámetro que se llama temperatura, que a lo mejor lo habéis leído. 827 00:41:03,280 --> 00:41:06,720 Si habéis mirado un poco documentación sobre algún LM que fijaros 828 00:41:06,720 --> 00:41:09,080 qué es lo que pasa cuando yo subo la temperatura, 829 00:41:10,280 --> 00:41:14,120 el modelo lo que hace es poner todas las probabilidades más o menos iguales. 830 00:41:14,160 --> 00:41:16,040 Digamos que le dejamos ser más creativo. 831 00:41:16,040 --> 00:41:17,520 Vale, no le captamos, Decimos bueno, 832 00:41:17,520 --> 00:41:20,520 pues elige tu por la palabra que más quiere que venga a continuación. 833 00:41:20,520 --> 00:41:25,040 Sin embargo, si yo le bajo la temperatura, concentra toda su probabilidad 834 00:41:25,040 --> 00:41:26,160 en un solo valor. 835 00:41:26,160 --> 00:41:28,240 Por ejemplo, en este caso con visualice 836 00:41:28,240 --> 00:41:30,920 según la temperatura que nosotros le pongamos, le permitimos al modelo 837 00:41:30,920 --> 00:41:33,920 ser más creativo, ser más exacto, más seguro lo que estamos diciendo. 838 00:41:33,960 --> 00:41:35,200 Y aquí podemos hacer, bueno, 839 00:41:35,200 --> 00:41:37,880 pues jugar un poquito con cómo queremos que sea la salida. 840 00:41:37,880 --> 00:41:40,000 También tenemos la opción del lugar de hacerlo, 841 00:41:40,000 --> 00:41:42,080 elegir las cinco palabras más prometedoras. 842 00:41:42,080 --> 00:41:43,840 Podemos jugar con la salida de 843 00:41:43,840 --> 00:41:47,640 probabilidades, es decir, quiero poder elegir entre las palabras 844 00:41:47,640 --> 00:41:52,920 cuya probabilidad acumulada sume 0,5 o lo puedo subir 0,7 0,8 845 00:41:52,960 --> 00:41:56,040 si le pongo uno por fijaros que se me meten aquí un montón de palabras 846 00:41:56,080 --> 00:41:59,080 que son muy poco probable que aparezcan como lo que tenemos por aquí. 847 00:41:59,640 --> 00:42:03,240 ¿Entonces esto sé que bueno, pues visto en estos 848 00:42:03,240 --> 00:42:06,480 cinco minutos es complicado de seguir, pero que quiero que se dijo? 849 00:42:06,480 --> 00:42:08,320 La idea es que esto no deja de ser otra reunión 850 00:42:08,320 --> 00:42:12,160 a la que se han combinado las neuronas de una forma especial 851 00:42:12,160 --> 00:42:14,400 para conseguir que la red aprenda más rápido, 852 00:42:14,400 --> 00:42:16,200 pero que yo lo único que tengo que pasarle a la red 853 00:42:16,200 --> 00:42:19,160 para que aprenda es secuencias de palabras. 854 00:42:19,160 --> 00:42:21,760 Me cojo el diccionario todas las palabras que hay y le digo no 855 00:42:21,760 --> 00:42:26,400 es que después de esta frase en el texto aparecía Visualice y la red aprende. 856 00:42:26,440 --> 00:42:28,360 Y si la red se equivoca, la probabilidad de salida 857 00:42:28,360 --> 00:42:31,680 lo que hace es modificar sus pesos internos, los millones de pesos 858 00:42:31,680 --> 00:42:35,560 que tiene aquí dentro mediante un algoritmo que va castigando los errores 859 00:42:35,560 --> 00:42:37,400 que se han cometido, que eran cometido errores más grandes. 860 00:42:37,400 --> 00:42:38,480 Como va propagation 861 00:42:38,480 --> 00:42:40,320 lo vamos castigando y vamos hacia atrás 862 00:42:40,320 --> 00:42:42,240 hasta que el modelo se tiende a estabilizar. 863 00:42:42,240 --> 00:42:44,040 Cuando hemos conseguido que el modelo se estabilice, 864 00:42:44,040 --> 00:42:47,480 decimos que el modelo ha aprendido y lo pongo entre comillas el aprendido 865 00:42:47,480 --> 00:42:50,640 porque ya has dicho antes que en realidad estamos haciendo optimizar una función, 866 00:42:50,640 --> 00:42:54,640 pero sí que conseguimos que este aprendizaje se lleve a cabo 867 00:42:54,680 --> 00:42:58,600 y que el modelo sea capaz de predecir cuál es la palabra que va a continuación. 868 00:43:01,960 --> 00:43:02,440 ¿Cómo hemos 869 00:43:02,440 --> 00:43:06,360 pasado entonces de pequeños modelos a lo que tenemos hoy en día? 870 00:43:06,360 --> 00:43:08,160 Bueno, pues de arquitectura Transformer os he dicho que 871 00:43:08,160 --> 00:43:11,960 parece que databa del año 2017, pues ha ido evolucionando. 872 00:43:11,960 --> 00:43:14,880 Al principio teníamos modelos pequeños y tenemos modelos pequeños. 873 00:43:14,880 --> 00:43:17,560 Quiere decir que tenemos pocos parámetros para aprender 874 00:43:17,560 --> 00:43:19,400 y poco texto con el que entrenarle. 875 00:43:19,400 --> 00:43:22,480 Si tenemos un modelo pequeño quiere decir que podemos hacer cosas pequeñas. 876 00:43:22,520 --> 00:43:25,640 Vale, podemos sacar tokens de las frases, 877 00:43:25,640 --> 00:43:30,760 es decir, separar elementos de las frases, podemos poner etiquetas, 878 00:43:30,760 --> 00:43:33,680 ver si las palabras son sustantivos, son verbos. 879 00:43:33,680 --> 00:43:37,600 Podemos también sacar una serie de reglas, es decir, podemos hacer cosas como 880 00:43:37,600 --> 00:43:41,680 corrección ortográfica, predicción de palabras, cosas un poquito más simples 881 00:43:42,760 --> 00:43:45,760 a medida que tenemos más datos y para entrenar modelos de 882 00:43:46,080 --> 00:43:48,840 como Chase, que fue el que pega el pelotazo al principio, 883 00:43:48,840 --> 00:43:51,800 básicamente han cogido casi todo internet y se ha ido pasando en textos. 884 00:43:51,800 --> 00:43:54,520 Fijaros la cantidad de texto que le hemos le hemos pasado, 885 00:43:54,520 --> 00:43:56,600 pues conseguimos hacer modelos más complejos. 886 00:43:56,600 --> 00:43:58,520 Si tenemos más textos lo único que que hacer es 887 00:43:58,520 --> 00:44:00,880 dejarle más tiempo aprendiendo, pero también conseguimos hacer 888 00:44:00,880 --> 00:44:03,520 meterle más neuronas, poner el modelo con más parámetros 889 00:44:03,520 --> 00:44:06,720 para aprender, ponerle más cabeza a la atención por le más arquitectura 890 00:44:06,720 --> 00:44:10,640 transformer, ponerle más partes al modelo y necesitamos hardware más potente. 891 00:44:10,640 --> 00:44:12,800 Sacamos gráficas más potente de hecho. 892 00:44:12,800 --> 00:44:14,240 Bueno, ahora ya tenemos las TPUs. 893 00:44:14,240 --> 00:44:17,400 Vale que son gráficas especializadas en procesamiento. 894 00:44:17,440 --> 00:44:21,440 Lo ponemos con más elementos y cuanto más parámetros y más texto 895 00:44:21,440 --> 00:44:23,800 tenga el modelo puede hacer, más cosas vale. 896 00:44:23,800 --> 00:44:26,800 La IA puede hacer más cosas y es en el punto en el que estamos ahora mismo. 897 00:44:26,880 --> 00:44:28,120 Fijaros algunas gráficas. 898 00:44:28,120 --> 00:44:31,680 Vale como evolucionando el tamaño del modelo. 899 00:44:31,680 --> 00:44:34,680 Estos son el número de parámetros a aprender que os decía 900 00:44:35,000 --> 00:44:37,720 anteriormente en billones de 0,11. 901 00:44:37,720 --> 00:44:39,240 ¿Esto es escala logarítmica, vale? 902 00:44:39,240 --> 00:44:41,640 O sea, no es lineal, crece muchísimo. 903 00:44:41,640 --> 00:44:45,800 Estamos aquí en los 10 mil billones de parámetros para aprender. 904 00:44:45,840 --> 00:44:48,880 Fijaros que en el año 2017 estábamos aquí muy abajo y 905 00:44:48,880 --> 00:44:51,920 estoy teniendo un crecimiento súper grande. 906 00:44:51,920 --> 00:44:55,120 Vale, un crecimiento exponencial, vale, porque la escala que es logarítmica 907 00:44:55,160 --> 00:44:58,160 hasta GPT cuatro en el año 908 00:44:58,160 --> 00:45:01,800 2023 y aquí yo creo que esto era inasumible. 909 00:45:01,800 --> 00:45:04,800 Vale a nivel costes de infraestructura para las empresas 910 00:45:04,880 --> 00:45:08,480 empezamos sacar lo que llamaron los SLM, que es el lugar del Large 911 00:45:08,600 --> 00:45:11,600 Lewis Model Small Language Model modelo de lenguaje 912 00:45:11,600 --> 00:45:14,800 Pequeños empezaron a cortar un poquito las cosas y la cosa se ha estabilizado. 913 00:45:14,800 --> 00:45:17,480 Vale, sacaron modelos más pequeños, conseguían hacer lo mismo, 914 00:45:17,480 --> 00:45:21,760 pues eliminando partes que no hacían falta o haciendo que los números, 915 00:45:21,760 --> 00:45:24,360 en lugar de ser tan largos, la representación de los números 916 00:45:24,360 --> 00:45:26,080 no fuera tan larga hacía un poquito más pequeña. 917 00:45:26,080 --> 00:45:27,920 Así el modelo ocupaba menos. 918 00:45:27,920 --> 00:45:30,240 Y bueno, visto esto, pues han ido cambiando, vale, 919 00:45:30,240 --> 00:45:32,360 pero la tendencia es verdad que ya es un poquito decreciente, 920 00:45:32,360 --> 00:45:34,960 porque esto implica básicamente gastar menos dinero 921 00:45:34,960 --> 00:45:36,760 para las empresas que venden inteligencia artificial. 922 00:45:36,760 --> 00:45:40,680 Es una condición obviamente deseable para ellas porque así consiguen ingresar más. 923 00:45:41,520 --> 00:45:43,840 También podemos analizar lo que es la ventana de contexto. 924 00:45:43,840 --> 00:45:46,760 La ventana de contexto es las palabras que yo le paso a la red. 925 00:45:46,760 --> 00:45:47,920 Vale lo que puedo escribir. 926 00:45:47,920 --> 00:45:51,080 En realidad cuando utilizamos modelos como GPT o Gemini, 927 00:45:51,880 --> 00:45:54,880 no solo lo que escribimos, porque esto se combina con las palabras anteriores 928 00:45:54,880 --> 00:45:58,120 y con algunas transformaciones que hace la propia herramienta. 929 00:45:58,120 --> 00:46:01,120 ¿Pero más o menos es cuántas palabras le puedo pasar de golpe 930 00:46:01,680 --> 00:46:04,640 a la red para que me saque una predicción? 931 00:46:04,640 --> 00:46:08,600 Fijaros que de nuevo escala logarítmica en número de tokens 932 00:46:08,640 --> 00:46:11,840 de mil tokens estamos ahora por los 10 millones de tokens. 933 00:46:11,840 --> 00:46:13,200 Vale, llama cuatro. 934 00:46:13,200 --> 00:46:16,640 En 2025 consiguió llegar a los 10 millones de tokens. 935 00:46:16,680 --> 00:46:19,680 Esto digo que cada vez va creciendo más, hacemos redes más eficientes, 936 00:46:19,680 --> 00:46:21,640 admiten más parámetros y admiten más parámetros. 937 00:46:21,640 --> 00:46:23,080 ¿Le puedo pasar más información? 938 00:46:23,080 --> 00:46:25,680 Si la red tiene más información es capaz de predecir mejor. 939 00:46:25,680 --> 00:46:28,920 Así que estamos consiguiendo mejores resultados simplemente con aumentar. 940 00:46:28,920 --> 00:46:31,720 ¿Cuál es la ventana de contexto que nosotros le pasamos? 941 00:46:33,200 --> 00:46:36,200 Entonces, lo que os decía, cuando vamos aumentando la escala 942 00:46:36,200 --> 00:46:38,680 tanto en número de parámetros como ventana de contexto, 943 00:46:38,680 --> 00:46:40,200 como el número de datos aprender, 944 00:46:40,200 --> 00:46:43,360 conseguimos representar cosas más complejas, 945 00:46:43,400 --> 00:46:46,360 conseguimos representaciones más difíciles, 946 00:46:46,360 --> 00:46:50,320 mejoramos por lo tanto coherencia, fluidez, fluidez y adaptación del texto 947 00:46:50,400 --> 00:46:53,440 y podemos tener en definitiva, para el nivel medio, 948 00:46:53,440 --> 00:46:56,440 mejores resultados. 949 00:46:56,960 --> 00:46:59,360 ¿Qué pasa si nosotros queremos aplicar 950 00:46:59,360 --> 00:47:02,080 un LLM para nuestro negocio en particular? 951 00:47:02,080 --> 00:47:04,680 Porque claro, estos modelos son de propósito general. 952 00:47:04,680 --> 00:47:08,760 Poquita gente tiene la capacidad de coger un dataset gigante 953 00:47:08,760 --> 00:47:13,120 y entrenar un bicho de esto sea un bicho de 10 mil billones de parámetros, 954 00:47:13,160 --> 00:47:16,920 pues es una burrada a nivel de consumo, a nivel de máquinas que te va a gastar 955 00:47:16,920 --> 00:47:18,120 para poder entrenarlo. 956 00:47:18,120 --> 00:47:20,960 Entonces has surgido una serie de herramientas que me permiten 957 00:47:20,960 --> 00:47:22,440 especializar las redes neuronales. 958 00:47:22,440 --> 00:47:26,000 Podemos entender la realidad como la red neuronal ya entrenada 959 00:47:26,000 --> 00:47:29,240 ha aprendido a hablar un idioma español e inglés, el que sea. 960 00:47:29,280 --> 00:47:32,200 Lo que podemos hacer es hacer un ajuste fino, hacer un pequeño 961 00:47:32,200 --> 00:47:36,320 ajuste a nuestra red para que aprenda a hablar de un dominio en particular. 962 00:47:37,000 --> 00:47:38,600 ¿Qué cosa podemos hacer aquí? 963 00:47:38,600 --> 00:47:40,720 Pues tenemos diferentes estrategias. 964 00:47:40,720 --> 00:47:42,720 Lo primero es la que llamamos un ajuste fino. 965 00:47:42,720 --> 00:47:45,840 Cogemos un LM que ya sepa hablar el idioma que nosotros queremos, 966 00:47:45,840 --> 00:47:46,680 que hay muchos modelos 967 00:47:46,680 --> 00:47:49,760 que ya no lo podemos bajar y lo podemos utilizar y lo que le pasamos 968 00:47:49,760 --> 00:47:53,320 es información actualizada sobre el campo que nosotros queramos. 969 00:47:53,320 --> 00:47:54,680 Por ejemplo en medicina. 970 00:47:54,680 --> 00:47:58,240 Pues es que las redes ha entrenado con foros de internet normales 971 00:47:58,240 --> 00:48:00,560 y queremos que aprenda a hablar sobre temas de medicina. 972 00:48:00,560 --> 00:48:05,960 Lo que hacemos es pasar la red, una serie de frases adicionales sobre medicina 973 00:48:06,040 --> 00:48:09,440 y la volvemos a entrenar, pero partiendo de un punto de partida nuevo. 974 00:48:09,440 --> 00:48:11,800 En este modelo se parte de aleatorio. 975 00:48:11,800 --> 00:48:13,720 Vale, todos los pesos iniciales son aleatorios. 976 00:48:13,720 --> 00:48:14,360 Lo que vamos a hacer 977 00:48:14,360 --> 00:48:17,720 es inicializar una red que ya sepa hablar inglés y la vamos a especializar 978 00:48:17,720 --> 00:48:20,720 para que sepa hablar inglés médico, por ejemplo. 979 00:48:20,840 --> 00:48:22,000 ¿Qué problema tiene esto? 980 00:48:22,000 --> 00:48:24,840 Sigue siendo costoso computacionalmente, por si tenemos un modelo 981 00:48:24,840 --> 00:48:26,760 con muchos parámetros, hay que meterle una máquina 982 00:48:26,760 --> 00:48:28,680 que sea capaz de cargar muchísimos parámetros 983 00:48:28,680 --> 00:48:31,440 y hay que dejarla entrenando y eso es un proceso lento. 984 00:48:31,440 --> 00:48:33,360 Por lo tanto, este ajuste fino funciona bien 985 00:48:33,360 --> 00:48:35,760 cuando los modelos son chiquititos, pero con modelos grandes 986 00:48:35,760 --> 00:48:38,920 no funciona muy allá porque no tenemos infraestructura para poder hacerlo. 987 00:48:39,800 --> 00:48:42,880 Así que han surgido estrategias de personalización ligera en la que tenemos 988 00:48:42,880 --> 00:48:44,520 dos enfoques distintos. 989 00:48:44,520 --> 00:48:49,840 Lora, que es el más popular actualmente, lo que hace es construirse una nueva 990 00:48:49,840 --> 00:48:55,200 matriz de pesos que se va a combinar con la del M para sacar nuevos resultados. 991 00:48:55,240 --> 00:48:57,040 Ahora lo pongo con un gráfico, pero básicamente 992 00:48:57,040 --> 00:49:00,040 es una matriz muy chiquitita en la cual somos capaces de combinar. 993 00:49:00,040 --> 00:49:04,920 Le hacemos que la salida del modelo del LM varíe ligeramente para 994 00:49:04,920 --> 00:49:08,760 que aprenda a representar las iteraciones de nuestro contexto específico. 995 00:49:09,120 --> 00:49:11,520 Y luego tenemos la otra opción, que esta es un poco más antigua, 996 00:49:11,520 --> 00:49:13,360 pero también se sigue utilizando, que son los adaptes, 997 00:49:13,360 --> 00:49:15,880 que lo que hacemos es insertar nuevas neuronas 998 00:49:15,880 --> 00:49:17,840 dentro de nuestra red neuronal para que aprenda. 999 00:49:17,840 --> 00:49:19,200 Aquí tienes un ejemplo de las dos. 1000 00:49:19,200 --> 00:49:21,280 Vale, esto es la arquitectura Transformer que decía antes. 1001 00:49:21,280 --> 00:49:24,960 Estas son las cabeceras atención y diferentes capas de normalización 1002 00:49:24,960 --> 00:49:28,520 que le íbamos poniendo para sacar la salida en las probabilidades 1003 00:49:28,920 --> 00:49:32,920 y a partir de la entrada del que nosotros tuviéramos se transformaba 1004 00:49:32,920 --> 00:49:36,280 esto una serie de embeddings y se lo pasábamos al mecanismo. 1005 00:49:36,480 --> 00:49:40,560 Si nosotros trabajamos con Lora, fijaros que lo que hacemos es dejamos la red 1006 00:49:40,560 --> 00:49:43,920 como estaba, es decir, lo que hemos visto en este ejemplo de aquí 1007 00:49:44,280 --> 00:49:48,720 y lo que hacemos es entrenar un par de matrices chiquititas que son A y B, 1008 00:49:48,760 --> 00:49:51,120 que luego las combinamos, las multiplicamos, vale este 1009 00:49:51,120 --> 00:49:52,360 decimos que son dimensionalidad 1010 00:49:52,360 --> 00:49:55,800 baja para conseguir una del mismo tamaño que tenemos aquí y lo sumamos. 1011 00:49:55,840 --> 00:49:56,760 ¿Qué ventaja tiene esto? 1012 00:49:56,760 --> 00:49:59,680 Son muy poquitos parámetros a aprender, pocos parámetros a aprender. 1013 00:49:59,680 --> 00:50:01,600 Lo traducimos en esto rápido de entrenar 1014 00:50:01,600 --> 00:50:03,400 para cualquier ordenador que nosotros tengamos, 1015 00:50:03,400 --> 00:50:04,840 así que aunque tengamos un servidor 1016 00:50:04,840 --> 00:50:08,360 medianamente potente, podemos coger una M que ya sepa hablar un idioma, 1017 00:50:08,400 --> 00:50:12,440 le metemos con Lora una especialización y muy rápidamente somos capaces 1018 00:50:12,440 --> 00:50:16,240 de refinar ese modelo para que aprenda a hablar del tema que nosotros queremos. 1019 00:50:16,840 --> 00:50:19,120 La otra alternativa, que es la de los adapter, 1020 00:50:19,120 --> 00:50:23,080 lo que hacíamos era meter capas aquí en medio, meter capas aquí en medio 1021 00:50:23,080 --> 00:50:25,560 es más complejo computacionalmente porque implica 1022 00:50:25,560 --> 00:50:29,120 que tenemos que meternos dentro la arquitectura del Transformer 1023 00:50:29,120 --> 00:50:30,480 y dentro de arquitectura del transporte 1024 00:50:30,480 --> 00:50:31,600 nos tenemos que poner a hacer que 1025 00:50:31,600 --> 00:50:34,640 estas capas se pongan a aprender dejando congeladas las otras. 1026 00:50:34,680 --> 00:50:37,240 Es una operación computacionalmente más costosa 1027 00:50:37,240 --> 00:50:38,560 tener las dos opciones para hacerlo. 1028 00:50:38,560 --> 00:50:40,120 Hay herramientas que permiten hacerlo, 1029 00:50:40,120 --> 00:50:42,080 pero vamos, que logra actualmente es la más sencilla 1030 00:50:42,080 --> 00:50:45,160 porque te quedas fuera de la red y es muchísimo más rápida. 1031 00:50:46,520 --> 00:50:47,480 Como casos de éxito. 1032 00:50:47,480 --> 00:50:51,120 De esto tenemos podéis buscar ver que es un experto en biomedicina. 1033 00:50:51,520 --> 00:50:53,840 Utilizaron el modelo, ver que igual os suena. 1034 00:50:53,840 --> 00:50:57,640 Vale que es de propósito general y le pusieron a entrenar 1035 00:50:57,640 --> 00:51:00,880 con colección de artículos de textos biomédicos. 1036 00:51:01,120 --> 00:51:01,960 ¿Lo consiguieron? 1037 00:51:01,960 --> 00:51:06,360 Es que el modelo de lenguaje entendía terminología biomédica 1038 00:51:06,360 --> 00:51:09,880 y por lo tanto esto pedía, admitía acelerar investigación 1039 00:51:09,880 --> 00:51:12,160 en temas biomédicos, pues le podía hacer preguntas que 1040 00:51:12,160 --> 00:51:13,920 a lo mejor alguien no se había dado cuenta y bueno, 1041 00:51:13,920 --> 00:51:18,040 pues permite hacer pequeños avances, ya digo, con un modelo de un ajuste fino 1042 00:51:18,040 --> 00:51:21,040 sobre un LM que estaba previamente entrenado, que era Bert. 1043 00:51:22,240 --> 00:51:24,640 También podemos especializar nuestro modelo 1044 00:51:24,640 --> 00:51:26,800 sin hacer, sin que tengamos que retener la red. 1045 00:51:26,800 --> 00:51:29,320 Para esto hay una cosa que se llaman RAG que igual también os suena. 1046 00:51:29,320 --> 00:51:31,640 Habéis leído por ahí que sanadora muy de moda. 1047 00:51:31,640 --> 00:51:34,080 Vale, básicamente RAG son las siglas de Retrieval 1048 00:51:34,080 --> 00:51:37,920 amente Generation y es tiene tres fases. 1049 00:51:37,960 --> 00:51:39,680 Vale, pues la fase de recuperación 1050 00:51:39,680 --> 00:51:43,160 Retrieval, la fase de aumentación y la fase de generación. 1051 00:51:43,720 --> 00:51:44,680 ¿Cómo funciona esto? 1052 00:51:44,680 --> 00:51:46,840 Nosotros tenemos nuestro LLM, el que queráis. 1053 00:51:46,840 --> 00:51:50,200 Vale, aquí funciona con cualquiera de ellos y le pasamos un prompt. 1054 00:51:50,440 --> 00:51:53,760 Cuando nosotros le pasemos nuestro prom, lo que hacemos es. 1055 00:51:53,800 --> 00:51:55,760 Aparte de pasar al modelo de lenguaje, 1056 00:51:55,760 --> 00:51:58,120 vamos a ir a una base de datos documental que tengamos, 1057 00:51:58,120 --> 00:51:59,960 por ejemplo con documentos de la universidad. 1058 00:51:59,960 --> 00:52:01,680 Imaginad que queremos hacer un rap 1059 00:52:01,680 --> 00:52:04,560 con normativa interna que tengamos en la universidad, 1060 00:52:04,560 --> 00:52:05,880 pues hacemos que ese prom 1061 00:52:05,880 --> 00:52:09,640 hagamos una búsqueda de documentos de la universidad que estén relacionados 1062 00:52:09,640 --> 00:52:12,560 con el propio Estado, pasando por ejemplo normativa de evaluación. 1063 00:52:12,560 --> 00:52:13,360 Así que buscamos 1064 00:52:13,360 --> 00:52:16,560 encontramos que un documento normativa, valuación, lo que va a hacer el RAG 1065 00:52:16,640 --> 00:52:20,320 va a recuperar los documentos que estén más relacionados y se los va a pasar 1066 00:52:20,320 --> 00:52:23,440 como parte del prom al LM, junto con lo que nosotros lo hemos pedido. 1067 00:52:23,440 --> 00:52:24,600 De tal forma que digo 1068 00:52:25,720 --> 00:52:26,560 pueden varios 1069 00:52:26,560 --> 00:52:29,600 alumnos sacar matrícula de honor si han tenido la misma nota. 1070 00:52:29,920 --> 00:52:34,360 Ese es el que yo le voy a pasar a mi, a mí el LM va a coger, 1071 00:52:34,360 --> 00:52:37,360 va a buscar la normativa de valoración y se va a pasar también como parte del 1072 00:52:37,480 --> 00:52:39,400 no lo tengo que hacer yo con un copia y pega. 1073 00:52:39,400 --> 00:52:42,400 Entonces el modelo se va a poner a leer los documentos que le pasemos 1074 00:52:42,400 --> 00:52:45,600 junto con nuestro prom y va a poder generar una respuesta mucho más precisa. 1075 00:52:45,880 --> 00:52:48,680 Si yo no le pasara estos documentos, él no sabría qué universidad 1076 00:52:48,680 --> 00:52:49,480 estoy, No sabría cuál 1077 00:52:49,480 --> 00:52:52,760 es la normativa interna de universidad y por lo tanto no podría. 1078 00:52:52,800 --> 00:52:57,240 Una respuesta precisa al combinar los documentos internos de la organización 1079 00:52:57,240 --> 00:53:00,440 con las preguntas del usuario, somos capaces de dar respuestas un poquito 1080 00:53:00,440 --> 00:53:03,640 más certeras teniendo en cuenta que esto sigue siendo probabilístico. 1081 00:53:03,800 --> 00:53:06,320 O sea, que el M se puede equivocar y puede cometer errores, 1082 00:53:06,320 --> 00:53:08,280 Por lo tanto, tampoco coger la respuesta de dos 1083 00:53:08,280 --> 00:53:12,160 como si fuera una verdad absoluta de la cual no podemos dudar. 1084 00:53:14,480 --> 00:53:15,320 Y llegando al final de 1085 00:53:15,320 --> 00:53:19,200 esta parte, nos encontramos con los principales 1086 00:53:19,200 --> 00:53:22,240 problemas y limitaciones que tenemos de los elements actualmente. 1087 00:53:22,840 --> 00:53:25,400 ¿Eh? ¿Lo primero que tenéis que tener en cuenta que esto, 1088 00:53:25,400 --> 00:53:27,320 como os he dicho, son patrones estadísticos, vale? 1089 00:53:27,320 --> 00:53:28,800 Son todo matemáticas, 1090 00:53:28,800 --> 00:53:32,160 es estadística y los LLM no están entendiendo lo que les pasemos. 1091 00:53:32,200 --> 00:53:35,160 De ahí que decimos que en realidad no están aprendiendo porque bueno, pues 1092 00:53:35,160 --> 00:53:39,120 aprender es tiene un concepto filosófico mucho más fuerte, 1093 00:53:39,160 --> 00:53:42,040 solo están optimizando funciones y eso es una limitación. 1094 00:53:42,040 --> 00:53:45,240 Mal, Ellos no comprenden, simplemente reproducen, reproducen, reproducen. 1095 00:53:45,280 --> 00:53:47,800 ¿Eso qué quiere decir? Que pueden aparecer sesgos. 1096 00:53:47,800 --> 00:53:51,200 Si los datos que yo le he pasado a la IA están mal, 1097 00:53:51,560 --> 00:53:53,880 las respuestas que va a dar la IA están mal. 1098 00:53:53,880 --> 00:53:58,360 Si yo le paso lo que decía antes, imaginaros que solo se ha entrenado 1099 00:53:58,360 --> 00:54:02,160 con textos de foros de gente joven en internet, 1100 00:54:02,480 --> 00:54:05,120 pues seguramente el lenguaje que van a utilizar 1101 00:54:05,120 --> 00:54:08,240 es un lenguaje mucho más informal que el que podríamos utilizar en otros ámbitos, 1102 00:54:08,240 --> 00:54:09,720 por ejemplo un ámbito académico. 1103 00:54:09,720 --> 00:54:12,400 Y la IA nunca va a ser saber hablar académicos. 1104 00:54:12,400 --> 00:54:15,560 Y yo no le he pasado textos académicos sobre los que aprender, 1105 00:54:15,600 --> 00:54:19,000 así que tenemos muchos sesgos y luego pues también problemas. 1106 00:54:19,160 --> 00:54:23,520 Si la guía se ha pasado con textos racistas, la IA será racistas y la IA dado 1107 00:54:23,560 --> 00:54:27,320 ciertas ideologías, tendrá sus ideologías y por lo tanto tenemos 1108 00:54:27,320 --> 00:54:28,480 que tener cuidado con los datos. 1109 00:54:28,480 --> 00:54:32,400 Ya digo, la parte más difícil es pasarle datos que sean heterogéneos, 1110 00:54:32,400 --> 00:54:35,400 que estén limpios y que funcionen bien para que la IA pueda aprender. 1111 00:54:35,520 --> 00:54:37,840 Luego también tenemos el problema de la opacidad. 1112 00:54:37,840 --> 00:54:41,320 Al final, esto que os he pintado aquí es una caja negra muy negra. 1113 00:54:41,320 --> 00:54:42,480 Son muchos números. ¿Vale? 1114 00:54:42,480 --> 00:54:45,480 Nosotros podemos bucear y podemos extraer cuánto vale 1115 00:54:45,520 --> 00:54:48,160 cada uno de los parámetros que tengo que aprender por aquí. 1116 00:54:48,160 --> 00:54:52,040 Vale, en esta parte del MLP podemos mirarlo y fijaros que aquí 1117 00:54:52,040 --> 00:54:53,600 hay un montón de números y un montón de cosas. 1118 00:54:53,600 --> 00:54:58,360 Podría calcular cuánto vale este W1 uno y un montón de cosas, 1119 00:54:58,400 --> 00:55:02,760 pero realmente es una ecuación matemática tan compleja que conocer un 1120 00:55:02,760 --> 00:55:05,040 solo dato no me vale para nada y por lo tanto es una caja negra. 1121 00:55:05,040 --> 00:55:08,960 ¿Yo le paso los datos, me dice la salida y me cuesta mucho comprender por qué 1122 00:55:08,960 --> 00:55:11,480 ha dicho esa salida, lo cual en muchos casos da igual, 1123 00:55:11,480 --> 00:55:13,440 pero en muchos otros es algo importante decir 1124 00:55:13,440 --> 00:55:16,440 me está dando esa respuesta, pero por qué me lo estás diciendo? 1125 00:55:16,480 --> 00:55:19,840 Si la IA fuera capaz de justificarse a sí misma, nos vendría 1126 00:55:19,840 --> 00:55:23,960 muy bien y su salida sería estaría mucho más enriquecida. 1127 00:55:24,000 --> 00:55:26,080 Y luego, también lo he comentado, el impacto energético. 1128 00:55:26,080 --> 00:55:28,160 Esto está gastando luz, apuntala. 1129 00:55:28,160 --> 00:55:32,040 Estamos gastando kilovatios y kilovatios por minuto 1130 00:55:33,520 --> 00:55:35,600 para entrenar estos modelos y para mantenerlos. 1131 00:55:35,600 --> 00:55:38,560 Incluso el proceso de inferencia, que es mucho más rápido 1132 00:55:38,560 --> 00:55:41,640 cuando ya tengo el modelo entrenado que me dé una respuesta, 1133 00:55:41,680 --> 00:55:44,240 pues estás teniendo un coste energético muy alto. 1134 00:55:44,240 --> 00:55:47,760 Es verdad que se está reduciendo el 1135 00:55:48,360 --> 00:55:51,640 el token por kilovatio vale el coste del token por kilovatios 1136 00:55:51,640 --> 00:55:54,640 se está reduciendo el último tiempo porque interesa mucho. 1137 00:55:54,640 --> 00:55:56,920 Pero bueno, que también tenemos que tener esa perspectiva. 1138 00:55:56,920 --> 00:55:59,920 Y los modelos de Green Artificial Intelligence y demás, no 1139 00:55:59,960 --> 00:56:03,640 teniendo mucha importancia aquí para conseguir mitigar este efecto. 1140 00:56:03,680 --> 00:56:05,920 Y bueno, pues que no se nos vaya de las manos 1141 00:56:05,920 --> 00:56:09,320 y al final tengamos un problema más grande el que teníamos originalmente. 1142 00:56:09,320 --> 00:56:09,480 ¿Vale? 1143 00:56:09,480 --> 00:56:12,480 Entonces son como sus principales problemas actualmente. 1144 00:56:12,960 --> 00:56:15,400 Y bueno, para terminar, me gusta poner este meme 1145 00:56:15,400 --> 00:56:18,560 vale de de internet que dicen que bueno está mirando ahí. 1146 00:56:19,600 --> 00:56:22,040 Entonces en todo probabilidades dice siempre lo han sido. 1147 00:56:22,040 --> 00:56:24,560 Vale, yo no quiero crearos mitos falsos. 1148 00:56:24,560 --> 00:56:27,240 Esto que tenemos aquí son todo matemáticas. 1149 00:56:27,240 --> 00:56:30,360 Estos son probabilidades Que el modelo me diga que esta palabra 1150 00:56:30,360 --> 00:56:33,760 viene a continuación es porque estadísticamente es la 1151 00:56:33,800 --> 00:56:38,240 que más probable tenía que venir a continuación y nada más. 1152 00:56:38,280 --> 00:56:40,720 Vale, no hay ninguna otra magia detrás más allá de 1153 00:56:40,720 --> 00:56:42,560 cómo se calcula toda esa probabilidad. 1154 00:56:42,560 --> 00:56:44,720 Entonces quedaron que son matemáticas, que él lo ha ido 1155 00:56:44,720 --> 00:56:49,280 teniendo aprendiendo a partir de datos y por lo tanto el modelo 1156 00:56:49,280 --> 00:56:52,280 va a decir de lo que ha aprendido vale, y ninguna otra cosa. 1157 00:56:53,240 --> 00:56:56,960 Y bueno, con esto termina esta primera parte. 1158 00:56:57,240 --> 00:56:58,840 Creo que mejor hacemos las preguntas 1159 00:56:58,840 --> 00:57:02,040 y no al final de toda la presentación, salvo que me digan lo contrario. 1160 00:57:02,040 --> 00:57:06,720 Fernando O sí, Creo que sí, creo que que casi mejor no, 1161 00:57:06,760 --> 00:57:09,760 porque así tenemos la perspectiva de todo. 1162 00:57:10,480 --> 00:57:11,920 Le paso a Javier, yo me voy a quedar por aquí. 1163 00:57:11,920 --> 00:57:14,000 Luego si tienes alguna pregunta al final pues me lo hacéis. 1164 00:57:14,000 --> 00:57:15,760 Yo respondo encantado. 1165 00:57:15,760 --> 00:57:17,160 Sí, si acaso. 1166 00:57:17,160 --> 00:57:19,360 Bueno, estoy mirando el chat ahora mismo. 1167 00:57:19,360 --> 00:57:26,120 No veo así ninguna, ninguna pregunta y las hemos contestado por remarcar 1168 00:57:26,120 --> 00:57:30,200 antes de que empiece Javier y así le damos tiempo al que ponga su presentación. 1169 00:57:30,840 --> 00:57:33,200 Simplemente remarcar estos últimos mensajes 1170 00:57:33,200 --> 00:57:36,200 que ha comentado Fernando que me parecen fundamentales. 1171 00:57:36,240 --> 00:57:38,480 Como todos sabemos la IA. 1172 00:57:38,480 --> 00:57:43,560 Con ella podemos crear contenido nuevo, imágenes nos hace resúmenes, 1173 00:57:43,880 --> 00:57:47,640 etcétera Todo eso lleva un consumo eléctrico 1174 00:57:47,640 --> 00:57:51,280 que muchas veces no somos conscientes y deberíamos también serlo. 1175 00:57:51,880 --> 00:57:54,360 Pero lo más importante, el último que ha dicho 1176 00:57:54,360 --> 00:57:57,440 que no piensa no es una persona. 1177 00:57:57,480 --> 00:58:00,200 Muchas veces atribuimos adjetivos de entender, 1178 00:58:00,200 --> 00:58:04,160 comprender a la guía que no son, no son suyos, porque como bien 1179 00:58:04,160 --> 00:58:08,400 ha remarcado, faltando todos son probabilidades y lo 1180 00:58:08,400 --> 00:58:13,760 más importante es ser conscientes de esto justo para meter el factor humano. 1181 00:58:13,800 --> 00:58:17,640 Es decir, puede equivocarse, puede inventarse información 1182 00:58:17,640 --> 00:58:20,680 y tenemos estar ahí para verificar toda esa información. 1183 00:58:20,720 --> 00:58:22,280 Muchas veces, como ha dicho Fernando, 1184 00:58:22,280 --> 00:58:26,040 no nos dice la fuente, hay herramientas que sí, como notebook. 1185 00:58:26,040 --> 00:58:29,800 LM Hay otras que no, en la mayoría 1186 00:58:30,080 --> 00:58:33,080 GPT, CoPilot, Cloud no dicen la fuente. 1187 00:58:33,080 --> 00:58:37,840 Entonces es importante que luego hagamos estas comprobaciones. 1188 00:58:37,880 --> 00:58:40,120 Pueden reproducir sesgos dependiendo de 1189 00:58:40,120 --> 00:58:43,840 los datos que estén entrenadas, que también lo ha mencionado Fernando. 1190 00:58:43,880 --> 00:58:48,200 De hecho hay estudios por ahí que con un 1% que metan de sesgo 1191 00:58:48,240 --> 00:58:52,000 de un partido político, por ejemplo, pueden cambiar mucho las cosas 1192 00:58:52,000 --> 00:58:54,000 y de hecho ha habido problemas en este sentido. 1193 00:58:54,000 --> 00:58:58,840 Por eso debemos ver, debemos ser muy estar muy atentos con la información 1194 00:58:58,840 --> 00:59:02,720 que nos dan y pueden provocar alucinaciones, pueden equivocarse 1195 00:59:02,720 --> 00:59:05,720 y por eso, porque al final son probabilidades, 1196 00:59:05,760 --> 00:59:10,200 entonces simplemente que quede ese mensaje que hay mucha base matemática detrás, 1197 00:59:10,240 --> 00:59:13,240 que no es magia y que tampoco es una mente humana 1198 00:59:13,240 --> 00:59:18,040 que aprende a partir de esos patrones y de toda la cantidad de datos 1199 00:59:18,080 --> 00:59:19,000 que va generando. 1200 00:59:19,000 --> 00:59:23,200 ¿Y como he apuntado ahí en el chat, qué va a pasar cuando estos datos se acaben? 1201 00:59:24,000 --> 00:59:27,560 Si a partir de ahora solamente consume datos que han sido generados 1202 00:59:27,560 --> 00:59:28,600 a su vez, podría. 1203 00:59:28,600 --> 00:59:31,800 A dónde nos puede llevar esto, que es una de las cuestiones 1204 00:59:31,840 --> 00:59:34,800 más filosóficas a los que no puede llevar esto 1205 00:59:34,800 --> 00:59:38,360 y eso que nos quede claro que tenemos que revisar las respuestas 1206 00:59:38,400 --> 00:59:43,440 y que es una herramienta de apoyo y que no, no tiene toda la verdad. 1207 00:59:43,880 --> 00:59:47,920 Y más allá de toda esta base matemáticas que que nos ha dado Fernando 1208 00:59:47,920 --> 00:59:48,520 tío, fabuloso. 1209 00:59:48,520 --> 00:59:49,480 Pero bueno, que nos quedemos 1210 00:59:49,480 --> 00:59:52,480 con todo lo que hay detrás, pero que si no lo entendemos no pasa nada, 1211 00:59:53,000 --> 00:59:56,280 pero que si conviene tener a lo mejor conceptos claros como el de token. 1212 00:59:56,320 --> 00:59:58,320 Más que nada porque cuando vayamos a utilizar, 1213 00:59:58,320 --> 01:00:01,760 por ejemplo CoPilot Chat, nos puede decir ya no tiene más tokens, 1214 01:00:02,080 --> 01:00:05,040 significa que ya no podemos ir metiendo más palabras, 1215 01:00:05,040 --> 01:00:08,840 aunque la correspondencia token palabra no es uno uno pero menos parecido, 1216 01:00:08,880 --> 01:00:10,320 pues todo eso viene de ahí. 1217 01:00:10,320 --> 01:00:13,120 Ventana de contexto que también ha mencionado Fernando. 1218 01:00:13,120 --> 01:00:14,360 Pues que los. 1219 01:00:14,360 --> 01:00:18,600 Si nos liamos a meter contenido y contenido en un en un blog que ahora 1220 01:00:18,600 --> 01:00:22,200 no va a contar Javier, pues la guía se lía porque tiene un límite. 1221 01:00:22,520 --> 01:00:27,200 Y así como otro concepto que podamos destacar el tema del tamaño 1222 01:00:27,600 --> 01:00:32,400 cuando vemos lanzamientos, pues bien hechas GPT 5.5 5.6 ya no sé por cuál va. 1223 01:00:32,560 --> 01:00:35,480 Pues todo eso es que crecen en billones de parámetros 1224 01:00:35,480 --> 01:00:38,200 que son esto de las redes que nos ha comentado Fernando. 1225 01:00:38,200 --> 01:00:41,560 Pues que sepamos un poco por dónde van los tiros y no sé si hay más preguntas. 1226 01:00:41,600 --> 01:00:45,080 ¿Voy a bien yo, ya que ya que has arrancado, 1227 01:00:45,080 --> 01:00:48,480 me gustaría aclarar una cosita adicional, eh? 1228 01:00:49,240 --> 01:00:50,240 Digamos, y es 1229 01:00:51,800 --> 01:00:53,440 quizás a lo mejor lo vamos a hablar de esto. 1230 01:00:53,440 --> 01:00:54,960 Javier, si vas a hablar de esto me callo. 1231 01:00:54,960 --> 01:01:01,520 Si no lo comento y es todas estas herramientas se puede acceder a ellas. 1232 01:01:01,520 --> 01:01:05,280 En principio hay versiones gratuitas, pero no es lo mismo 1233 01:01:05,280 --> 01:01:08,800 la versión gratuita que la versión de pago y hay que tener mucho cuidado 1234 01:01:08,880 --> 01:01:09,760 con lo que hacemos. 1235 01:01:09,760 --> 01:01:12,000 Mucho, mucho cuidado de las versiones gratuitas, 1236 01:01:12,000 --> 01:01:15,720 porque los datos que subimos ahí, pues puedan ser utilizados 1237 01:01:15,720 --> 01:01:20,200 por otras personas y utilizarlos para entrenar otros modelos. 1238 01:01:20,520 --> 01:01:25,320 Y si lo que estamos pasando ahí pues no sé, son temas económicos y demás, 1239 01:01:25,320 --> 01:01:28,080 pues hay que tener mucho cuidado en ese sentido. 1240 01:01:28,080 --> 01:01:31,960 Desde la universidad estamos intentando conseguir 1241 01:01:32,000 --> 01:01:36,960 y bueno, tendréis alguna noticia en breve, el acceso a otras herramientas, 1242 01:01:37,000 --> 01:01:40,120 digamos de forma segura, de forma corporativa, 1243 01:01:40,160 --> 01:01:43,160 versiones fesionales 1244 01:01:43,160 --> 01:01:46,720 para evitar bajo todos los conceptos, utilizar versiones gratuitas en 1245 01:01:46,720 --> 01:01:50,800 las que digamos ahí pueden nuestros datos pueden estar comprometidos. 1246 01:01:50,840 --> 01:01:55,200 Me dejo eso ahí, encima de la mesa, que creo que es un tema muy relevante. 1247 01:01:55,240 --> 01:01:58,240 De acuerdo y todo tuyo. Javier. 1248 01:01:58,280 --> 01:02:01,360 Perfecto, Pues nada, muchas, muchas gracias a todos. 1249 01:02:01,360 --> 01:02:04,000 A Fernando, Jessica, otro Fernando. 1250 01:02:04,000 --> 01:02:05,440 O sea, habéis 1251 01:02:05,440 --> 01:02:07,440 me habéis introducido muy bien para esta segunda sesión, 1252 01:02:07,440 --> 01:02:09,840 que va a ser un poco más práctica que la primera 1253 01:02:09,840 --> 01:02:14,480 y vamos a todos esos conocimientos técnicos aplicarlos a través 1254 01:02:14,480 --> 01:02:16,280 de las herramientas que tenemos ahora mismo 1255 01:02:16,280 --> 01:02:19,360 en nuestra disposición, que es CoPilot Chat y como ha dicho Fernando. 1256 01:02:19,360 --> 01:02:22,400 Luego también voy a aclarar un poquito ese tema de que ocurre 1257 01:02:22,400 --> 01:02:25,560 si utilizamos herramientas que son gratuitas 1258 01:02:25,560 --> 01:02:29,440 y con las que no tenemos, digamos, un convenio con la con universidad. 1259 01:02:29,440 --> 01:02:31,760 Entonces bueno, tengo por aquí también el chat a mi lado. 1260 01:02:31,760 --> 01:02:35,760 Si hay cualquier duda abrís el chat y directamente me preguntáis. 1261 01:02:35,840 --> 01:02:36,800 Y bueno, que no me presenté. 1262 01:02:36,800 --> 01:02:41,680 Yo soy Javier Javier Conde, yo soy profesor en en teleco en el campus 1263 01:02:41,680 --> 01:02:44,920 de Moncloa y voy a daros este taller 1264 01:02:44,920 --> 01:02:49,000 sobre aspectos técnicos y económicos, usando siempre 1265 01:02:49,720 --> 01:02:52,200 para para aplicar todos estos ejemplos. 1266 01:02:52,200 --> 01:02:56,600 Bueno, aquí en la presentación, que luego la tendréis también tener diferentes 1267 01:02:56,840 --> 01:03:00,280 cursos y eventos de Primavera Tech, hay muchos ya muy interesantes. 1268 01:03:00,600 --> 01:03:01,560 Os dejo ahí. 1269 01:03:01,560 --> 01:03:03,480 Os dejo ahí la referencia también. 1270 01:03:03,480 --> 01:03:07,200 Otra cosa que en la que he participado yo, junto con muchas otras personas, 1271 01:03:07,720 --> 01:03:13,120 gente que seguro que está en esta llamada y hemos hecho un un informe sobre cómo se 1272 01:03:13,120 --> 01:03:16,560 está aplicando la inteligencia artificial en la educación superior. 1273 01:03:16,600 --> 01:03:19,880 Hicimos uno en la edición 2024 y otro en 2025. 1274 01:03:19,880 --> 01:03:23,720 Entonces tenéis ahí a vuestra disposición y que se está enseñando un poco más 1275 01:03:23,720 --> 01:03:29,440 esa pauta docente, no tanto pasta investigadora o de administrativa 1276 01:03:29,640 --> 01:03:33,040 como se está aplicando ya hoy en día la y aquí en la UPM. 1277 01:03:33,720 --> 01:03:35,960 Pero bueno, en la agenda de hoy voy a hablar un poquito 1278 01:03:35,960 --> 01:03:36,880 de una breve introducción 1279 01:03:36,880 --> 01:03:40,800 de herramientas y después vamos a centrar sobre todo en técnicas de prompt 1280 01:03:40,800 --> 01:03:44,800 y con ejemplos, yo creo que muy prácticos, de lo que se puede hacer hoy 1281 01:03:44,800 --> 01:03:49,280 en día y también qué limitaciones tenemos hoy en día y tenemos que tener. 1282 01:03:49,280 --> 01:03:51,200 Tener en cuenta después 1283 01:03:51,200 --> 01:03:54,720 algo muy breve de costes en el uso de la herramienta ya generativa. 1284 01:03:54,720 --> 01:03:59,680 Incluso si no nos da tiempo, esto se puede, se puede pasar y aspectos técnicos 1285 01:03:59,720 --> 01:04:01,560 ligado un poco con lo que comentó Fernando, 1286 01:04:01,560 --> 01:04:05,040 pero llevándolo ya directamente a nuestro terreno. 1287 01:04:05,080 --> 01:04:07,520 Ya por último, unas unas conclusiones. 1288 01:04:07,520 --> 01:04:08,360 Entonces lo. 1289 01:04:08,360 --> 01:04:11,440 Lo primero como introducción la inteligencia artificial 1290 01:04:11,560 --> 01:04:14,640 es una habilidad o competencia que tenemos que tener todos, 1291 01:04:14,640 --> 01:04:18,280 ya seamos profesores, investigadores, personal administrativo. 1292 01:04:18,960 --> 01:04:22,040 Ha venido un poco a cambiar las reglas del juego en el mundo laboral 1293 01:04:22,040 --> 01:04:25,360 y tenemos que saber adaptarnos a ella para saber adaptarnos a ella, 1294 01:04:25,400 --> 01:04:27,720 pues tenemos que saber sacarle el máximo partido. 1295 01:04:27,720 --> 01:04:31,680 Y también yo creo que es muy importante conocer sus limitaciones y riesgos, 1296 01:04:31,680 --> 01:04:36,160 pues vamos a ir viendo que no es infalible esto ya solo exclusivo para docentes. 1297 01:04:36,160 --> 01:04:39,000 Sé que muchos no soy docentes, pero también muchos sí 1298 01:04:39,000 --> 01:04:41,440 tenemos que tener en cuenta que el estudiante lo utiliza 1299 01:04:41,440 --> 01:04:43,600 y entonces también tenemos que de alguna forma 1300 01:04:43,600 --> 01:04:47,440 garantizar o ayudar al estudiante a utilizarla de forma adecuada. 1301 01:04:47,440 --> 01:04:51,280 No siempre va a ser prohibir prohibido su uso, 1302 01:04:51,680 --> 01:04:55,400 pero en algunos casos sí que tenemos que dejarles claro como profesor 1303 01:04:55,400 --> 01:04:58,440 que pueden hacer y que no pueden hacer con inteligencia artificial. 1304 01:04:59,600 --> 01:05:01,160 Me gusta enseñar varias 1305 01:05:01,160 --> 01:05:05,040 diapositivas de herramientas con enlaces 1306 01:05:05,200 --> 01:05:07,680 porque el ecosistema de herramientas es muy amplio. 1307 01:05:07,680 --> 01:05:09,360 Aquí tenemos suerte en la universidad. 1308 01:05:09,360 --> 01:05:10,560 Pues que como tenemos licencias 1309 01:05:10,560 --> 01:05:13,880 con ciertas herramientas, pues ese paradigma ya se nos reduce. 1310 01:05:13,880 --> 01:05:15,560 Entonces tenemos una suerte, por un lado, de 1311 01:05:15,560 --> 01:05:19,200 que no tenemos que pensar todo el rato que herramientas utilizar, 1312 01:05:19,360 --> 01:05:23,480 pero una ventaja que no podemos acceder a todo ese mercado que sí existe. 1313 01:05:23,520 --> 01:05:27,440 Pero bueno, yo creo que es importante a nivel de cultura general conocerlas, 1314 01:05:27,840 --> 01:05:33,000 ya sea no solo para nuestra vida laboral, sino también para nuestra vida privada. 1315 01:05:33,200 --> 01:05:39,080 Entonces conocer el paradigma que hay y muchas veces va a ocurrir que herramientas 1316 01:05:39,080 --> 01:05:43,000 o adquiera la universidad, licencias o que incluso sean absorbidas, 1317 01:05:43,040 --> 01:05:46,040 pues en este caso, por ejemplo por por CoPilot, 1318 01:05:46,040 --> 01:05:48,320 por tener un paradigma, entonces esta slide. 1319 01:05:48,320 --> 01:05:51,000 Aquí tenéis un resumen de herramientas, pero me gusta mucho más. 1320 01:05:51,000 --> 01:05:53,760 Esta es una tabla periódica. 1321 01:05:53,760 --> 01:05:55,920 No sé si todos conocéis lo que es una tabla periódica, 1322 01:05:55,920 --> 01:05:58,040 pero bueno, básicamente es una forma de estructurar 1323 01:05:58,040 --> 01:06:01,800 herramientas en función de para qué sirven. 1324 01:06:02,280 --> 01:06:06,080 También en función freemium con créditos gratuitos 1325 01:06:06,200 --> 01:06:10,600 y es una buena forma de esa gente que no sabe muy bien por dónde empezar. 1326 01:06:11,040 --> 01:06:13,640 Conocer un poco el paradigma que hay actualmente. 1327 01:06:13,640 --> 01:06:16,640 Después también en el otro extremo está la gente que 1328 01:06:17,200 --> 01:06:20,600 está deseando siempre conocer nuevas herramientas, nuevos usos. 1329 01:06:20,640 --> 01:06:22,640 Yo creo que lo importante es un equilibrio, 1330 01:06:22,640 --> 01:06:26,280 ni dejarnos abandonados de que la IA no va a servir para nada, ni tampoco 1331 01:06:26,280 --> 01:06:30,200 estar siempre a la última, porque de no vas a llegar llegar a nada. 1332 01:06:30,360 --> 01:06:34,880 Mi consejo es siempre intentar aplicar aquellos casos de uso que pueden ser 1333 01:06:34,880 --> 01:06:38,960 beneficiosos, beneficiosos tanto para vuestra vida como para vuestro trabajo. 1334 01:06:39,080 --> 01:06:43,040 Y si hay momentos que tenéis libres, ya sea durante la semana, 1335 01:06:43,080 --> 01:06:45,600 durante el fin de semana, pues dedicarle media hora, 1336 01:06:45,600 --> 01:06:49,200 una hora a la semana a explorar nuevos usos, nuevas herramientas, 1337 01:06:49,520 --> 01:06:51,920 porque así es como realmente, realmente se aprende. 1338 01:06:52,960 --> 01:06:55,560 Entonces vamos a empezar ya con con materia, con prompt. 1339 01:06:55,560 --> 01:06:57,040 ¿Y entonces qué es esto? 1340 01:06:57,040 --> 01:06:58,600 De seguro que a muchos suena. 1341 01:06:58,600 --> 01:07:01,600 Yo creo que ya es un concepto que casi todo nos tiene que sonar. 1342 01:07:01,680 --> 01:07:04,720 Es básicamente una instrucción y la forma en la que nosotros 1343 01:07:04,720 --> 01:07:07,560 vamos a preguntar a las inteligencias artificiales. 1344 01:07:07,560 --> 01:07:10,560 Y aquí es este un concepto que se llama ingeniería de prompt. 1345 01:07:10,720 --> 01:07:13,720 A mí no me gusta nada llamarlo y ya no considero esta, 1346 01:07:14,080 --> 01:07:17,280 pero bueno, mucha gente lo llama así y para mí es el arte o la ciencia 1347 01:07:17,280 --> 01:07:20,840 de diseñar y optimizar estos proms, es decir, de cómo hablar con ellos, 1348 01:07:20,920 --> 01:07:24,200 con la inteligencia artificial y la realidad parece 1349 01:07:24,240 --> 01:07:26,520 puede ser muy complejo, pero es bastante sencillo. 1350 01:07:26,520 --> 01:07:28,000 Yo siempre hago la analogía 1351 01:07:28,000 --> 01:07:30,480 que hablar con estos sistemas de inteligencia artificial, 1352 01:07:30,480 --> 01:07:33,480 con estas herramientas, es como hablar con una persona. 1353 01:07:33,480 --> 01:07:35,920 Entonces a una persona le das unas instrucciones claras 1354 01:07:35,920 --> 01:07:40,120 paso a paso, eres específico por la persona, va a entender la tarea. 1355 01:07:40,160 --> 01:07:44,560 Si en cambio se le explica de una forma muy mala, eres muy vago en los detalles. 1356 01:07:45,040 --> 01:07:48,160 Muy subjetivo por la persona, tampoco va a ser capaz de resolverla. 1357 01:07:48,200 --> 01:07:50,760 Pues esto si a estos sistemas de inteligencia artificial 1358 01:07:50,760 --> 01:07:53,760 funcionan un poco, un poco igual en esos términos. 1359 01:07:53,760 --> 01:07:57,400 Pero bueno, la que vamos a utilizar en el taller y en la que tenemos 1360 01:07:57,400 --> 01:08:00,480 acceso a día de hoy en la universidad con la licencia 1361 01:08:00,520 --> 01:08:04,440 que ya veremos después Para qué sirve esa licencia es CoPilot. 1362 01:08:04,520 --> 01:08:07,480 Entonces, bueno, para aquellos que no lo utilicéis tenéis este. 1363 01:08:07,480 --> 01:08:10,280 Este enlace yo la tengo aquí abierta directamente. 1364 01:08:10,280 --> 01:08:13,280 También podéis instalarla como aplicación de escritorio. 1365 01:08:13,400 --> 01:08:16,240 Bueno, las funcionalidades son muy parecidas y aquí la ves. 1366 01:08:16,240 --> 01:08:20,520 Esta es mi mi ventana de CoPilot y es muy parecido a GPT, 1367 01:08:20,640 --> 01:08:25,160 que seguramente que es la que conocéis casi todos porque es la que primero llegó 1368 01:08:25,160 --> 01:08:28,160 en este, en esta revolución de la idea generativa 1369 01:08:28,160 --> 01:08:31,160 y todas las demás empresas pues básicamente copiaron un poco 1370 01:08:31,160 --> 01:08:34,160 esa idea de tener un sistema, un chatbot con el 1371 01:08:34,160 --> 01:08:37,160 que preguntar las cosas y eso sigue perdurando a día de hoy. 1372 01:08:37,240 --> 01:08:40,960 Entonces un prompt básicamente preguntarle a través de este, 1373 01:08:40,960 --> 01:08:44,960 de este chat, digamos de CoPilot, cualquier instrucción. 1374 01:08:44,960 --> 01:08:48,520 En este caso se enseña que un ejemplo de explícame que es un pronto y me devuelve 1375 01:08:48,560 --> 01:08:53,640 pues aquello que considera CoPilot que es un robot es. 1376 01:08:53,640 --> 01:08:58,000 Una cosa que sí que me gustaría ya destacar es que en CoPilot, 1377 01:08:58,000 --> 01:09:01,680 que es de Microsoft por dentro, utiliza los modelos de OpenAI. 1378 01:09:02,240 --> 01:09:03,720 De hecho, si nos vamos aquí 1379 01:09:05,040 --> 01:09:07,000 a la pestañita de 1380 01:09:07,000 --> 01:09:11,120 perdonar de arriba que puedo seleccionar, vemos que pone GPT, 1381 01:09:11,160 --> 01:09:15,120 pone GPT tres GPT cinco cuatro GPT 5252. 1382 01:09:15,160 --> 01:09:18,800 Bueno, son diferentes modelos que en este caso son todos de OpenAI, pues 1383 01:09:18,800 --> 01:09:23,200 hay un acuerdo entre OpenAI y Microsoft y por dentro utiliza sus modelos. 1384 01:09:24,000 --> 01:09:27,000 A veces no es funcionan exactamente igual que en, 1385 01:09:27,520 --> 01:09:30,800 pero bueno, intentan parecerlo lo máximo posible. 1386 01:09:30,840 --> 01:09:36,000 Si son problemas de integración, bueno, no vamos a entrar a entrar en ellos. 1387 01:09:36,200 --> 01:09:38,360 Entonces la realidad, como he dicho, es decir, 1388 01:09:38,360 --> 01:09:42,280 cuanto mejor sea nuestras preguntas, mejor van a ser nuestras respuestas. 1389 01:09:42,440 --> 01:09:45,000 Esto lo voy a enseñar con un ejemplito. 1390 01:09:45,000 --> 01:09:48,440 De hecho es una investigación que hicimos nosotros hace un año ya. 1391 01:09:48,520 --> 01:09:51,080 Los datos han cambiado, pero bueno, la esencia es la misma. 1392 01:09:51,080 --> 01:09:53,800 Simplemente le planteamos un acertijo. 1393 01:09:53,800 --> 01:09:57,640 ¿GPT era en este caso y si le planteamos el acertijo 1394 01:09:57,640 --> 01:10:00,640 tal cual, fijaos que la pregunta es cuántas pelotas de golf azules hay? 1395 01:10:00,760 --> 01:10:03,080 Es un poco más complejo si lo leemos. 1396 01:10:03,080 --> 01:10:06,400 Si no le decíamos nada más, eso se lo pasábamos a muchas ideas 1397 01:10:06,400 --> 01:10:10,560 y solo el 17% eran capaces de responder de forma adecuada. 1398 01:10:10,960 --> 01:10:15,240 En cambio, si le añadíamos simplemente un vamos a pensar o piensa paso a paso 1399 01:10:15,240 --> 01:10:20,960 al final de nuestro prompt, ya está por por 100 de las ideas acertaban o el 58%. 1400 01:10:21,160 --> 01:10:22,440 Es decir, darle unos 1401 01:10:23,680 --> 01:10:24,080 pasos 1402 01:10:24,080 --> 01:10:27,160 adecuados, unas preguntas adecuadas incluso es tan simple como decirle 1403 01:10:27,200 --> 01:10:30,200 oye, no me respondas directamente, vamos a hacerlo poquito a poco 1404 01:10:30,240 --> 01:10:33,720 e ir orientándolo hace que los resultados sean mucho más beneficiosos, 1405 01:10:33,800 --> 01:10:37,200 pues todas aquellas personas que lo usáis decís esto funciona fatal. 1406 01:10:37,240 --> 01:10:39,360 Muchas veces el error es que 1407 01:10:39,360 --> 01:10:42,360 la forma en la que le estamos preguntando no es la mejor posible. 1408 01:10:42,800 --> 01:10:46,160 Entonces aquí lo que es básicamente es explicar cómo hacer buenos prompts. 1409 01:10:46,560 --> 01:10:47,640 Va a ser sentido 1410 01:10:47,640 --> 01:10:51,240 común, pero muchas veces el sentido común es complicado llegar a él. 1411 01:10:51,560 --> 01:10:54,560 Bueno, pues aquí os enseño unas guías 1412 01:10:54,640 --> 01:10:57,080 para que todas las tengamos presentes. 1413 01:10:57,080 --> 01:11:00,320 ¿La primera es claridad y concisión, es decir, debe ser claro y directo, no 1414 01:11:00,720 --> 01:11:05,000 por las ramas, evitando además ser específico 1415 01:11:06,360 --> 01:11:09,120 explícitamente, pues qué tipo de texto quieres obtener? 1416 01:11:09,120 --> 01:11:10,560 Oye, mira, quiero tener un poema. 1417 01:11:10,560 --> 01:11:13,800 Quiero tener un ensayo, Quiero tener un texto legal. 1418 01:11:14,120 --> 01:11:15,880 Quiero tener un tono formal e informal. 1419 01:11:15,880 --> 01:11:17,840 Eso significa ser específico. 1420 01:11:17,840 --> 01:11:20,160 Lo bueno de estas ideas es que tú le puedes pedir 1421 01:11:20,160 --> 01:11:22,040 que se adapte a cualquier tono. 1422 01:11:22,040 --> 01:11:24,320 Incluso puedes pedirle si es una cosa muy compleja, 1423 01:11:24,320 --> 01:11:28,760 que te lo explique como si fueras un niño de cinco años y va a adaptar el tono 1424 01:11:28,800 --> 01:11:32,400 y poniéndote ejemplos muy muy sencillos también instrucciones 1425 01:11:32,560 --> 01:11:33,720 Oye, mira qué es lo que quiero. 1426 01:11:33,720 --> 01:11:38,920 Igual lo que quiero es que me respondas una pregunta o me compares 1427 01:11:38,960 --> 01:11:42,120 dos dos textos o que me lo contraste, analices. 1428 01:11:42,160 --> 01:11:43,240 No va a ser todo, responde. 1429 01:11:43,240 --> 01:11:46,120 ¿Me preguntas Puedo ser más específico con la tarea? 1430 01:11:46,120 --> 01:11:49,120 Aquí veo en el chat que le puedes decir no inventes nada. 1431 01:11:49,360 --> 01:11:50,760 Ojalá eso funcionara. 1432 01:11:50,760 --> 01:11:54,000 Cuando tú le dices no inventes nada el modelo, pues como una persona tú se lo 1433 01:11:54,000 --> 01:11:58,760 das. La persona tiene sus conocimientos y tampoco va a saber a ciencia cierta 1434 01:11:58,800 --> 01:12:02,640 que se está inventando o que realmente es algo que tiene factual. 1435 01:12:02,720 --> 01:12:06,720 Para eso hay herramientas como Notebook, LM o incluso el propio CoPilot. 1436 01:12:06,720 --> 01:12:09,880 Si le pasamos documentos que le vamos a alimentar, más 1437 01:12:09,880 --> 01:12:13,160 las fuentes de información en las que va a beber esa esos datos. 1438 01:12:13,200 --> 01:12:17,720 Pero cuando le preguntamos no inventes nada, no vamos a asegurar asegurarnos que 1439 01:12:17,760 --> 01:12:20,800 que no se vaya a inventar nada el contexto. 1440 01:12:20,840 --> 01:12:22,720 Esto es importantísimo. 1441 01:12:22,720 --> 01:12:25,200 Los modelos al final solo saben la información 1442 01:12:25,200 --> 01:12:28,000 con la que han sido entrenados y a veces ni eso. 1443 01:12:28,000 --> 01:12:31,000 Entonces, muchas veces los modelos no van a tener el contexto 1444 01:12:31,200 --> 01:12:34,080 sobre la Universidad Politécnica de Madrid o determinado 1445 01:12:34,080 --> 01:12:38,080 procedimiento administrativo o determinado problemática que tengamos. 1446 01:12:38,120 --> 01:12:41,120 Entonces es muy importante pasársela ya sea a través de ficheros, 1447 01:12:41,120 --> 01:12:42,680 ya sea a través del propio prompt. 1448 01:12:42,680 --> 01:12:44,680 Decirle oye, mira, te voy a explicar, estoy en 1449 01:12:46,040 --> 01:12:47,840 la UPM que trata sobre esto, esto. 1450 01:12:47,840 --> 01:12:51,720 Ese contexto es vital y también es importante que ese contexto quepa 1451 01:12:51,720 --> 01:12:56,200 y no seamos muy generosos, digamos, y quepa la ventana de contexto. 1452 01:12:56,240 --> 01:12:59,240 Y has comentado antes, Fernando, vamos a ir viéndolo 1453 01:12:59,320 --> 01:13:02,320 con ejemplos también ejemplos. 1454 01:13:02,440 --> 01:13:05,240 Si tienes ya ejemplos de lo que tú quieres, pasárselos 1455 01:13:05,240 --> 01:13:08,240 así se va a dar muy bien a lo que tú necesitas. 1456 01:13:08,520 --> 01:13:12,640 Por ejemplo, si necesitamos que tengas un lenguaje de cierta forma 1457 01:13:12,680 --> 01:13:17,240 pasa el ejemplos de textos en que utilices ese lenguaje y va a intentar imitarlo. 1458 01:13:17,240 --> 01:13:19,720 La forma en la que tú hablas, por ejemplo. 1459 01:13:19,720 --> 01:13:23,200 Yo creo que estas características de buen prompt es importante tenerlas, 1460 01:13:23,240 --> 01:13:24,600 tenerlas en mente. 1461 01:13:24,600 --> 01:13:28,600 Pero bueno, os pongo aquí varios ejemplos de pronto que yo creo que son efectivos. 1462 01:13:28,640 --> 01:13:30,000 Este primero está orientado 1463 01:13:30,000 --> 01:13:34,120 a docentes, después vemos uno adaptado a personal administrativo. 1464 01:13:34,320 --> 01:13:38,040 En este caso lo que necesito es hacer una guía de una asignatura 1465 01:13:38,040 --> 01:13:41,360 en diseño de una asignatura y fijaros qué pedazo prompt le estoy pidiendo. 1466 01:13:41,360 --> 01:13:43,560 Oye, imagina que eres un docente de universidad. 1467 01:13:43,560 --> 01:13:47,320 Sería Le estoy poniendo en un papel, en un rol y que tiene que enseñar 1468 01:13:47,320 --> 01:13:50,400 un curso sobre la aplicación de la inteligencia artificial, Educación, 1469 01:13:51,200 --> 01:13:53,760 como sería este taller, para entendernos, 1470 01:13:53,760 --> 01:13:56,480 con el objetivo de proporcionar a otros profesores una comprensión 1471 01:13:56,480 --> 01:13:59,480 profunda de cómo la IA puede transformar el sector educativo. 1472 01:13:59,920 --> 01:14:02,840 La asignatura debe ser adecuada para profesores 1473 01:14:02,840 --> 01:14:05,880 de universidad en áreas como ingeniería, arquitectura, ciencia, deporte. 1474 01:14:06,040 --> 01:14:06,400 ¿Veis? 1475 01:14:06,400 --> 01:14:10,040 Le estoy dando el contexto, en este caso de la UPM, que son las carreras 1476 01:14:10,040 --> 01:14:13,760 que tenemos y además le voy diciendo lo que yo quiero. 1477 01:14:13,800 --> 01:14:17,560 Oye, quiero que incluyas objetivos de aprendizaje, temario, 1478 01:14:17,560 --> 01:14:20,600 metodología de enseñanza, evaluación y por último el tono. 1479 01:14:20,640 --> 01:14:22,480 El tono debe ser académico y detallado, 1480 01:14:22,480 --> 01:14:25,480 adecuado para el diseño curricular de una asignatura universitaria, 1481 01:14:25,560 --> 01:14:26,520 etcétera, etcétera. 1482 01:14:26,520 --> 01:14:29,200 Veis, es un pro muy amplio, con muchos detalles 1483 01:14:29,200 --> 01:14:31,720 y esto me va a garantizar que el resultado sea mucho mejor, 1484 01:14:31,720 --> 01:14:33,840 que se le pongo directamente una frase de diseñar 1485 01:14:33,840 --> 01:14:36,400 una asignatura de inteligencia artificial. 1486 01:14:36,400 --> 01:14:40,000 Incluso le podría haber dicho que era para la UPM y seguro que los resultados son 1487 01:14:40,040 --> 01:14:41,320 son mejores. 1488 01:14:41,320 --> 01:14:43,600 Lo que voy a hacer ahora es copiar este texto 1489 01:14:43,600 --> 01:14:46,720 y me lo voy a llevar directamente aquí a CoPilot. 1490 01:14:47,160 --> 01:14:51,720 Y de hecho, esto es lo que acabo de hacer, copiar todo ese prompt y se lo paso 1491 01:14:52,120 --> 01:14:55,880 y ya vamos a ir viendo cómo los resultados se van a ir amoldando 1492 01:14:55,920 --> 01:14:57,680 a lo que yo le estoy pidiendo. 1493 01:14:57,680 --> 01:14:59,880 Cosas que ocurren a veces que a mí no me gusta mucho. 1494 01:14:59,880 --> 01:15:02,080 Pues que te pone este tipo de texto introductorio. 1495 01:15:02,080 --> 01:15:03,560 Esto lo hacen casi todos los modelos. 1496 01:15:03,560 --> 01:15:05,880 A continuación se propone el diseño curricular. 1497 01:15:05,880 --> 01:15:06,600 Etcétera etcétera. 1498 01:15:06,600 --> 01:15:09,720 Pues muchas veces yo creo que ya entres en temario, incluso en este caso 1499 01:15:09,720 --> 01:15:14,040 fue poco explícito porque a veces te dice si te voy a responder a tu pregunta aquí. 1500 01:15:14,040 --> 01:15:16,200 Bueno, se lo escucha un poco con 1501 01:15:17,480 --> 01:15:20,480 el texto que nos podríamos llegar a imaginar, 1502 01:15:20,520 --> 01:15:23,520 pero bueno, aquí ya vemos todos los. 1503 01:15:24,480 --> 01:15:26,600 No sé si se ve bien la pantalla. 1504 01:15:26,600 --> 01:15:28,040 Vale, veo que sí. 1505 01:15:28,040 --> 01:15:32,040 En aquí se ven ya todos los detalles. 1506 01:15:32,160 --> 01:15:33,760 Descripción general de la asignatura 1507 01:15:33,760 --> 01:15:36,440 La rápida evolución de la inteligencia artificial. 1508 01:15:36,440 --> 01:15:39,960 Objetivos de aprendizaje que todos los que lo pedí en formato objetivos 1509 01:15:40,680 --> 01:15:43,840 que era lo que le pedía dentro del temario y me lo da en módulos con módulos 1510 01:15:43,840 --> 01:15:47,080 con sus submódulos, que era justo exactamente lo que le pedía en el prompt. 1511 01:15:47,280 --> 01:15:50,520 Es decir, se adapta exactamente a mis necesidades. 1512 01:15:50,520 --> 01:15:52,840 La metodología de enseñanza a la evaluación 1513 01:15:52,840 --> 01:15:56,000 me propone una evaluación que aquí ni siquiera en el bronce la puse. 1514 01:15:56,440 --> 01:15:59,720 Esa evaluación por porcentajes aquí me la propone. 1515 01:15:59,760 --> 01:16:01,400 Si me gusta, pues la cojo. 1516 01:16:01,400 --> 01:16:07,080 No le puedo decir, solo quiero que haya un examen final, 1517 01:16:07,120 --> 01:16:11,080 una población y el sistema lo que va a hacer es adaptarse 1518 01:16:11,080 --> 01:16:16,120 a esas necesidades que yo le estoy, le estoy pasando en cada en cada momento. 1519 01:16:16,160 --> 01:16:18,520 Aquí si os fijáis, en vez de devolverme todo 1520 01:16:18,520 --> 01:16:20,240 directamente me devuelve solo esa sección. 1521 01:16:20,240 --> 01:16:24,480 Cinco con evaluación con un examen final de 100% de la calificación. 1522 01:16:24,720 --> 01:16:27,280 Como vemos, es un proceso iterativo en el que yo 1523 01:16:27,280 --> 01:16:30,600 voy a tener que ir pidiéndole cosas y me va a ir devolviendo. 1524 01:16:30,640 --> 01:16:33,840 Aquí ya os quiero llamar la atención en cosillas que he visto 1525 01:16:33,840 --> 01:16:36,840 en el propio pronta respuesta 1526 01:16:37,080 --> 01:16:39,920 que me gustan siempre, siempre decir 1527 01:16:40,880 --> 01:16:43,240 bueno, aquí no lo veo tan tan claro. 1528 01:16:43,240 --> 01:16:46,320 A veces encuentro alguno pensaba que sí, pero no, 1529 01:16:47,600 --> 01:16:49,600 también porque he sido muy claro en el Bronx. 1530 01:16:49,600 --> 01:16:52,680 Vais a ver muchas veces que estos modelos tienen sesgos 1531 01:16:52,680 --> 01:16:55,680 y te incluyen ciertas formas de actuar. 1532 01:16:55,680 --> 01:16:58,640 Una forma de actuar es que están llenos 1533 01:16:58,640 --> 01:17:02,000 habitualmente de guiones como estos que veis aquí. 1534 01:17:02,000 --> 01:17:03,000 Enseñanza aprendizaje. 1535 01:17:03,000 --> 01:17:05,200 Estaba buscando alguno, pero lo he visto que en este pronto 1536 01:17:05,200 --> 01:17:07,480 el salto no nos lo ha devuelto. 1537 01:17:07,480 --> 01:17:08,880 Para separar aclaraciones. 1538 01:17:08,880 --> 01:17:12,240 En España no utilizamos guiones, utilizamos paréntesis o comas. 1539 01:17:12,360 --> 01:17:13,720 Entonces si vemos un texto, 1540 01:17:13,720 --> 01:17:16,680 el que lo publicamos en la web de la UPM con esos guiones, 1541 01:17:16,680 --> 01:17:19,920 a la gente le va a sonar muy raro porque no la forma de escribir en España. 1542 01:17:20,200 --> 01:17:24,160 Eso sí es muy típico en hablantes anglosajones, pero no en España. 1543 01:17:24,280 --> 01:17:27,960 Nosotros tenemos que evitar los otros sesgo muy típicos que te devuelva todo 1544 01:17:27,960 --> 01:17:29,400 en formato listas. 1545 01:17:29,400 --> 01:17:32,480 Si os fijáis aquí, como yo he sido tan explícito en mi prompt, 1546 01:17:32,680 --> 01:17:35,520 no me ha devuelto todo lleno de listas, salvo las cosas que yo 1547 01:17:35,520 --> 01:17:37,600 le pedí que fuesen listas. 1548 01:17:37,600 --> 01:17:41,720 Esas cosas las vas a tener que ir experimentando a medida que vayáis jugando 1549 01:17:41,720 --> 01:17:46,920 con con diferentes props y vais a ver cómo va a mejorar la cosa poco a poco. 1550 01:17:48,560 --> 01:17:50,200 Estoy leyendo por aquí en el chat. 1551 01:17:50,200 --> 01:17:51,160 Si llega una respuesta 1552 01:17:51,160 --> 01:17:54,840 que consideras definitiva lo dejas, pero dentro de tres días vuelves al prompt. 1553 01:17:54,960 --> 01:17:57,920 ¿Se acuerda o hay que darle de nuevo todo el prompt contexto? 1554 01:17:57,920 --> 01:18:03,440 Vale, eso es muy buena pregunta y aprovecho y lo enseño con el chat. 1555 01:18:03,680 --> 01:18:07,560 Si yo ahora mismo esto me quedo aquí en esta tarea y 1556 01:18:08,200 --> 01:18:11,280 y digamos que me paso a hacer 1557 01:18:11,280 --> 01:18:14,760 otras tareas y vuelvo dentro de cinco días a la misma conversación. 1558 01:18:14,760 --> 01:18:16,120 Esto es lo importante. 1559 01:18:16,120 --> 01:18:18,280 Tengo que volver a la misma conversación. 1560 01:18:18,280 --> 01:18:22,320 ¿De hecho, normalmente aquí puedes buscar en conversaciones pasadas, vale? 1561 01:18:22,480 --> 01:18:26,800 O incluso entro en archivos, Pero si vuelvo a la misma conversación, 1562 01:18:27,280 --> 01:18:30,280 he aquí los chats pasados. 1563 01:18:30,920 --> 01:18:33,760 Imaginaros que ahora vuelvo yo a este chat, que no sé 1564 01:18:33,760 --> 01:18:36,760 de qué va desde hace cinco días. 1565 01:18:36,760 --> 01:18:38,480 Si vuelvo a escribirle aquí, 1566 01:18:38,480 --> 01:18:42,520 él permanece la memoria con ese chat, con lo que tenía en ese hecho previamente. 1567 01:18:42,720 --> 01:18:45,760 Si empiezo una nueva conversación, ahí sí 1568 01:18:45,760 --> 01:18:49,440 que voy a tener que darle de nuevo el contexto de cero, ya no acordarse. 1569 01:18:49,560 --> 01:18:50,560 ¿Te acuerdas 1570 01:18:52,240 --> 01:18:55,240 de la asignatura? Es 1571 01:18:55,800 --> 01:18:58,800 dábamos diseñando. 1572 01:18:58,840 --> 01:19:00,600 En teoría no se debería de acordar. 1573 01:19:00,600 --> 01:19:01,280 Si se acuerda ahora 1574 01:19:01,280 --> 01:19:04,440 es porque igual Copei lo tiene integrado, que pueda mirar en otros chats, 1575 01:19:04,480 --> 01:19:08,000 pero bueno, ya veis que no, ahora mismo lo tengo en contexto en esta conversación 1576 01:19:08,000 --> 01:19:09,120 sobre esa asignatura. 1577 01:19:09,120 --> 01:19:12,120 Sin embargo, si me vuelvo aunque sea dentro de cinco días 1578 01:19:12,400 --> 01:19:15,400 a la conversación. 1579 01:19:16,520 --> 01:19:18,760 De la asignatura de 1580 01:19:18,760 --> 01:19:21,760 Estamos diseñando. 1581 01:19:23,520 --> 01:19:25,360 Bueno, a decir que obviamente si claro, 1582 01:19:25,360 --> 01:19:27,120 estamos diseñando la asignatura universitaria 1583 01:19:27,120 --> 01:19:29,240 sobre la aplicación de la inteligencia artificial, 1584 01:19:29,240 --> 01:19:31,040 entonces cositas que tenemos que tener claras. 1585 01:19:31,040 --> 01:19:32,600 Por eso es bueno no mezclar. 1586 01:19:32,600 --> 01:19:36,920 Si voy a hablar de otra cosa, abro nuevo chat y además si me interesa mucho 1587 01:19:37,120 --> 01:19:40,120 este chat, lo puedo incluso cambiar el nombre 1588 01:19:41,000 --> 01:19:44,920 para que me acuerde de diseño asignatura 1589 01:19:46,200 --> 01:19:49,800 y así ya lo tengo ahí, ahí marcado. 1590 01:19:50,560 --> 01:19:53,360 Bien, vamos a otro ejemplo de. 1591 01:19:53,360 --> 01:19:57,080 De pronto este mes de hacer el front entero voy a ir poquito a poco 1592 01:19:57,680 --> 01:20:01,920 y lo que le voy a pedir son caso para aplicable a cualquier tipo de persona, 1593 01:20:01,920 --> 01:20:04,920 ya sea personal, administrativo, como personal 1594 01:20:05,080 --> 01:20:06,800 de investigación, como profesores. 1595 01:20:06,800 --> 01:20:08,840 ¿Pues oye, qué tipos de contratos de investigación 1596 01:20:08,840 --> 01:20:10,520 existen en España actualmente? 1597 01:20:10,520 --> 01:20:11,160 Y ya le digo 1598 01:20:11,160 --> 01:20:14,720 oye, que solo quiero una lista y al final una tabla comparativa de todos ellos 1599 01:20:15,000 --> 01:20:19,040 en una forma explícita, diciéndole lo que quiero y lo que no quiero 1600 01:20:19,200 --> 01:20:20,320 y lo que va a hacer es llevármelo. 1601 01:20:20,320 --> 01:20:25,040 Entonces abro un nuevo chat, como os digo yo que es buena idea siempre. 1602 01:20:25,240 --> 01:20:28,840 Si cambiamos de tema totalmente, pues no vamos a dejar cosas. 1603 01:20:30,120 --> 01:20:33,000 ¿Qué tipo de contrato de investigación existe en España actualmente? 1604 01:20:33,000 --> 01:20:37,000 Que solo quiero una lista y al final una tabla comparativa de todos ellos. 1605 01:20:37,120 --> 01:20:39,480 Aquí se os fijáis y ya os voy a adelantar dos cosas. 1606 01:20:39,480 --> 01:20:41,360 Pone Alineando cosas. 1607 01:20:41,360 --> 01:20:44,960 Esto lo que significa es que va a estar buscando en internet 1608 01:20:44,960 --> 01:20:46,760 posiblemente esta información. 1609 01:20:46,760 --> 01:20:50,240 Cuando los sistemas detectan que hay cosas que pueden encontrar 1610 01:20:50,240 --> 01:20:54,200 la mejor en Internet que con lo que saben ellos internamente, muchas veces 1611 01:20:54,200 --> 01:20:57,240 van a hacer una búsqueda primero en Internet, es lo que acaba de hacer. 1612 01:20:57,520 --> 01:20:59,000 Y aquí pues llamada de vuelta. 1613 01:20:59,000 --> 01:21:01,640 A continuación te indico los tipos de contrato de investigación 1614 01:21:01,640 --> 01:21:06,080 vigentes en España y solo me da la lista y al final una tabla o esos. 1615 01:21:06,080 --> 01:21:08,840 Pero yo. Lista de tipos de contratos. Contrato productora. 1616 01:21:08,840 --> 01:21:11,560 El acceso de personal Investigador Doctor. 1617 01:21:11,560 --> 01:21:13,160 Contrato de investigador distinguido. 1618 01:21:13,160 --> 01:21:17,400 Contrato de actividades científico técnicas y una tabla de ellos. 1619 01:21:17,440 --> 01:21:21,200 Bueno, vemos que yo creo que aquí faltan algunos en. 1620 01:21:21,720 --> 01:21:24,800 O sea que los resultados no siempre son son los 1621 01:21:25,920 --> 01:21:27,720 óptimos 1622 01:21:27,720 --> 01:21:31,520 y a mi gusto sí que me gustaría que falta alguno más, 1623 01:21:31,560 --> 01:21:35,320 pero vemos como a nivel de contenido me has devuelto 1624 01:21:35,320 --> 01:21:37,120 lo que yo te he pedido, nada más ni nada menos. 1625 01:21:37,120 --> 01:21:39,080 Una lista y una tabla comparativa. 1626 01:21:39,080 --> 01:21:43,480 ¿Me dices etapa de investigador, duración, Navidad principal, etcétera, 1627 01:21:43,480 --> 01:21:46,600 etcétera Además me dice importante de dónde lo has sacado? 1628 01:21:46,640 --> 01:21:48,560 Estos son los orígenes. 1629 01:21:48,560 --> 01:21:52,040 Como os dije, parecía que se quedó un rato ahí pensando eso 1630 01:21:52,080 --> 01:21:56,520 de que había ido a buscar en internet y en concreto ha consultado estas fuentes 1631 01:21:56,520 --> 01:21:59,520 de información para devolverme la la respuesta. 1632 01:22:00,440 --> 01:22:02,960 Además, me propones Oye, si quieres profundizar, 1633 01:22:02,960 --> 01:22:06,280 pues puedes preguntarme sobre esto, añadir ejemplos prácticos. 1634 01:22:06,280 --> 01:22:06,480 ¿Veis? 1635 01:22:06,480 --> 01:22:09,360 Aquí ya incluyo otros tipos de de contratos 1636 01:22:09,360 --> 01:22:12,720 que pensaba que me iba a devolver FPI Juan de la Cierva, Ramón y Cajal 1637 01:22:12,760 --> 01:22:14,960 ya me lo está sugiriendo entonces y veo que es un completo. 1638 01:22:14,960 --> 01:22:18,520 Puedo aprovechar y decirle que sea más completo. 1639 01:22:19,000 --> 01:22:21,320 Ahí tenemos que ser exactamente ejemplos. 1640 01:22:22,640 --> 01:22:23,480 Como vemos, 1641 01:22:23,480 --> 01:22:27,880 esto es justo el resultado y vamos a ir después 1642 01:22:27,880 --> 01:22:32,480 a lo largo de la de la sesión, perfeccionando estas tareas. 1643 01:22:32,520 --> 01:22:35,480 Aquí simplemente os estoy dando 1644 01:22:35,480 --> 01:22:39,040 resultados muy, muy sencillos. 1645 01:22:39,320 --> 01:22:42,320 Como digo, lo ideal es ir perfeccionándose. 1646 01:22:42,600 --> 01:22:47,080 Una cosa que sirve para perfeccionarse es si nosotros vamos a tener una tarea 1647 01:22:47,080 --> 01:22:51,400 bastante repetitiva y esto nos ocurre a muchos en nuestro 1648 01:22:51,440 --> 01:22:54,760 en nuestro trabajo, pues esto es una capacidad. 1649 01:22:54,800 --> 01:22:57,960 En CoPilot vamos a tratarlo con un agente 1650 01:22:57,960 --> 01:23:01,640 en otro sistema se llaman System Prompt, que es donde tú defines 1651 01:23:01,640 --> 01:23:05,640 ese rol o comportamiento general que quieres que tenga Tu modelo. 1652 01:23:05,760 --> 01:23:09,000 Es como oye, mira, yo quiero que te comportes así en toda la 1653 01:23:09,000 --> 01:23:13,000 conversación, en me defino al principio también se puede hacer al principio, 1654 01:23:13,160 --> 01:23:15,000 si puedes definirlo en un sistema prompt, 1655 01:23:15,000 --> 01:23:18,080 si sobre todo va a ser una tarea que vas a repetir muchas veces, 1656 01:23:18,400 --> 01:23:21,440 pues definido como system prompt y es como la receta de lo que yo 1657 01:23:21,440 --> 01:23:24,680 quiero que tú te comportes y después vamos a tener el prompt 1658 01:23:24,720 --> 01:23:28,680 que es el de usuario, que es la conversación típica donde ya oye, 1659 01:23:28,760 --> 01:23:32,720 sabiendo que tú te vas a comportar así, te voy a preguntar por algo específico 1660 01:23:32,880 --> 01:23:36,440 para aquí tenemos varios ejemplos donde tenemos en rojo el system prompt. 1661 01:23:36,440 --> 01:23:39,760 Pues oye, eres un corrector de faltas ortográficas y de puntuación. 1662 01:23:39,760 --> 01:23:42,040 Solamente debes indicarme las faltas de ortografía 1663 01:23:42,040 --> 01:23:44,360 o indicar correcto cuando todo esté correcto. 1664 01:23:44,360 --> 01:23:47,960 Es decir, le estoy indicando aquel modelo que no tiene que hacer nada más 1665 01:23:48,000 --> 01:23:49,080 ni explicarme nada más. 1666 01:23:49,080 --> 01:23:53,400 Simplemente corrígeme ortográficamente o indícame si está correcto. 1667 01:23:53,520 --> 01:23:56,800 Y en azul tenemos pues el correspondiente, 1668 01:23:56,800 --> 01:23:59,800 que sería la pantalla de del chat, 1669 01:23:59,880 --> 01:24:02,240 donde hoy estoy en el taller de Inteligencia artificial 1670 01:24:02,240 --> 01:24:05,480 con fallos ortográficos y aquí me espero que simplemente 1671 01:24:05,480 --> 01:24:08,880 me devuelvas, me devuelvas eso aquí os lo enseño con otro ejemplito. 1672 01:24:08,880 --> 01:24:13,400 Pero yo creo que lo más sencillo, pues como siempre, es verlo en la práctica 1673 01:24:13,600 --> 01:24:16,600 de lo que voy a hacer aquí es bueno nuevo chat 1674 01:24:17,040 --> 01:24:19,080 y lo que voy a hacer es un nuevo agente 1675 01:24:20,120 --> 01:24:23,080 para profesionalizarnos en agentes. 1676 01:24:23,080 --> 01:24:26,240 No sé si hay alguna alguna sesión más 1677 01:24:26,240 --> 01:24:29,240 relacionada con esto, pero no voy a entrar en todos los detalles. 1678 01:24:29,240 --> 01:24:30,840 Así que sí, Javier, ahí 1679 01:24:30,840 --> 01:24:34,960 hay alguna sesión posterior para hablar en concreto de la parte de agentes. 1680 01:24:35,280 --> 01:24:39,800 Perfecto, Entonces solo me voy a quedar con lo superficie de la gente que va a ser 1681 01:24:39,800 --> 01:24:42,520 poner el nombre. Así que yo le voy a dar el nombre que yo quiera. 1682 01:24:42,520 --> 01:24:45,240 Pues Pepito, vale. 1683 01:24:45,240 --> 01:24:47,000 Y aquí es la descripción y la instrucción. 1684 01:24:47,000 --> 01:24:49,080 Esto sería nuestro system prompt. 1685 01:24:49,080 --> 01:24:52,280 Vale, pues aquí yo le puedo decir que como instrucción 1686 01:24:53,200 --> 01:24:55,800 y que me traduzcas 1687 01:24:55,800 --> 01:24:58,800 todo lo que te ponga al inglés 1688 01:25:00,120 --> 01:25:03,840 solo es vale, eso está haciendo una instrucción clara. 1689 01:25:04,000 --> 01:25:06,160 A veces incluso vamos a ver que no se comporta del todo 1690 01:25:06,160 --> 01:25:10,800 como queremos ser más explícito y no me incluyo nada más, ni una 1691 01:25:11,360 --> 01:25:15,120 testo previo en un texto posterior, solo traduce vamos a intentarlo 1692 01:25:15,120 --> 01:25:18,320 así incluso voy a copiar esto de una descripción y aquí 1693 01:25:18,320 --> 01:25:21,320 veis que hay muchas configuraciones extra que no voy a entrar a ella. 1694 01:25:21,360 --> 01:25:25,200 Eso ya lo dejamos para temas de agentes que vais a ver, que es una cosa 1695 01:25:25,200 --> 01:25:28,720 mucho más potente que lo que os estoy enseñando ahora mismo. 1696 01:25:28,760 --> 01:25:33,360 Pero para esta instrucción básica, eh, me va a servir. 1697 01:25:33,440 --> 01:25:37,040 Ya tengo aquí yo mi agente Pepito y ya me de entrar con nuevo chat. 1698 01:25:37,200 --> 01:25:43,160 Entraría a Pepito que tiene ese system configurado y le voy a poner un texto. 1699 01:25:43,200 --> 01:25:44,560 Hola Javier, 1700 01:25:45,600 --> 01:25:46,640 si la configuración 1701 01:25:46,640 --> 01:25:51,240 ha salido bien y como os digo por culpa de la de que la llamas determinista, 1702 01:25:51,280 --> 01:25:52,760 a veces vamos a tener un resultado, 1703 01:25:52,760 --> 01:25:55,760 decís otro y a veces vamos a tener que mejorar ese system prompt, 1704 01:25:56,760 --> 01:25:59,720 pues obtendremos el resultado 1705 01:25:59,720 --> 01:26:02,720 esperado, que es que simplemente me lo traduzcas. 1706 01:26:02,920 --> 01:26:05,160 Vale, está tardando un poquito, un poquito. 1707 01:26:05,160 --> 01:26:08,160 Esto es normal a veces. 1708 01:26:08,400 --> 01:26:11,480 Vamos a ver si me lo devuelves por aquí. 1709 01:26:19,800 --> 01:26:22,880 ¿Mientras que termina Javier y por hacer un poquito de tiempo 1710 01:26:23,960 --> 01:26:27,480 indicaros que ahora mismo Javier está alojado, 1711 01:26:27,520 --> 01:26:31,240 o sea, está, digamos, accediendo con su cuenta de la UPM, 1712 01:26:31,280 --> 01:26:34,320 de hecho arriba en la parte superior derecha, aunque muy pequeñito no? 1713 01:26:34,400 --> 01:26:36,800 Ahí tienes el eh. 1714 01:26:36,800 --> 01:26:38,320 ¿Vale, lo vas a comentar luego? 1715 01:26:38,320 --> 01:26:41,560 Javier Si, lo voy a comentar, contarlo. 1716 01:26:41,720 --> 01:26:42,520 Bueno, perdona, era 1717 01:26:42,520 --> 01:26:46,280 por hacer un poco de tiempo mientras traducía ya traducido perfecto. 1718 01:26:46,320 --> 01:26:46,960 ¿Ves? ¿Veis? 1719 01:26:46,960 --> 01:26:48,760 Aquí en vez de devolver más información, 1720 01:26:48,760 --> 01:26:51,160 simplemente me ha traducido esto es una tarea muy tonta traducirlo. 1721 01:26:51,160 --> 01:26:54,240 Podríamos haber hecho con un Google traductor o con lo que sea, 1722 01:26:54,280 --> 01:26:58,040 pero pueden ser tareas mucho más complejas y que sea mucho más complejo. 1723 01:26:58,160 --> 01:26:59,680 Entonces ya no mañana. 1724 01:26:59,680 --> 01:27:01,720 ¿Imaginaros que tuviese otra vez que traducir, no? 1725 01:27:01,720 --> 01:27:05,600 Vuelvo a decir oye, traduce, me estoy solo, me traduzcas, me vengo a mi 1726 01:27:05,640 --> 01:27:10,560 agente Pepito, a mi system Pepito y ya está como preconfigurado. 1727 01:27:11,600 --> 01:27:13,560 Bien, eso sería el sistema. 1728 01:27:13,560 --> 01:27:16,840 Existen pronto para para entendernos, más técnicas 1729 01:27:17,360 --> 01:27:19,960 que nos pueden ser útiles. 1730 01:27:19,960 --> 01:27:21,440 Pues aquí os enseño más. 1731 01:27:21,440 --> 01:27:25,880 Es el primero que quiero enseñar es n n muestra se llama 1732 01:27:26,560 --> 01:27:31,080 cuando yo quiero que el sistema se comporte también de una cierta forma. 1733 01:27:31,880 --> 01:27:34,280 A veces si tengo ejemplos, 1734 01:27:34,280 --> 01:27:37,960 me va a resultar muy muy útil el poder pasárselos. 1735 01:27:38,200 --> 01:27:42,200 En este caso imaginaros que tenéis que sois alguien de la UPM que se encarga 1736 01:27:42,200 --> 01:27:46,040 de ver las redes sociales y no sé si este este error, 1737 01:27:46,440 --> 01:27:49,440 pero ver en los comentarios o en blogs o lo que sea 1738 01:27:49,800 --> 01:27:53,400 para determinar si un comentario que nos dio las personas positivo o negativo 1739 01:27:53,560 --> 01:27:55,320 podría hacerlo manualmente. 1740 01:27:55,320 --> 01:27:58,400 Hoy en día que tenemos la IA podemos pasársela y que la 1741 01:27:58,400 --> 01:28:01,600 IA sea capaz de entender si ese comentarios positivo o negativo. 1742 01:28:01,600 --> 01:28:04,240 En esas tareas la IA funciona muy bien la verdad. 1743 01:28:04,240 --> 01:28:07,880 Ya son capaces de entender el lenguaje también, como nosotros. 1744 01:28:07,880 --> 01:28:09,840 Entonces sí Lee, me encantó la conferencia. 1745 01:28:09,840 --> 01:28:13,080 Por mí pues vas a ver que eso es positivo o negativo. 1746 01:28:13,600 --> 01:28:15,320 Lo que ocurre es que si nosotros le pedimos 1747 01:28:15,320 --> 01:28:19,040 a una IA que nos lo clasifique, nos puede devolver mucho texto 1748 01:28:19,040 --> 01:28:24,160 o puede inventarse, por ejemplo, una escala de positivo del uno al diez. 1749 01:28:24,200 --> 01:28:27,200 Si no le indicamos los datos puede ser complicado que lo haga bien. 1750 01:28:27,240 --> 01:28:30,200 Entonces aquí, en vez de ponerle ese prompt 1751 01:28:30,200 --> 01:28:33,200 explícitamente que exigen positivo y negativo, le paso. 1752 01:28:33,560 --> 01:28:36,600 Entonces se llama n y es lo que vamos a probar aquí. 1753 01:28:36,600 --> 01:28:39,880 En este caso es simplemente clasifica textos en positivo o negativo. 1754 01:28:40,000 --> 01:28:44,000 El verde serían los ejemplos y después lo que ponga yo por debajo 1755 01:28:44,560 --> 01:28:49,560 que lo vemos ahora en CoPilot sería el voy a abrir un nuevo chat, 1756 01:28:50,440 --> 01:28:54,160 el lo que yo me esperaría que ya fuese capaz de de clasificar. 1757 01:28:55,440 --> 01:28:57,800 Este sería mis ejemplos como digo. 1758 01:28:57,800 --> 01:28:58,560 Ejemplo uno. 1759 01:28:58,560 --> 01:29:01,760 Ejemplo dos Si se lo voy a dar ya de 1760 01:29:02,080 --> 01:29:05,280 de entrada con el que me esté en eso tenía que haberlo quitado. 1761 01:29:05,880 --> 01:29:07,280 ¿Vale? ¿Dice Entendido? 1762 01:29:07,280 --> 01:29:08,640 Ya sé lo que quieres hacer. 1763 01:29:08,640 --> 01:29:11,400 Pues te paso ahora ese texto nuevo que yo 1764 01:29:11,400 --> 01:29:15,280 no he clasificado ni se lo he pasado ya con el resultado. 1765 01:29:15,480 --> 01:29:19,480 Y entonces la IA idealmente me va a dar pues un sentimiento positivo. 1766 01:29:19,480 --> 01:29:23,560 La explicación fue clara y muy y no me ha dado más datos extra ni nada, 1767 01:29:23,560 --> 01:29:26,800 simplemente te has limitado a esa tarea específica. 1768 01:29:27,080 --> 01:29:30,080 Esto, por ejemplo, lo he hecho en un chat. 1769 01:29:30,160 --> 01:29:33,760 Podría haberme llevado a un sistema como si lo enseñé antes. 1770 01:29:33,920 --> 01:29:37,160 Y si tengo una tarea que hacer semanalmente de pasarle comentarios 1771 01:29:37,160 --> 01:29:40,880 de personas, sería capaz de catalogar de una forma muy sencilla. 1772 01:29:40,960 --> 01:29:43,000 Veis por caso de uso que también os voy explicando que yo 1773 01:29:43,000 --> 01:29:46,560 creo que pueden ser útiles en muchos casos y no quedarnos 1774 01:29:46,560 --> 01:29:49,560 simplemente en que no respondas a una pregunta 1775 01:29:50,120 --> 01:29:53,640 bien según una técnica que puede ser muy útil 1776 01:29:53,640 --> 01:29:56,800 y realmente en la que vamos a estar aplicando nuestro día a día 1777 01:29:56,800 --> 01:29:59,800 aunque no nos demos cuenta, es la de cadena de pensamientos. 1778 01:30:00,120 --> 01:30:04,680 Se consigue, existen forzar el modelo en que resuelva las cosas poco a poco. 1779 01:30:05,160 --> 01:30:08,320 Si le doy una tarea muy muy compleja, le pido que me respondas ya. 1780 01:30:08,320 --> 01:30:12,640 El modelo ahí va a tener, va a tender a inventarse la respuesta o a equivocarse. 1781 01:30:13,040 --> 01:30:17,320 Esto como cuando nosotros estábamos en el colegio si nos ponían un problema. 1782 01:30:17,320 --> 01:30:19,520 Típico problema. Imaginemos que eres un profesor de física. 1783 01:30:19,520 --> 01:30:21,560 Me tienes que explicar cómo resolver el siguiente problema. 1784 01:30:21,560 --> 01:30:24,760 Un portero del fútbol le da una patada a un balón con un ángulo de 30 grados 1785 01:30:24,760 --> 01:30:27,160 tal que el balón sale 80 kilómetros hora del pie. 1786 01:30:27,160 --> 01:30:29,000 ¿Qué distancia recorre? 1787 01:30:29,000 --> 01:30:33,600 ¿O los típicos de los trenes que estamos todos acostumbrados del instituto? 1788 01:30:34,520 --> 01:30:38,320 Si le pedimos directamente al alumno dame un resultado sin razonar, 1789 01:30:38,320 --> 01:30:40,640 pues el alumno sin hacer ningún cálculo ni nada, 1790 01:30:40,640 --> 01:30:44,640 pues va a intentar estimarlo, pero seguramente que falle puesto. 1791 01:30:44,640 --> 01:30:45,840 Ocurre lo mismo con los modelos. 1792 01:30:45,840 --> 01:30:50,520 Si al modelo voy y le digo oye, mira que devuélveme ya de si la respuesta, 1793 01:30:50,800 --> 01:30:54,640 pues los modelos no van a ser capaces de hacerla de forma adecuada. 1794 01:30:54,920 --> 01:30:58,400 Entonces, cuando nosotros vemos que el modelo no se comporta bien 1795 01:30:58,400 --> 01:31:02,640 con el resultado que obtenemos, pues podemos ir guiándole poco a poco. 1796 01:31:02,680 --> 01:31:06,880 Pues mira, quiero que primero hagas esto y con esto quiero que ahora utilices 1797 01:31:06,960 --> 01:31:10,920 el resultado para hacer otra operación o este otro proceso. 1798 01:31:11,200 --> 01:31:13,520 Cuando le vamos guiando es como a las personas 1799 01:31:13,520 --> 01:31:14,920 la hacemos la tarea más sencilla 1800 01:31:14,920 --> 01:31:18,320 y a veces cosas que son muy complejas son capaces de resolverlas. 1801 01:31:18,880 --> 01:31:20,640 Esto mismo en 1802 01:31:22,240 --> 01:31:23,480 en día se hace con lo que se llaman 1803 01:31:23,480 --> 01:31:27,120 modelos razonadores y ya lo intentan hacer ellos automáticamente. 1804 01:31:27,120 --> 01:31:28,800 Si detectan que algo es muy complejo, 1805 01:31:28,800 --> 01:31:32,920 se intentan a sí mismos generar un plan de acción e ir haciéndolo. 1806 01:31:33,240 --> 01:31:36,760 Pero a veces incluso tengo que yo forzarme 1807 01:31:36,760 --> 01:31:40,720 a tener paciencia e irle poquito a poco guiándole. 1808 01:31:41,080 --> 01:31:44,240 Entonces bueno, simplemente que nos quede ese ese concepto que muchas veces 1809 01:31:44,240 --> 01:31:46,480 no vamos a ser capaces de tener lo que queramos 1810 01:31:46,480 --> 01:31:50,200 con un simple prompt, sino que hay que ir guiándole poco a poco 1811 01:31:50,240 --> 01:31:53,320 y así los resultados van a ir mejorando mucho, creedme. 1812 01:31:53,360 --> 01:31:55,560 Creedme que eso es así. 1813 01:31:55,560 --> 01:31:57,280 Vale, aquí os dejo más técnicas. 1814 01:31:57,280 --> 01:32:00,480 De las que más me gusta son esas dos, la de bueno, esas tres, 1815 01:32:00,480 --> 01:32:05,520 la del system prompt, la de los ejemplos y esta última. 1816 01:32:06,600 --> 01:32:07,480 Pero aquí tenéis otros. 1817 01:32:07,480 --> 01:32:10,960 Están enfocados en educación, pero si los leéis valen también 1818 01:32:10,960 --> 01:32:15,000 para vuestro vuestro día a día, con ejemplos muy muy, muy útiles. 1819 01:32:16,880 --> 01:32:18,760 Aquí era lo que os mencionaba antes. 1820 01:32:18,760 --> 01:32:19,920 Vamos a tener diferentes 1821 01:32:19,920 --> 01:32:24,480 dentro de los modelos, diferentes tipos o subtipos de opciones. 1822 01:32:24,760 --> 01:32:26,480 Esta es la enseño Concha GPT, 1823 01:32:26,480 --> 01:32:28,880 pero ahora me la llevo a la siguiente diapositiva CoPilot. 1824 01:32:28,880 --> 01:32:32,000 Pero como muchos usuarios GPT en vuestra vida privada 1825 01:32:32,280 --> 01:32:33,840 seguro que es muy familiar. 1826 01:32:33,840 --> 01:32:36,000 Pues nosotros aquí en GPT se le damos a más. 1827 01:32:36,000 --> 01:32:39,520 Como veis en la pantalla vais a ver que vienen diferentes acciones. 1828 01:32:39,560 --> 01:32:44,040 Igual muchos ni la habéis visto, ya que quiero resaltar la que veis en rojo 1829 01:32:44,040 --> 01:32:48,040 que pone búsqueda en internet, quiere decir que si lo accionamos 1830 01:32:48,280 --> 01:32:51,080 le vamos a forzar al modelo a que busque la información en internet 1831 01:32:51,080 --> 01:32:53,320 como si fuéramos nosotros buscando en internet, 1832 01:32:53,320 --> 01:32:56,840 pues este busca en internet y con lo que te responde 1833 01:32:57,240 --> 01:32:59,600 esto va a hacer que reduzca las alucinaciones. 1834 01:32:59,600 --> 01:33:03,560 Como dije antes, los modelos ya van a intentar entender 1835 01:33:03,560 --> 01:33:06,360 cuando es beneficioso buscar en internet y cuando no, 1836 01:33:06,360 --> 01:33:08,880 y normalmente de forma automática lo van a hacer. 1837 01:33:08,880 --> 01:33:11,880 Pero si vemos que no es el caso podemos forzarle. 1838 01:33:13,040 --> 01:33:13,840 Eso es interesante. 1839 01:33:13,840 --> 01:33:16,200 Pero bueno, ya digo que muchas veces lo hace automáticamente. 1840 01:33:16,200 --> 01:33:20,880 Las que no son tan automáticas son estas dos la de pensar antes de responder. 1841 01:33:20,920 --> 01:33:25,240 Estos son los modelos razonadores que son más caros porque dedica más tiempo 1842 01:33:25,280 --> 01:33:26,640 a generar la respuesta. 1843 01:33:26,640 --> 01:33:29,120 Realmente lo que hacen son muchos tokens de salida 1844 01:33:29,120 --> 01:33:33,440 y se va realimentar el modelo con esos tokens, es decir, con su propia respuesta. 1845 01:33:33,480 --> 01:33:35,360 Es como si va a resolver el problema paso a paso 1846 01:33:35,360 --> 01:33:37,960 y se va guiando de lo que ha obtenido para ir evolucionando. 1847 01:33:37,960 --> 01:33:41,400 La respuesta son más caros y las respuestas 1848 01:33:41,400 --> 01:33:44,560 tardan más en llegar, pero suelen ser de mejor calidad. 1849 01:33:45,000 --> 01:33:47,160 Y esta última vez, que para mí es 1850 01:33:47,160 --> 01:33:50,720 muy muy muy chula, es la de Deep Research Investigación avanzada, 1851 01:33:51,680 --> 01:33:52,080 que lo que 1852 01:33:52,080 --> 01:33:55,440 hace es dedicar mucho tiempo, a veces incluso hasta diez 1853 01:33:55,440 --> 01:33:59,360 15 minutos investigando por diferentes fuentes de información. 1854 01:33:59,400 --> 01:34:03,320 Pueden ser fuentes que tú le proporciones o si le dejas libertad por internet. 1855 01:34:03,560 --> 01:34:07,720 Pero no es que se limite a entrar en una página y ver la superficie. 1856 01:34:07,720 --> 01:34:11,080 No va a entrar en las tripas de la web y va a intentar 1857 01:34:11,760 --> 01:34:14,880 si ve un enlace a otra página web, pues ir a esa otra página web 1858 01:34:15,120 --> 01:34:17,000 y obtener un informe muy, 1859 01:34:17,000 --> 01:34:20,680 muy avanzado, muy profundo de todo lo que tú le hayas pedido. 1860 01:34:21,160 --> 01:34:24,840 Eso se llama investigación profunda de como es muy caro, 1861 01:34:24,880 --> 01:34:25,640 normalmente se 1862 01:34:25,640 --> 01:34:30,000 tienen unos usos limitados, incluso creo que ahora en la versión de CoPilot 1863 01:34:30,040 --> 01:34:34,000 que tenemos esto no está activado, pero si activas el modo razonador 1864 01:34:34,000 --> 01:34:37,840 que ahora lo vemos como hacer, llegas a un paso intermedio 1865 01:34:38,320 --> 01:34:42,880 y posiblemente en futuras versiones sí que lo vuelvan a integrar. 1866 01:34:42,880 --> 01:34:44,640 Lo de la investigación profunda 1867 01:34:44,640 --> 01:34:48,400 en CoPilot sabéis que lo de licencias cambia casi de día a día, es importante 1868 01:34:48,400 --> 01:34:50,920 al menos conocerla o si utilizáis otras herramientas 1869 01:34:50,920 --> 01:34:53,920 para vuestra vida privada o cosas que no sean críticas. 1870 01:34:54,000 --> 01:34:57,520 Por ejemplo, si le quiero preguntar algo que es público de 1871 01:34:58,160 --> 01:35:01,280 acceso público en internet, pues ahí no tengo que tener peligro de que le 1872 01:35:01,280 --> 01:35:05,280 esté pasando yo datos privados de la UPM que no estén protegidas por esa licencia 1873 01:35:05,280 --> 01:35:06,440 que voy a contar luego. 1874 01:35:06,440 --> 01:35:10,280 ¿Entonces puedo utilizar esta investigación investigación profunda 1875 01:35:10,760 --> 01:35:14,800 en Copa y como es el equivalente puesto en esta diapositiva 1876 01:35:15,440 --> 01:35:19,200 ahí arriba en el botoncito que ahora le doy, me dejas automático 1877 01:35:19,200 --> 01:35:23,960 que le dejas elegir o respuesta rápida o razonamiento profundo automático? 1878 01:35:23,960 --> 01:35:26,240 Pues va a intentar adivinarlo, pero si vemos que no es muy bueno 1879 01:35:26,240 --> 01:35:29,360 puedo forzarla que haga este este razonamiento profundo 1880 01:35:29,480 --> 01:35:33,920 y que va también a hacer una investigación profunda, 1881 01:35:33,920 --> 01:35:37,920 no tan al profundo nivel en el caso que lo que sea necesario. 1882 01:35:38,080 --> 01:35:41,040 Entonces lo que voy a hacer aquí es rápidamente 1883 01:35:41,040 --> 01:35:44,040 me vuelvo a a mi copiloto. 1884 01:35:44,440 --> 01:35:46,320 Lo digo, está aquí arriba. 1885 01:35:46,320 --> 01:35:50,120 Respuesta rápida o razonamiento profundo, Les voy a abrirme una nueva, 1886 01:35:50,160 --> 01:35:51,080 un nuevo chat. 1887 01:35:52,200 --> 01:35:55,080 ¿Voy a seleccionar Razonamiento profundo 1888 01:35:55,080 --> 01:35:57,960 y le voy a volver a hacer la misma pregunta que le había 1889 01:35:57,960 --> 01:36:02,680 hecho antes de Oye, qué tipos de contratos de investigación existen en España? 1890 01:36:02,680 --> 01:36:05,320 Solo quiero una lista y una tabla comparativa de todos ellos. 1891 01:36:05,320 --> 01:36:08,320 Voy a quitar esto para dejarle que piense un poco más 1892 01:36:08,960 --> 01:36:11,400 y esto en tu razonamiento profundo. 1893 01:36:11,400 --> 01:36:14,720 Si antes no se activó por sí mismo, puede ser que se haya activado, 1894 01:36:14,720 --> 01:36:17,080 porque cada detectado que requiere un razonamiento 1895 01:36:17,080 --> 01:36:21,480 va a ser una búsqueda bastante profunda en las webs y va a pensar 1896 01:36:21,480 --> 01:36:25,200 en lo que ha obtenido para intentar dar una respuesta más, más razonada. 1897 01:36:25,320 --> 01:36:27,680 Esto puede tardar un poquito. 1898 01:36:27,680 --> 01:36:30,840 Ahora me pone contrato de investigación, búsquedas, algo que antes 1899 01:36:30,840 --> 01:36:33,680 parecía que no me hacía, pues ya dedica más tiempo a hacerlo. 1900 01:36:33,680 --> 01:36:38,360 Esto no es resultado final, sino que veis cómo el modelo va haciendo cosas por 1901 01:36:38,360 --> 01:36:42,000 detrás, así que nosotros nos demos cuenta y aquí realmente lo que está haciendo 1902 01:36:42,000 --> 01:36:45,680 son estas búsquedas, búsquedas profundas y me va a tener un resultado. 1903 01:36:45,720 --> 01:36:50,400 Pues sí, era una pregunta muy compleja, bastante mejor que el que tendría 1904 01:36:50,400 --> 01:36:53,440 si no usas razonamiento profundo, entonces quedaros con esto. 1905 01:36:53,440 --> 01:36:54,400 Razonamiento profundo. 1906 01:36:54,400 --> 01:36:57,200 Me parece muy, muy útil que lo conozcáis. 1907 01:36:57,200 --> 01:36:57,520 ¿Vale? 1908 01:36:57,520 --> 01:37:00,200 Esto lo voy a ir dejándolo ahí, Que termine. 1909 01:37:00,200 --> 01:37:04,800 Tardará un poquito y voy siguiendo yo mientras contándoos más, 1910 01:37:04,840 --> 01:37:07,840 más cosillas le vamos a tareas específicas. 1911 01:37:08,160 --> 01:37:09,920 Búsqueda de información en internet. 1912 01:37:09,920 --> 01:37:11,280 Esto era lo que os había comentado. 1913 01:37:11,280 --> 01:37:14,400 ¿Entonces simplemente lo cuentas y por encima que puedo utilizar 1914 01:37:14,400 --> 01:37:17,520 CoPilot para preguntarle como si le preguntas a Google Por qué? 1915 01:37:17,520 --> 01:37:21,120 Porque lo va a intentar buscar en Google y devolverme la respuesta. 1916 01:37:21,160 --> 01:37:24,120 Igual lo que hago es ahorrarme ese clic de entrar 1917 01:37:24,120 --> 01:37:27,360 yo en las páginas de Google y ver los resultados. 1918 01:37:27,560 --> 01:37:29,800 Ojo, esta búsqueda de información en internet 1919 01:37:29,800 --> 01:37:33,520 igual no es tan precisa como si voy yo manualmente, 1920 01:37:33,760 --> 01:37:37,480 entonces muchas veces no nos va a dar los resultados que yo espero. 1921 01:37:37,480 --> 01:37:41,640 Por ejemplo, si buscamos convocatorias de proyectos europeos, 1922 01:37:42,240 --> 01:37:44,440 posiblemente no me encuentre todas las convocatorias, 1923 01:37:44,440 --> 01:37:47,360 que si yo voy manualmente o si incluso le voy diciendo 1924 01:37:47,360 --> 01:37:51,040 mira en esta página web específica que ya he localizado yo antes, 1925 01:37:51,200 --> 01:37:56,200 o si tengo activado ese razonamiento profundo, ese deep research, muchas veces 1926 01:37:56,240 --> 01:38:00,440 me vas a servir de punteros, pero no me vas a servir como el resultado final. 1927 01:38:00,480 --> 01:38:04,480 Pero sí que suelen ser cosas muy muy actuales, Por ejemplo, 1928 01:38:04,680 --> 01:38:07,440 y no lo hago porque si no tardo mucho os lo enseño directamente. 1929 01:38:07,440 --> 01:38:11,640 La página Noticias sobre la Universidad Politécnica de Madrid en el último mes. 1930 01:38:12,280 --> 01:38:14,600 Esto, obviamente el modelo no lo sabe por sí mismo. 1931 01:38:14,600 --> 01:38:17,520 Tendrá que buscar en webs y lo que te devuelve. 1932 01:38:17,520 --> 01:38:20,520 A continuación te dejo un resumen claro y actualizado de noticias. 1933 01:38:20,520 --> 01:38:25,000 Nueva Cátedra Nairobi es otra gestión de tráfico aéreo abril 2016 Total. 1934 01:38:25,360 --> 01:38:28,720 Y aquí vemos a la derecha los orígenes, como se enseñaba antes 1935 01:38:28,720 --> 01:38:29,800 en el botoncito de abajo. 1936 01:38:29,800 --> 01:38:32,600 ¿Que me dices de dónde has sacado esa información? 1937 01:38:32,600 --> 01:38:38,280 Puede ser de la web de UPM o puede ser de otras webs que haya mencionado a UPM. 1938 01:38:38,520 --> 01:38:42,000 También puedo ser muy explícito en el blog diciéndole oye, buscan estas webs 1939 01:38:42,040 --> 01:38:43,640 o limítate a estos 1940 01:38:44,880 --> 01:38:47,240 a esta franja temporal. 1941 01:38:47,240 --> 01:38:49,520 Eso sería búsqueda de información en Internet 1942 01:38:49,520 --> 01:38:52,560 y esto sería la investigación profunda que os acabo. 1943 01:38:52,600 --> 01:38:54,160 Os acabo de contar. 1944 01:38:54,160 --> 01:38:55,800 La tenéis aquí en las diapositivas también, 1945 01:38:55,800 --> 01:38:59,160 Pero no, no vuelvo, no vuelvo a ella. Vale. 1946 01:38:59,160 --> 01:39:04,320 Antes de pasar asistencia a la escritura, vamos a ver si me has terminado. 1947 01:39:04,360 --> 01:39:06,280 Vale. ¿Veis? Aquí me ha terminado. 1948 01:39:06,280 --> 01:39:08,000 Y de hecho vemos una cosa que no vimos antes, 1949 01:39:08,000 --> 01:39:10,880 que era lo del razonamiento completado en 23 pasos. 1950 01:39:10,880 --> 01:39:14,160 Incluso me dices aquí todos los pasos que ha ido haciendo. 1951 01:39:14,400 --> 01:39:15,400 Esto era lo que os contaba. 1952 01:39:15,400 --> 01:39:18,680 Se va creando como su plan y va evolucionando. 1953 01:39:18,680 --> 01:39:19,320 Lo veo 1954 01:39:19,320 --> 01:39:20,800 y pues primero voy a buscar información 1955 01:39:20,800 --> 01:39:24,160 sobre el tipo de contrato de investigación en España atendiendo a leyes recientes, 1956 01:39:24,200 --> 01:39:27,880 después a realizar sus contratos de investigación, pues amplia con búsquedas. 1957 01:39:27,920 --> 01:39:30,440 Bueno, veis aquí que son bastantes pasos, 1958 01:39:30,440 --> 01:39:33,320 algo que antes no hizo y por eso tarda tampoco. 1959 01:39:35,080 --> 01:39:36,920 Y vemos aquí el resultado ya que me da. 1960 01:39:36,920 --> 01:39:40,200 En este caso me he dado un formato tabla y no lo había especificado 1961 01:39:40,200 --> 01:39:41,200 de lo que quería. 1962 01:39:41,200 --> 01:39:44,200 Bueno, me vas diciendo diferentes tipos de contratos. 1963 01:39:44,440 --> 01:39:46,240 Detalle de cada uno de ellos. 1964 01:39:46,240 --> 01:39:48,040 Bueno, si vemos los resultados que puede ser 1965 01:39:48,040 --> 01:39:52,040 que sean mejores, seguramente sean mejores que si hubiese hecho la búsqueda. 1966 01:39:52,040 --> 01:39:55,440 Si en ese razonamiento apartado aquí vamos a tener que ser nosotros 1967 01:39:55,440 --> 01:39:59,240 suficientemente listos para saber cuando dejamos al modelo 1968 01:39:59,240 --> 01:40:02,640 que actúa automáticamente o cuando forzamos el razonamiento 1969 01:40:02,640 --> 01:40:05,480 aunque me conlleve más tiempo o cuando no lo necesito. 1970 01:40:05,480 --> 01:40:08,720 Por ejemplo, si le voy a preguntar cuál es la capital de España, 1971 01:40:08,760 --> 01:40:10,400 pues no voy a necesitar razonamiento. 1972 01:40:10,400 --> 01:40:15,360 Sé que no vas a responder bien, bien, esto es un poquito práctica, digamos. 1973 01:40:16,120 --> 01:40:19,040 Vale, vamos. Asistencia a la escritura. 1974 01:40:19,040 --> 01:40:22,920 Una de las tareas fundamentales que yo veo que me puede ahorrar mucho tiempo 1975 01:40:22,920 --> 01:40:26,400 es ayudan a escribir mejor todo lo que hemos aplicado 1976 01:40:26,640 --> 01:40:29,840 a diferentes tareas o las voy enseñando por aquí. 1977 01:40:30,160 --> 01:40:34,120 Esta, por ejemplo, es una convocatoria de movilidad de investigadores. 1978 01:40:34,160 --> 01:40:35,240 Seguro que muchos 1979 01:40:35,240 --> 01:40:38,640 la conocéis tanto el destinador y docentes como incluso personal administrativo. 1980 01:40:38,720 --> 01:40:40,600 ¿Gestionarse esta ayuda 1981 01:40:40,600 --> 01:40:44,200 Profesionalidad compleja en la que va por un sistema de puntuación 1982 01:40:45,280 --> 01:40:48,600 que también dependiendo del momento en el que se encuentre 1983 01:40:48,600 --> 01:40:52,840 el investigador puede optar a ciertos puntos y a otros puntos, no? 1984 01:40:52,880 --> 01:40:56,320 Bueno, tenéis ahí el enlace y el sistema de puntuación. 1985 01:40:56,320 --> 01:40:58,960 ¿Veis que es una cosa un poco un poco enrevesada? 1986 01:40:58,960 --> 01:41:02,960 Pues yo si me llega recién ahora es que estoy yo en un servicio de QA 1987 01:41:03,880 --> 01:41:06,360 y alguien me pregunta esto mismo. 1988 01:41:06,360 --> 01:41:08,320 ¿Una persona que obtuvo el título de doctor 1989 01:41:08,320 --> 01:41:12,080 en el año 2024, qué puedo aplicar o que no puedo aplicar? 1990 01:41:12,080 --> 01:41:16,240 O si quiero hacer una sección de ejemplos para que la gente 1991 01:41:16,240 --> 01:41:18,600 que vaya a solicitar esta ayuda pues sepa cómo. 1992 01:41:18,600 --> 01:41:20,240 ¿Cómo leer el documento? 1993 01:41:20,240 --> 01:41:24,520 ¿Pues puedo hacerlo yo manualmente o directamente 1994 01:41:25,240 --> 01:41:28,680 puedo pedirle a un LLM que me lo haga Para ello, qué voy a hacer? 1995 01:41:28,680 --> 01:41:29,440 Pues le voy a pasar. 1996 01:41:29,440 --> 01:41:32,560 El contexto vale, el contexto es básico. 1997 01:41:32,560 --> 01:41:35,760 Le paso toda la ayuda en formato pdf que se la puedo adjuntar. 1998 01:41:35,920 --> 01:41:39,640 Que bueno como es, son pocos en hojas. 1999 01:41:39,640 --> 01:41:43,560 En este caso va a funcionar bastante bien o incluso son muchísimas hojas 2000 01:41:43,560 --> 01:41:45,040 y yo quiero solo limitarme a esto. 2001 01:41:45,040 --> 01:41:49,440 Le puedo estar el texto explícito de los puntos que aplican 2002 01:41:49,720 --> 01:41:50,960 y le puedo preguntar 2003 01:41:50,960 --> 01:41:54,520 por la pregunta que me ha hecho el usuario en vez de hacerlo yo automáticamente. 2004 01:41:54,520 --> 01:41:58,960 Pues es lo que voy a hacer, me abro una nueva conversación. 2005 01:41:59,640 --> 01:42:04,000 Vale, aquí lo que le estoy pegando, vale, es justo lo que veía. 2006 01:42:04,000 --> 01:42:07,320 Es la diapositiva, los puntos hasta 15 punto por excelencia 2007 01:42:07,320 --> 01:42:10,480 del centro destino, hasta diez puntos, etcétera Incluso el formato. 2008 01:42:10,480 --> 01:42:11,400 ¿Veis que se lo paso aquí? 2009 01:42:11,400 --> 01:42:13,640 No ha puesto ni saltos de línea ni nada. 2010 01:42:13,640 --> 01:42:15,600 Lo van a entender bastante bien. 2011 01:42:15,600 --> 01:42:17,600 Y le voy a poner justo esta pregunta. 2012 01:42:19,120 --> 01:42:22,120 Esta información. 2013 01:42:22,840 --> 01:42:26,760 Es para aplicar a una ayuda 2014 01:42:27,320 --> 01:42:30,320 de movilidad en la UPV. 2015 01:42:30,520 --> 01:42:33,520 Eh un doctor del año 2016 01:42:34,320 --> 01:42:38,080 2001 investigador, un investigador 2017 01:42:38,280 --> 01:42:44,120 que tuvo su doctorado en el año 2024. 2018 01:42:44,440 --> 01:42:47,800 ¿A qué puntos puede optar 2019 01:42:49,240 --> 01:42:50,600 este medio? 2020 01:42:50,600 --> 01:42:53,640 Limitarme a responderlo manualmente. 2021 01:42:53,640 --> 01:42:58,680 Voy a delegar en el modelo en que sea capaz de hacerlo por sí mismo. 2022 01:42:58,720 --> 01:43:02,120 Aquí, si os fijáis, tengo el razonamiento activado, pues igual 2023 01:43:02,120 --> 01:43:06,040 esta tarea no requería razonamiento, lo tenía tirado porque se me quedó. 2024 01:43:06,080 --> 01:43:07,200 Va a tardar un poquito. 2025 01:43:07,200 --> 01:43:10,200 Entonces lo que voy a hacer es abrir un nuevo chat 2026 01:43:11,080 --> 01:43:14,120 y voy a desactivar el razonamiento para que no tarde tanto. 2027 01:43:14,160 --> 01:43:15,200 Yo creo que pasa también 2028 01:43:15,200 --> 01:43:18,600 hace falta mucho razonamiento, es procesar texto muy muy sencillo. 2029 01:43:18,600 --> 01:43:22,360 Te vemos que ya tarda mucho menos en responderme y ya me dices 2030 01:43:22,360 --> 01:43:28,680 oye, a qué puntos puedo puedo optar como investigador de año 2024 y te 2031 01:43:29,440 --> 01:43:32,440 en el centro de destino, plan de trabajo, etcétera, etcétera, etcétera. 2032 01:43:32,560 --> 01:43:35,160 Esto me lo has dado en un formato que igual a mí no me gusta. 2033 01:43:35,160 --> 01:43:39,680 Podría pedirle Oye, pues dámela al final en un texto, en un único párrafo, 2034 01:43:40,000 --> 01:43:43,000 para que se lo pueda responder a la persona por email. 2035 01:43:43,720 --> 01:43:46,600 Ojo, aquí no estamos libres de 2036 01:43:47,680 --> 01:43:48,080 de que haya 2037 01:43:48,080 --> 01:43:51,880 alucinaciones, pues tendría que verificar esto. 2038 01:43:51,880 --> 01:43:57,200 Es importante siempre saber que no estás libre de alucinaciones del sistema. 2039 01:43:57,800 --> 01:44:00,000 Lo ventaja es que yo escribí esto igual 2040 01:44:00,000 --> 01:44:03,360 me lleva diez minutos, pero en cambio verificarlo me lleva uno 2041 01:44:04,360 --> 01:44:07,560 ahorrado una fracción de diez por tiempo incluso. 2042 01:44:08,160 --> 01:44:11,080 Bien, ya aquí estaría una tarea de asistencia 2043 01:44:11,080 --> 01:44:14,280 a la escritura, en este caso a responder 2044 01:44:14,520 --> 01:44:18,080 una pregunta Oye, que me piden que yo esto es lo que quiero. 2045 01:44:18,080 --> 01:44:21,920 Al final es devolverlo a un formato tabla porque no quiero incluir la convocatoria 2046 01:44:21,920 --> 01:44:23,920 para que sea una cosa muy visual, 2047 01:44:23,920 --> 01:44:26,640 pues le puedo pedir oye, representa estas mismas condiciones 2048 01:44:26,640 --> 01:44:30,400 en un cuadro con puntos y pues el sistema se va a adaptar. 2049 01:44:30,400 --> 01:44:31,680 Pues veis, 2050 01:44:31,680 --> 01:44:35,440 no lo hago, simplemente os lo muestre aquí me devolvería simplemente una tablita 2051 01:44:35,440 --> 01:44:39,080 con hasta 15 puntos tipo mérito del centro de destino, condiciones previas 2052 01:44:39,080 --> 01:44:42,600 como justificarlo, etcétera etcétera que es justo lo que le pido en el producto. 2053 01:44:42,680 --> 01:44:44,280 ¿Representa las condiciones en un cuadro 2054 01:44:44,280 --> 01:44:47,280 con puntos tipo condiciones previas, cómo justificarlo? 2055 01:44:47,480 --> 01:44:51,720 Es decir, pídele lo que necesites que muchas veces va a ser capaz de resolverlo. 2056 01:44:51,960 --> 01:44:55,640 Imaginaros que ahora nos llega alguien o una ayuda internacional 2057 01:44:55,640 --> 01:44:56,680 y lo tenemos en España. 2058 01:44:56,680 --> 01:44:58,160 Lo tenemos que traducirlo, 2059 01:44:58,160 --> 01:45:01,040 pues tan fácil como pedirle que me lo traduzca al inglés. 2060 01:45:01,040 --> 01:45:05,880 Podría utilizar sistemas de traducción previos que tengamos, hacerlo a mano. 2061 01:45:06,240 --> 01:45:10,840 Realmente hay los LLM es para traducción son excelentes. 2062 01:45:10,840 --> 01:45:15,160 Mucho mejor, por ejemplo que Google traductor utilizar traduce me 2063 01:45:15,200 --> 01:45:19,320 las condiciones al inglés se lo he pedido y veis cada una de las condiciones. 2064 01:45:19,680 --> 01:45:21,680 Vamos, tendría que hacer un chequeo rápido, 2065 01:45:21,680 --> 01:45:25,840 pero en temas de traducción ya os digo yo que casi casi nunca se va a confundir. 2066 01:45:26,120 --> 01:45:29,680 Yo últimamente no he visto ningún error en traducciones. 2067 01:45:29,880 --> 01:45:34,000 Bueno, siempre que son cosas muy críticas, mejor echarle, echarle un vistazo. 2068 01:45:35,360 --> 01:45:37,520 Vale, eso sería todo. 2069 01:45:37,520 --> 01:45:41,440 Vale más ahorrar un poquito de tiempo a la hora de escribir, pero después 2070 01:45:41,440 --> 01:45:45,280 pueden haber preguntas que incluso a mí me lleva hace un tiempo de razonar. 2071 01:45:45,640 --> 01:45:49,040 Incluso tendría que hacer cuadrar varias cosas diferentes. 2072 01:45:49,080 --> 01:45:52,080 ¿Como puede ser esta pregunta Cuántos puntos como máximo 2073 01:45:52,080 --> 01:45:54,160 puede obtener una persona que obtuvo el doctorado en año 2074 01:45:54,160 --> 01:45:58,640 respecto a una que otra tuvo hace 20 años como como doctor? 2075 01:45:58,800 --> 01:46:03,040 Esta es una pregunta un poco más compleja porque requiere analizar como 2076 01:46:03,080 --> 01:46:06,080 el gorro de persona que tiene el doctorado hace un año 2077 01:46:06,240 --> 01:46:09,920 pasarle la pregunta yo como persona tendría que ir punto a punto 2078 01:46:09,920 --> 01:46:14,240 apuntándome los que podría aplicar, guardarlo en algún sitio, pues sumar. 2079 01:46:14,320 --> 01:46:15,920 Y lo mismo con la de 20 años. 2080 01:46:15,920 --> 01:46:17,240 Pues si yo se lo pregunta al sistema, 2081 01:46:17,240 --> 01:46:19,880 el sistema es capaz de hacer esa tarea por sí mismo. 2082 01:46:19,880 --> 01:46:22,240 Aquí sí que me recomendación, por ejemplo, que esto es una tarea 2083 01:46:22,240 --> 01:46:27,200 un poquito más compleja, es hacerlo incluso con el razonamiento activado. 2084 01:46:27,400 --> 01:46:28,160 ¿Y os lo digo por qué? 2085 01:46:28,160 --> 01:46:31,200 Porque esta demo la hice antes 2086 01:46:31,520 --> 01:46:35,000 y me dio resultados diferentes a los que tenemos aquí en la comparación final. 2087 01:46:35,120 --> 01:46:38,000 Es decir, que uno de los dos se equivocó, nos vamos a hacerlo. 2088 01:46:38,000 --> 01:46:39,280 De hecho, y vemos 2089 01:46:40,800 --> 01:46:43,720 el resultado que obtenemos. 2090 01:46:43,720 --> 01:46:46,600 Vamos a preguntarle por aquí 2091 01:46:46,600 --> 01:46:52,400 cuántos puntos podría obtener como máximo 2092 01:46:52,840 --> 01:46:55,840 una persona que 2093 01:46:56,280 --> 01:47:00,000 se doctoró hace un año 2094 01:47:01,000 --> 01:47:05,400 versus una persona que se me todo hace 2095 01:47:06,480 --> 01:47:08,840 20 años, 2096 01:47:08,840 --> 01:47:11,480 vemos que nos devuelven y con esto 2097 01:47:11,480 --> 01:47:15,080 vemos que tareas muy complejas son capaces de resolverla. 2098 01:47:15,080 --> 01:47:18,080 Pero oye, que también tenemos que tener cuidado, que no 2099 01:47:18,080 --> 01:47:22,320 muchas veces nos va a dar la respuesta, la respuesta correcta. 2100 01:47:23,200 --> 01:47:25,520 Vemos que aquí parece que se me ha quedado tostada. 2101 01:47:25,520 --> 01:47:28,640 Esto algunas veces pasa simplemente 2102 01:47:28,680 --> 01:47:31,680 si le doy a stop y vuelvo. 2103 01:47:32,560 --> 01:47:35,800 A entrar, pues vuelvo a pedírselo por aquí. 2104 01:47:38,520 --> 01:47:39,600 Vale, vamos 2105 01:47:39,600 --> 01:47:42,600 a pedirle que me lo vuelva a hacer. 2106 01:47:48,680 --> 01:47:51,680 Vale, pues mirando mientras el chat. 2107 01:47:56,200 --> 01:47:58,520 Vale, Bueno, vamos a ir dejándolo por ahí mientras. 2108 01:47:58,520 --> 01:48:00,640 Bueno, ya me está respondiendo. 2109 01:48:00,640 --> 01:48:02,360 Puntos comunes. 2110 01:48:05,520 --> 01:48:06,000 Personas. 2111 01:48:06,000 --> 01:48:10,440 El doctor hace un año va haciendo su razonamiento 2112 01:48:11,320 --> 01:48:15,720 y vemos que bueno, a ver si aquí al final me dará un resumen de todos ellos. 2113 01:48:16,640 --> 01:48:21,080 Vale, vemos que me has dado un resultado diferente al que me diste. 2114 01:48:21,080 --> 01:48:25,520 La diapositiva 92 versus 97 solo es que me da 92, 2115 01:48:25,520 --> 01:48:29,680 es un 97 y en la diapositiva hemos visto que me da más 88 cinco 2116 01:48:30,680 --> 01:48:33,680 Tarea poco complicada, no activé razonamiento con razonamiento. 2117 01:48:33,680 --> 01:48:35,280 Yo creo que lo va a resolver bien, 2118 01:48:35,280 --> 01:48:38,600 pero esto también nos tiene que llevar un poco a ojo. 2119 01:48:38,800 --> 01:48:41,800 No todo es tan bonito como parece 2120 01:48:42,120 --> 01:48:44,720 y tienes que chequear siempre, siempre las cosas, 2121 01:48:44,720 --> 01:48:47,080 pero si identificamos tareas en las que funciona bien, 2122 01:48:47,080 --> 01:48:50,040 que eso también va a ser labor nuestro, pues ya vamos a estar más seguros de 2123 01:48:50,040 --> 01:48:51,480 si eso es capaz de hacerlo. 2124 01:48:51,480 --> 01:48:53,960 Ahora que he visto que esta tarea no, igual ya no me fío tanto en esta. 2125 01:48:53,960 --> 01:48:57,680 Si lo lleva a hacer bien, pues igual ya me fiaba más en otros, en otros casos 2126 01:48:57,680 --> 01:49:01,480 siempre comprobándolo, pero intentaría resolverlo con 2127 01:49:01,520 --> 01:49:05,640 con con CoPilot, más cosillas que yo creo que me parecen relevantes. 2128 01:49:06,000 --> 01:49:07,880 El búsqueda en. 2129 01:49:10,080 --> 01:49:11,960 En documentos 2130 01:49:11,960 --> 01:49:15,960 que yo tengo en mi propio ser Paint o que incluso puedo adjuntar. 2131 01:49:16,440 --> 01:49:21,480 Esto se puede, se puede hacer sin sin ningún tipo de de problema y lo 2132 01:49:21,480 --> 01:49:26,080 vamos a hacer o los con un caso de uso también me gusta, me gusta mucho. 2133 01:49:26,120 --> 01:49:30,080 Voy a abrir por aquí que es que va a haber una nueva conversación. 2134 01:49:30,440 --> 01:49:34,040 Yo tengo un Excel vale Con 2135 01:49:35,600 --> 01:49:39,000 todos los contactos que tengo 2136 01:49:40,080 --> 01:49:43,800 de gente que conozco, de proyectos, gente que conozco de personal 2137 01:49:43,800 --> 01:49:45,680 administrativo para diferentes procedimientos, 2138 01:49:45,680 --> 01:49:48,800 pero yo tengo un experto, el que tiene muchas entradas, 2139 01:49:49,640 --> 01:49:52,960 entonces si tengo que buscar a alguien, pues típicamente entro en el Excel 2140 01:49:52,960 --> 01:49:56,400 y lo busco, ya sea por palabras clave, me tengo que acordar como había 2141 01:49:56,960 --> 01:50:00,520 identificado a esa persona o a qué área pertenece. 2142 01:50:00,680 --> 01:50:03,280 A veces no me sale el nombre del área, pues eso me lleva tiempo. 2143 01:50:03,280 --> 01:50:07,560 En cambio si yo le puedo pasar el Excel en este caso 2144 01:50:07,800 --> 01:50:10,560 y con esos datos puede utilizar el lenguaje natural. 2145 01:50:10,560 --> 01:50:16,000 ¿Y voy a hacer esta pregunta en qué despacho se encuentra 2146 01:50:17,120 --> 01:50:18,080 abierto? 2147 01:50:18,080 --> 01:50:20,760 Vale, me pregunto por mi mismo que también hay una fila. 2148 01:50:20,760 --> 01:50:21,560 Esa sociedad a mí 2149 01:50:21,560 --> 01:50:25,280 con todos mis datos para que no se revela que la información de nadie 2150 01:50:26,080 --> 01:50:30,400 y me está diciendo oye, mira que el despacho de Javier B2 uno y 2151 01:50:30,520 --> 01:50:34,560 ten cuidado que ve 323 figura como antiguo exactamente en el Excel. 2152 01:50:34,600 --> 01:50:38,080 En la fila pone eso que mi localización es el uno y entre paréntesis 2153 01:50:38,080 --> 01:50:42,840 pone el anterior despacho del 323 pues en el que estaba anteriormente. 2154 01:50:43,000 --> 01:50:44,400 Esto me puede ahorrar mucho tiempo. 2155 01:50:44,400 --> 01:50:47,080 Vale, si tenéis información y hacer búsquedas sobre ella, 2156 01:50:47,080 --> 01:50:49,080 pasar el documento y hazlo. 2157 01:50:49,080 --> 01:50:54,160 Eso es lo que me lleva justo al punto que ya había mencionado Fernando 2158 01:50:54,280 --> 01:50:59,040 previamente que es Me voy adelantar 2159 01:50:59,920 --> 01:51:02,400 aquí que 2160 01:51:02,400 --> 01:51:04,600 cuando nosotros utilizamos 2161 01:51:04,600 --> 01:51:07,920 guías, sistemas de Ias que son gratuitas, 2162 01:51:08,320 --> 01:51:11,560 no vamos a tener esta licencia que tenemos en la UPN. 2163 01:51:11,760 --> 01:51:14,400 Que garantizan pues que todos los datos que tenemos 2164 01:51:14,400 --> 01:51:18,200 dentro de de Copa y de y que le pasamos a CoPilot Chat 2165 01:51:18,600 --> 01:51:21,960 van a estar protegidos, es decir, que no van a haber fugas de información. 2166 01:51:22,800 --> 01:51:26,560 Justo en el caso que os acabo de enseñar puede ser importante. 2167 01:51:27,040 --> 01:51:30,880 En ese caso, yo tengo contactos de UPM 2168 01:51:30,920 --> 01:51:34,000 donde puede haber incluso información personal. 2169 01:51:34,040 --> 01:51:34,960 Si yo soy solo un paso, 2170 01:51:36,160 --> 01:51:37,760 pues no tengo una licencia ni 2171 01:51:37,760 --> 01:51:41,440 tengo un seguro de que esos datos vayan a estar protegidos. 2172 01:51:42,040 --> 01:51:44,960 Entonces pues bueno, si hay alguna fuga de dicha GPT, 2173 01:51:44,960 --> 01:51:47,960 ellos no se van a responsabilizar de eso o si incluso en 2174 01:51:48,920 --> 01:51:52,240 de alguna forma podrán utilizarlo para entrenar otros modelos. 2175 01:51:52,280 --> 01:51:54,080 Tampoco se van a responsabilizar. 2176 01:51:54,080 --> 01:51:57,080 A veces me dejan desactivar esa opción, pero tengo que hacerlo yo a mano. 2177 01:51:57,440 --> 01:51:58,080 Muchas veces 2178 01:51:58,080 --> 01:52:01,080 está por defecto que sí, que dejo que utilicen los datos para entrenar. 2179 01:52:01,200 --> 01:52:04,880 En cambio aquí dentro de de la UPM, 2180 01:52:05,000 --> 01:52:09,040 si haya cualquier fuga de información por parte de copiloto es culpa de Microsoft. 2181 01:52:09,040 --> 01:52:12,200 No es culpa nuestra como investigador, como docente, como personal 2182 01:52:12,200 --> 01:52:13,200 administrativo. 2183 01:52:13,200 --> 01:52:16,480 Entonces es una cosa que debemos de tener clarísima. 2184 01:52:17,120 --> 01:52:19,520 Y aquí esto se ve en el escudito. 2185 01:52:19,520 --> 01:52:21,560 Arriba pone esto justo esto. 2186 01:52:21,560 --> 01:52:22,840 ¿Protección de datos de prensa 2187 01:52:22,840 --> 01:52:26,880 se aplica este chat que os lo enseño un segundito es este escudito? 2188 01:52:27,040 --> 01:52:29,760 Vale, esto es por la licencia que tenemos. 2189 01:52:29,760 --> 01:52:33,360 Si hay cosas que no son críticas, pues por ejemplo buscar 2190 01:52:33,760 --> 01:52:37,120 hacer una pregunta sobre un documento que es público de acceso a internet 2191 01:52:37,240 --> 01:52:39,640 por si hay alguna herramienta como un notebook. 2192 01:52:39,640 --> 01:52:43,080 LM Que CoPilot no la tiene y que funciona muy bien, 2193 01:52:43,120 --> 01:52:47,200 pues si es un documento público, ya ahí no pondría limitaciones de de usarlo. 2194 01:52:47,200 --> 01:52:47,400 ¿Por qué? 2195 01:52:47,400 --> 01:52:48,840 Porque ya lo puedes encontrar en internet. 2196 01:52:48,840 --> 01:52:50,480 No hay ninguna fuga de información. 2197 01:52:50,480 --> 01:52:54,160 Pero si es cosas restrictivas pues hay que tener, hay que tener cuidado. Y 2198 01:52:55,120 --> 01:52:57,440 Javier es el paquete de interrumpa. 2199 01:52:57,440 --> 01:53:00,520 ¿Disculpa que te interrumpa en la pantalla anterior que estabas, eh? 2200 01:53:01,160 --> 01:53:03,560 ¿El hecho de estar conectado 2201 01:53:03,560 --> 01:53:08,080 a nuestra licencia de la universidad hace que automáticamente se vean 2202 01:53:08,080 --> 01:53:12,280 todos los documentos que tenemos en nuestro ser point, digamos, eh? 2203 01:53:12,880 --> 01:53:13,160 Digamos. 2204 01:53:13,160 --> 01:53:14,200 Creo que eso es relevante 2205 01:53:14,200 --> 01:53:17,240 porque si tenemos documentación ya nuestra de trabajo habitual 2206 01:53:17,280 --> 01:53:19,160 va a ser más fácil de encontrar la información. 2207 01:53:19,160 --> 01:53:21,720 No sé si esto nos lo puedes confirmar. 2208 01:53:21,720 --> 01:53:25,200 Si no es tan sencillo de que yo aquí le pregunte 2209 01:53:25,200 --> 01:53:28,200 por un documento mío y me lo encuentre. 2210 01:53:28,320 --> 01:53:31,320 Por ejemplo ahora preguntar Encuéntrame 2211 01:53:32,800 --> 01:53:35,880 lo en mi documentación. 2212 01:53:37,560 --> 01:53:39,560 Las asignaturas 2213 01:53:39,560 --> 01:53:43,040 que imparto esto no lo tenemos activado. 2214 01:53:43,040 --> 01:53:46,480 Nosotros en con la licencia de CoPilot sé que hay algunas licencias muy 2215 01:53:47,160 --> 01:53:51,080 con muchas más cosas que sí que te te permiten hacer esto con la que tenemos 2216 01:53:51,080 --> 01:53:54,800 nosotros actualmente no, salvo que esto haya cambiado de para otro. 2217 01:53:55,200 --> 01:53:57,200 ¿Veis? Aquí me lo he intentado buscar en contactos. 2218 01:53:57,200 --> 01:54:01,000 Si lo hubiese preguntado con otro chat, créeme que tampoco me diría que no 2219 01:54:01,320 --> 01:54:04,400 es lo que sí podemos hacerle aquí, que esto 2220 01:54:04,400 --> 01:54:07,400 está chulo es adjuntar archivos. 2221 01:54:07,400 --> 01:54:08,760 Lo que yo quería decir. 2222 01:54:08,760 --> 01:54:10,800 Esto sí que lo puedes hacer. 2223 01:54:10,800 --> 01:54:14,360 Y tú aquí tienes acceso a tu, tu, tu OneDrive, digamos, 2224 01:54:14,400 --> 01:54:17,400 y puedes buscar dentro de tu de tu drive. 2225 01:54:17,480 --> 01:54:18,600 Aquí está mi drive. 2226 01:54:18,600 --> 01:54:23,000 Y puedo asignarle pues este documento, por ejemplo, queda Open. 2227 01:54:23,080 --> 01:54:25,560 Esto fue de una prueba que hice el otro día aquí. 2228 01:54:25,560 --> 01:54:26,280 Es un documento 2229 01:54:26,280 --> 01:54:29,640 que yo tengo en la que explica que es la que había preguntado a un chatbot. 2230 01:54:29,680 --> 01:54:30,760 Eso sí puedo hacerlo. 2231 01:54:31,800 --> 01:54:32,200 Sí, sí. 2232 01:54:32,200 --> 01:54:33,720 Y es una forma muy, muy sencilla. 2233 01:54:33,720 --> 01:54:35,200 Otra es arrastrando los ficheros. 2234 01:54:35,200 --> 01:54:38,840 Si no tienes en tu en tu ordenador también es otra, otra opción. 2235 01:54:40,840 --> 01:54:44,480 Vale, Javier, una cosa, a lo mejor la otra no te la ha contestado 2236 01:54:44,480 --> 01:54:47,480 porque tú no tenías esa documentación en tu OneDrive. 2237 01:54:47,560 --> 01:54:50,080 Quiero decir que todo lo que tengas en tu web drive 2238 01:54:50,080 --> 01:54:53,960 sí que normalmente lo tiene indeseado y accede. 2239 01:54:54,160 --> 01:54:58,040 De hecho, también en Teams te dice cuáles son las últimas conversaciones 2240 01:54:58,040 --> 01:54:59,840 y puedes, dependiendo de las licencias. 2241 01:54:59,840 --> 01:55:05,080 A lo mejor la de Copa de los Chats está más limitada y CoPilot, la de pago, 2242 01:55:05,120 --> 01:55:09,080 sí que tiene ese acceso, pero de normal tiene acceso a tu 2243 01:55:09,080 --> 01:55:13,960 ser point y a todo tu información en la en la licencia básica 2244 01:55:15,800 --> 01:55:17,920 creo que no, en la que es un poco más avanzada. 2245 01:55:17,920 --> 01:55:19,600 Creo que sí. 2246 01:55:19,600 --> 01:55:21,920 Vale, tengo dudas. 2247 01:55:21,920 --> 01:55:24,680 Es la que tenemos todo el mundo. Sí, se puede. 2248 01:55:24,680 --> 01:55:25,880 ¿Se puede hacer o no? 2249 01:55:25,880 --> 01:55:29,560 Yo tenía pensado que tenía creído que no hay en. 2250 01:55:30,440 --> 01:55:34,120 Si no lo confirmo o en la próxima sesión Se puede, 2251 01:55:34,160 --> 01:55:37,160 se puede decir, pero yo tenía entendido que no 2252 01:55:38,840 --> 01:55:39,120 Bale. 2253 01:55:39,120 --> 01:55:42,720 Aprovecho para comentar esto de las licencias, que es un lío tremendo. 2254 01:55:43,680 --> 01:55:46,320 Tenemos por la licencia que tiene comprada 2255 01:55:46,320 --> 01:55:49,680 la universidad para todo el personal que digamos. 2256 01:55:49,680 --> 01:55:51,200 Lo que tenemos es lo que estamos tratando. 2257 01:55:51,200 --> 01:55:56,120 Javier Vale que ya vimos, para la mayor parte de los usuarios es suficiente. 2258 01:55:56,520 --> 01:55:59,720 Luego a partir de ahí y ya con un pago adicional, 2259 01:55:59,760 --> 01:56:02,880 hay otra serie de licencias que dan otra serie de 2260 01:56:03,880 --> 01:56:06,680 funcionalidades que no están incluidas 2261 01:56:06,680 --> 01:56:09,880 para todo el mundo, entre otros motivos porque el coste es elevado 2262 01:56:09,920 --> 01:56:12,880 y porque tampoco todo, no todo el mundo lo necesita, 2263 01:56:12,880 --> 01:56:16,680 pero que si alguien, por su motivos, lo que sea, 2264 01:56:18,040 --> 01:56:20,600 cree que lo necesita 2265 01:56:20,600 --> 01:56:23,040 previo pago, lo podemos adquirir, digo previo pago. 2266 01:56:23,040 --> 01:56:26,120 Lo podemos adquirir porque tenemos que comprarlo de forma centralizada. 2267 01:56:26,120 --> 01:56:28,920 No lo puede comprar cada uno individualmente. 2268 01:56:28,920 --> 01:56:29,880 Vale, lo gestionamos 2269 01:56:29,880 --> 01:56:33,800 nosotros desde el rectorado y no se puede comprar individualmente, Vale, 2270 01:56:33,800 --> 01:56:37,480 pero si alguien tiene interés que se ponga en contacto con nosotros y le decimos 2271 01:56:37,560 --> 01:56:41,080 cómo lo puede hacer, vale, añade una serie de funcionalidades, 2272 01:56:41,080 --> 01:56:45,400 pero ya digo, creo que no son de uso para todo el mundo y por tanto 2273 01:56:45,480 --> 01:56:48,400 creo que tenemos algún otro seminario en el que hablamos un poco 2274 01:56:48,400 --> 01:56:51,400 más en detalle de qué cosas tiene cada licencia, etcétera, etcétera. 2275 01:56:52,080 --> 01:56:55,600 Vale, perdona Javier, que te hemos interrumpido y te hemos cortado el hilo. 2276 01:56:56,040 --> 01:56:58,880 Nada, no te preocupes, a través del copiloto Chat A mí, 2277 01:56:58,880 --> 01:57:02,760 por ejemplo, eso no me no me funciona Lo que comenta Jessica, igual desde Teams 2278 01:57:02,800 --> 01:57:06,960 sí que tienen una vinculación directa, que eso no lo no lo he probado, 2279 01:57:08,280 --> 01:57:11,280 pero vamos, es que todo depende mucho de la licencia 2280 01:57:11,640 --> 01:57:15,040 y por ir por ir cerrando ya que son las dos quedan cosas pendientes, 2281 01:57:15,040 --> 01:57:16,600 pero creo que no son tan relevantes. 2282 01:57:16,600 --> 01:57:21,600 Lo único que quiero mencionar es que todo esto que estamos viendo de 2283 01:57:21,680 --> 01:57:25,760 de aplicado a texto también lo podemos aplicar a imágenes. 2284 01:57:26,080 --> 01:57:28,760 Entonces también con CoPilot podemos generar imágenes 2285 01:57:28,760 --> 01:57:32,040 que pueden ser relevantes, pues si queremos hacer alguna imagen 2286 01:57:32,040 --> 01:57:35,560 promocionando la UPN o para la web se puede pedir 2287 01:57:36,520 --> 01:57:39,320 más técnicas de prompt, que estoy igual ya lo conocíais muchos. 2288 01:57:39,320 --> 01:57:44,240 Y lo que se puede hacer ahora también muy chulo es pedirle gráficos gráficos 2289 01:57:44,480 --> 01:57:48,200 para que la imagen no sea una imagen artística, sino un gráfico. 2290 01:57:48,200 --> 01:57:52,080 Y en esto, puesto la convocatoria que os enseñé, le pedía que me diese un gráfico 2291 01:57:52,080 --> 01:57:55,480 de todos los pasos que tiene que hacer el investigador para solicitarla. 2292 01:57:55,640 --> 01:57:59,120 Lo malo de estos gráficos es que no puedo editarlo después, sino sí 2293 01:57:59,160 --> 01:58:02,600 que puedo pasarle la foto y decirle que modifique cierto aspecto, 2294 01:58:03,040 --> 01:58:05,640 pero son cosas que se van poniendo poquito a poco. 2295 01:58:05,640 --> 01:58:08,480 Y en las imágenes vamos a ver que a ver, proceso 2296 01:58:08,480 --> 01:58:11,680 muy grande, cada vez los modelos son mejores y vamos a poder 2297 01:58:11,680 --> 01:58:15,440 pedir este tipo de cosas que igual antes era muy difícil de producir 2298 01:58:15,480 --> 01:58:18,680 y ahora pues igual de muy sencillo de hacerlo, siempre verificando. 2299 01:58:18,680 --> 01:58:23,320 Obviamente incluso se puede acompañar webs en procedimientos 2300 01:58:23,320 --> 01:58:26,320 para que la gente lo entiende de una forma más sencilla, 2301 01:58:26,320 --> 01:58:29,760 ahorrándote el tiempo de hacer que antes no lo teníamos, pues no lo hacíamos. 2302 01:58:30,440 --> 01:58:34,280 Vale, pues una pregunta, cuando hablas, cuando hablas de buscar en 2303 01:58:34,280 --> 01:58:35,080 imágenes, también 2304 01:58:35,080 --> 01:58:38,920 hablas de buscar en PDF, que es otra cosa que habitualmente necesitamos. 2305 01:58:39,360 --> 01:58:42,400 Si eso está relacionado con búsqueda de documentación, 2306 01:58:42,440 --> 01:58:47,160 tú le puedes subir un PDF y le puedes preguntar y te va a responder. 2307 01:58:47,280 --> 01:58:52,200 Es por eso Es un PDF que tiene información muy crítica que no puede salir 2308 01:58:52,240 --> 01:58:57,040 Eso vete a CoPilot porque te garantiza con nuestra licencia. 2309 01:58:57,120 --> 01:58:58,280 Después hay herramientas que están 2310 01:58:58,280 --> 01:59:02,360 muy perfeccionadas para búsquedas en PDF como es Notebook. 2311 01:59:02,360 --> 01:59:07,520 LM Pues yo ahí mi consejo es con cosas que son públicas, prueba también 2312 01:59:08,040 --> 01:59:12,080 porque te ofrecen un beneficio en las cosas que necesita licencia, 2313 01:59:12,120 --> 01:59:15,960 vete a CoPilot y te va a funcionar bastante bien en ese 2314 01:59:16,000 --> 01:59:20,000 en ese aspecto, el pasarlo en PDF, eso sin duda hay, digamos. 2315 01:59:20,320 --> 01:59:23,360 Javier ha hecho mucha insistencia en CoPilot y lo ha hecho 2316 01:59:23,880 --> 01:59:27,680 porque así también se lo hemos pedido en no mucho tiempo. 2317 01:59:27,680 --> 01:59:29,560 Anunciaremos algo relacionado con Google. 2318 01:59:29,560 --> 01:59:34,160 Lo digo porque todo esto que está diciendo Javier, en unos días o semanas 2319 01:59:34,200 --> 01:59:36,640 podemos aplicarlo también con otras herramientas. ¿Vale? 2320 01:59:36,640 --> 01:59:40,600 A día de hoy lo único que podemos confirmar es CoPilot, 2321 01:59:40,600 --> 01:59:44,160 pero bueno, ahora habrá más opciones para la gente de la UPM. 2322 01:59:45,760 --> 01:59:48,080 Vale, pues me quedaron algunas cosas en el tintero, 2323 01:59:48,080 --> 01:59:52,400 pero son cosas que si subimos las slides las podéis ver pero no son relevantes. 2324 01:59:52,400 --> 01:59:53,400 Lo principal que quería 2325 01:59:53,400 --> 01:59:56,840 que el llevases de esta sesión es esas técnicas de prompt y. 2326 01:59:57,400 --> 02:00:00,720 Y por mi parte, a menos que haya alguna duda, pero creo 2327 02:00:00,800 --> 02:00:04,160 ya estamos fuera de tiempo, lo dejaríamos ya 2328 02:00:04,160 --> 02:00:07,160 por aquí. 2329 02:00:07,320 --> 02:00:10,320 Denominado Javier en 2330 02:00:10,960 --> 02:00:13,320 Bueno, hay alguna consulta en el chat. 2331 02:00:13,320 --> 02:00:14,880 Yo no sé si podemos contestarla. 2332 02:00:14,880 --> 02:00:17,880 Jessica, aunque cerremos la reunión, 2333 02:00:18,400 --> 02:00:20,920 si las he ido contestando. 2334 02:00:20,920 --> 02:00:23,920 A ver. 2335 02:00:24,320 --> 02:00:25,280 Al UPM Drive, 2336 02:00:25,280 --> 02:00:29,400 no a lo que pregunta María Ángeles no puede acceder. 2337 02:00:29,400 --> 02:00:33,480 Lo que tú puedes es copiar ese fichero, arrastrarlo a CoPilot 2338 02:00:33,480 --> 02:00:36,480 y ya se guarda automáticamente en tu web drive. 2339 02:00:36,960 --> 02:00:40,520 Al final es tener la información duplicada, pero como tal 2340 02:00:40,520 --> 02:00:44,600 no puede acceder directamente CoPilot a tu drive, es simplemente copiarlo. 2341 02:00:47,920 --> 02:00:49,040 Eso es. 2342 02:00:49,040 --> 02:00:53,880 Vi por ahí también lo del excel que preguntaba es que él está protegido. 2343 02:00:53,880 --> 02:00:56,880 Si, si lo subo a CoPilot no 2344 02:00:56,960 --> 02:00:58,280 es culpa de Microsoft. 2345 02:00:58,280 --> 02:01:01,280 Si se difunde esa información no 2346 02:01:02,280 --> 02:01:04,400 tendría que pagar una demonización. 2347 02:01:04,400 --> 02:01:08,120 Si te atreves a responder lo del mito de lo del inglés, digo no sé, 2348 02:01:08,160 --> 02:01:11,240 depende de lo de cómo estoy entrenado. 2349 02:01:11,840 --> 02:01:15,080 Anabel Castillo dice Tengo una duda sobre un mito 2350 02:01:15,080 --> 02:01:17,920 de que el plan funciona mejor si se escribe en inglés. 2351 02:01:17,920 --> 02:01:18,680 ¿Vale? 2352 02:01:18,680 --> 02:01:21,480 No, es que no 2353 02:01:21,480 --> 02:01:23,760 me contesta tú siquiera, que supongo que también irás. 2354 02:01:23,760 --> 02:01:26,440 Por lo menos no le había contestado. Yo. 2355 02:01:26,440 --> 02:01:29,200 De todos modos, no, perdona, no lo he puesto. 2356 02:01:29,200 --> 02:01:31,840 A lo mejor se le manda en privado, pero bueno, que si es verdad 2357 02:01:31,840 --> 02:01:34,880 que seguramente antes la IA tiene sesgos. 2358 02:01:34,880 --> 02:01:38,640 Si se ha entrenado con más inglés que otra cosa, es posible que en inglés 2359 02:01:38,640 --> 02:01:39,640 pueda contestar mejor. 2360 02:01:39,640 --> 02:01:42,120 Lo que pasa es que habría habría que valorar cada 2361 02:01:42,120 --> 02:01:44,480 una respuesta por separado, no como algo genérico. 2362 02:01:44,480 --> 02:01:48,440 En español hay bastante texto y funciona bastante bien en general. Sí, 2363 02:01:49,400 --> 02:01:52,040 Por resumir un poquillo para las tareas 2364 02:01:52,040 --> 02:01:56,320 que tenemos en nuestro día a día con español e inglés lo vamos a notar. 2365 02:01:56,320 --> 02:01:59,040 La la diferencia. 2366 02:01:59,040 --> 02:02:02,480 Además, el español es el segundo idioma que más acceso datos 2367 02:02:02,960 --> 02:02:05,080 tienen a la hora de entrenar estos modelos. 2368 02:02:05,080 --> 02:02:10,360 Entonces no es algo que preocupa mucho al principio, pero hoy en día irrelevante 2369 02:02:10,360 --> 02:02:13,360 prácticamente escribirlo en inglés que en español. 2370 02:02:17,280 --> 02:02:19,160 Estaba David tan preguntando. 2371 02:02:19,160 --> 02:02:22,680 Fernando Sí, sí, un error que le di una vez dice que le había pedido números 2372 02:02:23,560 --> 02:02:25,960 del uno al 100 y repitió número. 2373 02:02:25,960 --> 02:02:28,840 Pues al final, como decía, esto es estadística. 2374 02:02:28,840 --> 02:02:31,120 Si él está generado texto y no, realmente no está haciendo 2375 02:02:31,120 --> 02:02:34,440 un programa que genere números y compruebe que no se repiten, 2376 02:02:34,520 --> 02:02:40,160 pues caíste en la mala suerte que te tocó ahí un número repetido y pudo fracasar. 2377 02:02:42,160 --> 02:02:43,960 Sí, también estos 2378 02:02:43,960 --> 02:02:47,280 modelos cuando manejan números no son tan buenos 2379 02:02:47,280 --> 02:02:50,280 porque están especializados en entender el lenguaje. 2380 02:02:52,080 --> 02:02:54,840 Y hay tareas muy tontas que no funcionan bien. 2381 02:02:54,840 --> 02:02:58,160 Nosotros como grupo de investigación justo vamos estas tareas 2382 02:02:58,320 --> 02:02:59,920 y una cosa que hace muy mal es leerla. 2383 02:02:59,920 --> 02:03:02,920 Ahora sí que tú le pasas un reloj analógico. 2384 02:03:03,680 --> 02:03:08,080 Muchas veces fallan en decírtelo porque tienen un sesgo hacia las diez 2385 02:03:08,080 --> 02:03:11,160 -10, que es la hora que aparecen todos los anuncios 2386 02:03:11,160 --> 02:03:12,520 porque es una hora muy simétrica. 2387 02:03:12,520 --> 02:03:15,520 Entonces hay muchas tareas que son muy simples, que fallan 2388 02:03:15,600 --> 02:03:18,600 cada vez que no sé decirlo. 2389 02:03:23,560 --> 02:03:25,480 En funcionalidades 2390 02:03:25,480 --> 02:03:28,920 que como de similares o ancha GPT CoPilot. 2391 02:03:30,840 --> 02:03:33,560 Vale, pues en GPT 2392 02:03:33,560 --> 02:03:36,000 bueno, CoPilot tiene la ventaja de que está integrado 2393 02:03:36,000 --> 02:03:39,000 todo en nuestro ecosistema con nuestro OneDrive. 2394 02:03:39,320 --> 02:03:42,480 Lo que ocurre es que GPT sirve los modelos a CoPilot, 2395 02:03:42,520 --> 02:03:44,760 entonces utilizan los mismos modelos, lo que pasa 2396 02:03:44,760 --> 02:03:48,240 que la forma en que los utilizan pueden ser un poco un poco diferentes. 2397 02:03:48,560 --> 02:03:52,440 En la integración suele ser un poco mejor directamente concha GPT, 2398 02:03:52,600 --> 02:03:55,440 porque son los dueños del modelo los que mejor lo conocen, los que tienen 2399 02:03:55,440 --> 02:03:58,600 acceso directo, pero las funcionalidades son muy parecidas. 2400 02:03:58,600 --> 02:04:02,800 Por ejemplo, en generación de imágenes utilizan el mismo modelo de generación 2401 02:04:02,800 --> 02:04:03,320 de imágenes. 2402 02:04:03,320 --> 02:04:04,400 Entonces las diferencias 2403 02:04:04,400 --> 02:04:08,320 entre imágenes generadas con CoPilot y GPT no suelen ser muy grandes. 2404 02:04:08,360 --> 02:04:10,520 En las propias respuestas que te da el modelo. 2405 02:04:10,520 --> 02:04:15,520 Tampoco son más cosillas de integración, pues el tema de los agentes, 2406 02:04:15,520 --> 02:04:19,600 por ejemplo, que podéis ver mi percepción, pues cada uno lo hace a su forma. 2407 02:04:28,080 --> 02:04:31,080 Pregunta sobre notebooks LM 2408 02:04:31,480 --> 02:04:32,840 que inventó cosas. 2409 02:04:32,840 --> 02:04:34,480 Es raro porque notebook LM 2410 02:04:34,480 --> 02:04:38,560 Es precisamente relacionándolo con lo que contó Fernando, es una especie de Raj, 2411 02:04:38,560 --> 02:04:42,480 es decir, que te limita las fuentes de las que puede consultar. 2412 02:04:42,520 --> 02:04:47,600 Entonces no se suele equivocar, inventar porque tiene que referenciar, 2413 02:04:47,600 --> 02:04:50,600 incluso te pone numerito para que vayas al documento donde sea, 2414 02:04:50,680 --> 02:04:53,200 donde sea, de dónde has traído la información. 2415 02:04:53,200 --> 02:04:56,240 Pero bueno, todo esto no lo contarán en las sesiones de Google 2416 02:04:57,000 --> 02:04:59,400 y supongo que queda más claro. 2417 02:04:59,400 --> 02:05:00,960 No funciona muy bien. 2418 02:05:00,960 --> 02:05:05,320 ¿Yo hice un ejemplo con un TFG que es intentar meterle muchísima información 2419 02:05:05,320 --> 02:05:09,200 y ver si fallaba y por ejemplo, le metimos todas las guías de las asignaturas 2420 02:05:09,200 --> 02:05:13,720 que son públicas de todo el grado de teleco y le decimos preguntas 2421 02:05:13,720 --> 02:05:18,800 como qué profesores son los que en más asignaturas imparten docencia? 2422 02:05:18,840 --> 02:05:23,400 Y ese dato ni siquiera está en escrito, sino que tienen que ir guía por guía, 2423 02:05:23,400 --> 02:05:26,560 encontrando a los profesores y haciendo toda la cuenta. 2424 02:05:26,560 --> 02:05:29,520 Y lo respondió bien. Es una pregunta muy compleja, con muchísimos 2425 02:05:30,760 --> 02:05:33,400 fuentes de información diferentes y muchos datos. 2426 02:05:33,400 --> 02:05:35,320 Notebook no suele fallar. 2427 02:05:35,320 --> 02:05:38,320 Muy muy raro que falle con tus documentos. 2428 02:05:38,640 --> 02:05:39,920 Podría ser por pensar un poco. 2429 02:05:39,920 --> 02:05:42,000 Depende mucho de cómo este codificado internamente 2430 02:05:42,000 --> 02:05:45,920 el PDF le haya podido despistar al bucle porque según se genere 2431 02:05:46,120 --> 02:05:47,680 luego se interna, tiene más texto, 2432 02:05:47,680 --> 02:05:50,040 más imágenes, algo que sea y a lo mejor ahí la podido fallar. 2433 02:05:50,040 --> 02:05:53,680 Pero bueno, habría que estudiar el caso en en particular. 2434 02:05:53,920 --> 02:05:56,920 Bueno, la ley de contratos, que no la entiende nadie, entonces 2435 02:05:57,440 --> 02:06:00,440 que lo que lo que falle. 2436 02:06:03,040 --> 02:06:06,040 Bueno, pues a ver, seguro que hay muchas más dudas. 2437 02:06:06,080 --> 02:06:08,720 Javier y Fernando se han dejado el correo electrónico. 2438 02:06:08,720 --> 02:06:11,720 Podéis preguntarles si queréis. 2439 02:06:11,880 --> 02:06:14,600 También nosotros estamos un poco a vuestra disposición. 2440 02:06:14,600 --> 02:06:18,200 Vamos a hacer más sesiones en las que seguiremos profundizando en 2441 02:06:18,240 --> 02:06:19,160 la parte de agentes, 2442 02:06:19,160 --> 02:06:23,840 que creo que es un tema muy interesante para automatizar procesos y que bueno, 2443 02:06:24,000 --> 02:06:28,120 creo que es algo que es interesante que conozcáis la mayor parte de vosotros. 2444 02:06:28,120 --> 02:06:31,480 Así que bueno, os animo a que os apuntéis al resto de sesiones. 2445 02:06:31,920 --> 02:06:35,240 Y nada más agradecer la asistencia ha desbordado 2446 02:06:35,240 --> 02:06:38,320 nuestra expectativa, ha oído hasta 160 personas conectadas 2447 02:06:38,320 --> 02:06:41,720 y la verdad es que no esperábamos generar tanto interés. 2448 02:06:41,720 --> 02:06:45,600 Así que nada, encantados de que lo que hayamos hecho 2449 02:06:45,960 --> 02:06:50,040 haya sido interesante para tanta gente por nuestra parte, Nada más. 2450 02:06:50,080 --> 02:06:53,960 Nos vemos en principio la semana que viene si que al que le interese 2451 02:06:54,360 --> 02:06:57,440 pues aquí estaremos en la siguiente sesión de Primavera Tech. 2452 02:06:57,600 --> 02:07:00,600 Vale, Muy bien. Hasta luego a todos. 2453 02:07:01,160 --> 02:07:02,040 Gracias. Chao.