1 00:00:10,160 --> 00:00:13,760 Pues ante todo, muchas gracias a Expania por la invitación, 2 00:00:13,760 --> 00:00:17,480 especialmente a Politécnica de Madrid, por darme la oportunidad de estar aquí. 3 00:00:19,000 --> 00:00:22,000 Y tengo que decir que todo parte de una pequeña anécdota. 4 00:00:22,480 --> 00:00:26,160 Cuando estaban pensando sobre qué hablar en el arranque de la jornada, 5 00:00:26,160 --> 00:00:29,160 pensaron entonces vamos a hablar algo sobre el futuro, 6 00:00:29,520 --> 00:00:31,320 como si alguien supiera lo que va a pasar en el futuro. 7 00:00:31,320 --> 00:00:31,960 Yo no tengo ni idea. 8 00:00:31,960 --> 00:00:34,960 Yo he dicho antes, he hecho una pequeña broma, pero es verdad, 9 00:00:35,160 --> 00:00:38,040 no tengo ni idea de lo que voy a hablar, pero es que no tienen ni idea de lo que 10 00:00:38,040 --> 00:00:41,480 voy a hablar yo o cualquier persona que viniera aquí, que este era mi lugar. 11 00:00:42,960 --> 00:00:44,840 Este año hemos terminado 12 00:00:44,840 --> 00:00:48,080 un proceso de oposiciones de a uno en nuestra universidad 13 00:00:49,160 --> 00:00:50,120 a una biblioteca 14 00:00:50,120 --> 00:00:53,040 y en uno de los ejercicios que hicimos a finales del año pasado, 15 00:00:53,040 --> 00:00:54,960 les preguntábamos a los candidatos 16 00:00:54,960 --> 00:00:58,320 en un ejercicio de composición, por dónde veían que iba el futuro. 17 00:00:59,000 --> 00:01:01,640 Y a raíz de ahí que 18 00:01:01,640 --> 00:01:04,760 que teníamos a una persona de la Politécnica, María José, 19 00:01:04,760 --> 00:01:07,840 en el Tribunal pensamos vamos a intentar hacer un poco el mismo juego 20 00:01:08,520 --> 00:01:11,520 como si fuéramos opositores. 21 00:01:12,040 --> 00:01:14,640 Pero claro, han pasado seis meses de eso 22 00:01:14,640 --> 00:01:17,640 y han pasado muchas cosas y pasarán muchas más. 23 00:01:18,240 --> 00:01:20,560 Yo tenía una idea de hacer una presentación 24 00:01:20,560 --> 00:01:23,800 hace dos semanas que no tiene nada que ver con la que voy a hacer hoy 25 00:01:24,240 --> 00:01:27,840 y la semana pasada tuvimos unas jornadas de reunión. 26 00:01:28,560 --> 00:01:29,600 Salieron muchos temas. 27 00:01:29,600 --> 00:01:32,600 Uno de ellos es la inteligencia artificial y la verdad es que dije 28 00:01:32,680 --> 00:01:35,280 tengo que dar una vuelta a esto porque cualquier cosa que cuente, 29 00:01:35,280 --> 00:01:36,120 si no, ya va a estar vieja. 30 00:01:36,120 --> 00:01:39,680 Pero es que seguramente si contara algo parecido a esto, 31 00:01:39,680 --> 00:01:42,680 dentro de dos o tres semanas de vuelta me será diferente. 32 00:01:42,800 --> 00:01:43,600 Así que bueno, 33 00:01:44,720 --> 00:01:45,560 empiezo con 34 00:01:45,560 --> 00:01:48,600 la excusa de que es casi un tópico de la retórica. 35 00:01:48,600 --> 00:01:51,640 No tengo ni idea de lo que voy a hablar, así que espero que algo 36 00:01:51,640 --> 00:01:54,040 saquemos entre todos. ¿Esto no? 37 00:01:54,040 --> 00:01:55,960 Bueno, 38 00:01:55,960 --> 00:01:58,240 como podéis ver, eh. 39 00:01:58,240 --> 00:02:01,040 Bueno, haré una pequeña broma sobre qué es el futuro, 40 00:02:01,040 --> 00:02:04,040 si es que alguien lo sabe, y 41 00:02:05,000 --> 00:02:08,000 luego entraremos en poco más en materia, 42 00:02:08,880 --> 00:02:11,200 podremos pensar que la transformación digital es el presente. 43 00:02:11,200 --> 00:02:13,400 Es algo, es algo continuo. 44 00:02:13,400 --> 00:02:15,520 Y podríamos pensar que la transformación 45 00:02:15,520 --> 00:02:17,880 de la inteligencia artificial es el futuro. 46 00:02:17,880 --> 00:02:21,080 Y eso afecta a un montón de procesos y un montón de situaciones. 47 00:02:22,200 --> 00:02:25,000 Yo lo que voy a hacer es lanzar preguntas, porque como no hay respuestas, 48 00:02:25,000 --> 00:02:28,640 por lo menos reflexionemos sobre las preguntas y 49 00:02:29,720 --> 00:02:31,200 apuntaré un par de conclusiones. 50 00:02:32,160 --> 00:02:33,280 Bueno, si miramos el 51 00:02:33,280 --> 00:02:36,280 diccionario, que es lo más elemental para saber lo que significa un término. 52 00:02:37,360 --> 00:02:41,000 En la edición más actualizada que hay del diccionario en la red 53 00:02:41,440 --> 00:02:44,280 podéis encontrar todo esto y acentúa la idea del tiempo 54 00:02:44,280 --> 00:02:47,280 como una flecha donde el futuro está hacia delante. 55 00:02:47,280 --> 00:02:50,280 Todos vamos hacia adelante. 56 00:02:51,800 --> 00:02:52,160 Es decir, 57 00:02:52,160 --> 00:02:55,160 es algo que puede venir, algo que puede suceder. 58 00:02:55,200 --> 00:02:58,200 En cualquier caso, es algo posterior al momento de hablar. 59 00:02:58,920 --> 00:03:01,920 Pero en esta edición actualizada 60 00:03:02,160 --> 00:03:05,360 falta un significado que estaba en 2001 que a mí me gusta. 61 00:03:05,880 --> 00:03:08,880 ¿Bueno, viene de la filosofía que es el futuro contingente, 62 00:03:09,040 --> 00:03:12,040 sea lo que puede suceder o no, no? 63 00:03:12,160 --> 00:03:15,120 Y es decir, estamos en un punto y podemos ir a la dirección 64 00:03:15,120 --> 00:03:21,080 de ese en función de lo que hagamos, pues surgirán unas cosas o surgirán otras. Y 65 00:03:22,240 --> 00:03:24,040 bueno, esto ya lo decía Aristóteles, 66 00:03:24,040 --> 00:03:26,320 el parece ser que es como el padre de este concepto 67 00:03:26,320 --> 00:03:28,480 de que existe una contingencia en el futuro, 68 00:03:28,480 --> 00:03:30,000 porque nadie sabe lo que va a suceder 69 00:03:30,000 --> 00:03:33,000 y que lo que suceda dependerá de nuestras acciones. 70 00:03:33,240 --> 00:03:36,880 Entonces si hay varias alternativas, pues diremos que mañana sucederá algo, 71 00:03:36,880 --> 00:03:39,880 pero hasta que no llegue mañana no sucederá. 72 00:03:40,120 --> 00:03:42,880 ¿Entonces, qué es lo que va a suceder mañana con la transformación digital 73 00:03:42,880 --> 00:03:45,160 y la inteligencia artificial? Pues nadie lo sabe. 74 00:03:45,160 --> 00:03:48,440 Pero sí podríamos pensar que en cierto modo está en nuestras manos. 75 00:03:50,960 --> 00:03:51,680 En noviembre 76 00:03:51,680 --> 00:03:55,320 estuve en Sevilla, en las Jornadas Bibliotecarias 77 00:03:56,040 --> 00:04:00,520 de Andalucía de la Asociación de Andaluza Andaluza de Bibliotecarios 78 00:04:01,280 --> 00:04:04,680 y estuve en una mesa redonda en la que hablamos de Transformación digital 79 00:04:05,160 --> 00:04:08,760 y yo cogí este esquema que está en una publicación 80 00:04:09,160 --> 00:04:12,160 que se dirige al entorno de la transformación digital en la empresa 81 00:04:12,720 --> 00:04:14,280 y desde donde estáis seguro que no veis nada. 82 00:04:14,280 --> 00:04:15,480 Pero bueno, voy a intentar explicarlo. 83 00:04:17,160 --> 00:04:18,480 Lo adapté a las bibliotecas 84 00:04:18,480 --> 00:04:22,880 porque me pareció que era muy ilustrativo, muy gráfico y muy ilustrativo. 85 00:04:23,440 --> 00:04:26,440 Y la verdad es que 86 00:04:27,280 --> 00:04:27,880 es curioso 87 00:04:27,880 --> 00:04:31,320 porque este esquema lo hacen unos investigadores en el año 2019. 88 00:04:31,560 --> 00:04:34,280 Luego vino la pandemia y yo creo que refleja bastante bien 89 00:04:34,280 --> 00:04:36,800 los procesos de transformación a los que nos enfrentamos. 90 00:04:36,800 --> 00:04:39,800 Podríamos decir que tenemos un reto, en este caso el reto digital, 91 00:04:40,200 --> 00:04:41,880 que es lo que está encima de todo. 92 00:04:41,880 --> 00:04:45,840 Luego tenemos por debajo cuál es el objetivo de una organización 93 00:04:46,080 --> 00:04:49,120 como las bibliotecas, que es generar valor para nuestros usuarios. 94 00:04:49,720 --> 00:04:51,920 ¿Y luego por debajo tenemos una serie de capas, capas 95 00:04:51,920 --> 00:04:54,440 que tienen que ver con los modelos de servicio que tenemos, 96 00:04:54,440 --> 00:04:56,640 con los procesos que desarrollamos, qué aplicaciones 97 00:04:56,640 --> 00:04:59,640 utilizamos para dar servicios o dar acceso a recursos? 98 00:04:59,800 --> 00:05:03,840 También tenemos acceso a contenidos, tenemos a los profesionales 99 00:05:05,160 --> 00:05:08,080 y luego tenemos también infraestructuras físicas o digitales 100 00:05:08,080 --> 00:05:11,120 para la prestación de los servicios, como por ejemplo los edificios. 101 00:05:11,840 --> 00:05:15,360 Y todo está traspasado por la disrupción, 102 00:05:15,960 --> 00:05:18,480 no en este caso digital, y al mismo tiempo 103 00:05:18,480 --> 00:05:22,600 nos obliga a tener una reacción con procesos de transformación digital. 104 00:05:23,920 --> 00:05:25,680 Bueno, 105 00:05:25,680 --> 00:05:28,080 lo importante realmente no es la transformación digital, 106 00:05:28,080 --> 00:05:30,600 sino el valor que generamos para nuestros usuarios. 107 00:05:30,600 --> 00:05:32,080 Entonces este valor 108 00:05:32,080 --> 00:05:35,080 lo generamos a través de áreas de servicios que aquí sintetizaba 109 00:05:35,080 --> 00:05:38,080 en apoyar el aprendizaje, como para los estudiantes 110 00:05:38,160 --> 00:05:40,840 en apoyo de docencia e investigación para el personal docente 111 00:05:40,840 --> 00:05:43,120 investigador y el apoyo a la gestión 112 00:05:43,120 --> 00:05:45,280 para las unidades de administración de nuestra Universidad. 113 00:05:45,280 --> 00:05:48,280 Y esto tiene pues un montón de oportunidades 114 00:05:48,760 --> 00:05:51,560 y de riesgos o desafíos a los que hay que enfrentarse. 115 00:05:51,560 --> 00:05:54,840 Es decir, la transformación digital nos da la oportunidad 116 00:05:54,840 --> 00:05:58,440 de tener nuevos servicios o de transformar los servicios que teníamos. 117 00:05:58,880 --> 00:06:00,360 La forma de trabajar 118 00:06:00,360 --> 00:06:03,360 nos permite acceder a nuevos contenidos, nos permite 119 00:06:03,600 --> 00:06:05,040 desarrollar nuevas competencias. 120 00:06:06,280 --> 00:06:09,120 Es un esfuerzo muy importante por parte de nuestro personal. 121 00:06:09,120 --> 00:06:10,000 También nos da la oportunidad 122 00:06:10,000 --> 00:06:13,000 de posicionarnos de una manera diferente en nuestras organizaciones, 123 00:06:13,320 --> 00:06:17,080 porque además, las bibliotecas tenemos en nuestro valor el ser, 124 00:06:18,480 --> 00:06:20,200 tener una vocación de transformación 125 00:06:20,200 --> 00:06:23,200 que llevamos transformándonos desde hace mucho tiempo. 126 00:06:23,760 --> 00:06:26,760 Y eso las universidades, no siempre es así, con todos los servicios 127 00:06:26,880 --> 00:06:29,800 y luego entre los riesgos los hay los económicos. 128 00:06:29,800 --> 00:06:32,800 Por ejemplo, transformarse digitalmente es muy caro 129 00:06:33,680 --> 00:06:34,680 y hay brechas. 130 00:06:34,680 --> 00:06:39,360 Quien se transforma más estará por delante de quien se transforma menos en 131 00:06:40,680 --> 00:06:43,480 servicios y recursos. 132 00:06:43,480 --> 00:06:47,040 Ya no tenemos muchos recursos o servicios en propiedad, los tenemos 133 00:06:47,040 --> 00:06:50,280 en acceso, no solo los contenidos, no solo las bases de datos. 134 00:06:50,280 --> 00:06:52,240 Es que el software, 135 00:06:52,240 --> 00:06:56,120 visto que antes alguien tenía preparado una presentación en general y es decir, tú 136 00:06:56,920 --> 00:06:59,920 puedes tener una cuenta gratuita en general, pero si quieres tener 137 00:07:00,080 --> 00:07:03,360 más potencia tendrás que tener una cuenta brembo, tendrás que pagar, 138 00:07:03,640 --> 00:07:06,320 pero el día que dejes de pagar ya no tienes acceso a los servicios 139 00:07:06,320 --> 00:07:08,640 que tenías, no te coges genial y te instalas. 140 00:07:08,640 --> 00:07:09,840 Si lo tienes durante unos años. 141 00:07:11,640 --> 00:07:14,200 Yo he hecho esta presentación a partir de Google Slides. 142 00:07:14,200 --> 00:07:17,440 Mientras mi organización tenga la cuenta corporativa de Google, 143 00:07:17,440 --> 00:07:18,440 podrá hacer una serie de cosas. 144 00:07:18,440 --> 00:07:21,440 ¿El día que lo dejemos de tener adiós, no? 145 00:07:22,360 --> 00:07:25,360 Y luego otra de las cosas que también es un riesgo es estar a la altura. 146 00:07:26,200 --> 00:07:29,840 La gente espera mucho de nosotros, con lo cual estamos capacitados 147 00:07:29,840 --> 00:07:31,200 para cumplir con las expectativas, 148 00:07:31,200 --> 00:07:34,200 pues este es uno de los retos de la transformación digital. 149 00:07:35,680 --> 00:07:38,920 Esto se supone que es el presente, aunque ya cada vez más me huele a pasado, 150 00:07:39,120 --> 00:07:42,600 porque ahora todo, hoy mismo había en prensa 151 00:07:42,840 --> 00:07:44,720 varias publicaciones sobre inteligencia artificial. 152 00:07:44,720 --> 00:07:46,680 Hay un artículo en El País que está bien. 153 00:07:46,680 --> 00:07:49,680 ¿Por qué se empeñan tanto los creadores de la inteligencia artificial 154 00:07:49,720 --> 00:07:51,840 en decirnos que controlar la inteligencia artificial? 155 00:07:52,920 --> 00:07:55,440 No lo dicen así, pero es como no haberla creado. 156 00:07:55,440 --> 00:07:56,680 Pero está ahí. 157 00:07:56,680 --> 00:07:59,680 Entonces, 158 00:08:00,240 --> 00:08:02,320 en las Jornadas Carey tuvimos a la directora 159 00:08:02,320 --> 00:08:05,320 de la biblioteca del MIT y ella 160 00:08:06,400 --> 00:08:09,160 nos empezó con con competitividad, que es bueno. 161 00:08:09,160 --> 00:08:12,160 ¿Yo hice una pregunta 162 00:08:12,360 --> 00:08:15,240 cuál es el futuro de las bibliotecas universitarias? 163 00:08:15,240 --> 00:08:18,720 Entonces empezó a hacer la presentación y yo se podría hacer algo parecido. 164 00:08:19,160 --> 00:08:22,080 Yo podría preguntarle en este caso a la inteligencia artificial 165 00:08:22,080 --> 00:08:24,480 que hay detrás del buscador Bing de Microsoft, 166 00:08:24,480 --> 00:08:28,560 que Microsoft tiene participación en acciones en Open. 167 00:08:28,560 --> 00:08:30,240 Y ahí 168 00:08:30,240 --> 00:08:32,760 me gustaría hacer una presentación sobre inteligencia artificial 169 00:08:32,760 --> 00:08:37,040 y bibliotecas universitarias y pues muy rápida y muy educada. 170 00:08:37,040 --> 00:08:38,800 Esta inteligencia artificial. 171 00:08:38,800 --> 00:08:41,640 Pasó un texto de unas sugerencias de recursos. 172 00:08:41,640 --> 00:08:45,880 Los algunos estaban bien, otros eran mejorables 173 00:08:45,880 --> 00:08:49,520 y de hecho hice mi búsqueda por mi cuenta y había cosas que estaban mucho mejor. 174 00:08:49,520 --> 00:08:49,880 Pero bueno, 175 00:08:51,240 --> 00:08:52,280 lo curioso es que 176 00:08:52,280 --> 00:08:56,440 esto es un poco algo que que yo creo que es lo que ya estamos viviendo. 177 00:08:56,800 --> 00:08:59,800 No sé si vosotros, yo era la primera vez que lo hacía, 178 00:09:00,120 --> 00:09:03,960 pero esto tiene la función de romper el hielo, de romper el folio en blanco. 179 00:09:04,400 --> 00:09:08,000 ¿Si lo visteis también en prensa hace una semana así 180 00:09:08,640 --> 00:09:10,400 en profesores de la UNED 181 00:09:10,400 --> 00:09:13,440 y han creado un examen de selectividad con inteligencia artificial 182 00:09:14,160 --> 00:09:17,560 y básicamente hacen en unas pocas horas lo que antes dedicaban días, 183 00:09:18,200 --> 00:09:21,320 porque lo que les da es un primer input para poder trabajar después, no? 184 00:09:21,680 --> 00:09:24,520 Bueno, uno de los artículos que recomendaba 185 00:09:24,520 --> 00:09:28,720 esta inteligencia artificial era era este que tenéis aquí, que podréis echar un ojo 186 00:09:29,400 --> 00:09:31,840 y es un artículo de hace unos seis meses más o menos, 187 00:09:31,840 --> 00:09:34,880 y viene a decir que en las bibliotecas, pues la inteligencia artificial 188 00:09:34,880 --> 00:09:38,000 puede impactar en, por ejemplo, como fuente de contenido. 189 00:09:38,520 --> 00:09:40,080 Es decir, todo nuestro contenido es big data. 190 00:09:40,080 --> 00:09:43,000 Al final, el día que toda nuestra colección, 191 00:09:43,000 --> 00:09:46,000 todos nuestros recursos, toda nuestra riqueza de información, 192 00:09:46,040 --> 00:09:48,840 se pueda procesar automáticamente, que somos big Data. 193 00:09:50,520 --> 00:09:53,520 También la inteligencia artificial como herramientas para el soporte inmediato. 194 00:09:53,720 --> 00:09:56,760 No tienes que tener al personal bibliotecario ahí. 195 00:09:56,880 --> 00:10:00,120 Tú escribes en un chatbot y algo te dará la información sobre 196 00:10:00,120 --> 00:10:03,160 cuándo abrimos, cuando cerramos o cuál es mejor la base de datos financiera. 197 00:10:06,240 --> 00:10:08,760 También hay aplicaciones que ya se está hablando. 198 00:10:08,760 --> 00:10:11,880 ¿Mucho de ello es poder detectar con mucha más facilidad dónde están 199 00:10:12,280 --> 00:10:15,120 items extraviados en la colección, no? 200 00:10:15,120 --> 00:10:17,280 Y luego también, por supuesto, para la selección de fuentes. 201 00:10:17,280 --> 00:10:20,280 Estas son algunas de las cosas que destacaban 202 00:10:21,720 --> 00:10:22,920 cuando hablamos de inteligencia artificial. 203 00:10:22,920 --> 00:10:25,720 Y como no tenemos tiempo, yo tengo poco tiempo para hablar. 204 00:10:25,720 --> 00:10:26,320 ¿De qué? 205 00:10:26,320 --> 00:10:27,520 ¿De qué estamos hablando? 206 00:10:27,520 --> 00:10:30,520 Hablamos de inteligencia 207 00:10:30,920 --> 00:10:33,800 artificial básica, que es esta que estamos viendo esto 208 00:10:33,800 --> 00:10:36,880 es que esto que estamos viendo que está tan avanzado, es bastante básico 209 00:10:38,240 --> 00:10:39,840 y de hecho no es muy nuevo. 210 00:10:39,840 --> 00:10:42,880 Los chatbots, los agentes conversacionales se en hace tiempo. 211 00:10:42,880 --> 00:10:46,080 Es posible que alguien de los que estáis aquí tengáis Alexa, 212 00:10:46,680 --> 00:10:51,000 que tengáis un asistente de estos o hayáis utilizado cualquier chatbot. 213 00:10:51,000 --> 00:10:53,880 ¿En cualquier caso, ya es inteligencia artificial, no? 214 00:10:53,880 --> 00:10:57,440 La diferencia es que ahora es mucho más potente 215 00:10:57,600 --> 00:11:01,800 y es capaz de generar muchas más cosas a partir de unas instrucciones 216 00:11:02,280 --> 00:11:05,320 o como lo llaman en la terminología técnica, unos prints a los que luego 217 00:11:05,320 --> 00:11:06,240 puedes poner parámetros 218 00:11:06,240 --> 00:11:09,480 y puedes hacer que las instrucciones sean mucho más afinadas. 219 00:11:09,720 --> 00:11:12,160 Eso es la inteligencia artificial generativa, 220 00:11:12,160 --> 00:11:14,280 que es lo que está saliendo todos los días en prensa. 221 00:11:14,280 --> 00:11:17,000 ¿Pero lo que hay detrás es 222 00:11:17,000 --> 00:11:19,040 la distopía o la utopía 223 00:11:19,040 --> 00:11:22,040 según como se desarrolle de la inteligencia artificial general, 224 00:11:22,280 --> 00:11:25,680 que también la inteligencia artificial fuerte, que es la capacidad 225 00:11:26,120 --> 00:11:30,240 auténtica de la inteligencia artificial de ser autosuficiente, 226 00:11:31,400 --> 00:11:31,680 en cierto 227 00:11:31,680 --> 00:11:34,680 modo autogestionada y quizá autoconsciente, no? 228 00:11:34,720 --> 00:11:38,160 En esta diapositiva tenéis las definiciones de Wikipedia, 229 00:11:38,160 --> 00:11:41,840 que creo que son bastante bastante didácticas y claras 230 00:11:42,400 --> 00:11:44,760 y que vienen a explicar mejor lo que yo acabo de decir. 231 00:11:44,760 --> 00:11:46,560 Ahora hablamos de inteligencia artificial, 232 00:11:46,560 --> 00:11:49,920 pero hablemos en concreto ahora de inteligencia artificial generativa. 233 00:11:50,520 --> 00:11:53,080 Y en lo que yo me voy a centrar es en la generativa. 234 00:11:53,080 --> 00:11:56,080 ¿Pero a lo mejor hacia dónde nos puede llevar una evolución de ésta? 235 00:11:57,960 --> 00:12:00,120 Entonces le damos la vuelta 236 00:12:00,120 --> 00:12:03,000 al gráfico un poco, 237 00:12:03,000 --> 00:12:06,000 ya la transformación ya no sería digital, simplemente sería 238 00:12:06,120 --> 00:12:09,600 dirigida por la o hacia la inteligencia artificial. 239 00:12:11,200 --> 00:12:14,760 Podríamos decir que las capas que antes teníamos, que son más o menos separadas. 240 00:12:15,320 --> 00:12:17,880 ¿Y esto es un poco la metáfora que yo os quería traer aquí, 241 00:12:17,880 --> 00:12:21,240 se aplanan porque dónde empieza el recurso? 242 00:12:21,680 --> 00:12:22,760 ¿Dónde empieza la aplicación? 243 00:12:22,760 --> 00:12:24,840 ¿Dónde empieza el buscador? ¿Dónde? 244 00:12:24,840 --> 00:12:26,960 Dónde empieza el bibliotecario, 245 00:12:26,960 --> 00:12:30,160 donde empieza el proceso, dónde empieza todo esto y dónde acaba. 246 00:12:30,760 --> 00:12:34,680 Antes tú tenías a la persona bibliotecaria en un sitio, 247 00:12:34,680 --> 00:12:37,680 tenías unas aplicaciones, por otro, tenías los recursos por otro, 248 00:12:37,720 --> 00:12:39,960 pero realmente todo va hacia una cierta integración. 249 00:12:41,080 --> 00:12:43,960 El bibliotecario también, porque probablemente muchas 250 00:12:43,960 --> 00:12:46,960 de las cosas que hacemos ya no las dejamos personas, sino que las hagan máquinas, 251 00:12:47,480 --> 00:12:50,280 con lo cual forman parte de este aplanamiento 252 00:12:50,280 --> 00:12:53,280 de las capas. 253 00:12:55,920 --> 00:12:58,920 Bueno, pues nos vamos a centrar un poco en algunas preguntas 254 00:12:58,920 --> 00:13:02,200 que tienen que ver con los contenidos, con las aplicaciones en los procesos, 255 00:13:02,200 --> 00:13:05,680 con nuestros edificios, infraestructuras y con nosotros 256 00:13:05,680 --> 00:13:08,680 y con nuestras competencias, y también con las de nuestros usuarios. 257 00:13:09,000 --> 00:13:12,240 Al final, de lo que se trata es de definir cuáles son posibles futuros 258 00:13:12,240 --> 00:13:12,960 modelos de servicio. 259 00:13:12,960 --> 00:13:15,960 Ya os digo que esto no lo vamos a hacer aquí. 260 00:13:16,320 --> 00:13:19,280 Esto es para que empecemos a reflexionar y a lo mejor 261 00:13:19,280 --> 00:13:22,560 los modelos de servicio los tenemos más claros dentro de una temporada. 262 00:13:22,560 --> 00:13:24,280 Ahora es quizá demasiado prematuro, 263 00:13:25,880 --> 00:13:26,600 pero antes de 264 00:13:26,600 --> 00:13:29,680 ir a estas áreas, pensemos un poco en cuáles pueden ser los futuros. 265 00:13:29,680 --> 00:13:32,760 De ahí el plural del título de la presentación que traigo hoy, 266 00:13:33,960 --> 00:13:36,760 que tienen que ver con cómo interactúan 267 00:13:36,760 --> 00:13:39,760 usuarios personal bibliotecario, 268 00:13:39,840 --> 00:13:42,960 inteligencia artificial y recursos, quién y cómo interactúan. 269 00:13:43,480 --> 00:13:45,120 Entonces, a mí se me han ocurrido unos escenarios 270 00:13:45,120 --> 00:13:48,120 que a lo mejor es más inseguro, que se os puede ocurrir alguno. 271 00:13:48,640 --> 00:13:50,080 Este es el presente, 272 00:13:50,080 --> 00:13:52,760 que no sé si lo veis bien, pero digamos que el presente 273 00:13:52,760 --> 00:13:57,360 es el escenario en el que los usuarios tienen acceso al personal bibliotecario, 274 00:13:57,600 --> 00:14:02,320 no tienen acceso a los recursos y servicios directamente. 275 00:14:02,600 --> 00:14:06,000 Entonces nosotros somos mediadores, pero en cierto modo 276 00:14:06,640 --> 00:14:08,720 cada vez somos menos mediadores. 277 00:14:08,720 --> 00:14:12,160 ¿Os acordáis de cuando las bases de datos tenían búsquedas expertas 278 00:14:12,160 --> 00:14:14,120 y teníamos que hacerlas nosotros? 279 00:14:14,120 --> 00:14:15,760 ¿Quién hace búsquedas expertas hoy en día? 280 00:14:17,520 --> 00:14:17,920 ¿Con lo cual 281 00:14:17,920 --> 00:14:20,920 se ha ido reduciendo la dependencia del personal bibliotecario, 282 00:14:21,000 --> 00:14:24,000 pero porque nosotros aportamos otro valor como formación en competencias 283 00:14:24,360 --> 00:14:27,600 o soporte a servicios avanzados 284 00:14:27,600 --> 00:14:32,040 de apoyo, de docencia o de investigación, que eso a veces le quitamos tiempo, 285 00:14:32,880 --> 00:14:35,840 le hacemos ganar tiempo al usuario porque no tiene que perder el tiempo en 286 00:14:35,840 --> 00:14:38,840 buscar lo que sea, sus inicios de impacto o todas estas cosas, no? 287 00:14:39,800 --> 00:14:44,360 Este es el presente donde la inteligencia artificial todavía no, no está. 288 00:14:44,360 --> 00:14:45,720 O sí está que está, 289 00:14:45,720 --> 00:14:48,840 porque realmente cuando buscas un recurso y te salen recomendaciones de otros, 290 00:14:49,120 --> 00:14:52,920 ahí hay algoritmos y eso es una cierta inteligencia artificial, Vale. 291 00:14:54,440 --> 00:14:56,880 Bueno, un posible futuro, lo mismo de ahora. 292 00:14:56,880 --> 00:14:59,880 Pero además tendríamos 293 00:15:00,040 --> 00:15:03,400 una interacción, cualquiera que sea, con la inteligencia artificial. 294 00:15:03,880 --> 00:15:05,200 Pero podría suceder 295 00:15:05,200 --> 00:15:08,440 que solamente el personal bibliotecario, o el personal gestor 296 00:15:08,440 --> 00:15:11,840 o alguien de la universidad tenga acceso a esa inteligencia artificial. 297 00:15:12,480 --> 00:15:14,640 A lo mejor es porque es muy cara. 298 00:15:14,640 --> 00:15:15,720 No podría suceder. 299 00:15:16,880 --> 00:15:19,880 La gratuita la tenemos todos al alcance de nuestra mano, 300 00:15:20,000 --> 00:15:23,960 pero si os habéis fijado, si entráis en Copenhague, MIT, Journey y otras, 301 00:15:25,760 --> 00:15:28,680 no sé cómo llamarlo, de aplicaciones, no 302 00:15:28,680 --> 00:15:30,840 proyectos de inteligencia artificial. 303 00:15:30,840 --> 00:15:33,840 Ya hay planes con precios. O sea, 304 00:15:34,120 --> 00:15:37,120 quien quiera tener las funcionalidades más avanzadas tendrá que pagar por ello. 305 00:15:37,280 --> 00:15:39,120 Entonces, a lo mejor nos encontramos en un escenario 306 00:15:39,120 --> 00:15:41,200 en el que esto no está al alcance de todo el mundo. 307 00:15:41,200 --> 00:15:44,240 El estudiante tendrá alcance gratuito, pero eso será limitado. 308 00:15:44,240 --> 00:15:47,240 Si quiere acceder a más, tendremos que tener otras herramientas 309 00:15:47,240 --> 00:15:50,240 y el personal investigador ya ni os cuenta. 310 00:15:51,840 --> 00:15:54,000 Otra posibilidad 311 00:15:54,000 --> 00:15:57,000 el bibliotecario puede ser intermediario o no, 312 00:15:57,480 --> 00:16:00,960 pero en cualquier caso los usuarios no tienen acceso a los recursos. 313 00:16:03,360 --> 00:16:04,680 Bueno, a lo mejor 314 00:16:04,680 --> 00:16:08,800 estas inteligencias artificiales integran los recursos o los recursos 315 00:16:08,800 --> 00:16:11,600 integran la inteligencia artificial, con lo cual está todo más claro. 316 00:16:11,600 --> 00:16:13,160 Pero digamos que el usuario podría ser autónomo. 317 00:16:13,160 --> 00:16:16,000 ¿Este futuro se parece un poco al actual, no? 318 00:16:16,000 --> 00:16:20,480 Pero con una potencia desarrollada mucho mayor que la actual. 319 00:16:21,840 --> 00:16:23,080 ¿Y luego podría haber un 320 00:16:23,080 --> 00:16:26,080 futuro mayor, que es que 321 00:16:26,840 --> 00:16:29,720 todo el mundo tiene acceso a todo, no? 322 00:16:29,720 --> 00:16:31,800 Nosotros como personal 323 00:16:31,800 --> 00:16:34,800 bibliotecario podemos actuar de intermediarios, 324 00:16:34,920 --> 00:16:37,840 pero a lo mejor cada vez somos menos necesarios. 325 00:16:37,840 --> 00:16:40,840 ¿Ya hay gente que piensa para qué quiero ir a la biblioteca 326 00:16:40,840 --> 00:16:42,920 a tener a un bibliotecario si tengo a Google? 327 00:16:42,920 --> 00:16:45,000 Esto lo habéis oído en la formación. 328 00:16:45,000 --> 00:16:48,000 ¿Para qué quiero, primo, si ya tengo Google? 329 00:16:48,200 --> 00:16:52,520 No cuesta que esto se entienda, pero es que si cuesta 330 00:16:52,560 --> 00:16:57,360 que esto se entienda ahora, imaginaos cuando se ha tan fácil como 331 00:16:58,360 --> 00:17:02,280 en un parpadeo acceder a información de alta calidad 332 00:17:02,280 --> 00:17:05,280 y bien generada por una inteligencia artificial. ¿No? 333 00:17:06,080 --> 00:17:08,760 Bueno, pues estos son posibles posibles futuros 334 00:17:08,760 --> 00:17:11,760 a los que enfrentarnos o de los que aprovecharnos. 335 00:17:12,400 --> 00:17:14,680 Vamos a ir a contenidos que esto es lo más inmediato. 336 00:17:14,680 --> 00:17:14,960 Es lo que 337 00:17:14,960 --> 00:17:18,840 todo el mundo entiende, lo que enseguida hemos empezado a ver en la prensa 338 00:17:20,040 --> 00:17:22,560 y ya sabéis que está ahora mismo muy en cuestión. 339 00:17:22,560 --> 00:17:26,880 ¿Cuál es la diferencia entre la utopía antes de la inteligencia artificial 340 00:17:26,880 --> 00:17:31,080 y a partir de ahora la inteligencia artificial sería consumidora de recursos? 341 00:17:31,240 --> 00:17:34,240 Es decir, la inteligencia es consumidora. 342 00:17:34,560 --> 00:17:37,560 ¿Con qué derechos consume? 343 00:17:38,400 --> 00:17:41,400 ¿Si accede a contenidos restringidos, 344 00:17:41,880 --> 00:17:43,200 cómo accede a ellos? 345 00:17:43,200 --> 00:17:46,200 ¿Se puede remunerar a los creadores de los contenidos de alguna manera? 346 00:17:46,440 --> 00:17:47,680 ¿Si los contenidos son libres? 347 00:17:47,680 --> 00:17:51,960 ¿Que licencias deberían aplicarse para este tipo de reutilización? 348 00:17:51,960 --> 00:17:55,800 Porque a lo mejor las licencias Creative Commons, por ejemplo, pues igual 349 00:17:57,360 --> 00:17:58,240 no encaja muy bien. 350 00:17:58,240 --> 00:18:00,320 ¿Igual va mucho más allá, no? 351 00:18:00,320 --> 00:18:03,000 El uso por parte de una inteligencia artificial 352 00:18:03,000 --> 00:18:06,000 y luego, cuando la inteligencia artificial es la generadora de contenidos, 353 00:18:06,200 --> 00:18:09,000 realmente genera contenido nuevo 354 00:18:09,000 --> 00:18:11,160 o reproduce lo existente con todos sus sesgos, 355 00:18:11,160 --> 00:18:12,720 que es lo que estamos viendo ahora. 356 00:18:12,720 --> 00:18:14,040 Es decir, yo le pido a 357 00:18:14,040 --> 00:18:15,960 que me dé información para crear una presentación 358 00:18:15,960 --> 00:18:18,520 sobre políticas universitarias y no me da nada. 359 00:18:18,520 --> 00:18:20,520 No me ha dicho no, no me ha adivinado. 360 00:18:20,520 --> 00:18:24,760 El futuro me dice qué es lo que se dice ahora, qué es lo que se está publicando. 361 00:18:25,920 --> 00:18:27,560 Esto probablemente cambiará y podrá 362 00:18:27,560 --> 00:18:30,560 tener mayor capacidad predictiva. 363 00:18:31,440 --> 00:18:33,600 ¿Y luego, claro, lo que genera la inteligencia artificial, que derechos 364 00:18:33,600 --> 00:18:34,760 tiene? 365 00:18:34,760 --> 00:18:35,400 Es muy difícil. 366 00:18:35,400 --> 00:18:38,400 Si habéis entrado a mirar cuáles son los términos de servicios 367 00:18:38,400 --> 00:18:41,400 de algunos de estos proveedores, es imposible entender nada. 368 00:18:41,400 --> 00:18:44,400 Y no está muy claro 369 00:18:45,000 --> 00:18:46,800 qué tipo de paternidad o maternidad 370 00:18:46,800 --> 00:18:49,800 tiene ese contenido 371 00:18:50,160 --> 00:18:51,840 y luego podemos reutilizarlo. 372 00:18:51,840 --> 00:18:55,000 Es bueno si lo estamos haciendo, pero como los citamos como fuente 373 00:18:55,000 --> 00:18:59,040 de estos profesores que hacían un examen de selectividad utilizando Open, 374 00:18:59,040 --> 00:19:03,600 ahí citaban algo así como examen preparado con ayuda de OpenID. 375 00:19:04,120 --> 00:19:07,280 No es una forma honesta de reutilizar 376 00:19:07,560 --> 00:19:10,560 contenido a partir de una inteligencia artificial. 377 00:19:10,680 --> 00:19:13,680 ¿Proveedores? 378 00:19:15,440 --> 00:19:17,760 ¿Tiene sentido una inteligencia artificial 379 00:19:17,760 --> 00:19:20,760 si no tiene acceso a todo el conocimiento humano? 380 00:19:22,040 --> 00:19:25,080 ¿Tiene sentido que haya cortapisas, que haya compartimentos estancos? 381 00:19:25,280 --> 00:19:26,640 Yo creo que no. 382 00:19:26,640 --> 00:19:29,640 ¿Entonces, cómo se accede a la totalidad del conocimiento humano 383 00:19:29,720 --> 00:19:33,480 sin la colaboración de proveedores de contenidos? 384 00:19:34,320 --> 00:19:37,360 ¿Entonces llegarán acuerdos con los proveedores de inteligencia artificial? 385 00:19:37,440 --> 00:19:41,040 ¿Desarrollarán ellos mismos sus inteligencias artificiales integradas 386 00:19:41,120 --> 00:19:42,560 con los recursos? 387 00:19:42,560 --> 00:19:43,680 ¿Y quién tendrá más peso? 388 00:19:43,680 --> 00:19:46,240 ¿Proveedores de inteligencia o proveedores de contenidos? 389 00:19:48,360 --> 00:19:49,840 ¿Qué pasa con las licencias libres? 390 00:19:49,840 --> 00:19:51,720 ¿Permiten la reutilización por la vía o no? 391 00:19:51,720 --> 00:19:54,720 Esto ya lo hemos hablado 392 00:19:55,520 --> 00:19:58,520 y lo algo un poquito más inquietante 393 00:19:58,800 --> 00:20:01,960 que lo que yo pensaba hace poco 394 00:20:03,120 --> 00:20:04,560 todo este movimiento de la ciencia abierta. 395 00:20:04,560 --> 00:20:07,880 Estamos alimentando la inteligencia artificial y no nos damos cuenta. No 396 00:20:09,000 --> 00:20:11,760 sería interesante reflexionar sobre ello también 397 00:20:11,760 --> 00:20:14,040 he hablado de productores, pero luego están distribuidores. 398 00:20:14,040 --> 00:20:17,320 No intermediarios. 399 00:20:18,280 --> 00:20:21,280 A lo mejor los intermediarios lo van a pasar mal. 400 00:20:22,520 --> 00:20:25,880 ¿Y que pasa con lo físico si los intermediarios digitales 401 00:20:25,880 --> 00:20:27,520 lo pueden pasar mal? 402 00:20:27,520 --> 00:20:30,120 Los intermediarios de lo físico, 403 00:20:30,120 --> 00:20:32,880 pues quizá todavía más. 404 00:20:32,880 --> 00:20:36,600 ¿Y si vamos a los recursos, pues bueno, qué va a pasar con los recursos? 405 00:20:36,600 --> 00:20:38,760 ¿Van a aumentar su precio si los proveedores tienen que pagar 406 00:20:38,760 --> 00:20:41,400 también a la inteligencia artificial, pero no son contenidos, 407 00:20:41,400 --> 00:20:44,000 tendrán que encarecer las suscripciones, por ejemplo, 408 00:20:45,040 --> 00:20:45,800 quién impondrá las 409 00:20:45,800 --> 00:20:48,800 condiciones en este nuevo ecosistema? 410 00:20:49,320 --> 00:20:52,320 Bueno, lo que decía antes de los contenidos libres 411 00:20:52,520 --> 00:20:53,760 lo tengo en esta diapositiva. 412 00:20:53,760 --> 00:20:56,760 La ciencia abierta. 413 00:20:56,800 --> 00:20:57,800 El mundo será 414 00:20:57,800 --> 00:21:00,800 mucho mejor cuanto más abierto sea el conocimiento. 415 00:21:00,920 --> 00:21:03,920 Pero también es verdad que estamos alimentando de contenido 416 00:21:04,200 --> 00:21:06,840 a este tipo de herramientas. 417 00:21:06,840 --> 00:21:09,840 ¿Los recursos físicos existirán? 418 00:21:10,320 --> 00:21:11,400 Sí, existirán. 419 00:21:11,400 --> 00:21:13,440 Habrá bibliotecas patrimoniales, seguro, 420 00:21:13,440 --> 00:21:15,000 pero si queremos usar el contenido de 421 00:21:15,000 --> 00:21:17,160 los libros físicos deberán estar digitalizados, 422 00:21:17,160 --> 00:21:20,760 porque la inteligencia artificial, de momento no tiene ojos para ver libros. 423 00:21:21,200 --> 00:21:25,320 No tendremos que alimentar de contenidos que 424 00:21:25,320 --> 00:21:28,680 hasta ahora solamente estaban disponibles si abrías las tapas de un libro. No 425 00:21:30,800 --> 00:21:33,800 seguiremos adquiriendo recursos físicos 426 00:21:34,800 --> 00:21:36,600 y luego 427 00:21:36,600 --> 00:21:39,400 la inteligencia artificial será un recurso más que tendremos que contratar. 428 00:21:39,400 --> 00:21:41,840 Nuestros presupuestos ya están escritos. 429 00:21:41,840 --> 00:21:43,400 Capítulo dos. Capítulo seis. 430 00:21:43,400 --> 00:21:46,920 ¿Será otra cosa más o formará parte de lo que ya tenemos de algún modo? 431 00:21:46,920 --> 00:21:48,240 No, no lo sé. 432 00:21:49,560 --> 00:21:50,120 Usuarios. 433 00:21:50,120 --> 00:21:51,760 ¿Qué obligaciones tendrán? 434 00:21:51,760 --> 00:21:54,880 No, esto está ahora mismo encima de la mesa, en todas partes. 435 00:21:55,600 --> 00:21:58,600 ¿Qué se entenderá por originalidad o plagio? 436 00:21:59,160 --> 00:22:02,160 No, pero también esto es de lo que más se ha hablado últimamente. 437 00:22:03,000 --> 00:22:06,000 Pero vamos, más allá de los de los contenidos, 438 00:22:07,920 --> 00:22:10,320 el acceso a la información. 439 00:22:10,320 --> 00:22:12,600 ¿Cómo vamos a buscar los recursos? 440 00:22:12,600 --> 00:22:14,360 Los buscaremos a través de primo. 441 00:22:14,360 --> 00:22:17,320 Por ejemplo, el primo será un inteligente artificial. 442 00:22:17,320 --> 00:22:19,800 El primo desaparecerá porque habrá otra cosa mejor. 443 00:22:19,800 --> 00:22:20,400 No lo sabemos. 444 00:22:20,400 --> 00:22:24,080 No accederemos directamente con intermediarios 445 00:22:24,080 --> 00:22:26,480 de inteligencia artificial a través de aplicaciones. 446 00:22:26,480 --> 00:22:28,720 No lo sabemos. 447 00:22:28,720 --> 00:22:29,520 ¿Cómo adquiriremos? 448 00:22:29,520 --> 00:22:31,240 ¿Cómo seleccionaremos? 449 00:22:31,240 --> 00:22:34,240 ¿Os imagináis que la Inteligencia Artificial 450 00:22:34,320 --> 00:22:36,320 sepa cuál es nuestro presupuesto? 451 00:22:36,320 --> 00:22:39,320 ¿Qué es lo que le interesa al usuario y qué es lo que cuesta? 452 00:22:39,600 --> 00:22:42,600 Y tengo una serie de reglas por las cuales puedo tomar decisiones. 453 00:22:42,840 --> 00:22:44,560 Es cierto que nosotros tardamos 454 00:22:44,560 --> 00:22:47,560 unas horas, a lo mejor, o algunos procesos de autorización 455 00:22:47,800 --> 00:22:50,520 para comprar un libro físico o electrónico. 456 00:22:50,520 --> 00:22:53,080 A lo mejor es cuestión de unas centésimas. 457 00:22:53,080 --> 00:22:54,600 ¿Podría ser, no? 458 00:22:54,600 --> 00:22:56,880 Hay cosas que las vamos a comprar. Siempre ha sido así. 459 00:22:56,880 --> 00:22:59,480 ¿Entonces, por qué no delegarlo en la inteligencia artificial, 460 00:23:00,960 --> 00:23:02,120 formación de usuarios? 461 00:23:02,120 --> 00:23:04,440 ¿Pero en qué va a desembocar la formación? 462 00:23:04,440 --> 00:23:06,480 ¿En que van a desembocar las guías temáticas? 463 00:23:06,480 --> 00:23:09,480 Realmente vamos a necesitar biblios guías, 464 00:23:09,960 --> 00:23:11,800 Vamos a necesitar impartir formación 465 00:23:11,800 --> 00:23:14,800 sobre cómo usar los recursos. 466 00:23:15,160 --> 00:23:18,160 Hay que seguir catalogando, hay que seguir clasificando. 467 00:23:18,360 --> 00:23:22,600 Una colega me decía hace unos días que ya habían hecho pruebas con Concha GPS 468 00:23:23,080 --> 00:23:26,080 y que la sede quedaba casi niquelada. 469 00:23:27,720 --> 00:23:28,800 ¿Qué sentido tiene 470 00:23:28,800 --> 00:23:31,800 que lo hagan personas en circulación? 471 00:23:31,800 --> 00:23:34,400 Si vamos a la desaparición, bueno, no las aparecen. 472 00:23:34,400 --> 00:23:38,040 Si dejamos de comprar libros físicos y dejamos de usar físicamente los libros. 473 00:23:39,520 --> 00:23:41,240 Y esto llevará un tiempo. 474 00:23:41,240 --> 00:23:42,720 ¿Qué va a suceder con el préstamo? 475 00:23:42,720 --> 00:23:45,520 ¿Qué va a suceder con el préstamo bibliotecario? 476 00:23:45,520 --> 00:23:48,520 ¿Quién gestionará si tiene transacciones físicas? ¿No? 477 00:23:51,880 --> 00:23:54,440 ¿O a lo mejor si la inteligencia artificial 478 00:23:54,440 --> 00:23:57,200 las gestionará en lugar de personas, cómo serán 479 00:23:57,200 --> 00:24:00,360 las nuevas generaciones de sistemas de préstamo, de auto devolución, no? 480 00:24:01,360 --> 00:24:03,240 A lo mejor es como en esas tiendas 481 00:24:03,240 --> 00:24:05,960 en las que tú coges tu camiseta, 482 00:24:05,960 --> 00:24:09,560 tú tus garbanzos, sales por la puerta, ya te han cobrado 483 00:24:09,840 --> 00:24:12,840 y no ha tenido que haber ninguna persona intermedia. 484 00:24:14,760 --> 00:24:16,640 ¿La colocación se puede rebautizar? 485 00:24:16,640 --> 00:24:20,000 No, pero eso cuesta un dineral y si no se cotiza 486 00:24:20,760 --> 00:24:21,880 serán las personas las que lo hagan. 487 00:24:21,880 --> 00:24:25,320 Es decir, pensará la inteligencia artificial y nosotros seremos ejecutores. 488 00:24:25,440 --> 00:24:30,160 ¿Esto parece que va en los peores escenarios de Skynet al 9000 y demás no? 489 00:24:31,560 --> 00:24:34,680 Evolución Indicadores Sí, la inteligencia artificial tiene todos los datos 490 00:24:35,440 --> 00:24:39,360 y tienen lo que nos interesa y le damos las reglas para elaborar informes. 491 00:24:39,640 --> 00:24:42,640 Ya no tenemos que hacer los informes nosotros no, 492 00:24:43,320 --> 00:24:45,360 esto es un aviso para las direcciones de las bibliotecas. 493 00:24:45,360 --> 00:24:46,320 Igual desaparecemos 494 00:24:49,680 --> 00:24:50,360 edificios. 495 00:24:50,360 --> 00:24:53,360 Los edificios serán cada vez más inteligentes, 496 00:24:53,400 --> 00:24:56,400 se podrán tomar decisiones de quién entra, quién no entra en un edificio 497 00:24:56,880 --> 00:24:59,240 y solo puede tomar una inteligencia artificial. 498 00:24:59,240 --> 00:25:02,160 ¿Por qué no las alas que se abren cuando? 499 00:25:02,160 --> 00:25:04,800 ¿Con qué condiciones? ¿Para qué usuarios? 500 00:25:04,800 --> 00:25:09,040 Cómo se gestionan las reservas, la iluminación, más iluminación 501 00:25:09,040 --> 00:25:13,440 en esas horas del día, hoy está nublado, mañana eso nosotros lo podemos hacer, pero 502 00:25:14,920 --> 00:25:16,480 la climatización será mucho más 503 00:25:16,480 --> 00:25:19,760 inteligente también el uso de las instalaciones lo mismo. 504 00:25:20,080 --> 00:25:23,960 Los datos los recopilará una inteligencia artificial y se podrán tomar decisiones 505 00:25:26,040 --> 00:25:28,760 profesionales y competencias. 506 00:25:28,760 --> 00:25:30,080 ¿Estamos preparados nosotros? 507 00:25:30,080 --> 00:25:31,080 ¿Cómo nos vamos a formar? 508 00:25:31,080 --> 00:25:32,680 ¿Las universidades tienen planes de formación 509 00:25:32,680 --> 00:25:37,240 que puedan formarnos a nosotros y al resto del personal en esto? 510 00:25:37,680 --> 00:25:41,160 No sólo que es lo que hay que saber de la inteligencia artificial, sino qué 511 00:25:41,160 --> 00:25:45,080 hacer con la inteligencia artificial y luego pensando en formación. 512 00:25:45,960 --> 00:25:48,600 ¿Qué va a pasar con estos modelos de competencias? 513 00:25:48,600 --> 00:25:52,800 El comp, que es el general, el disco en pedo, que es el de los docentes 514 00:25:52,800 --> 00:25:56,160 o el disco que es el de las instituciones, nuestros marcos europeos. 515 00:25:56,640 --> 00:26:00,800 He aquí puesto una captura del disco porque integra muy bien 516 00:26:01,320 --> 00:26:04,320 la función docente con la Fundación Aprende a deshacerse de los estudiantes 517 00:26:04,360 --> 00:26:06,120 y no lo veis porque es imposible leerlo. 518 00:26:06,120 --> 00:26:10,800 Casi no lo leo ni yo, pero hay cosas que como colaboración profesional, 519 00:26:12,680 --> 00:26:13,560 selección de 520 00:26:13,560 --> 00:26:16,560 recursos digitales, estrategias de evaluación, 521 00:26:17,200 --> 00:26:21,600 acompañamiento en la docencia, personalización del aprendizaje 522 00:26:22,200 --> 00:26:23,800 todo esto 523 00:26:23,800 --> 00:26:25,840 se supone que lo hacen los profesores, tienen que saberlo 524 00:26:25,840 --> 00:26:26,920 y tienen que tener competencias. 525 00:26:26,920 --> 00:26:29,400 Pero todo esto que acabo de decir podría no tener que hacerlo. 526 00:26:29,400 --> 00:26:32,400 ¿Los profesores no? 527 00:26:32,880 --> 00:26:34,720 ¿Y qué va a pasar con nuestros perfiles profesionales? 528 00:26:34,720 --> 00:26:37,640 Hay un montón de perfiles y hay un montón de documentos de reunión 529 00:26:37,640 --> 00:26:40,800 del Consejo de Cooperación de los de cada área de referencia que quizá 530 00:26:40,800 --> 00:26:43,800 los conozcáis, donde se dice a qué nos dedicamos. 531 00:26:43,880 --> 00:26:46,880 Pero es que eso a lo mejor va a cambiar. 532 00:26:48,360 --> 00:26:49,920 ¿Qué va a quedar después de la transformación 533 00:26:49,920 --> 00:26:52,040 de la inteligencia artificial? ¿El personal en mostradores? 534 00:26:52,040 --> 00:26:54,360 Será necesario que desaparece la circulación. 535 00:26:54,360 --> 00:26:56,200 Si desaparece el primer nivel de información 536 00:26:58,080 --> 00:27:01,240 en los despachos, Si las adquisiciones se me automatizan, 537 00:27:01,240 --> 00:27:04,160 si la catalogación, la clasificación la hace la internamente artificial, 538 00:27:04,160 --> 00:27:07,160 si la recomendación de fuentes la hace una inteligencia artificial, 539 00:27:08,840 --> 00:27:11,840 servicios avanzados de apoyo, docencia, investigación. 540 00:27:12,240 --> 00:27:12,520 No sé. 541 00:27:12,520 --> 00:27:15,000 Por ejemplo, nosotros ayudamos a profesores a crear vídeos. 542 00:27:15,000 --> 00:27:16,040 Pues que dentro de nada 543 00:27:16,040 --> 00:27:19,040 los hábitos donde salen ellos tienen que hacer el guión y tal. 544 00:27:19,240 --> 00:27:22,240 Pues que dentro de nada ya hay gente que está utilizando 545 00:27:22,360 --> 00:27:25,120 inteligencia artificial para crear guiones y para hacer vídeos. 546 00:27:25,120 --> 00:27:28,560 Hay empresas que tienen proyectos de hacer películas sin intervención humana. 547 00:27:29,680 --> 00:27:32,240 ¿Por qué no un profesor, una profesora? 548 00:27:32,240 --> 00:27:34,520 Quiero un vídeo sobre 549 00:27:34,520 --> 00:27:38,040 el concepto de producto Interior Bruto de que dure tres minutos 550 00:27:38,040 --> 00:27:42,080 y con estas variables no tiene ni que salir delante de la cámara. 551 00:27:43,480 --> 00:27:44,880 Dirección de Gestión Ya lo he dicho. 552 00:27:44,880 --> 00:27:46,200 ¿A qué nos vamos a dedicar? 553 00:27:46,200 --> 00:27:49,200 ¿Quienes gestionamos equipos o quienes gestionamos servicios? 554 00:27:50,040 --> 00:27:53,000 ¿Quién va a tomar decisiones? 555 00:27:53,000 --> 00:27:54,240 Y todo esto desemboca 556 00:27:54,240 --> 00:27:57,240 en la definición de modelos de servicio que todavía están por ver. 557 00:27:57,560 --> 00:28:01,680 La IFLA hace unos años, y es un documento que podría parecer antiguo por la fecha, 558 00:28:01,680 --> 00:28:04,920 pero claro, es que viéndolo con calma está bastante bien. 559 00:28:05,480 --> 00:28:08,320 Habla de algunas claves, claves que tienen que ver cómo integramos 560 00:28:08,320 --> 00:28:12,160 la tecnología en nuestros servicios y en nuestros trabajo cotidiano. 561 00:28:12,400 --> 00:28:13,320 ¿Cómo funciona? 562 00:28:13,320 --> 00:28:15,880 ¿A lo mejor es más formativa que nunca, 563 00:28:15,880 --> 00:28:20,200 como podemos tener un componente ético en nuestra capacidad para ayudar 564 00:28:20,200 --> 00:28:24,200 a desarrollar la inteligencia artificial allí por donde sea más adecuado? 565 00:28:25,200 --> 00:28:27,360 Y luego algunas recomendaciones que dice La isla 566 00:28:27,360 --> 00:28:30,360 es ayudar a los usuarios a desarrollar competencias digitales, 567 00:28:30,720 --> 00:28:33,720 hacer posible el aprendizaje permanente de la inteligencia artificial. 568 00:28:33,720 --> 00:28:36,720 Yo creo que puede ser una herramienta fantástica para el aprendizaje permanente. 569 00:28:37,200 --> 00:28:38,160 ¿Tú le pides, tú 570 00:28:38,160 --> 00:28:41,160 no tienes ni idea de física cuántica, pero le dices que te explique 571 00:28:41,160 --> 00:28:45,320 la física cuántica para un lego y te lo explica y lo entiendes, no? 572 00:28:46,240 --> 00:28:50,200 Y no necesitas irte a una publicación de divulgación científica a lo mejor. 573 00:28:52,240 --> 00:28:54,200 Y bueno, también podemos 574 00:28:54,200 --> 00:28:57,360 tener una función como cierta vigilancia de que se cumplen las normas éticas, 575 00:28:57,360 --> 00:29:00,360 las normas de protección de datos de propiedad intelectual. 576 00:29:01,920 --> 00:29:04,000 No vamos a las conclusiones muy rápidamente. 577 00:29:04,000 --> 00:29:07,000 Los usuarios son el centro, son lo más importante. 578 00:29:07,520 --> 00:29:10,640 ¿Entonces, cómo hacer para que los usuarios tengan el mejor servicio? 579 00:29:11,280 --> 00:29:14,960 Pues sí, vamos a interactuar personal bibliotecaria, 580 00:29:14,960 --> 00:29:17,960 inteligencias artificiales y recursos de servicios. 581 00:29:18,120 --> 00:29:20,400 Tenemos que empezar a pensar ya en modelos de servicio 582 00:29:20,400 --> 00:29:23,400 para dar ese valor a nuestros usuarios. 583 00:29:23,640 --> 00:29:26,640 ¿Y vuelvo a la cita de Aristóteles 584 00:29:26,760 --> 00:29:28,520 El futuro está en nuestras manos 585 00:29:28,520 --> 00:29:31,520 o deberíamos intentar que está en nuestras manos? ¿No? 586 00:29:31,800 --> 00:29:36,320 Y quiero acabar con este extracto de un artículo de Dídac Martínez, 587 00:29:36,320 --> 00:29:39,960 que es el director de la Biblioteca de la Universidad Politécnica de Cataluña. 588 00:29:41,160 --> 00:29:41,880 Es muy reciente, ya 589 00:29:41,880 --> 00:29:44,880 hace un par de semanas así y 590 00:29:45,760 --> 00:29:48,600 yo creo que voy a acentuar las cosas claves. No 591 00:29:48,600 --> 00:29:51,200 pensemos, pensemos que la inteligencia artificial 592 00:29:51,200 --> 00:29:53,480 va a mejorar nuestra vida de manera inimaginable. 593 00:29:53,480 --> 00:29:56,000 Esto es, en el mejor de los escenarios. 594 00:29:56,000 --> 00:29:59,000 ¿Pero hay que regularla o hay que supervisarlo? 595 00:29:59,600 --> 00:30:03,960 Hay cuestiones éticas, económicas, políticas, geopolíticas también. 596 00:30:03,960 --> 00:30:06,720 ¿De quién desarrolla la inteligencia artificial? 597 00:30:06,720 --> 00:30:09,720 Tenemos que intentar que vaya a nuestro favor, no en nuestra contra. 598 00:30:11,200 --> 00:30:14,400 Y luego también a mí me encanta como acaba cuando dice deberemos 599 00:30:14,520 --> 00:30:17,520 también educar la inteligencia artificial en su estado infantil. 600 00:30:17,680 --> 00:30:20,720 Y es que está en estado infantil, pero dentro de nada 601 00:30:20,720 --> 00:30:24,160 puede ser un adolescente y todos sabemos como son los adolescentes. 602 00:30:25,240 --> 00:30:27,960 Y entonces no sé, a lo mejor podemos conseguir que haya 603 00:30:27,960 --> 00:30:32,280 una inteligencia artificial adulta al servicio de nuestros servicios 604 00:30:32,280 --> 00:30:35,280 adultos y de nuestros objetivos adultos. 605 00:30:35,760 --> 00:30:38,760 Así que creo que nada más no sé si da tiempo a alguna pregunta, 606 00:30:38,760 --> 00:30:39,760 si alguien quiere preguntar algo, 607 00:30:39,760 --> 00:30:41,640 aunque como decía antes, no tengo ni idea de esto. 608 00:30:43,440 --> 00:30:44,360 Estoy de vuestra disposición.