Soy Fernando Pescador. Soy el vicerrector de para Universidad Digital y dentro de las actividades que hacemos en nuestro vicerrectorado. No sé si todo el mundo conoce la Oficina de Atención al Docente. La Oficina de Atención al Docente es una cosa nueva que hemos puesto en marcha y que integra lo que anteriormente era innovación educativa, con lo que anteriormente era el GATE. Y dentro de las actividades que estamos haciendo entre en esta oficina está la puesta en marcha de lo que hemos llamado talleres tecnológicos. Ahora, en concreto Primavera Tech, donde lo que tratamos es de dar formaciones cortas muy orientadas a temas que pensamos de interés y a lo largo de toda la primavera os habrá llegado el correo. Vamos a ir teniendo sesiones de cosas de algunas de IA. Y en concreto hoy pues vamos a empezar una sesión. Vamos a empezar una serie de sesiones relacionadas con cuántica. Bueno, creo que no hace falta decir que la cuántica ahora se escucha por todos los lados. Es un poco la tecnología que parece ser más disruptiva en los próximos años y nos hemos animado a organizar alguna sesión relacionada con cuántica. En concreto, hoy hemos hecho una sesión tirando la casa por la ventana presencial y con una parte práctica que creemos que es relevante para que todos, incluido el que os habla, pues empieza a tocar un poco cosas y empecemos a saber un poco qué herramientas tenemos para poder trabajar con esta tecnología que hasta ahora, pues digamos, está ubicada en algunos espacios donde no es fácil acceder, pero que actualmente nos gustaría empezar a democratizarla, que todos tengamos acceso y que podamos ver qué posibilidades tiene. ¿Vale? Y en esa línea, pues hemos invitado hoy dentro de un acuerdo marco que tenemos con IBM. La UPM tiene un acuerdo general de colaboración con con IBM, en el que se desarrollan diferentes actividades. Bueno, pues una de ellas es la actividad de formación y acceso a recursos y es, digamos, un poco en el marco en el que se circunscribe esta sesión que hemos organizado hoy. Bueno, lo hemos organizado con, digamos, no demasiado tiempo, pero la verdad es que la respuesta que hemos tenido por parte de IBM ha sido excelente. Agradecer a Cristina que está por aquí en algún sitio, que es la responsable de universidades de IBM, que nos ha ayudado muchísimo para poder organizar esto. Y a Ivania Ginés, que son los speakers que nos hemos traído hoy. Ambos han trabajado o trabajan en el departamento de investigación de IBM. O sea que están más cercanos a la parte técnica que a la parte comercial y que en dos charlas separadas nos van a contar en primer lugar una breve introducción o unos conceptos básicos para que podamos entender qué es la cuántica. Quizá alguno de vosotros, pues, le sea más útil que a otros y a las 11:30 haremos un descanso. Hemos preparado un café para poder charlar un ratillo mientras descansamos un poco y en una segunda sesión vamos a hacer algo un poco más práctico, intentando ya acceder a recursos, viendo recursos. Y bueno, pues intentando entrar un poco más en el detalle, obviamente. Pues habrá algunos de vosotros que os interese más la primera, otros la segunda. A mí me interesan mucho las dos. Vamos a intentar grabar las dos sesiones, ya he dicho, la dejaremos disponibles y pues nada, esperemos que esto sea de utilidad. Deciros que presencialmente se habían apuntado 190 personas. ¿Ahora no estamos aquí 190 Alguna persona se ha ido incorporando y on line? Pues ya os contaré cuántas personas han asistido. Lo cual nos lleva a pensar que evidentemente este es un tema que tiene interés, tiene tirón y que hay necesidad de conocer en la comunidad. Así que yo no me entretengo más. Agradecer a los ponentes que hayan venido y hayan preparado dos sesiones de hora y media y pues confiemos en que todo, todo salga bien y que sea de mucho interés para todos. Así que como se dice en los ingleses de Flores. George Muchas gracias Fernando. Hola buenas, yo soy Iván Cantero, soy parte de de IBM. Llevo 15 años en IBM, sobre todo estado centrado en área de en el área de la ciberseguridad. Y bueno, por motivos que comentaremos luego, como la. Hay ciertas implicaciones en de la computación cuántica que afectan al área de la ciberseguridad y acabo cerca de la computación cuántica. Ahora soy embajador cuántico dentro de IBM, es decir, estoy relacionado con la computación cuántica. Ha estado dos años en research en IBM desde desde hace dos años, y yo voy a hacer 1/1, la de introducción a la computación cuántica y después va a ir mi compañero Ginés, si te quieres presentar ya. Bueno. Yo soy. Yo soy Ginés Carrascal y también compañero de Iván. Trabajo en en IBM desde hace más años de los que quiero admitir. Digamos que vi el efecto 2000 en IBM y y trabajo ahora en el equipo de Richard, también en la aplicación de computación cuántica y en la búsqueda de aplicaciones prácticas de la computación cuántica. Así que a ver si podemos también ver cómo cómo acceder a todo esto, que es un campo muy interesante para. ¿Igual que cuando decimos para qué sirve la computación cuántica? Igual que para qué sirve la computación sirve para todo lo que necesitemos calcular. Así que a ver si desde aquí despertamos posibilidades interesantes hay. Bueno, pues vamos a empezar con la introducción. Cuando hablamos de computación cuántica, de lo que estamos hablando es de hacer computación distinta a la que estamos acostumbrados a la computación clásica. En la clásica tenemos por el electromagnetismo la dejar pasar corriente o no, los transistores, todas estas cosas, las puertas a las puertas OR y con eso vamos creando circuitos más y más complejos, pero siempre utilizamos las mismas leyes para poder computar y implementar los problemas a los que nos enfrentamos al día a día. Trasladarlos a algo que podemos ejecutar en esos circuitos y obtener unos resultados. Con la computación cuántica digamos que lo que vamos a utilizar es las leyes de la mecánica cuántica, las leyes que rigen cómo se comportan las cosas en la escala atómica, los electrones, los átomos, los espines, las moléculas, todas estas cosas, que son unas leyes un tanto, son distintas a lo que estamos acostumbrados a ver en la escala macroscópica. Y básicamente son esas propiedades que vemos ahí, la superposición, el entrelazamiento y la interferencia en nuestro nuestro día a día. Por poneros un ejemplo, las cosas vosotros estáis de pie o estáis sentados, pero no podéis estar de pie y sentados a la vez. Pues en el mundo de las cosas pequeñas, de las cosas cuánticas sí que pasa eso. ¿La superposición, que es la primera de estas propiedades, básicamente quiere decir eso que las cosas pueden estar en dos estados a la vez? Hablaremos un poquito más adelante. Pero. Pero bueno, que sepáis simplemente que lo que queremos es utilizar las propiedades de la mecánica cuántica para computar de una forma distinta. Eso nos va a permitir hacer ciertas cosas que no podemos hacer en el mundo de la computación clásica. La ley de Moore que todos conocéis, pues está llegando, parece que llega a su límite. Ya no podemos reducir el tamaño de los transistores mucho más y llegamos a ciertos límites. Y lo que esperamos es que con la computación cuántica podemos podamos llegar un paso más allá y llegar a resolver cosas que con la computación clásica no podemos resolver. No pretendemos resolver todas las cosas con computación cuántica, No, no queremos reemplazar los portátiles, los móviles. Todas estas cosas que utilizamos hoy en día, que son muy eficientes, nos sirven para. Para ejecutar Word no necesitamos un ordenador cuántico ya con lo que tenemos. Es muy eficiente, barato y nos vale, pero sí que hay ciertas cosas que no podemos llegar con computación clásica y quizá con la computación no podemos llegar con la clásica y quizá con la cuántica podamos podamos llegar a ello. Entonces estáis acostumbrados al mundo de los bits de la computación clásica. Los bits, que pueden ser un cero o un uno, y tenemos unas puertas lógicas clásicas. Ahí tenéis una puerta ante una puerta X or y con eso vamos haciendo circuitos más y más y más complejos. Hasta bueno, todos sabéis las cosas que podemos hacer hoy en día. Pero en el mundo de la computación cuántica lo que tenemos son qubits. Es el equivalente del bit en el mundo cuántico y y un qubit no solo puede ser cero o uno, sino que puede ser una combinación de ambos y lo podemos representar en lo que llamamos el blog Sir. ¿O sea, imaginaros que sería una flecha que puede estar apuntando a cualquier punto de esa de esa esfera, vale? Es decir, básicamente que tiene mucha más información que ser un cero o un uno. Depende de un desde ese punto, pues la información que tenemos ahí es mucho más que digamos que el qubit es mucho más rico en la información que almacena que el bit y a la derecha lo que veis es un circuito cuántico en el que tenemos una serie de puertas que son distintas. También podemos ejecutar NOT, por ejemplo, una puerta NOT en el mundo cuántico. Pero pero tenemos otras puertas que no tenemos en el mundo clásico. Vale lo que tenemos de izquierda a derecha, a la izquierda, digamos. Lo que tenemos es dos qubits en ese circuito. Básicamente cuando tenemos un ordenador cuántico lo programamos de uno clásico con ceros y unos. Hacemos la magia cuántica ahí en el medio y al final lo que hacemos es medir y volvemos a tener ceros y unos. Cuando ejecutamos las puertas rojas esas medimos y volvemos a tener ceros y unos. Entonces la magia de lo cuántico es lo que podemos hacer hoy en medio, en esas puertas azules entre medias. ¿Vale? En un estado, el estado de un qubit, como decía, es puede ser una combinación de un del cero y uno del estado cero y el estado uno y se representa. A ver si veis el ratón igual, un poco pequeñito. A qué cero más Beckett uno. Voy a meterme un poco en harina. Va a ser un momento nada más. Vale, pero luego volvemos, subimos un poco de nivel. Básicamente esto lo que quiere decir es que tenemos. Una cantidad de cero y una cantidad de uno en ese estado, en ese qubit. Vale, no solo tenemos un cero o uno, sino que tenemos una cantidad de cero y una cantidad de uno. La A es lo que nos determina cuánto de cero tenemos y la B cuánto tenemos de uno. Y básicamente lo que pasa es cuando llegamos a la puerta roja, la de medir. Vamos a medir y vamos a volver a tener un cero o un uno, como en el mundo clásico. ¿Vale? ¿Y en función de que vamos a tener 1011, pues en función de esa Isabel que nos va a determinar la probabilidad de obtener un cero o un uno cuando midamos, Vale? Repito, al final cuando medimos tenemos ceros y unos, pero en un estado previo, cuando estamos trabajando con ese qubit en un estado mágico, vamos a llamarle. Por ahora tenemos una combinación de ambos estados y podemos hacer cosas más complejas. Entonces, en función de esa ISB, esos dos coeficientes nos van a determinar la probabilidad de obtener un cero o uno cuando medimos. Pero ese que eso de que tengamos una parte de cero o una cantidad cero y una cantidad de uno es lo que se llama la propiedad de la superposición. Vale, lo que os decía antes, vosotros estáis sentados o de pie, pero no podéis estar las dos cosas a la vez. Pues en el mundo de las cosas cuánticas, si pasa eso, realmente vale ya pensar que es algo muy extraño el hecho de que algo pueda estar en dos estados a la vez. Eso es una de las cosas curiosas de de la cuántica. Vale. Entonces podéis ver a la derecha de nuevo En verde a qué cero y uno, que es como se representa la rayita esa con el ángulo a la derecha que cero y que uno y y de nuevo pues hay ver son los coeficientes que nos van a determinar cuánto tenemos de A y cuánto tenemos, cuánto tenemos de cero y cuánto tenemos de uno. Vale. En esta esfera de blog a la izquierda. Digamos que si tenemos la flecha que os decía apuntando hacia arriba, lo que vamos a tener es un cero, y si esa flecha la tenemos hacia abajo, vamos a tener un uno, ese va a ser cero o va a ser uno, es decir, vamos a tener como si fuera un bit. Ahí no tiene ninguna gracia, tenemos lo mismo. La gracia está en que si movemos esa flecha a cualquier punto del Ecuador, lo que vamos a tener es en un 50% de las veces que midamos ese cubo vamos a tener un cero y otro 50, vamos a tener un uno. Y eso en el mundo, en el mundo clásico lo podemos tener. También podemos tener algo que sabemos que cuando por ejemplo un dado lo tiramos la mitad de las veces base cero y la mitad va a ser uno, no tiene, no tiene mucha gracia, pero la gracia está en que realmente cuando tenemos el estado cuántico de superposición en el mismo momento vamos a tener la mitad. Va a estar en esos dos estados a la vez. Es como si el dado estuviera en un estado que es par o impar a la vez. Es cierto que cuando el dado lo tiras vas a tener vas a obtener 111315 impar o 124 o seis par, pero en ningún momento vas a tener el dado en una superposición de par o impar. O es par o es impar. Vale, entonces la gracia de la cuántica está que en ese momento en el que tenemos el estado, el el estado del qubit en superposición va a estar en ambos estados a la vez, y las operaciones que haga sobre ese qubit se van a producir sobre ambos estados a la vez. Vale, Y al final medimos y vamos a tener un cero o un uno. Pero la gracia está en qué podemos hacer en ese estado en superposición que no sea útil y que cuando midamos y obtengamos ceros y unos en base a esas probabilidades, lo importante es qué hemos hecho ahí en medio. Y eso nos tiene que resultar útil. No os preocupéis si ahora no lo pilláis, pero. Pero bueno, por lo menos para que tengáis una intuición de por dónde está la la magia de la computación cuántica, que es básicamente qué puedes hacer hoy medio mientras que tienes esos estados cuánticos y el encontrar qué puedes hacer hoy en medio para que sea útil y que al medirlo al final te va a dar ceros y unos, no es trivial, no es trivial. Qué hacer ahí que sea, que sea útil, vale. Vale, esto lo hemos comentado ya. Bueno, al final el A y el B, esto es coeficiente. No son números reales, ni enteros, ni lo que son números imaginarios. Vale, entonces podemos tener, como en este ejemplo de aquí podemos tener raíz de dos partidos que es cero raíz de dos partidos que uno, y eso sigue siendo 50% de las veces obtengo cero 50 veces uno, pero podemos tener raíz de tres partidos que cero y -1 medio y que uno. Y lo que tenemos es que el 75% de las veces voy a obtener un cero. ¿Por qué? Porque esa medida, lo que se perdón, la probabilidad que lo tenía por aquí antes que nos lo contado. La probabilidad se calcula como el valor absoluto de esa o se ve al cuadrado. Vale, con eso es con lo que vamos a tener la probabilidad. Cogemos el A o el B, valor absoluto al cuadrado y ya sabemos la probabilidad de obtener el cero o el uno. Vale de nuevo. Este a valor absoluto al cuadrado y sabemos la probabilidad de obtener un cero cuando lo midamos. Y lo mismo con con el B. Entrelazamiento es una propiedad que nos permite poner dos qubits en un estado de entrelazamiento y que esos qubit están fuertemente relacionados entre sí, de tal forma que aunque eso es lo separemos muchísimo, cuando miramos el uno, automáticamente sabemos lo que el valor del otro. Son dos unidades de información, dos qubits que vamos a poner un estado entrelazado y que cuando miramos la una sabemos automáticamente lo que mide la otra, están relacionadas entre sí fuertemente. Esto es algo que no pasa en el mundo. En el mundo clásico tampoco. Cuando tenemos dos qubits podemos tener en superposición cuatro estados a la vez, podemos tener el cero cero, el 0110 y uno uno. O sea, vamos a tener cuatro coeficientes aquí el A, B, C y D que nos van a determinar con qué probabilidad vamos a obtener cero cero con qué probabilidad vamos a tener uno, con qué probabilidad vamos a tener uno cero y con qué probabilidad uno uno En el mundo de los bits tendríamos o bien tenemos cero cero o bien 011011, Pero no podemos tener una superposición de los cuatro estados a la vez. Aquí vamos a tener los cuatro estados a la vez. Podemos ponerlo en superposición y operar en esos cuatro estados a la vez. Vale, es una cosa que crece de forma exponencial con tres qubits. Tenemos ocho estados a la vez sobre los que poder computar. Con cuatro qubit tenemos dos a la cuatro, 16, qubit, 16 estados con los que poder computar la vez y esto crece exponencialmente. Entonces de nuevo estos coeficientes a, b, C y d valor absoluto al cuadrado nos van a determinar la probabilidad de obtener cada uno de esos cero cero o 11011 y cuando. Ponemos un estado dos qubit en un estado entrelazamiento dos de estos coeficientes a, b, c o d van a ser cero. O sea, solo vamos a tener la opción de de obtener dos de esos valores y además no vamos a poder separar los qubits. ¿Qué quiere decir esto? Que si tenemos un estado de este tipo, fijaros que hemos pasado del estado en el que teníamos las cuatro opciones 000110 y uno uno. Ahora solo tenemos dos opciones porque no hemos puesto un estado X. Vale este de aquí raíz dos partido 20000 y raíz de dos partidos que uno. Eso quiere decir que con un 50% por salir vamos a tener 100 o 101. Cuando miramos, fijaros que debajo hay otros dos estados, pero en el primero de ellos eso no es un estado entrelazado. Los dos de abajo si son estado entrelazado. ¿Por qué? Porque fijaros que aquí lo que tenemos son dos qubits, el primero va a ser cero y el segundo va a ser cero. Y en el caso de la derecha el primero va a ser cero también y el segundo va a ser uno. ¿Qué quiere decir eso? Que cuando miramos el primer qubit vamos a tener un cero siempre. En ambos casos tenemos un cero en el primer qubit y hemos dicho que entre lanzamiento. Cuando miramos el valor de uno de los qubits, sabemos automáticamente el valor del otro. En este caso, cuando miramos el primer qubit cero, el segundo puede ser un cero o un uno. No vamos a saber el valor del otro. Por tanto, este estado no es entrelazado. Pero en los siguientes dos ejemplos. Cuando miramos un cero sabemos que el de la derecha es un uno y cuando miramos un uno, este va a ser un cero. Y en el ejemplo de abajo, cuando miramos un cero sabemos que el otro es un cero. Cuando miramos un uno, el otro es un uno siempre vale, Entonces esos dos, esos dos estados de abajo, si son entrelazados. Ya termino con el con el rollo nos ponemos un poquito más alto nivel y esto como como se puede ver de otra forma, pues simplemente que si tenemos este estado de aquí de nuevo el 0001 lo podemos, podemos sacar el el estado del primer qubit fuera y decir qué es cero y entre paréntesis aquí tendríamos el segundo qubit. Si podemos separar el primer qubit, sacarlo de ese estado, dejarlo fuera quiere decir que no está entrelazado. Sin embargo, en el los dos ejemplos que teníamos abajo, el 0011, por ejemplo, no podemos sacar ninguno de los qubits fuera. No se puede alistar ninguno de los qubit porque están entrelazados entre sí. Vale, bueno, esto lo lo voy a dejar aquí cuando veáis las slide de nuevo, si queréis le dais otra vuelta. Pero para que sepáis un poco por dónde va este tema del entrelazamiento, decíamos las puertas. Tenemos un número de puertas más rico. Todo lo que podemos ejecutar en el mundo clásico lo podemos ejecutar en el mundo cuántico. Pero como decía antes, no tiene sentido que ejecutemos un Word en un ordenador cuántico. Esto lo vamos a dedicar fundamentalmente a hacer cosas donde no podemos llegar con lo clásico. Vale, algún ejemplito más interferencia. Esta es otra de las propiedades, que esto es algo de la misma forma que que lo que vemos en el mundo clásico con las ondas, las olas del mar que interfiere entre sí. Cuando se juntan dos, se hacen el doble grande o se anulan entre sí. Esa propiedad la podemos utilizar en el mundo de las cosas cuánticas. Para, para, para operar. En este ejemplo de la derecha, lo que hemos hecho básicamente es con tres qubit tenemos dos a la tres estados que podemos codificar, o sea, podemos tener ocho estados en paralelo desde el 000 001 010 hasta el 111. Con lo que hacemos es con esos tres qubits poner una superposición de los ocho estados y operar a la vez con los ocho estados y jugando con esta interferencia. Básicamente podéis ver que lo que hacemos con algoritmo en concreto es que conseguimos que lo que es la solución a nuestro problema vaya teniendo más probabilidades de ser el resultado. Cuando miramos al final eso, lo que vamos a hacer es poner una superposición de todos esos estados. Operamos de cierta forma que maximizamos las propiedades, las probabilidades de medir la opción correcta que el propio algoritmo haga que se maximicen esas propiedades. Nosotros, obviamente de primeras, cuando estamos intentando resolver un problema, no sabemos cuál es la solución correcta. Lo que hacemos es poner una superposición de estados, todos los estados y con ese algoritmo que ejecutamos, las probabilidades de obtener el resultado, las probabilidades de obtener el resultado correcto se van a maximizar. Para que lo veáis de forma visual rápida, ahí tenemos la las mismas probabilidades de obtener todos los estados y lo que hacemos es dar la vuelta al estado correcto que el algoritmo de la vuelta al estado que es el correcto y lo volvemos a dar la vuelta y maximizamos esas probabilidades de obtener el resultado correcto. Esto es para que lo veáis de forma visual. Entender el algoritmo es un poco más complejo, pero. Pero bueno, para que tengáis una idea de cómo esto y esto lo hacemos con la interferencia, vale, dejo de soltar rollo ya. La. Una molécula de cafeína es una molécula muy sencillita por los elementos que tiene, pero simular el estado energético, una molécula de cafeína con computación clásica es muy complicado. Muy, muy, muy complicado. Tan complicado que necesitaríamos diez a la 48 bits en un ordenador clásico, diez a la 48 bits es el 10% de todos los átomos de la Tierra. O sea, es imposible tener un ordenador de 10 a 48 bits para poder simular de forma real el estado energético de una de una molécula de cafeína. Y es una molécula muy sencillita. Si hablamos de proteínas, de medicamentos, de cosas de estas que son muy muy complejas, imaginaros lo que se hace hoy en día. Son aproximaciones, métodos heurísticos que nos ayudan a entender los problemas, a llegar a soluciones que no son válidas. ¿Pero realmente no podemos hacer esa simulación de forma real, vale? Esto tiene muchas implicaciones. Por ejemplo, las farmacéuticas, como no pueden simular una proteína, un un nuevo, una nueva molécula que están diseñando para para que sea para curar cualquier cosa. Al final, lo que tienen que hacer es un montón de candidatos durante unos procesos de diez años, 12 años que van evaluando, van entendiendo cómo se comportan esas moléculas hasta que al final dicen oye, pues este estos son candidatos, vamos a probar en monos, en ratas, en lo que sea, hasta que llegan a nosotros y se tiran 12 años simulando esas moléculas. ¿Cómo funcionan? Para entender bien cómo se comportan, pues en un ordenador cuántico, simular esta molécula de cafeína requeriría 160 qubits lógicos con 160 qubits lógicos. Ya podemos simular realmente como se comporta esa molécula de cafeína. ¿160 No parece un número muy grande, no? Pues realmente lo que estamos hablando es de que como la computación cuántica lo que utiliza es las propiedades de la mecánica cuántica, de cómo se comportan los átomos, las moléculas, esas partículas a pequeña escala. ¿Pues por qué no utilizar la computación cuántica para simular las cosas cuánticas? Vale, parece que tiene sentido que de forma natural un ordenador cuántico va a ser mucho más eficiente para simular cosas cuánticas. Entonces, dentro. Y tenemos un objetivo fundamental en Bien Quantum, que es desarrollar una computación cuántica que sea útil para para el mundo, que nos ayude a resolver problemas del mundo real. Por continuar con el ejemplo, a desarrollar nuevos medicamentos, acortar los ciclos de desarrollo son medicamentos, pero hay otros muchos casos de uso en los que creemos que puede aportar. ¿Qué retos tenemos para encontrar una computación cuántica que sea útil? Primero, estamos en un escalar ese hardware. Ahora estamos por encima de los 100 qubits en los que podemos ejecutar algoritmos y obtener unos resultados que sean útiles. Necesitamos escalar ese hardware para poder ejecutar cosas más y más complejas y necesitamos poder mapear problemas interesantes del mundo real que donde no llegamos con la clásica a algo cuántico. Vale, como os comentaba antes, no es trivial el qué podemos hacer en ese ordenador cuántico que tenemos que programar con ordenadores normales y al final lo vamos a leer y vamos a estar resultados en ordenadores normales. Qué podemos hacer hoy en medio para para que no sea útil esos estados mágicos cuánticos con los que podemos operar no es trivial y estamos trabajando en eso, en casos de uso en distintas industrias, con universidades, con, con distintos consorcios, en muchos ámbitos distintos, para intentar encontrar esos casos de uso y cómo llevarlos a un ordenador cuántico que podamos, algo que podamos ejecutar con la escala de ordenadores que tenemos hoy en día y con las técnicas que tenemos para ejecutar algoritmos para corregir errores y que no sean útiles. Vale. Vale, el circuito en blanco representaría los problemas que a los que nos podemos enfrentar hoy en día con con ordenadores clásicos y como decía antes, el círculo rosa, tenemos sabemos que hay X problemas, que vamos a poder llegar con computación cuántica donde no llegamos con lo clásico y repito lo lo que podemos hacer con lo clásico lo podemos hacer con lo cuántico también, pero no es nuestro objetivo. Nuestro objetivo es llegar a hacer algo más, pero no creemos que vayamos a resolver todos los problemas del mundo con computación cuántica. Tampoco vamos a utilizarlo para hacer ciertas cosas y utilizarlo donde no sea útil realmente. ¿Qué cosas estamos haciendo? Bueno, eso es una representación representación de un ordenador cuántico. No sería visto alguno alguna vez, pero son. Son muy chulos cuando lo ves de cerca. Estamos trabajando, como decía, en escalar estos ordenadores a un tamaño que nos sea útil, que podamos ejecutar cosas importantes. Tenemos. Ahora os enseñaré los roadmap que tenemos de de desarrollo de la tecnología. Tenemos un roadmap de desarrollo y otro de innovación. Tenemos una comunidad, la más importante del mundo, de un ecosistema con partners de que están creando soluciones sobre nuestro hardware. Tenemos universidades, tenemos startup, tenemos integradores, hay muchos, muchas entidades que están dentro de nuestra comunidad y al final lo que lo que creemos es que no vamos a ganar esta carrera solos. Necesitamos que universidades, que haya investigación, que haya que haya muchas empresas que apuesten por esto y que entre todos vayamos avanzando. ¿Vale? Y. Estamos hemos desarrollado Qiskit, que es el framework para utilizar la computación cuántica. Es el de largo, el framework más utilizado en el mundo. Y bueno, como hay ciertas implicaciones negativas de la computación cuántica, también estamos involucrados en desarrollar soluciones para para esa parte negativa que viene de la mano de la computación cuántica. Para que veáis simplemente una idea de las pruebas de concepto de computación cuántica que se están ejecutando, hay un crecimiento brutal en distintas industrias. Cada vez hay más empresas de estas. De las 500 empresas más grande del mundo, hay muchas que están trabajando ya en casos de uso de computación cuántica, porque digamos que si en un momento puntual hay una ventaja diferencial con respecto a la competencia, los que estén metidos en este área van a obtener esa ventaja competitiva. Los que no estén. El día que un ordenador cuántico alcance lo que llamamos ventaja cuántica. Si en ese momento te pones a crear un equipo de computación cuántica, a aprender a ver cómo puedes, qué casos de uso lo puedes implementar, esto y demás, vas a perder muchísimo tiempo y la competencia te va, te va a ganar. Entonces ya cada vez hay más empresas que se están metiendo en esto, están creando equipos de computación cuántica para ser ellos los que se beneficien de esa ventaja competitiva. La, digamos, el el camino hasta llegar a poder implementar un algoritmo cuántico y trasladarlo a un caso de uso de tu organización. Y además es complejo y por eso hace falta ponerse ponerse con tiempo. Vale, esto no es como pasar de programar un lenguaje de programación a otro o algo así. No, no es camino. Es bastante más duro el impacto económico que se estima para 2035 de 1 trillónde dólares. Las estimaciones son bastante brutales para 2030. 70.070.000.000.000 Por eso hay también muchas empresas KPMG Delay, todos estos integradores que trabajan con clientes ya en su día a día y lo que quieren es ser ellos los que los que les lleven de la mano de la computación cuántica y se sienten a pensar qué casos de uso cuenta en el sentido de su organización y demás. Entonces hay mucho interés por este tipo de organizaciones y aparte pues generación de nuevo negocio y ahorro de costes. Hay un potencial ahí tremendo. Para que os hagáis una idea de los papers que se están publicando en el mundo con distintas plataformas, la de IBM, como podéis ver, la de arriba de lejos es la la más utilizada en en la academia para hacer investigación y demás por número de papers que se están publicando. Vale casos de uso en los que estamos trabajando en desarrollar nuevas baterías. ¿Sabéis que la batería se vendía? La capacidad de la batería es crítica a muchos sectores con lo de los coches, por supuesto, y el desarrollar baterías que duren más, que sean más eficientes, que carguen más rápido, que poder simular esas baterías antes de construirlas y demás, pues es un caso de uso muy relevante. El diseño de materiales más ligeros, más, más, más duros y demás, pues es algo que estamos trabajando con Bain, por ejemplo, esta está trabajando en casos de uso de este tipo, poder hacer los planes de mantenimiento de esos aviones. También digo aviones, pero aplica cualquier infraestructura, poder hacer más eficiente el mantenimiento, los ciclos predictivos de incidencias y todas estas cosas con computación cuántica. Esto es algo también de interés para muchas industrias. Lo que comentamos antes de descubrir nuevos antibióticos, drogas y demás que puedan ayudar a que reduzcan los ciclos de desarrollo de fármacos, eso es algo también brutal. Bueno, hay muchos casos de uso en industria, diseñar nuevos superconductores y demás para resonancias magnéticas para. Nuevos materiales y demás. ¿Esto ya lo hemos comentado en todo lo que es identificar patrones, por ejemplo de curación en pacientes cuando tenemos volúmenes de datos grandes, pero tenemos relaciones complejas de encontrar entre oye, qué pacientes se han mejorado? ¿Por qué razón? Porque el uno tomó este medicamento, el otro ha guardado reposo. ¿Durante cuánto tiempo? No sé qué. Hay ciertos casos en los que creemos que la computación cuántica nos puede ayudar a encontrar esos patrones de forma más efectiva y poder encontrar pues mejoras con respecto a los tratamientos que tenemos hoy en día. ¿Gestión de riesgos, valoración de asset portfolio y demás en el sector financiero es otra área en el que creemos que que esto va a ayudar y todos los problemas de optimización que hay hoy en día, pues de cómo cargamos un barco, los contenedores de un barco, hasta qué puerta se elige para aparcar un para amarrar o como se diga un avión en un aeropuerto? Porque de eso depende el tiempo que tienen que andar los pasajeros hasta el otro, hasta la otra puerta, hasta otro embarque el tiempo, hasta las maletas, las maletas donde se tienen que llevar todas estas cosas. Entonces son problemas bastante complejos que la computación clásica encuentra limitaciones hoy en día y con la cuántica esperamos poder llegar un pasito más allá. En 2023 llegamos a lo que nosotros llamamos Quantum Utility, es que pudimos hacer una cosa que se publicó en Nature de de una simulación de espines de átomos y el modelo de Ising. Pudimos hacer una cosa que hacíamos con computación clásica, pudimos obtener los mismos resultados con cuántica, incluso dimos unos resultados un poquito más allá de lo que teníamos con con clásica. Qué pasa que si todavía la gente no se fía de acuático, esos resultados dirían unos datos más allá. ¿Pero cómo sé yo que eso es cierto y no lo puedo verificar? No, en cuanto una advantage es lo que esperamos conseguir este año, que es que podamos demostrar que hemos hecho algo con computación cuántica que no podíamos hacer con clásica que sea poder hacerlo de forma más eficiente o con una precisión mayor de lo que podemos hacer con clásica y que además lo podemos verificar. Que no haya dudas de que la comunidad científica tenga claro que lo que se ha obtenido es correcto, que sea verificable y que y que no haya dudas al respecto. No queremos hacer un plan de hemos conseguido hacer no sé qué y que luego haya dudas y empiecen a publicarse paper de que eso no es así. No, no queremos que cuando digamos que se ha alcanzado el cuanto nada en alguna cosa en concreto que no haya, que no haya dudas al respecto. Y en eso estamos en en conseguirlo este año. Esos son los dos paper que explican lo que hicimos en 2023 del Quantum Utility y el otro paper de la derecha es donde publicamos la arquitectura con la que esperamos conseguir los ordenadores Toleran. ¿No? He comentado que uno de los retos más grandes que tenemos con la computación cuántica es la corrección de errores. Al final pensad que estamos trabajando. Voy a ir a contar rápido este ordenador cuántico. Esto lo que hacemos es meterlo en un crio. Lo lo encerramos al vacío dentro de una cúpula, le sacamos el aire y empezamos a sacarle la energía, el calor, hasta que llegamos a. Creo que son cero, cero, 15 mili Kelvin o algo así. Y abajo del todo veis una cajita gris. Ahí es donde estaría el procesador cuántico y eso es lo que tiene que estar muy, muy, muy, muy frío, prácticamente al cero absoluto. ¿Por qué? Porque como estamos trabajando a escala atómica, cualquier energía que haya por ahí nos interfiere los cálculos y nos fastidia lo que estamos intentando hacer. Entonces necesitamos que haya no haya interferencias, que haya la menor energía posible, solo la que necesitamos para operar y ya está. Entonces es muy importante o es muy. ¿La computación cuántica es susceptible de de errores? Digamos que hay interferencia, sino fastidiosos cálculos. Entonces el reto para corregir esos errores es es es muy importante. Es un reto de ingeniería muy importante en computación clásica. Digamos que lo que hacemos es replicar la información. Cojo un bit, lo replico en otros nueve bits y ya tengo diez. Si uno se corrompe por lo que sea, verifico los otros y ya sé cuál es lo cierto. El dato correcto. En computación cuántica no podemos clonar un estado, es una limitación de la computación cuántica. Entonces no podemos hacer eso, replicar esos qubits y ver el que se ha corrompido. Entonces tenemos que encontrar otros métodos y ya os digo que es un reto muy importante. Entonces ese paper de Nature. Lo que publicamos es la arquitectura que hemos diseñado para con la que creemos que se puede llegar a tener un ordenador, fold, tolerancia, un ordenador que pueda escalar y no le afecten los errores, vale. ¿No le afecten los errores, le van a aceptar, O sea, se va, las interferencias van a estar ahí, pero digamos que vamos a ser capaces de mantener bajo control esos errores para que al escalarlo y hacer los cómputos que tengamos que hacer los resultados sean buenos, Vale? No nos afecten esos errores. Entonces este año es el que hemos dicho que vamos a llegar al Quantum Tech, como os decía. Pero no creemos que vaya a ser algo que nos vaya a dar la computación cuántica por sí solo. ¿Lo que creemos es que vamos a juntar la clásica, los supercomputadores que tenemos hoy en día, junto con la cuántica y combinando ambas tecnologías, cómo vamos a llegar al Quantum Advantage? No va a ser solo un ordenador cuántico el que va a hacer esto. Y lo que os comentaba antes también, que los resultados que obtengamos tienen que ser algo que esté validado de forma rigurosa, que no haya dudas al respecto. Y eso tampoco es trivial. El que no es trivial nada aquí, ni cómo corregimos los errores ni qué tipo de de caso de uso, por donde vamos a poder encontrar la ventaja cuántica, ni qué es lo que tenemos que ejecutar en esos estados cuánticos para poder para obtener unos resultados que no es que no sean útiles ni cómo verificar esos resultados de forma rigurosa. O sea, todo requiere, requiere mucha investigación y. Y sobre todo. Pues eso, que cuando ya alcanzamos el cuanto antes de verdad haya una separación entre lo que podemos hacer en el mundo clásico, que no es algo trivial que de verdad hayamos obtenido algo que sea que sea relevante en cuanto a que lo hacemos de forma mucho más eficiente, obtenemos una precisión muchísimo mayor que teníamos con computación clásica. Así que por ahí es por donde va el trabajo que estamos haciendo y estamos trabajando con distintos partner en métodos heurísticos para intentar encontrar soluciones por aquí y poder hacer ese ese claim de que hemos alcanzado el Quantum Advantage. ¿Y por otro lado estamos trabajando en otro tipo de proyectos con otros partners también en esa, en esa prueba rigurosa de que lo que hemos alcanzado es cuanto antes y no es un claim de estos que se va a poder disputar en en una semana, vale? ¿Veis ahí que hay desde entidades financieras importantes hasta farmacéuticas y demás? Pero bueno, que sepáis que hay una red de clientes muy grande que está interesado en todo esto. Hay distintos tipos de problemas en los que creemos que que podemos alcanzar el cuanto antes. El primero observable estimación Aquí digamos que con las técnicas que tenemos ahora que no podemos, no tenemos todavía ordenadores toleran de los que escalan sin que les afecten los errores, pero sí tenemos ciertas técnicas de supresión de errores y mitigación de errores. Y esto lo que nos permite es saber que el error va a estar controlado. Entonces, si encontramos ciertos problemas en los que los resultados que nos arrojen van a estar en un margen de error controlado y que aún así no resulta útil para nuestro problema, pues perfecto. Sabemos que va a haber cierto error, pero el resultado nosotros no nos es útil. Y luego hay otro tipo de problemas que son los de lo de medio. Por ejemplo, para encontrar los los state ground, los estados energéticos de moléculas y demás en los estados mínimos. Esto básicamente es muy fácil de verificar con el mundo clásico. Si tú encuentras una estructura de una molécula estable con un estado energético válido. Si, si con computación cuántica encuentras otro estado que sigue siendo estable y demás en un estado más bajo energético, eso ya es una. Es algo que es fácil de verificar. No necesitas la verificación, no es compleja. Digamos que obtienes un resultado mejor que el que tienes con un mundo clásico y no es complejo verificarlo. Entonces por ahí es el segundo tipo de problemas con el que creemos que podemos. Podemos encontrar ventaja. Y luego hay otro tipo de problemas, como los de la derecha, que básicamente la verificación también es. Es fácil con la computación cuántica. Hay una. Random Quantum Simulation Sampling. Es un tema que es complejo con computación clásica y con cuántica. Creemos que vamos a poder hacerlo mejor cuando hayamos hecho eso con cuántica. En este tipo de problemas que se pueden verificar de forma eficiente con el mundo clásico, pues ya está. Si conseguimos hacerlo así, este puede ser uno de los tipos de problemas en los que encontremos el cuanto nada antes. Vale. Todos estos problemas son los que necesitamos ahora porque no tenemos ese ordenador. Toleran. Cuando tengamos el ordenador vamos a poder ejecutar cosas más complejas donde los errores no nos afecten esos cálculos y vamos a poder escalar a otro tipo de problemas más complejos. Pero de momento por aquí es por donde estamos buscando el quantum nada antes. Esta es una web que hemos creado con unos partners que podéis hacer cualquiera. Aquí es donde se está sometiendo todos los candidatos a Advantage, casos de uso en los que creemos que nosotros y los partners que están metidos ahí. Como ya os decía, esto es algo que creemos que no vamos a resolver nosotros solo ni mucho menos. Entonces necesitamos que se meta la academia, se meta en partners y mucha gente aquí a trabajar en esto. Y fruto de esto pues están pasando cosas muy interesantes. Hoy se publican cosas de computación cuántica que parece que mejoran lo clásico, pero alguien experto en clásico dice oye, yo con esta idea que me has dado de lo cuántico puede ejecutar algo en clásico y obtengo mejores resultados. Y luego vienen los de cuántico y yo puedo obtener mejor y está viendo una serie de iteraciones ahí que están haciendo obtener soluciones mucho mejores que lo que teníamos hasta ahora. Pero bueno, de momento no hemos llegado al cuanto antes, pero sí que está habiendo muchos, muchos progresos y hay muchos candidatos dentro de de esta web. Si estáis interesados, entráis en la web y veis las cosas cómo están yendo y por dónde están yendo. Este es un caso de uso que hicimos en el sector financiero con HSBC, un problema que tenían ellos. Tenían un proceso para valorar bonos corporativos, Tenían que tienen que valorar la probabilidad de que esos bonos corporativos se vayan a vender o no a ciertos precios. Tenían un proceso hecho ya y lo que hicimos fue meter computación cuántica en uno de los pasos que hacían ellos para valorar si se iban a vender uno de esos bonos. En una parte que hacían con Machine learning metimos computación cuántica y se obtuvo una ganancia en la precisión de ese si se iban a vender o no esos bonos del 34%. Entonces esto es algo que aparentemente así suena, que puede ser algo que dé mucho dinero a una empresa de estas que gestiona miles de millones en transacciones de este tipo. Si le das una ventaja al entender si eso se va a vender o no en un 34%, es una, es una importante, no en otro. Por ejemplo, caso de uso en los que hemos estado trabajando con otro, con otro cliente, la optimización de las plantillas de los equipos de trabajo, empresas que tienen muchos trabajadores, en este caso trabajadores que están haciendo mantenimiento, que al final son unas plantillas que están la mayoría del tiempo ociosas, pendientes de que haya una avería para ir a reemplazarla y demás, pues poder hacer optimizaciones en cómo se los turnos de esas plantillas pues. Nos han llevado una optimización en en esas plantillas, digamos en cómo en el número no sé si era exactamente el número empleados que hay, o sea que tienen que estar en plantilla agendados para para resolver las mismas incidencias o algo así, pero que se han encontrado beneficios con respecto a lo que había hasta ahora. Vale. Para que tengáis una idea en general de los tipos de problemas en los que estamos trabajando y cuánto nos hace falta escalar la computación cuántica para poder resolverlos, aquí tenéis en la GX el número de puertas. Cuantas más puertas tengamos, obviamente más cuanta mejor dicho. A ver en uno de los de las limitaciones que tenemos también es el estado de los qubits. Por cuanto tiempo el estado de los qubits es estable para que podamos hacer operaciones, porque el estado de esos qubits va perdiendo coherencia. Entonces tenemos una limitación temporal que creo que ahora son microsegundos. Durante esos microsegundos podemos ejecutar operaciones en el qubit antes de que pierda el estado en el que está. Entonces necesitamos poder ejecutar muchas puertas en ese tiempo en el que el Estado es coherente y luego necesitamos poder ejecutar muchos qubits. Cuanta más puertas podemos ejecutar y más qubit, pues más complejidad es el problema que podemos ejecutar. Entonces, dependiendo del número de puertas y qubit, pues podemos acceder a distintos tipos de problemas. Lo amarillo marrón por ejemplo, es el diseño de materiales y demás, dependiendo de qué tipo de material, de la complejidad de tal o necesitamos que haya muchas más puertas que en modelos de espinas, por ejemplo, que sería la zona gris. Si queremos ir a problemas de optimización sería la zona verde y para eso necesitamos más qubit. ¿Vale? Y si queremos ir al lado malo que comentaremos después de la computación cuántica, resolver algoritmos criptográficos. Más que resolver romper, iríamos a la zona azul y necesitamos bastantes puertas y bastante Scooby-Doo. Vale, entonces para 2029 nosotros esperamos estar por aquí con Starlink, que ahora comentaremos y para 2033 esperamos estar por aquí con Blue. Esos son los ordenadores que los nombres de los ordenadores que que estamos desarrollando. En comentar también esta investigación que se está haciendo desde muchos frentes, lo que está contribuyendo a que haya mejoras en los algoritmos. Es decir, que lo que está a la derecha se vaya moviendo hacia la izquierda, que hagan falta menos puertas o menos qubit para hacer lo mismo. Y a su vez lo que estamos haciendo es mover la escalabilidad del hardware hacia la derecha. Por ejemplo, existen dos conceptos distintos el de qubit físico y qubit lógico. El qubit físico es el hardware mínimo donde almacenamos la información que es susceptible de errores y necesitamos crear un qubit lógico que no tenga errores. Entonces, hace unos meses necesitamos unos mil qubits para tener un qubit lógico, unos mil físicos para tener uno lógico sin errores con el que computar. Y ahora está en torno a 288 qubit físicos. Es decir, que vamos a necesitar mucho menos físicos. Cuanto menos necesitemos, más vamos a escalar más rápido el número de lógicos. Entonces lo de la izquierda se va moviendo, el hardware se ha movido hacia la derecha y los algoritmos se van moviendo hacia la izquierda para necesitar menos hardware. Así que bueno, todo esto es muy dinámico, pero que sepáis que depende el poder resolver un problema en el momento X cuando se va a resolver ese problema. Por depende de muchas cosas de ese ratio de qubit físicos por lógico de los avances que hayan en algoritmos depende de muchas cosas. 2029 es cuando esperamos tener un ordenador cuántico que pueda escalar y sea tolerante y lo hemos empezado a construir ya en poco en Estados Unidos, que por motivos sentimentales, como dice Ginés, bueno, ahí se hicieron muchas cosas en el pasado de IBM. Seguro que habéis oído muchas cosas que inventos que empezaron en IBM y bueno, aquí los primeros mainframe que montamos y demás fueron esas infraestructuras y ahí es donde estamos construyendo ahora mismo el el ordenador cuántico, ese ordenador cuántico para 2029 fold toleran y large scale large scale que tenga cientos de qubits y que pueda ejecutar cientos de millones de puertas, mientras que ese qubit está coherente en un estado coherente que nos es útil para nosotros, podemos ejecutar cientos de millones de de puertas en cientos de qubits. Vale, eso es lo que consideramos large Scale. Y luego toleran que podamos hacer más de 100 millones de operaciones con y sin que los. Sin que las interferencias, los errores nos afecten a los a los datos, a los resultados. Vale. Eso es lo que esperamos tener para 2029. Para que tengáis una idea de cómo se compara lo cuántico y lo clásico, por lo que os decía antes de que cuando tenemos tres qubits tenemos dos a la tres estados en paralelo en superposición con los que podemos operar. Como esto escala exponencialmente. Esto en lo que se traduce es que con un portátil lo que podemos simular son 30 qubits con el Y bien Summit Super Computer. Este es el que está en Barcelona. Es el de. Un supercomputador clásico. Puede simular 48 qubits. Si juntamos todos los ordenadores del mundo, 60 qubits, podríamos simular. Y claro, el que vamos a tener 2021 son 200 qubit. Estamos hablando de que esto escala exponencialmente y y que vamos a tener 200 qubits en 2029. Lógicos sin errores. Videito muy chulo. ¿Cómo es el ordenador cuántico? Digamos todo lo de arriba, lo amarillo, los cables y todo eso es para ir enfriando el sistema. Ese es el sistema. El ordenador cuántico más potente que hay, que es el que que existe ya, el que está en el País Vasco, por ejemplo. Y lo que decía la parte arriba, todo es para ir enfriando el sistema hasta bajarlo la temperatura de operación, la cajita gris que es abajo. Y esto es lo que estamos construyendo en IPSE, vale para tener ahí con cuatro unidades del sistema, tener más de mil qubits lógicos. Sería Starlink y luego poder llegar a Blue, ya que es el siguiente. Esto sería Stalin, perdón 200 100 millones de puertas. Esto es lo que estamos se está construyendo ya vale lo luego es el grande. 2000 puertas lógicas y 1 billón. Perdón, 2000 qubits lógicos y 1 billón de puertas. ¿Entonces qué necesitamos para que la arquitectura sea escalable? Pues que sea. Toleran que no tenga errores, como hemos dicho ya, que sea direccionable, es decir, que podamos programar cada uno de los qubits por separado, igual que hacemos en la memoria RAM que decimos oye, me pongo en uno o un cero en este en concreto que sea universal, es decir, que tengamos todas las puertas que hacen falta para para poder ejecutar cualquier cosa, cualquier algoritmo cuántico. Y esto tampoco es trivial. Las puertas son mucho más complejas que lo que tenemos en el mundo clásico y y necesitamos todavía avanzar en el hardware para poder tener todas las puertas que son necesarias. Para poder ejecutar cualquier cosa. Tiene que ser adaptativo que los algoritmos en sí podamos durante la ejecución, medir el estado de los qubits y en función de eso seguir ejecutando. Vale que sea adaptativo ese algoritmo, que sea modular esa computación, que podamos linkar distintos componentes en lanzar distintos módulos para crecer, para escalar. Y tiene que ser eficiente. Obviamente tiene que ser algo que consuma unos recursos razonables. ¿Este es el paper que decía cómo vamos a alcanzar el folk tolerante? Y para que veáis lo que lo que tenemos que hacer, esa especie de donuts, lo que es, es una, es la representación de cómo tendrían que estar conectados todos los qubits de un procesador. Ahí tendríamos 288 qubits físicos. Cada uno de los puntitos esos y lo que hacemos es conectarlos entre sí a todos los vecinos. Los qubits, vecinos entre sí se conectan y aparte tenemos que conectar a los qubits con otros dos qubits que no son vecinos. Y eso al final lo que pasa es que si lo que tenemos, si lo doblamos en tres dimensiones, tenemos una estructura de ese tipo y y todos esos, esas conexiones de COVID lo que hacen es que podamos ejecutar algoritmos de forma mucho más eficiente que lo que hemos tenido hasta ahora. Hasta ahora digamos que teníamos en dos en el plano simplemente las conexiones entre sí. Y si necesitamos, por ejemplo, hacer una operación entre un qubit que está en una punta y otro que está en la otra, tenemos que hacer operaciones de swap para ir acercando esos qubit y luego hacer la operación que queremos hacer. Si ahora somos capaces de interconectar mucho más los qubits entre sí, podemos ejecutar algoritmos de forma mucho más eficiente. Y eso es lo que buscamos con esas interconexiones. Entonces, en lo que estamos trabajando es esto de la izquierda, es en conectar cada uno de los qubits con seis qubits, los cuatro vecinos y otros dos. Y lo que hemos conseguido demostrar es que con independencia de que estén más cerca o más lejos dentro del del procesador, los errores que tienen son los mismos y son muy bajos. Hemos conseguido demostrar eso. Además, hemos conseguido con los los acopladores entre qubits de distintos tamaños y que ese error esté bajo control. Además, hemos conseguido salir del plano, hacer conectores entre qubits que salen del plano en 2D y. Y claro, eso cuando estamos hablando de chips de silicio y demás. Eso implica pasar por distintos planos, atravesar distintos materiales y que ese margen de error siga estando bajo control. No es trivial y también lo hemos demostrado. Y además necesitamos una decodificación en tiempo real de lo que llamamos síndrome de los errores que se van haciendo mientras computamos para poder resolverlos. Y también hemos demostrado que eso está ahí. Entonces vamos conectando todas las piezas y lo que hemos pasado es de la arquitectura de la izquierda, que veis que los qubits entre sí, que son las cajitas azules, está muy poco interconectados a la arquitectura LUN, que está mucho más interconectado entre sí. Es la complejidad es mucho más grande en en estos procesadores de ahora. Esto es la arquitectura que tenemos ahora abajo. Tendríais el donuts con el que vamos, donde vamos a tener los qubits lógicos con esa nueva arquitectura que tenemos. A partir de ahí, en el nivel superior tenemos la el procesamiento lógico de poder hacer operaciones con esos qubits y más arriba lo que tenemos es la capacidad de interconectar distintos módulos de qubit. Vale. Y a la derecha tenemos una cosa que se llama Magic State Factory, que simplemente una poder poner a los en un estado concreto que nos va a permitir ejecutar unas puertas específicas. Vale. Lo de Magic sí es un poco raro el nombre. Este es nuestro roadmap que hemos ido cumpliendo. Tenéis la parte de arriba, el roadmap de desarrollo y la parte de abajo el de innovación. Aquí es donde vamos probando cosas y cuando lo estemos listas las pasamos al de arriba. Hemos ido cumpliendo todo. ¿Veis? De 2016 hemos ido cumpliendo todo lo que está en verde. Aquí arriba tenemos la parte de Qiskit, el framework a nivel de software y demás, todo lo que nos hace falta para poder computar. Y abajo en gris negro tenéis lo que es el hardware. Vale, si nos vamos a la parte de arriba, ahora estamos por aquí. 2026 donde tenemos un procesador que se llama Nighthawk, que ahora vamos a ver en un vídeo y ahí tenéis en ese root map podéis verlo con detalle si queréis, pues el número de cúbits que tiene, las puertas que tiene y demás. Este es el procesador Nighthawk, que se está viendo un poco mal el vídeo. ¿A ver si lo pongo otra vez que lo veáis, vale? Este ya implementa la nueva arquitectura en la que conectamos. ¿Conectamos a los qubits con o queremos conectar los qubits con otros seis? No solo los vecinos. Salimos del plano y tenemos distintas capas. Y con Nighthawk es con el que esperamos llegar a al Quantum Advantage y luego en el roadmap de innovación, la parte de abajo. Estamos aquí y ahora estamos probando LUN y Lunes este de aquí en el que estamos. Hemos salido del plano y estamos haciendo esas interconexiones. A distintos niveles y como os comentaba antes, pues doblando ese procesador lo que vamos a obtener es la el rosco, el toroide este. Ahora lo vais a ver. Al final esos cables citos, azules y morados son los que están interconectando los qubits con los dos extra que necesitamos para para poder implementar la corrección de errores. Vale. Nighthawk, hemos dicho que tenía 120 qubits, hemos bajado el número de qubit que tenemos el procesador en la anterior tenemos 140 o por ahí, pero ahora está mucho más interconectados, entonces eso permite hacer cosas de forma más eficiente. Esto Aquí podéis ver una comparación con la competencia. Otros que están haciendo ordenadores cuánticos. Básicamente lo que buscamos es que tengamos que estemos arriba para tener número de qubit, que tengamos un número de qubits altos, pero estemos a la derecha, porque los errores, la calidad es muy buena. Vale, entonces todos los procesadores que tenemos que están están por aquí. Vale. Este es el ordenador. El sistema que se ha montado en el País Vasco. En el País Vasco han hecho como el gobierno. Han decidido que esto era un tema muy interesante para dinamizar la industria, de allí a las universidades y demás y avanzar en algo que creen que tiene mucho potencial y tienen el sistema, el ordenador más potente cuántico gay. Se lo hemos montado allí y ahí está. Y además está creciendo el el uso que le están dando. ¿Y bueno, hay mucho interés y mucha demanda, vale? Hasta aquí la parte de 25 minutos, la parte buena de la computación cuántica. Ahora voy a contar brevemente la mala. En IBM siempre tenemos, como somos muy responsables. El tema ético lo tenemos siempre muy en cuenta, igual que con la IA. Bueno, por poner un ejemplo, sabéis que cuando empezó todo el tema este de reconocimiento facial y demás, nosotros en el tema de la IA fuimos los que lideramos y cuando se ganó a Kasparov. Por cierto, este es el cierre aniversario de IBM en España. Hace 100 años que no arrancamos en España. Yo no estaba tampoco, no estaba tampoco. Pero bueno, cuando la primera máquina ganó a Kasparov al ajedrez y a la IA empezamos nosotros. Hace hace mucho tiempo hubo un caso. A mí me resultó curioso que es que cuando se estaba entrenando modelos para para diferenciar caras, pues estaban entrenando con blancos y negros y cuando había un modelo entrenado parece ser que alguien hizo una prueba con un mono y el mono dio como que era un negro, entonces lo consideraron como que era racista y demás. Bueno, el caso es que nosotros en el tema de la ética siempre hemos tenido muy en cuenta. Hay ciertas áreas que hemos abandonado por no ser por creer que que no son buenas. Y el tema de la computación cuántica, como vimos desde el primer momento, que cuando esto avance iba a tener una implicación negativa. Pero nos pusimos a trabajar también en proporcionar soluciones para el mundo para no solo generar la computación cuántica, sino solucionar los problemas que venían de la mano de la computación cuántica. ¿Cuál es el problema? Pues que básicamente, como decíamos antes, vamos a abordar ciertas cosas con ordenadores cuánticos que no llegamos con lo clásico. Y uno de esos problemas es, por ejemplo, el del problema matemático de la factorización. Tenemos un número muy grande, o sea, es muy fácil multiplicar dos números y obtener esa multiplicación, pero obtener los factores primos de un número lo suficientemente grande es muy complejo para un ordenador clásico. Y como es muy complejo, pues esa es la base de la seguridad de la criptografía que utilizamos hoy en día. Hay otros problemas también que se utilizan en criptografía, pero básicamente dependemos de la complejidad de que un problema sea complejo de resolver para un ordenador, para que nuestro sistema criptográfico sea seguro y podamos proteger la información utilizando esa criptografía. Si un ordenador cuántico es capaz de resolver ese problema matemático de forma fácil, la criptografía que se basa en esa complejidad deja de ser segura. Y necesitamos otros problemas, otros problemas matemáticos que sean seguros o complejos para ordenadores clásicos y ordenadores cuánticos. Para que la criptografía sea segura frente a todo lo que tengamos a mano. Entonces Peter Shore, en 1994, no había no teníamos nuestro roadmap ni nada de esto. Pero Peter Shore en su momento ya desarrolló el algoritmo de Shore y este algoritmo ejecutado en ordenador cuántico era capaz de resolver el problema de factorización. Es decir, era capaz de encontrar esos números primos de un número grande. ¿Y como es capaz de resolver ese problema? Pues algoritmos como RSA, curva elíptica, estos que utilizamos por todas partes para firma digital, para intercambio de claves a nivel criptográfico, pues iban a dejar de ser seguros. En 1994. Estábamos muy lejos de aquello, pero hoy estamos bastante más cerca. Y el problema está que la criptografía es la base de la economía digital, O sea, todo lo que hacemos hoy en día con nuestros móviles, portátiles y demás, prácticamente todo se basa en criptografía. Cuando hacemos un pago por el banco, cuando firmamos un documento, cuando hacemos la declaración de la renta. Eso ha firmado hoy criptografía por detrás, cuando nos conectamos la Agencia Tributaria. Y qué pasa si de hoy para mañana no nos podemos fiar de la criptografía porque se sabe que se ha roto. Alguien ha roto estos algoritmos criptográficos. ¿Vosotros con vuestro dinero, os vais a arriesgar a hacer una transferencia sabiendo que ese dinero puede acabar en otro sitio? ¿O el blockchain, Bitcoin y demás? ¿Tiene criptografía este tipo por detrás? Entonces la autenticación a los sistemas. ¿Cuando os conectáis a algo y decís yo soy, yo, soy yo o sabéis que estáis hablando con el banco porque detrás hay un certificado SSL? Si ese certificado SSL se puede suplantar, es algo. Sabes que me estoy conectando al banco o alguien que lo está suplantando porque además no hay forma de verificar si es el certificado real o no, Una vez que esto pase, que se rompa la criptografía. ¿Todavía no estamos ahí, pero como sabemos que va a llegar? Y tenemos tenemos los algoritmos para ejecutar. Los ordenadores están avanzando. Para poder llegar a hacer eso, pues hay que ponerse a trabajar en esto. Además, es conocido que en el pasado, ya agencias de seguridad, gobiernos y demás eran capaces de romper sistemas criptográficos y lo utilizaban para espiar al enemigo. Y nos hemos enterado 40 o 50 años después de que eso estaba pasando. Entonces quién sabe si hay algún gobierno para alguien que ya tiene la capacidad de romper esa criptografía. Necesitamos cambiar la criptografía que está por todas partes, a algo que sea seguro frente a ordenadores cuánticos. Vale, esto es lo que comentaba del problema multiplicar dos números muy fácil, pero sacar los factores primos llevaría millones de años. Para un ordenador clásico. En un ordenador cuántico estaríamos hablando ejecutando el algoritmo de sort de horas. Alguien con intencionado que quiera de verdad romper la criptografía, ejecutar durante horas algo no supone un mayor problema. Tenemos dos tipos de criptografía la asimétrica y la asimétrica. La asimétrica conlleva tener dos claves distintas y son los algoritmos estos los que van a estar afectados por sort, por el algoritmo de short, en el que tenemos una clave pública y una privada. Cuando tenemos un certificado digital. Eso, hay una clave pública que compartimos con la gente para que la gente sepa que nosotros somos quien decimos ser. Y la clave privada que está asociada a esa pública es la que nosotros utilizamos para firmar documentos en nuestro nombre. Es decir, yo soy yo y soy el que está firmando esto, porque yo soy el único que tiene la clave privada. De la misma forma, esa clave pública que yo comparto la podéis utilizar vosotros para cifrar algo y que solo yo con mi clave privada sea el que puede descifrar esa información. Esa criptografía asimétrica es la que se utiliza para enviar las claves con las que se cifra la información, las comunicaciones. Cuando te conectas al banco, por ejemplo, y también para lo que es hacer firma digital e intercambio de claves, Entonces esos algoritmos RSA, además estos son los que el algoritmo de Shore puede romper. Y luego está la criptografía asimétrica, en la que hay una clave que compartimos entre dos partes para cifrar yo cifro y tú de cifras con esa misma clave. ¿Qué es lo que pasa? Que para compartir esa clave entre dos partes que están separados necesitamos algún método. Porque claro, si yo voy a hablar con el banco y voy al banco a compartir una clave, ya, ya he ido, ya puedo hablar con el banco. La gracia está en de forma remota. Poder intercambiar una clave para cifrar entre nosotros. Para eso es para lo que se utiliza la criptografía asimétrica. Utilizamos la asimétrica para intercambiar una clave y después ya con la simétrica. Una vez que hemos intercambiado esa clave, ciframos la información entre nosotros. Pero si la asimétrica, la que utilizamos para intercambiar las claves, es vulnerable, está expuesta al algoritmo de short. Tenemos un problema porque no podemos hacer ese intercambio clave, no podemos comunicarnos a distancia y la criptografía está por todas partes. En Internet, por supuesto, por todas partes. ¿La firma digital, infraestructuras críticas, las actualizaciones de software, firmware cuando nos llega la actualización de Apple, eso viene firmado en el iPhone para que? Para que sepamos que viene de Apple y no viene de otro, no nos puedan instalar un virus. Sistemas de pagos Swift por todas partes en el blockchain Cuando te autenticas en tu en tu cuenta cuando haces una una transacción en los email que enviamos que pueden estar firmados por todas partes. ¿Hay criptografía, vale? Y está en muchos elementos que no son fácilmente reemplazables. No puedo parar una aeronave, no puedo recoger todo el orden de los españoles para decir oye, hay que cambiar la criptografía. Es un tema operacionalmente bastante complejo. Hay infraestructuras que llevan ejecutándose durante muchos años y pararlas para reemplazar la criptografía es algo, no es fácil. Y además la criptografía es lo que protege los datos sensibles de nuestras organizaciones, usuarios, empleados y demás. Si la criptografía que estamos utilizando para proteger la información, nosotros enviamos información cifrada, estamos tranquilos porque está cifrada y resulta que alguien captura esa información cifrada y cuando tenga acceso ordenador cuántico, el área de cifra accede a los datos sensibles que nosotros hemos compartido, que nosotros estamos tranquilos porque va cifrado y en el momento en el que alguien capture esos datos y los descifre, ya hemos perdido el control de esos datos y nosotros seguimos siendo responsables de protegerlos. O sea, un hospital, por ejemplo. ¿Datos sanitarios los comparte? Como sea, Imaginaros que hay alguien que captura esos datos y dentro de tres o cinco años, diez años con un ordenador cuántico podría decirlo. Y este paciente tiene no sé qué. Ese hospital será responsable de que los datos del paciente estén protegidos si sigue cifrando la información con los mismos algoritmos que tenemos a día de hoy, que son vulnerables a la computación cuántica, Está exponiendo los datos a que alguien pueda estar capturando y descifrarlos cuando tenga acceso a un ordenador cuántico. Eso es una amenaza real que ya existe a día de hoy, que se llama Harvest Now de Later Cosecha. Ahora desencripta Después. Probablemente eso no nos afecte a nosotros a nivel individual, no nadie esté capturando nuestros datos cuando nos conectamos al banco para transferir 1.000€, pero seguramente a nivel de gobierno es agencias de seguridad y cosas de estas. Pues quién sabe, lo mismo yo que sé. Por poner un ejemplo, a lo mejor está China capturando información para que yo que sé, entre el ministerio de entre Israel y Estados Unidos para para ver qué planes tiene, no lo sé, pero que es un riesgo que puede estar pasando si alguien captura la información que ciframos hoy en día, que es pública, que va por internet, la del wifi está, por ejemplo, en el futuro va a poder descifrarla y acceder a la información. Entonces, cuando haya acceso a un ordenador cuántico, qué es lo que va a poder pasar Primero esto que decíamos que descifren la información que nosotros estamos cifrando, que eso es algo que ya puede estar pasando, que estén cosechando la información a día de hoy para descifrarla, pero además van a poder suplantar identidades, van a poder autenticarse en sistemas haciéndose pasar por otras entidades de forma legítima. Sí. Si yo me hago pasar por el administrador de la central nuclear, me conecto a sus instalaciones haciéndome pasar con con un certificado que yo he creado con un ordenador cuántico, me hago pasar por el administrador de la central nuclear y paro la operación. Yo que sé, podrían hacer infraestructuras críticas, podrían crear una disrupción del servicio o accedo al banco y suplantando la identidad de Amancio Ortega y me hago una transferencia a mi cuenta de lo que sea. El poder suplantar identidades en la economía digital hoy en día puede ser un problema muy gordo. Y además otro. Otra cosa que puede pasar es que se manipulen los documentos firmados digitalmente. Yo tengo firmado digitalmente mi hipoteca, pero si tengo acceso a un ordenador cuántico dentro de unos años, digo pues cojo un documento, cojo el documento de mi hipoteca, crea uno alternativo en el que en vez de poner que debo 300.000€, ponga que debo 100.000, lo firmo. Me hago simulo fraudulentamente la firma del banco y va a haber dos documentos iguales, uno que dice que debo 300.000 y otro que debo 100.000. ¿Cuál es el de verdad? Pues si eso pasa en algún momento, eso es un problema muy gordo. Y para las entidades financieras esa amenaza es algo. Al no poder fiarse de su historial legal, de los documentos firmados, es una amenaza brutal para para el sistema financiero. Vale, entonces todo esto amenazas que van a pasar cuando hay un ordenador cuántico lo suficientemente grande con tolerancia, errores, capaz de ejecutar el algoritmo de sor. Pero como decía, ya estamos expuestos a que estén capturando información y que la desencripta cuando sea. Va a haber un día. ¿La gran pregunta va a ver cuándo es el día, cuando va a haber un ordenador cuántico rompiendo la criptografía? Bueno, no creemos que vaya a haber un día en el que se acabe el mundo. Seguramente. ¿Pues como os he dicho antes, hay algún alguna entidad que tenga que tenga la capacidad de hacerlo? Y seguramente los primeros ataques serán a entidades, gobierno, agencias de seguridad, cosas. Están muy puntuales donde haya datos muy muy relevantes y según la computación cuántica vaya escalando y los ataques estos sean más baratos, más eficientes, pues se irá a un target más amplio y y con los años pues al final se harán ataques masivos a usuarios normales y demás. ¿Pero como decía desde ya, el hecho de que estén capturando la información cifrada lo que puede hacer es que en el futuro eso Canal+ lo descifren y accedan a los datos sensibles, vale? Creemos en IBM, en este paper que lo primero que se va a hacer con computación cuántica es el bien. Vamos a poder utilizarlo para hacer cosas buenas para hacer, para resolver casos de uso del mundo real, para tener datos más precisos de forma más eficiente que lo que podemos con clásica. Y el tema este de la criptografía llegará, llegará después. Pero es un tema que no hay que olvidar, que las organizaciones tienen que ponerse desde hoy a transformar, porque la media de lo que se tarda en reemplazar la criptografía en una organización es de unos diez años, se estima. Y la criptografía está en las aplicaciones que se desarrollan en una organización y en el entorno operacional, en las redes, en las comunicaciones y demás. Entonces las organizaciones a partir de ahora van a tener que empezar a desarrollar capacidades que no han tenido, porque la criptografía lleva funcionando desde el 80 90, funciona bien, no da problemas, entonces la gente la utiliza para proteger, cifrar las comunicaciones, pero no se preocupa muy bien de cómo funciona. Utilizan librerías que hay por ahí, pero no tenemos criptógrafos por todas partes. Sabiendo como se ejecuta ese algoritmo criptográfico, entonces llega un momento que necesitamos reemplazar la que hacía y de primeras no sabemos ni dónde la tenemos porque está por todas partes y necesitamos primero saber dónde está esa criptografía. Entonces las organizaciones van a necesitar herramientas de descubrimiento para saber dónde estás. Hacia entender qué partes de la organización están protegidas, Por qué hay criptografía para empezar a migrar lo más crítico donde tenga los datos sensibles. Si además tengo una criptografía vulnerable, tengo que empezar por ahí, No voy a empezar a cambiar otra cosa porque voy a tener manos limitadas. Y por último, van a tener que reemplazar la criptografía. ¿Por qué criptografía? Por una nueva que hemos desarrollado también en IBM. ¿Pero qué pasa? ¿Que todas las cajitas blancas que hay alrededor es lo que hay que tener en cuenta para cuando cambias un algoritmo criptográfico? Hay que tener en cuenta componentes de terceros que no controlas tu, que no desarrollas tu librerías que estás utilizando, que son open source y que no tienes control sobre cuándo van a implementar esa nueva criptografía. Estándares externos. Y estoy utilizando Swift para pagos y ese Swift me dice que tengo que ejecutar, que tengo ciertos algoritmos, me tengo que coger a eso, no puedo migrar cuando yo quiera. Las organizaciones tienen estándares criptográficos que tienen que seguir. No puede hacer cada departamento lo que le dé la gana para solucionar sus cosas. Tienen que tener en cuenta los certificados SSL y demás que vienen de proveedores, que sus proveedores van a actualizar a la nueva. Cuando actualicen van van a tener que empezar a preguntar a todos los proveedores cuándo van a cambiar. Ellos, ellos, su criptografía. Vamos, es un reto muy, muy complejo el que tienen las organizaciones por delante. Que sepáis que va a requerir muchas capacidades adicionales y que tener en cuenta todo el ecosistema, porque la criptografía se utiliza para comunicarnos con otros. Si yo migro cambio la criptografía y no migra a la otra parte, no sirve para nada porque no me puedo comunicar. Entonces va a haber que coordinar todas las partes para migrar de una forma eficiente y que podamos seguir trabajando sin que esto sea un caos. Vale. En IBM hemos desarrollado los nuevos algoritmos. Había un proceso desde 2016 para evaluar algoritmos criptográficos que reemplacen a RSA, curva elíptica y estos que ya son van a ser vulnerables y ya hay algoritmos seleccionados estandarizados. Los cuatro algoritmos que se han estandarizado de los 90 y pico candidatos que había han sido codesarrollo por IBM y y tenemos uno que se llama MLM, que se va a utilizar para intercambio de claves. Y luego hay tres algoritmos para firma digital. Ml desea SL desea y FN de ese DSA estos tres para firma y este para intercambio de claves, que son las dos cosas que tenemos que reemplazar de la criptografía asimétrica, que es la que está expuesta. Que sepáis que el proceso de buscar algoritmos sigue, sigue para adelante y hay varios candidatos. Este se ha elegido para estandarización HQ CE porque fijaros el tamaño de las claves, de las de las firmas digitales, de los algoritmos que teníamos hasta ahora en azul curva elíptica y RSA en morado. Fijaros los que sean los tres que se han elegido para estandarización de firma, el tamaño de las firmas que conlleva. Esto quiere decir que en entornos ya que están saturados, número de transacciones y demás, pues empezar a meter firmas mucho más grandes puede suponer un problema En cuanto a rendimiento. Los algoritmos son muy eficientes, pero ya veis que el tamaño de las claves que hay que compartir imaginaros un entorno IT, un dispositivo y que tiene la memoria limitada y demás, Pues a lo mejor no es fácil meter estos nuevos algoritmos. Y bueno, pues hay ciertos los candidatos que tenemos a nivel que están bien posicionados. Estos son los tamaños de las de las firmas. Vale cinco metros. Entonces esto es lo que hemos estado haciendo en IBM desde 2016 para para todo este tema de la criptografía empezaban, nos metimos en el proceso en 2016 para publicamos ciertos candidatos que están basados en problemas matemáticos distintos. Aquí tenemos los los que se han estandarizado Ml, DSA y ml, que están basados en problemas de retículas. Son problemas matemáticos que van a ser difíciles de resolver para ordenar los clásicos y cuánticos, al menos hasta lo que se sabe hoy en día en el mundo científico. Veremos en el futuro. Pero como son problemas difíciles tanto para ordenadores clásicos como cuánticos. Esos problemas matemáticos son la base de esta criptografía nueva, porque no vamos a poder ni con un ordenador cuántico ni clásico resolver ese problema y por tanto la criptografía va a seguir siendo segura. Pero luego hay otros problemas, otros problemas matemáticos que son la base de otros algoritmos criptográficos. Lo que quiere el en Estados Unidos es tener distintos algoritmos basados en distintos problemas matemáticos, de forma que si uno de esos problemas matemáticos se resuelve con un ordenador clásico cuántico en el futuro y el algoritmo deja de ser seguro que tengamos otros de reemplazo, vale. Además, hemos estado desarrollando librerías OpenSSL para implementar estos nuevos, esta nueva criptografía, el hardware que hemos sacado en IBM, el mainframe, por ejemplo, los ordenadores más potentes que tenemos para entornos de bancos y entornos de este tipo. Por ejemplo, el firmware de esos ordenadores viene firmado con criptografía de la nueva y de la antigua. Para. Para que no se pueda modificar en cloud de IBM tenemos que estar hacia de la nueva. Estamos ayudando en distintas industrias a crear consorcios para que se avance en todo esto. Por imaginaros el sector telco, por ejemplo, que tiene criptografía por todas partes, tiene mil componentes distintos las antenas, los el cloud donde se corre todos los terminales, la SIM, cuando la autenticación, cuando se registra un dispositivo nuevo, el roaming tienen que hablar entre proveedores y demás, tienen protocolos cientos. Entonces todo eso lo van a tener que emigrar a esta nueva criptografía. Y en IBM hemos potenciado un grupo de trabajo dentro del GSMA para que para que trabajen en esto y están desde los fabricantes de hardware, de software, los operadores, todo el mundo está metido ahí. Y bueno, que sepáis un poco que hay roadmap ya más y menos agresivos dependiendo de gobiernos, de que hay que ir migrando las cosas ya a nivel público y privado hacia este nuevo tipo de criptografía. El Reino Unido son relativamente agresivos en 2025 2028. Ya dicen que tiene que haber planes para migrar los los casos de uso más más críticos. Tiene que haber un plan. Claro que cuando se van a mirar las cosas en 2031 tienen que estar migrados esos casos críticos y para 2035 tiene que estar migrando absolutamente todo. Hay gobiernos como el de Australia que tienen roadmap todavía más agresivos y bueno, y esto va evolucionando. El otro día hubo un paper de Google que decía que adelantaba que habían encontrado optimizaciones a varios niveles y Google, por ejemplo, lo que ha dicho ya es que para de su su software para 2029 van a tener todo con criptografía quantum Safe, porque en base a esos nuevos avances y ellos creen que va a estar todo, se puede romper la criptografía mucho antes. Tienen que estar preparados antes. Es decir, va viendo muchos avances, muchas líneas distintas en el diseño de hardware, en los algoritmos cuánticos, en muchas cosas que puede hacer que esa ventana todavía se acorte. Vale, y lo del efecto 2000 que decía Ginés antes puede quedar. Esto es un proyecto muchísimo más complejo por todas las implicaciones que tiene que aquello del año 2000 en la Unión Europea vamos poco así de espacio y lo que se ha dicho es que como para 2030 tiene que estar solucionado el riesgo este del Harvest Now de Creep Later, ya que no podemos estar expuestos al que alguien nos coseche la información y la desencripta a futuro va a haber seguro roadmap más claros. Aquí en España, por ejemplo el CCN, el Centro Criptográfico Nacional, seguramente dentro de poco ya saque una guía de Oye, tenéis que implementar estos nuevos algoritmos si queréis ser estándar, seguir con con el estándar nacional del Esquema Nacional de Seguridad, que es básicamente lo que se tiene que que acoger. Las empresas que quieren vender software en España al sector público. Y bueno, nada, me voy a terminar ya. El hardware que hemos sacado tiene capacidades criptográficas para implementar esta nueva criptografía y hay un concepto interesante que igual igual hay En el futuro los que estéis alrededor de esto, que es la cripto agilidad hoy en día, sabemos que vamos a tener que reemplazar toda esa criptografía que hemos implementado durante décadas a algo nuevo. ¿Qué pasa si dentro de 235 años se descubre que hay una nueva forma de resolver esos problemas matemáticos que son la base de esta criptografía? Y tenemos que cambiar otra vez la criptografía. Nos tenemos que meter otra vez en megaproyectos de la leche. Otra vez a cambiar todo. Pues la idea es que ahora que hay que cambiar, intentemos ir a soluciones que sean cripto ágiles, que nos permitan cambiar la criptografía de una forma más sencilla. Por poner un ejemplo, si se desarrolla código que la implementación de esa criptografía, la longitud de las claves no esté definido forma estática en el código y que para cambiarlo haya que ir no, sino que haya ficheros de configuración, por ejemplo, que te permitan decir quiero utilizar esta librería criptográfica con esta longitud de clave. Este algoritmo, eso es un ejemplo. Simplemente Vale, pero pero la idea es que vayamos algo ágil y nada bueno. Un concepto último ya por terminar. Existen dos tecnologías distintas que a veces se confunden el tema de lo que es lo que soy comentado, estos algoritmos nuevos basados en problemas matemáticos difíciles para ordenar los clásicos y ordenados cuánticos. Esto es lo que se llama post quantum crypto, criptografía cuántica. Ese nombre es como lo conoce la mayoría de la gente, pero a nosotros no nos gusta llamarlo así porque post quantum crypto suena pues quantum a Después del quantum hay mucha gente que como vosotros que se está poniendo ahora con el Quantum, dice no me voy a poner ahora con el post quantum, pero la realidad es que es algo que hay que ponerse ya porque va a llevar tanto tiempo cambiar la criptografía, que es que hay que ponerse ya. Entonces nos gusta llamarlo Quantum Safe. Vale, eso es la criptografía. O sea, eso es. Digamos que tenemos que ejecutar en nuestra tecnología actual, en nuestros móviles, portátiles, servidores y demás, para protegernos frente al ordenador cuántico. Vale. Y luego hay otra cosa que se llama Cuca de. Que es Quantum Key Distribution, que es utilizar las propiedades de la mecánica cuántica también, igual que hacemos en computación cuántica. Esto de la superposición, el tratamiento de estas cosas en vez de para computar, utilizarlo para intercambiar claves criptográficas, de forma que si yo con Cuca D puedo intercambiar una clave criptográfica contigo, luego ya puedo establecer una comunicación segura utilizando esa clave. Digamos que reemplaza lo que es la criptografía asimétrica, que es la que está expuesta. ¿Cuál es el problema? Que esto es un hardware distinto, caro, que está por estandarizar todavía, que no es algo, digamos, una solución que podamos utilizar para reemplazar la criptografía en nuestros móviles, portátiles y demás. Eso para empresas grandes, para agencias de seguridad que quieran establecer un canal alternativo. Esto requiere comprar cacharros, grandes, comunicaciones por satélite, cosas complejas. Vale, entonces eso nos proporciona ese intercambio de claves, seguro, pero no nos proporciona la autenticación, el poder hacer firma digital, el poder, digamos, el resto de servicios que nos da la criptografía normal. El Cuca nos lo da. Necesitamos criptografía, quantum, safe o peke para reemplazar lo que tenemos hoy en día y proteger nuestras comunicaciones. Vale, Cuca de solo nos da una parte y para entornos concretos, por si lo oyes a futuro. Pues nada, no sé si tenéis preguntas. Vamos al café o preguntas durante el café. Si tarde. ¿Preguntita Si la primera es que la base física de los de los qubits estamos hablando de iones de conductores de conductores superconductores y o son ya muchos? Eso vale, vale. ¿Premio Nobel? Sí, sí, sí. Vale, vale, vale, vale. No, es que cuando has dicho un micro microsegundos antes de que se produzca la decoherencia, si en en motores se ha llegado a. Pero claro, no 100 qubits, sino pocos que hubiese ha llegado a. Y hablando de laboratorio, más claro, el director de la Complutense, que es un centro donde aparece la computación cuántica, estaban hablando de milisegundos, pero claro, no tanto. Hay hay distintas tecnologías para poder implementar la computación cuántica y poder operar con esa ley de la computación cuántica y ones atrapados superconductores que lo nuestro con fotones con. Pero la cosa es lo que necesitamos es una un hardware que nos permita operar, escalar, ejecutar esas puertas, mantener esa coherencia durante mucho tiempo. Necesitamos bastantes elementos que estén a la vez para poder hacer computación cuántica. Entonces cada tecnología tiene sus pros y contras y apostado por por estos superconductores con los trans, que es el dispositivo digamos que con el que donde operamos y nada. Si por tema de. Si esto es esto. Sobre la distribución sobre computación distribuida, digamos tenemos ordenadores en el estado, en el LED. Lo que pasa que la idea se sabe que si, si comparten qubits parte del cubierta en un ordenador y parte está en el otro qubit. Para la computación de funciones lógicas utilizando entrelazamiento necesitan menos transferencia de información clásica. Se disminuye mucho la transferencia de información gráfica, de forma que esa computación distribuida sería favorecida por compartir qubit que se ha compartido con ir a 100 y pico kilómetros ya. Entonces un poco esa sería la pregunta. Si BME está pensando en un futuro de de digo digo computación distribuida que podría estar un ordenador cuántico aquí y otro en un satélite que pensando en la en la línea que está avanzando China. Si nosotros hasta donde yo sé y que Ginés comente más, nosotros estamos trabajando en distintos acopladores para primero conectar qubit dentro de del procesador, luego poder conectar distintos procesadores y luego poder conectar distintos ordenadores de distintos estratos y luego sé que hay un se ha creado. Hay una alianza con con Cisco que están trabajando en algo de redes cuánticas para poder conectar a Cuánticos, pero tampoco sé muy bien cómo va el avance. Está un poco empezando y hay. La idea es trabajar. Ahora hay un laboratorio en Chicago, otro está en Tokio y el otro no me acuerdo donde está y la idea es ir trabajando para poder conseguir a más largo plazo, por supuesto, pero sí poder tener un ordenador cuántico distribuido que pudiera estar. ¿Pues eso parte en Chicago, parte en Japón y estar compartiendo esos qubits para hacer computación sería realmente el computador cuántico global? ¿Porque sería funcionaría como uno solo realmente? Nada. Si hay una pregunta. Más. Si hay algunas preguntas más, si acortamos el tiempo del café, podemos hacer las preguntas. Veo algún no cortar el tiempo del café, pero creo que merece la pena que hagamos un par de ellas más por allí. ¿Y había alguien más en la última fila? Pues si hacemos estas dos preguntas, bueno, vamos a estar luego tomando café. Yo creo que y vuestros correos nos lo país a dejar, con lo cual no vais a escapar de más preguntas. Pues por favor. Una presentación. Solo quería hacerles una pregunta sobre las externalidades de un ordenador, un computador cuántico, o sea consumo de recursos naturales, agua, energía, espacio consumido. O sea, si, si tenéis, bueno, si tenéis ya estudios o papers. Sea. Yo, por lo que por lo que sé y a ver ahí. El consumo de energía. Estamos hablando que hoy en día tenemos datacenters con miles de GPUs para para temas de IA, consumo brutales, de esto no estamos hablando a esa escala, estamos hablando de que tenemos que conseguir enfriar eso a esa temperatura. Eso requiere energía, obviamente helio y bueno, pero pero estamos hablando de conseguir hacer cosas que no podemos hacer con computación clásica. O sea, si yo pienso un Fisher, por ejemplo, le dices que con esto vas a poder en vez de tener que esperar 12 años para desarrollar un fármaco, a lo mejor puedes simularlo y te vas y luego con otros tres años para simularlo en para probarlo en monos, en ratas y demás, acortas el ciclo de 12 años a cuatro. Por ejemplo, poder estar ocho años, el tiempo que te ahorras y ocho años más que vas a poder vender productos. Yo creo que la la energía que se utilice Pfizer en concreto me imagino que le daría un poco igual por el retorno que va a tener, pero por los números que yo sé, es muchísimo más bajo que un data center con tarjetas gráficas con miles de tarjetas gráficas en en ejecución. Un sitio donde. No, no, pero una una si hay, hay alguna información. Lo que pasa es que el la idea es que esto realmente escale bien y es cuando tengamos un data center cuántico grande, cuando podamos tener más ahorros de energía. ¿Vale? Porque la La refrigeración de los ordenadores cuánticos del propio ordenador cuántico es superconductor y no disipa calor. El solo es mantener la la refrigeración. Y eso es es una bomba de helio que es un motor. Como una nevera de una carnicería. No es un motor grande. Sí que es cierto que un ordenador cuántico no funciona, solo tiene unos ordenadores clásicos alrededor. Pero como decía Iván, al final, si estamos calculando, tenemos unas GPUs durante dos meses para entrenar un modelo de y podemos entrenar el mismo modelo en menos tiempo, vamos a gastar globalmente menos energía en la misma computación. Y de hecho sí que esa es una de nuestras esperanzas. Es que cuando tengamos datacenter cuánticos a suficiente escala, podamos calcular las mismas cosas de una manera, eh con con mucho menos consumo de energía. De hecho, hay un dato en el en un. Hay un paper por ahí de que se hizo con un ordenador cuántico de IBM y Kaku, el ordenador, un supercomputador que hay en Japón. Un cálculo que les llevaba creo que era 12 horas. Con el supercomputador se ha conseguido hacer en una hora y media de supercomputador y unos minutos de de ordenador cuántico. O sea que se ha reducido igual en diez horas o algo así el tiempo que ha estado ejecutando este supercomputador para. Para llegar a esos datos ya hay algunos datos que apuntan en esa dirección. Veo, veo que preocupa mucho el asunto de de la temperatura y la base física. La pregunta es si los superconductores de alta temperatura crítica podrían mantener esta misma estabilidad de los mil y Kelvin a temperaturas superiores y evitar ese enfriamiento y trabajar a lo mejor con lo que es mucho más barato que con él. Y yo sé que es un área de las que de los que se está trabajando para para evitar esa parte. Pero de momento, por lo que sé, la ciencia está donde está y hay que utilizar esos superconductores para tener las junction y. Temperatura de momento. De hecho, sí que hay una de las de los carrillos que se cuenta en el laboratorio. Es que a veces, cuando tenemos ordenadores cuánticos buenos para poder diseñar los superconductores de la siguiente generación. El de 150. Y no estamos tan lejos. Bueno, veo. Veis que las preguntas no son fáciles. En esta casa. En esta casa hay mucho conocimiento y las preguntas son del mismo nivel que tu presentación. Me he quedado mucho más tranquilo con que mis claves bancarias van a estar expuestas y demás, así que voy a ir a sacar la pasta y meterla en el colchón, que el colchón ahí eso sigue siendo sigue siendo seguro. Agradecerte Iván la presentación. Bueno, creo que ha sido muy motivadora a los que estábamos muy lejos de la cuántica, por lo menos nos ha permitido acercarnos un poco. Y bueno, la perspectiva que hay creo que obliga a la Politécnica ponerse en esto y a liderar. Si es con vuestra ayuda, pues mejor este tipo de cosas. Como además hemos encargado un día buenísimo que nos ha costado una pasta, pues el café lo hemos puesto fuera para que tengamos la oportunidad de charlar un ratillo. Os pediría que no nos retrasamos mucho, sobre todo porque luego se nos hablará de la. Entonces. Bueno, la parte buena es que vamos a estar fuera. La parte mala es que vamos a estar muy cómodos y a lo mejor nos va a costar volver, pero os empujaremos para que a las 12 empecemos 1/2, que va a ser ya más práctica y nos van a dejar ver cómo acercarnos, cómo tocar, cómo conectarnos, etcétera, etcétera Así que, pues nada, nos vemos en 20 minutos. No quiero dar paso a 1/2 de la charla sin agradecer pues la organización de este evento que como sabéis, aparte de los compañeros de IBM que se han brindado a venir y además presencialmente, pues agradecérselo de nuevo a los compañeros del antiguo Gate que están grabando la sesión y que como siempre, pues hacen un trabajo en la sombra que no se ve mucho pero que que se agradece. Y bueno, a todos los que nos han ayudado con el registro y demás, que bueno, pues al final era una cosa, digamos un poco de andar por casa, pero se nos ha ido de las manos y empezó a crecer y bueno, encantados de que sí sea. Y pues a todas las personas que han ayudado pues agradecerles desde aquí y vamos a 1/2 donde vamos a pasar de las musas al teatro. Vamos a ver un poco qué recursos tenemos, si queremos aprender o queremos enseñar con estas herramientas y por dónde empezar. Así que yo estoy ansioso por ver y aprender, así que os paso la palabra a vosotros. ¿Compartir alguna cosa o no? Bueno, a ver si no la lío yo con el micrófono. Bueno, muchas gracias por por seguir aquí después del café y el solecito que hacía ahí fuera y volver aquí dentro. ¿Eh? Vale, Lo que queríamos hacer un poco es enseñaros la plataforma que tenemos como poder acceder y también un poco cómo poder acceder a través del programa de universidades, porque algunos profesores me habéis comentado también que os habéis encontrado con con la desgracia de que al llegar a la web de. Para poder acceder a los sistemas os ha pedido una tarjeta de crédito, Vale. Todo esto es también un tema de debido a la seguridad. Hace hace unos años, los que a lo mejor habéis estado mirando alguna cosa de estas sabéis que teníamos hasta una plataforma para poder ejecutar Python directamente en el cloud de de manera de manera gratuita y. Bueno, el caso es que por temas de seguridad y por temas de ataques, al final la gente encuentra por ahí un sitio donde puedes ejecutar Python y te ponen minadores de Bitcoin y cosas así. Así que al final nos han hecho poner toda la plataforma de formación también de de IBM Quantum dentro de la seguridad del cloud de IBM. Vale, entonces eso por un lado nos da el que cuando intentamos entrar nos pide una tarjeta de crédito como cuenta de cloud. Pero por otro lado tenemos un programa de universidades muy interesante que os da acceso a muchas cosas y que podéis utilizar con los alumnos y en las que también, entre otras cosas, también está la posibilidad de tener acceso a cloud con una cuenta de universidad y no con una con una tarjeta de crédito. Además, tenéis acceso a descarga de de muchos y y un montón de cursos que también le pueden dar credenciales virtuales como mini certificaciones que puede ser muy interesante para los alumnos el el poder acceder a estas cosas. ¿Entonces vamos a ver, vamos a ver si primero no? Primero La otra vez encontramos la forma. ¿Vale? A ver, hay una. O sea, tenemos una plataforma que se llama Skills Build, como la construcción de habilidades, y en en esta plataforma se pueden dar. Podéis dar de alta como. Como profesores se pueden dar de alta a los alumnos. Y aquí tenéis. Ya digo, esto lo Pilar lo cuenta mucho mejor que yo, que yo soy muy desastre, pero tenéis un acceso a muchos cursos. También tenéis acceso a solicitar, por ejemplo, charlas de profesionales de IBM a través de todo el mundo, de especializados en distintas cosas que puedan dar charlas para una clase o para un grupo en especial. Y también hay acceso al a software y al cloud. Lo que pasa es que estoy entrando. ¿Yo estoy entrando mal, verdad? He buscado Skills build software download. Ya sé que estamos accediendo a Cloud, que no es software download, pero está en el mismo sitio. ¿Vale? En la plataforma de acceso a la tecnología y ahora. Aquí en esta plataforma os tendréis que registrar con un. Correo de la universidad. Espera, voy a intentar entrar. Porque me está haciendo registrar si estaba. A ver. Bueno, no quiero. No quiero perder tiempo ahora para ni hacer un registro entero ni demás, sino. Pero bueno, eh, quedaros con esta página dentro de esta página vais a a esta es skills. Si buscáis Skills Build Software Download aparece la primera de Skills Bill Technology Technology Access vale con academic punto y puntocom. Luego podemos mandar un correo y le damos los los enlaces para que lo puedan distribuir. Entre entre todo el mundo. Vale, aquí os vais a tener que hacer como dos registros. Uno registraros en esta plataforma de Bill y dentro de aquí vais a encontrar que podéis descargar software como SPSS y Plex o productos de los productos de IBM. Son las versiones completas para los alumnos y una de las opciones que que tiene es IBM Cloud. Vale, entonces evidentemente IBM Cloud no es descargar o es Cloud lo que os da. Es un código de registro que permite y además tiene las dos cosas te da el código de registro y las instrucciones de cómo hacerlo paso a paso. Te permite crear una cuenta de IBM Cloud en la Claudia IBM y en vez de ir por el paso de poner la tarjeta de crédito, se pone ese número de registro y eso te da acceso a tener una cuenta de profesores estudiante que tiene un poquito más de capacidad que que la cuenta gratuita que tienes cuando entras con una tarjeta de crédito deja de hacer cosas como un clúster de Kubernetes con un solo nodo. Pero bueno, te deja, te deja probar más tecnología y además ese ese acceso es ahora mismo. Estaban dando por un año y lo y lo está y es renovable después. ¿Entonces antes de que si lo hacéis, antes de que se caduque, es mucho mejor si antes de que pase el año completo volvéis a la página de Skills Bill, seguís teniendo correo de la universidad, pedís un nuevo código, os dan otro año más y otro año más y otro año más vale? Luego el objetivo de esto es que los profesores lo tengan todo el rato y los alumnos lo puedan tener todo el tiempo que están en la universidad. Y el único motivo de que se caduquen es simplemente cuando no se utiliza, pues que no esté consumiendo los recursos. A ver. Vale, entonces ya digo, por ese camino tenéis que entrar, tiene que ser con el, con el correo de la universidad. Si lo intentas hacer con un correo que no es el de la universidad, os va a decir que tenéis que adjuntar la fotografía del carné de la universidad y demás cosas. Pero si. Yo no consigo hacer nada porque no conecto con él, entonces nada. Así que para. Había. Hemos tenido por aquí un QR de una red del evento, sí, pero. La puerta a puerta. Está en la puerta. Que no se pueda. Vale. Y no sé por qué a mí ahora. Pero bueno. Es para conectarse. Si queréis. Yo la. Entonces a través de esa de ese código. Ahora yo estoy entrando con mi cuenta directamente ahora en en el cloud para para ver los servicios. Entonces, como decía, el objetivo que tenemos de integrar la computación cuántica dentro de las capacidades generales de computación que tenemos, nos lleva a hacer disponible esto como un servicio más dentro de IBM Cloud, de forma que igual que tenemos acceso a servidores clásicos para hacer cálculos, podamos tener acceso a máquinas cuánticas y las tengamos en un entorno donde pueda ser rápido y ágil. El comentábamos antes ahí durante el café, que en el fondo no pretendemos tener un ordenador cuántico que sustituya a la computación clásica, sino que sea una cosa complementaria la que le mandemos al ordenador cuántico esos cálculos que nos viene bien hacer ahí porque son eficientes. Entonces esto es como como un coprocesador o como una GPU que tenemos ahí al lado para para mandar esos cálculos y tenemos que tenerla integrado de una forma eficiente para que eso sea sea realmente útil. ¿Vale? Entonces, dentro de dentro de la plataforma de IBM Cloud, si buscáis qiskit. Vale, es. Cu, sino. O sea, Qu y s ca y te. Vale ese ca. Y te. Vale que tenemos aquí en grande. Aquí está más grande. Vale. Qiskit es el nombre de todo el bloque de open source de de acceso y gestión del de la computación cuántica. Entonces dentro de. Dentro del del sistema tendréis acceso a una instancia gratuita que se llama Free Vale y. Esta esta instancia os da diez minutos de procesador cuántico al mes gratuito. Eso vale. Hubo un tiempo. Si algunos lo habéis utilizado antes, que teníamos una serie de máquinas que estaban abiertas de manera ilimitada y lo que pasaba es que la gente enviaba realmente muchas tonterías y tenía las máquinas saturadas, siempre y cuando alguien quería hacer algo. No, no llegaba nunca a la cola. Entonces hicimos un poco de estadística y más o menos lo que lo que le daba a la gente eran unos diez minutos con el número de usuarios que teníamos y desde que lo hemos restringido. Así a los diez minutos esta está funcionando mucho mejor porque hay mucha menos cola y entonces se accede más rápido a los recursos. Además, hay un programa nuevo ahora mismo que si durante dos meses consecutivos consumes los los diez minutos de procesador te dan 180 minutos los 180 minutos siguientes de todos los meses tienes que cuidarlos con tener responsabilidad como los cuidas, porque si no los vas a gastar pero los vas a poder utilizar juntos, ya no te van a restringir a que tengas que ir de diez en diez minutos para que si alguien está haciendo un TFM o una tesis se necesita de golpe ese tiempo de procesador, pues poder hacer un trabajo más grande vale. Además, si si alguno estáis trabajando en algún proyecto, en alguna tesis o un TFM que esté avanzado y tenga un un caso interesante de computación, hay un programa de universidades en el que también se puede exponer. Estoy haciendo esta investigación es útil por esto tiene estas características y poder solicitar que que os den un poco de apoyo a través de más tiempo de procesador o que os puedan ejecutar un trabajo y devolverlo ahí. Normalmente al final lo que nos pasa con estas máquinas es que nos gustaría tener muchas más, pero tenemos pocas. Entonces lo que intentamos es utilizar los los poquitos tiempos que le quedan a las máquinas sin sin que esté nadie utilizándolos, pues para poder utilizarlos y sacarle partido para hacer investigación. Vale, entonces. Esta estas instancias lo que os dan acceso, no sé si se ve muy bien es a las máquinas cuánticas. No voy a venir por aquí porque desde aquí tenemos. Los recursos de computación que tenemos. Aquí estaría la lista completa de todas las máquinas que hay. Vale, con la cuenta gratuita tenéis acceso a estas tres máquinas. Las otras serían para las cuentas de pago. Hay varias modalidades de pago. Algunas son más pensadas de hecho, para para empresas grandes que son más estilo tarifa plana. Y lo que sí que tenemos ahora, que es una cosa que se venía demandando bastante, es un hay un pago por uso en el que pagas por minutos lo que gastes y ahí sale, sale relativamente caro, no sale a precio de estudiantes, la verdad, Pero hay un programa flexible, un programa Flex en el que puedes comprar una cantidad de minutos que puedes utilizar después a lo largo del año y ahí sale A1A1 precio más más razonable. Todas maneras, yo no soy el el experto en ventas, así que tampoco os puedo dar mucho detalle. ¿Pero bueno, si, si necesitáis hablar con nosotros que os ponemos en contacto con con las personas adecuadas, vale? Y si veis la información que nos viene aquí de las máquinas, una es la región, hay máquinas que están en en en Estados Unidos y hay otras que están en Alemania. En en Vale tenemos. A día de hoy hay cuatro máquinas en esta Berlín es nueva y ahora mismo tenemos dos, dos máquinas del tipo Nighthawk, que de las que se estuvo hablando Iván antes, la más reciente, la más moderna, y esta una en Estados Unidos y otra en Europa. Vale. Es importante. ¿El datacenter de Europa? Es muy importante porque ya sabéis que por temas de legislación hay mucha, mucha información que no se puede sacar del territorio de la Unión Europea para bancos y temas de información sensible. Entonces, poder tener un data center aquí en Europa es es una cosa realmente útil en útil para muchos trabajos. Vale. Después tenemos el número de cúbits. Voy a entrar en en una de las máquinas cualquiera. Vale, y vemos la información. Siempre tenéis el número de qubits. ¿Cuáles son las las puertas básicas? Decimos que un ordenador cuántico real utiliza un conjunto de puertas que sea completo para poder hacer cualquier cosa. Pero cuando mandamos el circuito que nosotros hemos hecho se tiene que traducir a esa, a esas puertas. ¿Igual que en los circuitos clásicos, ya casi no se fabrica nada que no sean puertas NAND, pero nosotros lógicamente diseñamos circuitos con con lo que queramos, no? Y luego tenéis siempre la la información del de los errores tanto en la operación es de un solo qubit operaciones de varios qubits, errores de medida y la Tenéis también la información aquí a nivel gráfico que podéis elegir distintos tipos de de registros de toda la información online de la última calibración y podéis ver para cada uno de los qubits o para cada uno de los enlaces cuáles son sus sus errores en este caso. Pues en esta máquina que yo he elegido aquí ahora mismo, pues tiene aquí un qubit que es más feo porque tiene más errores y por aquí tiene otros qubits que tienen más errores que el resto de la máquina. Vale, entonces a veces estas máquinas tienen todavía son son research, no son máquinas como los PCs, que son todos iguales. Tenemos que fijarnos en las peculiaridades concretas de la máquina. Y tener máquinas con muchos qubits nos permite poder encontrar grupos de qubits dentro de la máquina que tengan una calidad estable y buena para poder hacer ejecuciones de nuestros circuitos con con una estabilidad a lo mejor mejor que estas medias. Vale tener en cuenta que estos son los valores medios y en los valores medios. Estos qubits feos hacen le hacen mucho daño a la máquina. A veces si estamos haciendo un solo circuito del mismo tipo de circuito en una zona concreta de la máquina, podemos conseguir poder hacer cosas, operaciones más largas que tengan suficiente estabilidad. Vale, entonces no es toméis estos números como como absoluto, sino dependiendo de lo que lo que queráis hacer, se pueden encontrar trozos buenos de la máquina. Vale. Y luego otro número importante también es este, que es el número de operaciones, no operaciones unitarias, sino capas de operaciones. Si tengo operaciones en paralelo entre varios, me cuentan como uno, que es el número de operaciones por segundo. Vale. Una de las cosas también que a veces nos dicen es no es que nunca bajáis el precio de la computación cuántica porque vale a un dólar el minuto allá, pero valía un dólar el minuto cuando hacíamos 20 operaciones por segundo y ahora hacemos 300.000 operaciones por segundo y seguimos al mismo precio. Entonces la es una forma de de mejorar el servicio y no complicar la facturación en. Cada vez va va viendo más capacidad de de hacer cosas en las máquinas. Vale. ¿Además, y esto es otra cosa, así os cuento cosas, vale? Una de las de las partes que más tiempo consume en los circuitos es el tiempo que dejamos de estabilización, cuando como nuestro circuito cuántico, como nos decía Iván, no, al final medimos unos y ceros. Como nosotros queremos saber una distribución de probabilidad, tenemos que ejecutar el mismo circuito muchas veces que nos va a llevar al mismo estado de manera determinista. Pero a la hora de medir vamos a hacer un un sampling, una estadística. Entonces, dependiendo de la de la calidad o de la precisión de los resultados que yo necesite y de cómo sea mi algoritmo, voy a tener que hacer más o menos repeticiones para sacar información útil y el tiempo de ahora mismo, el tiempo de ejecución de esos milisegundos, o sea, de esos segundos que tenemos de procesador, una parte del tiempo no despreciable es el tiempo que pasamos entre circuito y circuito esperando a que se vaya a cero. Todo vale. Ese es. Ese es un parámetro que por defecto está relativamente largo para asegurarse de que va a hacer o bien, bien, bien. Pero dependiendo de lo que estemos haciendo, podemos por por parametrización podemos reducir ese tiempo y a veces, si estamos haciendo un experimento más como estudiantes y queremos poder hacer más cosas, pues podemos sacrificar un poquito de de que alguna de las veces no se nos vaya a cero y reducir ese tiempo a la mitad y tenemos más segundos para probar cosas. Vale, entonces ahí hay que jugar para sacarle partido a esto, como como estudiantes del tiempo que tenemos, pues a veces hay que jugar un poco a bajar la calidad, no pasarnos de querer hacerlo todo, todo, todo perfecto y podemos hacer más cosas. Podemos aprender y experimentar con más cosas. Y a veces hay posprocesamiento clásico que podemos hacer después para refinar los resultados que que no sale suficientemente bueno. ¿Vale? Luego otra cosa importante que hay que tener en cuenta de las máquinas es el el número de trabajos que hay en la cola que estoy viendo que estamos sorprendentemente a cero en la cola ahora mismo. Esto no quiere decir que no haya trabajos, es que no hay trabajos en espera. Quiere decir que que todos los trabajos que se están enviando van entrando y saliendo. Hoy hay una con 84 que supongo que le están dando más caña a veces, yo que sé. Si si se pronta un proceso de machine learning grande de entrenamiento, pues a veces entran mil trabajos y hay veces que ves un proceso en la cola y resulta que es un proceso que dura dos horas y estas dos horas esperando a que a que pase, pero últimamente el tiempo de espera se ha reducido mucho por eso, porque sea la velocidad de las máquinas se ha incrementado mucho y entonces va, van entrando mucha, o sea, con las misma cantidad de máquinas tenemos mucho más capacidad de cálculo, vale. Cuando cuando ejecutáis cosas lo que se crean son work, loads cargas de trabajo y dentro de una carga de trabajo puedo tener uno o varios circuitos. En este caso, por ejemplo, aquí tengo. Esto fue un ejemplo muy, muy sencillito de un. Crear un estado entrelazado y medirlo, vale. De hecho no, este ni siquiera es un entrelazado. Esto directamente en medio de dos cubos sin hacer nada más. A ver si tengo algún circuito más bonito. Este si es eso, está dentro de. ¿A ver cuando yo envío un circuito a una máquina, pues voy a tener un un tiempo de pendiente en la cola, que en este caso también ha estado aquí cero segundos en la cola va a tener un tiempo de de procesado, vale? Y va a tener un tiempo de segundos en el procesador cuántico. Vale, entonces el tiempo total es más grande que el tiempo que gastamos. Cuando nos cuentan el tiempo de procesador nos cuenta solo el tiempo de procesador. ¿La otra parte no nos la están descontando, vale? También tened en cuenta que si en un trabajo se pueden mandar varios circuitos, si mandamos nuestros circuitos agrupados, vamos a gastar menos tiempo de procesador porque hay cierta parte de inicialización y limpieza que nos van a cobrar siempre. ¿Entonces si mandamos bloques solo va una vez y reducimos el tiempo, Entonces este que es un circuito muy sencillo, ha gastado dos segundos, pero ahí a lo mejor mandar diez circuitos mucho más complejos también me gasta dos segundos, vale? Normalmente cuando envías algo estás es difícil que quede por debajo de dos segundos, pero sí que hay muchas cosas que caben dentro de dos segundos y si lo mandáis más, más agrupado, vale. En este caso, aquí tenemos un circuito en el que creamos un estado entrelazado en el que solo debería estar midiendo uno uno en este circuito. Y si os fijáis, pues 1006 veces a mido uno uno. Cuántas veces aquí siete veces ha medido uno cero y 11 veces ha pedido cero uno. Esto es lo que os decía, que aquí estos son errores que han sucedido que no deberían haber aparecido. Vale, si yo sé que mi estructura de circuito va devolverme un solo resultado y que todo lo demás es ruido, pues a lo mejor no necesito hacer tantos shots haciendo muchos menos es suficiente para que si tengo de este 200 y de los otros solo tengo uno, pues tener claro que este era mi resultado entonces Por eso es importante cuando diseñamos algoritmos, buscar cosas que sean eficientes a la hora de medir. ¿Vale? Si yo tengo, yo siempre le cuento a la gente esto de yo quiero predecir la bolsa que le gusta mucho a la gente eso de ganar dinero. Yo digo cojo el Ibex 35, pienso, pongo un qubit para cada una de las 35 acciones, miro la probabilidad de que suban o bajen y entonces lo pongo así en probabilidad de que sea uno o cero. Y como los bancos suben juntos las eléctricas, pues pongo entrelazamiento para conseguir probabilidades condicionales y entonces creo una distribución de probabilidad de todos los posibles casos de la bolsa, como va a estar mañana. Entonces, si yo quiero medir esa distribución de probabilidad porque el ordenador cuántico me está contando qué va a pasar mañana, me voy a tirar 200 años ampliando circuitos cuánticos para sacar todas las combinaciones que había ahí, así que no me sirve para eso. No puedo utilizar el ordenador cuántico para intentar generar una distribución de probabilidad complicadísima e intentar medirla estadísticamente porque va a ser un desastre. Lo que yo puedo hacer es, una vez que tengo esa distribución de probabilidad dentro del ordenador cuántico ahí dentro, intentar hacer algo que me deje la combinación con menor riesgo o con mayor retorno. ¿Entonces, qué consigo? ¿Que haya muy poquitos estados que sí que tienen probabilidad de encontrarse y todos los demás tengan una probabilidad muy, muy baja? Entonces ahí, aunque mi distribución de probabilidad teóricamente tuviera miles de millones de estados, hay muy poquitos que son muy muy probables y con un número de medidas razonablemente bajo puedo sacar la suficiente información. ¿Vale? Esto cuando hablamos con los que son muy, muy matemáticos, a veces me dicen que que estamos jugando con las máquinas y que estamos forzando las cosas y. Y yo siempre digo si yo tengo un modelo que me predice si mañana va a llover o no, pero tardo dos días en ejecutarlo, no me sirve de nada, pero si lo ejecuto en medio día me da algo de información. ¿Pues ya está, no? Con con esto no vamos a resolver los problemas matemáticos que son irresolubles. Si algo es NP completo y crece exponencialmente va a seguir creciendo exponencialmente. Pero si conseguimos resolverlo al nivel en el que nos da un resultado útil que podemos aplicar, tenemos que ver la forma de sacarle partido a cómo calculamos cosas. Al fin y al cabo, cuando calculamos con los ordenadores clásicos calculamos en 64 bits, que tampoco son números exactos y nadie protesta porque dice no, es que está redondeando a 64 bits, solo no está sacando el número perfecto. Entonces bueno, pues esa es la la idea general de de esto, LA Lo bueno de que esto esté aquí en el cloud tiene unos identificadores. Es que cuando yo envío un envío, un trabajo, yo puedo apagar mi ordenador y luego volver al día siguiente, recuperar el resultado. Vale, no necesito tener mi ordenador aquí conectado todo el rato. Esto es muy parecido a como utilizamos los superordenadores en general, enviamos trabajo, recuperamos los resultados y tenemos que ir trabajando de esa manera más asíncrona. Y si tenemos que hacer, tenemos que pensar que estas máquinas son. En ningún sitio ponemos que son productivas. Intentamos gestionar el data center como si fueran máquinas de producción, precisamente para aprender cómo tenemos que manejar un data center de producción. Pero no lo es. A veces tiene. Pasa un camión de la basura y se desacopla una máquina. Y esas cosas pasan. Y además intentamos mejorar las máquinas en la medida de lo posible. Entonces se hacen recalibración, se hacen cambios cada poco tiempo, cada mes puede haber un cambio en la máquina, de forma que aunque sea la misma máquina, ya no está funcionando de la misma manera que antes. ¿Vale? Entonces siempre, si queréis hacer algún trabajo que que hay que planificarlo más o menos bien, porque lo que puede pasar es que a mitad del trabajo la máquina os cambie porque de repente te dice no, es que es mejor porque ahora tiene menos ruido, pero te he cambiado la dirección de no sé qué puertas te dice. Vale, pues me has dejado mi trabajo a medias. Entonces planificarlo. Normalmente se avisan por aquí salen avisos, pero pero no todas las cosas se avisan con mucho tiempo porque tampoco se se habían planificado con con ese tiempo vale. y vale. Desde aquí también podéis ver pues los diagramas de circuitos que se han ejecutado y el programa que habría que llevaría ese mismo circuito vale, y el código para recuperar el resultado. ¿Si os fijáis, por aquí aparece este nombre de cuál es la instancia, que son estos, estos códigos raritos del cloud que dicen cuál es mi conexión al ordenador cuántico? Vale. Donde lo tenía, vale, lo tenía aquí. Mal. ¿Y cuál es la forma? La forma general que yo voy a tener de trabajar con. Con esto, Pues. Vale. Lo primero que eso es lo de Qiskit Qiskit es. Son varias cosas. Abusamos del nombre mucho. Por un lado es la el conjunto de librerías opensource en el que tenemos cómo comunicarnos con la. Con el ordenador cuántico. La mayoría está hecho en Python, aunque también hay versiones en C, vale. Últimamente se está trabajando mucho para integrar con supercomputación y se trabaja mucho en C, pues están están las librerías Python que nos ayudan a integrarnos con cosas como ese Calen y demás de Data Science. Y el que que se atreva más puede meterse con el C para tener al final más eficiencia, vale. Y alrededor de Qiskit hay mucho ecosistema y ecosistema quiere decir hay mucha, muchos cursos, mucho material. En en. Yo siempre protesto de que tenemos por un lado material de introducción de muy muy elemental y luego tenemos cosas a nivel de doctorado y que nos falta ahí en la mitad el el buen material suficientemente elevado, pero que no sea tanto que te permita dar el salto. Y bueno, pues ahí seguimos trabajando en intentar conseguir un poco esto para trabajar con con Qiskit tenemos dos partes o las dos partes más interesantes. Uno es la propia librería de Qiskit. Si trabajáis dentro de Jupyter Notebooks que que ayuda a poder ver gráficas, resultados y demás, instalarlo con la opción de visualización y ya os trae todas las dependencias del tirón. Si lo vais a instalar en una máquina que es un servidor que está ahí solo para hacer cosas, pues no hace falta que que instaléis la visualización y luego qiskit es genérico. ¿Una de las cosas que sí que tuvimos claras desde el principio en esto de la computación cuántica es que esto tiene que ser multi proveedor, multi y interoperable, si no, no vamos por buen camino, vale? Entonces Qiskit está pensado de manera global y luego tiene módulos que son los que específicamente se conectan con las máquinas, con las peculiaridades de cada fabricante. Entonces, Qiskit IBM Runtime es el conector de Qiskit para las máquinas de IBM. Vale, podéis buscar porque tenéis otros conectores, para otros, para otros fabricantes y ahí sí que no me lo sé muy bien, pero sé que en algunas épocas ha habido también ofertas de acceso gratuito de distintos fabricantes a computación, que también de cara a hacer un TFM o una tesis, está muy bien poder probar tus mismos circuitos en distinta en distintos hardware, Vale. La hacía a nivel de arquitectura, pues decimos que tenemos que tener en cuenta estos estos cuatro pasos para poder ejecutar nuestro circuito. Tenemos que diseñar nuestro circuito cuántico, que es la la parte en la que menos voy a entrar ahora y es la más complicada, que es la que tenemos que ver cómo realmente vamos a hacer que llevar nuestro problema de la realidad a algo que podemos calcular en el ordenador cuántico. Después tenemos que este nombre queda un poco rayito, pero es tenemos que transformar nuestro circuito cuántico en otro circuito cuántico, pero que funcione con las puertas básicas y la distribución de la máquina física en la que vamos a trabajar. Entonces no es como tal una compilación porque estoy pasando de un circuito cuántico a otro circuito cuántico, pero es el circuito cuántico que ya sí puedo ejecutar en el hardware. Veremos algunas cosas que se pueden verificar y luego como como ejecutarlo. El. 1/1 es efectivamente la parte de la algoritmia. Vale, y ahora mismo me lo voy a saltar a ver hasta donde llegamos luego para poder contar más cosas. Pero la forma de crear circuitos pues al final vamos a tener unos qubits y vamos a tener unos bits clásicos que es en los que vamos a sacar, vamos a sacar la información lo lo que hay en un circuito cuántico. Lo que viene por este lado no es la entrada. Los qubits siempre empiezan en estado cero, así que toda la información, todo lo que yo quiera hacer sobre este circuito lo tengo que hacer a base de crear puertas y tendré que hacer medidas o calcular valores esperados. Ahora veremos para poder extraer la información. Vale, entonces yo creo un circuito con unos qubits y después esto es muy programación orientada a objetos sí que estoy. Creo que soy yo. Sí, ahora soy mejor. Vale. Pues eso es muy Programación, Entrada al circuito. Le pongo una puerta H en el cero. Le pongo una puerta X condicional, que es una puerta de dos qubits. Entre el cero y el qubit uno siempre van. El de arriba es el de la derecha es de cero así y al final pues puedo decir que que voy a medir y tengo utilidades para. Por eso para pintar los circuitos. Muy cómodo cuando cuando tengo esta parte de pintar circuitos puedo utilizar decirle que me los pinte utilizando matplotlib o puedo decir que me los pinte utilizando látex o puedo decirle que me dé el código fuente del lápiz para pintar el circuito que viene de maravilla para copiar y pegar en tu artículo que vas a publicarlo. Y vamos a poder hacer en general dos tipos de cosas. Con los circuitos no vamos a poder medir distribuciones de probabilidad, medir unos y ceros y ver qué es lo que tenemos dentro. Y eso lo lo llamamos sampling, sampleo. Y también vamos a poder calcular valores esperados de un operador sobre ese estado del circuito que teníamos. ¿Vale? Lo de los valores esperados está muy bien porque no lo que nos permite es en vez de intentar medir una distribución de probabilidad, voy a sacar un número. Vale, entonces para muchas cosas en ese número es una forma fácil de extraer información de dentro del circuito. Vale. Dentro de la librería de Qiskit tengo mis mis puertas estándar, las que voy a poder ir creando mis circuitos, pero también tengo algunas librerías que me permiten crear algunos tipos de circuitos genéricos o útiles que se utilizan mucho. Vale entonces. Y también algunos circuitos que se utilizan para pruebas, circuitos aleatorios con muchísimas puertas y cosas así. Esto va creciendo. Aquí hay distintas maneras útiles de crear nuestros circuitos. El siguiente paso, y este es muy, muy importante, por culpa de que nuestras máquinas todavía no son fold, toleran, no son máquinas con qubits lógicos, son máquinas físicas que tienen errores y que como hemos visto, cada una es particular y tiene unos qubits mejor, otros peor. Hay que mirar las calibraciones. Entonces aquí estamos todavía en la época de programar el ordenador con el soldador poniendo cables. Vale, hay que tenemos que pensar dónde vamos a poner nuestro circuito dentro del chip concreto para sacarle partido. El de Qiskit funciona de manera automática y nos da algo y luego podemos nosotros refinar un poquito más. Lo que sí que es muy importante, si estáis haciendo algún estudio en el que queréis comparar datos o hacer cosas recurrentes, si estáis haciendo un ejercicio de optimización en el que vais cambiando parámetros y ejecutando los mismos circuitos, tenéis que transpirar el circuito una sola vez para que después estéis ejecutando siempre en las mismas condiciones dentro del hardware, porque eso es lo que nos va a llevar. ¿Es que una cierta cantidad de los errores que se nos produzcan sean errores sistemáticos y eso nos ayuda a que después en un proceso podamos limpiarlos o cuidarlos mejor, Vale? ¿Qué tres cosas tenemos en cuenta para para hacer la transpiración? ¿Cuáles son las puertas que físicamente puede ejecutar la máquina? Así que tengo que traducir pues mis puertas por una combinación de puertas equivalente. Tengo que tener en cuenta la conectividad, porque no todos los qubits están conectados con todos y yo he hecho puertas entre qubits que no están conectados. Voy a. Primero tengo que encontrar dentro del chip cuál es el sitio donde mejor encaja y luego tendré que añadir saltos para completar la conectividad. ¿Y además voy a intentar buscar el trocito del chip que tiene menos errores para que mi función sea sea mejor, no? Entonces, eh, bueno, esto es. Esto es un poco de ida de olla de arquitectura, porque un pilar es un gestor de pasos y el gestor de pasos tiene dentro pasos que van dando pasos y se agrupan en pasos de pasos, de más pasos. Pero al final eso es lo que nos permite escribir nuestros propios pasos de transpiración. Si yo tengo alguna idea específica de quiero optimizar esto más para mi caso, no sé que puedo meter algo ahí entre medias de toda la cadena de transpiración. ¿Qué tengo que mirar? Tengo que mirar eso, el layout, dónde lo voy a poner, el routing, añadir puertas de saltos y si no encajan la traducción a las puertas que se ejecutan después de traducir y del routing hago optimización, porque a veces lo que me pasa es que tengo tres puertas de rotación, una detrás de otra, moviendo un ángulo que las puedo juntar todas o unas que se me descartan. Y lo último es el escape de los tiempos para no hacer las operaciones secuenciales, sino poder poner en paralelo todas las las operaciones posibles. ¿Entonces aquel circuito que había hecho que tenía una puerta X y una puerta, ceno transpirado para para esta máquina y VM Brisbane, que ya no ya no está accesible eh? Pues queda como esto, pues queda con un conjunto de puertas equivalentes a las puertas que teníamos siempre cuando te quedan circuitos más largos, porque siempre acabamos teniendo que hacer grupos de puertas, normalmente no es tan malo que haya muchas puertas, sino cuantas puertas de dos qubits son las que nos quedan al final. Porque en la máquina física las puertas de dos qubit son las que generan más errores. Normalmente tienen un orden de magnitud superior en errores, así que puedo hacer 100 puertas de un qubit y no me da. Me dan tantos problemas como una de de dos qubits. Vale, En muchas veces, desde el punto de vista teórico, decimos que las las puertas test o las complicadas a la hora de hacer un circuito, pero esa es la parte más teórica cuando las estamos simulando matemáticamente. Pero cuando nos vamos A1A1 circuito físico, lo que nos nos provoca más errores son las puertas de dos qubits y no las puertas de en concreto no nos hacen ese daño directamente en el circuito. ¿Vale? Podemos dejar el runtime que nos transpire y luego como verificamos decimos que si estamos haciendo cosas interesantes, acordaros esa gráfica que puso antes Iván, en el que teníamos un bloque con pocos qubits y otro bloque con muchos qubits y pocas operaciones. Si, si yo tengo pocos qubits voy a poder hacer clásicamente la simulación. Al final hago senos y cosenos y demás y puedo hacer los mismos cálculos clásicamente. Vale, si yo tengo muchos qubits, pero no están todos entrelazados con todos. Si el y no hago demasiadas operaciones voy a tener ahí unos productos de matrices como se dice sparse en español, dispersas, en las que voy a poder utilizar redes de tensores y hacer esos cálculos más o menos eficientemente hasta cierto punto. Entonces, cuando yo quiero hacer problemas de los interesantes, estoy fuera de esos dos sitios, pero tengo que utilizar esas dos cosas que son las que tengo para poder verificar por dónde voy. Si estoy yendo bien. Así que puedo hacer circuitos pequeños del mismo tipo de lo que estoy haciendo para ver en simulador que van por el camino de lo que yo quería hacer o puedo hacer circuitos que me entren dentro de la estructura de para que pueda hacer un circuito grande y probar. De hecho ahí puedo abusar mucho y luego meter los ángulos que me dé la gana y funcionará raro, pero funcionará. Entonces el el propio Qiskit, la librería básica de Qiskit, trae un simulador que intenta hacer los cálculos exactos. Entonces ahí con eso no paséis de diez qubits porque os va a matar la máquina para intentar hacer productos de matrices ahí a saco. Y no, no va a poder, no va a poder llegar mucho más allá. Existe una librería de simuladores más eficientes que se llama Qiskit. Hay otras librerías de otros, de otros proveedores. Nosotros hemos trabajado en esta que se engancha al qiskit como si fuera un un runtime, como si fuera un eje, un sitio donde puedo ejecutar. Pero son simuladores que se ejecutan en nuestra propia máquina. Ahí la regla es cada vez que pongo un qubit más duplico la la la cantidad de recursos que necesito. Entonces diez qubits voy más rápido que el ordenador cuántico. O sea, pensad siempre eso. La gente se sorprende mucho. Dice no, un ordenador cuántico es el entorno. Lo que pasa es que hace las cosas de otra forma y podemos conseguir eficiencia en complejidad algorítmica, pero no son máquinas rápidas. Entonces, si yo estoy utilizando un simulador clásico de un ordenador cuántico para pocos qubits, seguramente que sea más rápido que la máquina de verdad. Con diez qubits, este portátil posiblemente vaya más rápido que un ordenador cuántico. ¿De verdad? Bueno, lo tengo muy lleno de. Bueno, aún así. Aún así. Luego, cuando. Si nos vamos hasta 20 qubits, empieza a intentar evitar ya con los ventiladores y a partir de 22 23 qubits pues ya tarda media hora en simular cada circuito y se nos va muriendo esto muy rápidamente. Vale, tenemos cosas estas como los los estabilizar que nos permiten. Bueno, antes de esto hay otra cosa que también tiene la librería, la librería esta de Qiskit Runtime, el Time que nos deja hacer simulaciones con ruido para que veamos cómo saldrían las cosas en una máquina o tengamos una idea. Pensad que esto no es la simulación del ruido real, es un ruido aleatorio montado encima. ¿Para que tengas una idea de cómo podría salir esto, Esto es carísimo de simular, vale? Porque además de tener que hacer la simulación del proceso, voy a tener que cada puerta que hago hacer un aleatorio por a ver si meto ruido y cómo se propaga el ruido por todos los circuitos. Entonces, cuando queráis hacer simulaciones en local, a menos que tengáis específicamente un deseo imposible de querer simular ruido, no simule y ruido coger el simulador exacto y ya está. Vale, porque si no. Y es que hay muchos ejemplos por ahí que empiezan con un backend de estos y te vuelve te vuelven loco, no te dejan hacer nada más. Vale. Y luego lo que decíamos, eso es los estados estabilizar con ciertas rotaciones, pues podemos hacer simulaciones de circuitos muy, muy grandes. Como ese que está ahí. ¿Qué pasa? Esa simulación solo. Solo va bien si los ángulos son múltiplos de pi medios. Pero yo puedo poner los ángulos que me dé la gana y simularlo como si fuera un estabilizar. ¿Qué va a pasar? Que el resultado va a ir yendo cada vez peor. Depende de lo lejos que esté, de que el Estado sea lo que tenía que ser. Entonces, de alguna manera es como si tuviera una ejecución con ruido. Podemos pensarlo así. Es un ruido chungo porque no es igual en todos los estados, depende de los ángulos se me va más o menos, pero me puede. Esto me puede ayudar a validar cosas, a validar que mi circuito, que el postprocesado de lo que estoy haciendo está bien hecho. Por ejemplo, aunque las medidas que esté haciendo estén mal, que me cuadren mis programas me ayuda a depurar código sin tener que gastar minutos de de ordenador cuántico. ¿Vale? Y luego pues nos vamos a ejecutarlo de verdad. ¿Vale, entonces cómo va esto? Pues nosotros nos conectamos a ese servicio de Cloud, enviamos el circuito o el conjunto de circuitos. Vale. Si hay. Enviamos un conjunto de circuitos dentro del laboratorio donde está la máquina. ¿Esos circuitos se acaban enviando A1A una electrónica de control que es la que genera los pulsos de microondas que le enviamos a los qubits para que? Para que hagan las acciones y los pulsos de microondas que enviamos a los qubits para medir resonancias, que es la forma que tenemos de sacar la información y eso vuelve para atrás y nos llega el resultado del circuito. ¿Vale? Entonces. ¿Cuál es el mínimo para hacer un circuito? Pues que estoy haciendo, Vale. ¿Cuando instancia Qiskit Runtime Service? Esto aquí en este paréntesis le voy a tener que dar mis credenciales del cloud o bien tenerlas guardadas. ¿Vale? Después digo en que backend lo quiero hacer. Me creo un circuito aleatorio aquí con unos observables porque voy a medir valores esperados y le digo vale, ejecutarlo y ya está. Este circuito con este observable dame el resultado. ¿Vale? Cosas adicionales que tiene esto vale, Cuando yo mando los circuitos al ordenador cuántico, tengo que esperar una cola. Vale, entonces si yo estoy haciendo un trabajo que tiene varios circuitos juntos, existe un concepto de sesión. Vale. Las sesiones. Pues como cuando vas a la pescadería, que cuando te toca a la vez, pues pide sardinas y salmón y no sé qué. ¿Y puedes ir pidiendo tres o cuatro cosas mientras no tardes mucho en pedir unas y las otras, que si no se te mete alguien en medio, no? Con la cuenta. gratuita no se pueden utilizar sesiones, vale, porque al final es reservar la máquina y la puedes tener mucho más tiempo y haces esperar al resto de la gente. Pero la idea de las sesiones simplemente es esto, que puedas ir encadenando una serie de trabajos siempre que el tiempo entre un trabajo y el siguiente sea suficientemente pequeño para que no saltes de la cola y te quedas con el procesador. Para poder terminar un cálculo que hay que hacer en varias en varios pasos. Simplemente se pone como un bloque de sesión y ya está. Y qué. Cosas. ¿Puedo manejar? Pues puedo manejar el número de shots. ¿Cuántas veces voy a repetir esa estadística? Aquí hay que esto hay que pensarlo desde un punto de vista muy muy genero. Vale, hay que decir cuál es el mínimo, la mínima cantidad de recursos que yo tengo que utilizar para sacar lo que me interesa. ¿No, no intentéis buscar cómo tengo que usar esto al máximo para que me dé el número más bonito, sino cómo hago para gastar lo menos posible y que me dé un valor que me sirve? ¿Vale, entonces número de shots? Pues lo suficientes para que estadísticamente sea significativo lo que estoy sacando ahí. Y ya. ¿Está, eh? La transpiración. Pues en la transpiración sí que me voy a esforzar todo lo que pueda, porque eso es algo clásico que hago antes de mandar el circuito, Así que voy a intentar encontrar el mejor sitio, poner los qubits de la mejor manera para sacar el mejor, el mayor partido y luego mitigación de errores. También tengo de dos tipos la que gasta tiempo y la que no gasta tiempo, la que no gasta tiempo voy a usarla toda la otra, dependiendo. vale la parte del. Por defecto está puesto al máximo y va a intentar hacer todas las optimizaciones posibles por lo dicho, porque es es gratis. Y además si yo voy a repetir mi circuito muchas veces, voy a transpirar, una vez me lo guardo, tengo que tener cuidado de eso, no transpirar todas las veces porque si no estaría gastando y además el mismo circuito. Cuando llamo a la transpiración. Como es una optimización a veces no me lleva al mismo resultado. Vale. Esta es la la parte interesante. Cuando yo voy a a ejecutar tengo un agrupador que llama Resilience level que me deja poner con números 123 grupos de cosas que puedo hacer para mitigar errores. ¿Y además de esto, existen otras cositas que puedo puedo añadir, pero estas estas son las más, las más gordas, no? Por defecto tenemos cierta mitigación de de errores de medida. Vale que esto es lo que lo que hace al final es que en la última, cuando ejecuta los circuitos, añade algunas puertas al final para que no siempre estemos midiendo de la misma manera y compensar estadísticamente algunos errores. Entonces, como es una compensación estadística sobre los mismos shots, esto no me gasta más, así que merece la pena tenerlo activado. Esto solo lo desactivas si es. Si quieres medir cómo es de malo la máquina porque quieres medir alguna cosa en concreto. Luego está el nivel dos, que es el cero. No es extrapolación, que es aplicar machine learning a los resultados para sacar algo de corrección de errores. Y este machine learning es el de de lápiz y papel. Y parece mentira lo bien que funciona. Cuando yo intento hacer algo, intento tener el menor número de errores posible. Entonces yo afino la máquina para que me dé el mínimo error, pero no consigo bajar de ahí. Lo que sí que puedo hacer es desafinar para que tenga más errores. Entonces en hago una ejecución, la desafino un poco y hago otra ejecución, la desafino más y hago otra ejecución y luego saco una línea recta hacia donde estaría cuando no había errores. ¡Mirad qué bruto! Pues funciona mucho, muy bien es cierto que estoy haciendo, Tengo que triplicar mi tiempo de procesamiento, pero estoy ejecutando las cosas más veces. Pero una regresión, o sea, una chorrada como esa. Un modelo tan simple hace que que funcione aquí esto modelos de estos hay muchas cosas, muchos intentos. Y estoy seguro de que se pueden hacer cosas mucho más finas, pero esta es relativamente barata porque se hace con solo tres puntos. Es una regresión lineal, es muy rápida, no es extremadamente costosa de tiempo de procesamiento y mejora mucho. O sea, el coste beneficio está muy bien. Y luego está esto, el probabilística error cancelación. Esta es todo lo contrario. Esto es. Tengo mi circuito. Entonces miro, saco cada una de las puertas que voy a hacer en cada uno de los qubits y ejecuto varias veces solo esa puerta en ese qubit para intentar ver qué errores tiene exactamente cada una de las puertas por separado en todos los qubits. Y luego voy haciendo grupos y al final intento hacer una una compensación estadística probabilística de los errores. Esto te multiplica por 30 o 40 el tiempo de ejecución porque tienes que hacer un montón de mediciones. ¿Entonces esto donde se cuando se hace? Pues estoy haciendo la medida de la energía de una molécula que necesito exactamente la energía y quiero que sea lo más vale, puedo meterme ahí en hacer esto que estoy haciendo un un proceso de de machine learning y quiero hacer cosas, pues voy a intentar hacer absolutamente lo mínimo mínimo posible el mínimo número de shots, porque voy a tener que entrenar con cientos de datos o miles de datos y voy a tener que ejecutar un montón de circuitos, Entonces tengo que reducirme al máximo. Aquí no hay solución buena, hay según qué casos y que y que necesite, pero siempre, ya digo, pensadlo desde el lado de cuál es lo mínimo que necesito para que mi resultado sea interesante. Vale. Y luego tenéis aquí la. La documentación de Qiskit está dentro del del IBM Cloud y tenéis en el canal de YouTube. Hay muchísimas cosas muy interesantes. Vale, porque todos los veranos, por ejemplo, se hace una Summer School de dos semanas que se cuentan muchas cosas y está todo publicado en YouTube, se hacen muchos tutoriales. Ya digo que yo sigo echando de menos algo de formación intermedia. Ahí hay una gran parte de formación básica, otra muy avanzada y entre medias hay que buscar más. Pero bueno, también hay algunas cosas. ¿Y luego está la plataforma de learning, a ver si la puedo pasar por aquí, vale? En la plataforma de learning tenemos una serie de de cursos. Que son interesantes, Vale. Estos cursos en la universidad está muy bien, vale porque tienen una base matemática que no se los puede recomendar a cualquiera, pero están bastante bien. Vale. Entonces. Hay una parte más. O sea, digamos que esta parte es más teórica de la de la computación cuántica, pero están. ¿Están bien estos cursos? Además, luego te dan unas. Lo están intentando poner con todos. Todavía no, están todos como unas credenciales de acceso, un examen y tal, todo gratuito. A ver, son un poco así, porque si fallas el examen te presentas otra vez hasta que lo saques. Pero bueno, vamos a hacer. Y luego tienes que esperar. ¿Sí, bueno, bueno, Pero bueno, por lo menos de alguna manera te deja ver que te has enterado del curso o dices Oh, yo creía que me había enterado y a ver qué es esto No es también está bien también para poderlo recomendar a los a los alumnos para que? Para que tengan un poco de de base para poder entender todo lo demás. He hecho trampa porque tenía el enlace, tenía el enlace aquí, pero os lo voy a pasar de todas maneras. Está también vale, pero vamos a leer Lin Quantum y aparece. Y. No sé si enseñaros más notebooks o abrir un poco de turno de preguntas, porque si no yo me enrollo mucho. Voy a abrir turno de preguntas y según según eso vemos más cosas. Bueno, es que utilizado algo la forma en que estoy haciendo y algo que bueno que quería preguntar precisamente por vosotros. Sois de IBM que me ha resultado como como que me. Ha dejado muy. Descolocado siempre que he estado usándolo. Bueno, se me oye así mejor ese claro. Todas estas simulaciones al final son carísimas hacerlas. O sea, si verdaderamente tenemos un ordenador cuántico que lo tenemos que refrigerar hasta estas temperaturas ridículamente bajas. La refrigeración es barata de verdad. Claro, Pero bueno, que aún. ¿Así que digo que cada segundo de procesamiento debe ser caro de hacer, O sea, no debe ser barato, no? ¿Y que cómo desde un punto de vista económico se puede llegar a esto o por por otra manera? A lo mejor en plan este tipo de ordenadores sobre todo a lo mejor las experiencias más gratuitas, están como equilibrados, con ordenadores clásicos de alguna manera, porque también hemos visto que corregir los errores es muy costoso y muy difícil, y que para una experiencia gratuita, o sea, yo me creo una cuenta, tengo diez minutos que con diez minutos puedo procesar un montón y eso intuyo que si todo fuese verdaderamente. O sea como que es muy caro hacerlo, entonces como que esa duda que tengo ahí latente no sé si me ha podido resolver más o menos. La pregunta es muy buena. Vale, mira, eh, el problema de todo esto, igual que la computación clásica, es es un tema de factor de escala. Vale, porque la computación clásica en el cloud es muy barata porque tenemos ahí cientos y cientos de PC súper baratos que se estropean y da igual, se sustituyen por otros y se ponen más. Entonces es un recurso fácil, fácil y asequible. Ahora mismo las las máquinas, estas cuánticas que tenemos tienen una vida de exagerando. Te voy a decir que seis meses. ¿Por qué? Porque a los seis meses la máquina sigue funcionando igual. Está bien. Lo que pasa es que ya está vieja porque tenemos otra más. Hay un ritmo de desarrollo muy rápido. Entonces, a día de hoy no sale el caso económico de construir una cantidad grande de máquinas para ponerlas en cloud y bajar el bajar el precio de operación y el precio de trabajo. Entonces ahora mismo el el precio este que tienen las máquinas está relativamente caro o está muy caro porque hay pocas por un lado y porque. ¿Hay que digamos que con esto no? Ahora que no me dio nadie, no se gana dinero con esta computación todavía. Esto es una inversión y es ese ese montón de caro que es, es recuperar un poquito del dinero que cuesta montar todo esto y desarrollarlo. ¿Entonces por eso estamos en esa, en esa fase todavía de research, eh? Te puedo contar por ejemplo, un modelo. Hicimos un estudio de un modelo de machine learning con una compañía de tarjetas de crédito para detección de fraude y el modelo más o menos funcionaba, funcionaba, daba un por 134 por cinco de de mejora frente a los mejores modelos clásicos que tenían. Lo que pasa es que para poder ejecutar ese modelo hay que ejecutar miles de veces por segundo para las transacciones de las tarjetas de crédito. Para eso tendríamos que tener miles de ordenadores cuánticos trabajando ahí en paralelo Para resolver esto. A día de hoy sale totalmente antieconómico construir mil ordenadores cuánticos que vas a tirar dentro de seis meses porque están viejos. No sale el caso de poder escalar. En cuanto tengamos empecemos a tener la corrección de errores, va a empezar a salir el caso económico del escalado. Por eso el el diseño y el trabajo de todas estas máquinas para que sean modulares. Porque todo este rollo que ponemos de las máquinas que tenemos, yo creo que ahí la industria nos va a arrastrar y las máquinas van a ir creciendo según va, van saliendo el caso económico de usarlas tal cual, porque si, si sale el caso económico de usarlas, pues merece la pena construirlas y ponerlas a funcionar. Mientras no salga el caso económico esto va a seguir siendo caro y un poco por goteo. Claro, claro. O sea, intuyo que en todo esto, como has dicho, el factor determinante es la corrección de errores. O sea, mientras que no se tenga como algo más robusto o más. Entiendo que estaba muy complicado. No es la forma de realmente poder crecer con máquinas que podamos decir que son completamente aplicables en propósito general y entonces esas sí que pueden crecer más como un datacenter, porque como digo, las. ¿Yo creo que el punto es cuando le dejemos de poner nombre a las máquinas, vale? Tú piensas que eres muy joven, pero los demás que estamos aquí, que somos muy viejos. Cuando teníamos máquinas así en un departamento y tal, seguida le poníamos nombres del Señor de los Anillos o cualquier otra cosa. Y hemos llegado a un punto en el que ya las máquinas están en el cloud y dices quiero 17 CPUs y olvídate y nadie piensa en ponerle nombre. No tenemos que pasar de de mascotas ha ganado a que tengan no tengan nombre las máquinas. Entonces mientras tengamos le seguimos poniendo nombre a las máquinas. Quiere decir que todavía estamos en una fase en la que eso todavía no, no ha despegado para. Para el uso masivo. Bueno, y. Yo creo que seguirán avanzando. Seguiremos teniendo máquinas cada vez más potentes, más cúbit, con más puertas que podemos ejecutar. Pero van a ser modulares, las vamos a poder enlazar aunque haya una más potente y no vamos a tener que tirar la anterior porque vamos a poder conectarla, digamos, y que trabajen juntas. Entonces eso es lo que estamos buscando, es que tengan, toleran y que sean modulares también que podamos escalarlas y conectarlas entre sí para juntarlas. Y bueno, y por último, solo volviendo al día presente. O sea, si yo sobre todo para también incluirlo en mi TFG, o sea el ordenador que estoy usando, yo voy a estar, pero a gratuita. ¿Verdaderamente es 100% cuántico o tiene alguna especie de simultaneidad con uno clásico? ¿O en qué grado nos estamos moviendo ahora? Siempre hay un ordenador clásico al lado con el que gestionas, el que le envías y que recibes como procesas. Pero no son simuladores, son máquinas cuánticas de verdad, completamente las que tienes. Eso. Tienes un ordenador clásico que gestiona que puertas vas a hacer, a donde, que habla con una con un hardware específico, que son generadores de pulsos de microondas muy buenos, Sin, sin, sin ruido. Y dentro del refrigerador. Es un chip con con sus qubits y es todo es completamente cuántico. Ahí no hay. No hay parte real, parte simulador. Ok, Ok. Bueno, genial. Pues muchas gracias. A ver, ahora mismo hay diez minutos al mes. Por, por, por persona. Vale. O sea que si también hay un grupo de que esté trabajando juntos, pueden buscar la forma de compartirlo. Y si durante dos meses gastas los diez minutos completos, lo que te dan es el siguiente año para que te lo gestiones como tú quieras y te dan todos los minutos de golpe y no te obligan a que vayas diez minutos al mes, sino que te dejan gestionarlo. O año y medio. Si 180 sí, ese año y medio. Te lo dan en un año. Y ya está. Sí. Los gastos. Como quizás. Lo gastan, no ha gastado. Año y medio en un año. Eso es. Y claro, el problema es eso. Si se supone que por eso piden que haya gastado los diez minutos durante dos meses. Para que ya te hayas dado cuenta de lo que estás haciendo. Y no, no te equivoques y gastes los 180 minutos de golpe. Eso es algo a nivel mundial. Sí, sí, es global. Y luego hay un programa de de apoyo a las universidades que. Sí. Si estáis trabajando en algún algo que de lo que va a salir una publicación en algún trabajo se puede presentar y en base a se analizan los trabajos y cuando hay un trabajo interesante te pueden dar o dar o dar tiempo o decirte que te lo ejecutan a las 05:00, cuando haya un hueco en una máquina y te dan los resultados. Pero bueno, se puede conseguir más apoyo y de hecho el equipo está buscando equipos en la universidad en los que se esté haciendo trabajo, que sea un poco sistemático. O sea, si va un profesor diciendo yo tengo aquí una serie de alumnos, tengo un alumno que está haciendo un doctorado, está haciendo esto, pero tengo otros más y esto va a seguir. Eso te da muchos más puntos para que te lo concedan, que no sigo a un alumno solo diciendo voy a hacer mi TFG y me voy. Entonces ahí es más difícil que se lo den, pero viniendo desde un desde un departamento que tenga continuidad, hablad con nosotros y vemos como. La pregunta. ¿Pero desde la perspectiva de si se pregunta qué es? ¿Se podría valorar un tipo de máster o algo así? ¿Él Universidad? Quiero decir. Diez minutos. No si se quedan cortos o largos o es suficiente. Pero vamos a ver, puede haber muchas asignaturas en paralelo. La gente que a lo mejor no tiene mucha experiencia, Lo mejor que se le hacen cortos. Lo preguntaba un poco en esa línea de hasta donde se podría hablar con vosotros para ver otras posibilidades. Ahí sí que. nosotros nos pillan fuera de juego. Te podemos contar lo que tenemos. Creo que todo se puede hablar y ver. No sé si hay más preguntas o cuestiones si. No se. Va a poder utilizar para minar. Antes preguntaban si. Buenos días, va un poco la línea de lo que preguntaba aquí el compañero. A ver, son cosas que nosotros no hemos hecho nunca en ordenadores clásicos porque no había que ponerlo. Pero entiendo que ciertos estudios que hagamos ciertas cosas que hagamos con alumnos, etc, etc, tesis y demás, el hacer un resultado con un ordenador cuántico, de alguna manera tenemos que reflejar el dato de que sea hecho en tal ordenador, en tal procesador, en tal o que sea el proceso de entrada de de lo que nos ha dicho que podemos hacer con la cuenta gratuita de universidad. De alguna manera hay posibilidad de que me ofrezca una especie de certificado. Es, no sé cómo llamarlo, que alguna manera tenéis los trabajos investigaciones se pueda anexar diciendo que tal resultados ha hecho en tal máquina, en tales momentos ya el tema replicable creo que mejor es difícil por el tema de la transpiración. No lo sé, pero me refiero un poco a esos datos de alguna manera, para poder corroborar en estudios científicos de que se ha hecho con tales máquinas concretas, con tales procedimientos. Es algo que no hemos hecho nunca, menos con ordenadores clásicos, porque suponía que todos lo teníamos. Coges el programa, lo aplicas y te va a dar. Pero en este mundo donde componente de probabilidad es es netamente subyacente siempre. No sé cómo. ¿Cómo estáis viendo eso? ¿Qué soluciones estáis ofreciendo? ¿Cómo hacemos nosotros también, no? Ahora mismo, como certificado, como tal, así sellado y firmado. No sé si se ha hecho en alguna en algún momento, pero lo que sí que está es toda la información está disponible aquí en la propia web. Y se puede. Se puede descargar. Por aquí. Si puede, puedes descargar nada Bueno, estos son los gráficos. No sé por qué me lo cambian cada día, pero hay un sitio donde se puede descargar toda la información de la calibración que se puede adjuntar. Vale, yo cuando yo he publicado cosas, yo simplemente adjuntado esta información así sin más y con eso no me. No me han puesto pegas en las revistas. Ah, vale, sí, arriba hay un descargar los datos en CSV. Vale, es que me he ido al trabajo de. Hola. Yo tengo una pregunta. Parece claro que el que has comentado por la miniaturización de los circuitos ya no se puede llegar a menos, ya estamos casi a nivel molecular. No se puede llegar a menos que eso. Obviamente el siguiente paso es la computación cuántica. No hay otra. Esto no creo que lo discuta nadie que algo si alguien. Si quieres aumentar tu capacidad de de computación, tienes que ir a cosas más pequeñas y este será el camino. El. Lo que yo os digo ahora es que que utilicéis la bola de cristal. ¿Precisamente Creéis que algún día, diez años, vamos a poner como periodo como el rango de previsión? ¿Creéis que en los los los computadores cuánticos pueden llegar a utilizarse como un ordenador normal? Que tú le metas código y ejecute que que edite vídeo a una velocidad supersónica y que, por supuesto, que rompa encriptaciones a una velocidad de fábula. ¿Creéis que eso va a pasar en los próximos diez años? ¿Que se utilice como un ordenador normal? Eso es lo del quehacer. Todo este tipo de circuitos y todo esto, Esto es. Lo de. Grabarme. ¿Bien, que luego os podéis reír de mí, vale? ¿No es interesante? Yo a ver esta. Esta pregunta me lleva por historias del abuelo cebolleta en 2016 hablando con Allí en el laboratorio teníamos máquinas de cinco qubits que funcionaban a días. ¿Vale, entonces la idea era y 20 qubits cuando tendremos 20 qubits en 20 años y no han pasado? No han pasado los 20 años y ya tenemos máquinas de más de 100 qubits. Así que yo creo que esto, como cada vez va funcionando mejor, hay más inversión, hay más trabajo, hay las dos cosas. Hay más dinero para poder hacer experimentos y más gente poniendo neuronas para para buscar buenas cosas. Y está creciendo a una velocidad muy rápida. Por ejemplo, no tenemos esas máquinas enormes en las que al lado de la máquina tenemos ese otro armario. Con lo de las microondas hay un equipo de del laboratorio que está dedicado a hacer transistores clásicos analógicos para hacer los generadores de microondas que puedan funcionar dentro del estado, no a menos de 75 bajo cero para poder bajar la potencia, ponerlos más cerca, miniaturizar todo. Entonces, yo creo que además se va, se va uniendo a que tenemos mucho conocimiento de todas las meteduras de pata que hicimos en la computación clásica y cómo se resolvieron las cosas después, que eso también ayuda mucho a a seguir un camino interesante. Yo ahora mismo, ahora mismo a. A más corto plazo, yo creo que esto nos va a afectar más desde los datacenters cuando hagamos un pedido a Amazon, por decir algo y en vez viene desde China, sabemos por dónde viene, a que llega a Getafe y luego en Getafe pasan tres días en que eso ha desaparecido y no nos pueden decir si vienen de día o de noche a repartirnos. No, no, si de repente se puede calcular eso bien y te dice no, el repartidor viene a las 17:00 de la tarde del martes y tú le puedes decir tú vas a comprarte unos zapatos a una tienda, te los pruebas, cambias de color, cambias de talla y en media hora sales con unos zapatos puestos. Así, si tú puedes gestionar esa logística de que vienen, los devuelves, los vuelves a traer y en dos días tiene los zapatos con cuatro cambios. Cambia el modelo de cómo funciona nuestra vida. Nos pueden cambiar muchas cosas sin que tengamos el ordenador en nuestras manos. A medio plazo, que eso va miniaturizar. Vamos a tener ordenadores que posiblemente no necesitan este frío, que necesitan los de ahora y demás. Pues seguramente que sí, pero yo no me atrevo a mucha más bola de cristal. Aparte que yo creo que es para las cosas. Mmm para los casos de uso que ponía editar vídeo y lo que tenemos es relativamente eficiente, ya sea tiene que pasar que lleguemos a tener ese ordenador cuántico que resuelva cosas que no tenemos con lo clásico y que pueda avanzar la tecnología como para que llegue a ser más eficiente que lo que tenemos ahora, que es otro paso adicional. Entonces somos insaciables con la velocidad. Si me doy cuenta de que editar vídeos editaba con un 80 68 se quería, pero es que ahora necesitas un bicharraco que es una CPU casi espacial y es poco la gente que jugaba ahora imagínate ahora los juegos de antes no podían, los de ahora no corrían en máquinas de hace tres años. O sea, no te lo digo porque este tipo de cosas el yo te pregunta antes de la minería, yo estoy estoy absolutamente seguro que ya lo están haciendo. Si no lo están haciendo, no es que vienen con cuántico, pero vamos, que se va a romper todo y que son capaces. Yo hoy en día seguramente en vuestro laboratorio soy capaz de romper cualquier encriptación si os ponéis, pero es que esto es que no es el futuro, es que esto es el presente. ¿Y mi pregunta es estamos todos preparados para esto? Porque esto va a ser una revolución brutal. Estamos preparándonos. Sí, pero. Yo creo que estar aquí y empezar a pensarlo es el primer paso para decir oye esto. Y yo digo los alumnos que entren ahora en primero a la universidad, dices cuando salgan vas a tener otro mundo distinto de donde estamos en muchas cosas en inteligencia artificial, en en cuántica, y tenemos que despertarlos, no decir mira todo esto. Eso que acabas de decir es fundamental. Los que entren no va a tener nada que ver con los que salen. Yo quería aportar algo más y es que bueno, de los que estáis hoy aquí hay de todos los gente que conozco, hay gente de informática, de teleco, de caminos, de de todas las titulaciones que damos, lo cual hace pensar que hay interés en todos los campos, en qué va a pasar con esto. Y bueno, desde el Rectorado lo que queremos con esto es empezar a dinamizar y empezar a hablar de estas cosas y ver cómo empezamos a integrarlo en titulaciones, en másteres, en lo que corresponda. Hola buenas, yo lo que quería preguntar es si la programación que nos has enseñado de directamente programar las puertas, si se está trabajando o cómo se está trabajando en el siguiente paso, que es una programación como la que utilizamos ahora mismo, que no programamos las puertas directamente, sino que les damos las órdenes directamente al procesador. A ver si que sí, que es verdad que mucho de lo que hacemos tiene que ver con con trabajo a muy bajo nivel todavía, porque estamos intentando diseñar los algoritmos. ¿Piensa que un ordenador clásico es Turing completo? Un ordenador cuántico también es Turing completo. Pero el tema es cuál de los dos más o menos eficientes según el algoritmo que estés haciendo. ¿Entonces, eh, ya hay quien ha hecho una migración del Doom, igual que para jugar en la lavadora hay un Doom para el ordenador cuántico que tarda no sé cuántas horas en generar una cada una de las pantallas, no? Entonces simplemente enviar a Lolo con un cálculo clásico para hacerlo dentro de un ordenador cuántico estaríamos haciendo como el Altísimo. No estamos usando un ordenador cuántico para simular uno clásico que se puede, pero por ese camino no conseguimos una ventaja. Desde luego que sí, que intentamos encontrar esos ladrillos de cosas que se pueden reutilizar para para tener cosas de más alto nivel. Pero todavía estamos en un punto muy, muy inicial en el que no tenemos muy claras esas cosas. Así que. Y además es muy interesante lo que lo que se ha comentado de que aquí estáis muchos de muchos campos diferentes. Porque una de las cosas fundamentales en estos próximos años es encontrar los problemas interesantes para mirar si se pueden resolver con esto, porque nos hemos auto enseñados a nosotros mismos que hay ciertas cosas que no se pueden calcular y no lo intentamos ni las pensamos. Entonces tenemos que volver a pensar en qué cosa, no en cómo voy a hacer lo mismo más rápido, sino en cómo, qué cosas no he hecho o qué cosas tendría que hacer de otra manera que no me estoy planteando. Y pensad que esta computación es es más geométrica. O sea que la la computación clásica es más, es más de cálculo, esta es más de álgebra. Entonces la forma de encontrar soluciones a ecuaciones aquí es ver dónde se cortan las cosas en ese espacio de muchas dimensiones. Entonces, los problemas en los que tengáis muchas variables que tengan interrelaciones complejas entre ellas y que tradicionalmente hemos mirado para otro lado, son potenciales casos donde mirar. No, no, esto no es magia, no va a resolverlo todo, pero es donde tenemos que encontrar cosas y un punto más cosas que sean realmente útiles. Vale. Yo, por ejemplo, estaba pensando en algoritmos aplicados a grafos para encontrar los mejores o hacerlo algo mejor, o alguna que se puede inventar que utilizando computación cuántica, por ejemplo, podamos superar al algoritmo de vista para obtener paciencia absolutos y demás. Entonces nos No me planteo ahora mismo cómo puedo programar eso para probarlo utilizando solamente puertas. Ese es el que lo que me lo que se me va. Por eso es que para eso tenemos que hacer un curso. ¿A ver, yo estamos invitados no? Pero efectivamente tenemos. Lo que pasa es que tenemos que entender qué hacen las puertas, cómo hace para entender cómo podemos a veces hasta reflejar cómo, cómo mapear nuestro problema a algo que está dentro del ordenador cuántico. Porque en una de las frases típicas de Y Gambetta, que es el jefe nuestro del laboratorio, es Estás pensando demasiado clásicamente. Y es cuando pensamos en cómo representamos la realidad dentro del ordenador cuántico. Enseguida nos vamos a los unos y los ceros, que es como estamos acostumbrados a representar los problemas en el ordenador clásico. Entonces la. La solución tiene mucho que ver con cómo representamos el problema. Entonces hay una parte muy abierta todavía y por eso hay que andar ahí, en esas puertas, en cómo representar el problema. ¿Y luego también hay muchos equipos trabajando en en general algoritmos digamos estandarizados, en los que puedas utilizar como como un bloque de trabajo, no? ¿Y Pero ahora mismo, por ejemplo, en temas de optimización de grafos y demás, el problema es que las soluciones que son muy teóricas, abstractas, no se trata de contar una optimización del Max Cut, no? Vale, muy bien, muy bonito. Pero luego, cuando vas a la realidad no te encuentras normalmente ningún más cut exactamente puro como eso, sino que empieza a tener sus cosas raras que son las que dices y cómo. ¿Cómo meto yo hasta ahora este detalle aquí para que esto, esto me vaya? Y es donde entra todavía ese tener que pensar a más bajo nivel. Muchas gracias. Y por complementar un poco dentro de que estamos en ese bajo nivel todavía lo que decía Ginés antes, hemos aprendido muchas cosas en el desarrollo de la computación clásica que vamos a poder reutilizar. Ahora tenemos dentro de Qiskit, tenemos disponibles, tenemos como un marketplace de Apple Store o el GooglePlay. Tenemos. Existe la capacidad de que alguien desarrolle una función a más alto nivel o más bajo nivel, por ejemplo, algo orientado a optimización de portfolio, una cosa que se desarrolló en aquí en España. Además, eso lo han desarrollado, lo han metido dentro del catálogo, dentro del market de funciones que hay disponibles. Y ahora cualquiera que llegue un banco quizás más pequeñito que no sea BBVA, en este caso el que lo hizo, que quiera hacer optimización de portfolio. Pero no tengo un equipo de gente que sepa de Quantum para poder entrar en todos los detalles de cómo implementarlo. Eso a la función le pasa los parámetros que sea y obtiene un resultado. O sea, tienes nivel de entrada a ese nivel más alto, pero luego tienes un nivel más bajo en el que puedes. Hay una cosa que se llaman Circuit functions, que te permiten definir qué método de corrección de errores, de mitigación de errores, supresión de errores quieres utilizar si tienes un nivel más bajo. Pero es que luego hay un nivel superior todavía que ya está en por lo menos en fase beta en blanco se ve ahí arriba el poder. Hay un LLM para poder desarrollar un algoritmo cuántico para poder desarrollar código con con ese LLM para para asistirte. Así que estamos todavía en ese bajo nivel, pero pero ya sabemos cosas de otros niveles y estamos avanzando. Bueno, nos estamos yendo un pelín de hora, pero si hay alguna pregunta más, podemos. Si. Gracias. Bueno, es una pregunta más bien sociológica, porque, a ver, soy suficientemente vieja como para haber programado con tarjetas en mi último año de carrera. O sea que. Y entonces, claro, como se ha visto, todo el desarrollo de la informática y todo eso, de alguna manera todo el desarrollo que hubo desde las tarjetas hasta nuestros ordenadores personales y nuestros móviles ha sido muy democrático. Es decir, todos hemos podido acceder y todos esos logros se hacían accesibles para todo el mundo. Sin embargo, desde que empieza la empezó la IA, por ejemplo. Ahí ya empieza a haber limitaciones cuando la intentas usar, pues incluso aunque pagues, por ejemplo para Cloth o lo que sea, te da un tiempo muy limitado y te da acceso a lo que ellos quieren. Es decir, ahí yo ya no, o sea, si yo dependo de esa tecnología, digamos, alguien me está diciendo lo que me da y lo que no me da y a lo que puedo tener acceso y no, y esto que estáis diciendo Quantum computing, pues también me da la impresión de que van a ser instalaciones tan caras y en el que va a haber alguien que manda y no va a ser para todo el mundo. ¿Entonces bueno, esa pregunta si a lo mejor como final sociológica que os quería hacer, cómo lo veis eso? Yo creo que esa limitación existió siempre. Al final. Antes los ordenadores eran más caros y podían acceder a ello. No todo el mundo tenía la capacidad de acceder o tenías la capacidad de ceder a esto pero no a lo otro, que te daba ciertas capacidades que solo tenía el gobierno a Estados Unidos o no sé, yo creo que es algo en qué ha pasado siempre, en mayor o menor medida, pero pero no todo el mundo ha podido acceder a recursos de computación clásica ilimitados. Ahora lo que tenemos es que esto está. La IA tiene la capacidad de ejecutar. En estos datacenter tan grandes puedes ejecutar diez minutos pagando utilizando una cantidad de gráficas tremenda que tú en tu casa no podrías tener de ninguna forma y pagando, yo que sé, 20$ al mes puedes ejecutar eso. Pero no sé dónde va a llegar. Una anécdota que ya me lo ha oído varias veces. Thomas Watson, ex directivo de IBM, dijo Cuando se está desarrollando en IBM los primeros ordenadores normales que dijo Bueno, con esto de los ordenadores veo potencial para tres o cuatro empresas que puedan comprarnos esto. Y ha llegado donde ha llegado. No tengo ni idea de dónde va a llegar esto. ¿Qué casos de casos de uso va a haber? ¿Quién va a conectar? Yo, que me dedico a esto, que nadie había pensado que se podía utilizar, voy a coger el ordenador y voy a encontrar otro área en el que resulte útil mucho antes que los demás, que yo creo que no tenemos ni idea. Pero en cuanto a el que esté en el cloud como está nuestro, nuestros recursos, igual que la IA y demás, al final es esto requiere un hardware distinto, igual que la AI a modelos muy grandes requieren muchas gráficas y bueno, es una forma de conseguir acceso para gente que si no podría llegar igualmente a tener todas esas gráfica. Entonces no sé, yo lo veo como. O sea, si es cierto que que al final hay alguien que te tiene que dar acceso o no, pero es que si no existiera eso no podrías tener acceso de ninguna forma. Creo que es mejor que haya alguien que te hace eso, que es minutos que no, que no tengas acceso, ninguna forma. Gracias. Bueno, pues salvo que haya alguna pregunta de última hora, yo creo que podemos dar esto por cerrado. Comentaros que las presentaciones las vamos a compartir, las dejaremos enlazadas en la en la página donde os podéis apuntar a estos seminarios que estamos organizando y acabar diciendo y cogiendo el testigo este. Habría que hacer un curso, pues a lo mejor lo podemos hablar y a lo mejor podemos organizar de cara al verano algo lo hablaremos, ya os informaremos si así es. Y pues nada, yo creo que agradecer infinitamente a nuestros speakers de hoy, que bueno, pues han brindado a echar la mañana aquí con nosotros y agradeceros a todos que hayáis venido y espero que sea de interés y que levante un poquito. Vamos, ganas de hacer cosas con esto de la cuántica. Los recursos están pelearemos por mejorarlos y cualquier cosa tenéis sus correos y si no los tenéis los tendréis en la esta y si no a través de nosotros pues nos decís Gracias a todos.