Las sanciones a China impuestas por el Gobierno de EEUU que entraron en vigor el pasado 16 de noviembre han dañado a NVIDIA. Inicialmente la Administración estadounidense le prohibió vender a este gigantesco país asiático sus GPU más avanzadas para inteligencia artificial (IA), los modelos A100 y H100, por lo que la compañía liderada por Jensen Huang recortó sus prestaciones y puso a punto los chips A800 y H800, que satisfacían los requisitos impuestos por el Gobierno.
El desafío al que se enfrenta actualmente NVIDIA consiste en que desde la entrada en vigor del último paquete de sanciones tampoco puede entregar a sus clientes chinos los chips A800 y H800. Ni su GPU más potente, la GeForce RTX 4090. En esta coyuntura su mejor opción pasa por hacer exactamente lo mismo que hizo cuando el Gobierno le impidió vender en China las GPU A100 y H100: recortar sus prestaciones lo imprescindible para cumplir los requisitos estipulados por la regulación.
Sin embargo, el Gobierno de EEUU está decidido a impedir que NVIDIA continúe entregando a China chips para IA por muy recortados que estén. Estas declaraciones de Gina Raimondo, la Secretaria de Comercio, no nos permiten albergar ninguna duda acerca de este asunto: “Si rediseñas un chip de manera que pueda ser utilizado para inteligencia artificial, lo controlaremos al día siguiente”. La alusión a la estrategia que ya ha utilizado NVIDIA anteriormente es clarísima.
Pese a todo el negocio de NVIDIA está a salvo
En adelante la compañía de Jensen Huang difícilmente va a poder vender a sus clientes chinos chips para IA a la medida. De las palabras de Gina Raimondo se desprende que la Administración estadounidense desplegará nuevas prohibiciones siempre que sea necesario para impedir que China pueda hacerse con semiconductores de vanguardia. Raimondo ha insistido en que el país liderado por Xi Jinping no es amigo y representa una amenaza para la seguridad nacional de EEUU.
Actualmente NVIDIA acapara aproximadamente el 80% del mercado de los chips para inteligencia artificial
Jensen Huang ha defendido durante los últimos meses en varias ocasiones que la estrategia por la que ha apostado el Gobierno de EEUU no es la correcta. Como cabe esperar, este ejecutivo protege los intereses comerciales de su compañía, pero ha armado su discurso sobre una declaración que difícilmente admite discusión: “Si China no puede comprar las GPU para inteligencia artificial a EEUU simplemente las fabricará ella misma”. De hecho, ya tiene una potentísima: el chip ACCEL, que es mucho más capaz que el A100 de NVIDIA.
El mercado chino es importante para esta compañía porque es enorme, pero su dominio de la industria de la IA es tal que ni siquiera las prohibiciones de la Administración estadounidense van a comprometer a corto o medio plazo el negocio de NVIDIA. Durante el tercer trimestre del año fiscal en curso, que terminó el pasado 29 de octubre, ingresó 18.120 millones de dólares, un 206% más que durante el mismo periodo del anterior año fiscal y un 34% más que durante el trimestre previo.
“Nuestro sólido crecimiento refleja la transición que está llevando a cabo la industria desde los procesadores de propósito general a la IA generativa y la computación acelerada por GPU”, sostiene Huang en el informe que ha presentado su compañía. Actualmente NVIDIA acapara aproximadamente el 80% del mercado de los chips para IA, y aunque compite con AMD, Intel, Google o Amazon nada parece indicar que su posición de dominio vaya a verse alterada a corto o medio plazo.
Este fin de semana en Valencia se ha vivido la locura del atletismo de una manera inigualable. El principal motivo es que el Maratón Valencia Trinidad Alfonso ha dejado un asombroso doble récord de España. Tariku Novales se ha convertido en el primer español en bajar de la marca de las dos horas y seis minutos. Y Majida Maayouf también lo ha hecho en la categoría femenina, con una marca espectacular de 2 horas y 21 minutos.
Pero ojo, porque en el futuro podría haber mucho más. Juan Roig, mecenas de la prueba, acaba de colocar a Valencia de la noche a la mañana como capital del atletismo con una promesa sorprendente: habrá una astronómica cifra para quien bata el mejor registro a partir de 2024. De nada menos que un millón de euros.
Un punto de partida. La maratón de Valencia, popular por su recorrido ultra rápido y por las ideales condiciones meteorológicas, reunió a cerca de 33.000 corredores de 143 nacionalidades diferentes en búsqueda de superar la marca mínima olímpica. El etíope Sisay Lema ganó la competición, convirtiéndose en el cuarto mejor atleta de la historia en esa distancia. Pero también logró el récord del circuito, en manos desde el año pasado del keniano Kelvin Kiptum.
También se ha batido el récord de España gracias al atleta Tariku Nogales, con un tiempo de 2:05:48. Con esta marca, el atleta se clasifica directamente para los Juegos Olímpicos de París. La primera española ha sido Majida Maayouf, con 2:21:26. Dos récords para la historia y un evento que empuja a Valencia a posicionarse en el ranking de las mejores maratones del mundo.
La iniciativa. Y el dinero no va a faltar. El empresario Juan Roig, presidente de Mercadona y de la Fundación Trinidad Alfonso, que organiza y patrocina el evento, ha dicho que quiere convertir esta cita en la más importante de la ciudad por detrás de las fallas y para ello está dispuesto a hacer cualquier cosa. De momento ya ha prometido un millón de euros para el atleta que bata el récord del mundo si lo hace en Valencia. “En 2024 no se si vendrá Kiptum, pero queremos que se consiga el récord aquí, él es un gran candidato a batir el récord del mundo así que más posibilidades tendremos de batirlo. Algún día llegará a Valencia el primer récord del mundo, vamos a luchar por ello”, apuntó Roig.
También ha destacado que quieren convertir el evento en algo mucho más grande: “Queríamos que tras las Fallas fuera el acontecimiento más importante de la ciudad y estamos satisfechos por ello. Aquí no hay recomendados, se nota la cultura del esfuerzo, aquí uno lucha contra uno mismo y es precioso”.
La tendencia. Desde que el empresario y presidente de Mercadona se puso al mando de la gestión de esta cita deportiva, el evento está en auge. Galardonado con la etiqueta Platino de la World Athletics, posee ya un gran presupuesto que le permite paralizar literalmente una ciudad de gran tamaño como es Valencia. En total, 6,5 millones de euros destinadosque se divide en las inscripciones (59%), patrocinadores y colaboradores (35%) e ingresos por instituciones públicas (6%). Además, en el aspecto deportivo, Valencia es en este momento la cuarta ciudad más rápida del mundo en maratón de hombres y la tercera en mujeres.
La comparativa del premio con otras competiciones del mundo. Hay que tener en cuenta que la edición de este año ofrecía 250.000 euros para quien batiera el récord del mundo, tanto en categoría masculina como femenina. La nueva promesa de Roig multiplicaría por 4 esa cantidad. Y superaría con creces a su vez a las grandes maratones del mundo como la de Berlín, Chicago o Boston, donde acuden los mejores atletas del mundo.
La alemana, por ejemplo, reparte el mismo premio tanto para el ganador de la carrera masculina como femenina, recibiendo ambos un total de 50.000 euros. El segundo clasificado se lleva 25.500 euros y el tercero, 12.500 euros. Para los que bajan en la prueba de hombres de 2:02:30, un bonus de 30.000 euros. Y para quien consiga el récord del Mundo, otro bonus de 50.000 euros.
El Maratón de Chicago también da premios importantes a los cinco primeros clasificados. En total, 781.000 euros que se reparten de la siguiente manera: 100.000 euros para el primero, 75.000 euros para el segundo y 50.000 euros para el tercero. Y el resto para los siguientes. En el de Boston, la recompensa es ligeramente mayor: 150.000 euros para los vencedores. 75.000 para los segundos clasificados y 40.000 a los que completan el podio. En todos los casos, la suma ni se acerca a lo que ha prometido Valencia para el año que viene.
Son tiempos raros para los amantes de los coches deportivos. Quienes no quieren despegarse de los vehículos de combustión tienen un horizonte complicado por delante. Europa está forzando a los fabricantes a pasarse al coche eléctrico y las grandes ciudades quieren sacar de sus calles a los vehículos más contaminantes.
¿Te gusta la potencia bruta Te gustará el eléctrico. Buena parte de las firmas han querido convencer al amante del vehículo deportivo con una fórmula muy sencilla: si eres de los que le gusta la aceleración sin límites, aquí tienes un chorro de potencia (contados por cientos de caballos, si hace falta).
Pero si prefieres la agilidad, el coche pequeño y liviano, tenemos una muy mala noticia: no hay uno eléctrico a la vista. El último en confirmarlo es el futuro Alpine A290, la versión más deportiva y prestacional del Renault R5 eléctrico.
Eléctrico y liviano no entran en la misma frase
En los últimos meses hemos hablado de sorprendentes cifras de sobrepeso en los coches eléctricos. El Tesla Cybertruck es el caso más reciente pero, de momento, lo dejaremos a un lado pues no está nada claro que llegue a Europa. Sí veremos en nuestro continente los nuevos Volvo EX90 o Polestar 3, coches que se acercan peligrosamente a las tres toneladas de peso.
La tendencia choca directamente con las intenciones de las políticas europeas, que hablan incluso de imponer un nuevo carné de conducir para todos aquellos coches que superen las 1,8 toneladas. Eso, en los coches eléctricos, haría que la inmensa mayoría de lo ofertado en el mercado necesitara de esta licencia adicional.
Y es que los coches eléctrico, por pequeños que sean, siguen dejándonos cifras de peso para reflexionar. El último de ellos, como decíamos, ha sido el Alpine A290. Los primeros detalles de la versión más deportiva del Renault R5 eléctrico ya han llegado a la prensa y en medios franceses como L’Automobile se echaban las manos a la cabeza.
El nuevo deportivo eléctrico francés medirá 3,99 metros de largo y 1,82 metros de ancho. Pero sobre todo sorprende por su peso: 1.500 kg. Puede no parecer mucho visto lo visto pero hablamos de un coche que debería contar con una batería de entre 40 y 52 kWh de tamaño, pues son los datos que se manejan para el próximo Renault R5 eléctrico.
Hablamos de un coche que medirá casi 20 centímetros menos que el actual Alpine A110, con potencias que aún no han sido desveladas (esto no debería ser problema en un eléctrico) pero que pesará algo más de 300 kg más que el actual deportivo francés. Es un verdadero problema para un coche pensado para disfrutar en una carretera de curvas y cuya marca siempre ha apostado por lanzar al mercado los coches más livianos posibles, incluso sacrificando potencia.
Con una batería de ese tamaño, el gran problema para el Alpine A290 lo encontrará quien busque disfrutar de un buen tramo de montaña, pues se puede encontrar con autonomías de entre 150 y 200 kilómetros a un ritmo fuerte y en el mejor de los casos. Necesitaría tener siempre cerca un enchufe para poner la batería a tono antes y después de emprender la marcha.
Lotus Eletre
En contra de nuestros principios
El problema, además de esta evidente limitación, es que los vehículos de mayor tamaño y autonomía también ven multiplicado su peso. Esto para fabricantes como Alpine es un verdadero problema, pues en la marca siempre se ha tratado de priorizar el disfrute de conducir un coche liviano aunque no fuera el más potente.
No es la única firma. Lotus no ha dado un peso oficial para el Eletre pero debería diferenciarse muy poco del Volvo EX90, con el que comparte tecnología y tamaño de la batería. Ambos ofrecerán enormes acumuladores de energía de más de 100 kWh y estarán entre las más grandes del mercado. En el caso del Lotus no sabemos todavía el peso pero el Volvo se moverá por encima de los 2.800 kg.
El Lotus Emira, su último vehículo de combustión, pesaba poco más de 1.500 kg en su versión de 366 CV. Eso sí, ni era un SUV, ni medía más de cinco metros ni, por supuesto, es eléctrico. Porque ese es el verdadero problema: en estos momentos es imposible crear un coche de menos de cuatro metros y medio, deportivo y eléctrico que se acerque a ese peso. Al menos con una batería que garantice su funcionalidad.
Y en la misma situación se encuentra Mazda. La firma japonesa es extremadamente recelosa con el coche eléctrico. Hace tiempo ya avisaron de que la producción de coches eléctricos con baterías enormes “no es sostenible” y por ello apuestan por un eléctrico de autonomía extendida, como presentaron en el último Salón del Automóvil de Tokio.
Allí, su Mazda Iconic SP atrapó miradas con su concepto de híbrido en serie y enchufable. Es decir, el coche tiene una batería de un tamaño suficiente para hacer en modo eléctrico unas decenas de kilómetros pero llega acompañado de un motor rotativo que actúa de generador aprovechando la gasolina para generar electricidad.
El concepto es una idea especialmente interesante para los deportivos pequeños. De esta manera, el usuario puede garantizarse la movilidad en el entorno urbano en modo eléctrico y aprovechar las virtudes del motor rotativo disfrutando en una carretera de montaña. Es, incluso, compatible con un futuro donde las ciudades obliguen a los conductores a moverse en modo completamente eléctrico dentro de los núcleos poblacionales.
Los nipones aseguraban que este concepto era capaz de generar 370 CV de potencia al tiempo que limitaban su peso a 1.430 kg de peso. La configuración es sensiblemente superior al actual MX-5, que en su versión más potente se mueve en menos de 1.200 kg pero que cuenta con un motor de 184 CV. Este prototipo está a medio camino entre el descapotable de Mazda y el Mazda RX-8, un deportivo de mayor tamaño, que se llegó a vender con 231 CV y que pesaba casi lo mismo, dejando la báscula en 1.425 kg.
Optar por un coche completamente eléctrico con una batería de gran tamaño, con el peso que ello conlleva, es un importante lastre para Mazda, como lo es para Lotus y Alpine, cuya identidad empieza a estar diluida con la llegada del coche eléctrico.
Hoy en día el soporte de dispositivos USB es algo trivial, pero a finales de los 90 tanto el estándar como la compatibilidad de esos dispositivos era un verdadero caos. En Microsoft iniciaron a dar soporte a dicha estándar en Windows 98, pero aquello no fue precisamente un camino de rosas.
Para lograrlo Microsoft ingenió una prueba terrorífica. Lo contaba Raymond Chen, veterano de la empresa, en una entrevista en el canal de YouTube de uno de sus excompañeros, Dave Plummer. Allí le relataba la historia del “carrito USB de la muerte“.
Aquel carrito era como un carrito de correo de oficina, pero estaba lleno de dispositivos USB que debían funcionar correctamente. Tenía varios ratones, teclados, discos, e impresoras.
Todos estaban conectados en cadena a través de diversos concentradores en tres niveles. Por entonces el límite máximo del estándar era de 127 dispositivos, pero el equipo de Microsoft trabajó inicialmente con 64 dispositivos USB encadenados, así que en Microsoft decidieron crear ese carrito con exactamente 64 cosas conectadas vía USB, y además todos esos dispositivos unificaban su conexión en un único conector USB que se podía conectar a cualquier ordenador.
La cosa no terminaba ahí: curiosamente para ayudar a manejar ese carrito y moverlo uno de los dispositivos USB conectados era un volante para videojuegos con conexión USB que estaba justo en la parte trasera para que pudieras “conducir” el carrito USB de la muerte.
Lo que se hacía entonces, explicaba Chen, era conducir el carro hasta el despacho de alguno de los desarrolladores del equipo que trabaja en dar soporte al estándar USB y se le preguntaba si tenía alguna máquina de pruebas. Cuando el desarrollador contestaba que sí, le preguntaban si podían conectar algo a ella para probarla.
La prueba era precisamente la de utilizar ese conector USB único en el que acababa todo el carrito USB de la muerte en la máquina de pruebas. Lo que ocurría entonces es que toda la infraestructura USB del sistema operativo se volvía loca al ver esos 64 dispositivos USB conectados con ese tipo de estructura.
A partir de ahí quien llevaba el carrito podía ir probando por ejemplo si un teclado de los que había conectados o un ratón funcionaban. Pero en realidad solían hacer una prueba más brutal: esperar a ver cómo el sistema “Plug & Play” comenzaba a enumerar los dispositivos y a cargar sus controladores para, de repente, desconectar ese único conector. Entonces se comprobaba si el sistema podía recuperarse reconociendo que se habían desconectado decenas de dispositivos USB mientras los estaba instalando.
El nombre del carrito era bien merecido: el resultado habitual al hacer esa prueba era el célebre pantallazo azul de la muerte de Windows. El código que daba soporte al estándar USB estaba recién salido del horno y había todo tipo de conflictos potenciales en él que aparecían ante pruebas brutales como esta.
Lo que se hacía con eso era conectar ese carrito al laboratorio en el que estaban todas las máquinas de prueba. Se conectaba el carrito, se esperaban por ejemplo cinco segundos, se desconectaba y aparecía el BSOD con cierto mensaje. Luego pasabas a otra máquina, pero esta vez esperabas siete segundos tras conectar el carrito y desconectarlo: aparecía la BSOD con otro error.
Eso permitía a los desarrolladores depurar esos errores detectando cuál había sido la causa y corrigiendo esa parte del código. De esa forma el sistema no se quedaría colgado por esa causa la siguiente vez, aunque podría hacerlo por otra que luego se corregiría, y así hasta depurar todos los fallos.
El escáner que lo inspiró todo
La inspiración, contaba Chen, vino de un evento desastroso que se hizo tristemente célebre en la historia de Microsoft: la BSOD que se produjo durante una presentación de una versión preliminar del sistema operativo Windows 98.
El 20 de abril de 1998 Bill Gates tuvo que mantener el tipo como nunca. Estaba en la feria COMDEX, en plena presentación de Windows 98 junto a Chris Capossela, uno de los responsables del desarrollo de este sistema operativo. Capossela estaba mostrando lo bien que teóricamente funcionaba el sistema “Plug & Play”, pero al conectar un escáner, el sistema se colgó y mostró un pantallzo azul de la muerte (BSOD).
Caposella solo pudo pronunciar un “Whoa”. El púglico empezó a reirse y a aplaudir. Bill Gates, trajeado, se rió como si aquello no fuera para tanto. “Por esto debe ser por lo que todavía no estamos vendiendo Windows 98”, explicó Bill. Su subordinado, visiblemente nervioso, sonrió y contestó “desde luego”.
Ahora sabemos más de la historia. Uno de los miembros de aquel equipo hacía un comentario revelador en ese vídeo igualmente llamativo de hace unos días del que hablábamos anteriormente. PatrickM, que trabajó en el desarrollo del soporte para USB, FireWire y Bluetooth y estuvo en Microsoft 18 años contó qué había sucedido.
“El Comdex BSOD fue causado por un escáner “hot dog” que no habíamos probado en el laboratorio. Habíamos verificado otro escáner en esa versión del sistema operativo, pero no se lo llevaron, sino que fueron a Fry’s y compraron uno de la estantería. El escáner disparó la excepción de “sobrecorriente” ya que se reportó como “alimentado por bus” pero intentó solicitar más de los 500mA que un dispositivo “alimentado por bus” podía solicitar. Ese escáner volvió y se montó en un casco de infantería de la Segunda Guerra Mundial que BradCarp llevó a las salas de Windows WAR durante el resto del ciclo del producto”.
Aquel desastre acabó ayudando a crear ese “entorno de pruebas” del carrito USB de la muerte, y sin duda aquello ayudó a mejorar el soporte y compatibilidad de un estándar que eso sí, siguió dando problemas durante muchos años con aquel sistema Plug & Play (en este contexto, algo así como “Conectar y usar”) que acabó siendo objeto de múltiples bromas y rebautizado como Plug & Pray (“Conectar y rezar”).
El pasado mes de noviembre tuvimos la ocasión de asistir a un pase exclusivo de veinte minutos de ‘Dune: Parte II’, la esperadísima segunda entrega de la monumental adaptación del clásico de la ciencia ficción de Frank Herbert que está llevando a cabo Denis Villeneuve. Por supuesto, es pronto para opinar, pero sí podemos asegurar que hay motivos para pensar que esta nueva entrega podría ser aún más estimulante que la primera. Os contamos por qué.
Lo paradójico de la primera película de ‘Dune’ de Villeneuve es que apenas veíamos Dune, es decir, Arrakis, el planeta desértico a causa del que entraban en conflicto las dos importantes casas a las órdenes del Emperador: los Atreides y los Harkonnen. Cuando éstos mandaban un letal ataque a la sede de los Atreides para hacerse con el control de Arrakis, solo un par de personas conseguían escapar: el heredero Paul Atreides y su madre, que acababan ganándose un lugar entre los Fremen, la tribu que habita el planeta de arena.os
Y esa es precisamente la ambientación de uno de los primeros fragmentos que pudimos ver, en el que ambos se enfrentaban a un escuadrón de soldados Harkonnen ocultos entre las dunas. Una secuencia tensa y que explota a fondo las posibilidades del entorno: aunque la primera película tenía escenas de acción de tamaño masivo, no había casi ninguna a una escala más reducida, como ésta. En ella, además, podemos ver como Jessica Atreides toma la iniciativa para proteger a su hijo.
Villeneuve nos contaba cómo decidió que uno de los escasos cambios que llevaría a cambio con la novela de Herbert sería el de dar un merecido y necesario cambio a los personajes femeninos. Uno de ellos sería el de Jessica, que “en la novela desaparecía sin más pasado cierto punto”, tal y como decía el director canadiense, pero que en las películas adquirirá una importancia mucho más relevante. Recordemos que la serie de HBO que funcionará como spin-off de las películas, ‘Dune: Prophecy‘, estará centrada en las Bene Gesserit, la hermandad a la que pertenece Jessica Atreides y que controlan el imperio desde la sombra.
Y este punto de vista se refleja en dos secuencias más protagonizadas por mujeres con personalidad. Una de ellas es la princesa Irulan, la hija del Emperador interpretada por Florence Pugh. En esta breve escena la vemos teniendo una conversación con su padre acerca de los acuerdos y pactos que el regente mantiene con los Harkonnen: posiblemente esta Bene Gesserit no corra exactamente el mismo destino que su contrapartida en los libros, donde se convertía en algo dócil esposa de Paul Atreides.
Decimos probablemente porque está Chani, el personaje de Zendaya e interés romántico de Paul. Posiblemente con ella Villeneuve se pliegue más a las necesidades de un romance al uso y deje de lado la concepción casi feudal de la sociedad futura que describen los libros y donde los matrimonios de conveniencia y las manadas de hijos están a la orden del día. Aquí quizás sea donde más ha domesticado Villeneuve las novelas para adaptarlas al gusto del público, pero secuencias que hemos visto y que, lamentablemente, no podemos describir con detalle, nos hacen tener confianza en la visión del director canadiense.
Pero donde esta nueva entrega nos ha dejado claro que puede distanciarse de la primera entrega es en sus secuencias de acción. Por desgracia, hemos firmado un embargo que nos impide dar más detalles, pero os garantizamos que las secuencias icónicas que se echaban en falta en la primera película (y que ya se han avanzado en algunos carteles de la secuela) funcionan a pleno rendimiento.
Con un reparto absolutamente estelar (también vimos la fascinante presencia de Léa Seydoux o al icónico Christopher Walken, a los que se suman nombres como el de Javier Bardem, que apareció por sorpresa en la presentación para elogiar la visión del director), estamos ante la que posiblemente será la superproducción de ciencia ficción del año. Y esta vez sí que lo podemos decir con las pruebas en la mano: nuestro viaje de veinte minutos al mundo de Arrakis ya nos ha hecho preparar la cantimplora y los respiradores nasales.
Ha pasado casi una hora desde que salí de Madrid y debo estar a punto de llegar a La Cristalera. El tráfico apelmazado de la M-30 ha cambiado a un paisaje verde y neblinoso. Hay prados de hierba con vacas y algún rebaño de ovejas. El frío se barrunta en el aire. Y la carretera, mojada, y estrecha, asciende a base de curvas.
La Cristalera es un pabellón de madera y piedra levantado en los años 50 y reconstruido después. Está encaramado a la sierra de Guadarrama, en la falda del puerto de la Morcuera, de 1.776 metros de altitud. Allí se reúne durante tres días parte de la élite de la investigación de la inteligencia artificial en España. En un refugio entre bosques de pinos y robles. Desayuno, comida, cena y noche. Tres días de retiro en plena naturaleza para debatir sobre los avances de la IA y su impacto en la sociedad.
Con el patrocinio del AIHub (CSIC) y del AXA Rsearch Fund, se dan cita perfiles computacionales e ingenieros, pero también gente procedente de la biología o de la física. Incluso hay investigadores del ámbito de la sociología, la filosofía, el derecho o la economía. Es una composición diversa, poco común en los congresos científicos. Porque el objetivo aquí es debatir y reflexionar sobre inteligencia artificial en su forma más amplia. Se busca profundizar en los fundamentos de la tecnología, divisar sus aplicaciones y anticipar su impacto en la sociedad. “Están algunos popes de la IA en España“, me cuenta un doctorando nada más llegar. También asisten estudiantes, postdoctorados y predoctorados.
Entrada al recinto de La Cristalera, el lugar escogido para el retiro científico en la sierra de Guadarrama de Madrid
Tratando de encontrar el sentido
Las conferencias empiezan con una de las complejidades crecientes para hacer inteligencia artificial. “Ahora estamos en un síndrome de Diógenes de los datos”, señala Verónica Bolón Canedo, investigadora de IA en el Centro de Investigación en Tecnoloxías da Información e as Comunicacións da Universidade da Coruña. Explica que se acumula información de todo tipo pero no siempre es de calidad. Y esto es un problema para los resultados, claro. “Shit-in, shit-out”, recalca, antes de añadir: “Además, aparece la manzana podrida. Podemos tener muchos datos buenos pero si hay uno erróneo puede echarse a perder el resultado. La preparación de los datos puede llegar a suponer el 80% del trabajo en IA porque los datos del mundo real hay que adaptarlos”.
Estamos en una sala pequeña, con una treintena de personas. La mayoría, hombres, minoría de mujeres. Casi todos los asistentes llevan libretas y hacen anotaciones a papel y boli en vez de con ordenador, algo llamativo en un foro donde se debate sobre lo más puntero de la tecnología.
Pronto surge debate entre el deep learning (que usan modelos como ChatGPT, Bard o Dall-E) y métodos de machine learning más tradicionales. “El deep learning no lo entendemos. Falla menos que los métodos más tradicionales. Estos, sin embargo, fallan más pero los entendemos bien”, incide Bolón Canedo en referencia a la caja negra del deep learning. Entender el sistema tiene sus ventajas a la hora de trabajar con ellos. “¿Por qué necesitamos explicar los modelos?”, se pregunta Pedro Larrañaga, catedrático en Ciencias de la Computación e Inteligencia Artificial en la Universidad Politécnica de Madrid y con más de tres décadas a sus espaldas como investigador de IA.
Y argumenta que si el sistema no es comprensible para el humano es más difícil que lo utilice, a nivel industrial o comercial: “La FDA (Food and Drug Admnistration, en Estados Unidos) está aprobando en los últimos años alrededor de 100 programas anualmente de inteligencia artificial, sobre todo de radiología, pero la mayoría no se usan. Si no involucras al humano desde el principio, mal asunto”.
Verónica Bolón Canedo, del Centro de Investigación en Tecnoloxías da Información e as Comunicacións da Universidade da Coruña
Se mezclan los enfoques teóricos con los prácticos, el empirismo con las hipótesis. Chocan las posturas. Hay ponentes más titubeantes, otros intervinientes más asertivos, otros que hablan como haciendo un esfuerzo de reflexión para formular la pregunta exacta. Hasta se escucha algún “no sé”, como admisión humilde de los límites del conocimiento pero que suena extraño en boca de una persona cuyos trabajos, publicados en revistas científicas de prestigio, acumulan citas de otros investigadores.
Durante la comida los estudiantes comentan de pasada el debate. “Sí, sí, he visto tensión ahí”, dice uno. Todos lo secundan y silban algunas risitas. Quizá no esperaban ver a los investigadores discutir con tanta vehemencia. Aunque la conclusión es casi unánime. Para algunas tareas solo necesitas el mejor resultado posible y aquí gana deep learning. Pero para otras necesitas conocer la explicación que proporcionan métodos de IA más tradicionales. En medicina, un modelo que prediga de forma precisa que alguien sufrirá cáncer no es suficiente. Hay que saber por qué el sistema ha llegado a esa conclusión para poner medios que prevengan ese resultado.
El Pabellón de La Cristalera es como un hotel de campo antiguo, con suelo rústico de baldosas terrazo y de barro cocido. Tiene un comedor amplio y cafetería, todo cobijado por un techo de gruesas vigas de madera. Pienso que en su atmósfera a media luz no desentonaría el crepitar de una chimenea encendida. Los investigadores se alojan en habitaciones que tienen un aire austero, como de celda de monasterio, pero con suficiente comodidad.
En el comedor a veces se continuaba en grupos pequeños el debate que había surgido durante las charlas
“Tengo la sensación de esperar durante mucho tiempo a que llegara un tren y cuando ha llegado…”, José Hernández-Orallo emite un “fuuuuuum” y lo acompaña con un gesto de velocidad de la mano para indicar que ese tren ha pasado de largo como un tren bala, sin parar en la estación ni esperar a nadie. Habla de la inteligencia artificial y lo dice alguien que es catedrático en la Universidad Politécnica de Valencia e investigador de IA en varios centros, dos de ellos pertenecientes a la Universidad de Cambridge. C
omo frenar el ritmo de desarrollo es difícil, Hernández-Orallo apuesta por conocer mejor los modelos: “Hay que poner énfasis en la predecibilidad. Prefiero quedarme con un sistema que tenga una probabilidad del 97% y que sepa caracterizar el 3% restante que con uno que acierte en un 99% de las veces, pero el 1% que queda no sé cómo se produce. No confiamos en resultados impredecibles. Si no hay predecibilidad, las empresas no se harán responsables”.
Uno de los comentarios recurrentes entre los científicos reunidos es que ahora hay tal número de avances, se publican tantos trabajos, papers, resultados, que es difícil leerlo todo para estar al día.
La aplicación de la IA
El congreso también tiene hueco para los robots, considerados popularmente como la materialización de la inteligencia artificial. Pero las ideas populares no son las de los expertos. “Vamos hacia una robótica asistencial realista”, destaca Guillem Alenyà, director del Institut de Robotica i Informàtica Industrial. “No son robots que saltan y corren. ¿Para qué se imagina la gente que el robot cuidador tiene patas?”.
Alenyà apuesta por robots de propósito específico, como NYAM, que diseñaron desde la iniciativa LabORA para dar de comer a personas incapacitadas. Consiste en un brazo robótico que sostiene una cuchara y la lleva a la boca del usuario. El sistema identifica cuándo la persona está preparada para recibir el siguiente bocado y se inhibe si detecta que habla con alguien o no abre la boca. El objetivo es apoyar al personal del hospital o la residencia, para que este pueda atender mejor a varios pacientes sin la presión de tener un tiempo reducido para dar de comer a cada uno.
Guillem Alenyà, director del Institut de Robotica i Informàtica Industrial
Antes de desarrollar el robot, los investigadores tienen que entender la parte social de estas tareas. Acuden a un hospital y ven cómo los cuidadores, enfermeras, familiares dan de comer a los pacientes. Hablan con los trabajadores, con los mayores, con psicólogos para comprender qué necesidades tiene que resolver la máquina.
La robótica asistencial no llega para sustituir a los cuidadores. Uno de los objetivos es alargar el tiempo que las personas mayores pueden permanecer en su casa, antes de ir a una residencia. Los robots pueden ayudar en cuestiones tan sencillas como recordar al anciano que tiene que beber agua o tomar la medicación después de comer. Los investigadores creen que este tipo de tareas pueden marcar la diferencia entre que venga un cuidador por la mañana y por la noche, para levantar y acostar a la persona, y necesitar uno durante todo el día, una opción demasiado cara para mucha gente.
Ante los robots domésticos surge la ocurrencia popular de integrar en ellos ChatGPT para crear máquinas conversadoras. Pero hay una dificultad intrínseca. Utilizar redes neuronales requiere una potencia de computación enorme. Por eso estos sistemas recurren a la nube, mientras que los robots suelen trabajar localmente. “¿Usar LLMs (modelos de lenguaje de gran tamaño) en robots?”, Alenyà recoge el guante. “Pero lo que queremos es una respuesta en dos segundos, ¿no? Pues eso ahora no se puede. Con la visión artificial tampoco es posible. Porque todos estos desarrollos no están pensados para robots”, zanja el especialista en robótica. Si integraran un LLM en un robot las respuestas de este tardarían en llegar medio minuto, algo que destruye la ilusión de empatía que se pretende cultivar con la máquina.
Los LLM son la aplicación de moda en estos momentos en inteligencia artificial. Los investigadores reconocen sus capacidades pero llaman a la cautela. El calificativo que pone Julio Gonzalo a ChatGPT (y a cualquier LLM) es suigéneris pero tiene gancho: “Es un supercuñado”, advierte. Porque ChatGPT parece que sabe de cualquier cosa cuando no es así. “El mayor problema de los modelos de lenguaje es que no son fiables. Al ser modelos puramente intuitivos contestan de oídas, con un conocimiento muy superficial de todo lo que han leído”, apunta este catedrático de la UNED e investigador principal del grupo de investigación en Procesamiento del Lenguaje Natural y Recuperación de Información, de la UNED.
Julio Gonzalo, investigador principal del grupo de investigación en Procesamiento del Lenguaje Natural y Recuperación de Información, de la UNED
“Nunca conseguiremos que esta máquina multiplique bien, porque multiplicar es un algoritmo que se hace de una manera determinada. Y esta máquina no es capaz de deducir un algoritmo porque no piensa”, me explica Gonzalo. “Lo que hace es multiplicarte de oídas. Si son números pequeños, los ha visto (ChatGPT se ha entrenado con datos de Internet hasta 2021) y te los dice bien. Si son cifras grandes, no las ha visto y las multiplica mal”.
Para resolver esto se intenta dar más contexto en las consultas o se introducen plugins. Pero esto solo son parches. La auténtica solución para que el modelo deje de alucinar es que tenga un conocimiento explícito y capacidad de razonar, según Gonzalo, algo que hoy por hoy está lejos de su alcance.
“El hablar de la extinción de la humanidad (por la IA) es ocultar los problemas de hoy. El apocalipsis es un montón de gente haciendo caso a un supercuñado”, sostiene el especialista en modelos LLM, y recuerda que hay usuarios que confían en ChatGPT para dietas o rutinas de ejercicio personalizado, incluso un abogado citó en un juicio jurisprudencia inventada por el chatbot.
Y con las aplicaciones de la IA surge otro debate. Es uno de los más candentes: el laboral. Uno de los investigadores señala que la automatización siempre ha eliminado puestos de trabajo, desde la Revolución Industrial. Pero uno de los asistentes matiza: otras veces no ha sido tan rápido como se presupone ahora. La reflexión se extiende y el punto de vista de unos y otros confluye: “No podemos seguir en esta cultura de que nuestro valor es el valor de nuestro trabajo”. Otro de los investigadores converge: “Los modelos de reparto económicos en la sociedad tienen que cambiar”. Y un tercero asiente con una sonrisa: “Los robots tendrán que pagar impuestos”.
No es algo descabellado. Otro de los ponentes lo justifica con una extrapolación razonada: “Un ejemplo son los impuestos por emitir CO2. Antes eran impensables. Pues en el futuro habrá que pagar impuestos por los robots o por el agua que consume la inteligencia artificial“.
La ética y derecho: el anhelo de un marco para la IA
Las cuestiones que más agitan el debate tienen que ver con el impacto anticipado en la sociedad. En esta congregación de investigadores de primer nivel se barajan incluso los escenarios más pesimistas. La socióloga Sara Degli-Esposti, investigadora del CSIC y autora del libro La ética de la inteligencia artificial, pone sobre la mesa la posibilidad de que la máquina adquiera sus propios objetivos. Es decir, el humano le da un objetivo final, pero el sistema determinará los subobjetivos más efectivos para alcanzar su meta. Un ejemplo de consecuencias peligrosas sería el de drones autónomos bélicos y sus posibles daños colaterales.
Son ejercicios de reflexión que se adentran en la filosofía, la moral y la ética, siempre bordeando lo técnicamente conjeturable. Otro de los riesgos de la IA son los sesgos de los algoritmos o, directamente, sus errores. Aunque Degli-Esposti lanza una idea que une muchos puntos de fricción: “Los problemas de la tecnología no se resuelven con la tecnología”. Aduce que son problemas humanos, trasladados por sus creadores a los sistemas o derivados del uso que se hace de la tecnología por los seres humanos.
Una de las sesiones en las que se trataba el impacto de la IA en la sociedad
El discurrir de la conversación lleva a plantearse si las especulaciones catastrofistas no son sino una mera distracción de asuntos más perentorios. “También se llega al mismo sitio si me estoy cargando el planeta”, señala Degli-Esposti. “Si estás agobiado no vas a tomar decisiones. Para quitar de en medio el tema de la extinción [de los humanos a causa de la IA] del debate digo vale, ya estamos muertos y ahora podemos empezar a hablar de los problemas que tenemos”.
Aunque incluso esto acarrea debate. Se elevan voces que recuerdan cómo algunos de los padres fundadores de la IA advirtieron en este sentido. Uno de los investigadores se pregunta si no se estará ahora la IA en el momento en que Marie Curie descubrió el radio y traza un paralelismo que todos sabemos de antemano hasta dónde se estirará: la bomba atómica. No es que lo afirme, pero estamos en un foro que permite plantear la cuestión en alto y debatirla. Aunque después no se concluya nada. Hay posturas de todos los colores y, tras un sesudo deliberar, uno de los investigadores plantea si no sería una buena idea que haya una entidad global que vigile el estado de la inteligencia artificial, un ente comparable al Organismo Internacional de la Energía Atómica, de la ONU.
El tiempo ha sido benévolo durante los días de retiro, tanto que permite conferencia y debate al aire libre. Se habla de la regulación de la inteligencia artificial con el piar de fondo de los pajarillos y un rumor de arroyo. La entre sombra de los pinos tamiza la luz vespertina que solea el porche. El entorno no puede ser más natural para un tema tan artificial como incrustar inteligencia en las máquinas.
Debate sobre la regulación y la ética de la IA en plena naturaleza
Que la regulación siempre va por detrás de la tecnología es un hecho. Con la IA ocurre igual. “Las reglas tradicionales que fueron pensadas para un mundo analógico ya no funcionan más. Por eso hay problemas”, expone el jurista Francisco José Bariffi. No contamos con los mecanismos legales necesarios para contener los efectos nocivos de la inteligencia artificial. “Desde le punto de vista jurídico uno de los primeros problemas que se plantea con la IA es su estado. Hay objetos y sujetos. Por ejemplo los animales son objeto de protección pero no sujetos de derechos. Ser sujeto es tener derechos pero también responsabilidades. Se dice que la inteligencia artificial es capaz de tomar decisions como los humanos. Pero para el derecho la clave está en que tome decisiones sin intervención humana”, reflexiona.
¿Y los propios cortapisas de las maquinas? Hay investigadores que creen posible traducir enseñanzas deontológicas en ingeniería. Se suceden las intervenciones con pinceladas filosóficas, se acude a lo básico de la moralidad y se muestran fórmulas matemáticas, con variables como el valor, la acción y la norma, orientadas a proporcionar una ordenación de los valores en sistemas artificiales. “Hay formas de que la máquina aprenda qué está bien y qué está mal. Existe el aprendizaje por refuerzo pero también el aprendizaje por imitación”, apunta una de las investigadoras.
Pero la siguiente pregunta atasca el debate. “¿Qué ética Porque hay muchas éticas”, comenta otra investigadora del ámbito de la filosofía. “¿Quién fijaría esa ética”, se cuestiona otro de los asistentes. Y volvemos a otra de las incógnitas de base: cómo se planteará legalmente lo que quiera que se decida en torno a la ética de la IA.
Difícil imaginar el mundo tal y como es hoy sin cemento. Y difícil imaginar el mundo del mañana con cemento si sus fabricantes no logran solucionar algunos de sus retos más acuciantes, como reducir las enormes emisiones de CO2 que deja su producción. En la Universidad de Drexel, EEUU, han decidido afrontar otro de sus grandes desafíos: su mantenimiento. Allí un grupo de científicos acaba de crear un aditivo que permite crear hormigón “autorreparable”, capaz de actuar de una forma similar a cómo lo hace nuestra piel cuando nos cortamos.
Su nombre: BioFiber.
Retocando la fórmula. Eso es básicamente lo que han hecho el doctorando Mohammad Houshmand y sus colegas de la Universidad de Drexel: replantearse la composición del cemento para que sea capaz de regenerarse a sí mismo, igual que lo hace nuestra piel cuando nos herimos. Para ser más precisos, lo que ha logrado el equipo de Houshmand es desarrollar un novedoso aditivo para hormigón que permite que luego las estructuras fabricadas con este material se “auto reparen” y las grietas se “curen” de forma autónoma. ¿Cómo? Con endosporas.
Mohammad Houshmand, en el laboratorio.
BioFiber al rescate. Los investigadores de la Universidad de Drexel han bautizado la nueva tecnología como BioFiber, una palabra que resume bien su esencia y composición. El aditivo se compone de una fibra central rodeada de una vaina de hidrogel que contiene a su vez “esporas bacterianas latentes” y encerradas en una capa exterior polimérica. Houshmand y su equipo las han diseñado para que actúen como dispositivos listos para salir al rescate de las estructuras.
“Cuando se forma una grieta en el hormigón y se rompe la BioFiber, el agua penetra y hace que el hidrogel se hinche y sus bacterias produzcan carbonato de calcio, que sella la grieta y cura el daño en el hormigón”, explica la universidad. Los investigadores han descrito el proceso de forma detalla en un artículo publicado en Construction and Building Materials. En sus páginas aseguran haberse “inspirado en la naturaleza” y describen las tres partes de sus biofibras: un núcle pensado para soportar cargas, una vaina de hidrogel cargada con endosporas y un revestimiento de polímero diseñado para responder a los daños.
Objetivo: regenerarse a sí mismo. Sus autores reivindican que BioFiber otorga al hormigón tres capacidades: “Autocuración, control de crecimiento de grietas y capacidad de respuesta a los daños”. Todo para que las estructuras de hormigón resulten más “sostenibles” y eficientes. Al permitir que las columnas, pistas, paredes… se reparen a sí mismos, el nuevo aditivo extiende su vida útil y reduce la necesidad de reparaciones, con el ahorro de costes que eso implica.
En Drexel incluso van más allá y aseguran que esa menor factura llegará acompañada de una menor demanda de materiales, generación de residuos y las emisiones de gases contaminantes que exige movilizar camiones y maquinaria.
Combinando disciplinas. “Explorar la interacción entre la ciencia de los materiales, la microbiología y los procesos de fabricación garantizó el éxito de la tecnología”, presume Houshmand. Sobre sus resultados prácticos, el artículo de Construction and Building Materials muestra que, 30 horas después de activarse, cada BioFiber había generado entre 40 y 80 miligramos de carbonato de calcio, el compuesto que utiliza para sellar las fracturas abiertas en el hormigón New Atlas sostiene que el aditivo de Drexel repara grietas en cuestión de uno o dos días
Una carrera ambiciosa. El equipo de Houshmand no es ni mucho menos el primero en perseguir el ambicioso sueño de crear un hormigón con capacidades auto regeneradoras. Una meta parecida se han planteado en DARPA, la agencia de investigación avanzada del Departamento de Defensa de EEUU, la misma a la que debemos en parte el desarrollo de Internet, el GPS o los drones. El organismo tiene un programa llamado BRACE que aspira elaborar un hormigón autorreparable.
Inspirándose en los hongos. Los expertos de DARPA también han decidido emular a los organismos vivos, aunque con un enfoque distinto. La inspiración la han logrado de los sistemas vasculares de los humanos y las vastas redes de hongos filamentosos, que pueden extenderse por amplias superficies. “Podrían aportar una red de transporte para la regeneración en las profundidades del material y reparar grietas antes de que lleguen a la superficie y causen fallos”, explica.
Una vez entrado diciembre (con el permiso del Black Friday) el común de los mortales nos lanzamos a la compra navideña compulsiva de corbatas, perfumes y turrones. Sin embargo, en casa de Amancio ortega la tradición parece ser muy distinta.
Si hace unos días te contábamos el cambio de tendencia inversora de Pontegadea en energías renovables de la mano de Repsol, el último movimiento del instrumento inversor de Amancio Ortega se ha producido con la compra de uno de los centros logísticos más grandes de Amazon en Irlanda.
Inversión de 1.200 millones para logística. Pontegadea está diversificando sus inversiones inmobiliarias en ámbitos muy diferentes. En su inicios mostró preferencia por los edificios de oficinas, pero rápidamente cambió al alojamiento residencial de lujo, e incluso acomprar edificios para arrendárselos a cadenas hoteleras. Sin embargo, en los últimos meses ha puesto el foco en las instalaciones logísticas donde ya ha invertido más de 1.200 millones de euros entre Estados Unidos, Países Bajos e Irlanda.
The Irish Times ha confirmado que las instalaciones adquiridas tienen una superficie total de más de 110.000 metros cuadrados, por los que Pontegadea ha desembolsado 225 millones de euros. Desde hace un año, Amazon es el principal inquilino de la instalación ocupando unos 58.000 metros cuadrados dedicados a la distribución y almacenaje de productos que se reparten a toda Irlanda y el resto de Europa.
De casero de las Big tech a comprar sus almacenes. Amancio Ortega dio sus primeros pasos inversores fuera de Inditex comprando edificios de oficinas estratégicos, situados en los principales centros de negocios en España, Estados Unidos o Reino Unido. Eso le llevó a convertirse en el principal casero de las grandes tecnológicas, que alquilaban sus edificios para asentar allí sus sedes. Meta, Google, Amazon, Spotify o Apple tienen oficinas o tiendas ubicadas en edificios propiedad de Amancio Ortega.
Pontegadea comenzó en 2022 una apertura hacia el sector de la logística comprando un importante complejo con una superficie de 103.000 metros cuadrados en la localidad holandesa de Venlo, cercana a la frontera sudeste con Alemania por la que pagó 105 millones de euros. Esta instalación ya se encuentra a pleno rendimiento alojando a la empresa de logística DSV hasta 2033.
Sin deudas, todo beneficio. Las acertadas inversiones de Pontegadea la han convertido en solo unos años en la mayor inversora inmobiliaria de España por el valor de sus inmuebles, alcanzando una valoración de 18.150 millones de euros, muy por encima de Colonial con 12.209 millones de euros, y de Merlin, con una valoración de 11.301 millones de euros.
Una de las claves del éxito de Pontegadea es contar con la financiación directa de Amancio Ortega. El millonario inyecta directamente a Pontegadea el 100% del dividendo anual que le corresponde por sus acciones de Inditex. En 2023, Amancio Ortega recibió 2.217 millones de Inditex, que han ido a parar directamente a compras e inversiones en renovables y en esta operación.
Este sistema de financiación hace que la compañía no necesite acudir a financiación externa para sus inversiones anuales, por lo que todo son beneficios netos. En 2022 la compañía anunciaba un balance positivo de 2.092 millones de euros, un 30% más que en el ejercicio anterior.
Galactic Starcruiser fue el pomposo nombre que recibió el primer hotel temático basado en ‘Star Wars‘ del mundo. Su inauguración estaba prevista para primavera de 2022 dentro de Disney World en Orlando, Florida, y era un auténtico lujo destinado solo a los fans más pudientes y entregados. 4.809 dólares era el precio que podía llegar a costar la experiencia de dos noches para una sola persona
Había precios más económicos, eso sí, pero todos pueden ser calificados de astronómicos: una única noche, 1.209 dólares por huésped, 5.299 dólares por dos noches para una pareja con niño en una habitación especial que imitaba la cabina del Halcón Milenario. Cien habitaciones, el hotel más caro de Disneyland. Y también uno de los negocios más ruinosos que jamás ha puesto en pie Disney.
El motivo de ese precio: estamos, más que ante un hotel, ante un pequeño parque de atracciones temático para niños grandes y ricos. Un salto hiperespacial nos lleva al crucero espacial Halcyon, donde nos encontraremos desde estancias especiales como el casino o la cantina a actores encarnando a personajes como Rey, Chewbacca o Kylo Ren. Hasta hay algo de juego de rol en la visita: se podría ser parte de la Primera Orden o de la Resistencia, y eso condicionaría la estancia en el hotel con pequeñas misiones y entretenimientos.
Y una vez dentro, una serie de actividades que entroncan más con el espíritu de un crucero y sus entretenimientos multidisciplinares que con un hotel al uso: tutoriales de combate con sables láser, paseos virtuales en X-Wing e incluso una excursión al planeta Batuu. Por supuesto, hay multitud de contenido adicional que se puede sumar a la experiencia por módicos precios, como vestir túnicas jedi o alquilar vestidos de gala de la alta sociedad de Coruscant.
Al filo de la galaxia
Este proyecto iba a ser el núcleo y punto más atractivo (y envidiable) de Galaxy’s Edge, el rincón de Disneyland ambientado en el universo ‘Star Wars’ que la compañía había inaugurado en 2019 con un coste de mil millones de dólares y que incluía dos atracciones, cinco restaurantes y nueve tiendas. Antes de la inauguración de Galactic Starcruiser en marzo de 2022, Galaxy’s Edge ya daba signos de que no estaba funcionando del todo bien, con cifras de asistencia menores de lo esperado. El déficit de ingresos se disparó, finalmente, con la llegada del COVID en 2020.
Disney pensó, entre toda la incertidumbre, que debía apostar por lugares seguros y cerrados donde los clientes no temieran contagiarse. Así apostó por este edificio colosal que, sin embargo, un año y medio después de su apertura, en primavera de este año, tuvo que anunciar que cerraría las puertas, ya que de la sequía inicial se pasó a una situación de apenas reservas. El pasado 30 de septiembre, un año y unos pocos meses después de su inauguración, el Halcyon hizo su último viaje, y las reservas que había para fechas posteriores fueron reembolsadas a los clientes.
Historia de un accidente
La debacle del proyecto comenzó desde el principio, cuando Disney se topó de bruces con la realidad: solo un año después de su inauguración, en marzo de 2023, anunció que a partir de octubre solo aceptarían dos reservas semanales, en vez de las tres o cuatro que aceptaban al principio. No les dio tiempo ni de hacer efectivo ese cambio con el reciente cierre en septiembre. Y no es la única bofetada que ha recibido recientemente el negocio de los parques de atracciones.
Junto al anuncio del adiós a Galactic Starcruiser, el CEO de Disney Bob Iger anunció que abandonaban los planes de construir en Lake Nona, Florida, un campus donde iban a reubicar a nada menos que dos mil empleados desde California. Era un plan que llevaba en pie desde julio de 2021, propuesto por el anterior CEO de la compañía, Bob Chapek. La fecha inicial de traslado era 2022-2023, pero pronto se retrasó a 2026, antes de anunciar que el proyecto quedaba cancelado.
En realidad, este último retraso está relacionado con el largo conflicto que Disney mantiene con el gobernador de Florida, Ron DeSantis, y que tiene que ver entre otras cosas con la oposición de la compañía a la infame ley ‘Don’t Say Gay’ del gobernador. Y que lleva, por cierto, otra polémica de la mano: animadores de Pixar afirmando que la compañía apoya al colectivo gay de cara a la galería y luego hace lo contrario internamente.
Han sido 350 millones de dólares que Disney se deja por el camino en solo el año y medio de vida que ha tenido el Galactic Starcruiser, después de invertir 400 en la construcción. Tal y como contaba a Forbes el consultor especializado en el sector Dennis Spiegel, “en el sector de los parques temáticos, vivimos de las visitas repetidas”, pero el elevado precio del Galactic Starcruiser hacía prohibitiva esta práctica.
Pese a este fiasco momentáneo, cabe recordar que a Disney no le va mal con sus parques: de hecho, es el núcleo de su negocio. Mientras que Disney+ es una sangría de dinero y suscriptores que aún no está muy claro cómo se va a rentabilizar, los parques dan beneficios consistentes: el año pasado, por ejemplo, de cerca de 8.000 millones de dólares.
El desastroso fallo de cálculo del Galactic Starcruiser parece venir de una suma de factores: Spiegel habla de que solo 100 habitaciones no permitían recuperar muy por los pelos el monstruoso gasto de un hotel de alta tecnología y donde casi todo el personal son actores. A eso se añadía el cambio de CEO, la crisis generalizada y el mal momento post-COVID para los parques. Un pequeño desastre que no debe hacernos olvidar, en cualquier caso, que si Disney sigue siendo un gigante del entretenimiento, lo es gracias a proyectos en parques como este.
Santiago Folgueras es un joven físico de partículas formado en la Universidad de Oviedo; la Universidad Purdue, en Indiana (EEUU), y el CERN (Suiza). En 2017 regresó a la Universidad de Oviedo con un contrato de profesor ayudante. Desde entonces trabaja en esta institución dentro del mismo grupo en el que se formó, pero explorando una línea de investigación diferente a aquella en la que trabajaba este grupo cuando Santiago hizo su doctorado.
Su pasión por la física le sobrevino muy pronto, y su capacidad didáctica, como estáis a punto de comprobar, está fuera de toda duda. Además, Santiago ejemplifica a la perfección lo que es posible lograr con esfuerzo y dedicación. Y es que ha ganado una ayudaStarting Grant del Consejo Europeo de Investigación dotada con 1,5 millones de euros para liderar INTREPID.
Este ambicioso proyecto de al menos cinco años de duración persigue utilizar la inteligencia artificial y tarjetas programables de última generación para mejorar el sistema de filtrado del experimento CMS del CERN. Así es como Santiago quiere participar en el esclarecimiento de los misterios del universo.
INTREPID tendrá un rol crucial en la búsqueda de la tan ansiada nueva física
Para entender bien en qué consiste INTREPID, el proyecto que lideras en el CERN, creo que es necesario que sepamos antes qué es un sistema de trigger…
Así es. Son herramientas electrónicas e informáticas necesarias para controlar los experimentos de física de partículas. En el LHC en particular se producen 40 millones de colisiones por segundo, y esto genera una cantidad de información enorme que no se puede guardar en ningún sitio. Por esta razón necesitamos un sistema que sea capaz de analizar los datos en tiempo real y tomar una decisión respecto a la colisión que se acaba de producir.
La decisión en definitiva consiste en determinar si debo guardar esta información o descartarla. Precisamente el sistema de trigger se encarga de llevar a cabo este proceso de análisis y filtrado, así como de reducir los datos, pasando de 40 millones a 750.000 colisiones por segundo. Después una segunda pasada reduce aún más el número de colisiones hasta unas 5.000 por segundo.
Estas son las especificaciones del sistema de trigger que estamos construyendo y que tendremos listo en 2030. El que utilizamos actualmente es ligeramente distinto, pero la idea es la misma. En cualquier caso, el primero de los dos pasos es electrónico porque están involucradas en él tarjetas programables, mientras que el segundo paso lo lleva a cabo una granja de ordenadores que es capaz de realizar un filtrado más exhaustivo.
INTREPID es una iniciativa muy ambiciosa. ¿Puedes explicar de la forma más didáctica posible en qué consiste?
Lo que queremos hacer con el proyecto INTREPID es diseñar unos algoritmos o mejoras para el sistema de trigger que vamos a construir para 2030. Las placas que utilizamos son tarjetas programables FPGA, y la idea que subyace en el proyecto es intentar llevar un poco más allá el sistema de trigger que estamos construyendo. Desde un punto de vista tecnológico queremos probar unas tarjetas nuevas que tienen unos nodos de inteligencia artificial y que esencialmente te permiten hacer inferencia de redes neuronales dentro de la propia tarjeta.
“Uno de los grandes pilares del proyecto consiste en intentar ver si esta tecnología es aplicable a nuestro problema de trigger”
También necesitamos probar si estas tarjetas son capaces de funcionar dentro del rango de latencias que tenemos. Es lo que nosotros llamamos tiempo real. Los vendedores de las tarjetas te dan el tiempo real en el rango de los milisegundos, pero nosotros necesitamos microsegundos. Necesitamos ir a 12 microsegundos para que funcione.
Uno de los grandes pilares del proyecto consiste en intentar ver si esta tecnología es aplicable a nuestro problema de trigger, y el segundo pilar requiere tratar de ser más sensibles a un tipo de partículas desplazadas que se producen no en el punto de interacción de las colisiones, que es donde se generan la mayor parte de las partículas, sino en otro punto.
Puede ser que alguna partícula haya viajado un poco y se desintegre más adelante, en mitad del detector. El sistema que estamos utilizando tiene cierta sensibilidad a este tipo de partículas, pero puede dejarlas fuera debido a que tratamos una gran cantidad de ellas. Con INTREPID planeamos cambiar la arquitectura del sistema de trigger y ver si podemos recuperar esas partículas que se producen más lejos, hasta diez metros más allá del punto de interacción.
El detector CMS es una de las máquinas más complejas creadas por el ser humano. Y sus dimensiones son titánicas. De hecho, es un cilindro de 21 metros de longitud, 16 metros de diámetro y 12.500 toneladas.
Intuyo que buscar señales casi indetectables entre la vorágine de información que recoge el experimento CMS debe de ser como buscar una aguja en un pajar. ¿Cuál es la estrategia que tienes en mente a la hora de aplicar la inteligencia artificial para filtrar ese enorme volumen de información que generan las colisiones de partículas del LHC?
Lo que intentas hacer es buscar cosas que conoces. Es un problema de reconstrucción en el que es necesario identificar patrones. Tienes que unir puntos. Las partículas nos dejan señales puntuales en diferentes capas, por lo que tenemos que unir los puntos como si utilizásemos un lápiz. El ser humano puede llevar a cabo esta tarea fantásticamente bien, pero un ordenador no lo hace nada bien.
Los algoritmos de inteligencia artificial, sobre todo los de grafos, deberían ser muy eficientes al hacer este tipo de uniones de puntos que determinan la trayectoria de la partícula. Además, el problema se va complicando dependiendo de la región del detector con la que trabajemos.
Hay regiones que son muy fáciles en el sentido de que el campo magnético es muy uniforme y no hay huecos, por lo que los algoritmos analíticos en este escenario funcionan de maravilla. Sin embargo, en otras regiones del detector el campo magnético ya no es uniforme, por lo que la geometría cambia. Ya tampoco es uniforme.
El ojo humano lo ve muy bien, pero un algoritmo analítico ya no lo ve tan bien, por lo que acaba reconstruyendo mucho ruido que es necesario filtrar a posteriori. Creo que la inteligencia artificial nos va a ayudar bastante porque está pensada precisamente para esto. Para replicar el pensamiento humano.
La inteligencia artificial ya marca la diferencia en los experimentos del CERN
¿Qué respuestas esperas encontrar en estas señales tan tenues, casi indetectables, vinculadas a las partículas que pretendéis identificar gracias a vuestro sofisticado sistema de filtrado?
La clave es que llevamos tomando datos unos cuantos años y hasta ahora encajan a la perfección con las predicciones del Modelo Estándar. No hay ningún tipo de desviación, y todas las que ha habido al final o las hemos acabado entendiendo o desmintiendo.
En este contexto uno se pregunta si realmente estamos mirando en todos los sitios, y una de las cosas que no estamos mirando son estas partículas desplazadas. Hay varios modelos teóricos que predicen este tipo de señales, por lo que es un poco como la gallina y el huevo: no sabes qué vino antes.
“Si la nueva física está en estas señales ahora mismo nos la estamos perdiendo. Estamos ciegos ante ella”
Puede que el hecho de que no hayamos encontrado nada haya provocado que desarrollemos modelos teóricos, o al revés. En cualquier caso, está claro que son señales que no estamos siendo capaces de detectar. Ahora creemos que somos capaces de identificarlas más o menos con una eficiencia del 20%. La limitación la impone el propio sistema.
Si la nueva física está en estas señales ahora mismo nos la estamos perdiendo. Estamos ciegos ante ella. Por esta razón nuestro propósito es intentar recuperarlas, si existen, de manera que las podamos ver. Si lo conseguimos se desencadenará una revolución en la física porque será necesario explicar de dónde vienen estas partículas y por qué aparecen.
Tendremos que elaborar nuevos modelos que sean capaces de acomodarlas e ir más allá del Modelo Estándar. Cabe la posibilidad de que nos ayuden a entender mejor la materia oscura. O de que nos expliquen por qué los neutrinos tienen masa. O por qué no hay antimateria en el universo.
No sabemos con certeza qué respuestas vamos a encontrar, pero está claro que si encontramos algo tan exótico como lo que estamos buscando obtendremos alguna respuesta. Sería el fin del Modelo Estándar. Habremos encontrado nueva física y tendremos que empezar a rascarnos las cabezas otra vez.
¿Hay algún otro ámbito más allá del reconocimiento de patrones en el que la inteligencia artificial puede marcar la diferencia en la investigación en física de partículas?
Por supuesto. Actualmente estamos utilizándola en todos los niveles. La usamos en problemas de clasificación, que es otro desafío clásico cuando estás analizando una gran cantidad de datos. Nosotros [los físicos del CERN] fuimos los que en su momento pusimos la palabra ‘big’ delante de ‘data’. Google nos ha adelantado por la derecha, pero en su momento nosotros éramos los grandes generadores y consumidores de datos.
Al final estamos ante la aguja en el pajar de la que hablabas tú antes. La estamos buscando muchas veces para encontrar patrones, y una vez que los hemos encontrado intentamos identificar qué procesos de física están involucrados.
“Lo que queremos es buscar por encima de esta señal abrumadora descrita por el Modelo Estándar para encontrar procesos nuevos”
Todo son procesos de fondo debido a que la mayor parte de lo que vemos es el fondo, que no es otra cosa que todo aquello que está contemplado por el Modelo Estándar y que, por tanto, ya hemos medido y entendemos con cierta precisión. Lo que queremos es buscar por encima de esta señal abrumadora descrita por el Modelo Estándar para encontrar procesos nuevos que se producen muy pocas veces y que pueden estar asociados a nueva física.
En este contexto lo que tenemos que hacer es un ejercicio de clasificación para separar el fondo de la señal, y la inteligencia artificial es la herramienta que utilizamos diariamente para clasificar todo tipo de cosas, desde procesos de física de señal de fondo hasta objetos, como electrones o muones. Incluso la usamos para optimizar nuestros algoritmos de reconstrucción.
¿Contemplas con optimismo la posibilidad de que esta nueva física tan ansiada llegue en un plazo de tiempo relativamente breve?
Sí, confío en ello. De lo contrario nuestro campo estaría absolutamente perdido. Verdaderamente pienso que el HL-LHC (LHC de alta luminosidad) nos va a orientar un poquito. Seguramente no será el momento de hacer un gran descubrimiento debido a que la energía que tendremos será todavía muy modesta, pero la cantidad de datos que vamos a ser capaces de tomar nos va a dar probablemente algo de información valiosa.
Algo con la capacidad de indicarnos cómo debe ser la siguiente máquina que tenemos que construir; si tenemos que irnos a un colisionador hadrónico a una cierta energía o si es preferible un colisionador de electrones más preciso. Espero que con el HL-LHC y con todo lo que vamos a desarrollar para entonces, que es muchísimo, podamos tener alguna evidencia que nos haga plantearnos una nueva física.
En el LHC se producen nada menos que 40 millones de colisiones por segundo, por lo que es imprescindible filtrar esta descomunal cantidad de información para poder procesarla y almacenarla en algún lugar.
Todavía no tenemos la respuesta a dos preguntas fundamentales: cuál es la naturaleza de la materia oscura y cuál es el origen de la masa de los neutrinos. ¿Confías en que INTREPID pueda realizar aportaciones importantes en esta búsqueda en particular?
Sí, de hecho es el gran objetivo del proyecto. Todas las mejoras que desarrollemos van a ser previas a la puesta en funcionamiento del HL-LHC, y nuestro propósito es que estén listas para entrar en funcionamiento a la vez que el HL-LHC. Si se produce un descubrimiento la respuesta llegará después del proyecto porque su consecuencia será la semilla de esos resultados más que una consecuencia directa del propio proyecto.
El gran objetivo de INTREPID es recoger los datos que ahora nos estamos perdiendo. Puede que nos los estemos perdiendo porque no están ahí, pero también es posible que nos los estemos perdiendo porque no los estamos viendo.
El FCC es el candidato número 1 a suceder al LHC de alta luminosidad
¿Qué vendrá después del HL-LHC? Lo razonable después de incrementar la luminosidad del acelerador es aumentar el nivel de energía, ¿verdad?
Desde luego. Para nosotros esta es la clave. Si quieres seguir haciendo una máquina de descubrimientos tienes que irte a una energía más alta. Ya estamos teniendo conversaciones y diseñando estrategias para construir otro acelerador nuevo mucho más grande y capaz de llegar a energías mucho más altas. La duda que tenemos es si nos interesa que sea un acelerador de electrones o de protones.
Además hay varios proyectos de otro tipo de aceleradores, como colisionadores de muones o aceleradores lineales que también pueden ser interesantes. La comunidad científica está valorando qué vía tomar. Parece claro que el FCC (Futuro Colisionador Circular) es la máquina que queremos construir, pero si aparece algo en el HL-LHC todavía tenemos margen de maniobra para virar y tomar otra decisión.
¿Qué les dirías a las personas que creen que no merece la pena invertir el dinero de los contribuyentes en el CERN? ¿Por qué es importante apoyar la ciencia de vanguardia y el trabajo de los científicos que trabajáis en física de partículas?
En primer lugar porque creo que el conocimiento por el conocimiento es fundamental. Siempre ha habido algunas personas que nos hemos dedicado al conocimiento por el conocimiento. Pero además la investigación en ciencia básica entrega grandes avances tecnológicos a la sociedad. Si no hay personas haciendo ciencia básica esto no ocurre. Además, estos desarrollos tecnológicos llegan gratis a la sociedad porque no producen patentes.
En el CERN se han desarrollado, entre muchas otras innovaciones tecnológicas, la world wide web, la tecnología de aceleradores de partículas que se emplea actualmente para tratar el cáncer, los sistemas de crioterapia o criogenia que ya están llegando a la sociedad y la tecnología de levitación magnética empleada por algunos trenes de última generación.
Mi última pregunta es un poco más personal. Si tuvieses la oportunidad de encontrar únicamente la respuesta a una de las grandes preguntas de las que hemos hablado durante nuestra conversación ¿cuál sería esa pregunta ¿Qué es lo que más te ilusiona y aquello a lo que más te gustaría contribuir?
La materia oscura. Me gustaría saber qué es la materia oscura. Sabemos que acapara el 25% del universo. Me parece algo salvaje que a pesar de nuestros esfuerzos tan solo conozcamos actualmente el 5% del universo, que es el porcentaje de materia ordinaria del cosmos.
Ser capaz de dar una respuesta a ese 25% del universo sería crucial, aunque todavía nos faltaría mucho más por conocer porque creemos que el 70% restante es energía oscura. Creo que esto sería apasionante. Llevamos trabajando en esta línea muchos años de diferentes maneras, pero siempre buscando la respuesta a esta pregunta tan apasionante.