Mi Blog

diciembre 3, 2023

Technology
Adriana P

He pasado tres días de retiro científico con la élite de la investigación en IA en España. Esto me han contado

He pasado tres días de retiro científico con la élite de la investigación en IA en España. Esto me han contado

Ha pasado casi una hora desde que salí de Madrid y debo estar a punto de llegar a La Cristalera. El tráfico apelmazado de la M-30 ha cambiado a un paisaje verde y neblinoso. Hay prados de hierba con vacas y algún rebaño de ovejas. El frío se barrunta en el aire. Y la carretera, mojada, y estrecha, asciende a base de curvas.

La Cristalera es un pabellón de madera y piedra levantado en los años 50 y reconstruido después. Está encaramado a la sierra de Guadarrama, en la falda del puerto de la Morcuera, de 1.776 metros de altitud. Allí se reúne durante tres días parte de la élite de la investigación de la inteligencia artificial en España. En un refugio entre bosques de pinos y robles. Desayuno, comida, cena y noche. Tres días de retiro en plena naturaleza para debatir sobre los avances de la IA y su impacto en la sociedad.

Con el patrocinio del AIHub (CSIC) y del AXA Rsearch Fund, se dan cita perfiles computacionales e ingenieros, pero también gente procedente de la biología o de la física. Incluso hay investigadores del ámbito de la sociología, la filosofía, el derecho o la economía. Es una composición diversa, poco común en los congresos científicos. Porque el objetivo aquí es debatir y reflexionar sobre inteligencia artificial en su forma más amplia. Se busca profundizar en los fundamentos de la tecnología, divisar sus aplicaciones y anticipar su impacto en la sociedad. “Están algunos popes de la IA en España“, me cuenta un doctorando nada más llegar. También asisten estudiantes, postdoctorados y predoctorados.

La Cristalera Entrada al recinto de La Cristalera, el lugar escogido para el retiro científico en la sierra de Guadarrama de Madrid

Tratando de encontrar el sentido

Las conferencias empiezan con una de las complejidades crecientes para hacer inteligencia artificial. “Ahora estamos en un síndrome de Diógenes de los datos”, señala Verónica Bolón Canedo, investigadora de IA en el Centro de Investigación en Tecnoloxías da Información e as Comunicacións da Universidade da Coruña. Explica que se acumula información de todo tipo pero no siempre es de calidad. Y esto es un problema para los resultados, claro. “Shit-in, shit-out”, recalca, antes de añadir: “Además, aparece la manzana podrida. Podemos tener muchos datos buenos pero si hay uno erróneo puede echarse a perder el resultado. La preparación de los datos puede llegar a suponer el 80% del trabajo en IA porque los datos del mundo real hay que adaptarlos”.

Estamos en una sala pequeña, con una treintena de personas. La mayoría, hombres, minoría de mujeres. Casi todos los asistentes llevan libretas y hacen anotaciones a papel y boli en vez de con ordenador, algo llamativo en un foro donde se debate sobre lo más puntero de la tecnología.

Pronto surge debate entre el deep learning (que usan modelos como ChatGPT, Bard o Dall-E) y métodos de machine learning más tradicionales. “El deep learning no lo entendemos. Falla menos que los métodos más tradicionales. Estos, sin embargo, fallan más pero los entendemos bien”, incide Bolón Canedo en referencia a la caja negra del deep learning. Entender el sistema tiene sus ventajas a la hora de trabajar con ellos. “¿Por qué necesitamos explicar los modelos?”, se pregunta Pedro Larrañaga, catedrático en Ciencias de la Computación e Inteligencia Artificial en la Universidad Politécnica de Madrid y con más de tres décadas a sus espaldas como investigador de IA.

Y argumenta que si el sistema no es comprensible para el humano es más difícil que lo utilice, a nivel industrial o comercial: “La FDA (Food and Drug Admnistration, en Estados Unidos) está aprobando en los últimos años alrededor de 100 programas anualmente de inteligencia artificial, sobre todo de radiología, pero la mayoría no se usan. Si no involucras al humano desde el principio, mal asunto”.

Veronica Bolon Canedo Verónica Bolón Canedo, del Centro de Investigación en Tecnoloxías da Información e as Comunicacións da Universidade da Coruña

Se mezclan los enfoques teóricos con los prácticos, el empirismo con las hipótesis. Chocan las posturas. Hay ponentes más titubeantes, otros intervinientes más asertivos, otros que hablan como haciendo un esfuerzo de reflexión para formular la pregunta exacta. Hasta se escucha algún “no sé”, como admisión humilde de los límites del conocimiento pero que suena extraño en boca de una persona cuyos trabajos, publicados en revistas científicas de prestigio, acumulan citas de otros investigadores.

Durante la comida los estudiantes comentan de pasada el debate. “Sí, sí, he visto tensión ahí”, dice uno. Todos lo secundan y silban algunas risitas. Quizá no esperaban ver a los investigadores discutir con tanta vehemencia. Aunque la conclusión es casi unánime. Para algunas tareas solo necesitas el mejor resultado posible y aquí gana deep learning. Pero para otras necesitas conocer la explicación que proporcionan métodos de IA más tradicionales. En medicina, un modelo que prediga de forma precisa que alguien sufrirá cáncer no es suficiente. Hay que saber por qué el sistema ha llegado a esa conclusión para poner medios que prevengan ese resultado.

El Pabellón de La Cristalera es como un hotel de campo antiguo, con suelo rústico de baldosas terrazo y de barro cocido. Tiene un comedor amplio y cafetería, todo cobijado por un techo de gruesas vigas de madera. Pienso que en su atmósfera a media luz no desentonaría el crepitar de una chimenea encendida. Los investigadores se alojan en habitaciones que tienen un aire austero, como de celda de monasterio, pero con suficiente comodidad.

Comida Evento Aihub En el comedor a veces se continuaba en grupos pequeños el debate que había surgido durante las charlas

“Tengo la sensación de esperar durante mucho tiempo a que llegara un tren y cuando ha llegado…”, José Hernández-Orallo emite un “fuuuuuum” y lo acompaña con un gesto de velocidad de la mano para indicar que ese tren ha pasado de largo como un tren bala, sin parar en la estación ni esperar a nadie. Habla de la inteligencia artificial y lo dice alguien que es catedrático en la Universidad Politécnica de Valencia e investigador de IA en varios centros, dos de ellos pertenecientes a la Universidad de Cambridge. C

omo frenar el ritmo de desarrollo es difícil, Hernández-Orallo apuesta por conocer mejor los modelos: “Hay que poner énfasis en la predecibilidad. Prefiero quedarme con un sistema que tenga una probabilidad del 97% y que sepa caracterizar el 3% restante que con uno que acierte en un 99% de las veces, pero el 1% que queda no sé cómo se produce. No confiamos en resultados impredecibles. Si no hay predecibilidad, las empresas no se harán responsables”.

Uno de los comentarios recurrentes entre los científicos reunidos es que ahora hay tal número de avances, se publican tantos trabajos, papers, resultados, que es difícil leerlo todo para estar al día.

La aplicación de la IA

El congreso también tiene hueco para los robots, considerados popularmente como la materialización de la inteligencia artificial. Pero las ideas populares no son las de los expertos. “Vamos hacia una robótica asistencial realista”, destaca Guillem Alenyà, director del Institut de Robotica i Informàtica Industrial. “No son robots que saltan y corren. ¿Para qué se imagina la gente que el robot cuidador tiene patas?”.

Alenyà apuesta por robots de propósito específico, como NYAM, que diseñaron desde la iniciativa LabORA para dar de comer a personas incapacitadas. Consiste en un brazo robótico que sostiene una cuchara y la lleva a la boca del usuario. El sistema identifica cuándo la persona está preparada para recibir el siguiente bocado y se inhibe si detecta que habla con alguien o no abre la boca. El objetivo es apoyar al personal del hospital o la residencia, para que este pueda atender mejor a varios pacientes sin la presión de tener un tiempo reducido para dar de comer a cada uno.

Guillem Alenya Guillem Alenyà, director del Institut de Robotica i Informàtica Industrial

Antes de desarrollar el robot, los investigadores tienen que entender la parte social de estas tareas. Acuden a un hospital y ven cómo los cuidadores, enfermeras, familiares dan de comer a los pacientes. Hablan con los trabajadores, con los mayores, con psicólogos para comprender qué necesidades tiene que resolver la máquina.

La robótica asistencial no llega para sustituir a los cuidadores. Uno de los objetivos es alargar el tiempo que las personas mayores pueden permanecer en su casa, antes de ir a una residencia. Los robots pueden ayudar en cuestiones tan sencillas como recordar al anciano que tiene que beber agua o tomar la medicación después de comer. Los investigadores creen que este tipo de tareas pueden marcar la diferencia entre que venga un cuidador por la mañana y por la noche, para levantar y acostar a la persona, y necesitar uno durante todo el día, una opción demasiado cara para mucha gente.

Ante los robots domésticos surge la ocurrencia popular de integrar en ellos ChatGPT para crear máquinas conversadoras. Pero hay una dificultad intrínseca. Utilizar redes neuronales requiere una potencia de computación enorme. Por eso estos sistemas recurren a la nube, mientras que los robots suelen trabajar localmente. “¿Usar LLMs (modelos de lenguaje de gran tamaño) en robots?”, Alenyà recoge el guante. “Pero lo que queremos es una respuesta en dos segundos, ¿no? Pues eso ahora no se puede. Con la visión artificial tampoco es posible. Porque todos estos desarrollos no están pensados para robots”, zanja el especialista en robótica. Si integraran un LLM en un robot las respuestas de este tardarían en llegar medio minuto, algo que destruye la ilusión de empatía que se pretende cultivar con la máquina.

Los LLM son la aplicación de moda en estos momentos en inteligencia artificial. Los investigadores reconocen sus capacidades pero llaman a la cautela. El calificativo que pone Julio Gonzalo a ChatGPT (y a cualquier LLM) es suigéneris pero tiene gancho: “Es un supercuñado”, advierte. Porque ChatGPT parece que sabe de cualquier cosa cuando no es así. “El mayor problema de los modelos de lenguaje es que no son fiables. Al ser modelos puramente intuitivos contestan de oídas, con un conocimiento muy superficial de todo lo que han leído”, apunta este catedrático de la UNED e investigador principal del grupo de investigación en Procesamiento del Lenguaje Natural y Recuperación de Información, de la UNED.

Julio Gonzalo Julio Gonzalo, investigador principal del grupo de investigación en Procesamiento del Lenguaje Natural y Recuperación de Información, de la UNED

“Nunca conseguiremos que esta máquina multiplique bien, porque multiplicar es un algoritmo que se hace de una manera determinada. Y esta máquina no es capaz de deducir un algoritmo porque no piensa”, me explica Gonzalo. “Lo que hace es multiplicarte de oídas. Si son números pequeños, los ha visto (ChatGPT se ha entrenado con datos de Internet hasta 2021) y te los dice bien. Si son cifras grandes, no las ha visto y las multiplica mal”.

Para resolver esto se intenta dar más contexto en las consultas o se introducen plugins. Pero esto solo son parches. La auténtica solución para que el modelo deje de alucinar es que tenga un conocimiento explícito y capacidad de razonar, según Gonzalo, algo que hoy por hoy está lejos de su alcance.

“El hablar de la extinción de la humanidad (por la IA) es ocultar los problemas de hoy. El apocalipsis es un montón de gente haciendo caso a un supercuñado”, sostiene el especialista en modelos LLM, y recuerda que hay usuarios que confían en ChatGPT para dietas o rutinas de ejercicio personalizado, incluso un abogado citó en un juicio jurisprudencia inventada por el chatbot.

Y con las aplicaciones de la IA surge otro debate. Es uno de los más candentes: el laboral. Uno de los investigadores señala que la automatización siempre ha eliminado puestos de trabajo, desde la Revolución Industrial. Pero uno de los asistentes matiza: otras veces no ha sido tan rápido como se presupone ahora. La reflexión se extiende y el punto de vista de unos y otros confluye: “No podemos seguir en esta cultura de que nuestro valor es el valor de nuestro trabajo”. Otro de los investigadores converge: “Los modelos de reparto económicos en la sociedad tienen que cambiar”. Y un tercero asiente con una sonrisa: “Los robots tendrán que pagar impuestos”.

No es algo descabellado. Otro de los ponentes lo justifica con una extrapolación razonada: “Un ejemplo son los impuestos por emitir CO2. Antes eran impensables. Pues en el futuro habrá que pagar impuestos por los robots o por el agua que consume la inteligencia artificial“.

La ética y derecho: el anhelo de un marco para la IA

Las cuestiones que más agitan el debate tienen que ver con el impacto anticipado en la sociedad. En esta congregación de investigadores de primer nivel se barajan incluso los escenarios más pesimistas. La socióloga Sara Degli-Esposti, investigadora del CSIC y autora del libro La ética de la inteligencia artificial, pone sobre la mesa la posibilidad de que la máquina adquiera sus propios objetivos. Es decir, el humano le da un objetivo final, pero el sistema determinará los subobjetivos más efectivos para alcanzar su meta. Un ejemplo de consecuencias peligrosas sería el de drones autónomos bélicos y sus posibles daños colaterales.

Son ejercicios de reflexión que se adentran en la filosofía, la moral y la ética, siempre bordeando lo técnicamente conjeturable. Otro de los riesgos de la IA son los sesgos de los algoritmos o, directamente, sus errores. Aunque Degli-Esposti lanza una idea que une muchos puntos de fricción: “Los problemas de la tecnología no se resuelven con la tecnología”. Aduce que son problemas humanos, trasladados por sus creadores a los sistemas o derivados del uso que se hace de la tecnología por los seres humanos.

Ia Debate Una de las sesiones en las que se trataba el impacto de la IA en la sociedad

El discurrir de la conversación lleva a plantearse si las especulaciones catastrofistas no son sino una mera distracción de asuntos más perentorios. “También se llega al mismo sitio si me estoy cargando el planeta”, señala Degli-Esposti. “Si estás agobiado no vas a tomar decisiones. Para quitar de en medio el tema de la extinción [de los humanos a causa de la IA] del debate digo vale, ya estamos muertos y ahora podemos empezar a hablar de los problemas que tenemos”.

Aunque incluso esto acarrea debate. Se elevan voces que recuerdan cómo algunos de los padres fundadores de la IA advirtieron en este sentido. Uno de los investigadores se pregunta si no se estará ahora la IA en el momento en que Marie Curie descubrió el radio y traza un paralelismo que todos sabemos de antemano hasta dónde se estirará: la bomba atómica. No es que lo afirme, pero estamos en un foro que permite plantear la cuestión en alto y debatirla. Aunque después no se concluya nada. Hay posturas de todos los colores y, tras un sesudo deliberar, uno de los investigadores plantea si no sería una buena idea que haya una entidad global que vigile el estado de la inteligencia artificial, un ente comparable al Organismo Internacional de la Energía Atómica, de la ONU.

El tiempo ha sido benévolo durante los días de retiro, tanto que permite conferencia y debate al aire libre. Se habla de la regulación de la inteligencia artificial con el piar de fondo de los pajarillos y un rumor de arroyo. La entre sombra de los pinos tamiza la luz vespertina que solea el porche. El entorno no puede ser más natural para un tema tan artificial como incrustar inteligencia en las máquinas.

Aihub Evento Ia Etica Debate sobre la regulación y la ética de la IA en plena naturaleza

Que la regulación siempre va por detrás de la tecnología es un hecho. Con la IA ocurre igual. “Las reglas tradicionales que fueron pensadas para un mundo analógico ya no funcionan más. Por eso hay problemas”, expone el jurista Francisco José Bariffi. No contamos con los mecanismos legales necesarios para contener los efectos nocivos de la inteligencia artificial. “Desde le punto de vista jurídico uno de los primeros problemas que se plantea con la IA es su estado. Hay objetos y sujetos. Por ejemplo los animales son objeto de protección pero no sujetos de derechos. Ser sujeto es tener derechos pero también responsabilidades. Se dice que la inteligencia artificial es capaz de tomar decisions como los humanos. Pero para el derecho la clave está en que tome decisiones sin intervención humana”, reflexiona.

¿Y los propios cortapisas de las maquinas? Hay investigadores que creen posible traducir enseñanzas deontológicas en ingeniería. Se suceden las intervenciones con pinceladas filosóficas, se acude a lo básico de la moralidad y se muestran fórmulas matemáticas, con variables como el valor, la acción y la norma, orientadas a proporcionar una ordenación de los valores en sistemas artificiales. “Hay formas de que la máquina aprenda qué está bien y qué está mal. Existe el aprendizaje por refuerzo pero también el aprendizaje por imitación”, apunta una de las investigadoras.

Pero la siguiente pregunta atasca el debate. “¿Qué ética Porque hay muchas éticas”, comenta otra investigadora del ámbito de la filosofía. “¿Quién fijaría esa ética”, se cuestiona otro de los asistentes. Y volvemos a otra de las incógnitas de base: cómo se planteará legalmente lo que quiera que se decida en torno a la ética de la IA.

Imagen | Xataka

En Xataka | Esto no es el apocalipsis: doce puntos optimistas sobre ChatGPT y el futuro que nos espera


La noticia He pasado tres días de retiro científico con la élite de la investigación en IA en España. Esto me han contado fue publicada originalmente en Xataka por Pablo G. Bejerano .

Technology
Adriana P

El gran reto del hormigón pasa por repararse a sí mismo. Y hemos dado un paso clave para conseguirlo

El gran reto del hormigón pasa por repararse a sí mismo. Y hemos dado un paso clave para conseguirlo

Difícil imaginar el mundo tal y como es hoy sin cemento. Y difícil imaginar el mundo del mañana con cemento si sus fabricantes no logran solucionar algunos de sus retos más acuciantes, como reducir las enormes emisiones de CO2 que deja su producción. En la Universidad de Drexel, EEUU, han decidido afrontar otro de sus grandes desafíos: su mantenimiento. Allí un grupo de científicos acaba de crear un aditivo que permite crear hormigón “autorreparable”, capaz de actuar de una forma similar a cómo lo hace nuestra piel cuando nos cortamos.

Su nombre: BioFiber.

Retocando la fórmula. Eso es básicamente lo que han hecho el doctorando Mohammad Houshmand y sus colegas de la Universidad de Drexel: replantearse la composición del cemento para que sea capaz de regenerarse a sí mismo, igual que lo hace nuestra piel cuando nos herimos. Para ser más precisos, lo que ha logrado el equipo de Houshmand es desarrollar un novedoso aditivo para hormigón que permite que luego las estructuras fabricadas con este material se “auto reparen” y las grietas se “curen” de forma autónoma. ¿Cómo? Con endosporas.

F 0ykihwsaaojso Mohammad Houshmand, en el laboratorio.

BioFiber al rescate. Los investigadores de la Universidad de Drexel han bautizado la nueva tecnología como BioFiber, una palabra que resume bien su esencia y composición. El aditivo se compone de una fibra central rodeada de una vaina de hidrogel que contiene a su vez “esporas bacterianas latentes” y encerradas en una capa exterior polimérica. Houshmand y su equipo las han diseñado para que actúen como dispositivos listos para salir al rescate de las estructuras.

“Cuando se forma una grieta en el hormigón y se rompe la BioFiber, el agua penetra y hace que el hidrogel se hinche y sus bacterias produzcan carbonato de calcio, que sella la grieta y cura el daño en el hormigón”, explica la universidad. Los investigadores han descrito el proceso de forma detalla en un artículo publicado en Construction and Building Materials. En sus páginas aseguran haberse “inspirado en la naturaleza” y describen las tres partes de sus biofibras: un núcle pensado para soportar cargas, una vaina de hidrogel cargada con endosporas y un revestimiento de polímero diseñado para responder a los daños.

Objetivo: regenerarse a sí mismo. Sus autores reivindican que BioFiber otorga al hormigón tres capacidades: “Autocuración, control de crecimiento de grietas y capacidad de respuesta a los daños”. Todo para que las estructuras de hormigón resulten más “sostenibles” y eficientes. Al permitir que las columnas, pistas, paredes… se reparen a sí mismos, el nuevo aditivo extiende su vida útil y reduce la necesidad de reparaciones, con el ahorro de costes que eso implica.

En Drexel incluso van más allá y aseguran que esa menor factura llegará acompañada de una menor demanda de materiales, generación de residuos y las emisiones de gases contaminantes que exige movilizar camiones y maquinaria.

Biofiber2
Biofiber1

Combinando disciplinas. “Explorar la interacción entre la ciencia de los materiales, la microbiología y los procesos de fabricación garantizó el éxito de la tecnología”, presume Houshmand. Sobre sus resultados prácticos, el artículo de Construction and Building Materials muestra que, 30 horas después de activarse, cada BioFiber había generado entre 40 y 80 miligramos de carbonato de calcio, el compuesto que utiliza para sellar las fracturas abiertas en el hormigón New Atlas sostiene que el aditivo de Drexel repara grietas en cuestión de uno o dos días

Una carrera ambiciosa. El equipo de Houshmand no es ni mucho menos el primero en perseguir el ambicioso sueño de crear un hormigón con capacidades auto regeneradoras. Una meta parecida se han planteado en DARPA, la agencia de investigación avanzada del Departamento de Defensa de EEUU, la misma a la que debemos en parte el desarrollo de Internet, el GPS o los drones. El organismo tiene un programa llamado BRACE que aspira elaborar un hormigón autorreparable.

Inspirándose en los hongos. Los expertos de DARPA también han decidido emular a los organismos vivos, aunque con un enfoque distinto. La inspiración la han logrado de los sistemas vasculares de los humanos y las vastas redes de hongos filamentosos, que pueden extenderse por amplias superficies. “Podrían aportar una red de transporte para la regeneración en las profundidades del material y reparar grietas antes de que lleguen a la superficie y causen fallos”, explica.

Imágenes: Wikipedia (Westxtk), Drexel Engineering (X) y Drexel AIM Lab

En Xataka: C-Crete quiere ser la alternativa sostenible al hormigón. Su estrategia: fabricarlo sin usar cemento


La noticia El gran reto del hormigón pasa por repararse a sí mismo. Y hemos dado un paso clave para conseguirlo fue publicada originalmente en Xataka por Carlos Prego .

Technology
Adriana P

Amancio Ortega ha ido de compras navideñas a Irlanda y ha vuelto con el centro logístico de Amazon bajo el brazo

Amancio Ortega ha ido de compras navideñas a Irlanda y ha vuelto con el centro logístico de Amazon bajo el brazo

Una vez entrado diciembre (con el permiso del Black Friday) el común de los mortales nos lanzamos a la compra navideña compulsiva de corbatas, perfumes y turrones. Sin embargo, en casa de Amancio ortega la tradición parece ser muy distinta.

Si hace unos días te contábamos el cambio de tendencia inversora de Pontegadea en energías renovables de la mano de Repsol, el último movimiento del instrumento inversor de Amancio Ortega se ha producido con la compra de uno de los centros logísticos más grandes de Amazon en Irlanda.

Inversión de 1.200 millones para logística. Pontegadea está diversificando sus inversiones inmobiliarias en ámbitos muy diferentes. En su inicios mostró preferencia por los edificios de oficinas, pero rápidamente cambió al alojamiento residencial de lujo, e incluso acomprar edificios para arrendárselos a cadenas hoteleras. Sin embargo, en los últimos meses ha puesto el foco en las instalaciones logísticas donde ya ha invertido más de 1.200 millones de euros entre Estados Unidos, Países Bajos e Irlanda.

The Irish Times ha confirmado que las instalaciones adquiridas tienen una superficie total de más de 110.000 metros cuadrados, por los que Pontegadea ha desembolsado 225 millones de euros. Desde hace un año, Amazon es el principal inquilino de la instalación ocupando unos 58.000 metros cuadrados dedicados a la distribución y almacenaje de productos que se reparten a toda Irlanda y el resto de Europa.

De casero de las Big tech a comprar sus almacenes. Amancio Ortega dio sus primeros pasos inversores fuera de Inditex comprando edificios de oficinas estratégicos, situados en los principales centros de negocios en España, Estados Unidos o Reino Unido. Eso le llevó a convertirse en el principal casero de las grandes tecnológicas, que alquilaban sus edificios para asentar allí sus sedes. Meta, Google, Amazon, Spotify o Apple tienen oficinas o tiendas ubicadas en edificios propiedad de Amancio Ortega.

Pontegadea comenzó en 2022 una apertura hacia el sector de la logística comprando un importante complejo con una superficie de 103.000 metros cuadrados en la localidad holandesa de Venlo, cercana a la frontera sudeste con Alemania por la que pagó 105 millones de euros. Esta instalación ya se encuentra a pleno rendimiento alojando a la empresa de logística DSV hasta 2033.

Sin deudas, todo beneficio. Las acertadas inversiones de Pontegadea la han convertido en solo unos años en la mayor inversora inmobiliaria de España por el valor de sus inmuebles, alcanzando una valoración de 18.150 millones de euros, muy por encima de Colonial con 12.209 millones de euros, y de Merlin, con una valoración de 11.301 millones de euros.

Una de las claves del éxito de Pontegadea es contar con la financiación directa de Amancio Ortega. El millonario inyecta directamente a Pontegadea el 100% del dividendo anual que le corresponde por sus acciones de Inditex. En 2023, Amancio Ortega recibió 2.217 millones de Inditex, que han ido a parar directamente a compras e inversiones en renovables y en esta operación.

Este sistema de financiación hace que la compañía no necesite acudir a financiación externa para sus inversiones anuales, por lo que todo son beneficios netos. En 2022 la compañía anunciaba un balance positivo de 2.092 millones de euros, un 30% más que en el ejercicio anterior.

En Xataka | Amancio Ortega ha construido un imperio inversor en torno al ladrillo. Su nuevo objetivo: las renovables
Imagen | Pexels (
Tiger Lily)


La noticia Amancio Ortega ha ido de compras navideñas a Irlanda y ha vuelto con el centro logístico de Amazon bajo el brazo fue publicada originalmente en Xataka por Rubén Andrés .

Technology
Adriana P

La catástrofe del hotel de ‘Star Wars’: 3.000 euros por noche en una película interactiva de 350 millones de dólares

La catástrofe del hotel de 'Star Wars': 3.000 euros por noche en una película interactiva de 350 millones de dólares

Galactic Starcruiser fue el pomposo nombre que recibió el primer hotel temático basado en ‘Star Wars‘ del mundo. Su inauguración estaba prevista para primavera de 2022 dentro de Disney World en Orlando, Florida, y era un auténtico lujo destinado solo a los fans más pudientes y entregados. 4.809 dólares era el precio que podía llegar a costar la experiencia de dos noches para una sola persona

Había precios más económicos, eso sí, pero todos pueden ser calificados de astronómicos: una única noche, 1.209 dólares por huésped, 5.299 dólares por dos noches para una pareja con niño en una habitación especial que imitaba la cabina del Halcón Milenario. Cien habitaciones, el hotel más caro de Disneyland. Y también uno de los negocios más ruinosos que jamás ha puesto en pie Disney.

El motivo de ese precio: estamos, más que ante un hotel, ante un pequeño parque de atracciones temático para niños grandes y ricos. Un salto hiperespacial nos lleva al crucero espacial Halcyon, donde nos encontraremos desde estancias especiales como el casino o la cantina a actores encarnando a personajes como Rey, Chewbacca o Kylo Ren. Hasta hay algo de juego de rol en la visita: se podría ser parte de la Primera Orden o de la Resistencia, y eso condicionaría la estancia en el hotel con pequeñas misiones y entretenimientos.

Y una vez dentro, una serie de actividades que entroncan más con el espíritu de un crucero y sus entretenimientos multidisciplinares que con un hotel al uso: tutoriales de combate con sables láser, paseos virtuales en X-Wing e incluso una excursión al planeta Batuu. Por supuesto, hay multitud de contenido adicional que se puede sumar a la experiencia por módicos precios, como vestir túnicas jedi o alquilar vestidos de gala de la alta sociedad de Coruscant.

Al filo de la galaxia

Este proyecto iba a ser el núcleo y punto más atractivo (y envidiable) de Galaxy’s Edge, el rincón de Disneyland ambientado en el universo ‘Star Wars’ que la compañía había inaugurado en 2019 con un coste de mil millones de dólares y que incluía dos atracciones, cinco restaurantes y nueve tiendas. Antes de la inauguración de Galactic Starcruiser en marzo de 2022, Galaxy’s Edge ya daba signos de que no estaba funcionando del todo bien, con cifras de asistencia menores de lo esperado. El déficit de ingresos se disparó, finalmente, con la llegada del COVID en 2020.

Disney pensó, entre toda la incertidumbre, que debía apostar por lugares seguros y cerrados donde los clientes no temieran contagiarse. Así apostó por este edificio colosal que, sin embargo, un año y medio después de su apertura, en primavera de este año, tuvo que anunciar que cerraría las puertas, ya que de la sequía inicial se pasó a una situación de apenas reservas. El pasado 30 de septiembre, un año y unos pocos meses después de su inauguración, el Halcyon hizo su último viaje, y las reservas que había para fechas posteriores fueron reembolsadas a los clientes.

Historia de un accidente

La debacle del proyecto comenzó desde el principio, cuando Disney se topó de bruces con la realidad: solo un año después de su inauguración, en marzo de 2023, anunció que a partir de octubre solo aceptarían dos reservas semanales, en vez de las tres o cuatro que aceptaban al principio. No les dio tiempo ni de hacer efectivo ese cambio con el reciente cierre en septiembre. Y no es la única bofetada que ha recibido recientemente el negocio de los parques de atracciones.

Star Wars Galactic Starcruiser 3048136

Junto al anuncio del adiós a Galactic Starcruiser, el CEO de Disney Bob Iger anunció que abandonaban los planes de construir en Lake Nona, Florida, un campus donde iban a reubicar a nada menos que dos mil empleados desde California. Era un plan que llevaba en pie desde julio de 2021, propuesto por el anterior CEO de la compañía, Bob Chapek. La fecha inicial de traslado era 2022-2023, pero pronto se retrasó a 2026, antes de anunciar que el proyecto quedaba cancelado.

En realidad, este último retraso está relacionado con el largo conflicto que Disney mantiene con el gobernador de Florida, Ron DeSantis, y que tiene que ver entre otras cosas con la oposición de la compañía a la infame ley ‘Don’t Say Gay’ del gobernador. Y que lleva, por cierto, otra polémica de la mano: animadores de Pixar afirmando que la compañía apoya al colectivo gay de cara a la galería y luego hace lo contrario internamente.

Chall 220224 Ecl1152 Galactic Cruiser 0011 0

Han sido 350 millones de dólares que Disney se deja por el camino en solo el año y medio de vida que ha tenido el Galactic Starcruiser, después de invertir 400 en la construcción. Tal y como contaba a Forbes el consultor especializado en el sector Dennis Spiegel, “en el sector de los parques temáticos, vivimos de las visitas repetidas”, pero el elevado precio del Galactic Starcruiser hacía prohibitiva esta práctica.

Pese a este fiasco momentáneo, cabe recordar que a Disney no le va mal con sus parques: de hecho, es el núcleo de su negocio. Mientras que Disney+ es una sangría de dinero y suscriptores que aún no está muy claro cómo se va a rentabilizar, los parques dan beneficios consistentes: el año pasado, por ejemplo, de cerca de 8.000 millones de dólares.

El desastroso fallo de cálculo del Galactic Starcruiser parece venir de una suma de factores: Spiegel habla de que solo 100 habitaciones no permitían recuperar muy por los pelos el monstruoso gasto de un hotel de alta tecnología y donde casi todo el personal son actores. A eso se añadía el cambio de CEO, la crisis generalizada y el mal momento post-COVID para los parques. Un pequeño desastre que no debe hacernos olvidar, en cualquier caso, que si Disney sigue siendo un gigante del entretenimiento, lo es gracias a proyectos en parques como este.

Cabecera: Disney

En Xataka | Los siete parques de atracciones más caros y gigantescos jamás construidos 


La noticia La catástrofe del hotel de ‘Star Wars’: 3.000 euros por noche en una película interactiva de 350 millones de dólares fue publicada originalmente en Xataka por John Tones .

Technology
Adriana P

“Si conseguimos nuestro objetivo, se desencadenará una revolución en la física”: hablamos con Santiago Folgueras, físico del CERN

Santiago Folgueras es un joven físico de partículas formado en la Universidad de Oviedo; la Universidad Purdue, en Indiana (EEUU), y el CERN (Suiza). En 2017 regresó a la Universidad de Oviedo con un contrato de profesor ayudante. Desde entonces trabaja en esta institución dentro del mismo grupo en el que se formó, pero explorando una línea de investigación diferente a aquella en la que trabajaba este grupo cuando Santiago hizo su doctorado.

Su pasión por la física le sobrevino muy pronto, y su capacidad didáctica, como estáis a punto de comprobar, está fuera de toda duda. Además, Santiago ejemplifica a la perfección lo que es posible lograr con esfuerzo y dedicación. Y es que ha ganado una ayuda Starting Grant del Consejo Europeo de Investigación dotada con 1,5 millones de euros para liderar INTREPID.

Este ambicioso proyecto de al menos cinco años de duración persigue utilizar la inteligencia artificial y tarjetas programables de última generación para mejorar el sistema de filtrado del experimento CMS del CERN. Así es como Santiago quiere participar en el esclarecimiento de los misterios del universo.

INTREPID tendrá un rol crucial en la búsqueda de la tan ansiada nueva física

Para entender bien en qué consiste INTREPID, el proyecto que lideras en el CERN, creo que es necesario que sepamos antes qué es un sistema de trigger

Así es. Son herramientas electrónicas e informáticas necesarias para controlar los experimentos de física de partículas. En el LHC en particular se producen 40 millones de colisiones por segundo, y esto genera una cantidad de información enorme que no se puede guardar en ningún sitio. Por esta razón necesitamos un sistema que sea capaz de analizar los datos en tiempo real y tomar una decisión respecto a la colisión que se acaba de producir.

Sfolguerasretrato

La decisión en definitiva consiste en determinar si debo guardar esta información o descartarla. Precisamente el sistema de trigger se encarga de llevar a cabo este proceso de análisis y filtrado, así como de reducir los datos, pasando de 40 millones a 750.000 colisiones por segundo. Después una segunda pasada reduce aún más el número de colisiones hasta unas 5.000 por segundo.

Estas son las especificaciones del sistema de trigger que estamos construyendo y que tendremos listo en 2030. El que utilizamos actualmente es ligeramente distinto, pero la idea es la misma. En cualquier caso, el primero de los dos pasos es electrónico porque están involucradas en él tarjetas programables, mientras que el segundo paso lo lleva a cabo una granja de ordenadores que es capaz de realizar un filtrado más exhaustivo.

INTREPID es una iniciativa muy ambiciosa. ¿Puedes explicar de la forma más didáctica posible en qué consiste?

Lo que queremos hacer con el proyecto INTREPID es diseñar unos algoritmos o mejoras para el sistema de trigger que vamos a construir para 2030. Las placas que utilizamos son tarjetas programables FPGA, y la idea que subyace en el proyecto es intentar llevar un poco más allá el sistema de trigger que estamos construyendo. Desde un punto de vista tecnológico queremos probar unas tarjetas nuevas que tienen unos nodos de inteligencia artificial y que esencialmente te permiten hacer inferencia de redes neuronales dentro de la propia tarjeta.

“Uno de los grandes pilares del proyecto consiste en intentar ver si esta tecnología es aplicable a nuestro problema de trigger”

También necesitamos probar si estas tarjetas son capaces de funcionar dentro del rango de latencias que tenemos. Es lo que nosotros llamamos tiempo real. Los vendedores de las tarjetas te dan el tiempo real en el rango de los milisegundos, pero nosotros necesitamos microsegundos. Necesitamos ir a 12 microsegundos para que funcione.

Uno de los grandes pilares del proyecto consiste en intentar ver si esta tecnología es aplicable a nuestro problema de trigger, y el segundo pilar requiere tratar de ser más sensibles a un tipo de partículas desplazadas que se producen no en el punto de interacción de las colisiones, que es donde se generan la mayor parte de las partículas, sino en otro punto.

Puede ser que alguna partícula haya viajado un poco y se desintegre más adelante, en mitad del detector. El sistema que estamos utilizando tiene cierta sensibilidad a este tipo de partículas, pero puede dejarlas fuera debido a que tratamos una gran cantidad de ellas. Con INTREPID planeamos cambiar la arquitectura del sistema de trigger y ver si podemos recuperar esas partículas que se producen más lejos, hasta diez metros más allá del punto de interacción.

Cms 1 El detector CMS es una de las máquinas más complejas creadas por el ser humano. Y sus dimensiones son titánicas. De hecho, es un cilindro de 21 metros de longitud, 16 metros de diámetro y 12.500 toneladas.

Intuyo que buscar señales casi indetectables entre la vorágine de información que recoge el experimento CMS debe de ser como buscar una aguja en un pajar. ¿Cuál es la estrategia que tienes en mente a la hora de aplicar la inteligencia artificial para filtrar ese enorme volumen de información que generan las colisiones de partículas del LHC?

Lo que intentas hacer es buscar cosas que conoces. Es un problema de reconstrucción en el que es necesario identificar patrones. Tienes que unir puntos. Las partículas nos dejan señales puntuales en diferentes capas, por lo que tenemos que unir los puntos como si utilizásemos un lápiz. El ser humano puede llevar a cabo esta tarea fantásticamente bien, pero un ordenador no lo hace nada bien.

Los algoritmos de inteligencia artificial, sobre todo los de grafos, deberían ser muy eficientes al hacer este tipo de uniones de puntos que determinan la trayectoria de la partícula. Además, el problema se va complicando dependiendo de la región del detector con la que trabajemos.

Hay regiones que son muy fáciles en el sentido de que el campo magnético es muy uniforme y no hay huecos, por lo que los algoritmos analíticos en este escenario funcionan de maravilla. Sin embargo, en otras regiones del detector el campo magnético ya no es uniforme, por lo que la geometría cambia. Ya tampoco es uniforme.

El ojo humano lo ve muy bien, pero un algoritmo analítico ya no lo ve tan bien, por lo que acaba reconstruyendo mucho ruido que es necesario filtrar a posteriori. Creo que la inteligencia artificial nos va a ayudar bastante porque está pensada precisamente para esto. Para replicar el pensamiento humano.

La inteligencia artificial ya marca la diferencia en los experimentos del CERN

¿Qué respuestas esperas encontrar en estas señales tan tenues, casi indetectables, vinculadas a las partículas que pretendéis identificar gracias a vuestro sofisticado sistema de filtrado?

La clave es que llevamos tomando datos unos cuantos años y hasta ahora encajan a la perfección con las predicciones del Modelo Estándar. No hay ningún tipo de desviación, y todas las que ha habido al final o las hemos acabado entendiendo o desmintiendo.

En este contexto uno se pregunta si realmente estamos mirando en todos los sitios, y una de las cosas que no estamos mirando son estas partículas desplazadas. Hay varios modelos teóricos que predicen este tipo de señales, por lo que es un poco como la gallina y el huevo: no sabes qué vino antes.

“Si la nueva física está en estas señales ahora mismo nos la estamos perdiendo. Estamos ciegos ante ella”

Puede que el hecho de que no hayamos encontrado nada haya provocado que desarrollemos modelos teóricos, o al revés. En cualquier caso, está claro que son señales que no estamos siendo capaces de detectar. Ahora creemos que somos capaces de identificarlas más o menos con una eficiencia del 20%. La limitación la impone el propio sistema.

Si la nueva física está en estas señales ahora mismo nos la estamos perdiendo. Estamos ciegos ante ella. Por esta razón nuestro propósito es intentar recuperarlas, si existen, de manera que las podamos ver. Si lo conseguimos se desencadenará una revolución en la física porque será necesario explicar de dónde vienen estas partículas y por qué aparecen.

Tendremos que elaborar nuevos modelos que sean capaces de acomodarlas e ir más allá del Modelo Estándar. Cabe la posibilidad de que nos ayuden a entender mejor la materia oscura. O de que nos expliquen por qué los neutrinos tienen masa. O por qué no hay antimateria en el universo.

No sabemos con certeza qué respuestas vamos a encontrar, pero está claro que si encontramos algo tan exótico como lo que estamos buscando obtendremos alguna respuesta. Sería el fin del Modelo Estándar. Habremos encontrado nueva física y tendremos que empezar a rascarnos las cabezas otra vez.

¿Hay algún otro ámbito más allá del reconocimiento de patrones en el que la inteligencia artificial puede marcar la diferencia en la investigación en física de partículas?

Por supuesto. Actualmente estamos utilizándola en todos los niveles. La usamos en problemas de clasificación, que es otro desafío clásico cuando estás analizando una gran cantidad de datos. Nosotros [los físicos del CERN] fuimos los que en su momento pusimos la palabra ‘big’ delante de ‘data’. Google nos ha adelantado por la derecha, pero en su momento nosotros éramos los grandes generadores y consumidores de datos.

Al final estamos ante la aguja en el pajar de la que hablabas tú antes. La estamos buscando muchas veces para encontrar patrones, y una vez que los hemos encontrado intentamos identificar qué procesos de física están involucrados.

“Lo que queremos es buscar por encima de esta señal abrumadora descrita por el Modelo Estándar para encontrar procesos nuevos”

Todo son procesos de fondo debido a que la mayor parte de lo que vemos es el fondo, que no es otra cosa que todo aquello que está contemplado por el Modelo Estándar y que, por tanto, ya hemos medido y entendemos con cierta precisión. Lo que queremos es buscar por encima de esta señal abrumadora descrita por el Modelo Estándar para encontrar procesos nuevos que se producen muy pocas veces y que pueden estar asociados a nueva física.

En este contexto lo que tenemos que hacer es un ejercicio de clasificación para separar el fondo de la señal, y la inteligencia artificial es la herramienta que utilizamos diariamente para clasificar todo tipo de cosas, desde procesos de física de señal de fondo hasta objetos, como electrones o muones. Incluso la usamos para optimizar nuestros algoritmos de reconstrucción.

¿Contemplas con optimismo la posibilidad de que esta nueva física tan ansiada llegue en un plazo de tiempo relativamente breve?

Sí, confío en ello. De lo contrario nuestro campo estaría absolutamente perdido. Verdaderamente pienso que el HL-LHC (LHC de alta luminosidad) nos va a orientar un poquito. Seguramente no será el momento de hacer un gran descubrimiento debido a que la energía que tendremos será todavía muy modesta, pero la cantidad de datos que vamos a ser capaces de tomar nos va a dar probablemente algo de información valiosa.

Algo con la capacidad de indicarnos cómo debe ser la siguiente máquina que tenemos que construir; si tenemos que irnos a un colisionador hadrónico a una cierta energía o si es preferible un colisionador de electrones más preciso. Espero que con el HL-LHC y con todo lo que vamos a desarrollar para entonces, que es muchísimo, podamos tener alguna evidencia que nos haga plantearnos una nueva física.

Cms 2 En el LHC se producen nada menos que 40 millones de colisiones por segundo, por lo que es imprescindible filtrar esta descomunal cantidad de información para poder procesarla y almacenarla en algún lugar.

Todavía no tenemos la respuesta a dos preguntas fundamentales: cuál es la naturaleza de la materia oscura y cuál es el origen de la masa de los neutrinos. ¿Confías en que INTREPID pueda realizar aportaciones importantes en esta búsqueda en particular?

Sí, de hecho es el gran objetivo del proyecto. Todas las mejoras que desarrollemos van a ser previas a la puesta en funcionamiento del HL-LHC, y nuestro propósito es que estén listas para entrar en funcionamiento a la vez que el HL-LHC. Si se produce un descubrimiento la respuesta llegará después del proyecto porque su consecuencia será la semilla de esos resultados más que una consecuencia directa del propio proyecto.

El gran objetivo de INTREPID es recoger los datos que ahora nos estamos perdiendo. Puede que nos los estemos perdiendo porque no están ahí, pero también es posible que nos los estemos perdiendo porque no los estamos viendo.

El FCC es el candidato número 1 a suceder al LHC de alta luminosidad

¿Qué vendrá después del HL-LHC? Lo razonable después de incrementar la luminosidad del acelerador es aumentar el nivel de energía, ¿verdad?

Desde luego. Para nosotros esta es la clave. Si quieres seguir haciendo una máquina de descubrimientos tienes que irte a una energía más alta. Ya estamos teniendo conversaciones y diseñando estrategias para construir otro acelerador nuevo mucho más grande y capaz de llegar a energías mucho más altas. La duda que tenemos es si nos interesa que sea un acelerador de electrones o de protones.

Además hay varios proyectos de otro tipo de aceleradores, como colisionadores de muones o aceleradores lineales que también pueden ser interesantes. La comunidad científica está valorando qué vía tomar. Parece claro que el FCC (Futuro Colisionador Circular) es la máquina que queremos construir, pero si aparece algo en el HL-LHC todavía tenemos margen de maniobra para virar y tomar otra decisión.

¿Qué les dirías a las personas que creen que no merece la pena invertir el dinero de los contribuyentes en el CERN? ¿Por qué es importante apoyar la ciencia de vanguardia y el trabajo de los científicos que trabajáis en física de partículas?

En primer lugar porque creo que el conocimiento por el conocimiento es fundamental. Siempre ha habido algunas personas que nos hemos dedicado al conocimiento por el conocimiento. Pero además la investigación en ciencia básica entrega grandes avances tecnológicos a la sociedad. Si no hay personas haciendo ciencia básica esto no ocurre. Además, estos desarrollos tecnológicos llegan gratis a la sociedad porque no producen patentes.

En el CERN se han desarrollado, entre muchas otras innovaciones tecnológicas, la world wide web, la tecnología de aceleradores de partículas que se emplea actualmente para tratar el cáncer, los sistemas de crioterapia o criogenia que ya están llegando a la sociedad y la tecnología de levitación magnética empleada por algunos trenes de última generación.

Mi última pregunta es un poco más personal. Si tuvieses la oportunidad de encontrar únicamente la respuesta a una de las grandes preguntas de las que hemos hablado durante nuestra conversación ¿cuál sería esa pregunta ¿Qué es lo que más te ilusiona y aquello a lo que más te gustaría contribuir?

La materia oscura. Me gustaría saber qué es la materia oscura. Sabemos que acapara el 25% del universo. Me parece algo salvaje que a pesar de nuestros esfuerzos tan solo conozcamos actualmente el 5% del universo, que es el porcentaje de materia ordinaria del cosmos.

Ser capaz de dar una respuesta a ese 25% del universo sería crucial, aunque todavía nos faltaría mucho más por conocer porque creemos que el 70% restante es energía oscura. Creo que esto sería apasionante. Llevamos trabajando en esta línea muchos años de diferentes maneras, pero siempre buscando la respuesta a esta pregunta tan apasionante.

Imágenes: CERN

En Xataka: El CERN tiene un plan para lograr un hito histórico: encontrar la materia oscura supersimétrica


La noticia “Si conseguimos nuestro objetivo, se desencadenará una revolución en la física”: hablamos con Santiago Folgueras, físico del CERN fue publicada originalmente en Xataka por Juan Carlos López .

Technology
Adriana P

Las relaciones familiares de todas las lenguas de Europa, explicadas en este brillante mapa

Las relaciones familiares de todas las lenguas de Europa, explicadas en este brillante mapa

Europa es un crisol de lenguas: un vivero que comienza en Tarifa y termina en el Ártico a través del cual conviven y se relacionan entre sí un centenar de lenguas de la más variopinta procedencia. Hay de todo, desde herencias deformadas y antiquísimas del latín hasta monstruos deformes que han terminado dominando el mundo, pasando por idiomas arcanos y lenguas que provienen más allá del muro.

Si no eres lingüista, hacerse una idea de cómo se relacionan entre sí y de dónde provienen las principales lenguas (y las más pequeñitas) puede convertirse en un quebradero de cabeza. Para ello hay pequeños héroes (siempre sin capa) que han dibujado diversos mapas lingüísticos del continente. Gracias a su labor, entender las relaciones de familia de los diversos idiomas del continente es una tarea mucho más sencilla.

El último y más espectacular con el que nos hemos topado es este realizado por Alternative Transport, un divertido blog anglosajón que atraviesa algunas de nuestras pequeñas obsesiones (transporte, mapas, idiomas, etcétera). Basándose en uno previo algo menos vistoso, el resultado es un estupendo mapa abstracto en el que podemos ubicar con sencillez las familias y las lenguas de cada rincón de Europa.

El objetivo del mapa es ilustrar cómo de cerca o de lejos están los idiomas entre sí. Es decir, la posibilidad de que entendamos alguno de ellos sin utilizar nuestra lingua franca contemporánea, el inglés. Para ello, se basa en el número de palabras que pueden compartir dos idiomas dados. Cuantas más compartan, más cerca estarán en el mapa. Lo interesante es comprobar cómo de cerca están idiomas que sabemos distintos sobre el papel (por ejemplo, el polaco y el eslovaco) pero muy cerca en la práctica.

mapa

La primera división es la indoeuropea: la mayor parte de lenguas que se hablan en el continente provienen del remoto y desconocido protoindoeuropeo, una raíz que integra a las lenguas eslavas, a las lenguas germanas y a las lenguas romances, las tres grandes familias. Algunos quedan fuera, eso sí: el misterioso euskera, el húngaro, el finés y el estonio (estos dos últimos urálicos) tienen una ascendencia muy distinta.

Por eso aparecen en los márgenes, junto a rarezas fronterizas o fruto de la inmigración como el iranio, el turco o el maltés, una excepcionalidad semita fruto de la histórica dominación árabe de la isla, y que aún hoy pervive.

mapa2 Las urálicas, incluyendo la lengua húngara, ugria.

Todos los demás se engloban dentro de un tronco común. Hay algunas pequeñas excepcionalidades al trío de familias dominante. La más llamativa es la del griego, cuyas reuniones navideñas son solitarias: nadie le acompaña dentro de su rama. Otra graciosa es la del albanés, también a su aire, y juntos suman tantos idiomas como los que se cuentan en las lenguas bálticas, personificadas en el letón y en el lituano (con sus dos dialectos). También pequeño es el grupo celta: escasos hablantes y variedades (galés, gaélicos y bretón).

mapa3 Las lenguas celtas.

Restan los pesos pesados. El que nos toca directamente es el romance. Dentro de la familia la relación es variada: el italiano se lleva tan bien con el español como con el francés, pero estos dos últimos están muy separados. Entre medio se cuela el catalán, bastante inteligible para un español o un italiano. Portugués y gallego están cerca entre ellos pero lejos de todos menos el español. Y en un lugar remoto, el rumano, muy alejado.

Entre medio se cuela el crisol de lenguas romances, a menudo en peligro de extinción: rarezas aún vivas como el asturleonés, el friulano, cualquier variante de la península itálica (el véneto o el ligur, aunque no aparecen en el mapa), el aragonés (también ausente), el occitano, el sardo, el valón, el picardo o el franco-provenzal.

mapa4 Las romances.

Cada punto representa no sólo posición, sino también volumen: a mayor tamaño, más hablantes tendrá esa lengua. Esto es especialmente evidente en las lenguas germanas, muy poco equilibradas: inglés y alemán llevan todo el peso, aunque son lejanas. Entre medio caen el holandés, bastante inteligible con el alemán, y el frisio, cuya particularidad hace que esté muy, muy cerca del inglés medieval.

Por arriba quedan las lenguas escandinavas, una micro-familia propia dentro de una gran familia. La lengua más grande es la sueca, cerca de ambas variedades de noruego y del danés, pero bastante alejada del islandés, una rareza anquilosada y arcaica del escandinavo original. A mitad de caballo de todos también queda el feroés.

mapa6 Las germánicas.

Por último, la familia eslava. Grande en tamaño y extensión y más rica de lo que aparenta a primera vista. El círculo más grande corresponde al ruso, que por extraño que parezca está bastante alejado de todas las demás. Su pariente más cercano es el ucraniano, bastante inteligible con el bielorruso. Checho y eslovaco están cerca, pero no tanto como los dos anteriores, y el polaco es relativamente similar al eslovaco. Cerca del polaco quedan los minoritarios silesio y sorbio (este último presente en Alemania).

Más al sur está la particular familia de lenguas eslavo-balcánicas, muy cerca todas ellas entre sí. Comenzamos por el esloveno, el más apartado de todos, pero muy similar al cuarteto de serbio-croata-bosnio y montenegrino, en esencia el mismo idioma con muy pocas variaciones (aunque exacerbadas durante los últimos años). Al fondo a la derecha, el otro binomio: el búlgaro-macedonio, bastante similares entre sí.

mapa7 Las eslavas.

El resultado final es una forma perfecta de aproximarse a la realidad lingüística europea. Un regalo que ejerce de mapa visual en tanto que se puede trasladar con facilidad a los archivos del cerebro, acudiendo a él siempre que sea necesario. Es didáctico (y abierto a la actualización: aquí puedes proponer tu idioma si falta) y es muy intuitivo, y su valor gráfico le permite ser divulgativo y memorizable. En fin, un regalo para todos aquellos apasionados por las lenguas.

En Xataka | El verdadero tamaño de cada idioma del mundo, ilustrado en este estupendo gráfico

*Una versión anterior de este artículo se publicó en marzo de 2017


La noticia Las relaciones familiares de todas las lenguas de Europa, explicadas en este brillante mapa fue publicada originalmente en Xataka por Andrés P. Mohorte .

Technology
Adriana P

La historia tras la “granja del terror” de Burgos: canibalismo, ratas, cadáveres… y sello de bienestar animal

La historia tras la

Quintanilla del Coco es una pequeña villa de la comarca de Arlanza, en Burgos, donde viven apenas medio centenar de vecinos. Desde hace días protagoniza sin embargo titulares, tuits, reportajes en cadenas y emisoras estatales y sobre todo un encendido debate sobre el bienestar animal en el sector ganadero. El motivo: allí, en sus campos, se levanta “la granja del terror”, apodo con el que Observatorio de Bienestar Animal se refiere a la explotación porcina del alcalde del pueblo.

El título que Bienestar Animal (OBA) ha dado a la granja quizás parezca exagerado, pero el colectivo lo ha acompañado de un vídeo desde luego aterrador que muestra animales con hernias brutales, úlceras y graves heridas, cochiqueras con purines, larvas y ratas e incluso cadáveres y escenas de canibalismo entre los propios cerdos. Su propietario ya ha negado la mayor y asegura que tanto la Junta como los inspectores de Seprona han comprobado que “todo está correcto”.

“La granja del terror”. Así se refiere OBA a una explotación porcina de Quintanilla del Coco, Burgos, que está formada por media decena de naves con aproximadamente 5.000 cerdos. La ONG está convencida de que los animales del recinto están condenados a un “sufrimiento” tan “extremo” que han denunciado el caso y acudido al Juzgado de Lerma para presentar una querella contra el negocio. Le acusan de supuestos delitos de maltrato animal, con agravante de muerte, y otros relativos al mercado y los consumidores. También de estafa.

Granjaa Una de las escenas del vídeo publicado por OBA.

Más vale una imagen… que mil palabras, dice el refrán. En el caso de la explotación de Quintanilla del Coco lo que ha aportado OBA no es sin embargo una imagen, sino un vídeo de algo más de dos minutos en el que se pueden apreciar las condiciones en las que —asegura— viven los cerdos de la instalación burgalesa. La pieza la ha colgado en YouTube y en su propia web para que pueda verla quien esté interesado en el caso, pero no es apta para todos los públicos. La grabación muestra animales con graves lesiones, cadáveres y escenas de canibalismo.

De larvas a ratas, cadáveres, heridas y canibalismo. La lista de desmanes que se ven en el vídeo es larga, y difícil de digerir. Ahí va un resumen no apto para todas las sensibilidades: cadáveres en descomposición y arrojados entre basura, crías temblando y atrapadas en las rejas, lechones moribundos, descomunales hernias, tumores de mama y prolapsos de útero, heridas sangrantes, cerdos chapoteando en purines, entre larvas y ratas y cuidadores golpeándolos.

Una de las grabaciones más terribles es sin embargo la que muestra comportamientos caníbales entre los animales. “Varios cerdos se estaban comiendo a otro que aún estaba vivo —explica a la agencia Europa Press el autor de las grabaciones divulgadas por OBA—. Le mordían la pata derecha delantera y estaba sangrando. Incluso el agua del bebedero estaba teñida de color rojo”.

El vídeo muestra también un animal con una hernia de alrededor de siete kilos y otros con lesiones gangrenadas en el rabo o las orejas, lo que demostraría para el colectivo que las escenas de canibalismo no son una excepción. La ONG advierte de que las condiciones que hay en la granja entrañan riesgos que pueden afectar a los consumidores, como la transmisión de salmonelosis o leptospirosis.

Rere En la grabación pueden verse animales con graves lesiones.

Imágenes captadas durante meses. El País precisa que al menos parte de los vídeos los grabó un hombre que se acercó a la granja tras percibir los chillidos de los animales y el hedor. A lo largo de meses, entre mayo y octubre de este año, se habría infiltrado varias noches en las instalaciones de Quintanilla. “Lo que vi allí es lo más horroroso que he visto en mi vida”, asegura: “Cerdos ciegos o con hernias de más de siete kilos, otros que no se podían mover y tenían que arrastrarse para comer. Tampoco tenían asistencia veterinaria y algunos murieron de inanición”.

Desde OBA se habla directamente de “uno de los casos de maltrato animal más severos” que ha abordado hasta el momento. “El sufrimiento de los cerdos en esa explotación es extremo, muchos padecen una muerte lenta y dolorosa”, censura Julia Elizalde, mánager de campañas. Tanto en su web, como en redes y el propio vídeo de YouTube, la ONG señala además a una cadena de supermercados que, asegura, recibe carne de la granja burgalesa. Incluso ha lanzado una recogida de firmas para que la multinacional “implante estándares de bienestar básicos”.

Sellos de bienestar animal. Si el supuesto caso de maltrato animal de la explotación burgalesa ha logrado semejante repercusión no es solo por la crudeza del vídeo distribuido por OBA. Hay otro factor igual o incluso más llamativo, como desvela El País: la granja logró en 2019 dos sellos de bienestar animal emitidos por las prestigiosas AENOR e IRTA  —esta última ligada a la Generalitat de Cataluña— y durante más de cuatro años ha disfrutado de la certificación Welfair. Es más, AENOR la habría auditado seis veces y el último registro es de agosto.

Tras saltar la polémica y realizar una inspección de urgencia, ambas entidades habrían decidido suspender el sello y sacar también a la explotación burgalesa del sistema Welfair. Desde AENOR recalcan al diario de PRISA en cualquier caso que desde 2018 han anulado la certificación a algo más de un centenar de empresas, lo que supondría una parte mínima de todas las acreditadas, algo “menos del 1%”. La entidad ha explicado además a La Voz de Galicia que durante sus auditorias en las instalaciones “no se apreciaron situaciones” como las que muestra el vídeo.

Captura De Pantalla 2023 12 02 133832 En la grabación se aprecian animales con graves hernias, prolapsos y tumores.

Todo en orden. Eso es lo que sostiene el dueño de la granja, Domingo del Pozo Martínez, que ejerce además como alcalde del pueblo. En declaraciones a Europa Press, el empresario ha negado que sus animales se encuentren en las condiciones que muestra la ONG en su vídeo e insiste que tanto la administración autonómica como la Guardia Civil han podido comprobar que está todo en orden. “Lo único que puedo decir es que por aquí han estado técnicos de la Junta y miembros del Seprona y han visto que todo está correcto y perfecto”, recalca Del Pozo Martínez antes de deslizar que el vídeo de OBA puede mostrar otra explotación.

“Totalmente falsas”. “Ya hace tiempo otra granja de no sé dónde se enteró de que circulaban fotos dobladas, o yo que sé”, insiste el ganadero. En la suya asegura que tanto los permisos como la documentación veterinaria, la relacionada con la cadena de alimentación y la correspondiente a bienestar animal están “en orden”.

El consejero de Industria, Comercio y Empleo de Castilla y León, Mariano Veganzones, ha asegurado también que las imágenes de OBA son “totalmente falsas” y “no corresponden a la realidad”. El colectivo mantiene en cualquier caso su denuncia, en la que incluye la estafa por la presunta incongruencia entre lo que debe acreditar el sello de bienestar animal y las prácticas apreciadas en la granja, y reclama medidas de “carácter estructural”. Es más, ya valora presentar otra querella por un supuesto vertedero de cadáveres próximo a la explotación.

Imágenes: Observatorio de Bienestar Animal (YouTube)

En Xataka: Los estragos de la EHE: cómo el “COVID de las vacas” está llevando al límite al sector ganadero en España


La noticia La historia tras la “granja del terror” de Burgos: canibalismo, ratas, cadáveres… y sello de bienestar animal fue publicada originalmente en Xataka por Carlos Prego .

Technology
Adriana P

Google ha consagrado a Málaga como una de las ciudades más excitantes de Europa. Pero tiene sus costes ocultos

Google ha consagrado a Málaga como una de las ciudades más excitantes de Europa. Pero tiene sus costes ocultos

Málaga es sexi. Su entorno y gastronomía, el clima mediterráneo, la oferta de servicios y cultural y sobre todo la imagen que ha sabido proyectar más allá de sus fronteras parecen haber seducido al sector tech, con un buen número de empresas que a lo largo de los últimos años han decidido echar amarras en la Costa del Sol. El caso más reciente y desde luego notable es el de Google, que acaba de inaugurar allí su nuevo Safety Engineering Center (GSEC), pero los de Mountain View no son los primeros en dejarse cautivar por los encantos malagueños. La lista es extensa. Lo suficiente como para que el Ayuntamiento la haya publicitado con orgullo.

Problema: esa lista no le ha salido gratis a Málaga. El “boom” del que ya hablan algunos medios, combinado con el perfil turístico de la Costa del Sol y las tensiones en el mercado inmobiliario, ha dejado una factura poco agradable en la ciudad. Hay quien ya advierte incluso de una “gentrificación a gran escala”.

Bienvenido, Mr. Google. Por tamaño, importancia y repercusión mediática Google es probablemente el “fichaje” más icónico del que puede presumir Málaga. La multinacional acaba de inaugurar allí su nuevo y flamante Safety Engineering Center (GSEC), un ambicioso centro de 2.500 metros cuadrados situado en pleno Paseo de la Farola que puede presumir además de ser el primer centro de ciberseguridad de la firma en España y el más importante de Europa.

Que los de Sundar Pichai hayan decidido instalarse en la metrópoli andaluza se explica en gran medida con un nombre propio: VirusTotal, la startup malagueña que Google compró en 2012, ocho años después de su lanzamiento. Su rol ha sido clave para atraer a Google al sur peninsular y ayuda a entender también en gran medida el crecimiento del sector tecnológico en la urbe andaluza.

Suma y sigue de empresas. Quizás sea la más visibles, pero Google no es la primera ni la única que ha cedido a los atractivos de la Costa del Sol. NTT Data, Oracle, Hitachi, Vodafone o Capgemini, entre otras firmas tecnológicas, ya se han instalado en Málaga o han avanzado sus planes de hacerlo. Todas desembarcan por supuesto con sus respectivas inversiones, movimiento de empleados y captación de talento. Cuando Oracle estrenó por todo lo alto su Innovation Hub de España allí, en tierras malagueñas, se hablaba de que sumaba en el Málaga TechPark (PTA) una plantilla de más de 600 técnicos de 23 nacionalidades distintas.

Ese desembarco de empresas tech se ha dejado sentir más allá del tejido industrial. Coincidiendo con los planes de despliegue de Google y el cada vez mayor interés de la industria, la Universidad de Málaga (UMA) ha movido ficha para dotarse este curso de un nuevo Grado en Ciberseguridad e Inteligencia Artificial.

Captando firmas… y sacando pecho. Si de algo puede presumir Málaga es de haber sabido proyectar una imagen lo suficientemente sexi como para despertar el interés de grandes multinacionales. Y como ya se sabe que ‘dinero llama a dinero’, sus autoridades no han dudado en hacer alarde del ecosistema que parece haber arraigado en la ciudad. En enero su edil de Promoción, Rosa Sánchez, presentaba un informe de la Oficina del Inversor que mostraba que en 2022 una treintena de empresas habían elegido Málaga para establecer sus sedes con 2.767 empleos.

Según sus cuentas, desde 2019 la metrópoli había captado 72 empresas internacionales, lo que en términos laborales se traducía —aseguraba el informe— en cerca de 6.500 puestos de trabajo. Si se baja al detalle se aprecia que había 21 empresas de software, 10 de consultoría y ocho de telecomunicaciones. Su peso en el balance global supera con creces al de sectores como el inversor o inmobiliario. Eso no significa que no le vaya bien en otros ámbitos: en 2022 el banco Santander presentaba un centro tecnológico en el que preveía dar trabajo a 700 personas.

La receta del “equilibrio”. “En Málaga contamos con una ventaja que es el clima, la gastronomía, la cultura y la calidad de vida. Creo que al final la mayoría de empresas y empleados valoran ese equilibrio entre vida personal y profesional”, celebraba Sánchez. En su discurso la concejala habló también de teletrabajo, otra de las grandes apuestas de la ciudad, que ha sabido leer los cambios derivados de la pandemia y posicionarse para “pescar” en las aguas de los nómadas digitales.

Hace poco Savills PLC publicó un informe en el que situaba a Málaga como la segunda urbe más atractiva del mundo para los ejecutivos que trabajan en remoto atendiendo a factores como la calidad de la Red, nivel de vida, transporte, clima y el coste de la vivienda. En el ranking la aventajaba Dubái, pero la urbe andaluza se situaba por delante de Miami, Abu Dhabi, Barcelona, Palma o Lisboa, otra de las capitales europeas que ha apostado por el sector y ocupaba el quinto puesto.

Ciudad tecnológica, ciudad turística. El sector tecnológico no el único por el que ha apostado Málaga, que desde hace décadas despliega también una estrategia encaminada hacia otros dos frentes, en gran medida complementarios: la cultura y el turismo. La ciudad ha abierto museos tan importantes como el Pompidou o el Thyssen y ha intentado —con resultados no siempre positivos pero que muestran al menos dónde centran el tiro sus administraciones— convertirse en capital europea de la Innovación y la Juventud, además de sede de la Expo 2027.

Su fórmula infalible de sol, playa, patrimonio y gastronomía convierte además a Málaga una ciudad eminentemente turística: en 2022 logró una cifra casi récord, con 12,8 millones de visitantes que dejaron una facturación en el sector de más de 17.000 millones de euros, un volumen de ingresos nunca antes alcanzado.

Graf Comparativa del precio de compra en el mercado residencial elaborada por Fotocasa.

Graf2 Comparativa de Fotocasa sobre el precio del alquiler de las ciudades andaluzas.

Un (difícil) juego de equilibrios. Los esfuerzos por captar grandes tecnológicas, startups, nómadas digitales y viajeros han dejado riqueza en la ciudad, pero tienen también su contraparte. No hay éxito gratis. Y Málaga no es la excepción. En la ciudad andaluza el desembarco de profesionales tecnológicos, directivos y turistas ha llegado acompañado de un fenómeno mucho menos atractivo para sus vecinos: el encarecimiento de la vivienda.

A principios de noviembre Pisos.com publicó un informe sobre mercado inmobiliario que muestra que Málaga es una de las capitales de provincia en las que más se encareció el precio de la vivienda en el último año. Su coste subió un 18,94% con respecto a octubre de 2022, un alza solo superado por Santa Cruz de Tenerife (19,22%) y que se sitúa muy por encima del encarecimiento medio de la vivienda en España, que el portal inmobiliario cifraba en un 8,31%.

No es el único estudio que apunta en esa dirección. Un mes antes la misma empresa lanzó otro dossier, sobre el precio de la vivienda de segunda mano, que mostraba que las capitales con mayores incrementos a lo largo del último año han sido Santa Cruz de Tenerife (18,54%) y Málaga (15,67%). En ambos casos la urbe andaluza no se cuela en el TOP 5 de la vivienda más cara en €/m2, un “podio” presidido por Donosti y Madrid; pero sí en el de las subidas interanuales.

Escalada de precios. Los datos oficiales sobre tasación de viviendas del Gobierno muestran que comprar hoy en Málaga un apartamento con menos de cinco años exige desembolsar 2.777 euros por metro cuadrado (€/m2). Hace un año eran 2.582, en 2021 exigía 2.302 y en 2020 la tasación era de 2.084 €/m2. La subida por supuesto no es exclusiva de la ciudad andaluza y sus precios tampoco son los más elevados del mapa español, pero la tendencia de Málaga sí ha destacado en algunos informes inmobiliarios de los últimos años.

En 2022 el estudio Global Residential Cities Index de Knight Frank situaba a Málaga como la ciudad en la que más se había encarecido la vivienda, con un alza interanual del 9,8% durante el primer trimestre del año, y hace solo unas semanas Fotocasa desvelaba que la urbe andaluza ha alcanzado “un récord” en el coste de la vivienda de segunda mano con un “nivel máximo histórico”: en octubre marcaba un precio máximo de venta de 3.189 €/m2 tras una subida interanual del 14,6%.

“Esta situación no es excepcional, ya que se lleva repitiendo desde el inicio de 2023, donde Málaga Capital ha marcado récords históricos de precio cada mensualidad a lo largo del año”, concluye el portal inmobiliario.

De los datos, al testimonio. No todo son cifras. El Observatorio de Medio Ambiente Urbano, un organismo dependiente del Ayuntamiento, se ha mostrado crítico con la situación del mercado inmobiliario de la ciudad y dejaba un aviso a navegantes en su dossier del segundo trimestre de 2022: “El continuo aumento de los precios de la vivienda, tanto en compra como en alquiler” deriva en “el traslado de un número considerable de población residente hacia el área metropolitana de Málaga”. En otras palabras, advierte de una “gentrificación a gran escala”.

El fenómeno es lo suficientemente llamativo como para haber captado el interés del diario francés Le Monde, que le dedicó un reportaje que acompañaba de una frase tan lapidaria como sugerente: Picasso “ya no reconocería su ciudad natal”.

Destino tech, turístico… y de inversión inmobiliaria. “Málaga se ha convertido en un destino de inversión en vivienda para promotores de toda España, Europa y alguno de América Latina. Esta vez no está tan destinada a la compraventa como en 2008, sino que es una burbuja del alquiler”, explicaba en verano a El Confidencial Ricardo Urrestarazu, profesor de la UMA. El informe de precios de arrendamiento publicado en noviembre por el portal Idealista muestra un coste medio de 13,3 €/m2 tras acumular un alza interanual del 15,2%, muy por encima de la media estatal, que se situó en el 9,2%, o la andaluza, del 11,4 %.

Importante, pero no nuevo. Málaga no es la primera metrópoli que experimenta en sus carnes calles qué implica convertirse en un polo empresarial y tecnológico. Probablemente uno de los mayores exponentes del mundo es Silicon Valley, donde los precios de la vivienda han escalado a cotas tan elevadas que hay trabajadores que optan por “cápsulas para dormir” —similares a las que se usan desde hace años en Japón— mientras intentan abrirse paso en la industria.

En San Francisco el despliegue de millones de dólares generado por la industria tampoco ha convencido a todos los habitantes, que hace años veían cómo llegaban a pagarse un promedio de 3.500 dólares por apartamentos de un solo cuarto.

Uno de los casos más curiosos lo dejó sin embargo Nueva York en 2019, cuando Amazon planteó construir sus segundas oficinas centrales en Long Island. Aunque la multinacional aseguraba que generaría miles de empleos, el proyecto no salió adelante por la oposición de parte de la clase política y ciudadana. Al margen de los incentivos fiscales, se temía un encarecimiento de precios, incluida la vivienda.

Imágenes: David Becker (Unsplash) y Fotocasa.com

En Xataka: Hay gente reproduciendo las ciudades españolas al detalle en ‘Cities: Skylines’. Y es espectacular


La noticia Google ha consagrado a Málaga como una de las ciudades más excitantes de Europa. Pero tiene sus costes ocultos fue publicada originalmente en Xataka por Carlos Prego .

Technology
Adriana P

La mejor canción para probar el rendimiento de tus auriculares, según un investigador de sonido que lleva 35 años usándola

La mejor canción para probar el rendimiento de tus auriculares, según un investigador de sonido que lleva 35 años usándola

Imagina lo siguiente: te has comprado unos auriculares en el Black Friday, se los has pedido a los Reyes Magos o, simplemente, estás usando ahora mismo esos auriculares que siempre llevas en el bolsillo, y te pica la curiosidad: ¿cómo puedo saber si mis auriculares son buenos o no? ¿Qué canción puedo usar para determinar la calidad de mis auriculares? No es una cuestión sencilla, así que se la hemos planteado a alguien que sabe mucho de audio: Sean Olive, investigador de sonido y acústica en Harman, la matriz de JBL.

Fast Car’, de Tracy Chapman. De acuerdo a Sean Olive, esa es la mejor canción para probar auriculares. “Cuando se lanzó en 1988, descubrimos que estaba bien grabada y que parecía tener todas las frecuencias de audio, desde los 20 Hz a los 20 kHz”, nos explica Olive. Para tener algo de contexto, 20 Hz-20 kHz es el rango audible de un oído joven y sano. Cuando hablamos de graves hablamos de 20-250 Hz. Cuando hablamos de medios, hablamos de 250 Hz a 2 kHz y cuando hablamos de agudos, de 2-20 kHz. Por debajo de los 20 Hz están los infrasonidos y por encima de los 20 kHz, los ultrasonidos. Ninguno de los dos los podemos escuchar.

Pruebas y más pruebas. Al ser una canción bien lograda, JBL la empezó a usar para probar sus altavoces y en sus investigaciones, produciendo unos “resultados consistentes”. De acuerdo a Olive, “la gente era capaz de discriminar entre diferentes altavoces y podían escuchar cualquier defecto, si tenía demasiados graves, si no tenía suficientes graves… y siempre produjo las calificaciones más consistentes”. JBL lleva tiempo estudiando el sonido para, de alguna forma, ofrecer productos cuyo sonido sea lo que buscan la mayoría de usuarios. Hay varios papers al respecto con sus conclusiones.

Qué buscar. Según explica el propio investigador, lo primero que hay que buscar son los bajos. ‘Fast Car’ tiene un bajo eléctrico y un bombo, fijémonos en si los podemos distinguir. Luego, los platillos. ¿Se escuchan nítidos o son estridentes? A ello hemos de sumarle la voz de Chapman. “Si el altavoz tiene problemas para reproducir los graves, básicamente maximizará la excursión del woofer y entonces empezará a modular su voz”, afirma. Muchos altavoces y auriculares tienen demasiada potencia en los graves y eso puede enmascarar la voz. “Así que, escucha eso, y luego simplemente escucha el equilibrio general entre la voz, el bajo, y la batería y las guitarras. ¿Está la voz al mismo nivel que los instrumentos o por debajo?”.

Lo más cercano: el ruido rosa. Este tipo de ruido se ha usado históricamente para estudiar el comportamiento de salas, altavoces y diversos equipos de sonido. Su ventaja es que todas las bandas tienen el mismo nivel, por lo que nos sirve para estudiar posibles defectos en cualquier rango de frecuencia. El problema es que no es precisamente agradable. “Tiene todas las frecuencias de 20 Hz a 20 kHz, y es una señal muy buena para identificar resonancias, pero a la gente no le gusta escuchar ruido cuando hacen pruebas de escucha”, explica Olive.

Otro tema es el sonido Hi-Fi. Más allá de usar ‘Fast Car’ como banco de pruebas para nuestros auriculares y hacernos una idea aproximada de su rendimiento, lo cierto es que usando unos auriculares Bluetooth por la calle no vamos a apreciar lo que puede ofrecernos un tema en alta definición. Escuchar música en su máximo esplendor requiere de cierto equipo, ciertos conocimientos y ciertos archivos que no son los que podemos escuchar en Spotify. El sonido es como la imagen: podemos desembolsar tanto dinero como queramos, aunque lo cierto es que hay opciones más asequibles que nos pueden dar una experiencia fantástica.

Imágenes | Xataka

En Xataka | JBL Authentics 500, análisis: da gusto lucirlo en el salón, pero más gusto da disfrutar de sus graves


La noticia La mejor canción para probar el rendimiento de tus auriculares, según un investigador de sonido que lleva 35 años usándola fue publicada originalmente en Xataka por Jose García .

Technology
Adriana P

La serie ‘Halo’ ya tiene tráiler de la temporada 2 y fecha de estreno en Paramount+: Jefe Maestro regresa a lo grande

La serie 'Halo' ya tiene tráiler de la temporada 2 y fecha de estreno en Paramount+: Jefe Maestro regresa a lo grande

2023 se despide a lo grande, abriendo el apetito de los amantes de las series de ciencia ficción y las adaptaciones de los videojuegos a la pequeña pantalla. Si Amazon Prime Video acaba de lanzar el tráiler de su versión de la popular saga postapocalíptica ‘Fallout’, que podremos disfrutar a partir del 12 de abril en la plataforma de streaming, Paramount+ ha hecho lo propio con ‘Halo’, la serie basada en el juego de acción-shooter protagonizada por Jefe Maestro.

Paramount+ avanzó anoche el tráiler de la segunda temporada y confirmó la fecha de su estreno: el 8 de febrero. Esa será al menos la fecha de lanzamiento de los primeros capítulos desde el servicio de suscripción disponible en EEUU. De momento no han trascendido detalles sobre cuándo será el estreno en España.

La plataforma no se ha desplegado en toda Europa y hace un año la primera temporada de ‘Halo’ llegó a España de forma oficial, con doblaje al castellano, en formato físico, en DVD y Blu-ray. Más tarde sin embargo SkyShowtime incluyó la popular adaptación en el catálogo de obras con el que desembarcó en España.

De momento lo que ha avanzado Paramount+ es un espectacular tráiler de 97 segundos sobre la segunda temporada de la serie, un vistazo a la nueva entrega que nos permite ver personajes, escenarios y, por supuesto, grandes dosis de acción.

“El Jefe Maestro John-117 lidera su equipo de espartanos de élite contra la amenaza alienígena conocida como Covenant. Como la mejor esperanza de la humanidad para ganar la guerra, John-117 descubre su profunda conexión con una misteriosa estructura alienígena que tiene la clave para la salvación de la humanidad, o su destrucción”, desliza la plataforma junta al tráiler.

La adaptación volverá a contar con Pablo Schrieber como protagonista, junto a algunos nuevos fichajes y actores y actrices que repiten en sus papeles.

Los de ‘Halo’ y ‘Fallout’ no son los únicos tráilers que ha dejado el fin de semana, durante el que también se han avanzado los de la segunda temporada de ‘La Casa del Dragón’ y la cuarta de ‘The Boys’, que ha querido ir abriendo apetito con un avance espectacular de la serie de superhéroes de Amazon Prime Video.

Imágenes y vídeo: Paramount+

En Xataka: 243 películas aterrizan en el catálogo de SkyShowtime, de ‘Dungeons & Dragons: Honor entre ladrones’ a ‘Ex Machina’


La noticia La serie ‘Halo’ ya tiene tráiler de la temporada 2 y fecha de estreno en Paramount+: Jefe Maestro regresa a lo grande fue publicada originalmente en Xataka por Carlos Prego .