Technology

Technology

La revolución de las gafas de realidad aumentada de Apple tendrá que esperar: los problemas crecen

La revolución de las gafas de realidad aumentada de Apple tendrá que esperar: los problemas crecen

Apple está buscando su próxima revolución, pero no la encuentra. El coche se le resiste, y la que parecía su gran apuesta a medio plazo, las gafas de realidad aumentada, han sufrido varios retrasos. De hecho, ahora se produce el enésimo.

Pausa indefinida. Fuentes cercanas al proyecto indican en Bloomberg cómo esas gafas, que serían algo así como unas Google Glass supervitaminadas, se han retrasado de forma indefinida. Esperábamos verlas este mes de enero, pero de eso nada.

Problemas técnicos. Apple se está enfrentando a un verdadero reto a la hora de plantear un producto tan ambicioso y que además sea amigable para los consumidores.

El sueño se desvanece. Las gafas de realidad aumentada serían teóricamente ligeras —al estilo de las OPPO Air Glass— y mucho menos aparatosas que las gafas de realidad virtual o mixta que preparan. La idea, de hecho, sería que los usuarios pudieran usarlas todo el día, pero ese objetivo parece ahora más lejano que nunca. Quizás inalcanzable.

Leap

La propuesta de las Magic Leap 2 se acerca a la que al parecer plantea Apple. La batería, como puede verse, es externa y en este caso se lleva como un pequeño bolso.

Batería a lo Leap Motion. Para alargar la autonomía de la batería y evitar más peso en las gafas, en Apple están planteando que la batería sea externa, conectada por cable a esas “Apple Glass” y que podríamos tener guardada en un bolsillo. El concepto es el mismo que Magic Leap ya utilizó con sus gafas de realidad aumentada, que fracasaron como producto para usuarios finales y ahora están orientadas al segmento profesional.

Y mientras las de realidad mixta avanzan. Apple estaba trabajando en ese proyecto, pero antes iba a lanzar unas gafas de realidad mixta. Ese proyecto sigue en marcha, pero ahora el enfoque parece destinado a crear un modelo algo más asequible que debería aparecer en 2025 o 2025.

Demasiado caras. Los rumores apuntaban a que esas gafas de realidad mixta costarían unos 3.000 dólares. Ese precio se debía al uso de pantallas de gran resolución, más de 10 cámaras, sensores e incluso chips como un M2 —se habló también de los M1 Pro— y otro dedicado para gestionar la visualización de realidad virtual y aumentada.

Recortes. Para lograr abaratar el producto, Apple parece estar ahora contemplando el uso de chips del iPhone —y no los M2— además de otros recortes en otras áreas como las pantallas. La idea sería competir con las nuevas Meta Quest Pro, que cuestan 1.500 dólares.

Marcas registradas. Apple ya registró los nombres “Reality Pro”, probablemente dirigido al modelo inicial, y “Reality One”, quizás destinado a una versión más asequible. También existe un registro para “Reality Processor”, que probablemente estaría asociado al chip especializado para esa gestión de la visualización de la realidad aumentada o virtual.

Imagne: Martin Hajek


La noticia La revolución de las gafas de realidad aumentada de Apple tendrá que esperar: los problemas crecen fue publicada originalmente en Xataka por Javier Pastor .

18 January, 2023 Leer más →
Technology

Las CPU M2 Pro y Max de 5 nm intimidan, aunque TSMC ya fabrica chips de 3 nm. Los próximos M3 de Apple asustan

Las CPU M2 Pro y Max de 5 nm intimidan, aunque TSMC ya fabrica chips de 3 nm. Los próximos M3 de Apple asustan

Ya están aquí. Apple lanzó su primer procesador M2 a principios de junio de 2022, y desde ese momento esperamos la llegada de las versiones Pro y Max de este chip con la curiosidad de quien confía en averiguar si realmente están a la altura. No lo sabremos hasta que uno de los nuevos MacBook Pro o Mac mini caiga en nuestras manos, pero, sobre el papel y ciñéndonos al rendimiento que han arrojado los anteriores chips de la familia M en nuestras pruebas, estos M2 pintan bien.

Al igual que el procesador M2 original, los M2 Pro y Max han sido fabricados utilizando la tecnología de integración de 5 nm de segunda generación desarrollada por TSMC. No cabe duda de que esta es una litografía muy avanzada, pero no es la más sofisticada que tiene entre manos este fabricante taiwanés de semiconductores. Su nodo más ambicioso con la capacidad de producir chips de alta integración a gran escala es el N3B (3 nm), y podemos estar razonablemente seguros de que los próximos chips de Apple saldrán de él.

Los primeros circuitos integrados producidos por TSMC a gran escala en su nodo de 3 nm de segunda generación (N3E) son los ZeusCORE100 de Alphawave. Son unos circuitos integrados avanzados que implementan varios estándares de última generación, como 800G Ethernet, PCI Express 6.0 o CXL 3.0, entre otros. Pero Apple espera a poca distancia, agazapada. Es el mejor cliente de TSMC (en 2021 el 26% de sus ingresos procedió de la marca de Cupertino), y los medios asiáticos dan por hecho lo que podemos considerar un secreto a voces: los chips M3 darán el salto a la litografía de 3 nm.

TSMC nos ha anticipado qué podemos esperar de sus nodos de 3 nm

A finales del pasado mes de diciembre esta compañía inició la fabricación a gran escala de chips en su nodo de 3 nm (N3B). Morris Chang y Mark Liu, que son el fundador y el presidente de esta compañía respectivamente, habían prometido que antes de que acabase 2022 empezarían a fabricar masivamente circuitos integrados de 3 nm, y lo han cumplido. Aún no sabemos con certeza qué empresa le ha encargado estos primeros chips, pero lo que sí sabemos es que Apple ocupará a corto plazo este nodo.

Algunos de los clientes de TSMC no están dispuestos a pagar los más de 20.000 dólares que cuesta una oblea de chips de 3 nm

De hecho, varios medios de comunicación y organizaciones de China y Taiwán, como MyDrivers o China Renaissance, defienden que TSMC se está planteando reducir el precio de las obleas que está produciendo en su nodo N3B debido a que AMD, NVIDIA, Qualcomm y MediaTek, que son algunos de sus mejores clientes, no están dispuestos a pagar los más de 20.000 dólares que cuesta una oblea de chips fabricada empleando esta litografía. Es más, algunos de estos medios aseguran que por el momento solo Apple se ha comprometido con TSMC a utilizar este nodo. Y es creíble.

Pese a todo, parece que el fabricante de chips taiwanés es optimista acerca de los ingresos que recibirá durante 2023 a través de sus nodos de 3 nm:

Pase lo que pase podemos estar razonablemente seguros de que los procesadores M3 de Apple, y, según Nikkei Asia, también los A17 Bionic, se fabricarán empleando la fotolitografía de 3 nm mejorada de TSMC. Curiosamente, este fabricante de semiconductores de alta integración ya nos ha anticipado algunas de las propiedades de su litografía más avanzada. Y esto, de alguna forma, nos invita a ir haciéndonos una idea aproximada acerca de qué es lo que podemos esperar de los procesadores que producirá en este nodo. Y esto incluye a los próximos chips de Apple.

El nodo N3E, según TSMC, entrega una velocidad de conmutación un 18% más alta que el nodo N5 manteniendo el mismo consumo

El nodo N3E, según TSMC, entrega una velocidad de conmutación un 18% más alta que el nodo N5 manteniendo el mismo consumo. O bien puede mantener la misma velocidad que este último, pero reduciendo el consumo un 34%. Además, esta tecnología consigue multiplicar la densidad de transistores del nodo N5 por 1,7. No suena nada mal, aunque TSMC no es el único fabricante de chips que ha alcanzado este estatus; Samsung también está produciendo circuitos integrados de 3 nm, y promete un rendimiento un 23% más alto y casi el doble de eficiencia que su proceso de 5 nm.

Veremos cómo se portan los nuevos microprocesadores M2 Pro y Max de Apple cuando tengamos la oportunidad de probar a fondo uno de los dispositivos que apuestan por ellos, pero, con toda probabilidad, los chips M3 darán un paso hacia delante importante. Tendrán a su favor las mejoras introducidas por TSMC en su litografía de 3 nm, y es razonable prever que Apple aprovechará para refinar su microarquitectura e introducir en ella cambios que perseguirán incrementar el rendimiento por vatio de estas CPU. Nuestra próxima cita con los procesadores de la familia M será interesante.


La noticia Las CPU M2 Pro y Max de 5 nm intimidan, aunque TSMC ya fabrica chips de 3 nm. Los próximos M3 de Apple asustan fue publicada originalmente en Xataka por Juan Carlos López .

18 January, 2023 Leer más →
Technology

Japón quiere volver a apostar por la energía nuclear: uno de los desafíos es conseguir los suficientes ingenieros

Japón quiere volver a apostar por la energía nuclear: uno de los desafíos es conseguir los suficientes ingenieros

Antes del desastre de Fukushima, Japón tenía 54 reactores nucleares en funcionamiento. En la actualidad, la cantidad se ha reducido a solo nueve. Fumio Kishida, el primer ministro del país, quiere darle una nueva oportunidad a este modelo energético. Sin embargo, los avances pueden producirse mucho más lento de lo esperado.

Japón se enfrenta a una serie de desafíos que, según señala Financial Times, no son fáciles de superar. Por un lado, hay un notable déficit de ingenieros nucleares. Por otro, la capacidad de fabricación de equipos nucleares se ha reducido considerablemente en los últimos años. Esto último, debido al debilitamiento de la cadena de suministros relacionada.

El desafío de volver a la energía nuclear

Durante mucho tiempo, Japón desarrolló una importante y aventurada estrategia nuclear. La nación se benefició de este sistema, con sus aciertos y fallos, que demandó décadas construir y poner en marcha. Todo esto quedó suspendido en 2011 con el accidente de Fukushima provocado por el terremoto y tsunami de Tōhoku.

Gran parte de todo aquel modelo energético se ha esfumado. Si bien algunos de los reactores nucleares que habían cerrado están nuevamente operativos (en 2021, solo cuatro estaban funcionando), los problemas empiezan a aparecer a la hora de construir reactores nucleares de nueva generación, más seguros, confiables y con mejor rendimiento.

En los años posteriores a 2011, más de 20 compañías relacionadas a la fabricación de equipos nucleares abandonaron el país o colapsaron económicamente. ¿La consecuencia Japón, de momento, no puede autoabastecerse de ciertas piezas clave para construir nuevos reactores, como las barreras de contención fabricadas con aleación de zirconio.

Pero, como decimos, este no es el único problema. La Asociación de Fabricantes Eléctricos de Japón advierte que la cantidad de ingenieros necesarios para fabricar equipos nucleares ha disminuido un 45% desde 2011. Y el panorama no resulta alentador. También hay menos estudiantes de ingeniería nuclear, específicamente, un 14% menos.

El futuro energético nuclear de Japón ahora se apoya en un puñado de compañías con el suficiente músculo económico como para seguir en el país. De acuerdo a Nikkei Asia, entre ellas encontramos a Mitsubishi Heavy Industries (MHI) y Hitachi GE Nuclear Energy (una empresa conjunta con General Electric).

Ambas compañías están trabajando en reactores que toman como base la tecnología existente y la mejoras para que sean más seguros. Pero, eso sí, se espera que estas nuevas centrales empiecen a estar operativas en la década de 2030. También están apostando por los reactores modulares pequeños (SMR) de 300 MW(e) por unidad.

Imágenes: IAEA Imagebank

En Xataka: China avanza a toda máquina en fusión nuclear. Tanto que se ha ganado la atención de los responsables de ITER


La noticia Japón quiere volver a apostar por la energía nuclear: uno de los desafíos es conseguir los suficientes ingenieros fue publicada originalmente en Xataka por Javier Marquez .

17 January, 2023 Leer más →
Technology

Ya está listo el primer algoritmo cuántico que amenaza de muerte a las técnicas de cifrado más avanzadas

Ya está listo el primer algoritmo cuántico que amenaza de muerte a las técnicas de cifrado más avanzadas

A los expertos no los ha cogido por sorpresa. Al menos, no del todo. La posibilidad de que un ordenador cuántico pueda ser utilizado para romper las técnicas de cifrado más sofisticadas que tenemos actualmente está encima de la mesa desde hace varios años, y parece que este hito está más cerca de lo que algunos investigadores habían previsto.

Durante la conversación que mantuvimos con él a finales de 2019, Juan José García Ripoll, que es un investigador del Instituto de Física Fundamental del Consejo Superior de Investigaciones Científicas (CSIC), nos explicó que con toda probabilidad el desarrollo de la computación cuántica acabará provocando que los algoritmos de cifrado actuales se vuelvan vulnerables.

No obstante, Juan José también precisó que para romper claves son necesarios ordenadores cuánticos mucho mejores que los que estaban disponibles en ese momento. Desde entonces el hardware cuántico ha evolucionado mucho, pero también lo han hecho los algoritmos cuánticos. Y ya hay uno que amenaza muy seriamente a las técnicas de cifrado actuales. Y viene de China.

En teoría bastan 372 cúbits útiles, y este hardware cuántico está ya muy cerca

Un equipo de investigación de la Universidad Tsinghua de Pekín (China) liderado por el profesor Gui-Lu Long ha desarrollado un algoritmo cuántico de factorización que, según sus cálculos, reduce drásticamente los cúbits que son necesarios para romper las técnicas de cifrado actuales. Su algoritmo se conoce como SQIF (Sublinear-resource Quantum Integer Factorization), y desarrolla una idea propuesta en 2013 por el investigador alemán Claus Schnorr.

Según Gui-Lu Long y su equipo bastan 372 cúbits físicos para vulnerar el cifrado RSA-2048

Lo sorprendente es que en el artículo científico que han publicado Gui-Lu Long y su equipo aseguran que bastan 372 cúbits físicos integrados en un circuito de unos pocos miles de cúbits para vulnerar el cifrado RSA-2048, que es el algoritmo de clave pública más utilizado actualmente. De hecho, se emplea con frecuencia para cifrar firmas digitales y comunicaciones.

Para poner en contexto esta afirmación nos interesa recordar que a mediados del pasado mes de noviembre IBM presentó Osprey, un procesador cuántico de 433 cúbits. Y a finales de este año prevé tener listo Condor, un chip cuántico que aglutinará 1.121 cúbits. Este ritmo de desarrollo del hardware cuántico vaticina que los 372 cúbits útiles que requiere el algoritmo SQIF para llevar a cabo su propósito podrían estar muy cerca. Según el itinerario de IBM podrían llegar antes de que acabe esta década, por lo que es comprensible que algunos expertos estén preocupados.

Otros, sin embargo, arrojan dudas acerca del vaticinio de Gui-Lu Long y su equipo. El investigador estadounidense Scott Aaronson, que pertenece a la Universidad de Texas en Austin, asegura que el artículo de estos investigadores chinos es engañoso, y no confía lo más mínimo en sus conclusiones. Algo parecido opina Lawrence Gasman, que es el fundador de la consultora especializada en computación cuántica Inside Quantum Technology Research.

La criptografía cuántica persigue resolver la vulnerabilidad introducida por los ordenadores cuánticos en las tecnologías de cifrado actuales

Ya veremos qué sucede finalmente. En cualquier caso, es importante que tengamos en cuenta que existe un área de investigación en matemática y criptografía resistente a ordenadores cuánticos. Es un campo de trabajo muy difícil, pero lo interesante es que propone utilizar los sistemas cuánticos para la criptografía, de modo que el cifrado en el que está involucrado el hardware cuántico no podrá ser vulnerado por un ordenador de este tipo.

En Europa está en marcha la iniciativa European Union Quantum Communication Initiative, en la que participa España. Lo que persigue es crear redes de criptografía cuántica para infraestructuras que en algún momento puedan ser utilizadas también para hacer más seguras las comunicaciones. Sea como sea, Juan José García Ripoll y otros expertos confían en que la criptografía cuántica consiga resolver la vulnerabilidad introducida por los ordenadores cuánticos en las tecnologías de cifrado actuales. Y no cabe duda de que este pensamiento resulta tranquilizador.

Imagen de portada: Pixabay

Más información: Universidad Tsinghua


La noticia Ya está listo el primer algoritmo cuántico que amenaza de muerte a las técnicas de cifrado más avanzadas fue publicada originalmente en Xataka por Juan Carlos López .

17 January, 2023 Leer más →
Technology

LG y Samsung se han declarado la guerra. Los usuarios ganamos: en 2023 los televisores OLED serán excepcionales

LG y Samsung se han declarado la guerra. Los usuarios ganamos: en 2023 los televisores OLED serán excepcionales

Este año los dos fabricantes de televisores surcoreanos van a pisar el acelerador a fondo. De eso no cabe la menor duda. En el CES hemos podido ver en acción buena parte de las innovaciones que colocarán en las tiendas dentro de unos meses, pero hay una tecnología que se va a ver reforzada con contundencia: la OLED. Y no es en absoluto una casualidad.

La entrada de Samsung en el mercado de la fabricación de paneles orgánicos de gran formato ha puesto fin al monopolio efectivo que tenía LG, pero es evidente que esta última marca no ha tirado la toalla. Hacía muchos años que no introducía novedades tan ambiciosas en sus matrices W-OLED, y lo ha hecho, de esto no cabe la menor duda, como respuesta a la presión que está ejerciendo Samsung.

Estas son las mejoras que incorporan los paneles QD-OLED y W-OLED este año

Antes de seguir adelante merece la pena que hagamos un inciso importante: Samsung y LG son las protagonistas de este artículo debido a que son los dos productores de paneles orgánicos de gran formato que se reparten el mercado, pero los demás fabricantes de televisores también preparan propuestas muy atractivas. Al fin y al cabo van a incorporar en algunas de sus pantallas para 2023 las nuevas matrices OLED que han desarrollado LG Display y Samsung Display.

En cualquier caso, lo que nos importa a los usuarios, más allá de la guerra comercial entre marcas, es identificar qué mejoras van a entregarnos estas nuevas tecnologías. Y una de las más contundentes es su capacidad de entrega de brillo.

Los nuevos paneles META de LG dotados de la tecnología MLA nos prometen hasta un 70% más de luz

Los nuevos paneles META de LG dotados de la tecnología MLA (Micro-Lens Array) nos prometen hasta un 70% más de luz y ampliar un 30% los ángulos de visión. Además, pueden entregar picos de brillo de 2.100 nits (aunque, eso sí, en una porción ínfima del panel) y son más eficientes con el propósito de respetar la normativa europea que entrará en vigor el próximo 1 de marzo.

Si nos ceñimos a la entrega de brillo, Samsung también ha puesto toda la carne en el asador. Parecía poco probable que esta marca renovase de una forma profunda sus matrices orgánicas tan solo un año después de introducirlas en el mercado, pero lo ha hecho. Y es que los paneles QD-OLED con los que podremos hacernos este año serán capaces de rozar, según esta marca, los 2.000 nits. Y, además, nos prometen alcanzar esta cifra sin degradar el color. De hecho, esta es la otra gran ventaja de las nuevas tecnologías de Samsung y LG: su capacidad de reproducir un volumen de color más amplio.

Los nuevos paneles W-OLED de LG van a rozar el 100% de cobertura del espacio de color DCI-P3. Vincent Teoh, que es un reputado experto en calibración de pantallas, ha ajustado y medido el televisor MZ2000 (tiene una de las nuevas matrices de LG), que es el modelo insignia de Panasonic para 2023, y ha confirmado tanto su capacidad de entrega de brillo (1.500 nits en una ventana del 10% del panel), como su colorimetría. Y, sobre el papel, la reproducción del color de los paneles QD-OLED de segunda generación de Samsung será incluso mejor que la de los META de LG. Lo comprobaremos cuando ambas soluciones lleguen a las tiendas.

Además de incrementar su capacidad de entrega de brillo y de optimizar la forma en que reproducen el color, los fabricantes de televisores van a refinar los algoritmos de procesado de la imagen para, entre otras cosas, reducir el ruido de alta frecuencia e incrementar el nivel de detalle en las regiones en sombra y altas luces. Pero lo más sorprendente es que van a hacer todo esto consumiendo menos.

Los nuevos televisores OLED serán menos sensibles a la retención de imágenes estáticas en el panel

Y es que parece que los televisores OLED que colocarán en las tiendas tanto Samsung como LG en 2023 cumplirán sin problema la normativa europea que entra en vigor el 1 de marzo sin sacrificar ni siquiera mínimamente sus prestaciones. Y, de propina, serán menos sensibles a la retención de imágenes estáticas, por lo que este punto débil de los paneles orgánicos cada vez es menos relevante.

En el CES hemos tenido la oportunidad de ver algunos de los televisores OLED que Samsung y LG van a lanzar dentro de unas semanas. Y sí, objetivamente pintan muy bien. Confiemos en que estén a la altura tanto estos como los que están preparando marcas como Sony, Panasonic o Philips.

Pase lo que pase, de una cosa no cabe duda: la competencia encarnizada que sostienen los dos fabricantes surcoreanos de paneles orgánicos les ha obligado a ponerse las pilas, y esto va a provocar que la tecnología OLED dé un paso hacia delante muy importante este año. Definitivamente ganamos los consumidores.


La noticia LG y Samsung se han declarado la guerra. Los usuarios ganamos: en 2023 los televisores OLED serán excepcionales fue publicada originalmente en Xataka por Juan Carlos López .

17 January, 2023 Leer más →
Technology

Bitcoin remonta y vuelve a superar los 20.000 dólares: nadie sabe muy bien qué está pasando

Bitcoin remonta y vuelve a superar los 20.000 dólares: nadie sabe muy bien qué está pasando

Hablar de criptomonedas es hablar de promesas. Promesas que no siempre se cumplen. Bitcoin llegó a hundirse a niveles de 2020, perdiendo más de la mitad de su valor y arrastrando consigo una enorme crisis dentro del territorio cripto. Pero todo que baja puede volver a subir, y el inicio de año para Bitcoin arranca de forma enérgica. Vuelve a los 20.000 dólares, iniciando una recuperación que apunta a ser sostenida.

De vuelta a los 20.000 dólares. En el momento en el que escribimos este artículo, Bitcoin tiene un precio de 20.800 dólares. La resistencia de los 20K parecía irrompible, y llevábamos sin ver BTC por encima de la misma desde noviembre de 2022. Estas cifras suponen un incremento de más del 20% desde el 1 de enero, habiendo superado los 21K de forma momentánea

Recuperación tras una trágica caída. Bitcoin llevaba en caída libre desde mediados de 2022. Lejos quedaba su pico de 66.000 dólares en octubre de 2021, aunque logró estabilidad entre los 40 y los 45K durante el pasado curso. Todo cambió a partir de marzo de 2022. Bitcoin empezaba a desplomarse, con un trágico junio en el que se vio por debajo de los 20.000 dólares. Desde entonces se mantuvo en esa línea, cerrando 2022 de forma bastante trágica y volviendo a caer incluso por debajo de los 16K.

La crisis tuvo consecuencias. La crisis de Bitcoin vino acompañada de importantes sucesos en el mundo cripto. Despidos en Coinbase, efectos colaterales en la minería, dudas sobre el futuro de Binance y la quiebra de grandes exchanges como FTX como indicador de que algo estaba sucediendo.

Y salidas urgentes de Bitcoin. Incluso Tesla, que anunciaba en marzo de 2021 que los compradores de sus coches eléctricos podrían usar Bitcoin en el proceso, acabó frenando su entusiasmo y vendiendo el 75% de los bitcoins que había comprado para frenar pérdidas. Musk indicaba que la venta se debía a la incertidumbre por los confinamientos del COVID-19, y que lo importante en ese momento era “afianzar la posición de dinero en efectivo”.

Entre el optimismo y la incertidumbre. La cotización de Bitcoin supone un pequeño llamamiento a la calma. El repunte ha beneficiado a otras criptomonedas como Ethereum, que suben cerca de un 10%. Otras, como Solana, se subieron al rally disparándose más de un 30%. Los expertos apuntan que ha habido una subida constante desde principios de año y que volver a romper la resistencia de los 20.000 dólares “ha eliminado algunos topes”, siendo esta cifra un nivel clave para la evolución de Bitcoin en 2023.

La pequeña tregua que está dando el IPC en EEUU, junto al anuncio de que FTX ha recuperado 5.000 millones de activo líquido no bastan para explicar la subida repentina de Bitcoin, cuya evolución sigue siendo imprevisible.


La noticia Bitcoin remonta y vuelve a superar los 20.000 dólares: nadie sabe muy bien qué está pasando fue publicada originalmente en Xataka por Ricardo Aguilar .

17 January, 2023 Leer más →
Technology

“Big Rip”: ya intuimos cómo será el fin del Universo dentro de miles de años

La teoría del big bang es una de las más conocidas en la ciencia y se utiliza para describir la evolución temprana del Universo, su principio, con algunos matices. Pero todo lo que empieza (suponemos) debe terminar, y entender el fin al que se dirige nuestro cosmos requiere de otra teoría. Por ahora tenemos varias hipótesis, y una está ganando tracción, la del gran desgarro o big rip.


Teorías para el fin del universo.
Tras siglos preguntándonos eso de “¿de dónde venimos?” tenemos una idea más o menos fiable y precisa de la historia del universo. La historia de un inicio de rápida expansión, seguido de una deceleración inicial y un nuevo proceso de aceleración en lo que respecta a la expansión.

Con algunos “peros”, puede hablarse de consenso en cuanto a la evolución pasada del universo, pero la pregunta “¿hacia dónde nos encaminamos?” no cuenta con una respuesta sencilla. Hay tres hipótesis principales, la del big crunch”, la del big freeze y la del big rip.

La primera puede verse como un big bang a la inversa, es decir, postula que tras la inflación presente el universo pasará a hacerse más pequeño hasta que materia, energía y espacio mismo vuelvan a converger en un punto. El big freeze por su parte contempla un universo que sigue expandiéndose hasta que materia y energía acaban estando tan dispersas que todo el calor desaparece.

No con un estallido, sino con un desgarro.
Pero existe una teoría aún más extrema, que habla de una expansión tan acelerada que termina “desgarrando” el universo, el “big rip” o gran desgarro. En este escenario, la energía oscura, una energía que no podemos detectar pero que sería la responsable del crecimiento acelerado del universo, seguiría incrementando el ritmo de expansión del universo hasta llegar a este desgarro.

“Los datos experimentales encajan muy bien con el Big Rip, apuntando a que es muy probable que ocurra” señala la física Ruth Lazkoz, en un artículo en The Conversation. “Las galaxias se irán separando cada vez más, y la atracción gravitatoria irá poco a poco haciéndose más insignificante hasta que su efecto desaparezca”.

Sopa cosmológica.
Lazkoz lleva años trabajando en resolver la cuestión de hacia dónde vamos. En uno de sus últimos artículos, publicado en la revista Philosophical Transactions A, describe su trabajo en el estudio de distintos escenarios para este “apocalipsis cósmico”.

La investigadora explica cómo se crean modelos que permiten estudiar y comprender estos escenarios. La clave es entenderlos a partir de aquello que sí somos capaces de visualizar, en este caso, un fluido.

Entender los distintos componentes del universo como fluidos que coexisten en el espacio permite que los investigadores se enfoquen en determinadas variables que puedan ser observables o calculables, en este caso presión y densidad, señala Lazkoz.

Mucho tiempo por delante.
Por ahora podemos respirar tranquilos, porque este escenario de desintegración no va a darse de un día para otro. Los propios datos en los que investigadores como Lazkoz se basan también les ayudan a estimar el tiempo que debería transcurrir para este suceso.

Variables como la proporción entre materia convencional, materia oscura y energía oscura permite a los investigadores estimar el ritmo de crecimiento del universo y su aceleración. Y con ello saber cuándo llegará el punto en el que la gravedad no sea capaz de mantener unidas las galaxias, ni siquiera sea capaz de mantener a los planetas en las órbitas de sus estrellas.

Y queda mucho. Si nos basamos en esta teoría el universo apenas habría llegado a la décima parte de su vida: le quedarían cerca de 130.000 millones de años por delante.

Incógnitas cósmicas.
Detrás de las teorías sobre el principio y el final del universo está aquello que sí hemos logrado saber con cierto grado de seguridad: el universo se expande y lo hace cada vez más rápido. Eso sí, detrás de el ritmo al que lo hace está la que puede ser la mayor incógnita de la cosmología moderna.

La discrepancia en nuestros cálculos sobre este ritmo de expansión es cada vez más irreconciliable, por lo que el margen de incertidumbre es siempre alto. Como explica la propia Lazkoz, es importante admitir con humildad que los modelos en los que basamos el conocimiento sobre cosmología a menudo “disfrazan nuestra ignorancia haciéndola pasar por sabiduría”.

Quizá algún día logremos resolver estos problemas y lograr contestar a la eterna pregunta: ¿De dónde venimos y hacia dónde nos dirigimos?”. Por ahora no tenemos una respuesta certera.

Imagen | WikiImages


La noticia “Big Rip”: ya intuimos cómo será el fin del Universo dentro de miles de años fue publicada originalmente en Xataka por Pablo Martínez-Juarez .

17 January, 2023 Leer más →
Technology

El mayor problema de ‘The Last of Us’ en HBO Max es una paradoja: el creador del juego es uno de sus guionistas

El mayor problema de 'The Last of Us' en HBO Max es una paradoja: el creador del juego es uno de sus guionistas

HBO Max ha estrenado su adaptación de ‘The Last of Us’ y los elogios encendidos han sido casi instantáneos. Nuestros compañeros de Espinof hablan de un inicio que apunta a dar como fruto una de las mejores series de 2023, en 3Djuegos hablan de sentirse orgullosos del medio que la inspira y en Vida Extra lo califican de lección magistral sobre adaptaciones. Nosotros ya hablamos hace unos días de lo que nos había parecido: una adaptación muy fiel que encontraba sus aciertos cuando más se distanciaba del original y abría vías para las sorpresas.

Porque también se está comentando acerca de esta serie que cómo es posible que, en términos generales, sea tan tibia a la hora de innovar (en este hilo de tuits de Jorge Loser, por ejemplo), de plantear con más claridad todo aquello que la puede distanciar de una serie post-apocalíptica al uso. Estéticamente y a nivel de ritmo recuerda a propuestas recientes y agotadas como ‘The Walking Dead‘, y eso puede ser un obstáculo: ‘The Last of Us’ es ortodoxa, pero de momento eso también la está convirtiendo en una serie predecible.

Y claro, es obvio que aquí se está promocionando la presencia de Neil Druckmann, coproductor y coguionista, pero también director del juego original. Con toda lógica, HBO Max está enarbolando su nombre para garantizar que la serie mantiene una fidelidad rigurosa a la fuente, pero esto también puede ser un problema.

Un problema porque Druckmann como escritor (y sobre todo, como nombre certificado en el todopoderoso departamento de producción) asegura que la serie va a ser respetuosamente fidedigna al original, y eso puede dar pie a determinada ceguera creativa. La que atañe a tomar decisiones que se distancien de la fuente.

Los problemas de un juego cinematográfico

‘The Last of Us’ (el videojuego) tiene muchas virtudes, muchísimas (y la secuela multiplica muchas de ellas en el enfoque que ya discutimos aquí). Pero todas vienen desde el ámbito de lo jugable o de la manipulación del punto de vista gracias a su condición interactiva. Por ejemplo, el famoso final de la primera parte (que no desvelaremos aquí, por si las moscas) es un ejemplo típico: impacta, emociona y marca al jugador, precisamente, porque somos jugadores, no espectadores. Pero si ese final es el de una película, es algo que hemos visto mil veces.

Otro ejemplo que destacaba Noel Ceballos en su crítica del primer episodio: el flashback en el que vemos el apocalipsis desatándose en múltiples puntos desde el interior de un coche. En el videojuego es el primer gran impacto de la trama, una set-piece de acción memorable y de gran dramatismo aunque lo único que pueda hacer el jugador sea mover la cámara. Cuando la serie lo repite tal cual queda claro, primero, que al perder la interactividad pierde también algo de fuerza; y segundo, que Druckmann se inspiró muy mucho en una secuencia bastante superior de ‘Hijos de los hombres’, estrenada siete años antes del juego.

Es decir: la serie incluso llega a sabotear el recuerdo del videojuego, lo devalúa. Y eso es un extremo al que una buena adaptación no debería llegar. Por supuesto, son casos aislados en un solo episodio, pero el hecho de que ‘The Last of Us’ traiga a tantos espectadores el recuerdo de ‘The Walking Dead’ y de otras ficciones clásicas apocalípticas, demuestra que el valor de ‘The Last of Us’ estaba en la parte interactiva: el argumento era, en parte, un lujoso adorno. La adaptación tendría que encontrar su propia vía expresiva.

Estamos solo al principio del camino: a este apocalipsis le quedan muchas horas que recorrer (hora y media este piloto, otro problema que dejamos para otro día) y hay espacio para encontrar vías propias, sobre todo a través de los actores, y especialmente gracias a Bella Ramsey, el auténtico punto y aparte de este episodio. Para adaptaciones clónicas ya tenemos otras muchas opciones: ‘The Last of Us’ merece más.


La noticia El mayor problema de ‘The Last of Us’ en HBO Max es una paradoja: el creador del juego es uno de sus guionistas fue publicada originalmente en Xataka por John Tones .

17 January, 2023 Leer más →
Technology

Getty denuncia a Stable Diffusion: las agencias de imágenes se han cansado que la IA robe sus fotos

Getty denuncia a Stable Diffusion: las agencias de imágenes se han cansado que la IA robe sus fotos

Getty Images, una de las agencias de imágenes más grandes del mundo, ha denunciado a Stability AI, la empresa detrás de la IA generativa Stable Diffusion. Así lo ha anunciado la propia agencia a través de un comunicado, donde explica que ha presentado una demanda en el alto tribunal de Justicia de Londres, por infracción del copyright.

Las IAs generativas utilizan miles de imágenes de internet para entrenar su algoritmo. Getty Images explica que millones de sus imágenes protegidas han sido utilizadas, sin permiso. La agencia confía en la IA y de hecho ha trabajado con sistemas de arte generativo, pero mediante acuerdos concretos y respetando los derechos de propiedad intelectual. En cambio, Stability AI no buscó ningún tipo de acuerdo para licenciar las imágenes de Getty Images.


La agencia no cree que el uso de estas imágenes se ampare en el “uso justo”, sino que directamente supone una infracción de su propiedad intelectual. El paso de denunciar a Stability AI supone una escalada en la batalla legal que hay entre los creadores y los generadores de imágenes con IA.

No estamos ante la primera denuncia contra la IA. Justo esta semana hemos conocido que un grupo de creadoras, junto a un abogado que ya lleva un juicio paralelo contra Github Copilot, ha denunciado tanto a Stability AI como a Midjourney.

La posición de los creadores de Stable Diffusion es que sus datasets se han entrenado “ética, moral y legalmente”. Si bien, reconocen que en la próxima versión de Stable Diffusion permitirán que un artista pueda retirar sus obras del set de entrenamiento. Algo que en la versión actual no está.

Las nuevas demandas contra Stable Diffusion pueden acabar contribuyendo a que se genere un nuevo marco legal. Actualmente no existe jurisprudencia suficiente en lo relativo al copyright y su relación con la IA. Mientras que IAs generativas abiertas como Midjourney o Stable Diffusion han sido denunciadas, no ocurre lo mismo con DALL-E de OpenAI, que mantiene numerosos acuerdos con agencias de imágenes y bancos de imágenes stock para entrenar sus algoritmos.

Imagen | Stable Diffusion vía The Verge


La noticia Getty denuncia a Stable Diffusion: las agencias de imágenes se han cansado que la IA robe sus fotos fue publicada originalmente en Xataka por Enrique Pérez .

17 January, 2023 Leer más →
Technology

Alphabet ha conseguido resistir la ola de despidos, hasta ahora. La matriz de Google empieza con los recortes

Alphabet ha conseguido resistir la ola de despidos, hasta ahora. La matriz de Google empieza con los recortes

La sombra de los despidos sigue amenazando al sector tecnológico. Durante el año pasado, empresas del calado de Microsoft, Cisco, Twitter, Salesforce y Amazon anunciaron o pusieron en marcha planes de recortes de personal. El 2023, podría seguir estando lejos de lo ideal. Alphabet, la matriz de Google, empezado a apretarse el cinturón.

Según The Information, el conglomerado de empresas con sede en Mountain View, California, no es indiferente a la situación macroeconómica. En este sentido, habría puesto en marcha un plan de reducción de gastos liderado por su directora financiera Ruth Porat. Las primeras afectadas han sido dos subsidiarias, pero puede que haya más.

Los recortes empiezan por las subsidiarias

Alphabet, que es un gigante con más de 170.000 empleados, ha intentado dilatar los recortes de personal, aunque desde hace meses viene dando señales de que ese esfuerzo no podría durar para siempre. La semana pasada, finalmente despidió a 40 empleados de Intrinsic, lo que representa el 20% de la plantilla de la subsidiaria del conglomerado.

El movimiento no ha pasado desapercibido debido a que, hasta hace poco, todo parecía indicar que esta pequeña compañía enfocada en “reimaginar” los robots industriales con inteligencia artificial prometía un gran crecimiento. Impulsada por esta proyección había concretado la compra estratégica de dos compañías: Vicarious y OSRC.

Un portavoz de Intrinsic, no obstante, le dijo a TechCrunch que los despidos y la reorganización del personal responde a la necesidad de la subsidiaria de asignar recursos a sus iniciativas de máxima prioridad. “Creemos que esta decisión es necesaria para que podamos continuar con nuestra misión”, añadió el ejecutivo.

Intrinsic

Laboratorio de Intrinsic

Como decimos, esta no es la única pieza de Alphabet que se ha visto afectada. El segundo nombre ser alcanzado por el plan de reducción de gastos es Verily. Se trata de una compañía dedicada al estudio de las ciencias de la vida. Una de sus misiones es implementar la inteligencia artificial y las ciencias de datos en el campo de la salud.

En este último caso, Verily ha visto como el 15% de su plantilla (aproximadamente 250 personas) dejaban de trabajar en sus proyectos. Los despidos, no obstante, no han llegado solo. Están acompañados de profundos cambio a nivel de organización, los cuales están siendo liderados por el máximo responsable de la compañía, Stephen Gillett.

Gillett explica detalladamente en una publicación de blog los pasos a seguir. En líneas generales, la nueva estrategia busca trabajar en menos productos, incluidos programas de investigación que ayudan a acelerar los ensayos clínicos y los esfuerzos para brindar soluciones personalizadas de atención médica a los pacientes.

De momento, no se sabe si los recortes de personal llegarán a Google, que, de acuerdo a CNN, había frenado las contrataciones el año pasado. No obstante, señala The New York Times, que el nivel de preocupación por posibles despidos ha aumentado en este último tiempo entre los empleados de la compañía del buscador.

Cabe señalar que, según han reconocido muchas compañías del sector, muchos de los despidos de los últimos meses han estado relacionados a la “sobrecontratación” durante los inicios de la pandemia. El ejemplo más contundente de este panorama es el de Amazon, que hizo crecer su plantilla más de un 70% durante el COVID.

Ahora, con la desaceleración de la economía, junto a la necesidad de optimizar los costes y los desalentadores pronósticos de recesión, como los que ha publicado el FMI, Por ejemplo, Amazon despedirá a 18.000 empleados, cuando inicialmente calculaba despedir a 10.000.

Toca esperar para saber qué sucederá con Google. Por lo pronto, Sundar Pichai se ha puesto firme y desde mediados del año pasado que ha pedido a sus empleados “pensar en cómo minimizar distracciones y subir el listón tanto en cuanto a productividad”. El riesgo de no cumplir es simple: se clasificado como empleado “de bajo rendimiento”, una etiqueta nada agradable. 

Imágenes: G | Intrinsic

En Xataka: La industria cripto atraviesa una racha nefasta. Los despidos de Coinbase no auguran un futuro mejor


La noticia Alphabet ha conseguido resistir la ola de despidos, hasta ahora. La matriz de Google empieza con los recortes fue publicada originalmente en Xataka por Javier Marquez .

17 January, 2023 Leer más →