Technology

Technology

Cada vez tenemos más claro que el gran temor de las empresas al teletrabajo es infundado: no afecta al compromiso

Cada vez tenemos más claro que el gran temor de las empresas al teletrabajo es infundado: no afecta al compromiso

Estamos ante un momento clave para el devenir del teletrabajo. Los cambios en el panorama económico han sacudido numerosos ámbitos de la economía, especialmente a la industria tecnológica. Como respuesta, compañías de la talla de Twitter, Snap y Apple han optado por despedir a parte de su plantilla y por modificar su política de trabajo a distancia: eliminándola en el caso de la empresa de Elon Musk o ampliando las jornadas en la oficina en los otros dos casos.

Paralelamente, se siguen conociendo nuevos datos acerca del trabajo a distancia: que en España, por ejemplo, está en claro retroceso, o que, a nivel general, el ‘engagement’ de los trabajadores -concepto utilizado para referirse al “compromiso” profesional de los asalariados hacia la compañía para la que trabajan-, no se ve afectado por el teletrabajo, a pesar de fenómenos crecientes como el ‘quiet quitting’.

El teletrabajo no afecta al ‘engagement’. Según Andew Brodsky, profesor de la Universidad de Texas, y Mike Tolliver, director de gestión de productos en Vyopta, no es cierto que los teletrabajadores estén más desvinculados por trabajar desde casa. Al contrario: el resultado de sus investigaciones, publicado recientemente en Harvard Business Review, indica que los empleados en remoto tienen un nivel de ‘engagement’ mayor actualmente que cuando empezaron a teletrabajar.

De 2020 a 2022. Brodsky y Tolliver han recopilado datos de aplicaciones de videoconferencias como Zoom, Microsoft Teams y Webex, utilizadas por diez multinacionales especializadas en ámbitos como la tecnología, la energía y los servicios financieros, en tres periodos distintos: de abril a mayo de 2020, y el mismo lapso temporal en 2021 y 2022. Las conclusiones más reseñables son las siguientes.

Más reuniones por trabajador, pero más cortas. En total, su base de datos ha sido conformada por 48 millones de reuniones, el 71% de las cuales se llevaron a cabo mediante Microsoft Teams, que involucraron a medio millón de trabajadores. Los resultados determinan que en 2022 se ha producido un incremento del 60% de reuniones online por trabajador respecto a 2020. Además, su duración ha descendido un 25% desde el año en que comenzó la pandemia: de 43 minutos en 2020 a 33 minutos en 2022.

Reuniones más personales. Por otro lado, el número de participantes en cada ‘meeting’ también ha disminuido de 20 participantes de media en 2020, a 10 participantes este año. Según el estudio, este cambio se debe al incremento de reuniones one-on-one, entre un trabajador y su supervisor inmediato: en 2020, el 17% de las reuniones fueron de este tipo, mientras que en 2022 ese porcentaje aumentó hasta el 42%. Sin programar.

De forma más natural. La clave para interpretar correctamente los datos relacionados con las reuniones one-on-one, es la espontaneidad. Brodsky y Tolliver señalan que en 2020, solo el 17% de este tipo de entrevistas online se realizaron sin estar programadas, mientras que ese porcentaje aumentó en 2022 hasta el 66%. Dicho incremento se ha producido, además, debido al aumento de reuniones espontáneas, lo cual es utilizado por los autores para afirmar que el nivel de ‘engagement’ de los teletrabajadores ha aumentado desde 2020.

Los que se van participan menos. Otro dato que sostiene su hipótesis es el porcentaje de participación de trabajadores que han abandonado la empresa durante los periodos de tiempo analizados. Brodsky y Tolliver aseguran que el 6% de los trabajadores que participaron en el estudio dejó su puesto de trabajo, habiendo tenido un 67% de reuniones espontáneas menos.

Más carga de trabajo. Si bien es cierto que para comprender mejor el motivo de los aumentos de las reuniones señalados por los autores serían necesarios otros datos como, por ejemplo, los niveles de ingresos y beneficios de las compañías analizadas, la idea de que el teletrabajo no altera el nivel de ‘engagement’ es una realidad. De hecho, hay estudios que van más allá: un informe publicado por Karspersky en 2021 reveló que el 54% de los teletrabajadores encuestados afirmaron haber detectado un incremento de la carga de trabajo desde que comenzaron a trabajar a distancia.

Teletrabajar casi 50 minutos diarios más. Este aumento del volumen del trabajo fue confirmado por un estudio de Harvard Business School, publicado en septiembre de 2020, que indicaba que tres millones de teletrabajadores de todo el mundo habían incrementado su jornada laboral en casi 50 minutos diarios, es decir, un 8,2% más. La razón de esta ampliación de la jornada laboral, según el Sistema Argentino de Información Jurídica, reside en que el trabajo a distancia y la “externalización de los circuitos de coordinación”, potencian la autodisciplina y la “intensificación del trabajo”, cuyos efectos pueden llegar a ser contraproducentes. En este sentido, el informe de Karspersky indicó que sólo el 45% de las compañías habían establecido soluciones para reducir la carga de trabajo de los teletrabajadores.

Imagen: Pixabay


La noticia Cada vez tenemos más claro que el gran temor de las empresas al teletrabajo es infundado: no afecta al compromiso fue publicada originalmente en Xataka por Javier Fernández .

15 December, 2022 Leer más →
Technology

Zune: historia de un fracaso que sirvió para cambiar de look a todo Microsoft

Zune: historia de un fracaso que sirvió para cambiar de look a todo Microsoft

El iPod lo dominaba todo y a todos cuando un 14 de septiembre de 2006 Microsoft se lió la manta a la cabeza y lanzó su propio reproductor MP3, al que llamó Zune. Aquel producto nació con un diseño singular tanto externa como internamente, y de hecho se hizo famoso por el modelo marrón (caca, para muchos) con el que en Redmond quiso convecernos de que “el marrón es el nuevo negro”.

Ese color se convirtió en todo un meme para aquellos tiempos, y lo cierto es que a pesar de sus esfuerzos y de cuatro generaciones de dispositivos, el Zune y sus sucesores jamás lograron tener éxito en su batalla contra los iPod, que finalmente “murió” en mayo de 2022. Puede que eso no importara demasiado, porque lo que sí lograron fue marcar un punto de inflexión en la interfaz de usuario de todos sus dispositivos.


Cuando la música lo era todo

Nadie había logrado toserle al iPod desde que Apple lo anunciase en octubre de 2001, y el Zune no fue una excepción. De hecho para cuando se lanzó la empresa de Cupertino estaba ya a punto de anunciar la segunda de sus grandes disrupciones de la década pasada, porque apenas tres meses después Jobs presentaría ante el mundo el iPhone.

El Zune, por lo tanto, llegaba tarde y, según muchos, mal, con una propuesta que no era especialmente diferencial a la de Apple con sus iPod, que ya se habían ganado a millones de usuarios y que de hecho habían provocado algo impensable para la época: que Apple hiciese una aplicación nativa (iTunes) para Windows con la que gestionar aquel dispositivo.

Competir con aquel fenómeno era una misión casi imposible, aunque durante ciertos momentos el Zune sí generó un interés decente en Estados Unidos, el único país donde Microsoft quiso comercializarlo.

A aquel primer modelo le siguieron otros que modificaron tanto la capacidad de almacenamiento como el diseño y algunas de las prestaciones internas. Los Zune 4, 8 y 80 que aparecieron un año después copiarían la rueda táctil de los iPad, bautizándola como el Zune Pad como gran diferencia con respecto al modelo original.

zunepad

Esa evolución se mantendría con una tercera generación en la que llegaron Los Zune 16 y 120 incrementaban la capacidad y daban acceso al Zune Marketplace para adquirir música desde el propio dispositivo. También se reforzaba el uso de Zune Pass, un servicio de streaming que no logró tampoco cuajar, e incluso la posibilidad de jugar en el Zune, una opción que ni desarrolladores ni usuarios parecieron acoger con demasiado interés.

El día que todos los Zune originales se colgaron

Microsoft trató por todos los medios de lograr que el Zune se convirtiese en un competidor claro de los iPod de Apple, pero a los problemas de ventas se les sumó uno de los mayores software que se recuerdan en el segmento de los dispositivos móviles.

Ocurrió el 31 de diciembre de 2008, el último día de un año que terminó de la peor forma posible para Microsoft y, sobre todo, para los usuarios de estos dispositivos. Los primeros modelos, aquellos que tenían la unidad de 30 GB, dejaron de funcionar y se quedaron colgados mostrando el logo del dispositivo.

La causa estaba en el firmware y en un fallo realmente singular: Microsoft acabaría explicando que ese problema estaba relacionado “con la forma en la que el dispositivo trata los años bisiestos”. Los Zune esperaban que 2008 tuviera 365 días como el resto de los años, no 366. El código que era responsable de aquel fallo quedó a la luz y fue la demostración de cómo la causa era trivial, pero sus consecuencias eran destructivas:

Codigo

Aquel fallo fue bautizado como “Z2K9” por parte de la comunidad de usuarios haciendo referencia al célebre “Efecto 2000” que amenazaba con causar el caos en todo tipo de sistemas software al pasar al año 2000.

El problema acabaría solucionándose solo, y Microsoft explicaría al tratar el problema que el reloj interno de los reproductores debería resetearse automáticamente al mediodía del primer día del año. El consejo de la empresa a los usuarios fue el de dejar que la batería se agotase del todo para luego volver a cargarlos y encender el dispositivo una vez hubieran pasado esas horas críticas.

Un remedio que no dio una buena imagen ni al dispositivo ni a una Microsoft que acabaría viendo como sus dispositivos no podían ganarle la batalla a los iPod, menos aún cuando los iPhone acabarían “canibalizándoles” como reproductores multimedia a pesar de su coexistencia con los iPod touch.

Adiós al Zune

El último de los modelos de aquella familia fue el Zune HD que se presentó el 15 de septiembre de 2009. Este modelo tenía un diseño mucho más cuidado en el que lo más destacable era su pantalla táctil, que hacía innecesario el Zune Pad de control y que se convirtió en seña de identidad de un reproductor que era competencia directa del iPod touch.

Zune1

Aquel dispositivo planteaba una apuesta similar a la del dispositivo de Apple, permitiendo tanto la sincronización de música mediante WiFi como acceso al Zune Marketplace e incluso a la navegación web. También estaba preparado para reproducir vídeos 720 y usarlo como dispositivo portátil que luego conectar a una televisión a través de un dock con salida HDMI.

Aquel producto vería una pequeña actualización en abril de 2010 para darle más capacidad y llegar a los 64 GB, y las sucesivas mejoras del firmware llevaron a este reproductor clientes de redes sociales como Twitter o Facebook, aunque no sin que dichas aplicaciones fueran problemáticas.

Microsoft no volvería a sacar ningún Zune al mercado: las ventas no respondían, y dos años después del lanzamiento del Zune HD, en octubre de 2011, la firma anunciaba que abandonaba todo el hardware Zune y animaba a los usuarios a migrar a sus teléfonos Windows Phone, que trataban de competir con los iPhone. La historia se repetiría, porque Microsoft también llegó tarde y mal a ese mercado.

No todo había sido un fracaso con Zune, no obstante.

Una interfaz que contagió a todo Microsoft

Aquel reproductor tenía desde luego luces y sombras, y entre ellas estaba desde luego una interfaz de usuario realmente original en la que las tipografías eran protagonistas. En noviembre de 2007 aparecía la llamada Zegoe, una tipografía basada en Segoe —cuya licencia de uso le dio problemas a Microsoft en la Unión Europea— que acabaría convirtiéndose en protagonista absoluta de todo el branding de Microsoft y de sus productos y servicios hasta nuestros días.

Aquella interfaz visual centrada en el texto y no en iconos fue todo un soplo de aire fresco para unos dispositivos que como los Zune podían no diferenciarse en el fondo, pero sí en la forma. Todo en los Zune aparecía con esa tipografía en la que las mayúsculas estaban prácticamente desaparecidas y en las que la claridad y la limpieza eran una verdadera virtud.

Fue uno de los grandes (y pocos) aciertos del Zune, y de hecho aquel éxito acabó contagiando a Microsoft, que aplicó esos principios a Windows Phone 7, el sistema operativo que debutaría a finales de 2010 y que adoptaría ese amor por las tipografías en muchos de sus apartados.

lumia

Aunque Microsoft se diferenció aún más en este apartado con el uso de las baldosas animadas que ha mantenido hasta la actualidad, seguimos notando esa herencia. Lo hacemos aún hoy en dispositivos basados en Windows 10, y basta con acceder al menú de Configuración para comprobar cómo esos principios de diseño se mantienen —aunque tanto tipografías como iconografía han cambiado— en estos malogrados dispositivos.

Aquellas pautas fueron de hecho parte integral del lenguaje de diseño Metro —ahora reemplazado por Fluent Design— que se ha venido utilizando en la Xbox 360, la Xbox One, o Windows 8 y Windows 8.1.

Es cierto que Windows 8 fue muy criticado por el excesivo protagonismo de la interacción táctil y la ausencia del célebre botón de inicio que volvió con Windows 10, pero eso, como suele decirse, es otra historia. Los Zune fracasaron ante los iPod, pero la herencia de su interfaz visual sigue notándose diez años después de su lanzamiento, que no es poco.

En Xataka | Microsoft, Windows Phone y las retiradas a tiempo


La noticia Zune: historia de un fracaso que sirvió para cambiar de look a todo Microsoft fue publicada originalmente en Xataka por Javier Pastor .

15 December, 2022 Leer más →
Technology

OPPO Find N2: el plegable estrella de OPPO llega con cámara Hasselblad y un diseño de ensueño

OPPO Find N2: el plegable estrella de OPPO llega con cámara Hasselblad y un diseño de ensueño

OPPO presentó el pasado curso el OPPO Find N, su propuesta de gama alta dentro del segmento de los plegables. Tipo libro, pequeño y compacto, aunque sin llegada a España. Ya te adelantamos que, en principio, este modelo tampoco aterrizará en nuestro país. No obstante, detallaremos sus características y especificaciones, al ser uno de los principales rivales dentro del segmento.


Ficha técnica del OPPO Find N2

## Ficha técnica del OPPO Find N2

OPPO Find N2

Dimensiones y peso

Plegado: 133,2 x 72,6 x 14,6 mm
Desplegado: 133,2 x 140,5 x 7,4 mm
233 gramos

Pantalla exterior (plegado)

AMOLED de 5,54 pulgadas
120 Hz de tasa de refresco
Resolución 1.792 x 1.920
Brillo de hasta 1.350 nits

Pantalla interior (desplegado)

AMOLED de 7,1 pulgadas
Tasa de refresco adaptativa de 1-120 Hz
Resolución 1.792 x 1.920
Brillo de hasta 1.550 nits

Procesador

Qualcomm Snapdragon 8+ Gen 1
GPU Adreno 730

RAM

12/16 GB

Almacenamiento

256/512 GB

Cámara frontal

32 Mpx

Cámaras traseras

Principal: 50 Mpx f/1,8
Gran angular: 48 Mpx f/2,2
Teleobjetivo: 32 Mpx f/2,2

Batería

4.520 mAh
Carga rápida de 67 W

Software

ColorOS 13 basado en Android 13

Conectividad

5G
WiFi 6
Bluetooth 5.2
GPS
NFC
USB-C

Otros

Lector de huellas en el lateral

Precio

Por determinar

El tamaño como principal baza en un potente plegable

El OPPO Find N2 repite la fórmula: es pequeño, es potente y quiere ser uno de los mejores exponentes dentro del territorio de los plegables. En este caso, cuenta con una pantalla exterior de 7,1 pulgadas, con un brillo máximo de 1.550 nits. La resolución es de 1792 x 1920 píxeles, y la tasa de refresco de 120 Hz. OPPO hace hincapié en que la arruga se ve menos que nunca (ya se veía menos que en sus rivales el pasado curso), un punto más que importante con los teléfonos plegables.

La pantalla “pequeña”, la que vemos cuando plegamos el teléfono, es de 5,54 pulgadas, con resolución Full HD+ y una relación de aspecto 18:9, similar a la de cualquier teléfono habitual. El procesador es el Qualcomm Snapdragon 8+ Gen 1, echándose aquí en falta el nuevo Snapdragon 8 Gen 2, el procesador más actual de Qualcomm. Las configuraciones de memoria llegan hasta los 16 + 512 GB.

Oppo Find N2 Display Ratio

OPPO asegura haber rediseñado la bisagra para hacerla aún más resistente con una vida útil de más de 400.000 plegados. La batería es de 4.520mAh, con carga rápida de 67W, carga inalámbrica de 15W y carga reversible de 10W. Es una cifra prácticamente calcada a la vista la generación anterior, aunque la eficiencia del procesador debería elevar las cifras de autonomía.

La apuesta por la fotografía es ambiciosa: principal de 50 megapíxeles, 48 megapíxeles de ultra gran angular y telefoto de 32 megapíxeles. Han cambiado y mejorado todos los sensores de cámara, aunque no hay demasiados detalles sobre el procesado de imagen. Se esperan, no obstante, resultados de nivel. En China, el precio al cambio es de

Versiones y precio del OPPO Find N2

No hay, por el momento, precio para este OPPO Find N2, aunque conocemos que no llegará al mercado internacional, al menos de forma oficial. Quedará recurrir a tiendas de terceros que logren distribuirlo para hacernos con él. En su país natal el precio es de 1.215 euros al cambio para su única versión de 16 + 512 GB.


La noticia OPPO Find N2: el plegable estrella de OPPO llega con cámara Hasselblad y un diseño de ensueño fue publicada originalmente en Xataka por Ricardo Aguilar .

15 December, 2022 Leer más →
Technology

El bloqueo de chips impuesto por EEUU va a hacer mucho daño: ARM deja de vender varios diseños avanzados a China

El bloqueo de chips impuesto por EEUU va a hacer mucho daño: ARM deja de vender varios diseños avanzados a China

La guerra comercial entre Estados Unidos y China ya tuvo fuertes implicaciones en el sector tecnológico cuando Google vetó a Huawei. Aquella prohibición afectaba al software, pero la nueva batalla está en el hardware y ya tenemos una primera víctima: China.

Acuerdo de Wassenaar. El 12 de julio de 1996, 42 naciones —entre ellas EEUU, Reino Unido, India y los países de la UE—  firmaron en la ciudad holandesa de Wassenaar un acuerdo conjunto. El objetivo: controlar las exportaciones de armas convencionales y bienes y tecnologías de doble uso.

En la última reunión plenaria se tomaron nuevas decisiones en cuanto a control de exportaciones y las llamadas “Listas de Control”. Una de ellas afectaba a “ciertos tipos de láser”, u otra a “ordenadores de alto rendimiento”. O lo que es lo mismo: chips.

Litografía. Hace dos días hablábamos de cómo una de las claves de la capacidad china para fabricar chips está en la tecnología litográfica. Puede que el gigante asiático sea el mayor fabricante de chips a nivel mundial, pero para producir esos chips necesita máquinas y tecnología que solo se encuentra en Holanda y Japón. Ambas limitarán las exportaciones a China de equipos fotolitográficos necesarios para producir chips.

ARM. Como indican en Financial Times, el otro gran impacto inicial está en ARM, que no venderá sus nuevos Neoverse V a China “porque el rendimiento era muy alto”, según fuentes cercanas a las negociaciones. En ARM no han especificado qué diseños y productos se ven afectados por el bloqueo impuesto por EEUU, y según The Register es su comunicado oficial:

Como empresa global, Arm se compromete a cumplir todas las leyes y normativas de exportación aplicables en las jurisdicciones en las que opera. Para Alibaba y otros socios chinos, contamos con un proceso para ofrecer soluciones optimizadas que satisfagan sus requisitos de rendimiento y cumplan plenamente con los últimos controles de exportación.

Alibaba. La gran afectada es Alibaba, al menos en principio, es esta empresa que hasta ahora usaba chips basados en diseños de ARM en su Alibaba Cloud. Esos chips estaban fabricados por T-Head Semiconductor, una subsidiaria que ahora se queda sin capacidad para acceder a los últimos diseños de la empresa británica.

Compite si puedes. Sin esos diseños, China pierde la capacidad de competir en igualdad de condiciones con otras empresas occidentales. Alibaba, por ejemplo, no tendrá acceso a esos chips de ARM que ya están aprovechándose tanto en las infraestructuras en la nube de Amazon —que usa los Neoverse V1 en los Graviton2 y en los recientes Graviton3— como en las de Google.

RISC-V. Empresas chinas como Tencent o la propia Alibaba llevan tiempo tratando de mover ficha y buscar alternativas. Una de las más llamativas es el diseño y desarrollo de chips RISC-V, que al ser Open Source no están sujetos a controles de exportación y que cualquiera puede aprovechar para tratar de fabricar chips.

El problema: hoy por hoy están muy por detrás en cuanto a prestaciones y rendimiento. Europa, por cierto, también investiga por su cuenta y hay cierto optimismo respecto al futuro de estos chips, aunque habrá que ser (muy) pacientes. Incluso Intel le ha visto las orejas al lobo.


La noticia El bloqueo de chips impuesto por EEUU va a hacer mucho daño: ARM deja de vender varios diseños avanzados a China fue publicada originalmente en Xataka por Javier Pastor .

15 December, 2022 Leer más →
Technology

El apocalipsis no hace ruido y acaba de llegar a Netflix en uno de los grandes éxitos recientes del género

El apocalipsis no hace ruido y acaba de llegar a Netflix en uno de los grandes éxitos recientes del género

La primera entrega de esta película fue una de las grandes historias apocalípticas de los últimos años. Su originalísimo enfoque, intimista y a la vez rebosante de tensión, en el que en el fin del mundo había que permanecer en el más absoluto de los silencios, convirtió a esta propuesta de John Krasinski en una de las piezas clave del cine apocalíptico reciente. Ahora podemos disfrutar de su secuela ‘Un lugar tranquilo 2‘, que acaba de llegar a Netflix.

Esta segunda parte continúa de forma lineal la propuesta de la primera: la familia que intenta sobrevivir a la invasión de unas criaturas alienígenas que se orientan con el sonido sigue permaneciendo unida, aunque no sea fácil después de lo que sucedió en la historia precedente (que por cierto, también puedes ver en Netflix, además de en Prime Video). En esta segunda parte se incide en cómo en una sociedad destruida, los monstruos no son los únicos peligros a los que enfrentarse.

Aunque obviamente la mayoría de los hallazgos de la saga están en la primera parte, esta segunda entrega hace un esfuerzo consciente por no estropear su recuerdo. Tenemos un flashback inicial muy consistente, y la estupenda decisión de no aumentar la espectacularidad o el horror, sino mantener bajo el volumen (el literal y el otro) y presentar una tragedia minúscula. Esto no va de salvar el mundo, sino de que se salve una familia muy específica.

Por otra parte, con la llegada del bebé y con los dos hijos que ya han crecido y tienen inquietudes más maduras que en la primera entrega, la película se puede permitir caminar por otros derroteros para que no se sienta repetitiva. Y todo en un contexto muy especial: la película se estrenó con la pandemia, cuando lo que presentaba la ficción tenía un escalofriante reflejo en la realidad. Una pieza de ficción apocalíptica que parecía un documental.


La noticia El apocalipsis no hace ruido y acaba de llegar a Netflix en uno de los grandes éxitos recientes del género fue publicada originalmente en Xataka por John Tones .

15 December, 2022 Leer más →
Technology

La cancelación de ‘La monja guerrera’ demuestra que a Netflix no le valen los éxitos: sólo los exitazos

La cancelación de 'La monja guerrera' demuestra que a Netflix no le valen los éxitos: sólo los exitazos

Netflix ha cancelado su serie de aventuras orientada al público juvenil ‘La monja guerrera‘. Cierta sorpresa se ha apoderado de sus fans, ya que su segunda temporada había sido muy bien recibida, con puntuaciones inusualmente altas para este tipo de productos en agregadores como ‘Rotten Tomatoes’. Sin embargo, como ha confirmado su creador Simon Barry en Twitter, la cancelación es definitiva.

Se veía venir (o no). Muchos fans ya predijeron que Netflix había sentenciado a la serie desde incluso antes de que su segunda temporada saliera a la luz. El propio Barry afirmó que Netflix no había invertido absolutamente nada en la promoción de la serie. Y pese a esta falta de apoyo de la plataforma, la serie se ha colado en el Top 10 de lo más visto de Netflix durante tres semanas (empujando a entrar también a la primera temporada), alcanzando el puesto 5 en su segunda semana.

Solo en esas tres semanas la segunda temporada llegó a sumar casi 70 millones de horas de visionados. Nada mal para una temporada estrenada de tapadillo. Pero lo cierto es que sus fans conforman una base muy amplia, tanto los que proceden del amerimanga original de Ben Dunn como los que se han ido sumando a la serie atraídos por las razones más diversas (de sus muy potentes secuencias de acción, francamente superiores a la media en el género como al abierto y poco habitual romance bisexual adolescente).

El club de las canceladas. Lo que está claro es que Netflix tiene el gatillo fácil con las cancelaciones de un tiempo a esta parte: lleva casi una veintena de series suspendidas en lo que llevamos de año. Y aunque muchas de ellas, como ‘Los imperfectos’, ‘The Midnight Gospel’, ‘Cómo criar a un superhéroe’ o ‘Carrera al éxito’ tienen cierto sentido porque apenas han tenido repercusión, otras sí han pillado más sorpresa a la audiencia.

La última fue ‘El club de la medianoche’, aunque aquí posiblemente la cancelación tiene mucho que ver con el flamante trato de colaboración entre su creador, Mike Flanagan, y Amazon. Pero hay otras series que han tenido cierta repercusión y que han sido canceladas igualmente: ‘Destino: La saga Winx‘, ‘Resident Evil‘ ‘The Umbrella Academy‘, ‘La primera muerte‘ o ‘Space Force‘.

O blanco o negro. Esto a lo que apunta es a que Netflix ya no tiene suficiente con unos cuantos éxitos mastodónticos (y ‘Miércoles‘, sin ir más lejos, se ha convertido en uno de ellos: ya es la segunda serie más vista de la historia de la plataforma, solo por detrás de ‘Stranger Things’) que respalden éxitos medianos. Su cadencia de estrenos y la inversión en producción propia, esa carrera en la que se están multiplicando los gastos (y las pérdidas) para todas las plataformas, se está cobrando víctimas no ya en los fracasos, sino también en los éxitos moderados.

Para que una serie compense tiene que ser un éxito masivo, tiene que tener no 40 millones de horas sobre sus espaldas, sino 300 millones de horas de visionado en una semana, como ha sucedido con ‘Miércoles’. ¿Y esto a quienes afecta A los creadores, como siempre, que se ven sometidos a una presión y una necesidad de éxito que no tiene parangón con cualquier otro momento de la historia del audiovisual (solo hay que ver lo nervioso que andaba Neil Gaiman con las audiencias de la primera temporada de ‘Sandman’): la inmediatez de las audiencias crea monstruos.

Y eso acaba jugando en contra de las propias producciones, porque por supuesto, dilapida el riesgo. Series como la propia ‘Miércoles’, como ‘La Casa del Dragón‘, como ‘1899‘ por decir éxitos recientes, tienen indiscutibles hallazgos y triunfos, pero son casi casuales: son series que han triunfado por venir de una franquicia de éxito o por llevar nombres propios de prestigio a cuestas. Si la cosa no cambia, cada vez las ficciones en streaming van a ser más tibias, más teledirigidas, menos atrevidas y salvajes. Lo estamos viendo en el cine con la imposición del mínimo común denominador. Que no lo veamos en el mundo del streaming. ¿O ya es tarde?


La noticia La cancelación de ‘La monja guerrera’ demuestra que a Netflix no le valen los éxitos: sólo los exitazos fue publicada originalmente en Xataka por John Tones .

15 December, 2022 Leer más →
Technology

El último gameplay de ‘Hogwarts Legacy’ nos muestra un mágico mundo abierto y las posibilidades de combate

El último gameplay de ‘Hogwarts Legacy’ nos muestra un mágico mundo abierto y las posibilidades de combate

Avalanche Software y Warner Bros. habían prometido mostrarnos un nuevo gameplay antes del lanzamiento de ‘Hogwarts Legacy’ y acaban de cumplir con su promesa. En esta nueva reproducción del juego de rol y acción nos adentramos en el mundo abierto, las posibilidades de combate y la personalización en la sala de los menesteres.

Estamos frente a un gameplay de más de 30 minutos que nos permite echar un vistazo a las diferentes partes del juego que llegará oficialmente el próximo 10 de febrero a ordenadores y consolas de videojuegos. Como hemos dicho, se trata de un título basado en el universo de Harry Potter, aunque no en las novelas de J.K. Rowling.

El juego que nos promete sumergirnos en una historia mágica

En la primera parte vemos en las nuevas imágenes del juego es como un estudiante de Hogwarts se sube a su escoba para explorar el mundo abierto. Después de un paseo, el joven aterriza en una aldea en la que se encuentra a diferentes brujas y brujos, con la posibilidad de participar en misiones y montar un hipogrifo ónice.

La segunda parte del gameplay se enfoca en el combate. Nos permite observar de cerca el set cosmético de las Artes Oscuras, la montura Thestral y la arena de combate. El jugador se enfrenta a un oponente que intenta reducir con un hechizo Avada Kedavra que reduce drásticamente su barra de vida y consigue imponerse en la partida.

En la parte final de la reproducción del juego, el joven se adentra en la sala de los menesteres. ‘Hogwarts Legacy’ promete un espacio altamente personalizable. Todo el espacio se puede transformar y la arquitectura del lugar puede cambiar a medida que el jugador invoca objetos provenientes de Tomos y Pergaminos en Hogsmeade.

También hemos visto como el jugador visita un vivero donde se encuentra con animales como un graphorn, un escarbato, un kneazle y un mooncalf. Si los cuida y los alimenta recibe recompensas que le permiten personalizar y mejorar su equipamiento. También hay un cofre para jugar con animales.

‘Hogwarts Legacy’, que debería haber llegado en 2021, se retrasó varias veces. Ahora, si todo sigue de acuerdo a lo planeado, podríamos ver el estreno del juego el 10 de febrero de 2022. Estará disponible en PC, PS5, PS4, Xbox Series X, Xbox Series S, Xbox One y Nintendo Switch.

Imágenes: Avalanche Software y Warner Bros.


La noticia El último gameplay de ‘Hogwarts Legacy’ nos muestra un mágico mundo abierto y las posibilidades de combate fue publicada originalmente en Xataka por Javier Marquez .

15 December, 2022 Leer más →
Technology

Ante un fallo de la Voyager 1, la NASA se topó con un problema: ¿dónde estaba su manual de instrucciones?

Ante un fallo de la Voyager 1, la NASA se topó con un problema: ¿dónde estaba su manual de instrucciones?

No es raro que en nuestras cajas haya algún lugar dedicado a la recopilación de viejos manuales de aparatos, algunos de los cuales quizá ni siquiera sigamos utilizando, más o menos como esa caja de los cables viejos tan habitual. Es posible que alguna vez hayamos acudido a ese rincón en busca de un viejo manual que nunca creeríamos necesitar para descubrir con horror que es el único que nos falta.


El fallo en la Voyager.
Algo así debió de pasar a la NASA cuando hace unos meses la Voyager 1 comenzó a dar problemas. Estos problemas, recordarán algunos, comenzaron el pasado mes de mayo. La Voyager parecía haber perdido el equilibrio. Su Attitude Articulation and Control System (AACS), encargado de mantener la antena de la sonda en dirección adecuada para poder comunicarse con la Tierra parecía estar dando errores, enviando datos que no se correspondían con la orientación de la sonda.

A pesar de ello la antena parecía mantenerse en su orientación, lo que permitía a los ingenieros seguir comunicándose con ella. Aún había esperanza de resolver el misterioso fallo. El problema era que había que localizarlo y repararlo. Una tarea nada fácil por dos motivos.

El primero, que la sonda se encontraba a unos 23.300 millones de kilómetros de la Tierra. Es decir, cualquier comando dado desde el puesto de mando tardaría 20 horas en llegar a la sonda. La respuesta otras 20 horas en regresar. Pero había otro problema, el causado por el hecho de que las Voyager se diseñaron hace medio siglo y los ingenieros que crearon estas sondas llevan años, o más bien décadas, jubilados.

A la busca del libro de instrucciones.
El Equipo encargado de mantener con vida la Voyager está acostumbrado a lidiar con el primero, pero su conocimiento de los detalles de la arcaica obra de ingeniería era limitado y se circunscribe a una serie de detalles prácticos, una especie de manual práctico de uso al que se refieren como command media.

Un error como este necesitaba una revisión en mayor profundidad. Era hora de buscar entre los papeles que contenían los detalles del diseño y procedimientos del aparato. Suzanne Dodd es la jefa de proyecto de la Misión Interestelar Voyager, que comenzó tras la etapa “planetaria” de las sondas en la que exploraron Júpiter, Saturno y Urano. Fue por ello la persona a cargo de gestionar toda la reparación de la nave.

Eran otros tiempos.
En declaraciones para Business Insider, Dodd explica el problema que tuvieron que afrontar. Cuando los ingenieros que crearon las naves se jubilaron “no hubo un empujón para crear una biblioteca de documentos del proyecto. La gente se llevaría las cajas a los garajes de sus casas.”

Obviamente este no es el caso hoy en día, pero allá por las décadas de los 70 y 80 era posible, según indica Dodds. La búsqueda fue ardua, pero gracias a algunos documentos guardados en distintas localizaciones de la NASA, el equipo logró dar con las cajas con los documentos referidos al sistema de control de altitud AACS.

Meses en vilo.
El proceso se dilató en el tiempo pero a finales del mes de agosto la NASA anunciaba que el error había sido reparado. La Voyager 1 volvía a funcionar, no como el primer día (ni mucho menos) pero como antes del error.

El error se debió a que el AACS estaba transmitiendo sus datos a través de un ordenador de a bordo que había sido puesto ya fuera de servicio y estaba corrompiendo los datos a su paso. El equipo logró desviar el flujo de información al ordenador que la nave aún tiene operativo. Fallo arreglado. Solo hay un “pero”.

45 años por sonda.
El motivo primero por el que se produjo el fallo permanece siendo un misterio. ¿Por qué se confundió de ordenador el AACS en primer lugar? Nadie lo sabe, pero tratandose de un equipo de 45 años a pocos les sorprende.

La Voyager 1 y su sonda hermana Voyager 2 se lanzaron hace 45 años, y eso es un buen viaje. Por si eso fuera poco las sondas se encuentran en el medio interestelar, fuera de la protección que la heliosfera del Sol nos protege de partículas altamente cargadas de energía. “Es poco probable que una golpee la nave, pero si ocurriera, podría causar más daños electrónicos” explicaba Dodds. “No podemos identificar eso como la fuente de la anomalía, pero podría ser un factor.”

Con o sin partículas, la NASA lleva años apagando poco a poco las Voyager para intentar alargar su vida útil en la medida de lo posible, ahorrando energía y optimizando procesos. Se espera que la Voyager 1, lanzada con una esperanza de vida de cinco años se apague completamente hacia 2030, tras unos 53 años de servicio.

La importancia del “saber hacer”.
La historia tiene una moraleja, y es que incluso en la era de la información, contar con personas capaces de transmitir la información entre generaciones de ingenieros es clave. Y esto no es menos en el caso de la NASA. Prueba de ello es el esfuerzo que ha requerido la agencia para recuperar su programa lunar tras cumplirse medio siglo de la última misión Apollo.

Imagen | NASA/JPL, NASA/JPL-Caltech Photojournal


La noticia Ante un fallo de la Voyager 1, la NASA se topó con un problema: ¿dónde estaba su manual de instrucciones? fue publicada originalmente en Xataka por Pablo Martínez-Juarez .

15 December, 2022 Leer más →
Technology

Rebajando el hype de la fusión nuclear: el confinamiento inercial es un hito, pero seguimos lejísimos de alcanzarla

Rebajando el hype de la fusión nuclear: el confinamiento inercial es un hito, pero seguimos lejísimos de alcanzarla

Si un físico nuclear hubiera despertado de un coma esta misma mañana y se hubiera acercado al kiosko del hospital a ver qué decían los periódicos, ahora mismo estaría hiperventilando y en estado de shock.”Los científicos confirman el hito de producir energía ilimitada a partir de una fusión nuclear, el ‘santo grial’ energético”, “¿Por qué la fusión nuclear será la energía del próximo siglo?” o “El sueño de la fusión nuclear energética está más cerca gracias a esta hazaña científica”.

A juzgar por muchos de los titulares de la prensa generalista cualquier diría que hemos cruzado el Rubicón de la fusión nuclear y lo cierto es que, como llevamos explicando desde hace días, “sí, pero no”. Tras el anuncio a bombo y platillo, viene bien bajar el hype y ver dónde estamos realmente.


¿Qué ha pasado exactamente? El 8 de agosto de 2021, un grupo de científicos del Laboratorio Nacional Lawrence Livermore lograron generar 1,3 megajulios durante una ínfima fracción de un segundo. A falta de confirmarlo, se trataría del primer experimento de fusión controlada de la historia que ha conseguido una producción neta de energía; pero, sobre todo, es algo que colocaría al confinamiento inercial un paso más cerca de la rentabilidad energética.

O sea, que sí, es un paso alucinante. Un hito en mayúsculas de la energía de fusión. Lo que pasa es que no es nada más. Pese a la (comprensible) emoción, lo cierto es que el experimento del Laboratorio Nacional Lawrence Livermore es un paso pequeño en el proceso de hacer realidad todo esto.

La gran imagen. Y es que este experimento formar parte de un proyecto, la fusión nuclear mediante confinamiento inercial, que no tiene una hoja de ruta. No tiene fechas, ni fases, ni itinerarios. Cuando hablamos de que es muy probable que tengamos los primeros reactores comerciales de fusión en la década de los 60 de este siglo, hablamos de otra cosa, de otra tecnología: de la fusión mediante confinamiento magnético.

Y no, no son lo mismo. Son dos caminos bastante distintos, de hecho. Si el problema central de la fusión es cómo contener un material en condiciones tan extremas, el confinamiento magnético recurre a un campo magnético de una intensidad enorme para evitar que el plasma toque las paredes de la cámara de vacío donde se encuentra.

El confinamiento inercial propone, en cambio, usar una cantidad de combustible muy pequeña (normalmente, en forma de pequeña bola de deuterio y tritio) e intenta conseguir que implosione utilizando una gran cantidad de láseres de alta potencia. Lo que ha presentado el LNLL es una enorme prueba de concepto, pero solo eso. Su camino hasta la fusión comercial es imposible de concretar. Estamos más cerca, sí; pero de una forma nada concreta.

¿Por qué es importante tener esto en mente? Sobre todo, porque la búsqueda de una forma de hacer comercial la fusión nuclear es un reto enorme. Un reto que requiere una enorme cantidad de recursos y que, por lo tanto, requiere cierto apoyo por parte de la sociedad civil. Para que nos hagamos una idea: el IFMIF-Domes, el “acelerador” que se está construyendo en Granada y que sólo es una pequeñísima parte para conseguir el confinamiento magnético comercial, va a requerir más de 100 millones al año. Prácticamente todos ellos, públicos.

Y eso solo se puede sostener si el debate público es claro y medimos correctamente las expectativas. Pasarnos de frenada en la comunicación de los descubrimientos científicos (sobre todo, cuando son pasos tan alejados del objetivo final) nos exponen a la desilusión generalizada y la sensación de que nunca acabamos de llegar al objetivo. Y es una pena porque, en el fondo, sí estamos más cerca de lo que solemos pensar.

No podemos permitirnos perder esta oportunidad. Durante años, el gran problema de la fusión nuclear era que, cuando dábamos un paso adelante, veíamos que necesitábamos muchas cosas que no teníamos, que no estaban ni siquiera desarrolladas. Y eso nos obligaba a “empezar de nuevo” en muchos sentidos. La buena noticia es que ya no estamos en ese escenario: todo parece indicar que ya sabemos todo lo que necesitamos y estamos en proceso de conseguirlo. Si justo ahora desacreditamos la fusión nuclear ante la opinión pública, habremos perdido una oportunidad histórica.

Imagen | Laboratorio Nacional Lawrence Livermore


La noticia Rebajando el hype de la fusión nuclear: el confinamiento inercial es un hito, pero seguimos lejísimos de alcanzarla fue publicada originalmente en Xataka por Javier Jiménez .

15 December, 2022 Leer más →
Technology

Henry Cavill deja oficialmente de ser Superman: qué quiere decir su salida para el universo DC de James Gunn

Henry Cavill deja oficialmente de ser Superman: qué quiere decir su salida para el universo DC de James Gunn

Cada día un nuevo desmentido, cada día una nueva historia que hace que los fans de DC traguen saliva ante la aparente falta de control del universo superheroico de Warner. En realidad, se trata de una situación normal en época de transición, pero la falta de transparencia de momento con el futuro de Superman, Batman y compañía desata las dudas y los rumores.

Adiós a Henry Cavill. Ya está confirmado: días después de que, con el impulso de la escena post-créditos de ‘Black Adam‘ (que al final no ha ido tan bien como se esperaba), Henry Cavill anunciara que volvía a Warner interpretando a Superman, no ha tenido más remedio que retractarse. Lo ha hecho a través de redes sociales con un texto muy claro: “Acabo de tener una reunión con James Gunn y Peter Safran y tengo malas noticias, gente. Al final, no volveré como Superman. Después de que el estudio anunciara mi regreso allá por octubre, antes de contratarles, esta noticia no es la más fácil, pero así es la vida”,

“El cambio de guardia”, continúa, “es algo que sucede. Respeto eso. James y Peter tienen un universo que construir”. James Gunn lo refrenda desde su cuenta de Twitter: “Peter y yo tenemos un plan para DC listo para empezar, con el que no podríamos estar más entusiasmados; podremos compartir alguna información emocionante sobre nuestros primeros proyectos a principios del nuevo año.” Y afirma: “Entre ellos está Superman. En las fases iniciales, nuestra historia se centrará en una parte anterior de la vida de Superman, por lo que el personaje no será interpretado por Henry Cavill”.

Destruir para construir. Estaba relativamente claro que Gunn y Safran no iban a continuar con un proyecto heredado de películas anteriores: si de algo podemos estar seguros es de que el Snyderverso no va a volver (por mucho que hoy sea tendencia en Twitter, de nuevo, #bringbackzacksnyder). De momento tienen entre manos, eso sí, las últimas trazas de la anterior Liga de la Justicia: ‘Shazam! Fury of the Gods‘ para marzo, ‘The Flash‘ para junio, ‘Blue Beetle’ en agosto y ‘Aquaman and the Lost Kingdom’ en diciembre. Esperemos cambios en ese plan.

Todo esto sucede un día después de que a través de Variety se desatara el rumor de que Gunn iba a usar el Batman de Robert Pattinson como parte cosustancial de su nuevo Universo DC, algo que inmediatamente fue considerado un error en redes sociales. Globo sonda o no, James Gunn salió al paso para desmentirlo: de momento, el nuevo batverso será un ente aislado.

Qué podemos esperar. De momento, noticias a principios de 2023, posiblemente en enero. Y entonces, a esperar, porque estas películas suponen un esfuerzo de coordinación y medios que pueden llevar entre dos y tres años para cada una. Antes tenemos los mencionados últimos coletazos del Universo DC, pero que pueden reformularse levemente para que se desliguen definitivamente de los planes de Gunn (incluso en el caso de la ya acabada ‘The Flash’; mientras, la nueva ‘Shazam!’ no va a tener ese problema, porque ya funciona al margen del Universo DC o, como en el caso de Blue Beetle, un nuevo héroe, para que se integren en el futuro de la compañía).

Desde aquí, se puede decir que confiamos en Gunn: un creativo controlando un universo de ficción tranquiliza siempre más que un ejecutivo y el gusto del director por lo excéntrico, los antihéroes y los personajes al fondo del plano más que los típicos héroes garantiza propuestas, como mínimo, estimulantes. Que no serán del gusto de todo el fandom, eso con seguridad (mucho menos con uno tan eminentemente conservador como el de los superhéroes), pero está claro que se avecinan tiempos interesantes.


La noticia Henry Cavill deja oficialmente de ser Superman: qué quiere decir su salida para el universo DC de James Gunn fue publicada originalmente en Xataka por John Tones .

15 December, 2022 Leer más →