Artículos de Adriana P

Technology

Musk cambió el timeline de Twitter para hacerlo algorítmico. Ha roto mi experiencia de una década

Musk cambió el timeline de Twitter para hacerlo algorítmico. Ha roto mi experiencia de una década

#10YearsChallenge en Twitter:

  • 2013: tuits cronológicos de la gente que sigues.
  • 2023: unos pocos tuits de la gente que sigues seleccionados de forma no-cronológica, sino algorítmica, y un montón de contenido de cuentas que no sigues, la mayoría hilos o tuits con imágenes o vídeos; pensados para capturar tu atención durante horas, un paso en la misma dirección que siguen Instagram o TikTok.

Las gracias, a Elon Musk. Pero tampoco es algo que se le pueda reprochar. Es el mercado, amigo.

Más impresiones, por favor

Los contenidos cronológicos de la gente que seguimos nos fidelizan a nuestra propia red, a la comunidad que hemos construido en ella. Los contenidos algorítmicos nos fidelizan a la plataforma, que es la que sabe sugerirnos aquello que nos gusta, que nos vicia.

No somos lo que publicamos, sino lo que dice nuestro historial. No priorizamos lo que contamos, sino lo que revela nuestro listado de búsquedas recientes. Y a eso se acogen las redes que tiran de algoritmos. Twitter  se ha subido a este carro de forma muy notable desde unas pocas semanas después de la llegada de Musk.

Hasta entonces, apenas había una cronología que tiraba de algoritmo para rescatar ciertos tuits con buen engagement pero de hace unas horas. Desde hace un par de meses, multitud de tuits de desconocidos llenan la pantalla, tirando de los temas que la plataforma ha detectado que nos interesan. Justo lo que Musk criticaba.

Habitualmente, tuits que son el principio de un hilo, o tuits con imágenes o vídeos. Ya saben, engagement.

Eso me ha servido para descubrir varias cuentas interesantes que de otra forma quizás no habría descubierto o habría tardado en hacerlo, pero también ha hecho más compleja la experiencia de usar Twitter. Para quien no lo utiliza únicamente como red social en la que estar al tanto de amigos y conocidos, sino con el propósito de mantenerse informado, el desafío es mayor.

Twitter tenía ruido, pero era simple. Ahora tiene más ruido y ni siquiera es simple.

Antes no existía esa capa de complejidad. Entrar, leer, cerrar. Ahora hay que ir procesando: esto es una propuesta de Twitter, a este señor no le he visto en mi vida, esto me sale porque me interesa el running y esto que queda sepultado entre hilos es justo lo que venía a buscar. Donde había ruido, pero simplicidad, ahora hay más ruido y complejidad.

Cuando se te iba de las manos el número de follows y se acumulaba demasiada información en poco tiempo, solo había que sacar la podadora a pasear. Ahora esto simplemente ya no es una opción, porque Twitter se encargará de llenar tu timeline de contenido de personas que no sigues.

Porque en Twitter ahora hay alguien preocupado de verdad por hacer la empresa rentable, más allá de las formas y los plazos, y para ello necesita multiplicar las impresiones de tuits, disparar los contenidos que incluyan vídeos en los que meter anuncios y conseguir que la gente que no está demasiado enganchada pase largas sesiones sin salir de Twitter, algo que hasta ahora no había conseguido esta red al nivel que lo logran TikTok o Instagram.

Con más vídeo y menos contenido de nuestros seguidos para priorizar el descubrimiento de terceros, Twitter pierde una parte de su esencia. Tendrá motivos para hacerlo, pero la experiencia se ha erosionado.

Twitter siempre ha sido una red diferente, con personalidad, y ahora es más similar a las demás.

El contenido algorítmico pensado para engancharnos es lo que ha marcado el avance de la economía de la atención. Cualquier plataforma social y de contenidos aspira a convertirse en un agujero negro para nuestra atención, un sitio en el que ya no perder tiempo, sino derrocharlo. Twitter escapó a muchas de esas reglas hasta ahora.

Hubo quienes vieron la llegada de Musk como una afrenta y anunciaron su marcha como acto de rebeldía. No fui yo. Me quedaré hasta que enciendan las luces y una escoba sea pasada bajo mis pies, pero el timeline algorítmico a un nivel inédito hasta ahora hace el espectáculo mucho menos agradable.

Mientras tanto, uno va encontrando en Mastodon un rincón agradable lejos de los algoritmos en el que volver a crear una comunidad.

Imagen destacada: Visuals en Unsplash, edición propia.


La noticia Musk cambió el timeline de Twitter para hacerlo algorítmico. Ha roto mi experiencia de una década fue publicada originalmente en Xataka por Javier Lacort .

29 January, 2023 Leer más →
Technology

Cómo entrenar a una IA con tu cara para crear avatares gratis con Stable Diffusion

Cómo entrenar a una IA con tu cara para crear avatares gratis con Stable Diffusion

Vamos a explicarte cómo entrenar a una IA con tu cara para generar tus propios avatares e imágenes personalizadas. Concretamente, lo que haremos es entrenar a Stable Diffusion por nuestra cuenta para que nos conozca, y luego utilizar esta popular IA para generar imágenes con nuestra cara.

El conseguir resultados como los avatares de Lensa dependerá de la paciencia que le dediquemos luego a explorar los comandos escritos que podemos pedirle a la IA para generar los avatares. Sin embargo, el primer paso es el que te diremos de una manera detallada, y luego ya todo dependerá de ti y de tu pericia.


Realmente, este proceso es más sencillo de lo que parece, aunque puede tardar horas en hacer el aprendizaje, ya que se basa en cuadernos de entrenamiento creados por personas para que tú solo tengas que cambiar algunos parámetros. Pero claro, la primera vez que entramos en uno de ellos puede que nos intimide ver tanta cosa extraña, por lo que vamos a intentar explicarte el proceso de una manera que puedas entender.

Vamos a empezar explicándote un poco los conceptos básicos de lo que vamos a hacer, de forma que entiendas por qué hay varios procedimientos para hacer lo mismo. Y luego, pasaremos a decirte todo el proceso en varios pasos, desde la selección de las fotos a utilizar hasta el entrenamiento de la IA y luego su utilización.

Algunas cosas antes de empezar

Antes de empezar com el proceso, debes saber que hay varias maneras de hacer esto, tanto el entrenamiento de modelo de IA para aprender a usar tu cara hasta luego su utilización dentro de Stable Diffusion. Nosotros, vamos a utilizar los modelos del proyecto Fast Stable Diffusion, tanto para el entrenamiento como para montar luego Stable Diffusion, puesto que es uno de los métodos más sencillos y recomendados por expertos en materia de IA.

Para democratizar estos procesos, los desarrolladores y expertos en Inteligencia Artificial crean los denominados cuadernos en la plataforma Google Colab. Se trata de una plataforma que te permite programar y ejecutar código Python, y compartir tus creaciones con otros usuarios. Con estos cuadernos podrás usar una GPU virtual para los procesos que es limitada cada día, pero que es suficiente para entrenar tu modelo de IA y usarlo durante una o dos horas.

Entonces, lo que vamos a hacer hoy es utilizar dos de estos cuadernos para entrenar la IA y usar el resultado en Stable Diffusion. Para ambos pasos, tienes varios tipos de cuadernos con pasos diferentes y formas diferentes de proceder, pero yo te voy a proponer el que yo he utilizado personalmente. Luego, una vez domines estos pasos iniciales ya podrás aventurarte a buscar otros cuadernos con otros procedimientos.

Para entrenar a la IA primero vas a necesitar tener preparada una serie de fotografías de tu cara, ya te lo especificaremos en el primer paso. Además, estos cuadernos se van a ejecutar utilizando memoria de tu Google Drive, por lo que también necesitarás tener al menos 4 GB libres de almacenamiento en la nube de Google.

Lo que vamos a hacer nosotros es entrenar a la IA con nuestras fotos utilizando el modelo de generación de aprendizaje Dreambooth a través de un cuaderno. El resultado será un archivo donde podríamos decir que está “lo aprendido”. Y luego, usaremos el cuaderno de AUTOMATIC1111 para instalar Stable Diffusion en Google Drive, moveremos el archivo de aprendizaje de la carpeta donde se ha creado a la de SD, y luego ejecutaremos la interfaz web para empezar a generar las imágenes.

Estas herramientas que vamos a utilizar tienen múltiples opciones para entrenar tus modelos de distintas maneras y usar diferentes versiones de Dreambooth. Nosotros no vamos a centrar en el proceso más básico y sencillo, que sea un punto desde el que dar los primeros pasos.

Primero, tienes que elegir tus fotos

Dataset

Lo primero que tienes que hacer es elegir las fotografías que vas a querer usar para entrenar a la IA con tu cara. Esto es lo que se denomina el dataset, la colección de datos que vamos a utilizar para alimentar a los algoritmos de la inteligencia artificial para que aprenda las características de nuestra cara y sea capaz de definirlas.

Lo ideal es que crees una carpeta para esto en tu ordenador y guardes en ella unas 30 fotos tuyas. Yo he usado algunas menos, pero lo recomendado para entrenar la IA son 30 fotos, o sea que con ellas tendrás unos mejores resultados.Deben ser fotografías en los que solo aparezcas tú, no debería aparecer ninguna otra persona ni animal junto a ti.

Sobre qué tipo de fotos debes utilizar, lo más importante es que la mayoría de ellas sean de tu cara, primeros planos o fotos que se te vea básicamente solo la cabeza. Para entrenar mejor a la IA, también puedes incluir algunas fotografías de medio cuerpo, y quizá incluso también alguna de cuerpo entero. Pero lo principal es que la mayoría sean de tu cara.

Por último, para optimizar el entrenamiento es recomendable recortar las fotos para que todas sean cuadradas, preferiblemente en un tamaño de 768×768. En el caso de que tuvieras alguna fotografía que aparezca una segunda cara junto a ti, puedes intentar borrarla tapándola con color blanco aprovechando la edición. Además, esas pocas de cuerpo entero, si son fotos verticales, puedes editarlas cuadradas añadiendo blanco a los lados.

En cualquier caso, presta cuidado a la hora de crear tu dataset de fotos propias para entrenar a la IA. Y recuerda guardar esta colección en una carpeta aparte, ya que siempre vas a poder volver a recurrir a ellas para entrenar otra vez la IA desde cero usando las mismas fotos.

También debes ponerles a todas las fotos un mismo nombre, con un número entre paréntesis para diferenciarlas. El nombre que debes ponerlas es ese nombre que quieras luego usar en los comandos o input de la inteligencia artificial para referirte a ti. Si le llamo a mis fotos yubal, luego tendré que decirle a la IA que haga fotos de yubal de determinada manera.

Empieza con el cuaderno de entrenamiento

Inicia Sesion

Ahora, tienes que entrar en la página de Google Colab de Fast DreamBooth, donde está el cuaderno de entrenamiento automatic1111 que vamos a utilizar. En esta página, arriba del todo tienes un bloque from google.colab import drive
drive.mount('/content/gdrive')
, y cuando pases el ratón sobre él tendrás un icono de reproducción sobre el que tienes que pulsar para lanzarlo.

Al hacerlo te aparecerá una advertencia, y al aceptarla procederás a vincular el cuaderno con tu cuenta de Google Drive. Tienes que iniciar sesión y aceptar el procedimiento dándole todos los permisos para conectarse a tu Google Drive. Cuando termine, deberá aparecerte el texto Mounted at /content/gdrive debajo indicándote que se ha montado este modelo en tu cuenta de Google Drive.

Dependencias

A continuación, tienes que hacer lo mismo y ejecutar el elemento de Dependencies que te aparecerá en segundo lugar. Esto va a instalar las dependencias necesarias en tu cuenta de Google Drive. Este proceso solo durará unos pocos segundos.

Model Download

Ahora toca pasar al bloque de Model Download, que es uno de los pasos más importantes. Aquí, lo que tienes que hacer es desplegar las pestañas de Model_Version y Custom_Model_Version, y en ambos casos eligiendo la v2.1-768px.

Como ves, puedes elegir entre 768px y 512px, pero si has editado las fotos de tu dataset a 768×768 píxeles, debes usar la 768px. Cabe la posibilidad de usar fotos a 512×512, pero la recomendada es la de 768px para tener mejores resultados. Espera unos segundos hasta que aparezca Done! abajo en verde, indicándote que se ha cargado este bloque.

Dreambooth

Ahora vamos al bloque de Dreambooth, que está dividido en varias celdas ejecutables, siendo la primera la Create/Load a Session. Tienevarias cosas que puedes rellenar, de las cuales no todas son importantes. Realmente, solo es suficiente con rellenar Model_Version, pero aunque los dos elementos anteriores no son necesarios para el procedimiento sencillo, vamos a explicártelos igualmente.

  • Session_Name: Puedes crear una sesión poniéndole un nombre. De esta manera, si no te gusta cómo se ha entrenado una IA, puedes añadir más pasos a la sesión en vez de empezar desde cero. Pero la primera vez que uses esto no hace falta poner nada ni rellenarlo. Esto es solo si trabajas con varias sesiones.
  • Session_Link_optional: En el caso de que no uses Google Drive sino que hayas creado una IA en otra cuenta, puedes añadir su enlace aquí. Pero ahora, no hace falta poner nada.
  • Model_Version: De nuevo tienes que indicar el nombre de la sesión. Tiene que ser el mismo que hemos usado en el paso anterior.
Dreambooth Prueba

Cuando termines con todo, ejecuta la celda Create/Load a Session con el botón de reproducción que hay a la izquierda del titular del cuadro. Si has dejado los dos primeros libres, te pedirá escribir un nombre de sesión en un texto en rojo, y puedes escribir el que quieras, como prueba. Generará una sesión, y cuando termine sigue con el paso siguiente.

Instance Images

Ahora, vamos con la celda de Instance Images. Estas son las diferentes cosas que debes anotar o cambiar antes de ejecutar el elemento, te las explicamos una a una. Y cuando lo tengas, puedes ejecutar la celda.

  • Remove_existing_instance_images: Elimina las fotos que estuvieras usando en otras sesiones. Si es la primera vez que haces esto, déjalo como está.
  • IMAGES_FOLDER_OPTIONAL: Si quieres, te meterá tus fotos en una carpeta que le digas que cree. No hace falta poner nada:
  • Smart_Crop_images: En el caso de que no recortaras las imágenes ni les cambiaras el tamaño como te hemos dicho antes, con este campo puedes pedir que se haga automáticamente. Sin embargo, lo recomendado es hacerlo tú a mano para asegurarte de que queden bien recortadas.
  • Crop_size: En el caso de que vayas a recortarlas o cambiarles el tamaño, aquí puedes elegir cuál utilizar. Pero en este caso, habiendo hecho el trabajo antes no hace falta que las pongamos a 768 con este método.
Archivos

Cuando ejecutes esta celda, abajo del todo te aparecerá la opción de seleccionar archivos abriendo un explorador de archivos. Con ella, tienes que elegir y añadir las fotos que hemos preparado al principio de todo. El proceso de subida tardará unos minutos, y dependerá de tu conexión a Internet.

En los siguientes dos puntos, Captions solo lo tienes que ejecutar tal y como está, y el siguiente te lo puedes saltar porque es opcional para usuarios avanzados. Puedes pasar directamente al apartado Training.

Previa

El apartado Training es lo más importante, y significa que vamos a empezar a entrenar a nuestra IA con las imágenes que hemos subido. La mayoría de campos es mejor dejarlos como están, pero te diremos algunas cosas que conviene que cambies dependiendo de lo que vayas a hacer.

  • Resume_Training: En el caso de que hayas entrenado ya a la IA y no estés satisfecho con el resultado, puedes marcar esto para seguir entrenándola durante unos cuantos pasos más tras cargar la sesión. Solo márcalo si ya la has entrenado una vez y quieres añadir pasos adicionales.
  • UNet_Training_Steps y UNet_Learning_Rate: Son los pasos y el tipo de entrenamiento de la IA. El creador establece 650 pasos por cada 10 imágenes cuando usas el modelo 1e- que aparece por defecto, y que no deberías modificar si no sabes nada. Simplemente, adapta la cantidad a tu número de imágenes.
  • Resolution: Cambia la resolución a la que estamos usando de 768.
  • Save_Checkpoint_Every_n_Steps: Esto es opcional, para que se vayan guardando los cambios a cada determinados pasos por si hay algún fallo.
  • Disconnect_after_training: Si quieres desconectarlo todo después de entrenar. Si no quieres hacer más cambios después del entrenamiento, puedes marcarlo
Entrenando

Una vez tengas todo hecho, pulsa en el botón de ejecutar de Start DreamBooth. Este proceso te puede durar bastante tiempo, incluso varias horas.

Turno para el cuaderno de Stable Diffusion

Tres Primeros

Una vez hayamos hecho el entrenamiento, es turno de empezar a utilizar los resultados y generar los avatares. Para eso, vamos a utilizar el cuaderno de Stable Diffusion 2.1 del proyecto AUTOMATIC1111, que es una interfaz web para usar Stable Diffusion. En él, ve ejecutando las primeras celdas para vincular la misma cuenta de Drive que hayas usado antes. Tras ejecutar ese primer elemento, ejecuta también Install/Update AUTOMATIC1111 repo y Requirements.

Model Download De Stable

A continuación, en Model Download/Load tienes que elegir la opción v2.1-768, ya que es la misma que hemos utilizado en el punto anterior. Tras hacerlo, deja lo demás como está y ejecuta la celda.

Start Stable

Ahora, llegarás al último paso llamado Start stable-diffusion, que sirve para lanzar Stable Diffusion. En él, en Model_Version vuelve a elegir la opción v2.1-768 o las que hayas usado, deja todo lo demás como está, y ejecuta también esta celda para ejecutar Stable Diffusion.

Conectar

Cuando termine, abajo del todo de la última celda verás el mensaje Running on public URL: seguido de una dirección. Tienes que pulsar en esa URL para entrar en Stable Diffusion ejecutado desde tu Drive.

Mueve el modelo entrenado a la carpeta de Stable Diffusion

Sesion Drive

Antes de empezar a usar Stable Diffusion, tienes que ir a la página de Google Drive e iniciar sesión con la cuenta que hayas estado utilizando. Una vez dentro ve a la carpeta Fast-Dreambooth, y entra a Sessions, entrando después a la carpeta con el nombre de la sesión que has creado antes.

Mover

Aquí dentro tendrás un archivo .ckpt, que es donde se ha guardado el modelo de IA entrenado. Lo que tienes que hacer es clic derecho sobre él, y elegir la opción de Mover a. Ahora, tendrás que ir a la raíz de tu Drive, y entrar en sd > stable-diffusion-webui > models > Stable-diffusion y pulsa en Mover aquí. Cuando guardes aquí el archivo .ckpt, estarás guardando tu modelo entrenado en la aplicación creada dentro de Google Drive de Stable Diffusion.

Ahora genera tu avatar

Carga Modelo

Ahora ya puedes ir a la pestaña donde hayas ejecutado Stable Diffusion en su interfaz web, y arriba del todo abre la pestaña Stable Diffusion checkpoint arriba a la izquierda para seleccionar el modelo que acabamos de mover en el paso anterior. Si no aparece porque lo habías abierto antes de mover la carpeta, pulsa en el botón azul de actualizar para que aparezca. Cargar el modelo puede tardar unos cuantos minutos, ten paciencia.

Ahora, simplemente ve a la pestaña txt2img, que es la de generar una imagen a través de texto. En ella, tienes que escribir el Prompt o comando para generar la imagen. Esta es la parte que más tiempo te va a costar afinar, y donde vas a tener que practicar a partir de ahora.

Realmente, la parte complicada empieza ahora. Lo único que tienes que tener en cuenta es que para que utilice tu cara, debes mencionar el nombre que hubieras puesto en tus fotos. Por ejemplo, para una retrato mío solo tengo que poner portrait of yubal. Y solo con eso ya generará algo.

Y a partir de aquí ya depende todo de ti. La verdadera aventura comienza ahora, porque encontrar un prompt que genere una imagen tal y como tú la quieres puede ser complicado. Puedes empezar explorando, y poco a poco ir añadiendo más detalles a tu petición. También puedes buscar los prompts para Stable Diffusion en Internet, aunque los buenos suelen incluso ser de pago.

Esto ves así porque la parte más complicada de crear imágenes a través de IA es el comando de petición o prompt que le envías a la IA. Aplicaciones como Lensa se diferencian de todas las demás por los prompts que usan, y este es el auténtico tesoro a la hora de generar imágenes.

Aquí solo recordarte que los comandos los puedes poner también en español. En mi caso, después de copiar y pegar algunos prompts de Internet empecé a buscar combinaciones por mi cuenta. Empecé con “retrato de yubal”, luego pasé a “retrato de yubal, pintado por van gogh”, y así poco a poco fui añadiéndole elementos separándonos por una coma.

Prompts

Además del campo de Prompt, también tienes uno de Negative Prompts por si quieres añadir defectos a la imagen, ya sea arrugas, roturas, lo que quieras.

Configuracion

Además de el prompt, verás que debajo tienes otros elementos con los que puedes configurar la imagen. Aquí lo que elijas determinará también el resultado, pudiendo determinar el método de sampleo, que le da diferentes estilos al dibujo. Lo único importante de cambiar es width y height, la anchura y altura de la imagen, que deben ser de 768 por haber entrenado a la IA con estos tamaño.

Rembrandt

Lo demás, lo mejor es que vayas explorando. Otra cosa importante es el campo Sampling steps, que son los pasos que da la IA para crear la imagen. Cuantos más pasos, más detalles y precisión tendrá la imagen, aunque un poco menos de creatividad. Lo recomendable es tenerlo a 50, pero puedes ir cambiándolo de vez en cuando para explorar resultados. Cada vez que generes una imagen será diferente, incluso si repites la misma configuración y prompt.

Para terminar, cabe la posibilidad de que a veces algunos de estos cuadernos den fallos temporales, ya que el código del que están compuestos tiene muchas variantes y son proyectos colaborativos en los que alguien toca una cosa en un sitio y todo lo demás puede fallar. Si te encuentras con que el cuaderno para entrenar a la IA no funciona o que el generador de imágenes de Stable Diffusion hace cosas raras, lo normal es que el problema se solucione en pocas horas.


La noticia Cómo entrenar a una IA con tu cara para crear avatares gratis con Stable Diffusion fue publicada originalmente en Xataka por Yúbal Fernández .

29 January, 2023 Leer más →
Technology

Si quieres un móvil bueno y barato, la gama media de 2022 tiene grandes alegrías para ti

Si quieres un móvil bueno y barato, la gama media de 2022 tiene grandes alegrías para ti

2022 fue un año catastrófico para las ventas de teléfonos y, si siguen subiendo los precios al mismo ritmo, todo apunta a que (al menos, en España) no habrá un repunte notable. El pasado curso escribía una pieza titulada “Quise comprar un gama media de 2022, acabé con un modelo de 2021 que lo superaba en todo“.

Era abril de 2022, y el panorama era desolador. Móviles bastante ajustados en especificaciones, a un precio medio de 300 o 400 euros. Si queríamos algo realmente decente, el ticket final subía casi hasta los 500 euros. No ha llegado a pasar un año, la gama media 2023 aún no ha nacido, pero tengo claro que comprar un gama media de 2022 será lo mejor para el bolsillo. No volveremos a ver móviles tan económicos que cumplan con todo.

2022 queda atrás. Hora de comprar

Captura De Pantalla 2023 01 27 A Las 12 53 23 P M

Gama media por menos de 200 euros, gama media-alta por unos 300, tampoco pedía tanto. Aunque, bueno, también pedíamos coches nuevos y buenos por menos de 20.000 euros: las subidas actuales lo hacen imposible.

Por suerte (o para no tanta suerte, si solemos vender pronto el teléfono), los móviles Android sufren una fuerte depreciación en los meses posteriores a su lanzamiento. Una gran oportunidad para comprar móviles con apenas unos meses de vida, con un ahorro de más de 100 euros en algunos casos. Sobre cómo es posible que un fabricante, de forma oficial, rebaje 100 euros el precio de un teléfono de gama media, es algo que lo que podríamos hablar más adelante.

Me he dado un paseo por Amazon para comprobar precios actuales de algunos de los mejores móviles de gama media de 2022 y… sorpresa. Están al precio que debieron tener como PVP. Veamos de lo que estoy hablando.

Dentro del catálogo de Xiaomi, el Redmi Note 11 se puede comprar por 190 euros en su versión de 6 + 128 GB (no puedo recomendar la versión de 4 GB de RAM bajo ninguna circunstancia). Un móvil que costaba 259 euros en esta versión.

Realme también vendía su rival del Redmi Note 11, el Realme 9, a un precio algo elevado: 279 euros. A día de hoy, por 219,99 euros, tenemos un teléfono con pantalla AMOLED, Snapdragon 680 y 90 Hz. Así, sí.

Google Pixel 6a

Si elevamos el presupuesto a los 350 euros, tenemos un caso bastante curioso. Puedes comprarte un Google Pixel 6a 100 euros más barato respecto a su precio de salida. Google decidió rebajar el precio de este modelo de gama media y, desde que tocó los 359 euros, no ha vuelto a subir, salvo en su página oficial. Mismas cifras para Samsung. Su A52S salía al mercado por 449 euros. A día de hoy cuesta 343 euros

Al ser modelos con apenas un año de vida, aún tienen ciclo de actualizaciones. Y, al poder comprarse nuevos, garantía al completo. 2023 nos deparará, salvo sorpresa, una tónica similar a la de 2022. Gama media cara, con especificaciones que no se terminan de ajustar a la factura final, y con difíciles argumentos frente a modelos del año pasado que calcarán buena parte de la hoja técnica, pero con importantes rebajas. 


La noticia Si quieres un móvil bueno y barato, la gama media de 2022 tiene grandes alegrías para ti fue publicada originalmente en Xataka por Ricardo Aguilar .

29 January, 2023 Leer más →
Technology

La minería espacial ya no es (solo) una meta para el futuro: esta empresa lanzará sus primeras misiones en 2023

La minería espacial ya no es (solo) una meta para el futuro: esta empresa lanzará sus primeras misiones en 2023

Quizás siga sonando a ciencia ficción y a un nebuloso futuro marcado por el impulso de la exploración espacial, pero al hablar de la minería de asteroides ya podemos conjugar en presente. La startup estadounidense AstroForge, una de las que más suena en la ambiciosa carrera por alcanzar los “tesoros” minerales que vagan por el espacio, acaba de anunciar dos misiones con las que pretende despejar su camino. Y ambas están programadas para 2023.

Su objetivo: adelantarse a sus competidores.

¿Qué quiere hacer? Primero, completar una prueba de refinería con la que espera demostrar el potencial de su tecnología. Después, impulsar una expedición espacial para observar uno de los asteroides que ha captado su atención. “Con los lanzamientos asegurados y los socios a bordo, estamos acelerando el camino para hacer de la minería de asteroides una solución a corto plazo para preservar los recursos cada vez más escasos de la Tierra”, comentan sus responsables, Jose Acain y Matt Gialich, quien ejerce como director ejecutivo de la compañía.

La primera misión, ya en abril. Así es. El primer hito de ese cronograma llegará en unos meses, a principios de primavera. En colaboración con OrbAstro y a bordo de un Falcon 9 de SpaceX, la compañía prevé lanzar su primera misión ya en abril. Con ella busca ir un poco más allá y poner a prueba la tecnología que ha estado desarrollando. ¿Cómo lo hará? El objetivo pasa básicamente por alcanzar la órbita baja para y comprobar si puede refinar platino en microgravedad.

“Demostraremos las capacidades de nuestra refinería con el objetivo de validar la tecnología y realizar extracciones en gravedad cero”, detalla la startup. La nave se lanzará precargada con un material similar a un asteroide que la compañía se encargará de vaporizar para clasificar sus componentes elementales.

e

¿Y después? Después llegará la segunda misión, prevista para octubre y que consiste en un viaje al espacio para —anotan desde AstroForge— “observar nuestro asteroide objetivo”.  Intuitive Machines, que ha logrado un acuerdo con la firma de minería espacial, avanza algún detalle más: la idea es lanzar el vehículo Brokk-2 de AstroForge aprovechando la segunda misión lunar de Intuituve Machines en la segunda mitad de 2023 para aproximarse y observar el asteroide.

“Ambas misiones son cruciales no solo para AstroForge, sino para la sociedad en general. Estamos demostrando paso a paso que la minería de asteroides no es una fantasía, sino un método viable para proteger y preservar la Tierra”, reivindica. La compañía mira en cualquier caso más allá de 2023 y ya habla de una tercera y cuarta misión  para extraer y refinar sus metales con despegue en 2025.

Un poco de contexto. AstroForge prepara su siguiente gran paso tras haber cerrado en mayo de 2022 una ronda de capital semilla que se elevó a 13 millones de dólares, una importante inyección de fondos para lograr un objetivo reconocido por la compañía: “Convertirnos en la primera empresa comercial en explotar un asteroide y que traiga los materiales de vuelta a la Tierra”. Los responsables de la firma tampoco son unos recién llegados al sector tecnológico. Gialich, por ejemplo, es un veterano de Virgin Galactic y Bird. Durante una entrevista con Bloomberg explicaba que su meta es extraer y refinar metales de los asteroides.

Un negocio jugoso… con una cara medioambiental. La clave de su proyecto —insiste Gialich— es que se plantea el refinado de metales de los asteroides, con lo que se espera reducir costes y también las emisiones de dióxido de carbono que se generan durante la recolección de tierras raras en nuestro planeta. “Hacemos nuestra refinación en el sitio, en el propio asteroide. No traemos el material a la Tierra para refinarlo”, explica a Bloomberg.

Otra de sus claves es la logística y cómo se organiza. La compañía planea subcontratar la infraestructura, encargando la construcción de la nave a OrbAstro o el lanzamiento a SpaceX. AstroForge se centra en la tecnología de refinamiento en el espacio y trazar las trayectorias. Para favorecer la rentabilidad de su negocio apunta además a depósitos con una elevada concentración de metales, superior a la que se puede encontrar en la Tierra. La tarea no es sencilla. Antes que ella ya intentaron explorar la minería espacial firmas como Planetary Resources o Deep Space Industries, que acabaron reenfocándose con el paso del tiempo.

Imagen de portada: NASA


La noticia La minería espacial ya no es (solo) una meta para el futuro: esta empresa lanzará sus primeras misiones en 2023 fue publicada originalmente en Xataka por Carlos Prego .

29 January, 2023 Leer más →
Technology

Android Auto Coolwalk es un reflejo del problema de las actualizaciones en Android: unos las tienen, otros no

Android Auto Coolwalk es un reflejo del problema de las actualizaciones en Android: unos las tienen, otros no

Si no te ha llegado la actualización Coolwalk de Android Auto, tranquilo, no estás solo. Las actualizaciones en Android siempre son progresivas, aunque lo de esta versión de Android Auto es bastante particular. En noviembre de 2022 avisábamos: Coolwalk estaba empezando a activarse. Algunos usuarios de la versión beta reportaban la llegada de la nueva interfaz. Pero solo algunos.

Dos meses después, el día 6 de enero, “empezaba” el despliegue oficial. Google anunciaba la llegada de Coolwalk y era de esperar que, poco a poco, el rediseño fuera llegando. Estamos a las puertas de cerrar febrero, y no son pocos los usuarios que siguen con la interfaz antigua.

El problema no es Coolwalk, el problema es que algo pasa con las actualizaciones en Android

Ha pasado cerca de un mes desde que se anunciase el despliegue de Android Auto Coolwalk. Siguen lanzándose versiones actualizadas del sistema operativo de Android para nuestros vehículos, y los usuarios reportan que no hay noticias de Coolwalk. Es el caso de servidor y todo su círculo. En mi caso particular, tengo varios teléfonos con Android 13 y las últimas betas de Android Auto: no hay ni rastro de la actualización.

En Reddit los usuarios cuentan situaciones aún más curiosas, como la de un usuario que recibió Coolwalk al conectar su Galaxy S20 al coche. Tras comprarse un Galaxy S22, asegura haber perdido la nueva interfaz. Otros usuarios comentan que en algunos teléfonos les aparece, que en otros no… El principal punto aquí es que las actualizaciones de Google dependen del servidor, y no directamente de que tengamos actualizada o no las apps a la última versión.

Coolwalk

Las actualizaciones llegan a ciertos grupos de usuarios, de forma progresiva, hasta que todos la tienen. En el proceso, nos topamos con que un grupo cada vez mayor de usuarios va teniendo acceso a estas actualizaciones y funciones, mientras el resto ha de esperar.

Es algo similar a lo que ocurre con las propias actualizaciones de las apps de Google, como Maps, Gmail, etc. Google anuncia novedades, llegan primero a un pequeño grupo de usuarios, la función se va expandiendo a cada vez más grupos, hasta que se cierra el círculo y no queda ningún usuario por actualizar.

Esta es una medida que permite a Google obtener feedback sobre las actualizaciones sin que lleguen a todo el mundo y, en caso de malos resultados, paralizar el despliegue sin causar males mayores. La contrapartida es la sufrimos con Coolwalk: no hay fechas oficiales de llegada.


La noticia Android Auto Coolwalk es un reflejo del problema de las actualizaciones en Android: unos las tienen, otros no fue publicada originalmente en Xataka por Ricardo Aguilar .

28 January, 2023 Leer más →
Technology

Los widgets de terceros en Windows 11 asoman la patita: así será el de Facebook Messenger

Los widgets de terceros en Windows 11 asoman la patita: así será el de Facebook Messenger

Los rumores confirmados más tarde por un anuncio oficial de Microsoft están cada vez más cerca de hacerse realidad. Windows 11 admitirá widgets de terceros, una posibilidad que abrirá la puerta a ampliar las funcionalidades de una característica que esta muy limitada.

Si bien los widgets que podemos explorar desde el botón dedicado en la barra de tareas fueron una de las grandes novedades de Windows 11, estos han estado limitados desde su lanzamiento. Únicamente se permitían herramientas o aplicaciones de Microsoft, es decir, nada de terceros.

Dile ‘hola’ a los widgets

El proceso para que los widgets lleguen al nuevo sistema operativo de Microsoft está avanzando, paso a paso. Un paso importante se ha materializado en estos últimos tiempos con los lanzamientos para desarrolladores de Windows App SDK 1.2 y Windows 11 Insider Preview Build 25284.

Los desarrolladores ahora tienen el correspondiente SDK mejorado para crear widgets y una versión de prueba de Windows 11 para evaluar su funcionamiento. Meta es la primera gran compañía en anunciar una versión de prueba de su widget de Messenger, que ya pueden probar los Insiders.

Como podemos ver en las capturas, el widget de Messenger muestra las últimas conversaciones de la aplicación de mensajería, con fotos y nombres de contactos. Probarlo es muy sencillo. En primer lugar, es necesario contar con la mencionada versión de desarrollo de Windows y descargar la aplicación Messenger desde la Microsoft Store.

Widget Messenger Windows 11

Una vez descargada e instalada la aplicación, se debe abrir el tablero de widgets desde el botón situado en la barra de tareas y presionar en el botón “+” en la parte superior derecha. El paso siguiente es elegir el widget de Messenger y anclarlo.

Cabe señalar que como la versión de Windows y el widget de Messenger están el pleno desarrollo, todavía pueden presentar errores. Microsoft admite que los widgets de terceros pueden desaparecer o incluso no funcionar como los usuarios esperan.

Si todo sale de acuerdo a lo esperado, esta funcionalidad llegará a la versiones finales del sistema operativo, ampliando su disponibilidad a todos los usuarios. Eso sí, todavía no sabemos cuándo podría ocurrir eso ya que no hay un calendario definido por Microsoft.

El siguiente desafío es motivar a los desarrolladores a crear widgets para Windows 11. Eso no siempre suele ser fácil y es uno de los grandes retos a los que se enfrenta Microsoft, junto con implementar un marco de seguridad eficaz para evitar problemas en la plataforma.

A modo de ejemplo, podemos recordar que Windows 7 alguna vez admitió lo que los denominados “Gadgets” de desarrolladores externos. Los de Redmond, no obstante, dieron marcha atrás con esta posibilidad tras detectar “graves vulnerabilidades” que ponían el peligro la seguridad de los usuarios.

En Xataka: A Windows 10 todavía le queda mucha vida, pero Microsoft ya está preparando su funeral


La noticia Los widgets de terceros en Windows 11 asoman la patita: así será el de Facebook Messenger fue publicada originalmente en Xataka por Javier Marquez .

28 January, 2023 Leer más →
Technology

La ola de frío quiere quedarse una temporada: estos acumuladores de calor te ayudan a combatirla ahorrando en la factura eléctrica

La ola de frío quiere quedarse una temporada: estos acumuladores de calor te ayudan a combatirla ahorrando en la factura eléctrica

Si ya dispones de instalación de placas solares en tu hogar y estás buscando una forma extra de aprovecharla para ahorrar calentando tu casa, una de las opciones que mejor resultado te puede dar son los acumuladores de calor. Si te has planteado elegir esta forma de caldear alguna de las habitaciones de tu hogar, hemos buscado algunas opciones a buenos precios para que ahorres también en su compra.


Básicamente, estos aparatos aprovechan las horas en que la electricidad es más barata para acumular un calor que luego se libera en las horas en las que necesitamos calentar la casa. De cualquier forma, en esta guía tienes todos la información que necesitas sobre el tema.

En Leroy Merlin podemos encontrar varios modelos de acumuladores de calor de la marca ELNUR Gabarron, de su gama Ecombi Solar, pensados para usar con placas solares. En ella tenemos varias opciones de acumuladores estáticos con diferentes capacidades. Con ellos nos aseguramos el aprovechamiento máximo de los excedentes de energía generados por instalaciones solares domésticas.

Ofrecen un ahorro mínimo de hasta un 60%. Esta gama cuenta además con conectividad WiFi, que nos permite controlar y programar desde nuestro smartphones las horas de acumulación y de liberación de calor.

Ecombi 15

  • El Ecombi 15 es el modelo más básico, con una potencia de 975W, que tiene un tiempo de carga de unas 8 horas. Lo encontramos por 341 euros con envío gratuito incluido.

Ecombi 20

  • Por encima encontramos el Ecombi 20 de ELNUR, que nos ofrece unos 1300W de potencia con las mismas 8 horas de tiempo de carga, todo ello por 459 euros

Ecombi 30

  • Por 513 euros tenemos el Ecombi 30, que ofrece 1950W de potencia, necesitando también 8 horas de tiempo de carga.

Ecombi 40

  • El mayor de la gama es el Ecombi 40 que, por 613 euros nos ofrece las mismas 8 horas de tiempo de carga y una potencia de 2600W.

Imágenes | ELNUR Gabarron

Más ofertas

Si te haces de Amazon Prime, dispones de 30 días de prueba gratis (después 49,90 euros al año) para disfrutar de envíos rápidos gratis, accesorio prioritario a ofertas, servicios como Prime Video, Prime Music y almacenamiento de fotos ilimitado. Además, si eres estudiante, hacerte de Prime Student cuesta la mitad y dispones de 90 días de prueba.
También puedes probar gratis durante 30 días servicios como Kindle Unlimited o Audible.

Puedes estar al día y en cada momento informado de las principales ofertas y novedades de Xataka Selección en nuestro canal de Telegram o en nuestros perfiles de Twitter, Facebook y la revista Flipboard.

Algunos de los enlaces de este artículo son afiliados y pueden reportar un beneficio a Xataka.


La noticia La ola de frío quiere quedarse una temporada: estos acumuladores de calor te ayudan a combatirla ahorrando en la factura eléctrica fue publicada originalmente en Xataka por Manu García (Visnuh) .

28 January, 2023 Leer más →
Technology

HBO anuncia que ‘The Last of Us’ tendrá una segunda temporada: el buen impacto tiene recompensa

HBO anuncia que 'The Last of Us' tendrá una segunda temporada: el buen impacto tiene recompensa

‘The Last of Us’, que es candidata a ser una de las mejores adaptaciones de videojuegos de 2023, acaba de conseguir una nueva temporada en HBO. Ha sido la propia plataforma de streaming la que este viernes ha dado a conocer la noticia a través de un comunicado

La estupenda aceptación del público y las críticas positivas se han encargado de garantizar la continuidad de la serie producida por Craig Mazin y Neil Druckmann poco tiempo después de su estreno. De hecho, estamos en el segundo capítulo, y el tercero se estrenará el próximo lunes. 

‘The Last of Us’, el estreno más grande de HBO después de ‘La casa del dragón’.

El éxito de ‘The Last of Us’ está siendo enorme, y las cifras lo confirman. La serie basada en el videojuego del mismo nombre que se desarrolla en un Estados Unidos atestado de infectados por el hongo Cordyceps se ha situado detrás de ‘La casa del Dragón’ a nivel de popularidad en HBO.

En la serie vemos país sumergido en una severa crisis después del origen de una pandemia. Nuestro protagonista, Joel, es contratado para llevar a un lugar aseguro a Ellie, una niña de 14 años. Pero salir de esa zona de cuarentena se convertirá en un enrome desafío en el que uno dependerá del otro para sobrevivir.

Zombie The Last Of Us 1

Desconocemos, de momento, cuándo se estrenará la segunda temporada de ‘The Last of Us’. La primera temporada, que presenta un nuevo episodio cada lunes, tiene nueve capítulos. Empezó a emitirse el pasado 15 de enero y continuará desarrollándose en HBO hasta el 13 de marzo de 2023.

Los responsables de la obra, como señala nuestro editor de cine John Tones, han encontrado la fórmula adecuada para no caer en el aburrimiento con la línea argumental de los zombies. ‘The Last of Us’ mantiene un preciso equilibrio entre las dinámicas del videojuego y lo que aparece en la serie. 

El buen impacto de este contenido no solo gira en torno a HBO. También ha repercutido en Twitter, donde ha sido tendencia en casi todas partes del mundo desde su estreno, y en las propias ventas del videojuego, invitando a los aficionados de las consolas a intentar sumergirse en la historia de primera mano. 

Imágenes: Warner

En Xataka: El segundo episodio de ‘The Last of Us’ endereza los problemas del primero y adelanta por dónde llevará HBO su serie


La noticia HBO anuncia que ‘The Last of Us’ tendrá una segunda temporada: el buen impacto tiene recompensa fue publicada originalmente en Xataka por Javier Marquez .

28 January, 2023 Leer más →
Technology

“Un verdadero win-win”: lo que opinan las empresas y los trabajadores que han adoptado la semana de cuatro días

El pasado 19 de enero se celebró en el Foro de Davos  una conferencia para tratar la semana laboral de cuatro días, sin reducción salarial, en la que participaron Karien van Gennip, ministra de empleo holandesa,  Sander van ’t Noordende, CEO de Randstad y Christy Hoffman, secretaria general de la federación sindical mundial UNI Global Union.

En ella se analizaron algunas de las ventajas de esta reducción de la jornada laboral, como la mejora del descanso de los trabajadores, o la posibilidad de reducir la brecha de género en cuanto a los cuidados domésticos. En este sentido,  recientemente se han publicado estudios cuyos resultados también indican los beneficios que la semana laboral de cuatro días, sin reducción salarial, tiene para las empresas, los trabajadores y el medioambiente.

Bueno para las empresas. El pasado mes de diciembre, 4 Day Week Global publicó un estudio independiente, realizado por University College Dublin, Boston College y la Universidad de Cambridge, en el que se analizaban los resultados de ensayos de la semana laboral de cuatro días llevados a cabo, principalmente, en Estados Unidos e Irlanda. El informe concluía que la productividad de las empresas participantes había aumentado un 7% y que los ingresos habían crecido un 8%.

Lo que dicen las compañías. Según Jon Leland, director del departamento de estrategia de Kickstarter, una empresa de crowdfunding que participó en la prueba, la semana laboral de cuatro días fue un “verdadero win-win”. En un post publicado por 4 Day Week Global, Leland explicó que la firma aumentó sus contrataciones, mejoró la retención laboral de su plantilla e incrementó sus ingresos, al mismo tiempo que los empleados disfrutaban de más tiempo para descansar y estar con sus familias.

La importancia de escuchar a los asalariados. Por su parte, Rod Lacey, director de recursos humanos de simPRO, compañía de desarrollo  software, reconoció que tras la adopción de la semana laboral de 32 horas, la firma entendió la importancia de escuchar las demandas de los trabajadores y de velar por su bienestar. Lacey dijo que ello repercutía positivamente en la actividad de la empresa.

Aumento del bienestar de los trabajadores. Se trata de una conclusión similar a la que llegó Rent a Recruiter, una empresa irlandesa especializada en reclutamiento de personal. Su CEO, Barry Prost, reconoció que los ingresos, la retención de plantilla y las contrataciones se habían incrementado, al mismo tiempo que el bienestar de los trabajadores también había aumentado.

Lo que dicen los empleados. Una de esas trabajadoras, Julieanne Cotter, señaló en declaraciones a la revista Time los beneficios que ella había experimentado. “Saber que no vas a estar en la oficina desde el lunes por la mañana hasta el viernes por la tarde sienta diferente”, afirmó Cotter, quien señaló además una reducción en sus niveles de estrés y un aumento de sus energías.

Además, indicó que, en relación a la salud mental, el cambio puede ser muy positivo. Cotter señaló, por otro lado, que empleaba los viernes para cuidar de sus parientes más mayores o para, simplemente “estar más tiempo en el parque”.

Más tiempo para hacer deporte. Por su parte, Colby Swandale, ingeniero software en la firma australiana Calibre Analytics, afirmó en conversación con la revista Time que, en su caso, el día libre extra lo emplea para su cuidado personal, realizando actividades como ir en bicicleta, pasear o entrenar en el gimnasio.

Los datos les dan la razón. En este sentido, el informe de 4 Day Week  da la razón a Cotter y a Swandale: a lo largo de las pruebas que se llevaron a cabo, se detectó una mejora de casi el 34% de la salud física, del 38% en relación a la salud mental y un aumento de casi el 67% de las emociones positivas. Paralelamente, los problemas para dormir se redujeron un 37%.

Adicionalmente, el estudio señalaba que en su día libre los trabajadores emplearon, de media, cinco horas al ocio, más de tres horas a los cuidados familiares y domésticos y más de dos horas al cuidado personal.

Positivo para el medioambiente. Por otro lado, la semana laboral de cuatro días, sin reducción salarial, también tiene efectos positivos a nivel medioambiental. Un estudio, elaborado por el centro Henley Business School de la Universidad de Reading, indica que si todas las firmas de Reino Unido aplicaran la semana laboral de cuatro días se realizarían en torno a mil kilómetros menos de transporte en coche a la semana. Ello disminuiría las emisiones de CO2 y serviría para combatir el cambio climático.

Imagen: Campaign Creators / Unsplash


La noticia “Un verdadero win-win”: lo que opinan las empresas y los trabajadores que han adoptado la semana de cuatro días fue publicada originalmente en Xataka por Javier Fernández .

28 January, 2023 Leer más →
Technology

Llevamos mucho esperando al nuevo Mac Pro. A estas alturas, quizás lo mejor sería matarlo

Llevamos mucho esperando al nuevo Mac Pro. A estas alturas, quizás lo mejor sería matarlo

62.648 euros. Eso es lo que costaba la configuración más potente del Mac Pro que Apple ponía al fin a la venta en diciembre de 2019. Aquel equipo, basado aún en procesadores Intel, tenía un precio enorme incluso en su versión base (5.999 euros en lanzamiento), pero al menos ofrecía algo poco usual en los equipos de este fabricante: la capacidad de intercambiar fácilmente sus componentes internos.

Este equipo se ha acabado convirtiendo en un tema escabroso. Cuando Apple anunció los chips M1, lo hizo con la promesa de que en dos años completaría la transición de todos sus equipos a estos nuevos chips. Han pasado más de tres y el Mac Pro es el único que no se ha renovado. Y lo peor de todo es que a estas alturas quizás ya no tenga sentido hacerlo.

Rumore, rumore

En Cupertino parece que de hecho tenían un nuevo Mac Pro preparado —probablemente basado en el chip M1 Ultra— desde hace tiempo, pero decidieron esperar a un teórico chip M2 Extreme.

Parece que aquellas intenciones se quedaron solo en eso: rumores más recientes indican que Apple cancelaba esos planes porque ese chip y esa configuración eran demasiado especiales hasta para Apple.

Pongamos que no pasa nada. Que da igual que al final no vayan a sacar un modelo con el hipotético M2 Extreme. Da igual. Contar con una versión con los (también hipotéticos) M2 Ultra sería interesante, y de hecho se habla de que ese chip tendrá 24 núcleos en su CPU y 76 en su GPU, además de una memoria unificada de 192 GB.

Esa configuración es desde luego destacable, pero lo importante del Mac Pro ni siquiera era eso. O al menos, no era “solo” lo más importante. Ese equipo era la gran baza para quienes buscaban otra ventaja de estos equipos: su capacidad de expansión.

En los Mac Pro actuales es posible cambiar memoria, almacenamiento o utilizar cualquiera de los ocho slots PCIe para conectar nuevos periféricos como tarjetas gráficas al equipo. Se esperaba que el renovado Mac Pro conservase (a pesar de los diseños conceptuales) al menos parte de esa modularidad, pero todo apunta a que las opciones serán mínimas.

De hecho, Mark Gurman, analista en Bloomberg, apuntaba estos días a cómo esos Mac Pro no contarían con la capacidad de cambiar de tarjeta gráfica. Ya era evidente que no sería posible ampliar la memoria debido a que esta es unificada y está integrada en los chips de Apple, pero es que ahora ni siquiera parece que vaya a poderse ampliar el equipo en el futuro con GPUs más potentes.

Eso deja a estos Mac Pro con —al menos en teoría— una sola posibilidad para ser ampliados: la de su sistema de almacenamiento, que sí podremos ampliar. “La gran diferencia entre el Mac Pro y el Mac Studio además del salto del M1 Ultra al M2 Ultra”, explicaba en otro tuit, “debería ser más rendimiento gracias a mayor espacio para la refrigeración”.

La pregunta, claro, es si eso es suficiente.

El Mac Pro se ha quedado definitivamente atrás

El tiempo pasa muy rápido en tecnología, y los vertiginosos avances hacen que equipos que en el lanzamiento parecían prodigiosos queden especialmente perjudicados por los cambios.

Geekbench

Es lo que le ha ocurrido al Mac Pro de 2019, que no ha envejecido demasiado bien. Lo demuestra una sencilla comparación con el Mac mini M2 en su versión básica que acaba de lanzarse.

Al compararlo con el Mac Pro en la prueba Geekbench 5 (Mac mini, Mac Pro, Mac Studio) el resultado es cruel: el Mac mini M2 dobla el rendimiento en la prueba de un único núcleo, pero también logra un incremento de casi el 27% en rendimiento multinúcleo.

Mejor ni mencionamos la eficiencia, pero es que la cosa es aún más dolorosa cuando uno mira la etiqueta de precio: que el Mac mini de 719 euros supere en rendimiento a un equipo que se sigue vendiendo en Apple por la friolera de 6.499 euros (sin ruedas) es terrible. Y lo es precisamente porque Apple sigue vendiendo el viejo Mac Pro a ese precio.

Las comparaciones pueden ser más odiosas si lo que buscamos es más rendimiento multinúcleo: el Mac Studio de partida cuenta con unos M1 Ultra que en rendimiento mononúcleo son algo peores que los M2, pero que ganan la partida en la otra prueba por su mayor número de núcleos. De hecho, aplastan a estos otros dos equipos con holgura por un precio que resulta hasta razonable si lo comparamos con el del Mac Pro.

¿Tiene sentido un Mac Pro a estas alturas?

La respuesta a esa pregunta es delicada. Lo cierto es que la aparición de los Mac Studio ha hecho que la respuesta sea difícil, ya que estos equipos dan un rendimiento fabuloso incluso para los usuarios más exigentes.

Macpro3

El Mac Pro ya era un producto de nicho, pero es que ese segmento ya ha sido muy bien cubierto con estos Mac Studio, y precisamente estos equipos podrían ser utilizados para ser actualizados a esos teóricos M2 Ultra. Sería la evolución natural de estos modelos, y eso haría básicamente redundante un Mac Pro con un M2 Ultra.

La propuesta de Gurman, que afirmaba que el Mac Pro permitiría más rendimiento al tener mayor tamaño y más margen de maniobra con la refrigeración, no casa muy bien con el hecho de que el Mac Studio no tiene problemas en refrigerar el M1 Ultra. No parece que el teórico M2 Ultra fuera especialmente distinto en este ámbito: ¿necesita Apple un Mac Pro solo para poder refrigerar este chip?

La cosa se pone aún más complicada, porque ese teórico Mac Pro con el M2 Ultra “canibalizaría” al Mac Studio con el M1 Ultra. A no ser que el precio y el rendimiento del Mac Pro sean exageradamente distintos, este equipo parece no tener demasiadas razones para entrar en escena. Ahora, claro, queda por ver qué acaba decidiendo Apple.

Por cierto, tenemos otra pregunta para el Sr. Cook. ¿Qué fue de los iMac Pro? ¿No tienen también estos equipos una renovación más que pendiente? Los iMac actuales son decentes, sí, pero la pantalla de 24 pulgadas se queda corta para según que escenarios. Un 27″ con un buen M2 Pro o un M2 Max parecen una propuesta lógica para este 2023.


La noticia Llevamos mucho esperando al nuevo Mac Pro. A estas alturas, quizás lo mejor sería matarlo fue publicada originalmente en Xataka por Javier Pastor .

28 January, 2023 Leer más →