Technology

Technology

Este barco alemán se abre como una bisagra (literalmente) en mitad del mar. Su objetivo: tragar chapapote

Este barco alemán se abre como una bisagra (literalmente) en mitad del mar. Su objetivo: tragar chapapote

Más que fascinación o incluso asombro, la sensación que evoca el buque Eversand en plena faena se parece al desasosiego. Lógico. Para limpiar de hidrocarburos las aguas del océano, la tarea que tiene encomendada, el navío no usa palas, ni redes, ni bolsas, ni tamices, ni nada que se le parezca remotamente. Lo que hace es abrirse a la mitad y “tragar” grandes cantidades de líquido. Tal cual.

Exactamente como si fuera una enorme bisagra.

Al igual que su hermano, el buque Bottsand (Y 1643), el Eversand (Y 1644) es una embarcación de recolección de hidrocarburos de la clase Bottsand (738) y presenta una peculiaridad llamativa: es plegable, lo que en la práctica significa que se abre hasta 65º. Visto a lo lejos la maniobra resulta llamativa, pero tiene su lógica.

Creado para cuidar los mares

El petróleo, aceite o cualquier otra sustancia contaminante que quiera retirar del océano acaba empujada hacia el ángulo central que forma el barco, donde se forma un área de recolección que supera los 40 metros cuadrados (m2). A medida que el buque avanza va absorbiendo la mezcla de agua y aceite, sustancia que luego se encarga de separar y bombear a los tanques que transporta a bordo.

En total los buques están equipados con media docena de depósitos que suman una capacidad total de 790 metros cúbicos. En cuestión de una hora de trabajo se calcula que un Bottsand puede limpiar y retirar alrededor de 140 m3 de agua contaminada por una superficie de aceite o petróleo de dos milímetros.

Los conocidos como Oil recovery ship Bottsand Clase tienen una eslora de 43 metros, con doble casco y 650 toneladas de desplazamiento. Si están plegados y avanzan como un navío convencional son capaces de alcanzar una velocidad de 10 nudos. Tanto el Eversand como Bottsand comparten otro rasgo: se fabricaron en los años 80. Ambos salieron del astillero C. Lühring, localizado en Brake.

Oelauffangschiff Bottsand Uebung 1

re

A pesar de que ya tienen unas cuantas décadas, los buques aún siguen dejando titulares. En 2021 el Bundeswehr —las fuerzas armadas de Alemania— anunciaba un cambio al frente del Bottsand, que pasó del Ministerio de Defensa al encargado del Transporte, trámite que llegó acompañado de un pequeño cambio en el aspecto externo: “El barco, que antes era gris marino, asumirá las tareas de protección contra desastres y agua con la pintura en blanco y negro de las autoridades federales con una tripulación diferente”, explicaba el organismo.

“Encargado en 1985, el barco se utiliza para combatir posibles derrames de petróleo en caso de naufragios en el Mar Báltico Occidental”, detallaba entonces la Bundeswehr, que recuerda que en origen el Bottsand tenía su base en Olpenitz, al norte de Kiel, desde donde se desplazó a Warnemünde en los años 90 por la proximidad del canal Kadet y para facilitar la cooperación con otros países.

En cuanto a la embarcación Eversand, Täglicher Hafenbericht (THB) y  EMS Maritime Offshore publicaban ese mismo año que a partir de la primavera de 2022 su gestión pasaría a depender de del Erms Maritime Offshore GmbH (EMO). Su punto de referencia —se avanzaba— se mantiene en la base naval de Kiel.

Imágenes: Yetdark (Flickr) y Bundeswehr/Tanja Wendt


La noticia Este barco alemán se abre como una bisagra (literalmente) en mitad del mar. Su objetivo: tragar chapapote fue publicada originalmente en Xataka por Carlos Prego .

29 January, 2023 Leer más →
Technology

Iberia sufre una caída en sus sistemas que ha provocado cancelaciones de vuelos y retrasos [Actualizado]

Iberia sufre una caída en sus sistemas que ha provocado cancelaciones de vuelos y retrasos [Actualizado]

Actualización (29/01/23): Iberia ha confirmado la Mañana del domingo, vía Twitter, que sus sistemas “han recuperado la conectividad”. “La facturación y el check-in online vuelven a funcionar normalmente”, apunta la compañía.

Iberia ha sufrido hoy fallos en sus sistemas de conectividad que han afectado de forma directa a su operativa, dejando vuelos cancelados y retrasos. El anuncio lo ha hecho la propia compañía esta mañana a través de las redes, en las que en un primer momento explicaba que debido a “una caída en sus sistemas” se había detenido el servicio de facturación y embarque en varios aeropuertos.

Horas después la aerolínea iba un poco más allá y confirmaba que la incidencia seguía afectando a su operativa. “Los vuelos de hoy están experimentando retrasos. Pedimos disculpas a nuestros clientes y les agradecemos su comprensión. Todos en Iberia estamos trabajando para solucionarlo lo antes posible”, señala la aerolínea en Twitter. De momento aún no ha notificado la resolución de los problemas.

Tanto las agencias EFE como Europa Press precisan que el fallo del sistema se focalizaría en Madrid, aunque sus consecuencias se han dejado sentir más allá del aeródromo Adolfo Suárez Barajas y ha marcado la operativa de otros aeródromos con vuelos previstos para hoy con origen o destino en Madrid.

Barajas es al fin y al cabo el principal aeródromo de la red de AENA, con 50,6 millones de pasajeros a lo largo del año pasado, muy por delante de El Prat, segundo con 41,6; o del tercero, el de Palma de Mallorca, con 28,6.

El incidente habría obligado a cancelar al menos media decena de vuelos con salida programada en Barajas y destino en diferentes terminales del país y el extranjero, en concreto Jerez, Vigo, Barcelona, Londres y Lisboa. La compañía confirmaba a EFE que trata de reubicar a los pasajeros afectados. Otra de sus consecuencias han sido retrasos que, al menos en ciertos casos, duraron al menos una hora.

Europa Press precisa que de las cinco cancelaciones confirmadas, tres se corresponden a vuelos que estaban inicialmente programados para la mañana y otros dos afectan a operaciones de la tarde. Para mitigar la situación, el embarque y facturación se habría realizado de forma manual con una plantilla reforzada. Iberia e Iberia Express tenían previsto realizar hoy más de 245 vuelos.

Imagen de portada: Iberia


La noticia Iberia sufre una caída en sus sistemas que ha provocado cancelaciones de vuelos y retrasos [Actualizado] fue publicada originalmente en Xataka por Carlos Prego .

29 January, 2023 Leer más →
Technology

La mejor universidad del mundo se rebela contra los rankings de mejores universidades

La mejor universidad del mundo se rebela contra los rankings de mejores universidades

Si a alguien le cuentan que una universidad se ha hartado del sistema de rankings que utilizan algunos medios e instituciones para evaluarlas, quizá podría sentirse tentado a pensar que se trata de una universidad a la que éstos no tratan muy bien. Sin embargo la Escuela de Medicina de Harvard acaba de decir no a uno de estos listados. Y no es la única universidad en plantarse.

El “no” se lo ha llevado el índice de las escuelas de medicina de U.S. News & World Report y el anuncio lo realizó la propia universidad a través de su página web. En él el decano de la facultad, George Daley, exponía el doble motivo que había llevado a la facultad a esta decisión.

El primer factor que se nombra es el de la metodología utilizada para crear este tipo de índices. Crear un índice que sirva para ordenar universidades y facultades no es tarea sencilla. Los criterios y la ponderación que se les otorgue dependen en buena medida de cierta subjetividad. Y esto implica que siempre estarán abiertos a la discusión.

“Sin embargo, mis inquietudes y las perspectivas que he atendido de otros son más filosóficas que metodológicas, y residen en la creencia de que los rankings no pueden reflejar fielmente las altas aspiraciones a la excelencia educativa, preparación de los graduados y cuidado compasivo y equitativo de los pacientes que luchamos por trasladar en nuestros programas de educación médica”, justifica Daley.

Al margen de problemas metodológicos y filosóficos, la universidad también menciona algunos más específicos relacionados con la aparición de incentivos perversos. Cita no solo casos en los que se reporta información falsa sino también la posibilidad de que las instituciones den prioridad a aquellas políticas que las hagan sumar puntos en lugar de aquellas que realmente repercutan sobre la calidad de la enseñanza.

La decisión implica que la facultad dejará de compartir la información requerida por la publicación para elaborar sus listas. No obstante también han señalado que la información pertinente se seguirá ofreciendo de manera pública en el portal de admisiones para que los potenciales alumnos del centro puedan decidir sobre su matriculación de manera informada.

Se abre el debate

U.S. News por su parte respondió al adiós de Harvard a través de un comunicado firmado por su CEO Eric Gertler. Gertler recalcaba que el objetivo de estos rankings es ayudar a los futuros estudiantes a tomar la mejor decisión en lo que respecta a su futuro académico.

En palabras de Gertler, “con las admisiones cada vez más competitivas y menos transparentes, y con matrículas cada vez más caras, creemos que los estudiantes merecen acceso a todos los datos e información necesaria para tomar la decisión acertada. Sabemos que comparar instituciones académicas diversas a través de una base de datos común es un reto, y es por eso que hemos expresado consistentemente que los rankings deben ser un componente en el proceso de toma de decisiones de un futuro estudiante.”

Puede dibujarse un debate por tanto entre la necesidad de transparencia y la excesiva simplificación que un ranking implica. Harvard explicó que, pese a retirarse del ranking seguirán ofreciendo la información relevante en su portal de admisiones, si bien este sistema no es equivalente a una “auditoría” externa como la que provén los rankings.

Es un golpe duro para este sistema pero no es el primero. La facultad de medicina sigue la senda de la facultad de Derecho y de otros muchos centros educativos, algunos de la llamada Ivy League, las universidades de abolengo en los Estados Unidos, como Yale y la propia Harvard. Otras universidades de renombre como Berkeley también se unieron a este boicot.

¿Es posible que este debate se traslade a España La crítica de este tipo de rankings no es, ni mucho menos, exclusiva de Estados Unidos. Tampoco es nueva.Las Universidades españolas no suelen salir bien paradas de los rankings internacionales como el de Shanghái (liderado en esta última edición por Harvard), pero a pocos se les ocurriría pensar que esto es mero reflejo de su mala calidad.

En este caso podemos señalar a la metodología del ranking como la responsable. Aunque estos índices sean utilizados por alumnos de medio mundo como referencia, lo cierto es que muy a menudo juzgan más a las universidades como centros de investigación en lugar de como centros docentes. Es decir, ponderan con más fuerza los méritos investigadores frente a los educativos.

Los índices de calidad pueden ser una herramienta útil, no en sí misma sino a partir de los datos que analizan. Quizá la moraleja que podamos extraer sea que, como de costumbre, la información importante está en la letra pequeña.

Imagen | jeanbaptisteparis


La noticia La mejor universidad del mundo se rebela contra los rankings de mejores universidades fue publicada originalmente en Xataka por Pablo Martínez-Juarez .

29 January, 2023 Leer más →
Technology

El último (y ambicioso) movimiento de Microsoft se centra en la energía solar. Y tiene todo el sentido

El último (y ambicioso) movimiento de Microsoft se centra en la energía solar. Y tiene todo el sentido

Microsoft mueve ficha en un mercado que poco tiene que ver a priori con el desarrollo de software o servicios en la nube.  La multinacional acaba de anunciar una “alianza estratégica” con el fabricante de paneles solares Qcells en EEUU para garantizarse el suministro de energías renovables, con las que se ha comprometido a operar al 100% ya en 2025. El pacto apunta más allá de una  simple operación de compra: avanza que Microsoft ayudará a Qcells a fijar una cadena de suministro.

La alianza entre Qcells y Microsoft prevé el abastecimiento de más de 2,5 gigavatios (GW) de paneles solares y servicios relacionados, lo que equivale —precisan ambas compañías— al suministro de más de 400.000 hogares.

“Qcells trabajará con Microsoft para desarrollar proyectos solares, así como proporcionar paneles y servicios de ingeniería, adquisición y construcción —EPC, por sus siglas en inglés— a proyectos seleccionados que Microsoft ha contratado a través de acuerdos de compra de energía (PPA)”, constatan las dos empresas a través de un comunicado conjunto lanzado este mismo viernes.

Un pacto con trasfondo

El acuerdo está en sintonía con los compromisos que ha ido adquiriendo Microsoft, que se ha marcado el objetivo de cubrir la totalidad de su consumo eléctrico con energías renovables ya en 2025 y alcanzar la meta del “carbono negativo” —eliminar más CO2 del que emite— en 2030. Según precisa,  con el acuerdo con Qcells espera “traer más energía renovable” a la red.

“Nos esforzamos por construir y ofrecer soluciones de energía limpia, incluidas las fábricas en EEUU. Esta asociación con Microsoft ayudará a lograr esta visión”, explica Justin Lee, directivo de Qcells: “Este primer paso es solo el comienzo de una gran asociación que no solo respalda a nuestras dos empresas, sino que ayuda a brindar un futuro de energía limpia para los clientes y las comunidades”.

“Construir una cadena de suministro de energía solar resiliente es esencial para avanzar en una economía global de energía verde. La asociación de Microsoft con Qcells ayudará a hacer eralidad esta visión al llevar la innovación e inversión a las zonas rurales de Georgia”, reivindica Brad Smith, presidente de Microsoft.

Qcells, propiedad de Hanwha Solutions, con sede en Seúl, ha anunciado ya sus planes para invertir más de 2.500 millones de dólares en la construcción de “una cadena de suministro solar completa” en EEUU, además de inaugurar a lo largo del primer trimestre de 2023 su nueva instalación en Georgia, en la que fabricará 3,3 GW en paneles solares, obleas y células. En total espera alcanzar una capacidad total de producción con paneles de 8,4 GW en el estado para 2024.

Más allá del cruce de declaraciones o incluso la potencia que contempla el acuerdo, el movimiento es interesante por varios motivos. Uno de ellos —en el que inciden  ambas firmas— es que deja un hito en el suministro de renovables. “Es la primera vez que una empresa que adquiere energía trabaja de manera directa con un proveedor de energía solar para adoptar energía limpia a gran escala”, zanjan.

Otra de las grandes claves es el movimiento que representa para el propia multinacional de Satya Nadella. Por las cifras. Y por el fondo. Su adquisición acumulada de energías renovables hasta la fecha —precisa Axios— ronda los 13,5 GW y el acuerdo con Qcells equivaldrá a cerca de la mitad de los GW renovables que la multinacional adquirió de todas sus fuentes a nivel global el año pasado.

“Comenzamos a pensar que realmente tiene sentido para nosotros ir más allá y trabajar más de cerca y en colaboración con los proveedores de paneles solares… porque nos ayuda a tener cierto control y certeza y hace lo mismo para nuestros proveedores también”, explica Axios Brian Janous, directivo de Microsoft.

Según las cifras de Solar Energy Industries Association (SEIA), la multinacional es uno de los grandes usuarios corporativos de la energía solar en los Estados Unidos, junto a otras grandes tecnológicas, como Meta, Amazon o Apple.

Otra clave del contexto es el deseo de EEUU de reducir su dependencia de China e impulsar la industria solar estadounidense, incluida la fabricación nacional “made in USA”, uno de los objetivos de la Ley de Reducción de la Inflación.

Imagen de portada: American Public Power Association (Unsplash)


La noticia El último (y ambicioso) movimiento de Microsoft se centra en la energía solar. Y tiene todo el sentido fue publicada originalmente en Xataka por Carlos Prego .

29 January, 2023 Leer más →
Technology

Las mejores ofertas en pistolas de masaje: tecnología para que tus músculos se recuperen en tiempo récord tras el entrenamiento

Las mejores ofertas en pistolas de masaje: tecnología para que tus músculos se recuperen en tiempo récord tras el entrenamiento

No es un secreto que el ritmo de la vida actual conlleva a mucho estrés, con las consiguientes tensiones musculares y contracturas. También sufren los deportistas, que sin un buen trabajo de estiramiento pueden llegar las lesiones. Las pistolas musculares llegaron para aliviar ese problema.

Estos dispositivos se han puesto muy de moda por tener un precio bastante económico y son más accesibles por tenerlos directamente en casa, además ser efectivas a través de su terapia percutiva. Hemos hecho una selección con las mejores opciones del mercado.

Pistola muscular Renpho

Pistola muscular Renpho

Es una de las opciones más económicas para los usuarios que no se quieren gastar mucho dinero en este sentido. Su precio en Amazon es de 89,99 euros con un cupón promocional de 20 euros. Esta pistola cuenta con una pantalla LCD para configurar la intensidad del motor, contando con hasta 6 velocidades y un máximo de 2.600 percusiones por minuto.

Viene con otros seis cabezales que sirven para diferentes zonas del cuerpo, teniendo una batería de 2.500 mAh. Se puede conectar con Bluetooth al móvil a través de su app Renpho Health.

Pistola de masaje muscular, Renpho Actualizar Bluetooth Power Masajeador de Eléctrica con aplicación, LCD táctil Masajeador de mano potente y silencioso tejido profundo para hombros, espalda y piernas

Theragun Pro

Theragun Pro

Therabody es otra de las marcas especializadas en estos dispositivos inteligentes. Este Theragun Pro tiene un formato diferencial, con una estructura en forma de triángulo que lo hace más cómodo a la mano. Es un modelo mucho más caro, que se justifica con una pantalla OLED para configurar su motor capaz de aplicar más de 27 kg de fuerza.

Incluye la tecnología QuietForce para tener un rendimiento de alta intensidad pero silencioso, además de establecer rutinas con la app de Therabody. Cuenta con dos baterías intercambiables de 150 minutos cada una, que también se cargan de forma inalámbrica. Tiene un precio de 449 euros en El Corte Inglés.

Theragun PRO | (Product) RED | Pistola de Masaje Muscular | 6 Cabezales | Velocidad Personalizable | Pantalla OLED | Brazo giratorio | Masajeador de espalda, piernas & pies

Xiaomi Massage Gun

Xiaomi Massage Gun

La firma china, tan multidisciplinar como siempre, tiene esta pistola de masaje con un buen precio y soporte Bluetooth para móviles. De esta manera, se puede configurar desde la app, ya que no incorpora una pantalla, aunque sí luces LED. Alcanza tres velocidades con una potencia comprendida 1.800 y 3.200 revoluciones por minuto.

Incluye tres cabezales con diferentes tamaños, además de una batería de litio de 2600 mAh que promete hasta 6 horas de uso. Tiene un precio rebajado en Amazon de 125 euros.

Xiaomi Massage Gun, Pistola de Masaje Muscular, Masajeador Muscular eléctrico de Tejido Profundo, Masajeadores eléctricos de Mano, Negro

Hyperice Hypervolt

Hyperice Hypervolt

Hyperice es otra marca muy enfocada al lanzamiento de estos productos, con modelos también muy premium como este Hypervolt. Cuenta con tres niveles de intensidad que alcanzan las 3.200 percusiones por minuto, además de incluir Bluetooth para configurarla con la app móvil.

Con su tecnología QuietGlide, puede trabajar de forma silenciosa, con una autonomía que llega a las dos horas. En MediaMarkt tiene un precio de 276 euros.

HYPERICE Hypervolt-Dispositivo de Masaje de percusión (Bluetooth, 3 Niveles de Velocidad, 5 Cabezales Intercambiables), Unisex Adulto, Plata, 11 x 14.2 x 3.5

Hypervolt 2

Hyperice Hypervolt 2

Si prefieres una versión más actualizada, está la segunda generación del modelo anterior por un poco más de precio. Tiene un diseño mejorado e integra la función HypeSmart para encontrar planes de entrenamiento a través de la app para móviles.

Cuenta con tres velocidades, motor de 60W y un sensor de presión patentado. Su batería promete una duración de tres horas. En Amazon cuenta con un precio de 299 euros.

Hypervolt 2 – Pistola de masaje de percusión de mano con tecnología Quiet Glide, 3 velocidades y 5 cabezales intercambiables. Te ayudará a aliviar el dolor muscular y la rigidez.

Más ofertas

Si te haces de Amazon Prime, dispones de 30 días de prueba gratis (después 49,90 euros al año) para disfrutar de envíos rápidos gratis, accesorio prioritario a ofertas, servicios como Prueba primero, paga después, Prime Video, Prime Music, almacenamiento de fotos ilimitado o crear una lista de deseos en Amazon Bodas. Además, si eres estudiante, hacerte de Prime Student cuesta la mitad y dispones de 90 días de prueba.
También puedes probar gratis durante 30 días servicios como Kindle Unlimited o Audible.

Puedes estar al día y en cada momento informado de las principales ofertas y novedades de Xataka Selección en nuestro canal de Telegram o en nuestros perfiles de Twitter, Facebook y la revista Flipboard.

Algunos de los enlaces de este artículo son afiliados y pueden reportar un beneficio a Xataka.


La noticia Las mejores ofertas en pistolas de masaje: tecnología para que tus músculos se recuperen en tiempo récord tras el entrenamiento fue publicada originalmente en Xataka por Christian Ruiz .

29 January, 2023 Leer más →
Technology

Llevamos medio siglo tratando de descubrir quién creó una pintura renacentista. Una IA acaba de resolverlo al 97%

Llevamos medio siglo tratando de descubrir quién creó una pintura renacentista. Una IA acaba de resolverlo al 97%

Durante más de 40 años investigadores y eruditos de la historia del arte han contemplado el de Brécy Tondo, una pintura circular de 95 cm de diámetro que pertenece al Brécy Trust, con algo más que admiración, emoción o puro deleite pictórico. Lo han observado con curiosidad. Una curiosidad acuciante y concreta que se sustancia en una pregunta relativamente sencilla: ¿Quién es su autor? ¿Lo pintó Rafael, como creía de forma empecinada el coleccionista George Lester Winward cuando compró la pieza, a principios de la década de 1980?

Pregunta fácil de formular, claro. Contestarla ya es otro cantar. La cuestión lleva décadas botando sin que nadie haya podido dar una respuesta convincente. Hasta ahora. Gracias al apoyo de la inteligencia artificial un grupo de investigadores afirman haber dado de una vez por todas con una respuesta rotunda.

Para entender el resultado hace falta conocer antes la pintura. Y el porqué de la teoría de Rafael. En diciembre de 1981 George Lester Winward, un empresario del condado británico de Cheshire, decidió comprar la pieza y sumarla a su ambiciosa colección de arte. No lo hizo por un flechazo con la pintura y su representación de la virgen María con el niño Jesús en brazos. O no solo por eso, al menos.

Ver más allá de lo que alcanza el ojo

Raphael Tondo Sistine Madonna Xb5d3f5c5

El tondo (izquierda) y un detalle de La Madonna Sixtina de Rafael (derecha).

Como explican en Smithsonian Magazine, sospechaba que el tondo lo había pintado ni más ni menos que el genio renacentista Rafael Sanzio. Y lo creía por una razón muy sencilla: los rostros de la María y el niño Jesús allí representados eran idénticos a los de la famosa Madonna Sixtina, una obra maestra de Rafael.

El problema es que no todos compartían la confianza de Winward en aquella teoría. Otros pensaban que el tondo era sencillamente una copia victoriana de La Madonna Sixtina, una pintura que Rafael realizó durante la segunda década del XVI por encargo del papa Julio II para la iglesia de San Sisto, en Piacenza.

Para proteger su legado tras su muerte y garantizar que se siguiese ahondando en los secretos de su colección, incluida claro está el tondo de la discordia, Winward creó en 1995 la de Brécy Trust Collection. Uno de sus objetivos era precisamente que las piezas siguiesen a disposición de los estudiosos del arte… estudiosos que han ido mejorando su arsenal de recursos con el paso del tiempo.

Un primer paso importante se dio en 2004, cuando gracias a un análisis espectroscópico Raman el profesor Howell Edwards, de la Universidad de Bradford, encontró pigmentos que solían utilizar los artistas anteriores al siglo XVII. Es más, identificó un pegamento a base de almidón derivado de vegetales que apuntaba a un período histórico mucho más concreto: el Renacimiento.

Aquel hallazgo —reconoce Edwards— contribuyó a “disipar la idea de que se trataba de una copia victoriana”, pero quedaba pendiente la prueba definitiva que asociara el tondo con Rafael. Si es que lo había pintado él, por supuesto.

A lo largo de los años diferentes especialistas en la obra de Rafael han llegado a conclusiones tras examinar el Tondo que refuerzan la teoría inglesa. Por ejemplo,  se ha apuntado que se pintó en Roma. Uno de ellos, Murdoch Lotian, incluso fue más allá y planteó que podría ser previo a La Madonna Sixtina, a la que tal vez sirvió de modelo. El dictamen definitivo para muchos ha llegado ahora, sin embargo. Y no de la mano de eruditos, sino de una inteligencia artificial.

Expertos de las universidades de Bradford y Nottingham han comparado el enigmático tondo con la pintura de La Madonna Sixtina mediante una herramienta de reconocimiento facial que emplea IA. El objetivo era encontrar similitudes entre los rostros de María y Jesús en ambas pinturas y su conclusión ha sido rotunda: en el caso de las madonnas el parecido detectado por la IA alcanzaba el 97% y en el del niño el 86%. Ambos porcentajes superan con creces el 75% que los expertos toman como referencia para hablar de un nivel de similitud idéntica.

“El estudio forense de comparación facial que hemos llevado a cabo ha confirmado que los rostros de la Madonna y el Niño de Brécy y los de la Madonna Sixtina son idénticos. Mirar las caras con el ojo humano muestra una similitud ovia, pero el ordenador puede ver mucho más profundamente que nosotros, a nivel de pixel”, explica el profesor Hassan Ugail, de la Universidad de Bradford.

Con ese dato y los estudios previos, Ugail y sus colegas son tajantes: “Se usaron modelos idénticos para ambas pinturas y, sin duda, son del mismo artista”.

Para pulir la herramienta, Ugail recurrió a millones de rostros que le permitieron entrenar un algoritmo que se encarga de reconocer y comparar rasgos faciales en miles de dimensiones. El sistema utiliza una red neuronal profunda (DNN) para pasar datos a través de múltiples filtros, lo que le permite identificar patrones con una precisión que supera con creces a la que alcanzamos los humanos.

“La tecnología se puede aplicar en una variedad de propósitos, incluido el análisis de arte e incluso la atención médica”, destaca el experto de Bradford.

Por lo pronto la herramienta ya ha logrado cerrar —al menos para los autores del estudio— un debate artístico que llevaba décadas enfrentando a los eruditos.

Imágenes: Universidad de Bradford y Universidad de Nottingham


La noticia Llevamos medio siglo tratando de descubrir quién creó una pintura renacentista. Una IA acaba de resolverlo al 97% fue publicada originalmente en Xataka por Carlos Prego .

29 January, 2023 Leer más →
Technology

Musk cambió el timeline de Twitter para hacerlo algorítmico. Ha roto mi experiencia de una década

Musk cambió el timeline de Twitter para hacerlo algorítmico. Ha roto mi experiencia de una década

#10YearsChallenge en Twitter:

  • 2013: tuits cronológicos de la gente que sigues.
  • 2023: unos pocos tuits de la gente que sigues seleccionados de forma no-cronológica, sino algorítmica, y un montón de contenido de cuentas que no sigues, la mayoría hilos o tuits con imágenes o vídeos; pensados para capturar tu atención durante horas, un paso en la misma dirección que siguen Instagram o TikTok.

Las gracias, a Elon Musk. Pero tampoco es algo que se le pueda reprochar. Es el mercado, amigo.

Más impresiones, por favor

Los contenidos cronológicos de la gente que seguimos nos fidelizan a nuestra propia red, a la comunidad que hemos construido en ella. Los contenidos algorítmicos nos fidelizan a la plataforma, que es la que sabe sugerirnos aquello que nos gusta, que nos vicia.

No somos lo que publicamos, sino lo que dice nuestro historial. No priorizamos lo que contamos, sino lo que revela nuestro listado de búsquedas recientes. Y a eso se acogen las redes que tiran de algoritmos. Twitter  se ha subido a este carro de forma muy notable desde unas pocas semanas después de la llegada de Musk.

Hasta entonces, apenas había una cronología que tiraba de algoritmo para rescatar ciertos tuits con buen engagement pero de hace unas horas. Desde hace un par de meses, multitud de tuits de desconocidos llenan la pantalla, tirando de los temas que la plataforma ha detectado que nos interesan. Justo lo que Musk criticaba.

Habitualmente, tuits que son el principio de un hilo, o tuits con imágenes o vídeos. Ya saben, engagement.

Eso me ha servido para descubrir varias cuentas interesantes que de otra forma quizás no habría descubierto o habría tardado en hacerlo, pero también ha hecho más compleja la experiencia de usar Twitter. Para quien no lo utiliza únicamente como red social en la que estar al tanto de amigos y conocidos, sino con el propósito de mantenerse informado, el desafío es mayor.

Twitter tenía ruido, pero era simple. Ahora tiene más ruido y ni siquiera es simple.

Antes no existía esa capa de complejidad. Entrar, leer, cerrar. Ahora hay que ir procesando: esto es una propuesta de Twitter, a este señor no le he visto en mi vida, esto me sale porque me interesa el running y esto que queda sepultado entre hilos es justo lo que venía a buscar. Donde había ruido, pero simplicidad, ahora hay más ruido y complejidad.

Cuando se te iba de las manos el número de follows y se acumulaba demasiada información en poco tiempo, solo había que sacar la podadora a pasear. Ahora esto simplemente ya no es una opción, porque Twitter se encargará de llenar tu timeline de contenido de personas que no sigues.

Porque en Twitter ahora hay alguien preocupado de verdad por hacer la empresa rentable, más allá de las formas y los plazos, y para ello necesita multiplicar las impresiones de tuits, disparar los contenidos que incluyan vídeos en los que meter anuncios y conseguir que la gente que no está demasiado enganchada pase largas sesiones sin salir de Twitter, algo que hasta ahora no había conseguido esta red al nivel que lo logran TikTok o Instagram.

Con más vídeo y menos contenido de nuestros seguidos para priorizar el descubrimiento de terceros, Twitter pierde una parte de su esencia. Tendrá motivos para hacerlo, pero la experiencia se ha erosionado.

Twitter siempre ha sido una red diferente, con personalidad, y ahora es más similar a las demás.

El contenido algorítmico pensado para engancharnos es lo que ha marcado el avance de la economía de la atención. Cualquier plataforma social y de contenidos aspira a convertirse en un agujero negro para nuestra atención, un sitio en el que ya no perder tiempo, sino derrocharlo. Twitter escapó a muchas de esas reglas hasta ahora.

Hubo quienes vieron la llegada de Musk como una afrenta y anunciaron su marcha como acto de rebeldía. No fui yo. Me quedaré hasta que enciendan las luces y una escoba sea pasada bajo mis pies, pero el timeline algorítmico a un nivel inédito hasta ahora hace el espectáculo mucho menos agradable.

Mientras tanto, uno va encontrando en Mastodon un rincón agradable lejos de los algoritmos en el que volver a crear una comunidad.

Imagen destacada: Visuals en Unsplash, edición propia.


La noticia Musk cambió el timeline de Twitter para hacerlo algorítmico. Ha roto mi experiencia de una década fue publicada originalmente en Xataka por Javier Lacort .

29 January, 2023 Leer más →
Technology

Cómo entrenar a una IA con tu cara para crear avatares gratis con Stable Diffusion

Cómo entrenar a una IA con tu cara para crear avatares gratis con Stable Diffusion

Vamos a explicarte cómo entrenar a una IA con tu cara para generar tus propios avatares e imágenes personalizadas. Concretamente, lo que haremos es entrenar a Stable Diffusion por nuestra cuenta para que nos conozca, y luego utilizar esta popular IA para generar imágenes con nuestra cara.

El conseguir resultados como los avatares de Lensa dependerá de la paciencia que le dediquemos luego a explorar los comandos escritos que podemos pedirle a la IA para generar los avatares. Sin embargo, el primer paso es el que te diremos de una manera detallada, y luego ya todo dependerá de ti y de tu pericia.


Realmente, este proceso es más sencillo de lo que parece, aunque puede tardar horas en hacer el aprendizaje, ya que se basa en cuadernos de entrenamiento creados por personas para que tú solo tengas que cambiar algunos parámetros. Pero claro, la primera vez que entramos en uno de ellos puede que nos intimide ver tanta cosa extraña, por lo que vamos a intentar explicarte el proceso de una manera que puedas entender.

Vamos a empezar explicándote un poco los conceptos básicos de lo que vamos a hacer, de forma que entiendas por qué hay varios procedimientos para hacer lo mismo. Y luego, pasaremos a decirte todo el proceso en varios pasos, desde la selección de las fotos a utilizar hasta el entrenamiento de la IA y luego su utilización.

Algunas cosas antes de empezar

Antes de empezar com el proceso, debes saber que hay varias maneras de hacer esto, tanto el entrenamiento de modelo de IA para aprender a usar tu cara hasta luego su utilización dentro de Stable Diffusion. Nosotros, vamos a utilizar los modelos del proyecto Fast Stable Diffusion, tanto para el entrenamiento como para montar luego Stable Diffusion, puesto que es uno de los métodos más sencillos y recomendados por expertos en materia de IA.

Para democratizar estos procesos, los desarrolladores y expertos en Inteligencia Artificial crean los denominados cuadernos en la plataforma Google Colab. Se trata de una plataforma que te permite programar y ejecutar código Python, y compartir tus creaciones con otros usuarios. Con estos cuadernos podrás usar una GPU virtual para los procesos que es limitada cada día, pero que es suficiente para entrenar tu modelo de IA y usarlo durante una o dos horas.

Entonces, lo que vamos a hacer hoy es utilizar dos de estos cuadernos para entrenar la IA y usar el resultado en Stable Diffusion. Para ambos pasos, tienes varios tipos de cuadernos con pasos diferentes y formas diferentes de proceder, pero yo te voy a proponer el que yo he utilizado personalmente. Luego, una vez domines estos pasos iniciales ya podrás aventurarte a buscar otros cuadernos con otros procedimientos.

Para entrenar a la IA primero vas a necesitar tener preparada una serie de fotografías de tu cara, ya te lo especificaremos en el primer paso. Además, estos cuadernos se van a ejecutar utilizando memoria de tu Google Drive, por lo que también necesitarás tener al menos 4 GB libres de almacenamiento en la nube de Google.

Lo que vamos a hacer nosotros es entrenar a la IA con nuestras fotos utilizando el modelo de generación de aprendizaje Dreambooth a través de un cuaderno. El resultado será un archivo donde podríamos decir que está “lo aprendido”. Y luego, usaremos el cuaderno de AUTOMATIC1111 para instalar Stable Diffusion en Google Drive, moveremos el archivo de aprendizaje de la carpeta donde se ha creado a la de SD, y luego ejecutaremos la interfaz web para empezar a generar las imágenes.

Estas herramientas que vamos a utilizar tienen múltiples opciones para entrenar tus modelos de distintas maneras y usar diferentes versiones de Dreambooth. Nosotros no vamos a centrar en el proceso más básico y sencillo, que sea un punto desde el que dar los primeros pasos.

Primero, tienes que elegir tus fotos

Dataset

Lo primero que tienes que hacer es elegir las fotografías que vas a querer usar para entrenar a la IA con tu cara. Esto es lo que se denomina el dataset, la colección de datos que vamos a utilizar para alimentar a los algoritmos de la inteligencia artificial para que aprenda las características de nuestra cara y sea capaz de definirlas.

Lo ideal es que crees una carpeta para esto en tu ordenador y guardes en ella unas 30 fotos tuyas. Yo he usado algunas menos, pero lo recomendado para entrenar la IA son 30 fotos, o sea que con ellas tendrás unos mejores resultados.Deben ser fotografías en los que solo aparezcas tú, no debería aparecer ninguna otra persona ni animal junto a ti.

Sobre qué tipo de fotos debes utilizar, lo más importante es que la mayoría de ellas sean de tu cara, primeros planos o fotos que se te vea básicamente solo la cabeza. Para entrenar mejor a la IA, también puedes incluir algunas fotografías de medio cuerpo, y quizá incluso también alguna de cuerpo entero. Pero lo principal es que la mayoría sean de tu cara.

Por último, para optimizar el entrenamiento es recomendable recortar las fotos para que todas sean cuadradas, preferiblemente en un tamaño de 768×768. En el caso de que tuvieras alguna fotografía que aparezca una segunda cara junto a ti, puedes intentar borrarla tapándola con color blanco aprovechando la edición. Además, esas pocas de cuerpo entero, si son fotos verticales, puedes editarlas cuadradas añadiendo blanco a los lados.

En cualquier caso, presta cuidado a la hora de crear tu dataset de fotos propias para entrenar a la IA. Y recuerda guardar esta colección en una carpeta aparte, ya que siempre vas a poder volver a recurrir a ellas para entrenar otra vez la IA desde cero usando las mismas fotos.

También debes ponerles a todas las fotos un mismo nombre, con un número entre paréntesis para diferenciarlas. El nombre que debes ponerlas es ese nombre que quieras luego usar en los comandos o input de la inteligencia artificial para referirte a ti. Si le llamo a mis fotos yubal, luego tendré que decirle a la IA que haga fotos de yubal de determinada manera.

Empieza con el cuaderno de entrenamiento

Inicia Sesion

Ahora, tienes que entrar en la página de Google Colab de Fast DreamBooth, donde está el cuaderno de entrenamiento automatic1111 que vamos a utilizar. En esta página, arriba del todo tienes un bloque from google.colab import drive
drive.mount('/content/gdrive')
, y cuando pases el ratón sobre él tendrás un icono de reproducción sobre el que tienes que pulsar para lanzarlo.

Al hacerlo te aparecerá una advertencia, y al aceptarla procederás a vincular el cuaderno con tu cuenta de Google Drive. Tienes que iniciar sesión y aceptar el procedimiento dándole todos los permisos para conectarse a tu Google Drive. Cuando termine, deberá aparecerte el texto Mounted at /content/gdrive debajo indicándote que se ha montado este modelo en tu cuenta de Google Drive.

Dependencias

A continuación, tienes que hacer lo mismo y ejecutar el elemento de Dependencies que te aparecerá en segundo lugar. Esto va a instalar las dependencias necesarias en tu cuenta de Google Drive. Este proceso solo durará unos pocos segundos.

Model Download

Ahora toca pasar al bloque de Model Download, que es uno de los pasos más importantes. Aquí, lo que tienes que hacer es desplegar las pestañas de Model_Version y Custom_Model_Version, y en ambos casos eligiendo la v2.1-768px.

Como ves, puedes elegir entre 768px y 512px, pero si has editado las fotos de tu dataset a 768×768 píxeles, debes usar la 768px. Cabe la posibilidad de usar fotos a 512×512, pero la recomendada es la de 768px para tener mejores resultados. Espera unos segundos hasta que aparezca Done! abajo en verde, indicándote que se ha cargado este bloque.

Dreambooth

Ahora vamos al bloque de Dreambooth, que está dividido en varias celdas ejecutables, siendo la primera la Create/Load a Session. Tienevarias cosas que puedes rellenar, de las cuales no todas son importantes. Realmente, solo es suficiente con rellenar Model_Version, pero aunque los dos elementos anteriores no son necesarios para el procedimiento sencillo, vamos a explicártelos igualmente.

  • Session_Name: Puedes crear una sesión poniéndole un nombre. De esta manera, si no te gusta cómo se ha entrenado una IA, puedes añadir más pasos a la sesión en vez de empezar desde cero. Pero la primera vez que uses esto no hace falta poner nada ni rellenarlo. Esto es solo si trabajas con varias sesiones.
  • Session_Link_optional: En el caso de que no uses Google Drive sino que hayas creado una IA en otra cuenta, puedes añadir su enlace aquí. Pero ahora, no hace falta poner nada.
  • Model_Version: De nuevo tienes que indicar el nombre de la sesión. Tiene que ser el mismo que hemos usado en el paso anterior.
Dreambooth Prueba

Cuando termines con todo, ejecuta la celda Create/Load a Session con el botón de reproducción que hay a la izquierda del titular del cuadro. Si has dejado los dos primeros libres, te pedirá escribir un nombre de sesión en un texto en rojo, y puedes escribir el que quieras, como prueba. Generará una sesión, y cuando termine sigue con el paso siguiente.

Instance Images

Ahora, vamos con la celda de Instance Images. Estas son las diferentes cosas que debes anotar o cambiar antes de ejecutar el elemento, te las explicamos una a una. Y cuando lo tengas, puedes ejecutar la celda.

  • Remove_existing_instance_images: Elimina las fotos que estuvieras usando en otras sesiones. Si es la primera vez que haces esto, déjalo como está.
  • IMAGES_FOLDER_OPTIONAL: Si quieres, te meterá tus fotos en una carpeta que le digas que cree. No hace falta poner nada:
  • Smart_Crop_images: En el caso de que no recortaras las imágenes ni les cambiaras el tamaño como te hemos dicho antes, con este campo puedes pedir que se haga automáticamente. Sin embargo, lo recomendado es hacerlo tú a mano para asegurarte de que queden bien recortadas.
  • Crop_size: En el caso de que vayas a recortarlas o cambiarles el tamaño, aquí puedes elegir cuál utilizar. Pero en este caso, habiendo hecho el trabajo antes no hace falta que las pongamos a 768 con este método.
Archivos

Cuando ejecutes esta celda, abajo del todo te aparecerá la opción de seleccionar archivos abriendo un explorador de archivos. Con ella, tienes que elegir y añadir las fotos que hemos preparado al principio de todo. El proceso de subida tardará unos minutos, y dependerá de tu conexión a Internet.

En los siguientes dos puntos, Captions solo lo tienes que ejecutar tal y como está, y el siguiente te lo puedes saltar porque es opcional para usuarios avanzados. Puedes pasar directamente al apartado Training.

Previa

El apartado Training es lo más importante, y significa que vamos a empezar a entrenar a nuestra IA con las imágenes que hemos subido. La mayoría de campos es mejor dejarlos como están, pero te diremos algunas cosas que conviene que cambies dependiendo de lo que vayas a hacer.

  • Resume_Training: En el caso de que hayas entrenado ya a la IA y no estés satisfecho con el resultado, puedes marcar esto para seguir entrenándola durante unos cuantos pasos más tras cargar la sesión. Solo márcalo si ya la has entrenado una vez y quieres añadir pasos adicionales.
  • UNet_Training_Steps y UNet_Learning_Rate: Son los pasos y el tipo de entrenamiento de la IA. El creador establece 650 pasos por cada 10 imágenes cuando usas el modelo 1e- que aparece por defecto, y que no deberías modificar si no sabes nada. Simplemente, adapta la cantidad a tu número de imágenes.
  • Resolution: Cambia la resolución a la que estamos usando de 768.
  • Save_Checkpoint_Every_n_Steps: Esto es opcional, para que se vayan guardando los cambios a cada determinados pasos por si hay algún fallo.
  • Disconnect_after_training: Si quieres desconectarlo todo después de entrenar. Si no quieres hacer más cambios después del entrenamiento, puedes marcarlo
Entrenando

Una vez tengas todo hecho, pulsa en el botón de ejecutar de Start DreamBooth. Este proceso te puede durar bastante tiempo, incluso varias horas.

Turno para el cuaderno de Stable Diffusion

Tres Primeros

Una vez hayamos hecho el entrenamiento, es turno de empezar a utilizar los resultados y generar los avatares. Para eso, vamos a utilizar el cuaderno de Stable Diffusion 2.1 del proyecto AUTOMATIC1111, que es una interfaz web para usar Stable Diffusion. En él, ve ejecutando las primeras celdas para vincular la misma cuenta de Drive que hayas usado antes. Tras ejecutar ese primer elemento, ejecuta también Install/Update AUTOMATIC1111 repo y Requirements.

Model Download De Stable

A continuación, en Model Download/Load tienes que elegir la opción v2.1-768, ya que es la misma que hemos utilizado en el punto anterior. Tras hacerlo, deja lo demás como está y ejecuta la celda.

Start Stable

Ahora, llegarás al último paso llamado Start stable-diffusion, que sirve para lanzar Stable Diffusion. En él, en Model_Version vuelve a elegir la opción v2.1-768 o las que hayas usado, deja todo lo demás como está, y ejecuta también esta celda para ejecutar Stable Diffusion.

Conectar

Cuando termine, abajo del todo de la última celda verás el mensaje Running on public URL: seguido de una dirección. Tienes que pulsar en esa URL para entrar en Stable Diffusion ejecutado desde tu Drive.

Mueve el modelo entrenado a la carpeta de Stable Diffusion

Sesion Drive

Antes de empezar a usar Stable Diffusion, tienes que ir a la página de Google Drive e iniciar sesión con la cuenta que hayas estado utilizando. Una vez dentro ve a la carpeta Fast-Dreambooth, y entra a Sessions, entrando después a la carpeta con el nombre de la sesión que has creado antes.

Mover

Aquí dentro tendrás un archivo .ckpt, que es donde se ha guardado el modelo de IA entrenado. Lo que tienes que hacer es clic derecho sobre él, y elegir la opción de Mover a. Ahora, tendrás que ir a la raíz de tu Drive, y entrar en sd > stable-diffusion-webui > models > Stable-diffusion y pulsa en Mover aquí. Cuando guardes aquí el archivo .ckpt, estarás guardando tu modelo entrenado en la aplicación creada dentro de Google Drive de Stable Diffusion.

Ahora genera tu avatar

Carga Modelo

Ahora ya puedes ir a la pestaña donde hayas ejecutado Stable Diffusion en su interfaz web, y arriba del todo abre la pestaña Stable Diffusion checkpoint arriba a la izquierda para seleccionar el modelo que acabamos de mover en el paso anterior. Si no aparece porque lo habías abierto antes de mover la carpeta, pulsa en el botón azul de actualizar para que aparezca. Cargar el modelo puede tardar unos cuantos minutos, ten paciencia.

Ahora, simplemente ve a la pestaña txt2img, que es la de generar una imagen a través de texto. En ella, tienes que escribir el Prompt o comando para generar la imagen. Esta es la parte que más tiempo te va a costar afinar, y donde vas a tener que practicar a partir de ahora.

Realmente, la parte complicada empieza ahora. Lo único que tienes que tener en cuenta es que para que utilice tu cara, debes mencionar el nombre que hubieras puesto en tus fotos. Por ejemplo, para una retrato mío solo tengo que poner portrait of yubal. Y solo con eso ya generará algo.

Y a partir de aquí ya depende todo de ti. La verdadera aventura comienza ahora, porque encontrar un prompt que genere una imagen tal y como tú la quieres puede ser complicado. Puedes empezar explorando, y poco a poco ir añadiendo más detalles a tu petición. También puedes buscar los prompts para Stable Diffusion en Internet, aunque los buenos suelen incluso ser de pago.

Esto ves así porque la parte más complicada de crear imágenes a través de IA es el comando de petición o prompt que le envías a la IA. Aplicaciones como Lensa se diferencian de todas las demás por los prompts que usan, y este es el auténtico tesoro a la hora de generar imágenes.

Aquí solo recordarte que los comandos los puedes poner también en español. En mi caso, después de copiar y pegar algunos prompts de Internet empecé a buscar combinaciones por mi cuenta. Empecé con “retrato de yubal”, luego pasé a “retrato de yubal, pintado por van gogh”, y así poco a poco fui añadiéndole elementos separándonos por una coma.

Prompts

Además del campo de Prompt, también tienes uno de Negative Prompts por si quieres añadir defectos a la imagen, ya sea arrugas, roturas, lo que quieras.

Configuracion

Además de el prompt, verás que debajo tienes otros elementos con los que puedes configurar la imagen. Aquí lo que elijas determinará también el resultado, pudiendo determinar el método de sampleo, que le da diferentes estilos al dibujo. Lo único importante de cambiar es width y height, la anchura y altura de la imagen, que deben ser de 768 por haber entrenado a la IA con estos tamaño.

Rembrandt

Lo demás, lo mejor es que vayas explorando. Otra cosa importante es el campo Sampling steps, que son los pasos que da la IA para crear la imagen. Cuantos más pasos, más detalles y precisión tendrá la imagen, aunque un poco menos de creatividad. Lo recomendable es tenerlo a 50, pero puedes ir cambiándolo de vez en cuando para explorar resultados. Cada vez que generes una imagen será diferente, incluso si repites la misma configuración y prompt.

Para terminar, cabe la posibilidad de que a veces algunos de estos cuadernos den fallos temporales, ya que el código del que están compuestos tiene muchas variantes y son proyectos colaborativos en los que alguien toca una cosa en un sitio y todo lo demás puede fallar. Si te encuentras con que el cuaderno para entrenar a la IA no funciona o que el generador de imágenes de Stable Diffusion hace cosas raras, lo normal es que el problema se solucione en pocas horas.


La noticia Cómo entrenar a una IA con tu cara para crear avatares gratis con Stable Diffusion fue publicada originalmente en Xataka por Yúbal Fernández .

29 January, 2023 Leer más →
Technology

Si quieres un móvil bueno y barato, la gama media de 2022 tiene grandes alegrías para ti

Si quieres un móvil bueno y barato, la gama media de 2022 tiene grandes alegrías para ti

2022 fue un año catastrófico para las ventas de teléfonos y, si siguen subiendo los precios al mismo ritmo, todo apunta a que (al menos, en España) no habrá un repunte notable. El pasado curso escribía una pieza titulada “Quise comprar un gama media de 2022, acabé con un modelo de 2021 que lo superaba en todo“.

Era abril de 2022, y el panorama era desolador. Móviles bastante ajustados en especificaciones, a un precio medio de 300 o 400 euros. Si queríamos algo realmente decente, el ticket final subía casi hasta los 500 euros. No ha llegado a pasar un año, la gama media 2023 aún no ha nacido, pero tengo claro que comprar un gama media de 2022 será lo mejor para el bolsillo. No volveremos a ver móviles tan económicos que cumplan con todo.

2022 queda atrás. Hora de comprar

Captura De Pantalla 2023 01 27 A Las 12 53 23 P M

Gama media por menos de 200 euros, gama media-alta por unos 300, tampoco pedía tanto. Aunque, bueno, también pedíamos coches nuevos y buenos por menos de 20.000 euros: las subidas actuales lo hacen imposible.

Por suerte (o para no tanta suerte, si solemos vender pronto el teléfono), los móviles Android sufren una fuerte depreciación en los meses posteriores a su lanzamiento. Una gran oportunidad para comprar móviles con apenas unos meses de vida, con un ahorro de más de 100 euros en algunos casos. Sobre cómo es posible que un fabricante, de forma oficial, rebaje 100 euros el precio de un teléfono de gama media, es algo que lo que podríamos hablar más adelante.

Me he dado un paseo por Amazon para comprobar precios actuales de algunos de los mejores móviles de gama media de 2022 y… sorpresa. Están al precio que debieron tener como PVP. Veamos de lo que estoy hablando.

Dentro del catálogo de Xiaomi, el Redmi Note 11 se puede comprar por 190 euros en su versión de 6 + 128 GB (no puedo recomendar la versión de 4 GB de RAM bajo ninguna circunstancia). Un móvil que costaba 259 euros en esta versión.

Realme también vendía su rival del Redmi Note 11, el Realme 9, a un precio algo elevado: 279 euros. A día de hoy, por 219,99 euros, tenemos un teléfono con pantalla AMOLED, Snapdragon 680 y 90 Hz. Así, sí.

Google Pixel 6a

Si elevamos el presupuesto a los 350 euros, tenemos un caso bastante curioso. Puedes comprarte un Google Pixel 6a 100 euros más barato respecto a su precio de salida. Google decidió rebajar el precio de este modelo de gama media y, desde que tocó los 359 euros, no ha vuelto a subir, salvo en su página oficial. Mismas cifras para Samsung. Su A52S salía al mercado por 449 euros. A día de hoy cuesta 343 euros

Al ser modelos con apenas un año de vida, aún tienen ciclo de actualizaciones. Y, al poder comprarse nuevos, garantía al completo. 2023 nos deparará, salvo sorpresa, una tónica similar a la de 2022. Gama media cara, con especificaciones que no se terminan de ajustar a la factura final, y con difíciles argumentos frente a modelos del año pasado que calcarán buena parte de la hoja técnica, pero con importantes rebajas. 


La noticia Si quieres un móvil bueno y barato, la gama media de 2022 tiene grandes alegrías para ti fue publicada originalmente en Xataka por Ricardo Aguilar .

29 January, 2023 Leer más →
Technology

La minería espacial ya no es (solo) una meta para el futuro: esta empresa lanzará sus primeras misiones en 2023

La minería espacial ya no es (solo) una meta para el futuro: esta empresa lanzará sus primeras misiones en 2023

Quizás siga sonando a ciencia ficción y a un nebuloso futuro marcado por el impulso de la exploración espacial, pero al hablar de la minería de asteroides ya podemos conjugar en presente. La startup estadounidense AstroForge, una de las que más suena en la ambiciosa carrera por alcanzar los “tesoros” minerales que vagan por el espacio, acaba de anunciar dos misiones con las que pretende despejar su camino. Y ambas están programadas para 2023.

Su objetivo: adelantarse a sus competidores.

¿Qué quiere hacer? Primero, completar una prueba de refinería con la que espera demostrar el potencial de su tecnología. Después, impulsar una expedición espacial para observar uno de los asteroides que ha captado su atención. “Con los lanzamientos asegurados y los socios a bordo, estamos acelerando el camino para hacer de la minería de asteroides una solución a corto plazo para preservar los recursos cada vez más escasos de la Tierra”, comentan sus responsables, Jose Acain y Matt Gialich, quien ejerce como director ejecutivo de la compañía.

La primera misión, ya en abril. Así es. El primer hito de ese cronograma llegará en unos meses, a principios de primavera. En colaboración con OrbAstro y a bordo de un Falcon 9 de SpaceX, la compañía prevé lanzar su primera misión ya en abril. Con ella busca ir un poco más allá y poner a prueba la tecnología que ha estado desarrollando. ¿Cómo lo hará? El objetivo pasa básicamente por alcanzar la órbita baja para y comprobar si puede refinar platino en microgravedad.

“Demostraremos las capacidades de nuestra refinería con el objetivo de validar la tecnología y realizar extracciones en gravedad cero”, detalla la startup. La nave se lanzará precargada con un material similar a un asteroide que la compañía se encargará de vaporizar para clasificar sus componentes elementales.

e

¿Y después? Después llegará la segunda misión, prevista para octubre y que consiste en un viaje al espacio para —anotan desde AstroForge— “observar nuestro asteroide objetivo”.  Intuitive Machines, que ha logrado un acuerdo con la firma de minería espacial, avanza algún detalle más: la idea es lanzar el vehículo Brokk-2 de AstroForge aprovechando la segunda misión lunar de Intuituve Machines en la segunda mitad de 2023 para aproximarse y observar el asteroide.

“Ambas misiones son cruciales no solo para AstroForge, sino para la sociedad en general. Estamos demostrando paso a paso que la minería de asteroides no es una fantasía, sino un método viable para proteger y preservar la Tierra”, reivindica. La compañía mira en cualquier caso más allá de 2023 y ya habla de una tercera y cuarta misión  para extraer y refinar sus metales con despegue en 2025.

Un poco de contexto. AstroForge prepara su siguiente gran paso tras haber cerrado en mayo de 2022 una ronda de capital semilla que se elevó a 13 millones de dólares, una importante inyección de fondos para lograr un objetivo reconocido por la compañía: “Convertirnos en la primera empresa comercial en explotar un asteroide y que traiga los materiales de vuelta a la Tierra”. Los responsables de la firma tampoco son unos recién llegados al sector tecnológico. Gialich, por ejemplo, es un veterano de Virgin Galactic y Bird. Durante una entrevista con Bloomberg explicaba que su meta es extraer y refinar metales de los asteroides.

Un negocio jugoso… con una cara medioambiental. La clave de su proyecto —insiste Gialich— es que se plantea el refinado de metales de los asteroides, con lo que se espera reducir costes y también las emisiones de dióxido de carbono que se generan durante la recolección de tierras raras en nuestro planeta. “Hacemos nuestra refinación en el sitio, en el propio asteroide. No traemos el material a la Tierra para refinarlo”, explica a Bloomberg.

Otra de sus claves es la logística y cómo se organiza. La compañía planea subcontratar la infraestructura, encargando la construcción de la nave a OrbAstro o el lanzamiento a SpaceX. AstroForge se centra en la tecnología de refinamiento en el espacio y trazar las trayectorias. Para favorecer la rentabilidad de su negocio apunta además a depósitos con una elevada concentración de metales, superior a la que se puede encontrar en la Tierra. La tarea no es sencilla. Antes que ella ya intentaron explorar la minería espacial firmas como Planetary Resources o Deep Space Industries, que acabaron reenfocándose con el paso del tiempo.

Imagen de portada: NASA


La noticia La minería espacial ya no es (solo) una meta para el futuro: esta empresa lanzará sus primeras misiones en 2023 fue publicada originalmente en Xataka por Carlos Prego .

29 January, 2023 Leer más →