Artículos de Adriana P

Technology

Gigabyte GeForce RTX 4070 Ti, análisis: la GPU más polémica de NVIDIA es también la que encajará mejor a más usuarios

Gigabyte GeForce RTX 4070 Ti, análisis: la GPU más polémica de NVIDIA es también la que encajará mejor a más usuarios

En cierto modo esta tarjeta gráfica ha sido la protagonista accidental de una obra en la que debía haber intervenido como una actriz de reparto. De hecho, ha atraído hacia sí misma buena parte de la atención que en condiciones normales habrían reclamado sus dos hermanas mayores, la GeForce RTX 4090 y la RTX 4080. Del motivo os hemos hablado en otros artículos con detalle: inicialmente iba a llegar a las tiendas bajo la denominación GeForce RTX 4080 de 12 GB.

En cualquier caso, NVIDIA tomó la decisión correcta y apenas un mes después de presentar sus primeras GeForce RTX 40 anunció que finalmente no lanzaría la controvertida GeForce RTX 4080 de 12 GB. No obstante, esa tarjeta gráfica en realidad no se ha esfumado. La tenemos aquí. Es, precisamente, la GeForce RTX 4070 Ti que estamos a punto de analizar. Y sí, esta denominación comercial encaja mucho mejor con sus especificaciones. Un pequeño espóiler como aperitivo: la ambiciosa GeForce RTX 3090 Ti ya puede echarse a temblar.

Gigabyte GeForce RTX 4070 Ti: especificaciones técnicas

NVIDIA GEFORCE RTX 4070 TI

NVIDIA GEFORCE RTX 3070 TI

nvidia geforce rtx 3070

arquitectura

Ada Lovelace

Ampere

Ampere

transistores

35.800 millones

17.400 millones

17.400 millones

fotolitografía

4 nm TSMC

8 nm Samsung (tecnología de integración personalizada para NVIDIA)

8 nm Samsung (tecnología de integración personalizada para NVIDIA)

núcleos cuda

7.680

6.144

5.888

núcleos rt

60 (3ª generación)

48 (2ª generación)

46 (2ª generación)

núcleos tensor

240 (4ª generación)

192 (3ª generación)

184 (3ª generación)

unidades de cálculo (cu)

60

48

46

caché de nivel 1

128 Kbytes (por SM)

128 Kbytes (por SM)

128 Kbytes (por SM)

caché de nivel 2

48 Mbytes

4 Mbytes

4 Mbytes

frecuencia de reloj máxima

2,61 GHz

1,77 GHz

1,73 GHz

memoria dedicada

12 GB GDDR6X

8 GB GDDR6X

8 GB GDDR6

bus de memoria

192 bits

256 bits

256 bits

velocidad de transferencia de la memoria

504,2 GB/s

608 GB/s

448 GB/s

shader tflops (fp32)

40

22

20,3

operaciones de rasterización

80 ROP/s

96 ROP/s

96 ROP/s

unidades de mapas de texturas

240 TMU

192 TMU

184 TMU

tasa de texturas

626,4 Gtexeles/s

339,8 Gtexeles/s

317,4 Gtexeles/s

tasa de píxeles

208,8 Gpíxeles/s

169,9 Gpíxeles/s

165,6 Gpíxeles/s

directx 12 ultimate

interfaz pci express

PCIe 4.0

PCIe 4.0

PCIe 4.0

revisión hdmi

2.1

2.1

2.1

revisión displayport

1.4a

1.4a

1.4a

dlss 3

No

No

ranuras ocupadas

2

2

2

temperatura máxima de la gpu

90 ºC

93 ºC

93 ºC

consumo medio

226 vatios

290 vatios

220 vatios

potencia recomendada para la fuente de alimentación

700 vatios

750 vatios

650 vatios

conectores de alimentación

2 x 8 pines o 1 PCIe Gen 5 de 300 vatios o más

2 x 8 pines (incluye adaptador a 12 pines)

1 x 8 pines

precio

999,90 euros

689,89, euros

619,90 euros

Gigabyte Tarjeta gráfica GeForce RTX 4070 Ti Gaming OC 12G, 3 Ventiladores WINDFORCE, 12 GB 192 bits GDDR6X, GV-N407TGAMING OC-12GD

La arquitectura Ada Lovelace de la GeForce RTX 4070 Ti, bajo nuestra lupa

NVIDIA no se ha andado con delicadezas a la hora de comunicar qué representa para esta compañía la llegada de la arquitectura Ada Lovelace: un salto gigantesco en términos de rendimiento y eficiencia.

En cualquier caso, más allá de la apuesta por la tecnología de integración de 4 nm de TSMC en detrimento de la litografía de 8 nm de Samsung utilizada en la fabricación de los procesadores gráficos GeForce RTX 30, las nuevas GPU de NVIDIA nos entregan una nueva generación de núcleos RT y núcleos Tensor, así como más núcleos CUDA que nunca.

También llegan de la mano de frecuencias de reloj más altas e implementan tecnologías de procesado de la imagen más sofisticadas. Así se las gastan las brutales (y caras) GeForce RTX 40.

Más núcleos CUDA, y, además, llegan los núcleos RT de 3ª generación

Los núcleos CUDA se responsabilizan de llevar a cabo los cálculos complejos a los que se enfrenta una GPU para resolver, entre otras tareas, la iluminación general, el sombreado, la eliminación de los bordes dentados o la física. Estos algoritmos se benefician de una arquitectura que prioriza el paralelismo masivo, por lo que cada nueva generación de GPU de NVIDIA incorpora más núcleos CUDA.

La arquitectura de los núcleos CUDA prioriza el paralelismo masivo, de ahí que cada nueva generación de GPU de NVIDIA incorpore más unidades de este tipo

Como cabía esperar, los procesadores gráficos de la familia GeForce RTX 40 tienen muchos más núcleos de este tipo que sus predecesores. De hecho, la GPU GeForce RTX 4090 incorpora 16.384 núcleos CUDA, mientras que la GeForce RTX 3090 Ti se conforma con 10.752. La GeForce RTX 4080 tiene 9.728, por lo que la GeForce RTX 3080 Ti la supera con sus 10.240 núcleos de este tipo. Eso sí, la RTX 3080 nos propone 8.704 núcleos CUDA. La GeForce RTX 4070 Ti, por su parte, tiene 7.680 núcleos de este tipo, mientras que la RTX 3070 Ti se conforma con “solo” 6.144 núcleos CUDA.

Nvidiacuda

Los núcleos RT (Ray Tracing), por otro lado, son las unidades que se encargan expresamente de asumir una gran parte del esfuerzo de cálculo que requiere el renderizado de las imágenes mediante trazado de rayos, liberando de este estrés a otras unidades funcionales de la GPU que no son capaces de llevar a cabo este trabajo de una forma tan eficiente. Son en gran medida responsables de que las tarjetas gráficas de las series GeForce RTX 20, 30 y 40 sean capaces de ofrecernos ray tracing en tiempo real.

NVIDIA asegura que sus núcleos RT de 3ª generación duplican el rendimiento de sus predecesores al procesar las intersecciones de los triángulos

NVIDIA asegura que sus núcleos RT de 3ª generación duplican el rendimiento de sus predecesores al procesar las intersecciones de los triángulos que intervienen en el renderizado de cada fotograma. Además, estos núcleos incorporan dos nuevos motores conocidos como Opacity Micromap (OMM), o ‘micromapa de opacidades’, y Displaced Micro-Mesh (DMM), que podemos traducir como ‘micromalla de desplazamientos’.

Dejando a un lado los detalles más complejos, el motor OMM tiene el propósito de acelerar el renderizado mediante trazado de rayos de las texturas empleadas en la vegetación, las vallas y las partículas. El procesado de estos tres elementos representa un gran esfuerzo para la GPU, y el objetivo de este motor es, precisamente, aliviarlo. Por otro lado, el motor DMM se encarga de procesar las escenas que contienen una gran complejidad geométrica para hacer posible el renderizado en tiempo real mediante trazado de rayos.

Los núcleos Tensor evolucionan: llega la 4ª generación

Al igual que los núcleos RT, los núcleos Tensor son unidades funcionales de hardware especializadas en resolver operaciones matriciales que admiten una gran paralelización, pero estos últimos han sido diseñados expresamente para ejecutar de forma eficiente las operaciones que requieren los algoritmos de aprendizaje profundo y la computación de alto rendimiento. Los núcleos Tensor ejercen un rol esencial en la tecnología DLSS (Deep Learning Super Sampling), de ahí que tengan un claro protagonismo en la reconstrucción de la imagen mediante DLSS 3.

Según NVIDIA, la 4ª iteración de estos núcleos es mucho más rápida que su predecesora, logrando multiplicar su rendimiento por cinco en determinadas circunstancias. Un apunte interesante: el motor de transformación FP8 utilizado por primera vez por esta marca en estos núcleos para llevar a cabo cálculos con números en coma flotante de 8 bits procede de la GPU H100 Tensor Core diseñada por NVIDIA expresamente para los centros de datos que trabajan con algoritmos de inteligencia artificial.

Estas dos tecnologías nos prometen marcar la diferencia en las GeForce RTX 40

El esfuerzo computacional que conlleva el renderizado en tiempo real de un fotograma mediante trazado de rayos es descomunal. Esta es la razón por la que cada nueva generación de procesadores gráficos no puede conformarse únicamente con introducir una cantidad mayor de las mismas unidades funcionales presentes en sus predecesoras.

La fuerza bruta importa, pero no es suficiente en absoluto. También es imprescindible elaborar estrategias que consigan abordar los procesos involucrados en el renderizado de una forma más inteligente. Más ingeniosa.

Las tecnologías ‘Shader Execution Reordering’ y ‘Ada Optical Flow Accelerator’ persiguen incrementar el rendimiento de la GPU abordando las tareas involucradas en el renderizado de la forma más eficiente posible

Este es el enfoque que pone sobre la mesa NVIDIA con las GPU GeForce RTX 40, y a nosotros nos parece la opción correcta. Precisamente las dos tecnologías en las que estamos a punto de indagar, conocidas como Shader Execution Reordering (SER) y Ada Optical Flow Accelerator, persiguen llevar a la práctica este propósito: incrementar el rendimiento de la GPU abordando las tareas involucradas en el renderizado que desencadenan un mayor esfuerzo computacional de la forma más eficiente posible.

Nvidiaaofa

La tecnología Shader Execution Reordering (SER) se responsabiliza de optimizar los recursos de la GPU reorganizando en tiempo real y de una manera inteligente los sombreadores (shaders), que son los programas que llevan a cabo los cálculos necesarios para resolver los atributos esenciales del fotograma que se está renderizando, como la iluminación o el color.

De alguna forma esta técnica lleva a cabo un procedimiento similar a la ejecución superescalar de las CPU, lo que, según NVIDIA, permite a la tecnología SER multiplicar por tres el rendimiento del renderizado mediante trazado de rayos, incrementando, por el camino, la cadencia de imágenes por segundo en hasta un 25%. No pinta nada mal.

Nvidiaaofa2

Por otro lado, la tecnología Ada Optical Flow Accelerator tiene el propósito de predecir qué objetos se van a desplazar entre dos fotogramas consecutivos para entregar esa información a la red neuronal convolucional involucrada en la reconstrucción de la imagen mediante DLSS 3.

Según NVIDIA esta estrategia multiplica por dos el rendimiento de la anterior implementación de la tecnología DLSS, y, a la par, mantiene intacta la calidad de imagen. De nuevo, suena muy bien, pero los usuarios tendremos que ir comprobando poco a poco si realmente esta innovación está a la altura de las expectativas que está generando.

Nvidiaaofa3

NVIDIA nos promete que las GeForce RTX 40 son más eficientes que las RTX 30

Una de las consecuencias de la adopción de la tecnología de integración de 4 nm de TSMC frente a la litografía de 8 nm utilizada por Samsung para fabricar las GPU de la familia GeForce RTX 30 consiste en que los últimos procesadores gráficos de NVIDIA deberían ser perceptiblemente más eficientes. Y sí, eso es precisamente lo que nos promete esta marca.

Según NVIDIA la temperatura máxima que alcanzan bajo estrés las GPU GeForce RTX 4090 y 4080 asciende a 90 ºC

La diapositiva que publicamos debajo de estas líneas describe la relación que existe entre la energía consumida y el rendimiento que nos entregan las GPU con arquitectura Turing, Ampere y Ada Lovelace. Y, efectivamente, esta última implementación gana por goleada a sus predecesoras. Aun así, no debemos pasar por alto las exigencias de las nuevas tarjetas gráficas de NVIDIA si nos ceñimos a su consumo eléctrico.

Según NVIDIA la temperatura máxima que alcanzan bajo estrés las GPU GeForce RTX 4090, 4080 y 4070 Ti asciende a 90 ºC, pero el consumo medio de la RTX 4090 roza los 450 vatios, mientras que la RTX 4080 coquetea con los 320 vatios, y la GeForce RTX 4070 Ti roza los 226 vatios. Por otro lado, NVIDIA sugiere que los equipos en los que va a ser instalada una RTX 4090 cuenten con una fuente de alimentación de 850 vatios o más, mientras que la RTX 4080 requiere una fuente de al menos 750 vatios. Y la RTX 4070 Ti, 700 vatios.

Nvidiaeficiencia

DLSS 3 multiplica por cuatro el rendimiento con ‘ray tracing’

La técnica de reconstrucción de la imagen empleada por NVIDIA recurre al análisis en tiempo real de los fotogramas de nuestros juegos utilizando algoritmos de aprendizaje profundo. Su estrategia es similar a la que emplean otros fabricantes de hardware gráfico: la resolución de renderizado es inferior a la resolución de salida que finalmente entrega la tarjeta gráfica a nuestro monitor.

El motor gráfico renderiza las imágenes a una resolución inferior a la que esperamos obtener, y después la tecnología DLSS escala cada fotograma a la resolución final

De esta forma el estrés al que se ve sometido el procesador gráfico es menor, pero a cambio es necesario recurrir a un procedimiento que se encargue de escalar cada uno de los fotogramas desde la resolución de renderizado hasta la resolución final. Y, además, debe hacerlo de una forma eficiente porque, de lo contrario, el esfuerzo que hemos evitado en la etapa anterior podría aparecer en esta fase de la generación de las imágenes.

Esta es la fase en la que entra en acción la inteligencia artificial que ha puesto a punto NVIDIA. Y los núcleos Tensor de la GPU. El motor gráfico renderiza las imágenes a una resolución inferior a la que esperamos obtener, y después la tecnología DLSS escala cada fotograma a la resolución final aplicando una técnica de muestreo mediante aprendizaje profundo para intentar recuperar el máximo nivel de detalle posible.

Dlss3

En las imágenes que hemos utilizado para ilustrar este artículo podemos ver que el procedimiento implementado en DLSS 3 es más complejo que el utilizado por DLSS 2. De hecho, la nueva técnica de reconstrucción de la imagen de NVIDIA aprovecha la presencia de los núcleos Tensor de cuarta generación de las GPU GeForce RTX 40 para hacer posible la ejecución de un nuevo algoritmo de reconstrucción llamado Optical Multi Frame Generation.

‘Optical Multi Frame Generation’ analiza dos imágenes secuenciales del juego en tiempo real y calcula la información del vector que describe el movimiento de todos los objetos

En vez de abordar la reconstrucción de cada fotograma trabajando con píxeles aislados, que es lo que hace DLSS 2, esta estrategia genera fotogramas completos. Para hacerlo analiza dos imágenes secuenciales del juego en tiempo real y calcula la información del vector que describe el movimiento de todos los objetos que aparecen en esos fotogramas, pero que no son procesados por el motor del propio juego.

Nvidia Dlss3 2

Según NVIDIA esta técnica de reconstrucción de la imagen consigue multiplicar por cuatro la cadencia de imágenes por segundo que nos entrega DLSS 2. Y, lo que también es muy importante, minimiza las aberraciones y las anomalías visuales que aparecen en algunos juegos al utilizar la anterior revisión de esta estrategia de reconstrucción de la imagen.

El procesado de los fotogramas en alta resolución y los vectores de movimiento se alimentan de una red neuronal convolucional

Un apunte interesante más: el procesado de los fotogramas en alta resolución y los vectores de movimiento se alimentan, según nos explica NVIDIA, de una red neuronal convolucional que analiza toda esta información y genera en tiempo real un frame adicional por cada fotograma procesado por el motor del juego.

Para concluir, ahí va otra promesa de esta compañía: DLSS 3 puede trabajar en tándem con Unity y Unreal Engine, y durante los próximos meses llegará a más de 35 juegos. De hecho, es posible habilitar esta técnica en poco tiempo en aquellos títulos que ya implementan DLSS 2 o Streamline.

La GeForce RTX 4070 Ti de Gigabyte, en detalle

En la fotografía que publicamos debajo de estas líneas podemos ver que el diseño de esta tarjeta gráfica ensamblada por Gigabyte es muy diferente del diseño de referencia que nos propone NVIDIA en sus tarjetas Founders Edition. Honestamente, yo prefiero la estética y el acabado de estas últimas, pero esto no significa en absoluto que la tarjeta que estamos analizando no esté a la altura. No tiene un acabado tan lujoso como las Founders Edition, pero no está nada mal.

Los tres ventiladores de 100 mm que podemos ver en la fotografía son los responsables de que la GPU, los chips de memoria y los VRM estén siempre por debajo de su umbral máximo de temperatura. Curiosamente, el ventilador central gira en un sentido y los laterales en el otro con un propósito: minimizar las turbulencias e incrementar la presión para optimizar la transferencia de energía térmica mediante convección desde el disipador hacia el aire. Un detalle curioso: Gigabyte nos promete que estos ventiladores están lubricados con grafeno.

Geforcertx4070ti Diseno1

Esta tarjeta gráfica incorpora tres salidas DisplayPort 1.4a ideales para instalaciones multimonitor, y, al igual que las RTX 30, también tiene una salida HDMI que implementa la norma 2.1 y que nos permite enviar la señal de vídeo a un televisor (lo ideal es que también sea compatible con este estándar para poder sacar partido a las prestaciones vinculadas a él).

Geforcertx4070ti Diseno2

El conector de alimentación de esta tarjeta gráfica es idéntico a la interfaz 12VHPWR que nos proponen las GeForce RTX 4090 y 4080. Gigabyte ha colocado junto a él un diodo LED que emite destellos luminosos si se produce una interrupción del suministro eléctrico o cualquier otra anomalía. Hay otras formas de resolver las notificaciones que están dirigidas al usuario, pero esta estrategia es ingeniosa, y, lo que es más importante, cumple su cometido estupendamente.

Geforcertx4070ti Diseno3

En la siguiente fotografía de detalle podemos ver la lámina de metal (back plate) que actúa como base de esta tarjeta gráfica. Su función más importante es proteger la placa de circuito impreso incrementando la rigidez estructural de la tarjeta, pero, además, contribuye al intercambio de energía térmica con el aire mediante convección. Y, como podéis ver, es bastante bonita.

Geforcertx4070ti Diseno4

Esta bestia rivaliza con el modelo insignia de NVIDIA en la generación anterior

La configuración de la plataforma de pruebas que hemos utilizado para evaluar el rendimiento de esta tarjeta gráfica es la siguiente: microprocesador AMD Ryzen 9 5950X con 16 núcleos (32 hilos de ejecución); dos módulos de memoria Corsair Dominator Platinum DDR4-3600 con una capacidad conjunta de 16 GB y una latencia de 18-19-19-39; una placa base ASUS ROG Crosshair VIII Hero con chipset AMD X570; una unidad SSD Samsung 970 EVO Plus con interfaz NVMe M.2 y una capacidad de 500 GB; y, por último, un sistema de refrigeración por aire para la CPU Corsair A500 con ventilador de rodamientos por levitación magnética.

Todas las pruebas las hemos ejecutado con la máxima calidad gráfica implementada en cada juego o test y habilitando la API DirectX 12 en aquellos títulos en los que está disponible

Otro elemento muy importante de nuestra plataforma de análisis es el monitor que hemos utilizado en nuestras pruebas: un ROG Strix XG27UQ de ASUS equipado con un panel LCD IPS de 27 pulgadas con resolución 4K UHD y capaz de trabajar a una frecuencia de refresco máxima de 144 Hz. Esta veterana pantalla es una pieza habitual en nuestros análisis y nos permite sacar todo el jugo a cualquier tarjeta gráfica de última generación.

Todas las pruebas las hemos ejecutado con la máxima calidad gráfica implementada en cada juego o test y habilitando la API DirectX 12 en aquellos títulos en los que está disponible. El modo de reconstrucción de la imagen que hemos seleccionado tanto en las tarjetas gráficas de NVIDIA como en las de AMD en aquellos juegos que implementan esta tecnología es el que prioriza el rendimiento. Y, por último, las herramientas que hemos utilizado para recoger los datos son FrameView, de NVIDIA; OCAT, de AMD; y FRAPS. Las tres están disponibles gratuitamente.

No podemos seguir adelante sin detenernos un momento para echar un vistazo a la fuente de alimentación a la que hemos encomendado la tarea de saciar a la GeForce RTX 4070 Ti. Durante nuestras pruebas hemos utilizado una fuente Corsair HX1500i modular con una capacidad de entrega de potencia máxima de 1.500 vatios y unas prestaciones acordes a la tarjeta gráfica que estamos analizando. De hecho, durante las decenas de horas que han durado nuestras pruebas esta fuente de alimentación se ha comportado de una manera completamente estable. Además, es sorprendentemente silenciosa.

Fuentecorsair

Arrancamos con el test ‘Time Spy’ de 3DMark. Y aquí llega la primera sorpresa agradable: la GeForce RTX 4070 Ti queda por debajo de la RTX 4080, como cabía esperar, pero rinde ligeramente más que la GeForce RTX 3090 Ti, que es la tarjeta gráfica más potente de la generación anterior. No está nada mal si tenemos presente que la RTX 4070 Ti está destinada a un espectro de usuarios más amplio.

En la prueba dedicada a la tecnología DLSS de 3DMark la GeForce RTX 4070 Ti vuelve a salir bien parada. Y es que al recurrir a la reconstrucción de la imagen empleando esta técnica supera con claridad, de nuevo, a la RTX 3090 Ti tanto a 1440p como a 2160p. Y, sorprendentemente, si prescindimos de DLSS ambas tarjetas gráficas arrojan un rendimiento esencialmente idéntico.

En ‘Microsoft Flight Simulator’ la GeForce RTX 4070 Ti aguanta el tipo perfectamente a cualquier resolución si recurrimos a la tecnología DLSS 3. De hecho, a 2160p y con la calidad gráfica al máximo nos entrega en estas condiciones una cadencia media de 100 FPS. ¿Qué sucede si prescindimos de la reconstrucción de la imagen mediante DLSS 3? Como cabe esperar, la cadencia de imágenes se reduce mucho, pero, aun así, esta tarjeta gráfica sostiene una tasa media de unos 50 FPS a cualquier resolución.

El motor gráfico de ‘Cyberpunk 2077’ es extraordinariamente exigente, pero la reconstrucción de la imagen mediante DLSS 3 ayuda a esta tarjeta gráfica a lidiar con este juego incluso a 2160p. A esta resolución la GeForce RTX 4070 Ti nos entrega una cadencia media de 84 FPS. Si decidimos prescindir de esta técnica podremos jugar a 1080p sin problema, y a 1440p con ciertas garantías, pero no a 2160p. Ni siquiera se siente cómoda con este juego a esta última resolución y sin DLSS 3 la brutal GeForce RTX 4090.

En la siguiente gráfica podemos ver que el rendimiento que nos entrega la GeForce RTX 4070 Ti cuando habilitamos la tecnología DLSS 3 en ‘A Plague Tale: Requiem’ es fabuloso. Incluso a 2160p. De hecho, a esta última resolución arroja una cadencia media de casi 130 FPS. Una vez más, la RTX 4070 Ti es más lenta que la RTX 4080, pero también es perceptiblemente más rápida que la RTX 3090 Ti a 1080p y 1440p.

En ‘F1 22’, una vez más, la GeForce RTX 4070 Ti se siente como pez en el agua. Con la tecnología DLSS 3 habilitada nos entrega unas tasas de imágenes por segundo espectaculares incluso a 2160p, pero este título es perfectamente jugable sin recurrir a esta técnica de reconstrucción de la imagen mediante inteligencia artificial. De hecho, en estas condiciones a 2160p nos entrega una cadencia media de 60 FPS. Y, una vez más, supera a la RTX 3090 Ti en todos los escenarios de prueba.

En ‘Doom Eternal’ tenemos más de lo mismo. La GeForce RTX 4070 Ti rinde de maravilla a cualquier resolución y con el trazado de rayos activado, aunque no debemos pasar por alto que el motor gráfico de este juego está muy bien optimizado. Si nos ceñimos a la particular pugna que mantiene la tarjeta gráfica que estamos analizando con la RTX 3090 Ti podemos darnos cuenta de que esta última pierde frente a la RTX 4070 Ti a 1080p y 1440p, aunque vence, por poco, a 2160p.

En ‘Control’ esta tarjeta gráfica se siente cómoda a 1080p y 1440p, pero sufre a 2160p. A esta última resolución y con el trazado de rayos activado la tasa de imágenes cae por debajo de los 40 FPS. Curiosamente, en este juego la RTX 3090 Ti se impone a la RTX 4070 Ti tanto a 1440p como a 2160p, aunque las tarjetas gráficas con GPU de NVIDIA que mejor rinden en este título son, como cabe esperar, las GeForce RTX 4090 y 4080.

‘Death Stranding’ pone encima de la mesa la fuerza bruta que tiene esta tarjeta gráfica sin necesidad de recurrir a la tecnología DLSS. A 1080p y 1440p se codea de tú a tú con la GeForce RTX 4090 y la RTX 4080, y a 2160p tanto estas dos últimas soluciones gráficas como la Radeon RX 7900 XTX y la RTX 3090 Ti rinden mejor. Aun así, la RTX 4070 Ti a esta resolución y sin DLSS nos entrega casi 120 FPS sólidos como una roca.

‘Final Fantasy XV’, a pesar de su veteranía, sigue siendo un hueso duro de roer. Aun así, la RTX 4070 Ti se siente bastante cómoda con el motor gráfico de este juego. De lo contrario no sería capaz de entregarnos casi 90 FPS estables a 2160p. Curiosamente a 1080p y 1440p es un poco más rápida que la RTX 3090 Ti, aunque a 2160p esta última tarjeta gráfica logra imponerse.

La siguiente gráfica no deja lugar a dudas: las tarjetas de última generación se calientan mucho menos que sus predecesoras. La RTX 4070 Ti disipa casi la misma energía en forma de calor que la RTX 4080 cuando ambas son sometidas al mismo estrés, y la Radeon RX 7900 XTX y la GeForce RTX 4090 se mueven en la misma órbita. Es evidente que en este terreno la fotolitografía utilizada en la fabricación de estas GPU juega a su favor.

Para medir el nivel de ruido máximo emitido por cada tarjeta gráfica bajo estrés utilizamos nuestro sonómetro Velleman DVM805. El sistema de refrigeración que ha puesto a punto Gigabyte con el propósito de mantener la GPU, los chips de memoria y los VRM de la RTX 4070 Ti por debajo de su umbral máximo de temperatura es razonablemente poco ruidoso.

De hecho, solo la GeForce RTX 3080 Ti es más silenciosa. Las demás soluciones gráficas que hemos analizado durante los últimos meses, con la única excepción de la Radeon RX 6800 XT, son perceptiblemente más ruidosas, aunque en este ámbito la peor posicionada es la Radeon RX 7900 XTX debido a que bajo estrés alcanza un nivel de presión sonora de 76 dB.

Gigabyte GeForce RTX 4070 Ti: la opinión de Xataka

Lo confieso: después de analizar las GeForce RTX 4090 y 4080, que son más ambiciosas, me sumergí en el análisis de la RTX 4070 Ti con menos entusiasmo que cuando probé las otras dos RTX 40. Sin embargo, después de convivir con la solución gráfica que protagoniza este artículo durante varias semanas, y de estrujarla al máximo, mis sensaciones son muy positivas. Y lo son ante todo por una razón: me parece la propuesta más equilibrada de NVIDIA si nos ceñimos a las tarjetas de última generación.

La RTX 4070 Ti se siente muy cómoda tanto a 1080p como a 1440p con cualquier juego

Las pruebas no dejan lugar a dudas: la RTX 4070 Ti se siente muy cómoda tanto a 1080p como a 1440p con cualquier juego, y si recurrimos a la reconstrucción de la imagen habilitando la tecnología DLSS 3 en aquellos juegos que lo permiten, también rinde de maravilla a 2160p. De hecho, algunos títulos incluso son perfectamente jugables a esta última resolución sin necesidad de activar la reconstrucción de la imagen mediante inteligencia artificial.

Si a todo esto sumamos que esta tarjeta gráfica es razonablemente silenciosa, y también que bajo estrés máximo no se calienta excesivamente, no cabe duda de que merece la pena tenerla en cuenta. Eso sí, no es barata. Ninguna solución gráfica de última generación lo es, pero al menos actualmente podemos hacernos con la RTX 4070 Ti sin dificultad pagando un precio muy cercano al fijado oficialmente por NVIDIA. Hace poco esto era imposible. Algo es algo.

Gigabyte Tarjeta gráfica GeForce RTX 4070 Ti Gaming OC 12G, 3 Ventiladores WINDFORCE, 12 GB 192 bits GDDR6X, GV-N407TGAMING OC-12GD

Esta tarjeta gráfica ha sido cedida para este análisis por NVIDIA. Puedes consultar nuestra política de relaciones con las empresas.

Más información: NVIDIA


La noticia Gigabyte GeForce RTX 4070 Ti, análisis: la GPU más polémica de NVIDIA es también la que encajará mejor a más usuarios fue publicada originalmente en Xataka por Juan Carlos López .

3 February, 2023 Leer más →
Microsoft

Microsoft Teams Phone hace más fácil estar en movimiento

Hola, soy Pete Daderko, director de mercadotecnia de productos de Microsoft Teams Phone. Al igual que ustedes, estoy en la búsqueda de formas prácticas de hacer la vida un poco más fácil, por lo que me impresionan de manera continua todas las funciones que ofrece Teams Phone. Mi trabajo consiste en evangelizar estas características y […]

2 February, 2023 Leer más →
Technology

Ahórrate hasta 980 euros estrenando uno de los recién presentados Samsung Galaxy S23, S23+ o S23 Ultra

Ahórrate hasta 980 euros estrenando uno de los recién presentados Samsung Galaxy S23, S23+ o S23 Ultra

¿Pensando en pasarte a uno de los nuevos Samsung Galaxy? Si es así, en la web de Samsung ya tienes ofertas con las que ahorrar algo de dinero con su lanzamiento, para conseguirlos en precompra.


Samsung Galaxy S23 Ultra

En su lanzamiento, Samsung nos ofrece los recién presentados S23, S23+ y S23 Ultra. Cónsiguelos a partir de 959 euros y desde 1.409 euros el S23 Ultra, con varios descuentos disponibles para aquellos que hagan el pedido de su terminal en precompra entre el día 1 de febrero y el 16 de febrero.

Galaxy Precompra

  • Si tenemos pensado entregar nuestro antiguo dispositivo, esto nos permitirá entrar en el programa Enhanced Trade-In, con lo que conseguiremos 100 euros de descuento extra y 150 euros en el caso del Galaxy S23 Ultra de 1 TB de capacidad. Dichos descuentos se verán reflejados en el precio final en el carrito de compra.
  • Si además nos decantamos por los modelos con mayor capacidad de almacenamiento, nos lo ofrecen por el precio del modelo con la capacidad inmediatamente inferior gracias al programa Upgrade your storage.
  • Si no vamos a entregar nuestro antiguo dispositivo, Samsung nos ofrece 100 euros de reembolso para gastar en tablets y wearables de la web poniéndolos en el carrito en la misma compra.
  • Si haces tu pedido en precompra en estos días, tendrás acceso a colores exclusivos que sólo se ponen a la venta a través de la web de Samsung. Estos son Graphite, Red, Lime y Sky Blue.
  • Por último, si ya te habías prerregistrado para hacerte con un Galaxy S23, S23+ o S23 Ultra antes de a presentación, tendrás un código alfanumérico exclusivo, con el que recibirás 100 euros de descuento extra.

Imágenes | Samsung


La noticia Ahórrate hasta 980 euros estrenando uno de los recién presentados Samsung Galaxy S23, S23+ o S23 Ultra fue publicada originalmente en Xataka por Manu García (Visnuh) .

2 February, 2023 Leer más →
Technology

Samsung Galaxy S23 Ultra: el corazón más potente del momento y 200 megapíxeles para conquistar la gama más alta

Samsung Galaxy S23 Ultra: el corazón más potente del momento y 200 megapíxeles para conquistar la gama más alta

Llegó el día. Samsung acaba de presentar su Galaxy S23 Ultra, aspirante a ser uno de los mejores móviles Android este 2023. La filosofía es algo distinta esta generación: Samsung no quiere revolucionar el diseño ni las especificaciones, quiere pulir lo que ya existía. Este Samsung Galaxy S23 Ultra se plantea como una evolución bastante continuista respecto al modelo anterior.

Vamos a repasar las características técnicas y especificaciones de este nuevo Samsung Galaxy S23 Ultra, que llega con cámara de 200 megapíxeles, corazón de Qualcomm y un precio bastante más elevado respecto al que vimos la generación pasada. El mejor Galaxy hasta la fecha, también el más caro.

Ficha técnica del Samsung Galaxy S23 Ultra

Samsung galaxy s23 ultra

pantalla

AMOLED de 6,8 pulgadas
Resolución QHD+ a 3.080 x 1.440
Refresco adaptativo de 1 a 120Hz
100% DCI-P3
Panel perforado
Gorilla Glass Victus 2

procesador

Qualcomm Snapdragon 8 Gen 2
Aderno 740

almacenamiento

8 o 12 GB de RAM
256, 512 o 1 TB de memoria interna

cámaras traseras

Principal: 200 megapíxeles f/1.7 OIS
Angular: 12 megapíxeles f/.22 120º 13mm
Zoom: 10 megapíxeles f/2.4 OIS 3X 69mm
Zoom: 10 megapíxeles f/4.9 OIS 10X 230mm

cámara delantera

12 megapíxeles f/2.2 25mm

batería

5.000 mAh
Carga rápida de 45W
Carga inalámbrica de 15W

sistema operativo

Android 13
One UI 5.1

conectividad

5G (2xNano + eSIM)
WiFi 6E
Bluetooth 5.3
GPS
NFC
UWB
USB tipo C

dimensiones y peso

163,3 x 78,1 x 8,9 milímetros
233 gramos

OTROS

IP68
Compatible con Samsung DeX
S-Pen con 2,8ms de latencia

precio

1.409 euros

Repite… el 90% de specs

Galaxy S23 Ultra

Mirar la hoja de especificaciones del Samsung Galaxy S23 Ultra es, prácticamente, mirar la que vimos el año pasado. Empezamos por el panel, exactamente la misma AMOLED de 6,8 pulgadas, con 120 Hz adaptativos, Dolby Vision, HDR10 y un pico máximo de brillo de 1.750 nits. El principal cambio es que el cristal que la recubre ahora es menos curvo, pareciéndose más a un leve efecto 2.5D que a una curvatura al uso. Samsung defiende que los paneles curvos tienen mejor agarre, y por ello no quiere erradicar del todo esta característica. También hay un pequeño cambio en la protección que lo recubre, ahora es Gorilla Glass Victus 2.

El resto de diseño es prácticamente idéntico al que vimos la anterior generación. Bastante rectangular, con un S-Pen en su interior que tampoco presenta novedades, y con resistencia IP68. La batería que lo alimenta es de 5.000mAh con carga rápida de 45W, aunque Samsung asegura que este Galaxy tendrá la mejor autonomía vista en la familia.

Galaxy S23 Ultra

Esto se debe al gran cambio que hay en su interior: el nuevo Qualcomm Snapdragon 8 Gen 2. Este es el mejor procesador, con diferencia, que puede montar un teléfono Android en la actualidad. La mejora respecto al Gen 1, que sufría de un importante throttling, es mayúscula, y permitirá tanto un mejor rendimiento como una mayor eficiencia energética. El tamaño de la cámara de vapor llega casi a triplicarse, para lograr disipar el calor de la forma más efectiva.

A nivel de conectividad, es un móvil con 5G, tecnología UWB, WiFi 6E y todo lo que se espera en un gama alta premium. Llega con Android 13 y One UI 5.1, una versión de One UI que mantiene la interfaz que conocíamos hasta la fecha, pero con algunas características extra como widgets apilables, mejoras en apps propias y más.

Toda una apuesta por los 200 megapíxeles

Galaxy S23 Ultra

ISOCELL HP2. Este es el nombre del gran sensor que da vida a la cámara del Samsung Galaxy S23 Ultra. Se trata de la primera vez que la marca incorpora los 200 megapíxeles en la familia Galaxy, con un funcionamiento algo peculiar. El teléfono, por defecto, disparará a 12 megapíxeles, aunque podremos escoger entre 50 y 200 megapíxeles de forma manual.

No obstante, es capaz de hacer distintas agrupaciones a 12 o 50 megapíxeles mediante Pixel Binning para obtener mayor o menor luminosidad (según la agrupación de píxeles, cambia el tamaño del pixel). Esto permitirá que el teléfono sea más eficiente disparando de noche. En modo RAW solo podremos disparar a 50 megapíxeles, y es que obtener archivos RAW de 200 megapíxeles no parece lo más sencillo y óptimo para el teléfono.

Llega también el modo astrofotografía, algo que vimos por primera vez en los Google Pixel y que nos permitirá tomar fotografías de hasta 4 minutos de exposición. El modo Expert RAW se integra ahora en la app de cámara, a pesar de seguir siendo una app independiente (es una app que instalamos desde la propia app de cámara).

El resto de cámaras es el mismo que vimos el año pasado: ultra gran angular y dos teleobjetivos, uno de tres aumentos y el otro de diez. El zoom máximo es de hasta 100x, y la cámara selfie pasa de 40 a 12 megapíxeles. Samsung asegura que, pese a contar con menor resolución,

Versiones y precio del Samsung Galaxy S23 Ultra

El Samsung Galaxy S23 Ultra parte de los 1.409 euros, una importante subida respecto al modelo del año pasado. Así quedan todas las configuraciones.

  • Samsung Galaxy S23 Ultra 8 + 256 GB | 1.409 euros.
  • Samsung Galaxy S23 Ultra 12 + 512 GB | 1.589 euros.
  • Samsung Galaxy S23 Ultra 12 + 1 TB | 1.829 euros.


La noticia Samsung Galaxy S23 Ultra: el corazón más potente del momento y 200 megapíxeles para conquistar la gama más alta fue publicada originalmente en Xataka por Ricardo Aguilar .

2 February, 2023 Leer más →
Technology

Netflix quiere poner coto a las cuentas compartidas pero no sabe cómo hacerlo. El resultado es el caos

Netflix quiere poner coto a las cuentas compartidas pero no sabe cómo hacerlo. El resultado es el caos

Netflix quiere acabar con las cuentas compartidas, un complejo movimiento que debe ejecutarse con cautela. Ayer mismo te contábamos cómo se iba a realizar este proceso, mediante el cual Netflix exigía que nos identificásemos reproduciendo contenidos bajo nuestra red WiFi, al menos, una vez cada 31 días. Una extraña medida de la que ya no hay ni rastro en su web, y habiendo cambiado la estrategia casi al completo en menos de 24 horas.

Lo que se decía ayer. Netflix, a pesar de que el 60% de sus usuarios comparten cuenta, quiere acabar con esta práctica. Para evitar que distintos hogares reprodujesen contenido, en su faq indicaba que sería necesario reproducir contenidos bajo WiFi, al menos, una vez cada 31 días. Era la forma que querían tener para comprobar  lo que determinaban como “dispositivos de confianza” dentro del hogar principal.

Si se reproducían contenidos fuera de esa IP, mal asunto. Netflix avisaba de que podía proceder a eliminar las cuentas asociadas a la principal. No terminaban de detallar qué pasaría con las IPs dinámicas, con hogares con más de un router o con usuarios con más de una vivienda.

Lo que no se dice hoy. Tras el “o reproduces contenido cada 31 días en el hogar principal, o te quedas sin cuenta”, Netflix ha borrado todo rastro de esto en su faq. No podemos afirmar que hayan reculado, ya que todo apunta a que están realizando modificaciones relacionadas con las cuentas compartidas hasta afinar la fórmula final.

En el apartado de compartir cuenta con alguien que no vive contigo Netflix indica ahora que, si iniciamos sesión desde un dispositivo que se encuentra fuera de nuestro hogar o “se empieza a usar dicho dispositivo con frecuencia”, pueden pedir al dueño de la cuenta que lo verifique para poder usarlo o que cambie el hogar de Netflix. Según la compañía hacen esto para “confirmar que el dispositivo que usa la cuenta tiene autorización para hacerlo”.

No dejan claro cuánto tiempo de reproducción o accesos son necesarios para determinar que ese dispositivo es sospechoso, o cuándo pedirán al dueño de la cuenta que cambie de hogar.

El proceso de verificación. Esta información es completamente nueva respecto a lo que contaba ayer Netflix. Si alguien inicia sesión en nuestra cuenta “de forma persistente” y fuera de nuestro hogar, tendremos que pasar por el proceso de verificación.

  1. Netflix envía un enlace a la dirección de correo electrónico o al número de teléfono asociado al titular de la cuenta principal.
  2. El enlace abre una página con un código de verificación de cuatro dígitos.
  3. El código deberá introducirse en el dispositivo que lo ha solicitado en un plazo de 15 minutos.
    Si el código expira, deberás solicitar un nuevo código de verificación desde el dispositivo.
  4. Si la operación es correcta, el dispositivo puede usarse para ver Netflix.
  5. Es posible que cada cierto tiempo se requiera verificar el dispositivo.

Ya no pasa nada si viajamos. Netflix indicaba ayer que, en caso de que viajásemos, nos pedirían verificar la cuenta. En el faq de hoy desaparece esta limitación y nos indican que, en caso de estar utilizando la cuenta principal, no será necesario verificar nada. Solo en el caso de que nos encontremos fuera del hogar “durante un periodo de tiempo prolongado”, podrán pedirnos verificación del dispositivo.

Nada nos asegura que no haya más cambios. En menos de 24h, Netflix ha cambiado al completo su propuesta con las cuentas compartidas. Siempre y cuando aprobemos desde el dispositivo principal que el resto de dispositivos tienen acceso lícito a nuestra cuenta, no debería haber problemas. La IP sigue importando para que Netflix quiera verificar los dispositivos fuera del hogar principal, pero estos pasan a estar autorizados por parte del usuario.

Quedará por comprobar si esta modificación es definitiva, o si el faq seguirá cambiando hasta afinar una fórmula intermedia: ni tan laxa como la que modifican hoy, ni tan agresiva como los bloqueos que se anunciaban ayer.


La noticia Netflix quiere poner coto a las cuentas compartidas pero no sabe cómo hacerlo. El resultado es el caos fue publicada originalmente en Xataka por Ricardo Aguilar .

2 February, 2023 Leer más →
Technology

Tenemos que hablar de los precios de los Galaxy S23

Tenemos que hablar de los precios de los Galaxy S23

Año nuevo, Samsung nuevo. Los Galaxy S23 y S23+, además del modelo S23 Ultra, ya son oficiales. Además de haberles podido echar el guante para unas primeras impresiones, también conocemos sus precios: 959, 1.209 y 1.409 euros respectivamente para las versiones básicas de cada modelo.

Y en Xataka, quizás por la nostalgia de una vida mejor, acostumbramos a mirar el pasado. Concretamente, el financiero. Mirar los precios de ayer y de hoy, ajustarlos por inflación y sacar conclusiones. Año nuevo, conclusiones nuevas.

Distancias mucho más grandes

Estos son los precios de cada modelo de Galaxy S anunciado desde que el primero debutara en 2010. A partir de 2015 empezaron a desdoblarse en más de un modelo, en la época de los primeros Edge. Y a partir de 2020 vimos llegar tres variantes cada año como parte de la tendencia de los súper-móviles que hoy ya hemos normalizado: terminales que sobresalen en especificaciones y precio. Casi todos los fabricantes tienen sus propuestas, y Samsung no es menos.

Esta gráfica no es muy diferente de la de los precios de la gama alta de cualquier fabricante (insistimos, está ajustada por inflación):

  • Precios al alza
  • Gama súper alta desbocada
  • Y cada vez mayor distancia entre los puntos

Hace unos años, pasar de un modelo “básico” de Galaxy S a la versión superior (fuera Edge o Plus) suponía un incremento de un 10% o un 12%. Hoy hemos pasado a un 25% para el modelo intermedio (Plus) y casi un 50% para el modelo tope de gama (Ultra). Desde 2020, las distancias entre los extremos de la gama se han hecho mucho mayores.

La subida paulatina de precios está más o menos justificada en función de cómo haya ido cambiando el coste de fabricación de cada modelo para Samsung. Solo atendiendo al coste de los materiales (a los que habría que sumar el coste de desarrollo de cada terminal, por ejemplo), vemos que no hay grandes diferencias desde hace unos años hasta ahora. Sí la hay en los modelos Ultra (de algunas generaciones solo se tiene información de su coste de materiales en los Ultra, no en las versiones estándar), que dejan más margen, pero nuevamente, es un margen únicamente en cuanto al coste del hardware. Y no es mucho más elevado que el que tenía un S8 o un S9+ (2017 y 2018).

Las subidas de algunas de las piezas son considerables. Por ejemplo, en los primeros Galaxy S, el coste del módulo de cámara era de unos pocos dólares. Las lentes mucho mejores y mayores en número de los últimos años han encarecido la factura final. En el caso del S20 Ultra, de 2020, solo las cámaras ya costaban 108 dólares, una quinta parte de lo que costaban todos los materiales del dispositivo. Eso fue el doble de lo que costaban las cámaras solo una generación antes, 56 dólares en el S10 Ultra. El procesador y la pantalla son los habituales segundo y tercero en cuanto a coste del material.

Otra lectura es que en términos reales, comprar el modelo superior de la gama en 2015 (1.014 euros) costaba prácticamente lo mismo que comprar el inferior actual (959 euros). La inflación de los móviles, como la de los coches, está por encima de la que marca el coste de la vida. Si bien, también como en el sector del automóvil, tiene buenas razones para estos incrementos.

No es un movimiento exclusivo de Samsung. Lo que hace unos años era anecdótico, y casi un terreno reservado a Apple además de la surcoreana, hoy es costumbre. Xiaomi, que conquistó España no solo con terminales baratos sino con una propuesta de valor muy ajustada en relación a su precio, también se subió a ese carro.

Tampoco es un movimiento que pueda explicar la avaricia de un fabricante. Los móviles se han encarecido, especialmente los de la gama súper alta, porque sus componentes también lo han hecho. Eso también explica que en términos reales, contando con la inflación, un S23 cueste lo mismo que lo que costaba un S6 en 2015. Son las piezas de gama superior las que no solo se han añadido extras, sino que también se han encarecido.

Y sobre todo, que con un teléfono de gama súper alta actual, como el S23 Ultra, hacemos muchísimo más y mejor, proporcionalmente, que su incremento de precio desde 2010, cuando se presentó un primer modelo mucho más comedido. O al menos, podemos hacerlo. El melón de si aprovechamos o no el potencial de los teléfonos que compramos lo abriremos otro día.


La noticia Tenemos que hablar de los precios de los Galaxy S23 fue publicada originalmente en Xataka por Javier Lacort .

2 February, 2023 Leer más →
Technology

China reina desde hace años en el mercado de los coches eléctricos baratos. Ahora quiere devorar el de lujo

China reina desde hace años en el mercado de los coches eléctricos baratos. Ahora quiere devorar el de lujo

La expansión china en el mundo del motor parece imparable. Hasta ahora, el coche parecía un producto acotado a estadounidenses y europeos pero en los últimos años, China ha dado con la tecla: el coche eléctrico. Su apuesta por esta tecnología es total y ya empieza a ver sus resultados.

El octubre pasado, el Salón de París volvió a abrir sus puertas. Un evento que hasta hace poco era cita obligada toda marca que quería estar en la conversación. El último año, sin embargo, se convirtió en termómetro perfecto para valorar el mercado. Especialmente el del coche eléctrico. Gabriel Jiménez, lo resumía bien en un artículo en Auto Bild.

Durante la primera mitad de 2022, se vendieron en todo el mundo 4,2 millones de vehículos enchufables. De ellos, solo en China se compraron 2,4 millones de coches de este tipo. El crecimiento interanual de esta tecnología era de un 118%, sin duda, el mercado que más ha crecido.

A la hora de buscar datos, hay que tener en cuenta que en China meten en el mismo saco a híbridos enchufables y eléctricos. Por ello, en Motorpasión recogían que Tesla ha sido durante la primera mitad del año 2022 el fabricante que más vehículos eléctricos ha producido. Sin embargo, en Bloomberg otorgan el primer puesto a BYD, fabricante chino que está viviendo un aumento exponencial en sus ventas.

Se tengan en cuenta unos u otros datos, entre los cinco mayores fabricantes de vehículos eléctricos y/o híbridos enchufables también encontramos al Grupo Volkswagen. Tesla y Volkswagen pelean con BYD, SAIC y el Grupo Geely. Este último conglomerado se disputa con el grupo Kia/Hyundai la quinta plaza.

Un crecimiento por encima de las expectativas

Lo que sí es palpable es que los fabricantes chinos empiezan a ganar terreno a los occidentales en volumen de negocio en el mercado del motor. Dentro de sus fronteras, el coche europeo no tiene el aura que tenía antaño y firmas como Mercedes se han visto obligadas a rebajar sus precios para seguir siendo competitivos.

Pero también fuera de sus fronteras están encontrando un fuerte crecimiento. En 2023 se prevé la llegada de numerosas firmas chinas al mercado europeo. Un desembarco que no tiene a España entre sus planes en algunos casos. BYD, sin embargo, sí tiene a nuestro país en su hoja de ruta.

Parece lógico, pues los números respaldan su crecimiento y su apuesta por el coche eléctrico. Desde Bloomberg apuntan a que el crecimiento de este fabricante está por encima de las expectativas de los expertos. El diario económico informa que en 2022 la marca ha registrado un ingreso neto de 17.000 millones de yuanes (2.500 millones de dólares), un 458% más que en 2021. Los analistas esperaban una cifra cercana a los 13.200 millones de yuanes (por debajo de los 2.000 millones de dólares).

El motivo principal apuntan desde Bloomberg es la enorme cantidad de coches eléctricos vendidos. Según sus cuentas, pusieron en el mercado 1,86 millones de vehículos de este tipo. Una cifra superior a la registrada en la suma de los cuatro años anteriores. Y no solo hablamos de coches baratos, el diario económico señala que su crecimiento seguirá siendo estable con la entrada en el mercado del coche eléctrico de lujo.

El movimiento puede ser clave pues está dentro de la sintonía de las decisiones que ha ido tomando la industria europea en los últimos meses: vender menos pero mucho más caro. Si BYD consigue entrar también en el mercado del coche eléctrico premium o de lujo conseguirá tener un abanico amplísimo de posibilidades para seguir creciendo. Y ya están dando los primeros pasos.

La capacidad que ha demostrado China de controlar la cadena de suministro ha sido esencial para entender el dominio del país en los vehículos enchufables. Mientras que las firmas europeas y estadounidenses se estaban devanando los sesos para garantizarse materias primas a buen precio (incluso minándolas por sí mismas), en China SAIC y BYD se han aprovisionado de barcos para asegurar la entrega de los vehículos apalabrados.

El analista Matthias Schmidt ve complicado que el coche eléctrico chino termine por dominar el mercado, aunque sí deja la puerta abierta a esta posibilidad: “no puedes descartarlos porque la gente dijo lo mismo sobre Tesla e hicieron un buen trabajo, pero será un desafío para ellos”. Pero lo cierto es que los fabricantes europeos están preocupados por la marcha que está tomando el mercado.

Carlos Tavares ha alertado en numerosas ocasiones de que Europa necesita poner nuevos aranceles a la entrada de estos fabricantes si se quiere proteger la industria continental. De momento, controlan toda la cadena de suministro mientras la industria europea duda sobre la viabilidad de un coche eléctrico barato.


La noticia China reina desde hace años en el mercado de los coches eléctricos baratos. Ahora quiere devorar el de lujo fue publicada originalmente en Xataka por Alberto de la Torre .

2 February, 2023 Leer más →
Technology

El identificador de IA de OpenAI tiene un problema: ellos ponen el zorro y ellos vigilan las gallinas

El identificador de IA de OpenAI tiene un problema: ellos ponen el zorro y ellos vigilan las gallinas

Nos maravilla la capacidad greadora (o al menos, generativa) de motores como ChatGPT o Stable Diffussion. Y sin embargo, cada vez aparecen más voces críticas con contenidos creados por inteligencia artificial. No ya por el hecho de que estén basados en obras protegidas por derechos de autor, sino porque ya estamos viendo cómo diferenciar esas obras de las creadas por el ser humano es una tarea delicada y compleja.

En OpenAI dicen tener la solución, al menos para detectar si un texto lo ha escrito un humano o una máquina. Todo fantástico hasta que uno se da cuenta de que ahí existe un peligroso conflicto de intereses: uno en el que la misma empresa que creó el problema dice poder resolverlo.

El dilema no es en absoluto nuevo, y vuelve a recordar a la fábula del zorro vigilando a las gallinas. Vivimos un debate similar cuando en enero de 2021 asistimos a un acontecimiento insólito: Twitter, Facebook e Instagram bloquearon la cuenta de Donald Trump tras el ataque al Capitolio de los Estados Unidos.

Eso hizo que más que nunca las plataformas se convirtieran en censoras de lo que se publicaba en ellas, y eso ha generado no pocas polémicas. En primer lugar, por la dificultad de moderar el contenido en redes sociales de esta envergadura: reportajes como ‘The Trauma Floor‘ mostraba cómo los moderadores de Facebook tenían que soportar todos los días escenas terribles. La red social acabó indemnizándoles tras el escándalo.

No es ni mucho menos el único ejemplo de desastres en el ámbito de la moderación: tenemos uno terrible en lo que sucedió con YouTube Kids mostrando vídeos terroríficos a los niños, algo que luego se han esforzado en corregir pero que sigue siendo difícil de controlar.

En segundo, porque cuando estas plataformas censuran, lo hacen conforme a unos sesgos y criterios secretos y privados. Son juez y parte, y no hay posibilidad de apelación. YouTube cierra cuentas por motivos kafkianos, Twitter banea a quienes usan la frase “te mato” en sentido figurado y en la App Store de Apple se censuran aplicaciones por motivos diversos: algunos justificados, y otros menos.

Para solucionar este segundo problema, la Unión Europea ha puesto en marcha su Digital Services Act (DSA), una nueva regulación con la que se quieren regular todos los aspectos que afectan a los contenidos digitales, desde los algoritmos hasta la desinformación. Las empresas de hecho tendrán que ser mucho más responsables con lo que se publica en ellas.

El problema es gigantesco tanto para las empresas —incapaces de moderar todo lo que sus usuarios (y bots) publican— como para los reguladores y usuarios, que se encuentran con un escenario que será difícil que cambie. No hay solución a la vista, y lo único que parece que podemos hacer es tratar de minimizar lo malo de todas estas plataformas y maximizar lo bueno.

Algo así estamos comenzando a ver también con todo lo relacionado con la inteligencia artificial. Si las redes sociales plantean dificultades, lo de los contenidos creados (o generados, insistimos) por inteligencia artificial son palabras mayores. Mucho mayores.

De hecho, la facilidad y el bajo coste de generación de estos contenidos hace que sea fácil prever que tardaremos poco en estar absolutamente inundados por imágenes, textos, vídeos y música generados íntegramente por máquinas. No solo eso: todos esos contenidos llegarán probablemente a ser indistinguibles de los que crearíamos los seres humanos.

Eso plantea posibilidades alucinantes en muchos ámbitos —no solo de la creación, sino también de la investigación— pero también amenazas muy reales. Los deepfakes podrían convertirse en el pan nuestro de cada día, y ver en Twitter, Facebook o TikTok a una celebridad diciendo algo sorprendente pero coherente será tan común como peligroso. Las suplantaciones —como la que sufrió recientemente la farmacéutica Eli Lilly— serán mucho más temibles, y aquí detectar qué es real y qué no será crucial.

Si lo rompes lo pagas

Los responsables de OpenAI se han dado cuenta del problema que ellos mismos han creado: los textos escritos por un sistema de inteligencia artificial como ChatGPT plantean ventajas importantes, pero también riesgos. Lo hemos visto en el sector de la educación, donde esta herramienta plantea el fin de los deberes.

En OpenAI reconocen ese problema y de hecho en el anuncio oficial de la herramienta de detección (su “clasificador de IA”)  dedicaban un apartado específico al “impacto para educadores”, destacando el debate que ChatGPT ha impulsado entre este colectivo. Dan una serie de consideraciones especiales para los educadores, pero recuerdan que además que tanto este clasificador como otras herramientas similares tendrán impacto en “periodistas, investigadores de información falsa, y otros grupos”. 

Será interesante ver cómo mejora la precisión de estas herramientas, pero con contenidos de todo tipo cada vez más difíciles de distinguir de los creados por el ser humano, la tarea parece enormemente compleja. Adobe presumía de poder identificar deepfakes en 2022, y Facebook también iba a invertir en ello, pero la vieja técnica de fijarse en los ojos ya no parece tan relevante. 

Con el texto ocurre lo mismo: a la propuesta de OpenAI se le suma ahora DetectGPT, orientada a detectar trabajos académicos escritos con ChatGPT. Hay propuestas interesantes como la de insertar marcas de agua (“watermarks”) invisibles en textos generados por inteligencia artificial, y uno de los creadores de OpenAI está trabajando precisamente en esa opción. 

Esas herramientas de detección, como la que propone OpenAI, seguirán avanzando, sin duda. El problema es que también lo harán los motores de inteligencia artificial generativa, que cada vez son “más humanos”.

Aquí de nuevo las soluciones parecen difícil, y la regulación —que suele ir con bastante retraso— debería comenzar a ponerse en forma rápidamente. Las soluciones parecen complejas y esquivas —multas, obligar a etiquetar contenidos generados por IA—, y es aún pronto para saber hasta dónde puede llegar el fenómeno. Esperemos lo mejor y preparémonos para lo peor.

Imagen: Karen


La noticia El identificador de IA de OpenAI tiene un problema: ellos ponen el zorro y ellos vigilan las gallinas fue publicada originalmente en Xataka por Javier Pastor .

2 February, 2023 Leer más →
Technology

Telnet en Windows 11: qué es y cómo activarlo

Telnet en Windows 11: qué es y cómo activarlo

Vamos a explicarte qué es Telnet y cómo puedes activarlo en tu ordenador o portátil con Windows 11. Se trata de una tecnología que permite conectar dos dispositivos entre sí para luego poder hacer cambios en uno desde otros, aunque ya está bastante obsoleta.

Pero antes de empezar, debes saber que Telnet es un protocolo muy inseguro y poco recomendable de usar, ya que no envía los datos cifrados entre ordenadores, van al descubierto. Sin embargo, sigue estando presente y lo puedes activar en Windows 11, por lo que merece la pena conocerlo y saber cómo funciona.

Qué es Telnet y cómo funciona

En el mundo de la informática existen distintos protocolos para poder acceder a un ordenador desde otro de forma remota, que son como distintas tecnologías para conseguirlo. Telnet fue desarrollado en 1969, y es uno de los más antiguos que hay. A día de hoy está bastante obsoleto, pero sigue estando.

Si está obsoleto es principalmente por dos razones. La más importante es que no cifra las conexiones entre ordenadores, por lo que es muy poco recomendable y muy peligroso e inseguro frente a ataques informáticos. La segunda razón es que viene de un tiempo en el que no existían interfaces gráficas en sistemas operativos, por lo que se usa a través de comandos.

Funciona sobre el protocolo TCP, habitualmente en el puerto 23, donde el servidor espera conexiones de los clientes para permitirles el acceso. Y no tienes que instalar nada, solo debes abrir la consola de comandos mediante el terminal o símbolo de sistema de Windows, y controlarlo directamente desde ahí.

Permite transmitir texto plano en ambos sentidos, y tiene una gran versatilidad. Normalmente se usa para solucionar problemas de un ordenador desde otro, pero también tiene potencial para ofrecer sesiones interactivas en el servidor, así como para ofrecer acceso a BBS (Bulletin Board System) o MUD, o para juegos online.

En el caso de que quieras usar Telnet, tienes que activarlo en ambos ordenadores que vayas a conectar, ya que al ser tan inseguro viene desactivado por defecto. Entonces, desde un ordenador enviarás una solicitud de acceso al otro al que te quieras conectar, y este te responderá pidiéndote un nombre de usuario y contraseña.

Tras escribir estas credenciales correctamente, ya te habrás conectado a un ordenador desde el otro. Ahora, solo te queda saber moverte por las carpetas de un ordenador a través de comandos al estilo de MSDOS, y también saber los comandos para detectar y solucionar errores.

Cómo activar y usar en Windows 11

Caracteristicas

Para activar Telnet en Windows 11, abre el menú de inicio o función de búsqueda y busca el término características. En los resultados, pulsa sobre Activar o desactivar las características de Windows, que es una opción heredada de versiones más antiguas de Windows.

Cliente Telnet

Al hacerlo se abrirá una ventana en la que puedes activar o desactivar características avanzadas de Windows que suelen estar ocultas. En esta pantalla, en la lista tienes que buscar y activar la opción Cliente Telnet , y cuando lo hagas pulsar en Aceptar. Windows tardará unos segundos para buscar los archivos necesarios y activar la característica. Esto lo tienes que hacer en ambos ordenadores que quieras conectar entre sí.

Usa Telnet

Ahora, tienes que abrir la aplicación Terminal de Windows. En ella, simplemente tienes que escribir los comandos para ejecutar las funciones que quieras realizar mediante Telnet. Por ejemplo, puedes escribir telnet  <nombre del dominio> o telnet <dirección IP> para acceder remotamente a un equipo o servidor.

También tienes comandos para hacer verificaciones de puertos abiertos en webs u ordenadores con el comando telnet <dominio o IP> <puerto>, y si el puerto está cerrado verás un error. Además, hay comandos como display para ver la configuración de una conexión, set para cambiar la configuración de conexión o mode para cambiar el modo de transferencia.

Te recordamos que las conexiones no están cifradas, lo que le abre la puerta a varios tipos de ataques informáticos o la intercepción de los datos. Por eso, incluso aunque la utilización de esta tecnología no esté pensada para usuarios domésticos, no suele ser recomendable utilizarla en ningún sitio.


La noticia Telnet en Windows 11: qué es y cómo activarlo fue publicada originalmente en Xataka por Yúbal Fernández .

2 February, 2023 Leer más →
Technology

Los nuevos Samsung Galaxy Book3 son muy delgados, pero no renuncian a lo mejor de Intel y NVIDIA

Los nuevos Samsung Galaxy Book3 son muy delgados, pero no renuncian a lo mejor de Intel y NVIDIA

Samsung ha aprovechado su evento Unpacked 2023 para presentar no solo la nueva familia de móviles Galaxy S23 —con un S23 Ultra espectacular y que nos ha encantado en nuestras primeras impresiones—, sino también para mostrar sus nuevos ultraportátiles, los Samsung Galaxy Book3. Llegan en cuatro variantes: Pro 14, Pro 16, Pro 360 y el verdadero referente de la familia: el Samsung Galaxy Book3 Ultra.

Este último modelo es el buque insignia de la firma, y con razón: el equipo presume de contar con unos componentes dignos de cualquier portátil gaming, pero lo hace sin traicionar el diseño estilizado de un ultraportátil que engaña: es mucho más potente de lo que aparenta.

Ficha técnica de los Samsung Galaxy Book3

Galaxy Book3 Pro 14

Galaxy Book3 Pro 16

Galaxy Book3 360

Galaxy Book3 Pro 360

Galaxy book3 Ultra

Pantalla

Dynamic AMOLED 14 pulgadas

2.880 x 1.800 px

16:10, 500 nits, 120 Hz

Dynamic AMOLED 16 pulgadas

2.880 x 1.800 px

16:10, 500 nits, 120 Hz

Dynamic AMOLED 13,3 / 15,6″ pulgadas

Full HD

16:9

120% DCI-P3

Dynamic AMOLED 16 pulgadas

2.880 x 1.800 px

16:10, 500 nits, 120 Hz

Dynamic AMOLED 16 pulgadas

2.880 x 1.800 px

16:10, 500 nits, 120 Hz

Procesador

Intel Core i5 13ª Gen

Intel Core i7 13ª Gen

Intel Core i5 13ª Gen

Intel Core i7 13ª Gen

Intel Core i5 13ª Gen

Intel Core i5 13ª Gen

Intel Core i7 13ª Gen

Intel Core i5 13ª Gen

Intel Core i7 13ª Gen

Tarjeta gráfica

Intel Iris Xe

Intel Iris Xe

Intel Iris Xe

Intel Iris Xe

Intel Iris Xe

NVIDIA GeForce RTX 4050

NVIDIA GeForce RTX 4070

Memoria

8 / 16 / 32 GB LPDDR5

8 / 16 / 32 GB LPDDR5

16 GB LPDDR5

8 / 16 / 32 GB LPDDR5

16 / 32 GB LPDDR5

Almacenamiento

256 GB / 512 GB / 1 TB SSD PCIe 4.0

256 GB / 512 GB / 1 TB SSD PCIe 4.0

512 GB SSD PCIe 4.0

256 GB / 512 GB / 1 TB SSD PCIe 4.0

512 GB / 1 TB SSD PCIe 4.0

Ranura para unidad adicional

Conectividad

Wi-Fi 6E

Bluetooth 5.1

Wi-Fi 6E

Bluetooth 5.1

Wi-Fi 6E

Bluetooth 5.1

Wi-Fi 6E

Bluetooth 5.1

Wi-Fi 6E

Bluetooth 5.1

Puertos

2 x USB-C (Thunderbolt 4)

1 x USB-A (USB 3.2 Gen 2)

1 x HDMI 1.4

1 x minijack 3,5 mm

Lector microSD

2 x USB-C (Thunderbolt 4)

1 x USB-A (USB 3.2 Gen 2)

1 x HDMI 1.4

1 x minijack 3,5 mm

Lector microSD

2 x USB-C (Thunderbolt 4)

1 x USB-A (USB 3.2 Gen 2)

1 x HDMI 1.4

1 x minijack 3,5 mm

Lector microSD

2 x USB-C (Thunderbolt 4)

1 x USB-A (USB 3.2 Gen 2)

1 x HDMI 1.4

1 x minijack 3,5 mm

Lector microSD

2 x USB-C (Thunderbolt 4)

1 x USB-A (USB 3.2 Gen 2)

1 x HDMI 1.4

1 x minijack 3,5 mm

Lector microSD

Audio

4 altavoces AKG (5 W x 2, 2 W x 2), Dolby Atmos

4 altavoces AKG (5 W x 2, 2 W x 2), Dolby Atmos

4 altavoces AKG (5 W x 2, 2 W x 2), Dolby Atmos

4 altavoces AKG (5 W x 2, 2 W x 2), Dolby Atmos

4 altavoces AKG (5 W x 2, 2 W x 2), Dolby Atmos

Webcam

1080p

Micrófono dual

1080p

Micrófono dual

1080p

Micrófono dual

1080p

Micrófono dual

1080p

Micrófono dual

Batería

63 Wh

Adaptador universal de 65 W USB-C

76 Wh

Adaptador universal de 65 W USB-C

N.d.

76 Wh

Adaptador universal de 65 W USB-C

76 Wh

Adaptador universal de 65 W USB-C

Dimensiones y peso

312,3 x 223,8 x 11,3 mm

1,17 kg

355,4 x 250,4 x 12,5 mm

1,56 kg

12,9 mm de grosor / 1,16 kg (13,3″)

13,7 mm de grosor / 1,46 kg (15,6″)

355,4 x 252,2 x 12,8 mm

1,66 – 1,71 kg (5G)

355,4 x 250,4 x 16,5 mm

1,79 kg

Sistema Operativo

Windows 11

Windows 11

Windows 11

Windows 11

Windows 11

Otros

N.d.

N.d.

S Pen

S Pen

N.d.

Precio

Desde 1.799 euros

Desde 1.899 euros

Desde 1.399 euros

Desde 1.999 euros

N.d.

Una familia muy completa (y delgada)

Samsung ha querido aquí plantear opciones para todos los gustos. Los Samsung Galaxy Book3 Pro 14 y Pro 16 se diferencian esencialmente en la diagonal de su pantalla: el modelo de 16 pulgadas permite que podamos contar con teclado numérico, pero en ambos casos los delgados marcos utilizados en la pantalla hacen que las dimensiones de estos equipos estén realmente contenidas.

Book3 7

Estos dos modelos son especialmente delgados y livianos, y de hecho el Galaxy Book3 Pro de 14 pulgadas presume de un grosor de tan solo 11,3 mm y un peso de partida de ,17 kg mientras que el modelo Pro 16 es lógicamente algo más grueso y pesado: cuenta con un grosor de 12,5 mm —de nuevo, muy destacable— y llega a los 1,56 kg.

Más sorprendente es la elección de panel del modelo convertible: el Galaxy Book3 Pro 360 es un modelo de gran formato por su panel de 16 pulgadas. Las especificaciones son idénticas a las del modelo Pro 16, con la sensible diferencia de que su pantalla es táctil y su bisagra permite que se abata casi 360 grados.

Este modelo es ligeramente más grueso y pesado que la versión no convertible. Sin embargo sigue siendo realmente delgado (12,8 mm) y su peso asciende a 1,66 kg en la versión estándar y a 1,71 kg si elegimos la versión con el módulo de conectividad 5G.

Book3 8

Hay además versiones más asequibles y modestas de los convertibles: los Galaxy Book3 360 (a secas, sin el “Pro”) están disponibles en variantes de 13,3 y 15,6″ y cuentan con pantallas FullHD, procesador Intel Core i5 de 13ª generación, 16 GB de RAM y SSD de 512 GB. Como sus hermanos mayores, la pantalla es táctil y compatible con el S Pen.

En casi todos los casos —salvo estos últimos Book3 360— tenemos paneles AMOLED en formato 16:10 con resolución de 2.880 x 1.800 píxeles, procesadores  Intel Core de 13ª generación (serie P) y gráficas integradas Intel Iris Xe Gen12 que serán totalmente solventes en casi todos los escenarios, pero que desde luego no serán ideales si lo que queremos es jugar a videojuegos exigentes.

La oferta de puertos de conexión es decente, y es de agradecer que además de los dos puertos USB-C con interfaz Thunderbolt 3 sigamos contando con un puerto USB-A con interfaz USB 3.2 Gen 2. Es una lástima que los dos puertos USB-C estén en el mismo lateral, algo que condiciona la conexión al cable de carga, que hace uso de esos puertos.

Contamos además con un puerto HDMI de tamaño completo (aunque tan solo en su versión 1.4), un conector de minijack de 3,5 mm y, eso sí, un bienvenido lector de tarjetas Micro SD.

Book3 9

Las baterías van desde los 63 Wh del modelo de 14 pulgadas a los 76 Wh de los modelos de 16 pulgadas. El adaptador de carga hace uso del citado puerto USB-C y tiene una potencia de 65 W. La experiencia multimedia se completa con la webcam 1080p, un sistema dual de micrófono y un conjunto de cuatro altavoces AKG (dos principales, dos tweeters) con soporte Dolby Atmos.

La bestia solo podía apellidarse “Ultra”

El gran referente de esta renovada familia es el Samsung Galaxy Book3 Ultra, un ultraportátil que presume de un diseño elegante y, desde luego, denso. En sus 16,5 mm de grosor y, 1,79 kg de peso se encierra un buen montón de tecnología de última generación.

Book3 4

Para empezar, contamos con un panel OLED de 16 pulgadas en formato 16:10, con resolución de 2.880 x 1.800 píxeles y que soporta una frecuencia de refresco de 120 Hz.

La certificación HDR 500 es también una garantía tanto a la hora de reproducir contenidos como a la hora de jugar, y es que este equipo es una llamativa opción para gamers. El audio está cubierto de forma notable con cuatro altavoces AKG con soporte Dolby Atmos.

Book3 2

Lo es no solo por sus opciones de procesadores (Core i7-13700H y Core i9-13900H, mucho más potentes que los de la serie P usados en el resto de la familia), sino por poder contar con gráficas dedicadas de última generación. En concreto, las NVIDIA RTX 4050 y las aún más poderosas NVIDIA RTX 4070.

A esos componentes se les suman los 16 o 32 GB de memoria RAM LPDDR5 y una unidad SSD M.2 NVMe PCIe 4.0 de hasta 1 TB. Podremos expandir ese almacenamiento con una segunda unidad SSD M.2, siendo esta otra de las diferencias con el resto de la familia. La conectividad inalámbrica está asegurada con el soporte de Wi-Fi 6E y Bluetooth 5.1.

Book3 6

La oferta de puertos de conexión es idéntica a la de sus hermanos, y en este caso también contamos con una batería de 76 Wh, que es muy decente para escenarios de trabajo pero que quedará condicionada si elegimos los modelos con las gráficas dedicadas de NVIDIA, que lógicamente comprometerán la duración de esas baterías si jugamos a juegos exigentes.

Disponibilidad y versiones de los Samsung Galaxy Book3

La disponibilidad de los nuevos portátiles se iniciará el 17 de febrero, aunque ya están disponibles en precompra. Los precios de los Samsung Galaxy Book3 son los siguientes para los modelos disponibles en España inicialmente:

  • Galaxy Book3 360 (13,3″, i5, 16/512 GB, Intel Iris Xe): 1.399 euros.
  • Galaxy Book3 360 (15,6″, i7, 16/512 GB, Intel Iris Xe): 1.599 euros.
  • Galaxy Book3 Pro 360 (16″, i7, 16/512 GB, Intel Iris Xe): 1.999 euros.
  • Galaxy Book3 Pro 14 (i7, 16/512 GB, Intel Iris Xe): 1.799 euros.
  • Galaxy Book3 Pro 16 (i7, 16/512 GB, Intel Iris Xe): 1.899 euros.
  • Galaxy Book3 Pro 16 (i7, 16 GB/1 TB, Intel Iris Xe): 2.099 euros.

El Samsung Galaxy Book3 Ultra estará disponible a partir del 22 de febrero, pero de momento no tenemos datos sobre su precio de partida en España.


La noticia Los nuevos Samsung Galaxy Book3 son muy delgados, pero no renuncian a lo mejor de Intel y NVIDIA fue publicada originalmente en Xataka por Javier Pastor .

2 February, 2023 Leer más →