Technology

Technology

Apple se ha empeñado en “iosificar” macOS. A los usuarios de Mac de toda la vida les parece regular

Apple se ha empeñado en

MacOS 13 Ventura ya está aquí. La nueva versión del sistema operativo de Apple para sus ordenadores de sobremesa y portátiles llega con un puñado de cambios importantes, pero si eres un “maquero” de la vieja escuela, cuidado: puede que alguno de ellos te siente como un tiro.

Son muchos los mensajes que se están viendo con quejas y críticas de los nuevos Ajustes del sistema (antes Preferencias). El panel es una demostracion más de la curiosa obsesión que Apple tiene por “iosificar macOS”. Unificar la interfaz parece un objetivo loable, pero este no es el camino a seguir según la recepción que está teniendo esta característica.

“Esto es una jod*** broma”

Los análisis que han aparecido sobre la nueva versión de macOS están criticando duramente algunas de las decisiones de Apple. Riccardo Mori, editor, consultor y usuario veterano, se sentía decepcionado por los cambios, y comentaba cómo en su opinión tanto Stage Manager como los nuevos Ajustes de Sistema son “una jod*** broma”.

Captura De Pantalla 2022 10 25 A Las 16 32 26

Antonio Sabán, director de Genbeta, coincide con las críticas. Esta captura de su equipo muestra la nueva interfaz de los Ajustes de macOS. “Una cosa que hemos ganado”, comenta irónicamente: “se puede redimensionar la ventana. En la antigua de Preferencias no se podía”.

Para él el deseo de simplificar las cosas y ofrecer las ventajas de iOS en los Mac es interesante desde cierto punto de vista, pero llevar el “look & feel” de iOS al Mac es “innecesario, y ha roto un montón de guías de diseño de interfaz del Mac probadas y validadas”.

Otros expertos coinciden en esa visión: en Ars Technica califican ese nuevo panel de “descuidado”. Como apuntan allí, es usable y se puede decir que cumple, “pero va a hacer que un montón de usuarios de Mac de toda la vida cambien su comportamiento sin realmente ofrecer algo que se sienta inequívocamente mejor que lo que reemplazó”.

Nuestro compañero Javier Lacort lleva meses usando la beta de macOS Ventura, y hace semanas ya avisó de cómo “[la aplicación de Ajustes] que ha llegado a macOS Ventura es un resultado muy poco convincente´”.

Javier mantiene su opinión y nos indicaba que “no te acostumbras“. Ya en aquel artículo apuntaba de hecho al análisis de un programador llamado Niki Tonsky que en un hilo de Twitter hacía un buen repaso de los problemas, que eran muchos y variados. Eso sí: algunos de los problemas estaban presentes en aquella beta a la que se refería Tonsky ya se han solucionado en esta versión estable de macOS Ventura.

Las críticas continúan en medios reputados —y tradicionalmente favorables a Apple— como MacStories, donde indican que “las Preferencias del Sistema deberían haberse renovado hace tiempo, pero los Ajustes del Sistema no son el rediseño que necesitábamos. En cambio, es un claro ejemplo de por qué no se puede plantar el diseño de iOS o iPadOS en macOS y dejarlo tal cual”. John Gruber, conocidísimo en ese mundillo por su blog Daring Fireball, coincidía.

Los análisis (negativos) y las críticas se repiten por uno y otro en plataformas como Reddit. Allí, cómo no, gastan bromas al respecto, aunque también hay alabanzas a ese cambio. Curiosamente Craig Federighi, máximo responsable del desarrollo, destacó que esos cambios no se habían inspirado en iOS. Lo que buscaban, explicaba, era consistencia para los usuarios.

A (casi) nadie le gustan los cambios

La polémica con los Ajustes del Sistema en macOS Ventura es el último capítulo de una realidad muy clara en el segmento de los sistemas operativos: a nadie le gustan los cambios.

Captura De Pantalla 2022 10 25 A Las 16 35 51

No es que Microsoft pueda presumir precisamente de consistencia. Lo de que el Panel de Control siga vivo en Windows 11 es de traca.

Es algo que curiosamente en Apple han tenido bastante presente en la evolución de sus sistemas operativos. Han cambiado, sí, pero lo han hecho de forma muy gradual y, en la mayoría de los casos, consistente.

La cosa es distinta por ejemplo en plataformas como Windows, donde los cambios de timón han sido mucho más radicales. Lo recordarán bien los usuarios de Windows 8 y Windows 8.1, polémicos por su foco en lo táctil y aquella interfaz Metro que quería unificar la informática móvil con la de sobremesa.

Aquello fue un fracaso, pero Microsoft sigue siendo famosa por sus inconsistencias de diseño. El mejor ejemplo, el (casi) inmortal Panel de Control que lleva con nosotros desde (redoble de tambor) 1985.

En Redmond llevan cerca de cuarenta años sin acabar de cargárselo, y hoy en día Windows 11 sigue ofreciendo su herramienta de Configuración y, un poco escondido, el Panel de Control que sigue vivito y coleando con su vieja interfaz.

Hay otros ejemplos en otras plataformas y desde luego en todo tipo de servicios y aplicaciones web. Muchos criticaron a Facebook cuando lanzó su “News Feed”, pero aquello acabó siendo aceptado y cambió internet para siempre (o la arruinó, como afirmaban en The New York Times). Podríamos enumerar muchos otros casos, pero la idea es la misma: no nos gusta que nos cambien las cosas, y la reacción habitual es criticar esos cambios.

La pregunta, claro, es si estas críticas serán escuchadas por Apple. Si servirán para algo. Desde luego funcionaron cuando la gente criticó los polémicos teclados de mariposa de los MacBook, y también cuando lanzaron el nuevo Safari para iOS el año pasado.

y ahora es importante recordar que un problema es a menudo una oportunidad de mejora. Así pues, esperemos que los Ajustes de macOS Ventura mejoren.


La noticia Apple se ha empeñado en “iosificar” macOS. A los usuarios de Mac de toda la vida les parece regular fue publicada originalmente en Xataka por Javier Pastor .

27 October, 2022 Leer más →
Technology

Hoy es un clásico de la ciencia ficción, pero en su día ‘Tron’ no ganó el Oscar a los efectos especiales por “hacer trampas”

Hoy es un clásico de la ciencia ficción, pero en su día 'Tron' no ganó el Oscar a los efectos especiales por

Hoy día, ‘Tron’ se considera un clásico sin ningún tipo de peros: con 40 años recién cumplidos, nadie discute ni su papel visionario ni su pionero empleo de los efectos especiales por ordenador. Hasta su argumento, en el que un programador se introduce en las tripas de un ordenador, resulta obvio y casi cotidiano tras el éxito de propuestas como ‘Matrix‘, pero en su momento, nadie había hecho nada igual.

Fue esta condición de pionera la que jugó un poco en su contra y convirtió la apuesta de Disney en un fracaso que solo recaudó cincuenta millones de dólares (un castañazo de tal calibre que el videojuego para recreativas de Midway que se inspiraba en su argumento llegó a recaudar más dinero). Su estética y su argumento resultaron difíciles de asimilar por el público de la época.

Y no solo por el público: la propia industria se negó a reconocer el carácter innovador de la película. Visualmente apabullante (pese a su tosquedad técnica, de estética fascinante hoy día), la Academia de Cine no se dignó ni a nominarla a la categoría de Mejores Efectos Especiales. ¿El motivo? Se consideró que hacer efectos con la ayuda del ordenador era hacer “trampa”. Sus competidores ese año fueron tres clasicazos del calibre de ‘E.T. el extraterrestre’ (que ganó), ‘Poltergeist’ y ‘Blade Runner’, pero ‘Tron’ hubiera merecido estar ahí.

Es curioso que se considerara que ‘Tron’ hizo trampas, porque crear sus efectos fue cualquier cosa menos sencilla. Exigió el concurso de cuatro empresas punteras de gráficos computerizados de la época, y solo para producir algo menos de veinte minutos de imágenes por ordenador. Para hacerse una idea de los rudimentarios métodos con los que se contaba, los ordenadores que se empleaban tenían unos 2 MB de memoria y apenas 330 MB de almacenamiento, y los icónicos fondos negros de la película iban a ser originariamente blancos, como en ‘THX 1138’, pero los computadores no podían generarlos y tuvieron que decantarse por escenarios negros.


La noticia Hoy es un clásico de la ciencia ficción, pero en su día ‘Tron’ no ganó el Oscar a los efectos especiales por “hacer trampas” fue publicada originalmente en Xataka por John Tones .

27 October, 2022 Leer más →
Technology

El gran debate filosófico del siglo XX sigue abierto desde que Einstein rechazara el antirrealismo y la interpretación de Copenhague

El gran debate filosófico del siglo XX sigue abierto desde que Einstein rechazara el antirrealismo y la interpretación de Copenhague

Suelo decirles a los alumnos de mis clases de filosofía de la ciencia que uno de los mayores debates científico-filosóficos del siglo XX casi nunca se les menciona con algún detalle a los estudiantes de filosofía (y hasta donde sé tampoco a los de ciencias). Me refiero al debate sobre la naturaleza de la realidad y los fundamentos de la teoría cuántica que se inició en 1927 en el Congreso Solvay de Bruselas y perdura hasta nuestros días.

Los dos grandes protagonistas del mismo fueron Albert Einstein y Niels Bohr, pero desde luego no fueron los únicos intervinientes. Al lado antirrealista, que era el de Bohr, se sumaron también Werner Heisenberg, Max Born y John von Neuman, entre otros, y en el lado realista que era el de Einstein, se situaron, aunque de forma más diversa, Erwin Schrödinger, Louis de Broglie, David Bohm, John Bell y Hugh Everett. Fue un debate que alcanzó en ocasiones una intensidad inusitada e incluso una sorprendente acritud y enconamiento, que llegó al extremo de arruinar algunas carreras prometedoras.

Su trascendencia cultural fue mucho mayor de lo que tiende a pensarse, y, si bien se mira, no se comprenden cabalmente algunos acontecimientos del siglo XX, no solo en el ámbito científico y filosófico, sin conocer sus entresijos.


Realistas versus antirrealistas: algo más que un simple debate científico

La teoría cuántica es la teoría científica mejor confirmada y más exitosa que tenemos. Casi toda la tecnología actual más relevante se basa en ella. Ha sido, además, desde sus comienzos intrigante para los filósofos y para los físicos con vocación teórica, porque plantea problemas de gran envergadura y profundidad, que sus creadores se tomaron muy en serio. Se dice que Bohr estuvo garabateando en su lecho de muerte una respuesta a la última objeción de Einstein, quien nunca aceptó que la teoría cuántica fuese una teoría acabada.

Solvay Conference 1927

Congreso Solvay celebrado en 1927

En esencia, el debate filosófico sobre la “realidad” cuántica no es sino la continuación de un viejo debate sobre la forma más adecuada de entender las teorías científicas y su relación con el mundo que tratan de conocer. Hay dos posiciones básicas. Según los realistas, las teorías científicas tienen como objetivo averiguar, aunque sea siempre de forma falible, qué entidades y procesos hay en el mundo, qué propiedades tienen y por qué cambian de un modo definido. Esas entidades, procesos y propiedades existen en el mundo con independencia de cualquier observador.

Consideran, además, que las evidencias obtenidas mediante la observación y los experimentos pueden aportar elementos de juicio para aceptar la verdad (aproximada) de las teorías exitosas.

Los antirrealistas ven las cosas de otro modo. Consideran que el papel de las teorías científicas consiste en calcular, predecir y controlar una forma simple y fructífera las manifestaciones observables de la naturaleza (lo que los clásicos llamaban “salvar los fenómenos”). Las teorías son, pues, herramientas conceptuales para manejar el mundo y no deben interpretarse como guías ontológicas, es decir, no deben tomarse como un catálogo acerca del mobiliario del universo, y mucho menos en lo que se refiere a las entidades inobservables. La evidencia empírica sólo nos permite afirmar la adecuación empírica de la teoría, es decir, solo podemos afirmar que la teoría ha encajado bien hasta el momento con los fenómenos conocidos y, particularmente, que ha resultado efectiva en su capacidad de predicción.

La interpretación de Copenhague, el origen de la discordia

La teoría cuántica constituye un desafío para las posiciones realistas si la tomamos en la interpretación considerada como estándar, la interpretación de Copenhague, desarrollada fundamentalmente por Bohr, Heisenberg y Born. Una interpretación cuyo contenido preciso, sin embargo, sigue siendo objeto de controversia entre físicos e historiadores. De hecho, Bohr y Heisenberg discreparon en puntos importantes.

También en cuanto a sus planteamientos filosóficos. Bohr fue una especie de fenomenista kantiano, mientras que Heisenberg estuvo más cercano al positivismo. En lo que ambos coincidían era en su instrumentalismo.

Bohr Antirrealismo

Bohr, un tipo poco realista.

Para empezar, en dicha interpretación la teoría no atribuye valores definidos a ciertas propiedades de los sistemas físicos que estudia (por ejemplo, la posición y la velocidad de un electrón) hasta tanto no hayan sido observados o medidos. Tales propiedades sólo adquieren un valor real en el proceso de medición, y siempre dentro del contexto de la completa situación experimental.

Por tanto, no tiene sentido hablar de ellas como si estuvieran definidas con independencia del acto de medición y este nos diera únicamente ese valor previo desconocido. Su “realidad”, el valor concreto de cada una de ellas, se adquiere precisamente en el conjunto del dispositivo experimental montado para observarlas. Antes de ese momento, el sistema cuántico evoluciona (de forma determinista) en una superposición de estados, es decir, en una combinación de todos los valores posibles para cada una de esas propiedades.

La evolución de este sistema es descrita por una ecuación propuesta por Schrödinger. En ella se describe la evolución en el tiempo de la función de onda Ψ, que a su vez es la representación del estado del sistema cuántico. Inmediatamente después de que Schrödinger la propusiera, Max Born proporcionó una interpretación probabilística de la función de onda. De acuerdo con Born, el cuadrado del valor absoluto de Ψ nos daría la probabilidad de obtener ciertos resultados en las mediciones. La función de onda no representaría, por tanto, ninguna onda real, sino que es, en definitiva, una herramienta para calcular la probabilidad de obtención de los resultados experimentales.

Veámoslo con un ejemplo. Los electrones tienen una propiedad conocida como spin o momento angular intrínseco, que puede tomar los valores de +1/2 y –1/2 (en un sentido laxo se puede decir que esto es algo así como si el electrón estuviera girando hacia la derecha o hacia la izquierda). Antes de que alguien lo observe, el electrón está un estado de “mezcla” o superposición de los dos valores; pero una vez que se mide el spin de ese electrón, el acto de medición hace que la función de onda “colapse” y solo se obtiene uno de los dos resultados posibles.

La reducción a un solo estado se conoce como el ‘colapso de la función de onda’. La transición instantánea, no regida ya por la ecuación de Schrödinger, de un sistema evolucionando de forma determinista en una superposición de estados a un sistema que adquiere de forma indeterminista uno de los estados posibles constituye ‘el problema de la medida’. El problema no es otro que el de explicar cómo y por qué se produce este extraño salto. ¿Qué es exactamente lo que cambia ¿Ha de implicar el proceso a un observador humano?

El gato de Schrödinger y la superposición de estados

Schrodingers Cat Svg

Todos hemos oído hablar alguna vez del gato de Schrödinger. Se trata precisamente de un experimento mental formulado por Schrödinger para mostrar la situación paradójica a la que puede conducir la idea de la superposición de estados.

Un gato está dentro de una caja cerrada en cuyo interior hay un dispositivo que deja escapar un veneno en caso de que se produzca la desintegración de un átomo de material radioactivo (un fenómeno cuántico). La desintegración será detectada por un contador Geiger conectado a un martillo que romperá el tarro del veneno.

La probabilidad de que se produzca esa desintegración en un tiempo determinado sería del 50%. Mientras no abrimos la caja, el átomo está en una superposición de estados desintegrado/no-desintegrado y solo adquiere definitivamente una de estas dos condiciones una vez que la abrimos y, mediante esa acción, al observar el resultado, fijamos para siempre una de las dos posibilidades. Por la misma razón, el gato permanecería antes de que alguien lo observara en una superposición de estados vivo/muerto, puesto que su vida dependía del estado del átomo en cuestión, y sólo adquiriría uno de esos dos estados en el momento de la observación.

Probablemente a su pesar, Schrödinger tenía razón: las situaciones contraintuitivas que permite la mecánica cuántica no quedan confinadas al mundo microscópico, sino que pueden alcanzar al menos a ciertos niveles del macroscópico

Schrödinger quería poner de manifiesto con este experimento mental que las paradojas surgidas de las superposiciones de estados en los sistemas microfísicos no estaban confinadas en el ámbito atómico y subatómico, sino que podían ser trasladadas al ámbito macroscópico, donde el choque con el sentido común se hacía más inquietante y resultaba más patente, digámoslo así, lo absurdo de la interpretación propuesta sobre el problema de la medida.

El tiempo nos ha mostrado que aquello no resultó un mero juego intelectual. En la actualidad se han conseguido obtener “gatitos” de Schrödinger en el laboratorio. Son objetos que han sido puestos en una superposición de estados. En 1996 se consiguió hacerlo con un ión de berilio. Después se ha conseguido con moléculas cada vez más grandes. En 2019 se hizo con una molécula de oligoporfirina, que tiene más de 2000 átomos.

Más recientemente se ha logrado el entrelazamiento de estados en objetos macroscópicos, aunque de pequeño tamaño. El entrelazamiento es una superposición de estados que implica a dos o más sistemas cuánticos que han estado en interacción.

Todo esto sería la prueba de que, probablemente a su pesar, Schrödinger tenía razón: las situaciones contraintuitivas que permite la mecánica cuántica no quedan confinadas al mundo microscópico, sino que pueden alcanzar al menos a ciertos niveles del macroscópico. Él lo planteó como una forma de mostrar que la interpretación de Copenhague no podía ser correcta, pero lo que se ha visto es que en realidad no había nada absurdo o imposible en la situación (aunque eso no significa que la Interpretación de Copenhague sea la correcta).

Una de las explicaciones más aceptadas actualmente de por qué esto no se da en niveles mayores es la “decoherencia”. Según esta idea, la interacción con el entorno macroscópico, como sucede en un proceso de medición mediante un dispositivo experimental, rompe la coherencia de los estados cuánticos y destruye la manifestación de su superposición. Los estados clásicos (vivo o muerto) serían los más robustos en dicha interacción y son los que se manifiestan.

Como es fácil entender, el coste epistémico de aceptar todo esto es enorme, puesto que entonces habría que admitir que la teoría cuántica no habla sobre objetos y propiedades reales, sino solo sobre los resultados de nuestras mediciones, o más en concreto, sobre las probabilidades de obtener tales resultados si decidimos medir un sistema.

¿En qué consiste exactamente la interpretación de Copenhague?

Heisenbergbohr

Heisenberg y Bohr en 1934

Los defensores de la interpretación de Copenhague, aunque variaron en sus posiciones a lo largo del tiempo, se manifestaron en este sentido. Así, Heisenberg escribe:

“Las leyes naturales que se formulan matemáticamente en la teoría cuántica no se refieren ya a las partículas elementales en sí, sino a nuestro conocimiento de dichas partículas.”

Por su parte, Bohr mantuvo una posición no demasiado clara que sigue siendo hoy objeto de análisis, pero en cierto momento afirmó:

“No hay un mundo cuántico. Hay sólo abstractas descripciones físicas cuánticas. Es equivocado pensar que la tarea de la física es averiguar cómo es la naturaleza. La física se refiere a lo que nosotros podemos decir de ella”.

Pero precisemos en qué consiste la interpretación de Copenhague. Aunque es difícil señalar un conjunto definido de tesis como constitutivas de esta interpretación, dado que hubo más desacuerdos en puntos concretos de los que se dejaban traslucir, se puede decir que esta interpretación afianza las siguientes ideas, que desde entonces se convierten en la forma ortodoxa y casi general de entender la teoría cuántica:

  1. La función de onda es una herramienta de cálculo. Lo que el físico hace es construir una función de onda a partir de ciertas observaciones, y esa función es meramente un predictor de las probabilidades de los resultados de posteriores mediciones.
  2. El estado de un sistema entre dos observaciones no puede ser descrito. Carece de sentido en la teoría.
  3. Los conceptos clásicos (onda, corpúsculo, etc.) son imprescindibles en dicha descripción. Las descripciones en términos de onda y las descripciones en términos de partículas se refieren aspectos complementarios de los fenómenos microfísicos. Las “contradicciones” entre ambos aspectos son irreductibles (Principio de Complementariedad de Bohr).
  4. Los sistemas cuánticos tienen una naturaleza tanto ondulatoria como corpuscular, aunque la manifestación de una u otra dependerá del dispositivo experimental empleado en su medición.
  5. El colapso de la función de onda no es más que la determinación por parte del dispositivo de medida (debido a su carácter macroscópico) de uno de los posibles resultados de esa medida. Es la actualización de una potencialidad, en la explicación cuasi-aristotélica que ofrece Heisenberg.
  6. No puede trazarse una frontera precisa entre el dispositivo experimental y el sistema medido.

Piezas centrales de esta interpretación son los puntos 3 y 4, es decir, el Principio de Complementariedad y sus consecuencias. Los conceptos clásicos ondulatorios y corpusculares han de ser empleados en la explicación de los fenómenos cuánticos tal como nuestros instrumentos los detectan y miden, pero –y esto es lo decisivo– no son aplicables a los sistemas cuánticos en sí mismos, ya que, como señalamos antes, sobre determinadas características sólo se puede decir que adquieren “realidad” en el conjunto del dispositivo experimental, el cual solo permitirá medir un tipo de esas características en exclusión de otros.

Esta idea, unida a la interpretación probabilística de la función de onda que da Born, son los elementos que chocan más frontalmente con una interpretación realista de la teoría cuántica.

Esa es la razón principal por la que Einstein no aceptó ninguno de estos dos elementos. Sus convicciones realistas le llevaban a pensar que la mecánica cuántica, tal como estaba formulada, no podía ser la última palabra en la descripción de la naturaleza. Además, el papel que le concedía al azar, y, por tanto, su renuncia al determinismo, eran para él un motivo para creer que no era una teoría completa y que tarde o temprano sería sustituida por otra teoría que recuperara el determinismo y el realismo.

Einstein Buena

Einstein, siempre con lo real.

Añadamos a esto que en ocasiones se incluye en la interpretación de Copenhague elementos que algunos de los propios artífices de la interpretación no aceptaron. En su obra Fundamentos matemáticos de la mecánica cuántica, publicada en 1932, John von Neumann proporcionó una formalización axiomática de la teoría e hizo una interpretación del problema de la medida que ejerció gran influencia. Consideraba necesario otorgar un papel destacado al observador en el acto de medición: el simple conocimiento por parte de un observador cambia el estado de un sistema físico.

Con ello, la mente del observador, incluso podría decirse que su mera consciencia, adquiere una función central en el proceso. Esto desviará la interpretación de la teoría hacia el idealismo. Bohr y sus seguidores no aceptaron nunca este papel decisivo de la consciencia. Para ellos, era el dispositivo experimental el que colapsaba la función de onda.

En esa misma obra, von Neumann ofreció una demostración, que todos aceptaron, de que no eran posibles teorías de “variables ocultas” en mecánica cuántica, es decir, teorías que pretendieran restaurar el determinismo y el realismo en la física bajo el supuesto de que la teoría no recogía todas las variables pertinentes. Esto se interpretó como un respaldo definitivo de la interpretación de Copenhague. Hoy sabemos que la pretendida demostración contenía un supuesto injustificado que la invalidaba, pues asumía de forma implícita que solo las teorías equivalentes a la formulación vigente de la mecánica cuántica eran aceptables.

Años después, en 1945, David Bohm pudo elaborar, de hecho, una teoría de variables ocultas. Feyerabend ponía este episodio como un ejemplo del modo en que el argumento de autoridad funciona en la ciencia. Sencillamente, muy pocos físicos eran capaces de entender plenamente la demostración, pero todos aceptaban la palabra de Bohr al respecto. La primera persona en darse cuenta del error, ya en 1935, fue una mujer, matemática y filósofa: Grete Hermann. Pero su artículo fue completamente ignorado. Era mujer, no era conocida y el artículo se publicó en una revista no muy relevante.

Hubo que esperar hasta 1966 a que John Bell mostrara de nuevo las deficiencias en la demostración de von Neumann. Si se hubiera atendido a la refutación de Hermann, la historia de las discusiones sobre los fundamentos de la teoría cuántica habría cambiado sustancialmente.

De hecho, en fecha tan temprana como 1927 ya se formuló una interpretación rival a la de Copenhague que chocaba con lo que von Neumann parecía haber demostrado. Louis de Broglie propuso en el V Congreso Solvay, celebrado ese año, una versión de la mecánica cuántica en la que el corpúsculo, identificado como una concentración de energía en una pequeña región de una onda, preserva su naturaleza clásica. Pero, a diferencia de las partículas clásicas, es guiado por una onda Ψ y, por tanto, está sujeto a los efectos de difracción.

Louis

Louis de Broglie y sus divertidísimos amigos charlando sobre lo real y lo irreal.

La función de onda Ψ juega entonces un doble papel: es una onda de probabilidad, pero representa también una onda piloto que determina la trayectoria de la partícula en el espacio. En efecto, Ψ tiene el carácter de una representación subjetiva de las probabilidades construidas con la ayuda de una onda objetiva. La dualidad onda-partícula es reducida así por de Broglie a una síntesis onda-partícula: la realidad física no está constituida por ondas o por partículas, dependiendo del dispositivo experimental utilizado, sino por ondas y partículas conjuntamente.

La onda tendría una singularidad cuya trayectoria correspondería a la trayectoria de una partícula. La idea básica era similar a la que desarrollaría varios años después David Bohm. Sin embargo, de Broglie abandonó al año siguiente esta teoría debido a las críticas de von Neumann y otros, y se sumó a la interpretación de Copenhague.

El experimento EPR

En 1935, en colaboración con los jóvenes físicos Boris Podolsky y Nathan Rosen, Einstein presentó en un breve artículo de cuatro páginas un caso imaginario, conocido desde entonces como el experimento o la paradoja EPR (por las iniciales de sus apellidos), con el que se trataba de dejar en evidencia la incompletud de la mecánica cuántica. De acuerdo con los autores, una teoría es completa si “todo elemento de la realidad física” tiene una contrapartida en la teoría. Pero ¿cuándo estamos ante un “elemento de la realidad física”?

El artículo lo aclara:

“Si podemos predecir con certeza (i. e., con probabilidad igual a la unidad) el valor de una cantidad física sin perturbar el sistema de ningún modo, entonces existe un elemento de realidad física correspondiente a esa cantidad física”.

Dicho de otro modo, si es posible obtener el valor exacto de una propiedad sin tan siquiera intervenir sobre el sistema físico al que se le atribuye, cabe suponer que ello obedece a que en realidad el sistema tiene esa propiedad con ese valor, es decir, el valor viene dado por un estado físico realmente existente. Hay además una premisa fundamental para el argumento que es asumida a lo largo del artículo. Esa premisa se conoce como el “supuesto o principio de localidad”.

Lo que afirma es que para dos sistemas que hayan interactuado en el pasado, ningún cambio que tenga lugar en uno de ellos después de que la interacción haya cesado puede ser consecuencia de un cambio en el otro.

El supuesto de localidad, o más bien su cuestionabilidad, se convertirá en un importante punto de discusión en el ulterior desarrollo del problema abierto por el artículo. El supuesto descarta la posibilidad de que la medición sobre un sistema ejerza alguna influencia instantánea sobre el otro sistema situado a distancia. Una vez separados, lo dos sistemas son independientes, a no ser, según Einstein y sus colaboradores, que estemos dispuestos a aceptar misteriosas acciones a distancia entre ellos.

Mediante el experimento mental que propusieron, intentaron probar que si se acepta la caracterización dada de la realidad física correspondiente a una magnitud física (junto con el supuesto de localidad), entonces la mecánica cuántica es incompleta, pues habría elementos de la realidad física sin una contrapartida en la teoría. Cabría esperar, pues, la formulación de una teoría mejor, que recogiera las variables que permanecían ocultas en la versión aceptada de la teoría (pese a lo que von Neumann había dicho) e hiciera desaparecer de este modo los problemas que suscitaba la interpretación de Copenhague.

Copenhague

Nunca una ciudad dio para tanto. (Lindsay Martin/Unsplash)

El razonamiento era el siguiente:

Sea un sistema compuesto por dos partículas A y B que han estado interactuando en el tiempo y después han dejado de hacerlo. Se supone que se conoce el estado de las dos partículas antes de interactuar y, por tanto, se puede determinar (mediante la ecuación de Schrödinger) el estado del sistema compuesto por las dos partículas en cualquier tiempo posterior, incluso cuando ya no interactúan.

Si medimos ahora el momento de una de las partículas (digamos A) mediante el instrumental apropiado, podemos calcular con seguridad el momento de la partícula B sin tener que efectuar ninguna medición sobre ella. Asimismo, si en lugar del momento, decidimos medir la posición de A, podemos calcular la posición de B. Puesto que en ambos casos hemos podido establecer los valores de la posición y el momento de una de las partículas sin perturbarla en absoluto, hemos de aceptar que la partícula posee real y simultáneamente una posición y un momento con esos valores. Ahora bien, la mecánica cuántica no recoge esa posibilidad en su formalismo; por lo tanto, la mecánica cuántica es una teoría incompleta.

La réplica de Bohr fue inmediata. Apareció en el número siguiente de la Physical Review. Pero, desde luego, no fue muy clara, como era habitual en él, y más adelante admitió. Lo que hizo básicamente fue criticar el criterio de realidad que el artículo de EPR ofrecía y reafirmarse en la idea de que la única descripción posible es la del fenómeno cuántico, es decir, la totalidad de la situación experimental. No puede trazarse una distinción nítida entre el sistema medido y el dispositivo de medición. Esto era tanto como negarse a aceptar por principio la mera posibilidad experimental que el artículo describía.

Las desigualdades de Bell y el experimento de Aspect

En lo esencial, la discrepancia quedó en suspenso durante treinta años, hasta que en 1964 el físico irlandés John Bell, investigador del CERN, fue capaz de darle un giro inesperado a la situación y consiguió reavivar un debate que para muchos ya había sido cerrado en su momento en favor de las tesis de Bohr.

Bell desarrolló un teorema matemático, en la forma de una desigualdad, que abría la posibilidad de discriminar experimentalmente entre las propuestas de Bohr y las de Einstein. Representaba una diferencia cuantitativa susceptible de contrastación empírica entre la interpretación de Copenhague y la interpretación realista local de Einstein.

John Bell Buena

La desigualdad marcaba un límite estricto en el nivel de correlación esperable para los resultados de medidas simultáneas efectuadas sobre dos partículas que hubieran estado interactuando. Era una desigualdad que las mediciones de los fenómenos debían cumplir siempre de acuerdo con cualquier teoría realista local, pero que debían ser violadas en ciertas circunstancias de acuerdo con la interpretación de Copenhague. En la visión ortodoxa, el grado de correlación de los resultados de las mediciones debía sobrepasar el límite marcado por la desigualdad.

Aunque hubo intentos previos muy meritorios, los primeros en conseguir montar un experimento con las suficientes garantías para dilucidar esta cuestión fueron Alain Aspect y sus colaboradores del Instituto de Óptica de la Universidad de Paris. El experimento, publicado en 1982, consistía en una situación comparable a la descrita en el experimento EPR, aunque lo que se medía era el ángulo de polarización de dos fotones correlacionados emitidos por una fuente común.

El resultado fue que las desigualdades de Bell no se cumplieron en ese sistema. El realismo local de Einstein se veía así seriamente tocado, mientras que la interpretación de Copenhague salía reforzada de la prueba.

Desde la perspectiva actual, la interpretación realista local de Einstein, perfeccionada por Bell, ha sido descartada en los diversos experimentos posteriores. Algunos de estos experimentos no estaban exentos de complicaciones o de “lagunas”, pero fueron eliminadas posteriormente, de modo que se puede decir que el incumplimiento de las desigualdades de Bell por parte de los sistemas cuánticos ha quedado bien establecido.

Aunque no todos están de acuerdo acerca de las conclusiones correctas que sacar de estos experimentos, la no-localidad tiende a ser asumida como una característica fundamental del universo y cualquier interpretación realista tendría que incorporarla (como hace la de David Bohm). Al menos en el sentido de que el sistema que ha estado interactuando en el pasado será después un sistema no-separable. Es importante añadir que esa no-localidad no permite enviar señales a mayor velocidad que la luz, y, por tanto, las correlaciones cuánticas no chocan con la teoría de la relatividad einsteiniana.

La interpretación de los muchos mundos

Existe una interpretación alternativa a la de Copenhague que proporciona una visión diferente y sorprendente de lo que ocurre en la realidad. Dicha interpretación, conocida como la de “los muchos mundos”. fue desarrollada en 1957 por Hugh Everett III en su tesis doctoral. Algunos la consideran una teoría, más que una mera interpretación, y, si bien no es la única alternativa ofrecida desde el realismo, sí es hoy la que más interés despierta.

Para entender su significado es útil recurrir a la interpretación que dio Bryce DeWitt de la paradoja de Schrödinger usando las ideas de Everett (aunque no contó con la aprobación del propio Everett). De acuerdo con esta interpretación, si miramos en la caja y encontramos que el gato está vivo, esta observación nos dice que ese es el resultado en nuestro universo, en el que el átomo radioactivo no se ha desintegrado, pero sabremos también en ese mismo instante, a partir de la aplicación del formalismo de la teoría, que hay un universo paralelo al nuestro en el que el observador (o sea, nosotros) encontrará que el gato está muerto, dado que en ese universo sí se habrá desintegrado el átomo.

Gato

¿Existe, no existe? Ah, si tan sólo lleváramos un siglo discutiéndolo. (Eric Han/Unsplash)

Todo acto de medición de un sistema cuántico que esté en una superposición de dos estados bifurca, por tanto, el universo, y en cada uno de los universos resultantes, ambos reales, se ha obtenido uno de los dos resultados posibles. A nosotros nos parece que hay un solo universo en el que el gato está vivo, pero existe otro universo en el que el resultado que hemos obtenido no ha sido ese.

Nos parece que en cualquier proceso de medición un solo resultado de los posibles se ha hecho real, sin embargo, eso es una mera apariencia: todos los resultados posibles se han hecho reales, solo que en universos diferentes. No hay, por tanto, colapso de la función de onda causado por la medición. He aquí la clave. Esto, entre otras cosas, evita el problema de la medida e implica que el determinismo es restaurado en esta interpretación.

Si el problema de la interpretación de Copenhague era su coste epistémico, que obligaba a una posición fenomenista radical y hasta idealista, al aceptar la interpretación de los muchos mundos, el coste a pagar es el ontológico, y es un coste enorme.

Téngase en cuenta que, aunque el electrón (o cualquier sistema cuántico comparable) tendría una posición y velocidad definidas antes de la observación, todos los resultados posibles de la medición se darían en universos reales, solo que la medición obtenida en nuestro universo habría sido una concreta, mientras que en otro universo, al que no tenemos acceso, otro yo idéntico a mí, rodeado también de todos los demás seres humanos, de todas las estrellas, de todas las galaxias, habría obtenido otro resultado posible. En general, según algunos, cualquier transición cuántica, medida o no, generaría nuevos universos. Y es de suponer que en esos universos se estarían a su vez generando constantemente nuevos universos.

La interpretación de los muchos mundos ha recibido diversas críticas desde el punto de vista de su coherencia interpretativa. Se ha señalado, por ejemplo, que no puede explicar satisfactoriamente el papel de la probabilidad (si todos los resultados posibles son reales, si todos se cumplen y están regidos por una ecuación de onda determinista, ¿cómo hablar entonces de probabilidad?, ¿es solo como consecuencia de que no podemos tener consciencia más que de uno de los mundos?). Lo más inquietante, sin embargo, es que choca de forma evidente con el famoso principio de la navaja de Ockham. Ese de que no hay que multiplicar los entes sin necesidad. Tanto más cuanto que estos entes son mundos enteros de los que nada puede saberse.

Pese a todo, esta interpretación ha recibido un fuerte apoyo entre cosmólogos e investigadores en computación cuántica. Quizá algún día tengamos la posibilidad de realizar un experimento que permita dirimir si esta interpretación es preferible las otras, como pudo hacerse con la de EPR. Por el momento, sin embargo, no existe esa posibilidad, lo que ha hecho que se la acuse también de infalsabilidad. Pero esta acusación es injusta, puesto que se han imaginado experimentos que podrían cumplir esta función, solo que por el momento son irrealizables. Para que una hipótesis sea falsable basta con imaginar cómo falsarla, aunque no podamos llevar la falsación a la práctica.

En definitiva, la mejor teoría física que tenemos, la teoría cuántica, nos deja sin la más mínima posibilidad de dar una interpretación del mundo que sea manejable para el sentido común. Llega un momento en el que sólo las matemáticas pueden guiarnos, pero ni siquiera ellas nos pueden ofrecer una respuesta única.

En todo caso, el debate entre realistas y antirrealistas no está cerrado. No se puede decir que ningún bando haya obtenido la victoria definitiva. Por ello quizá no sea mala idea adoptar la posición que sugiere Adam Becker en las páginas finales de su excelente libro sobre los problemas filosóficos suscitadas por la teoría cuántica (p. 287):

“El pluralismo sobre las interpretaciones podría ser la respuesta correcta, de forma pragmática, mientras hacemos frente a este reto. O, si no el pluralismo, al menos la humildad. La física cuántica es al menos aproximadamente correcta. Hay algo real, ahí fuera, en el mundo, que de alguna manera se parece lo cuántico. Solo que no sabemos aún que significa esto. Y es el trabajo de la física averiguarlo”.

Dejemos, pues, que la física siga haciendo su trabajo. A buen seguro, la filosofía seguirá beneficiándose de ello.

Antonio Diéguez es Catedrático de Lógica y Filosofía de la Ciencia en la Universidad de Málaga y miembro de número de la Academia Malagueña de Ciencias. Sus líneas de investigación son el realismo científico, la filosofía de la biología, la filosofía de la tecnología, el biomejoramiento humano y el transhumanismo.

Es autor de numerosos artículos y libros. Entre estos últimos destacan: “La vida bajo escrutinio. Una introducción a la filosofía de la biología” (Biblioteca Buridán, 2012), “Filosofía de la ciencia” (UMAeditorial, 2020), “Transhumanismo. La búsqueda tecnológica del mejoramiento humano” (Herder, 2017), y “Cuerpos inadecuados” (Herder, 2021).


La noticia El gran debate filosófico del siglo XX sigue abierto desde que Einstein rechazara el antirrealismo y la interpretación de Copenhague fue publicada originalmente en Xataka por Antonio Diéguez .

27 October, 2022 Leer más →
Technology

Alguien está robando radares de velocidad en las carreteras de Suecia. El sospechoso es ya habitual

Alguien está robando radares de velocidad en las carreteras de Suecia. El sospechoso es ya habitual

Hasta hace poco había 2.300 radares de velocidad (cinemómetros) en las carreteras suecas. Según The New York Times ahora hay hasta 160 menos, y todos ellos han sido robados. Uno podría pensar que esos robos son simplemente un acto vandálico, pero las autoridades suecas sospechan algo muy distinto.

23.000 euros por radar. Los robos suelen producirse entre medianoche y las tres de la madrugada. Los ladrones los roban por la fuerza bruta e incluso emplean sierras o directamente arrollan los radares para robar estos cinemómetros y así extraer sus cámaras de alta velocidad, que son lo único que se llevan. Reemplazarlos no es barato: cada uno cuesta unas 250.000 coronas suecas (casi 23.000 euros).

Drones rusos. Los radares de velocidad cuentan con un componentes muy interesante: la citada cámara de alta velocidad. Dichas cámras se usan en la construcción de drones caseros que luego Rusia puede utilizar en la Guerra de Ucrania. El Servicio de Seguridad Sueco (Säpo) está al tanto de estas teorías, pero no ha confirmado ni negado esas sospechas.

Captura De Pantalla 2022 10 26 A Las 9 24 11

Háztelo tú mismo. Cámaras similares a las usadas en los cinemómetros han sido vistas en drones rusos de fabricación casera. En un vídeo publicado por el Ministro de Defensa de Ucrania, se analizó un dron ruso que había caído en suelo ucraniano.

En él encontraron una cámara Canon fijada al fuselaje con velcro y una pequeña placa de acero. El depósito de combustible era una botella de plástico reciclable. Aún así esos drones son muy útiles a la hora de analizar las posiciones defensivas de los ucranianos.

Si no puedes comprar tecnología, róbala. Lars Wilderang, analista militar consultado por el NYT, opina que las sanciones económicas están dejando a Rusia sin acceso a algunos componentes que necesitan para sus operaciones militares, aunque desde luego está intentando evitar dichas sanciones.

“Los ladrones vienen de algún lado, pero los compradores vienen de otro”, comentaba. “No haces este tipo de grandes robos sistemáticos a no ser que tengas a alguien detrás que te esté pidiendo esos productos”.

Retraso tecnológico. El país dirigido por Putin lleva meses surfiendo sanciones que según algunos hará que sufra “un retroceso tecnológico” que podría hacer que llevase un atraso de cinco años en el ámbito de la tecnología. Un estudio reciente indicaba cómo “Moscú tiene la opción de cambiar a componentes menos fiables pero más accesibles como los de China”. 

Más y más sanciones. Estados Unidos ha impuesto un veto a la exportación de semiconductores y procesadores usados por ejemplo en cazas, sistemas de misiles, radares o satélites. La Unión Europea también amplió este mes su paquete de sanciones con nuevas restricciones a las exportaciones de componentes electrónicos, componentes para el sector de la aviación y también ciertos componentes químicos. 

Rusia se busca nuevos amigos. Ante esos problemas, Rusia está acudiendo por ejemplo a Irán para adquirir drones letales y misiles de superficie. Lo mismo está haciendo con Corea del Norte, a la que le está comprando “millones de cohetes y cartuchos” para poder mantener la campaña militar. 

Bielorrusia es otro de los países que teóricamente está suministrando drones a Rusia, que trata así de evadir sanciones de gran parte del mundo. Y como complemento, por supuesto, están los drones y armas de fabricación casera. De esas Ucrania también sabe un poco.

Cámaras de enfoque fijo. Lo curioso es que las cámaras que se usan en esos radares de velocidad son una variante de cámaras Nikon que fotografía al conductor y la matrícula a 15 metros de distancia.

El enfoque es fijo, y los expertos aseguran que “no es posible ajustar ese enfoque, según nuestro proveedor. Al menos, no de forma sencilla”. Usar por tanto esas cámaras en drones sería menos práctico salgo que lograran superar esa barrera técnica.

Los drones de la guerra. Las sospechas están ahí, y ciertamente los drones se han convertido en la herramienta militar más llamativa de los últimos tiempos. En España el ejército los usa también desde hace tiempo, y la innovación en este campo es continua. 

En Europa tenemos un gran proyecto de dron militar —el EuroMALE— mientras que en la Guerra de Ucrania se ha hecho uso extensivo de los drones kamikazes, variantes de aquellos de los que hablábamos hace tiempo y que han sido utilizados para destruir tanques con una precisión asombrosa. Esos drones caseros se usan esencialmente para vigilancia, pero siguen siendo parte fundamental de estas operaciones militares.

Imagen | Svenska Dagbladet


La noticia Alguien está robando radares de velocidad en las carreteras de Suecia. El sospechoso es ya habitual fue publicada originalmente en Xataka por Javier Pastor .

27 October, 2022 Leer más →
Technology

Aiways U6: el nuevo coche eléctrico chino rompe con todo lo que conocíamos de la marca

Aiways U6: el nuevo coche eléctrico chino rompe con todo lo que conocíamos de la marca

Aiways presenta su nuevo SUV eléctrico. Después de probar el Aiways U5 y convencernos de que esta firma china tiene mucho que ofrecer como alternativa a las marcas europeas, llega el Aiways U6, marcado por un clara estética rompedora en diseño.


De hecho, si el Aiways U5 era un vehículo sobrio en sus detalles interiores, este Aiways U6 se posiciona como un modelo mucho más pasional, con apuesta por los tonos bicolores, y sobre todo con una apuesta tecnológica que no vimos durante nuestra prueba del SUV chino. El Aiways U6 abre por motivos evidentes una gama más arriesgada y deportiva. Esto es todo lo que ofrece.

Ficha técnica del Aiways U6

Aiways U6

Tipo de carrocería.

SUV de cinco plazas.

Medidas y peso.

4,80 m de largo, 1,88 m de ancho y 1,64 m de alto. Distancia entre ejes de 2.800 mm. 1.790 kg de peso.

Maletero.

472 litros.

Potencia máxima.

160 kW (218 CV) y 315 Nm de par máximo.

Consumo WLTP.

15,9-16,6 kWh/100 km homologados (WLTP).

Distintivo ambiental.

Cero emisiones.

Ayudas a la conducción (ADAS).

Obligatorias UE: sistema de control de velocidad, alerta de fatiga, alerta de cambio de carril, frenada de emergencia, alerta de tráfico cruzado con cámara de marcha atrás.

Otros.

Pantalla de 8,2 pulgadas en formato tira para el cuadro de instrumentos y de 14,6 pulgadas para la central.

Híbrido eléctrico.

No.

Híbrido enchufable.

No.

Eléctrico.

Sí. Motor de 160 kW (218 CV) y 315 Nm de par máximo con batería de 63 kWh de capacidad.

Precio y lanzamiento.

Por confirmar.

Aiways U6, suma funciones indispensables con un diseño rompedor

Confrontar la imagen de un Aiways U5 y un U6 es como haber visto pasar años por delante de nuestros ojos. Como decíamos, el primero optaba por la sobriedad y por evitar cualquier tipo de excentricidad. El Aiways U6, por el contrario, es un SUV coupé que evoluciona el lenguaje de diseño de la marca para ofrecer una imagen más agresiva y deportiva.

Una línea de 4,80 metros de largo que, sin embargo, no se hace pesada, especialmente por las llantas de 20 pulgadas y las líneas verticales de pintura que rompen entre ejes. Gran parte del secreto también es su Cx, de 0,248 por los 0,29 de la carrocería más clásica del U5. El interior también cambia por completo, tanto en tecnologías como en imagen. Luce una gran pantalla de 14,6 pulgadas para el sistema de infoentretenimiento y una pequeña rendija de 8,2 pulgadas de tamaño que deja muy atrás el diseño en tríptico del anterior sistema.

Aiways U6 Interior 1

Aiways U6 Interior 2

De hecho, el volante también es una seña de identidad de los cambios. Igual que Kia hace con sus últimos modelos, carece de radios inferiores. Cierra el conjunto una llamativa palanca (“de estilo náutico”, según la marca) que cuenta con una rueda giratoria para la selección del cambio.

Si entramos de lleno en el ámbito más tecnológico, la información se reparte en la llamativa tira que hace las funciones de cuadro de instrumentos (una disposición muy similar a la del Lotus Eletre) y la pantalla LCD central de 14,6 pulgadas con un nuevo sistema basado en Android. En ella se pueden editar los widgets que más nos interesen.

Pero el cambio más interesante es la compatibilidad con Android Auto y Apple CarPlay. Hasta ahora teníamos el denominado “Easy Connection”, un sistema que ejercía de espejo del teléfono móvil en la pantalla principal si nuestro terminal era Android. Ahora, la compatibilidad entre coche y teléfono ya es total. Y pone la guinda las actualizaciones inalámbricas.

En cuanto a las ayudas a la conducción, la marca sólo ha confirmado que se trata de un coche con nivel 2 de autonomía. Sin más detalles, podemos adelantar que el coche tendrá que contar con los sistemas ADAS de ayuda a la conducción obligatorios por parte de la Unión Europea, como el asistente de velocidad, el detector de fatiga, cámara trasera con alerta de tráfico cruzado, frenada de emergencia o alerta de cambio de carril.

Aiways U6 Exterior 10

Aiways U6 Exterior 13

Sí se han dado más detalles de sus capacidades eléctricas. El SUV contará con un motor de 160 kW (218 CV) y par máximo de 315 Nm. La velocidad está limitada electrónicamente a 160 km/h pero es capaz de acelerar de 0 a 100 km/h en 6,9 segundos. En cuanto a su consumo, la marca adelanta 15,9-16,6 kWh/100 km (WLTP), lo que son buenas cifras de partida.

Esto puede haberse conseguido con un conjunto que marca 1.790 kg de peso, una gran cifra en la que aseguran que ha sido clave la nueva plataforma. La autonomía se cifra en 400 kilómetros, gracias a una batería de 63 kWh de capacidad que admite cargas rápidas de hasta 90 kW (pasando del 30% al 80% en media hora) o cargas de corriente alterna de hasta 11 kW.


La noticia Aiways U6: el nuevo coche eléctrico chino rompe con todo lo que conocíamos de la marca fue publicada originalmente en Xataka por Alberto de la Torre .

27 October, 2022 Leer más →
Technology

Gran Renove de MediaMarkt: estas son las cinco mejores ofertas en tecnología que todavía puedes comprar

Gran Renove de MediaMarkt: estas son las cinco mejores ofertas en tecnología que todavía puedes comprar

Esta semana ha comenzado la segunda fase del Gran Renove en MediaMarkt, que te ofrece hasta 200 euros de ahorro para que renueves la tecnología de tu hogar al mejor precio hasta el 31 de octubre. Así, vas a encontrar ofertas en secciones como portátiles, smartphones, wearables, tablets, sobremesa y All in one, Movilidad… para que no te pierdas los chollos más atractivos, hemos seleccionado las mejores ofertas en tecnología del Gran Renove de MediaMarkt que todavía puedes comprar.

  • Uno de los teléfonos con más personalidad del momento, el Nothing Phone (1) de 256GB por 449 euros, descuento de 50 euros. Mucho más que diseño transparente y unos LEDs, el Nothing Phone (1) destacó en nuestro análisis por una cámara principal más que notable y la ROM Nothing OS.
Samsung Galaxy Watch5 Bt

  • También te puedes ahorrar algo más de 50 euros respecto a su PVP en lo último para la muñeca de Samsung, el Samsung Galaxy Watch5 con Bluetooth de 44 mm por 276 euros disponible en tres colores. En nuestro análisis del Samsung Galaxy Watch5 nos gustó su completa propuesta para la salud, su cuidado diseño con excelentes materiales y la calidad de su pantalla.
Samsung Galaxy Tab S8

  • 100 euros menos en la Samsung Galaxy TAB S8, a 649 euros, disponible en tres colores. Una ambiciosa tablet todoterreno con S-Pen incluido. Entre sus bazas, una pantalla LTPS de 11 pulgadas con alta tasa de refresco de 120 Hz, potente procesador Qualcomm Snapdragon 8 Gen 1 junto a 8 GB de memoria RAM y 128 GB de almacenamiento interno, con batería es de 8.000 mAh con carga rápida de hasta 45W, doble cámara trasera de 13 + 6 MP y frontal de 12 MP gran angular para buenas videollamadas, con cuatro altavoces estéreo AKG con sonido Dolby Atmos.
Captura De Pantalla 2022 10 25 A Las 7 35 43

  • Un portátil gaming barato perfecto para uso general y echar unas partidas de vez en cuando que se queda en 599 euros, baja 50 euros este modelo que destaca por integrar una gráfica GeForce RTX 3050Ti. Cuenta asimismo con procesador Core i5-11400H, 8GB de memoria RAM, SSD de 512GB, pantalla de 15,6″ FHD y se entrega sin SO.
Scooter 2

  • Más de 100 euros de descuento en el Xiaomi Mi Scooter Essential respecto a su PVP, a 239 euros, precio mínimo para el patinete eléctrico más ligero de la casa. Diseño consolidado deportivo y pantalla para un manejo intuitivo, esta versión brilla porque su peso es inferior a 12kg, para que lo lleves plegado sin demasiado esfuerzo, con velocidad máxima de 20 km/h y una autonomía aproximada de unos 20 km.

Más ofertas

  • Con Service Point, servicio de reparaciones en menos de 2 horas.

  • Con la Recogida Express lo tienes en solo 30 minutos en tu tienda MediaMarkt.

Puedes estar al día y en cada momento informado de las principales ofertas y novedades de Xataka Selección en nuestro canal de Telegram o en nuestros perfiles de Twitter, Facebook y la revista Flipboard.

En Xataka Selección publicamos las mejores ofertas en tecnología, informática y electrónica de los principales comercios de internet. Los precios y disponibilidad pueden variar tras la publicación.

Algunos de los enlaces de este artículo son afiliados y pueden reportar un beneficio a Xataka


La noticia Gran Renove de MediaMarkt: estas son las cinco mejores ofertas en tecnología que todavía puedes comprar fue publicada originalmente en Xataka por Eva Rodríguez de Luis .

27 October, 2022 Leer más →
Technology

Los estrenos de Disney+ en noviembre 2022: 18 series, películas y documentales originales

Los estrenos de Disney+ en noviembre 2022: 18 series, películas y documentales originales

De la auténtica aventura de dos vulcanólogos enamorados a un clásico de los ochenta que vuelve con una epopeya rebosante de nostalgia. El mes de noviembre en Disney+ está aderezado con humor, pasión y muchas emociones fuertes. Estos son algunos de los mejores estrenos que nos depara la plataforma para las próximas semanas.

Series de estreno

Future Man

Seth Rogen, productor de series como ‘The Boys‘, ‘Invencible‘ o ‘Predicador’ nos trae esta comedia con elementos de ciencia ficción, que viene con todas las constantes de su cine: ritmo semi-improvisado y humor irreverente. Aquí cuenta la historia de un experto en un videojuego bélico que recibe la visita de un par de soldados del futuro que necesitan su ayuda para que salve al mundo. Nos llegan sus tres temporadas íntegras.

  • Estreno el 2 de noviembre

Willow

La nueva serie secuela de ‘Willow’, el clásico de la fantasía oscura-pero-familiar de los ochenta parece que va a tirar de la nostalgia en abundancia. Esperemos que también tenga sus buenas dosis de genuina aventura con vida propia (el regreso de Warwick Davis siempre es un plus) y que, sobre todo, sirva como preámbulo para el auténtico comeback que nos debe la factoría Lucas: el horror cósmico plumífero de ‘Howard el Pato’

  • Estreno el 30 de noviembre

Todas las series de noviembre

  • ‘Anatomía de Grey’ T19 (02/11)
  • ‘Estación 19’ T6 (02/11)
  • ‘Reboot: El reencuentro’ (02/11)
  • ‘Future Man’ (02/11)
  • ‘Los Montaner’ (09/11)
  • ‘Zootopia+’ (09/11)
  • ‘Tell Me Lies’ (16/11)
  • ‘Hip Hop Nutcracker’ (25/11)
  • ‘El paciente’ (30/11)
  • ‘Willow’ (30/11)

Películas de estreno

  • ”Desencantada: Vuelve Giselle’ (16/11)
  • ‘¡Vaya familia Claus!’ (16/11)

Documentales de estreno

Fire of Love

Vista recientemente en cines, este apasionante documental relata una singularísima historia de amor entre dos vulcanólogos franceses, que compartían su pasión por la lava y el uno por el otro. Recorrieron el planeta hablando de su objeto de estudio y llevando a cabo peligrosas incursiones naturales, y se convirtieron en científicos estrella, aunque la tragedia estaba por venir. Un documental lleno de emoción y literalmente en llamas. 

  • Estreno el 11 de noviembre

Todos los documentales de noviembre

  • ‘David Beckham: Al rescate del equipo’ (09/11)
  • ‘Fire of Love’ (11/11)
  • ‘Sin límites con Chris Hemsworth’ (16/11)
  • ‘Mickey: La historia de un ratón’ (18/11)
  • ‘Elton John en directo: Farewell from Dodger Stadium’ (21/11)
  • ‘Legacy: La verdadera historia de los LA Lakers’ (23/11)


La noticia Los estrenos de Disney+ en noviembre 2022: 18 series, películas y documentales originales fue publicada originalmente en Xataka por John Tones .

27 October, 2022 Leer más →
Technology

Lo último de Philips es un monitor a color con un “eReader” de tinta electrónica incorporado

Lo último de Philips es un monitor a color con un

Las pantallas de tinta electrónica van superando, poco a poco, la barrera de los libros electrónicos. Hace aproximadamente dos años llegaban por primera vez a los monitores de la mano del Paperlike 253 de Dasung. Ahora, Philips acaba de actualizar su línea de monitores profesionales con una propuesta que, además de incorporar un panel tradicional a color, posee otro secundario de tinta electrónica.

Hasta el momento no habíamos visto nada parecido. Las pantallas de tinta electrónica, o habitaban en los eReaders o en los monitores. Sin embargo, Philips ha pensado que era buena idea lanzar un producto “híbrido”. El Philips Business Monitor 5000 series (modelo 24B1D5600) está enfocado en la productividad y, según el fabricante, es ideal para quienes pasan muchas horas frente al ordenador por su trabajo.

El monitor de Philips que tiene un “eReader” incorporado

De acuerdo a la ficha técnica del producto, nos encontramos con una pantalla principal Vivid CrystalClear QHD de 23.8 pulgadas con cobertura antirreflejos y tecnología IPS con diodos emisores de luz W-LED. A nivel de resolución y tasa de refresco, ofrece hasta 2560 x 1440 a 75 Hz. El tiempo de respuesta, por su parte, se ubica en los 4 ms. Es decir, como lo indica su nombre, no se trata de una propuesta pensada para gamers.

Cabe señalar que las pantallas tienen conexiones diferentes. La principal se puede conectar a un ordenador a través de un puerto DisplayPort 1.2 o un puerto USB-C (este utilizado también para suministrarle energía). La pantalla secundaria solo se puede conectar por USB-C. En este caso, es el software SmartRemote de Philips el que se encarga de ofrecer una experiencia homogénea en el dispositivo y ofrece ajustes avanzados.

Philips Business Monitor 5000 Series 5

Philips Business Monitor 5000 Series 2

De acuerdo a lo que explica el fabricante, los usuarios de este monitor tendrán la posibilidad de realizar todas las tareas que necesiten un monitor estándar, sin embargo, en momentos en los que deban leer textos o elaborar artículos, podrán fijar sus ojos en la pantalla secundaria de tinta electrónica para reducir la fatiga visual. Queda por ver qué tan buena será esta solución en un escenario de trabajo.

El monitor Philips 24B1D5600 se ofrece de momento en China. Su precio es de 5999 yuanes (unos 839 euros al cambio). Philips no mencionado si expandirá la disponibilidad de este nuevo producto a otros mercados.

Imágenes: Philips

En Xataka: Qué monitor comprar para trabajar: guía de compra y 13 monitores para productividad desde 100 hasta 600 euros


La noticia Lo último de Philips es un monitor a color con un “eReader” de tinta electrónica incorporado fue publicada originalmente en Xataka por Javier Marquez .

27 October, 2022 Leer más →
Technology

Ciencia ficción pura y otros mundos: Hablamos con los autores de la novela ganadora del Premio Minotauro 2022 (Laberinto de Papel 3×08)

Ciencia ficción pura y otros mundos: Hablamos con los autores de la novela ganadora del Premio Minotauro 2022 (Laberinto de Papel 3x08)

En ‘Laberinto de papel‘, el podcast de literatura fantástica que hacemos en Xataka en colaboración con la editorial Minotauro, no podemos sustraernos a la tentación de hablar con una de las novelas más importantes del año para la editorial. Se trata, cómo no, de la flamante ganadora del Premio Minotauro, que la editorial organiza cada año para premiar a una novela inédita de género fantástico.

Este año la ganadora ha sido ‘Horizonte de estrellas’, de Víctor Conde y Guillem Sánchez, una estupenda historia de ciencia ficción espacial que nos lleva a mundos desconocidos y, sobre todo, a entrar en contacto con razas alienígenas inimaginables. Para que nos hable de su peculiar proceso creativo y cómo ha sido escribir una novela a cuatro manos, hemos contado con uno de sus autores, Guillem Sánchez.

Sánchez es un experimentado autor (también nos pone en antecedentes de su obra previa a este premio) nos cuenta de dónde surgieron las ideas que vertebran el fascinante argumento de ‘Horizonte de estrellas’: una ingeniera que ha decidido dejar atrás su vida en la Tierra se embarca en una expedición conjunta con los idor, una raza alienígena amistosa. Pero ees despertada de su hibernación cuando tropiezan con una nave aparentemente abandonada de los ker, otra raza extraterrestre de la que apenas hay conocimiento.

La gran virtud de ‘Horizonte de estrellas’ está en su descripción de inteligencias absolutamente extraterrestres, lo que conecta a la novela con clásicos de la ciencia ficción más racional y menos aventurera, de ‘Cita con Rama’ a ‘El problema de los tres cuerpos’. Lo que no quiere decir que el libro esté exento de emociones: la obra de Conde y Sánchez mezcla géneros con alegría y la aventura de estos expedicionarios adquirirá tintes de thriller, space opera e incluso terror. Una apuesta absolutamente merecedora del premio y que comentamos en profundidad en ‘Laberinto de papel’.

Cómo puedes suscribirte

Si te ha gustado este episodio de la segunda temporada o si deseas escuchar ‘Laberinto de Papel’ desde tu aplicación favorita para podcasts, puedes suscribirte a través de las principales plataformas:

También puedes escucharnos y vernos en nuestro canal de Youtube.


La noticia Ciencia ficción pura y otros mundos: Hablamos con los autores de la novela ganadora del Premio Minotauro 2022 (Laberinto de Papel 3×08) fue publicada originalmente en Xataka por John Tones .

27 October, 2022 Leer más →
Technology

‘The Witcher’ tendrá remake: uno que gracias a Unreal Engine 5 promete ser espectacular

'The Witcher' tendrá remake: uno que gracias a Unreal Engine 5 promete ser espectacular

A principios de este mes, CD Projekt RED reveló una hoja de ruta actualizada con los principales proyectos en los que estaba trabajando. Ahora, el estudio de videojuegos polaco ha anunciado un remake de ‘The Witcher’ original, un título que desde su lanzamiento en 2007 ha cosechado un éxito notable.

El anuncio llega acompañado de los primeros detalles de la nueva versión del videojuego basado los libros de Andrzej Sapkowski. Lo más destacado, quizá, será su importante salto a nivel visual. CD Projekt RED asegura que el título está siendo reconstruido desde cero con el espectacular motor gráfico Unreal Engine 5.

El desarrollo del remake de ‘The Witcher’ ya está en marcha

Hablar de Unreal Engine 5 es hablar de una herramienta que persigue el realismo. Los desarrolladores podrán hacer uso de las posibilidades que brindan el sistema de geometría de micropolígonos Nanite y el motor de iluminación global Lumen. Con este último, por ejemplo, podrán experimentar con distintos focos de luz en tiempo real.

Como sabíamos, CD Projekt RED también está trabajando en una nueva saga de ‘The Witcher’, trabajo que internamente es conocido como “Polaris”. Ahora bien, parte de las nuevas herramientas de este ambicioso proyecto también serán utilizadas para dar vida al remake de ‘The Witcher’ conocido como “Canis Majoris”.

The Witcher 1

Es preciso señalar que el desarrollo del título se encuentra en las primeras etapas y que este está a cargo de Fool’s Theory, una compañía fundada en 2015 que se ha encargado de reunir a algunos veteranos de la industria. Entre ellos hay desarrolladores que trabajaron en ‘Witcher 2: Assassins of Kings‘ y ‘The Witcher 3: Wild Hunt‘.

“‘The Witcher’ representa el punto donde todo comenzó para nosotros, en CD PROJEKT RED. Fue el primer juego que hicimos y, entonces, supuso un hito para nosotros. El hecho de volver a aquel momento y rehacer el juego para que pueda experimentarlo la nueva generación de jugadores se siente igual de grande, o incluso más”.

Adam Badowski, jefe de CD PROJEKT RED”.

Recordemos que, además de la nueva trilogía de ‘The Witcher’ y el remake anunciado hoy, hay otros proyectos de CD Projekt RED en camino. Uno de ellos es conocido como “Sirius” en su etapa de desarrollo. Se trata de un juego desarrollado por The Molasses Flood. La gran novedad es que ofrecerá multijugador, además de una experiencia para un solo jugador que incluye una campaña con misiones y una historia.

De momento, el estudio ha indicado que todavía es pronto para ofrecer más información sobre el remake. “Queremos hacer esto bien, así que tenga paciencia, pasará un tiempo hasta que podamos compartir más detalles”. En este sentido, tendremos que esperar para, finalmente, marcar en el calendario una fecha de lanzamiento de este nuevo videojuego que, por lo anunciado, parece que será prometedor.

Imágenes: CD Projekt RED

En Xataka: CD Projekt Red cambia su estrategia en vistas del lanzamiento de ‘Cyberpunk 2077’: menos hype, funciones online y más


La noticia ‘The Witcher’ tendrá remake: uno que gracias a Unreal Engine 5 promete ser espectacular fue publicada originalmente en Xataka por Javier Marquez .

27 October, 2022 Leer más →