La Interpol quiere combatir el crimen virtual. Así que también vigilará el metaverso

La Interpol quiere combatir el crimen virtual. Así que también vigilará el metaverso

Basta mirar un momento hacia atrás para identificar cómo en las últimas décadas la tecnología ha cambiado la forma en la que hacemos muchas cosas. Salir de casa para cumplir con nuestras tareas cotidianas es un requisito cada vez menos necesario. Podemos, por ejemplo, comprar, trabajar o divertirnos sin movernos del sofá, siempre y cuando tengamos el dispositivo adecuado con una conexión a Internet. En este sentido, el metaverso se presenta como la siguiente gran evolución.

El metaverso, en el sentido más amplio del concepto, promete que, si utilizamos gafas de realidad virtual, como las Meta Quest 2, las Meta Quest Pro o las Pico 4 de ByteDance, podremos sumergirnos con nuestros avatares en experiencias inmersivas del siguiente nivel. Los mundos virtuales, sin embargo, también son considerados espacios fértiles para la delincuencia. La INTERPOL lo sabe, así que ha decidido dar el primer paso para combatir el crimen en este escenario virtual.

La INTERPOL ahora tiene su propio "metaverso"

La Policía Internacional presentó la semana pasada en su 90.ª Asamblea General, en Nueva Delhi, India, un mundo virtual "diseñado específicamente para la aplicación de la ley". En ese espacio, explica organización, sus agentes pueden interactuar entre sí a través de sus avatares personalizados. También pueden asistir a formaciones de investigación forense inmersiva y recibir entrenamiento para adquirir capacidades policiales para combatir los actos criminales del metaverso.

Como podemos ver en las imágenes, algunos de los presentes en la asamblea se pusieron las gafas de realidad virtual y recorrieron el "Metaverso de INTERPOL". Por lo pronto, el mundo virtual consiste en una representación virtual de la sede de la Secretaría General de INTERPOL en Lyon, Francia. El mismo está alojado en INTERPOL Secure Cloud, una plataforma segura que pretende garantizar la seguridad de este espacio de entrenamiento para los agentes policiales.

En una demostración, expertos de la Dirección de Capacitación y Desarrollo de Capacidades de INTERPOL impartieron un curso sobre verificación de documentos de viaje e inspección de pasajeros en el metaverso. Después, los agentes fueron teletransportados a un aeropuerto virtual donde pudieron poner en práctica las habilidades recién adquiridas en un puesto de control de frontera, también virtual. 

Interpol Metaverso 1

La INTERPOL se ha tomado en serio su presencia en el metaverso, incluso cuando todavía no se sabe si esta propuesta acabará siendo adoptada masivamente. "Para muchos, el Metaverso parece anunciar un futuro abstracto, pero las cuestiones que plantea son las que siempre han motivado a INTERPOL: apoyar a nuestros países miembros en la lucha contra la delincuencia y hacer que el mundo, virtual o no, sea más seguro para quienes lo habitan", dijo su secretario general, Jürgen Stock.

El metaverso está dando sus primeros pasos y no está exento de desafíos. En el caso de Meta, pese a ser una máquina de quemar dinero, ha sido criticado por su baja calidad gráfica y por necesitar dispositivos que no son baratos para experimentarlo. Además, es insignificante el número de usuarios que tienen en la actualidad. En cualquier caso, desde Gartner creen que, en 2026, una de cada cuatro personas pasará al menos una hora al día en el Metaverso para trabajar, estudiar, comprar y socializar.

Los delitos ya han empezado a proliferar en los mundos virtuales.

Desde la INTERPOL señalan que los delitos ya han empezado a proliferar en los mundos virtuales. Según el Foro Económico Mundial, organización de la que forma parte junto a Meta, Microsoft y otros actores de este mundo, las estafas de ingeniería social, el extremismo violento y la desinformación son las principales preocupaciones actuales, aunque también vislumbran delitos contra menores, robos de datos, fraude financiero, ransomware, phishing y agresión y acoso sexual.

Como sabemos, el campo de acción de la policía está supeditado a lo que dicta la ley. En este sentido, como ya hemos visto en Xataka, todavía no está claro hasta qué punto los delitos del mundo real tienen su equivalente en el mundo virtual. ¿Qué pasa si se asesina a alguien en el metaverso? ¿Se encarcela al avatar que comete el delito? ¿Qué pasa con la persona dueña de la cuenta ¿También puede ser juzgada La respuesta a este tipo de escenarios irá evolucionando con el paso del tiempo.

En relación a esto último, la INTERPOL también ha creado un grupo de expertos que se encargará de abordar las preocupaciones y los desafíos de seguridad de los mundos virtuales. Confían que, al identificar los riesgos desde el principio, podrán ayudar a las diferentes partes interesadas a dar forma a los marcos de gobernanza necesarios para prevenir el crimen. Toca esperar para saber qué sucederá con esta iniciativa.

Imágenes: Interpol

En Xataka: Meta Connect: xCloud en gafas Meta Quest, versión web de Horizon Worlds, nuevos juegos VR y más

-
La noticia La Interpol quiere combatir el crimen virtual. Así que también vigilará el metaverso fue publicada originalmente en Xataka por Javier Marquez .

Continue ReadingLa Interpol quiere combatir el crimen virtual. Así que también vigilará el metaverso

Warner da el puñetazo sobre la mesa: James Gunn supervisará todas las decisiones creativas del Universo DC

Warner da el puñetazo sobre la mesa: James Gunn supervisará todas las decisiones creativas del Universo DC

Apenas hace unos días comentábamos que 'Black Adam' había sido un paso en falso para la reformulación del Universo DC. Se adivinaban unas claras intenciones en esta nueva película, que anticipaba el regreso de Superman y que apuntaba a la recuperación de un cosmos compartido de superhéroes. Sin embargo, la escasa convicción con la que se había ejecutado nos hacía dudar del auténtico potencial de este cambio. 

Pero la situación se ha visto radicalmente transformada con una decisión ejecutiva que, esta vez sí, puede hacer que se tambaleen los cimientos del Universo DC tal como lo conocemos.

Entra James Gunn. Se trata de un flamante nombramiento, hecho con toda la intención del mundo: a partir del 1 de noviembre, James Gunn, director de todas las películas de 'Guardianes de la Galaxia', así como de la última encarnación de 'El Escuadrón Suicida' y de 'El Pacificador', será co-director y co-CEO de la recién creada DC Studios. Le acompañará Peter Safran, veterano productor de Warner, y entre cuyos logros está haber ayudado a financiar todo el universo de Expediente Warren, así como la producción de algunas de las últimas películas de éxito de DC, como 'Aquaman', 'Shazam!' o la citada 'El Escuadrón Suicida'.

Una decisión llamativa. Resulta singular este cargo, sobre todo porque Gunn tiene dos películas vinculadas a Marvel pendientes de estreno: por una parte, el 'The Guardians of the Galaxy: Holiday Special' exclusivo de Disney+, y por otra, 'Guardianes de la Galaxia Vol. 3', cuyo estreno está previsto para el 5 de mayo de 2023. Doblemente curioso (o quizás significativo) es que el nombramiento llegue después de la polémica que se suscitó con la propia Disney, que le expulsó del MCU por unos chistes publicados años antes en Twitter y por los que Gunn pidió perdón... polémica que quedó en nada cuando volvió a la compañía gracias a la presión de sus propios compañeros en 'Guardianes'.

¿Qué es DC Studios? Básicamente, lo que antes se conocía como DC Films, el sello creado en mayo de 2016 por Geoff Johns y Jon Berg para gestionar todas las adaptaciones de personajes DC. El sello se creó después de la división que suscitó la película 'Batman v Superman', con el fin de unificar criterios creativos, al estilo Marvel. La debacle de 'Liga de la Justicia' dio al traste con los planes y se pasó a una política de que cada película del Universo DC tuviera entidad propia, lo que dio pie a producciones como 'Joker' o 'The Batman'.

Caldeando. A principios de 2018, Walter Hamada (conocido por su labor en New Line Cinema, ahora propiedad de Warner) pasó a presidir DC Films. En primavera de este año, tras la fusión de Warner y Discovery, el ambiente se caldeó por culpa de 'Batgirl'. Hamada afirmó haberse enterado de la cancelación de la película cuando ya era una decisión tomada y decidió dimitir una vez se estrenara 'Black Adam'. Ahora, llegan Gunn y Safran, el primero entregado a tareas más creativas y el segundo encargado de la parte de producción.

Y ahora qué. Según comenta Variety, la decisión está muy estudiada por parte de David Zaslav, CEO de Warner Bros. Discovery, para que DC tenga su propio gurú al estilo Kevin Feige. La experiencia de Gunn dentro de Marvel, cuyos entresijos creativos conoce bien, es un extra muy interesante para Warner. De momento, heredan una serie de proyectos que podríamos calificar de "envenenados": a la mala fama que se ha ganado Warner por la cancelación de 'Batgirl' se suma la complejísima situación que tiene una película-encrucijada de tramas como iba a ser 'The Flash'. 

A ellas se suma 'Aquaman and the Lost Kingdom', que casi puede decirse que pertenece a otra época.

Sobrado. Pero el poder que ahora tiene Gunn (que ya tenía carta blanca creativa en las películas de los Guardianes de la Galaxia, así como en 'El Pacificador' y 'El Escuadrón Suicida', un fracaso de taquilla, posiblemente más debido al estreno simultáneo en HBO Max que al propio film) es el mayor que ha atesorado en toda su carrera. Ahora tendrá injerencia sobre películas ajenas, y junto a Safran, podrán dar una entidad global al cine de DC.

Lo fascinante del tema es la propia personalidad de Gunn, no precisamente fácil de domesticar. 'El Escuadrón Suicida' tiene una segunda mitad absolutamente indescriptible, inconcebible en Marvel, y el atrevimiento a nivel visual y temático que demuestra en 'El Pacificador' es considerable. No olvidemos que es un cineasta criado en la Troma y cuyas primeras películas fueron la salvaje parodia superheroica 'Super' y el monumental body horror extremo 'Slither'. Por supuesto eso no quiere decir que todas las futuras películas de DC parezcan firmadas por Gunn, pero... ¿se abre para DC una etapa de libertad creativa nunca vista hasta ahora

-
La noticia Warner da el puñetazo sobre la mesa: James Gunn supervisará todas las decisiones creativas del Universo DC fue publicada originalmente en Xataka por John Tones .

Continue ReadingWarner da el puñetazo sobre la mesa: James Gunn supervisará todas las decisiones creativas del Universo DC

Nothing Ear (Stick): los auriculares más rompedores en diseño son también una apuesta por la calidad de sonido

Nothing Ear (Stick): los auriculares más rompedores en diseño son también una apuesta por la calidad de sonido

Nothing presentó sus Ear 1 hace poco más de un año, unos auriculares con diseño transparente para dejar clara su línea de diseño. Ahora llegan los Nothing Ear (stick), unos auriculares que llegan en una caja bastante distinta, en formato cilíndrico para ser más cómodos y ligeros respecto a las actuales cajas.

Un cilindro, dos auriculares

Nothing Stick

Pese al curioso nombre, lo de "Stick" tan solo hace referencia a la caja de estos auriculares. Los TWS de este tipo, históricamente, han llegado siempre en una caja relativamente voluminosa y ancha, algo que viene a solucionar este stick. El estuche es cilíndrico, e inspirado en un pintalabios.

La ergonomía es el principal punto fuerte de estos auriculares. Son ligeros y se adaptan a nuestro pabellón auditivo

Del mismo modo, no solo es ergonómico el estuche, sino los propios auriculares. Desde Nothing aseguran que estos auriculares tienen "un diseño sumamente cómodo", asentándose de forma menos intrusiva en el pabellón auditivo. Tan solo pesan 4,4 gramos por auriculares, y pretenden hacer el menor daño posible cuando los usamos durante horas.

A nivel de sonido, cuentan con un driver dinámico de 12,6mm personalizado por Nothing, prometiendo ofrecer graves profundos y una calidad bastante alta. El software es capaz de medir el canal auditivo del usuario, y detectar cuándo se empiezan a perder graves. En el momento de la detección, el software ecualiza de forma automática para impedir dicha pérdida.

Nothing

Además de esta curiosa tecnología adaptativa, cuentan con una tecnología propia para mejorar el sonido del micrófono incluso con viento fuerte y ruido de fondo. En el caso de que los usemos con el Nothing Phone (1), tendremos de forma nativa gestos personalizados, mayores ajustes de ecualización, modo de localización y más opciones. Si usamos otro Android o un iPhone, podremos acceder a estas opciones mediante la app Nothing X.

Respecto a la cancelación de ruido, no la esperes, al ser unos mid-ear más abiertos que los clásicos in-ear. Desde Nothing nos cuentan que las demandas del mercado giran en esta dirección, y obviar la cancelación de ruido es el sacrificio en este tipo de auriculares.

Respecto a la autonomía, se prometen 7 horas de uso y 29 con la caja. Con tan solo 10 minutos de carga se prometen 2 horas de uso, y pueden conectarse a Android mediante Fast Pair.

Versiones y precio de los Nothing Ear (Stick)

Estos auriculares Nothing Ear (Stick) aterrizan en España a un precio de 119 euros. Podrán comprarse tanto en la página de Nothing como en los principales distribuidores autorizados.

-
La noticia Nothing Ear (Stick): los auriculares más rompedores en diseño son también una apuesta por la calidad de sonido fue publicada originalmente en Xataka por Ricardo Aguilar .

Continue ReadingNothing Ear (Stick): los auriculares más rompedores en diseño son también una apuesta por la calidad de sonido

Apple y Spotify llevan años enfrascados en una guerra abierta. Su nueva batalla: los audiolibros

Apple y Spotify llevan años enfrascados en una guerra abierta. Su nueva batalla: los audiolibros

El mes pasado Spotify anunciaba su nueva idea para abarcarlo todo: entraba en el mercado de los audiolibros. Tras convertirse en la referencia en el mundo de la música por streaming, la compañía comenzaba a ofrecer un catálogo de nada menos de 300.000 audiolibros para usuarios de EEUU. La propuesta es atractiva, pero tiene un escollo difícil de superar para triunfar. Ese escollo se llama Apple.

Rechazo en la App Store. Apple ya vetó en el pasado a Spotify en su App Store, y ahora ha vuelto a hacerlo no una ni dos, sino tres veces. La razón: Spotify no cumple con las normas de Apple. Para lograr entrar en la App Store han tenido que esconder los precios de los audiolibros y venderlos fuera de la aplicación principal a través de un enlace de correo.

Así no hay quien compita. Eso hace que 1) sea difícil e incómodo comparar precios entre el audiolibro que igual encuentras más barato en otro lado, y 2) sea también incómodo comprar el audiolibro, que no puedes comprar directamente desde la app de Spotify si usas un iPhone.

Captura De Pantalla 2022 10 26 A Las 12 50 11

La versión actualizada de esa aplicación deja ver algo de información sobre el audiobook, pero si quieres comprarlo, tienes que salirte de ella. En la interfaz muestran el mensaje "¿Quieres leer [este audiolibro]? No puedes comprar audiolibros en la app. Ya lo sabemos, no es ideal".

Qué dice Spotify. La empresa fundada por Daniel Ek acusaba a Apple de ser anticompetitiva. La última decisión "es el ejemplo perfecto de hasta dónde llega Apple para aventajar a sus competidores". Ek se quejaba además de que hace ya casi cuatro años que registraron una demanda contra Apple en la Comisión Europea "y seguimos esperando una decisión". El proceso está en marcha, eso , y en abril de 2021 la Comisión Europea acusó oficialmente a Apple de prácticas anticompetitivas.

Esto viene de lejos. Efectivamente, la guerra entre Apple (o Amazon, indirectamente) y Spotify viene de lejos y digan lo que digan unos y otros, la razón es la de siempre. El maldito parné. Spotify —que no es ningún angelito— quiere más margen de beneficio y evitar pagar la comisión de Apple, y utiliza sabiamente un argumento muy real: si quieres estar en el iPhone, tienes que pasar por el aro.

El precedente de Epic Games. Es lo mismo que ocurrió con Epic Games y su Fortnite en Android y iOS—, que también acabó demandando a Apple. La sentencia fue una especie de empate técnico, aunque en realidad Apple salió ganando. Eso sí: tuvo que relajar un poco —y a duras penas— sus términos ante la presión.

Apple se justifica. Ellos ponen todos los medios y la infraestructura, dicen en Cupertino, y eso impone unos costes. De hecho acusaron a Spotify de querer "todos los beneficios de ser una aplicación gratuita sin serlo".

Contra la tasa del 30%. Lo cierto es que eso no convenció a empresas como Epic Games, Spotify, Tile, ProtonMail y Basecamp —cuyo creador llamó a los de Apple "mafiosos"—, que crearon una coalición para combatir la célebre tasa del 30% de Apple. La compañía acabó relajando su comisión a un 15% para "pequeños desarrolladores", pero aquello fue insuficiente y la empresa liderada por Tim Cook ha seguido ganándose enemigos.

La batalla (incluida la de los audiolibros) continúa. Lo cierto es que este no es más que un episodio más de este particular culebrón. Ahora está en juego el cada vez más jugoso segmento de los audiolibros, pero el trasfondo es el mismo que el que ya afectaba a la música o las aplicaciones: Apple tiene tal magnitud que impone sus normas sin que nadie pueda hacer (de momento) mucho por evitarlas. El proceso judicial de la Comisión Europea prosigue, y probablemente una sentencia favorable en uno u otro sentido deje este escenario mucho más claro de cara al futuro.

-
La noticia Apple y Spotify llevan años enfrascados en una guerra abierta. Su nueva batalla: los audiolibros fue publicada originalmente en Xataka por Javier Pastor .

Continue ReadingApple y Spotify llevan años enfrascados en una guerra abierta. Su nueva batalla: los audiolibros

Apple se ha empeñado en “iosificar” macOS. A los usuarios de Mac de toda la vida les parece regular

Apple se ha empeñado en

MacOS 13 Ventura ya está aquí. La nueva versión del sistema operativo de Apple para sus ordenadores de sobremesa y portátiles llega con un puñado de cambios importantes, pero si eres un "maquero" de la vieja escuela, cuidado: puede que alguno de ellos te siente como un tiro.

Son muchos los mensajes que se están viendo con quejas y críticas de los nuevos Ajustes del sistema (antes Preferencias). El panel es una demostracion más de la curiosa obsesión que Apple tiene por "iosificar macOS". Unificar la interfaz parece un objetivo loable, pero este no es el camino a seguir según la recepción que está teniendo esta característica.

"Esto es una jod*** broma"

Los análisis que han aparecido sobre la nueva versión de macOS están criticando duramente algunas de las decisiones de Apple. Riccardo Mori, editor, consultor y usuario veterano, se sentía decepcionado por los cambios, y comentaba cómo en su opinión tanto Stage Manager como los nuevos Ajustes de Sistema son "una jod*** broma".

Captura De Pantalla 2022 10 25 A Las 16 32 26
Antonio Sabán, director de Genbeta, coincide con las críticas. Esta captura de su equipo muestra la nueva interfaz de los Ajustes de macOS. "Una cosa que hemos ganado", comenta irónicamente: "se puede redimensionar la ventana. En la antigua de Preferencias no se podía".

Para él el deseo de simplificar las cosas y ofrecer las ventajas de iOS en los Mac es interesante desde cierto punto de vista, pero llevar el "look & feel" de iOS al Mac es "innecesario, y ha roto un montón de guías de diseño de interfaz del Mac probadas y validadas".

Otros expertos coinciden en esa visión: en Ars Technica califican ese nuevo panel de "descuidado". Como apuntan allí, es usable y se puede decir que cumple, "pero va a hacer que un montón de usuarios de Mac de toda la vida cambien su comportamiento sin realmente ofrecer algo que se sienta inequívocamente mejor que lo que reemplazó".

Nuestro compañero Javier Lacort lleva meses usando la beta de macOS Ventura, y hace semanas ya avisó de cómo "[la aplicación de Ajustes] que ha llegado a macOS Ventura es un resultado muy poco convincente´".

Javier mantiene su opinión y nos indicaba que "no te acostumbras". Ya en aquel artículo apuntaba de hecho al análisis de un programador llamado Niki Tonsky que en un hilo de Twitter hacía un buen repaso de los problemas, que eran muchos y variados. Eso sí: algunos de los problemas estaban presentes en aquella beta a la que se refería Tonsky ya se han solucionado en esta versión estable de macOS Ventura.

Las críticas continúan en medios reputados —y tradicionalmente favorables a Apple— como MacStories, donde indican que "las Preferencias del Sistema deberían haberse renovado hace tiempo, pero los Ajustes del Sistema no son el rediseño que necesitábamos. En cambio, es un claro ejemplo de por qué no se puede plantar el diseño de iOS o iPadOS en macOS y dejarlo tal cual". John Gruber, conocidísimo en ese mundillo por su blog Daring Fireball, coincidía.

Los análisis (negativos) y las críticas se repiten por uno y otro en plataformas como Reddit. Allí, cómo no, gastan bromas al respecto, aunque también hay alabanzas a ese cambio. Curiosamente Craig Federighi, máximo responsable del desarrollo, destacó que esos cambios no se habían inspirado en iOS. Lo que buscaban, explicaba, era consistencia para los usuarios.

A (casi) nadie le gustan los cambios

La polémica con los Ajustes del Sistema en macOS Ventura es el último capítulo de una realidad muy clara en el segmento de los sistemas operativos: a nadie le gustan los cambios.

Captura De Pantalla 2022 10 25 A Las 16 35 51
No es que Microsoft pueda presumir precisamente de consistencia. Lo de que el Panel de Control siga vivo en Windows 11 es de traca.

Es algo que curiosamente en Apple han tenido bastante presente en la evolución de sus sistemas operativos. Han cambiado, sí, pero lo han hecho de forma muy gradual y, en la mayoría de los casos, consistente.

La cosa es distinta por ejemplo en plataformas como Windows, donde los cambios de timón han sido mucho más radicales. Lo recordarán bien los usuarios de Windows 8 y Windows 8.1, polémicos por su foco en lo táctil y aquella interfaz Metro que quería unificar la informática móvil con la de sobremesa.

Aquello fue un fracaso, pero Microsoft sigue siendo famosa por sus inconsistencias de diseño. El mejor ejemplo, el (casi) inmortal Panel de Control que lleva con nosotros desde (redoble de tambor) 1985.

En Redmond llevan cerca de cuarenta años sin acabar de cargárselo, y hoy en día Windows 11 sigue ofreciendo su herramienta de Configuración y, un poco escondido, el Panel de Control que sigue vivito y coleando con su vieja interfaz.

Hay otros ejemplos en otras plataformas y desde luego en todo tipo de servicios y aplicaciones web. Muchos criticaron a Facebook cuando lanzó su "News Feed", pero aquello acabó siendo aceptado y cambió internet para siempre (o la arruinó, como afirmaban en The New York Times). Podríamos enumerar muchos otros casos, pero la idea es la misma: no nos gusta que nos cambien las cosas, y la reacción habitual es criticar esos cambios.

La pregunta, claro, es si estas críticas serán escuchadas por Apple. Si servirán para algo. Desde luego funcionaron cuando la gente criticó los polémicos teclados de mariposa de los MacBook, y también cuando lanzaron el nuevo Safari para iOS el año pasado.

y ahora es importante recordar que un problema es a menudo una oportunidad de mejora. Así pues, esperemos que los Ajustes de macOS Ventura mejoren.

-
La noticia Apple se ha empeñado en "iosificar" macOS. A los usuarios de Mac de toda la vida les parece regular fue publicada originalmente en Xataka por Javier Pastor .

Continue ReadingApple se ha empeñado en “iosificar” macOS. A los usuarios de Mac de toda la vida les parece regular

Hoy es un clásico de la ciencia ficción, pero en su día ‘Tron’ no ganó el Oscar a los efectos especiales por “hacer trampas”

Hoy es un clásico de la ciencia ficción, pero en su día 'Tron' no ganó el Oscar a los efectos especiales por

Hoy día, 'Tron' se considera un clásico sin ningún tipo de peros: con 40 años recién cumplidos, nadie discute ni su papel visionario ni su pionero empleo de los efectos especiales por ordenador. Hasta su argumento, en el que un programador se introduce en las tripas de un ordenador, resulta obvio y casi cotidiano tras el éxito de propuestas como 'Matrix', pero en su momento, nadie había hecho nada igual.

Fue esta condición de pionera la que jugó un poco en su contra y convirtió la apuesta de Disney en un fracaso que solo recaudó cincuenta millones de dólares (un castañazo de tal calibre que el videojuego para recreativas de Midway que se inspiraba en su argumento llegó a recaudar más dinero). Su estética y su argumento resultaron difíciles de asimilar por el público de la época.

Y no solo por el público: la propia industria se negó a reconocer el carácter innovador de la película. Visualmente apabullante (pese a su tosquedad técnica, de estética fascinante hoy día), la Academia de Cine no se dignó ni a nominarla a la categoría de Mejores Efectos Especiales. ¿El motivo? Se consideró que hacer efectos con la ayuda del ordenador era hacer "trampa". Sus competidores ese año fueron tres clasicazos del calibre de 'E.T. el extraterrestre' (que ganó), 'Poltergeist' y 'Blade Runner', pero 'Tron' hubiera merecido estar ahí.

Es curioso que se considerara que 'Tron' hizo trampas, porque crear sus efectos fue cualquier cosa menos sencilla. Exigió el concurso de cuatro empresas punteras de gráficos computerizados de la época, y solo para producir algo menos de veinte minutos de imágenes por ordenador. Para hacerse una idea de los rudimentarios métodos con los que se contaba, los ordenadores que se empleaban tenían unos 2 MB de memoria y apenas 330 MB de almacenamiento, y los icónicos fondos negros de la película iban a ser originariamente blancos, como en 'THX 1138', pero los computadores no podían generarlos y tuvieron que decantarse por escenarios negros.

-
La noticia Hoy es un clásico de la ciencia ficción, pero en su día 'Tron' no ganó el Oscar a los efectos especiales por "hacer trampas" fue publicada originalmente en Xataka por John Tones .

Continue ReadingHoy es un clásico de la ciencia ficción, pero en su día ‘Tron’ no ganó el Oscar a los efectos especiales por “hacer trampas”

El gran debate filosófico del siglo XX sigue abierto desde que Einstein rechazara el antirrealismo y la interpretación de Copenhague

El gran debate filosófico del siglo XX sigue abierto desde que Einstein rechazara el antirrealismo y la interpretación de Copenhague

Suelo decirles a los alumnos de mis clases de filosofía de la ciencia que uno de los mayores debates científico-filosóficos del siglo XX casi nunca se les menciona con algún detalle a los estudiantes de filosofía (y hasta donde sé tampoco a los de ciencias). Me refiero al debate sobre la naturaleza de la realidad y los fundamentos de la teoría cuántica que se inició en 1927 en el Congreso Solvay de Bruselas y perdura hasta nuestros días.

Los dos grandes protagonistas del mismo fueron Albert Einstein y Niels Bohr, pero desde luego no fueron los únicos intervinientes. Al lado antirrealista, que era el de Bohr, se sumaron también Werner Heisenberg, Max Born y John von Neuman, entre otros, y en el lado realista que era el de Einstein, se situaron, aunque de forma más diversa, Erwin Schrödinger, Louis de Broglie, David Bohm, John Bell y Hugh Everett. Fue un debate que alcanzó en ocasiones una intensidad inusitada e incluso una sorprendente acritud y enconamiento, que llegó al extremo de arruinar algunas carreras prometedoras.

Su trascendencia cultural fue mucho mayor de lo que tiende a pensarse, y, si bien se mira, no se comprenden cabalmente algunos acontecimientos del siglo XX, no solo en el ámbito científico y filosófico, sin conocer sus entresijos.

Realistas versus antirrealistas: algo más que un simple debate científico

La teoría cuántica es la teoría científica mejor confirmada y más exitosa que tenemos. Casi toda la tecnología actual más relevante se basa en ella. Ha sido, además, desde sus comienzos intrigante para los filósofos y para los físicos con vocación teórica, porque plantea problemas de gran envergadura y profundidad, que sus creadores se tomaron muy en serio. Se dice que Bohr estuvo garabateando en su lecho de muerte una respuesta a la última objeción de Einstein, quien nunca aceptó que la teoría cuántica fuese una teoría acabada.

Solvay Conference 1927
Congreso Solvay celebrado en 1927

En esencia, el debate filosófico sobre la "realidad" cuántica no es sino la continuación de un viejo debate sobre la forma más adecuada de entender las teorías científicas y su relación con el mundo que tratan de conocer. Hay dos posiciones básicas. Según los realistas, las teorías científicas tienen como objetivo averiguar, aunque sea siempre de forma falible, qué entidades y procesos hay en el mundo, qué propiedades tienen y por qué cambian de un modo definido. Esas entidades, procesos y propiedades existen en el mundo con independencia de cualquier observador.

Consideran, además, que las evidencias obtenidas mediante la observación y los experimentos pueden aportar elementos de juicio para aceptar la verdad (aproximada) de las teorías exitosas.

Los antirrealistas ven las cosas de otro modo. Consideran que el papel de las teorías científicas consiste en calcular, predecir y controlar una forma simple y fructífera las manifestaciones observables de la naturaleza (lo que los clásicos llamaban “salvar los fenómenos”). Las teorías son, pues, herramientas conceptuales para manejar el mundo y no deben interpretarse como guías ontológicas, es decir, no deben tomarse como un catálogo acerca del mobiliario del universo, y mucho menos en lo que se refiere a las entidades inobservables. La evidencia empírica sólo nos permite afirmar la adecuación empírica de la teoría, es decir, solo podemos afirmar que la teoría ha encajado bien hasta el momento con los fenómenos conocidos y, particularmente, que ha resultado efectiva en su capacidad de predicción.

La interpretación de Copenhague, el origen de la discordia

La teoría cuántica constituye un desafío para las posiciones realistas si la tomamos en la interpretación considerada como estándar, la interpretación de Copenhague, desarrollada fundamentalmente por Bohr, Heisenberg y Born. Una interpretación cuyo contenido preciso, sin embargo, sigue siendo objeto de controversia entre físicos e historiadores. De hecho, Bohr y Heisenberg discreparon en puntos importantes.

También en cuanto a sus planteamientos filosóficos. Bohr fue una especie de fenomenista kantiano, mientras que Heisenberg estuvo más cercano al positivismo. En lo que ambos coincidían era en su instrumentalismo.

Bohr Antirrealismo
Bohr, un tipo poco realista.

Para empezar, en dicha interpretación la teoría no atribuye valores definidos a ciertas propiedades de los sistemas físicos que estudia (por ejemplo, la posición y la velocidad de un electrón) hasta tanto no hayan sido observados o medidos. Tales propiedades sólo adquieren un valor real en el proceso de medición, y siempre dentro del contexto de la completa situación experimental.

Por tanto, no tiene sentido hablar de ellas como si estuvieran definidas con independencia del acto de medición y este nos diera únicamente ese valor previo desconocido. Su “realidad”, el valor concreto de cada una de ellas, se adquiere precisamente en el conjunto del dispositivo experimental montado para observarlas. Antes de ese momento, el sistema cuántico evoluciona (de forma determinista) en una superposición de estados, es decir, en una combinación de todos los valores posibles para cada una de esas propiedades.

La evolución de este sistema es descrita por una ecuación propuesta por Schrödinger. En ella se describe la evolución en el tiempo de la función de onda Ψ, que a su vez es la representación del estado del sistema cuántico. Inmediatamente después de que Schrödinger la propusiera, Max Born proporcionó una interpretación probabilística de la función de onda. De acuerdo con Born, el cuadrado del valor absoluto de Ψ nos daría la probabilidad de obtener ciertos resultados en las mediciones. La función de onda no representaría, por tanto, ninguna onda real, sino que es, en definitiva, una herramienta para calcular la probabilidad de obtención de los resultados experimentales.

Veámoslo con un ejemplo. Los electrones tienen una propiedad conocida como spin o momento angular intrínseco, que puede tomar los valores de +1/2 y –1/2 (en un sentido laxo se puede decir que esto es algo así como si el electrón estuviera girando hacia la derecha o hacia la izquierda). Antes de que alguien lo observe, el electrón está un estado de “mezcla” o superposición de los dos valores; pero una vez que se mide el spin de ese electrón, el acto de medición hace que la función de onda “colapse” y solo se obtiene uno de los dos resultados posibles.

La reducción a un solo estado se conoce como el ‘colapso de la función de onda’. La transición instantánea, no regida ya por la ecuación de Schrödinger, de un sistema evolucionando de forma determinista en una superposición de estados a un sistema que adquiere de forma indeterminista uno de los estados posibles constituye ‘el problema de la medida’. El problema no es otro que el de explicar cómo y por qué se produce este extraño salto. ¿Qué es exactamente lo que cambia ¿Ha de implicar el proceso a un observador humano?

El gato de Schrödinger y la superposición de estados

Schrodingers Cat Svg

Todos hemos oído hablar alguna vez del gato de Schrödinger. Se trata precisamente de un experimento mental formulado por Schrödinger para mostrar la situación paradójica a la que puede conducir la idea de la superposición de estados.

Un gato está dentro de una caja cerrada en cuyo interior hay un dispositivo que deja escapar un veneno en caso de que se produzca la desintegración de un átomo de material radioactivo (un fenómeno cuántico). La desintegración será detectada por un contador Geiger conectado a un martillo que romperá el tarro del veneno.

La probabilidad de que se produzca esa desintegración en un tiempo determinado sería del 50%. Mientras no abrimos la caja, el átomo está en una superposición de estados desintegrado/no-desintegrado y solo adquiere definitivamente una de estas dos condiciones una vez que la abrimos y, mediante esa acción, al observar el resultado, fijamos para siempre una de las dos posibilidades. Por la misma razón, el gato permanecería antes de que alguien lo observara en una superposición de estados vivo/muerto, puesto que su vida dependía del estado del átomo en cuestión, y sólo adquiriría uno de esos dos estados en el momento de la observación.

Probablemente a su pesar, Schrödinger tenía razón: las situaciones contraintuitivas que permite la mecánica cuántica no quedan confinadas al mundo microscópico, sino que pueden alcanzar al menos a ciertos niveles del macroscópico

Schrödinger quería poner de manifiesto con este experimento mental que las paradojas surgidas de las superposiciones de estados en los sistemas microfísicos no estaban confinadas en el ámbito atómico y subatómico, sino que podían ser trasladadas al ámbito macroscópico, donde el choque con el sentido común se hacía más inquietante y resultaba más patente, digámoslo así, lo absurdo de la interpretación propuesta sobre el problema de la medida.

El tiempo nos ha mostrado que aquello no resultó un mero juego intelectual. En la actualidad se han conseguido obtener “gatitos” de Schrödinger en el laboratorio. Son objetos que han sido puestos en una superposición de estados. En 1996 se consiguió hacerlo con un ión de berilio. Después se ha conseguido con moléculas cada vez más grandes. En 2019 se hizo con una molécula de oligoporfirina, que tiene más de 2000 átomos.

Más recientemente se ha logrado el entrelazamiento de estados en objetos macroscópicos, aunque de pequeño tamaño. El entrelazamiento es una superposición de estados que implica a dos o más sistemas cuánticos que han estado en interacción.

Todo esto sería la prueba de que, probablemente a su pesar, Schrödinger tenía razón: las situaciones contraintuitivas que permite la mecánica cuántica no quedan confinadas al mundo microscópico, sino que pueden alcanzar al menos a ciertos niveles del macroscópico. Él lo planteó como una forma de mostrar que la interpretación de Copenhague no podía ser correcta, pero lo que se ha visto es que en realidad no había nada absurdo o imposible en la situación (aunque eso no significa que la Interpretación de Copenhague sea la correcta).

Una de las explicaciones más aceptadas actualmente de por qué esto no se da en niveles mayores es la “decoherencia”. Según esta idea, la interacción con el entorno macroscópico, como sucede en un proceso de medición mediante un dispositivo experimental, rompe la coherencia de los estados cuánticos y destruye la manifestación de su superposición. Los estados clásicos (vivo o muerto) serían los más robustos en dicha interacción y son los que se manifiestan.

Como es fácil entender, el coste epistémico de aceptar todo esto es enorme, puesto que entonces habría que admitir que la teoría cuántica no habla sobre objetos y propiedades reales, sino solo sobre los resultados de nuestras mediciones, o más en concreto, sobre las probabilidades de obtener tales resultados si decidimos medir un sistema.

¿En qué consiste exactamente la interpretación de Copenhague?

Heisenbergbohr
Heisenberg y Bohr en 1934

Los defensores de la interpretación de Copenhague, aunque variaron en sus posiciones a lo largo del tiempo, se manifestaron en este sentido. Así, Heisenberg escribe:

“Las leyes naturales que se formulan matemáticamente en la teoría cuántica no se refieren ya a las partículas elementales en sí, sino a nuestro conocimiento de dichas partículas.”

Por su parte, Bohr mantuvo una posición no demasiado clara que sigue siendo hoy objeto de análisis, pero en cierto momento afirmó:

“No hay un mundo cuántico. Hay sólo abstractas descripciones físicas cuánticas. Es equivocado pensar que la tarea de la física es averiguar cómo es la naturaleza. La física se refiere a lo que nosotros podemos decir de ella”.

Pero precisemos en qué consiste la interpretación de Copenhague. Aunque es difícil señalar un conjunto definido de tesis como constitutivas de esta interpretación, dado que hubo más desacuerdos en puntos concretos de los que se dejaban traslucir, se puede decir que esta interpretación afianza las siguientes ideas, que desde entonces se convierten en la forma ortodoxa y casi general de entender la teoría cuántica:

  1. La función de onda es una herramienta de cálculo. Lo que el físico hace es construir una función de onda a partir de ciertas observaciones, y esa función es meramente un predictor de las probabilidades de los resultados de posteriores mediciones.
  2. El estado de un sistema entre dos observaciones no puede ser descrito. Carece de sentido en la teoría.
  3. Los conceptos clásicos (onda, corpúsculo, etc.) son imprescindibles en dicha descripción. Las descripciones en términos de onda y las descripciones en términos de partículas se refieren aspectos complementarios de los fenómenos microfísicos. Las “contradicciones” entre ambos aspectos son irreductibles (Principio de Complementariedad de Bohr).
  4. Los sistemas cuánticos tienen una naturaleza tanto ondulatoria como corpuscular, aunque la manifestación de una u otra dependerá del dispositivo experimental empleado en su medición.
  5. El colapso de la función de onda no es más que la determinación por parte del dispositivo de medida (debido a su carácter macroscópico) de uno de los posibles resultados de esa medida. Es la actualización de una potencialidad, en la explicación cuasi-aristotélica que ofrece Heisenberg.
  6. No puede trazarse una frontera precisa entre el dispositivo experimental y el sistema medido.

Piezas centrales de esta interpretación son los puntos 3 y 4, es decir, el Principio de Complementariedad y sus consecuencias. Los conceptos clásicos ondulatorios y corpusculares han de ser empleados en la explicación de los fenómenos cuánticos tal como nuestros instrumentos los detectan y miden, pero –y esto es lo decisivo– no son aplicables a los sistemas cuánticos en sí mismos, ya que, como señalamos antes, sobre determinadas características sólo se puede decir que adquieren “realidad” en el conjunto del dispositivo experimental, el cual solo permitirá medir un tipo de esas características en exclusión de otros.

Esta idea, unida a la interpretación probabilística de la función de onda que da Born, son los elementos que chocan más frontalmente con una interpretación realista de la teoría cuántica.

Esa es la razón principal por la que Einstein no aceptó ninguno de estos dos elementos. Sus convicciones realistas le llevaban a pensar que la mecánica cuántica, tal como estaba formulada, no podía ser la última palabra en la descripción de la naturaleza. Además, el papel que le concedía al azar, y, por tanto, su renuncia al determinismo, eran para él un motivo para creer que no era una teoría completa y que tarde o temprano sería sustituida por otra teoría que recuperara el determinismo y el realismo.

Einstein Buena
Einstein, siempre con lo real.

Añadamos a esto que en ocasiones se incluye en la interpretación de Copenhague elementos que algunos de los propios artífices de la interpretación no aceptaron. En su obra Fundamentos matemáticos de la mecánica cuántica, publicada en 1932, John von Neumann proporcionó una formalización axiomática de la teoría e hizo una interpretación del problema de la medida que ejerció gran influencia. Consideraba necesario otorgar un papel destacado al observador en el acto de medición: el simple conocimiento por parte de un observador cambia el estado de un sistema físico.

Con ello, la mente del observador, incluso podría decirse que su mera consciencia, adquiere una función central en el proceso. Esto desviará la interpretación de la teoría hacia el idealismo. Bohr y sus seguidores no aceptaron nunca este papel decisivo de la consciencia. Para ellos, era el dispositivo experimental el que colapsaba la función de onda.

En esa misma obra, von Neumann ofreció una demostración, que todos aceptaron, de que no eran posibles teorías de “variables ocultas” en mecánica cuántica, es decir, teorías que pretendieran restaurar el determinismo y el realismo en la física bajo el supuesto de que la teoría no recogía todas las variables pertinentes. Esto se interpretó como un respaldo definitivo de la interpretación de Copenhague. Hoy sabemos que la pretendida demostración contenía un supuesto injustificado que la invalidaba, pues asumía de forma implícita que solo las teorías equivalentes a la formulación vigente de la mecánica cuántica eran aceptables.

Años después, en 1945, David Bohm pudo elaborar, de hecho, una teoría de variables ocultas. Feyerabend ponía este episodio como un ejemplo del modo en que el argumento de autoridad funciona en la ciencia. Sencillamente, muy pocos físicos eran capaces de entender plenamente la demostración, pero todos aceptaban la palabra de Bohr al respecto. La primera persona en darse cuenta del error, ya en 1935, fue una mujer, matemática y filósofa: Grete Hermann. Pero su artículo fue completamente ignorado. Era mujer, no era conocida y el artículo se publicó en una revista no muy relevante.

Hubo que esperar hasta 1966 a que John Bell mostrara de nuevo las deficiencias en la demostración de von Neumann. Si se hubiera atendido a la refutación de Hermann, la historia de las discusiones sobre los fundamentos de la teoría cuántica habría cambiado sustancialmente.

De hecho, en fecha tan temprana como 1927 ya se formuló una interpretación rival a la de Copenhague que chocaba con lo que von Neumann parecía haber demostrado. Louis de Broglie propuso en el V Congreso Solvay, celebrado ese año, una versión de la mecánica cuántica en la que el corpúsculo, identificado como una concentración de energía en una pequeña región de una onda, preserva su naturaleza clásica. Pero, a diferencia de las partículas clásicas, es guiado por una onda Ψ y, por tanto, está sujeto a los efectos de difracción.

Louis
Louis de Broglie y sus divertidísimos amigos charlando sobre lo real y lo irreal.

La función de onda Ψ juega entonces un doble papel: es una onda de probabilidad, pero representa también una onda piloto que determina la trayectoria de la partícula en el espacio. En efecto, Ψ tiene el carácter de una representación subjetiva de las probabilidades construidas con la ayuda de una onda objetiva. La dualidad onda-partícula es reducida así por de Broglie a una síntesis onda-partícula: la realidad física no está constituida por ondas o por partículas, dependiendo del dispositivo experimental utilizado, sino por ondas y partículas conjuntamente.

La onda tendría una singularidad cuya trayectoria correspondería a la trayectoria de una partícula. La idea básica era similar a la que desarrollaría varios años después David Bohm. Sin embargo, de Broglie abandonó al año siguiente esta teoría debido a las críticas de von Neumann y otros, y se sumó a la interpretación de Copenhague.

El experimento EPR

En 1935, en colaboración con los jóvenes físicos Boris Podolsky y Nathan Rosen, Einstein presentó en un breve artículo de cuatro páginas un caso imaginario, conocido desde entonces como el experimento o la paradoja EPR (por las iniciales de sus apellidos), con el que se trataba de dejar en evidencia la incompletud de la mecánica cuántica. De acuerdo con los autores, una teoría es completa si "todo elemento de la realidad física" tiene una contrapartida en la teoría. Pero ¿cuándo estamos ante un "elemento de la realidad física"?

El artículo lo aclara:

“Si podemos predecir con certeza (i. e., con probabilidad igual a la unidad) el valor de una cantidad física sin perturbar el sistema de ningún modo, entonces existe un elemento de realidad física correspondiente a esa cantidad física”.

Dicho de otro modo, si es posible obtener el valor exacto de una propiedad sin tan siquiera intervenir sobre el sistema físico al que se le atribuye, cabe suponer que ello obedece a que en realidad el sistema tiene esa propiedad con ese valor, es decir, el valor viene dado por un estado físico realmente existente. Hay además una premisa fundamental para el argumento que es asumida a lo largo del artículo. Esa premisa se conoce como el "supuesto o principio de localidad".

Lo que afirma es que para dos sistemas que hayan interactuado en el pasado, ningún cambio que tenga lugar en uno de ellos después de que la interacción haya cesado puede ser consecuencia de un cambio en el otro.

El supuesto de localidad, o más bien su cuestionabilidad, se convertirá en un importante punto de discusión en el ulterior desarrollo del problema abierto por el artículo. El supuesto descarta la posibilidad de que la medición sobre un sistema ejerza alguna influencia instantánea sobre el otro sistema situado a distancia. Una vez separados, lo dos sistemas son independientes, a no ser, según Einstein y sus colaboradores, que estemos dispuestos a aceptar misteriosas acciones a distancia entre ellos.

Mediante el experimento mental que propusieron, intentaron probar que si se acepta la caracterización dada de la realidad física correspondiente a una magnitud física (junto con el supuesto de localidad), entonces la mecánica cuántica es incompleta, pues habría elementos de la realidad física sin una contrapartida en la teoría. Cabría esperar, pues, la formulación de una teoría mejor, que recogiera las variables que permanecían ocultas en la versión aceptada de la teoría (pese a lo que von Neumann había dicho) e hiciera desaparecer de este modo los problemas que suscitaba la interpretación de Copenhague.

Copenhague
Nunca una ciudad dio para tanto. (Lindsay Martin/Unsplash)

El razonamiento era el siguiente:

Sea un sistema compuesto por dos partículas A y B que han estado interactuando en el tiempo y después han dejado de hacerlo. Se supone que se conoce el estado de las dos partículas antes de interactuar y, por tanto, se puede determinar (mediante la ecuación de Schrödinger) el estado del sistema compuesto por las dos partículas en cualquier tiempo posterior, incluso cuando ya no interactúan.

Si medimos ahora el momento de una de las partículas (digamos A) mediante el instrumental apropiado, podemos calcular con seguridad el momento de la partícula B sin tener que efectuar ninguna medición sobre ella. Asimismo, si en lugar del momento, decidimos medir la posición de A, podemos calcular la posición de B. Puesto que en ambos casos hemos podido establecer los valores de la posición y el momento de una de las partículas sin perturbarla en absoluto, hemos de aceptar que la partícula posee real y simultáneamente una posición y un momento con esos valores. Ahora bien, la mecánica cuántica no recoge esa posibilidad en su formalismo; por lo tanto, la mecánica cuántica es una teoría incompleta.

La réplica de Bohr fue inmediata. Apareció en el número siguiente de la Physical Review. Pero, desde luego, no fue muy clara, como era habitual en él, y más adelante admitió. Lo que hizo básicamente fue criticar el criterio de realidad que el artículo de EPR ofrecía y reafirmarse en la idea de que la única descripción posible es la del fenómeno cuántico, es decir, la totalidad de la situación experimental. No puede trazarse una distinción nítida entre el sistema medido y el dispositivo de medición. Esto era tanto como negarse a aceptar por principio la mera posibilidad experimental que el artículo describía.

Las desigualdades de Bell y el experimento de Aspect

En lo esencial, la discrepancia quedó en suspenso durante treinta años, hasta que en 1964 el físico irlandés John Bell, investigador del CERN, fue capaz de darle un giro inesperado a la situación y consiguió reavivar un debate que para muchos ya había sido cerrado en su momento en favor de las tesis de Bohr.

Bell desarrolló un teorema matemático, en la forma de una desigualdad, que abría la posibilidad de discriminar experimentalmente entre las propuestas de Bohr y las de Einstein. Representaba una diferencia cuantitativa susceptible de contrastación empírica entre la interpretación de Copenhague y la interpretación realista local de Einstein.

John Bell Buena

La desigualdad marcaba un límite estricto en el nivel de correlación esperable para los resultados de medidas simultáneas efectuadas sobre dos partículas que hubieran estado interactuando. Era una desigualdad que las mediciones de los fenómenos debían cumplir siempre de acuerdo con cualquier teoría realista local, pero que debían ser violadas en ciertas circunstancias de acuerdo con la interpretación de Copenhague. En la visión ortodoxa, el grado de correlación de los resultados de las mediciones debía sobrepasar el límite marcado por la desigualdad.

Aunque hubo intentos previos muy meritorios, los primeros en conseguir montar un experimento con las suficientes garantías para dilucidar esta cuestión fueron Alain Aspect y sus colaboradores del Instituto de Óptica de la Universidad de Paris. El experimento, publicado en 1982, consistía en una situación comparable a la descrita en el experimento EPR, aunque lo que se medía era el ángulo de polarización de dos fotones correlacionados emitidos por una fuente común.

El resultado fue que las desigualdades de Bell no se cumplieron en ese sistema. El realismo local de Einstein se veía así seriamente tocado, mientras que la interpretación de Copenhague salía reforzada de la prueba.

Desde la perspectiva actual, la interpretación realista local de Einstein, perfeccionada por Bell, ha sido descartada en los diversos experimentos posteriores. Algunos de estos experimentos no estaban exentos de complicaciones o de “lagunas”, pero fueron eliminadas posteriormente, de modo que se puede decir que el incumplimiento de las desigualdades de Bell por parte de los sistemas cuánticos ha quedado bien establecido.

Aunque no todos están de acuerdo acerca de las conclusiones correctas que sacar de estos experimentos, la no-localidad tiende a ser asumida como una característica fundamental del universo y cualquier interpretación realista tendría que incorporarla (como hace la de David Bohm). Al menos en el sentido de que el sistema que ha estado interactuando en el pasado será después un sistema no-separable. Es importante añadir que esa no-localidad no permite enviar señales a mayor velocidad que la luz, y, por tanto, las correlaciones cuánticas no chocan con la teoría de la relatividad einsteiniana.

La interpretación de los muchos mundos

Existe una interpretación alternativa a la de Copenhague que proporciona una visión diferente y sorprendente de lo que ocurre en la realidad. Dicha interpretación, conocida como la de "los muchos mundos". fue desarrollada en 1957 por Hugh Everett III en su tesis doctoral. Algunos la consideran una teoría, más que una mera interpretación, y, si bien no es la única alternativa ofrecida desde el realismo, sí es hoy la que más interés despierta.

Para entender su significado es útil recurrir a la interpretación que dio Bryce DeWitt de la paradoja de Schrödinger usando las ideas de Everett (aunque no contó con la aprobación del propio Everett). De acuerdo con esta interpretación, si miramos en la caja y encontramos que el gato está vivo, esta observación nos dice que ese es el resultado en nuestro universo, en el que el átomo radioactivo no se ha desintegrado, pero sabremos también en ese mismo instante, a partir de la aplicación del formalismo de la teoría, que hay un universo paralelo al nuestro en el que el observador (o sea, nosotros) encontrará que el gato está muerto, dado que en ese universo sí se habrá desintegrado el átomo.

Gato
¿Existe, no existe? Ah, si tan sólo lleváramos un siglo discutiéndolo. (Eric Han/Unsplash)

Todo acto de medición de un sistema cuántico que esté en una superposición de dos estados bifurca, por tanto, el universo, y en cada uno de los universos resultantes, ambos reales, se ha obtenido uno de los dos resultados posibles. A nosotros nos parece que hay un solo universo en el que el gato está vivo, pero existe otro universo en el que el resultado que hemos obtenido no ha sido ese.

Nos parece que en cualquier proceso de medición un solo resultado de los posibles se ha hecho real, sin embargo, eso es una mera apariencia: todos los resultados posibles se han hecho reales, solo que en universos diferentes. No hay, por tanto, colapso de la función de onda causado por la medición. He aquí la clave. Esto, entre otras cosas, evita el problema de la medida e implica que el determinismo es restaurado en esta interpretación.

Si el problema de la interpretación de Copenhague era su coste epistémico, que obligaba a una posición fenomenista radical y hasta idealista, al aceptar la interpretación de los muchos mundos, el coste a pagar es el ontológico, y es un coste enorme.

Téngase en cuenta que, aunque el electrón (o cualquier sistema cuántico comparable) tendría una posición y velocidad definidas antes de la observación, todos los resultados posibles de la medición se darían en universos reales, solo que la medición obtenida en nuestro universo habría sido una concreta, mientras que en otro universo, al que no tenemos acceso, otro yo idéntico a mí, rodeado también de todos los demás seres humanos, de todas las estrellas, de todas las galaxias, habría obtenido otro resultado posible. En general, según algunos, cualquier transición cuántica, medida o no, generaría nuevos universos. Y es de suponer que en esos universos se estarían a su vez generando constantemente nuevos universos.

La interpretación de los muchos mundos ha recibido diversas críticas desde el punto de vista de su coherencia interpretativa. Se ha señalado, por ejemplo, que no puede explicar satisfactoriamente el papel de la probabilidad (si todos los resultados posibles son reales, si todos se cumplen y están regidos por una ecuación de onda determinista, ¿cómo hablar entonces de probabilidad?, ¿es solo como consecuencia de que no podemos tener consciencia más que de uno de los mundos?). Lo más inquietante, sin embargo, es que choca de forma evidente con el famoso principio de la navaja de Ockham. Ese de que no hay que multiplicar los entes sin necesidad. Tanto más cuanto que estos entes son mundos enteros de los que nada puede saberse.

Pese a todo, esta interpretación ha recibido un fuerte apoyo entre cosmólogos e investigadores en computación cuántica. Quizá algún día tengamos la posibilidad de realizar un experimento que permita dirimir si esta interpretación es preferible las otras, como pudo hacerse con la de EPR. Por el momento, sin embargo, no existe esa posibilidad, lo que ha hecho que se la acuse también de infalsabilidad. Pero esta acusación es injusta, puesto que se han imaginado experimentos que podrían cumplir esta función, solo que por el momento son irrealizables. Para que una hipótesis sea falsable basta con imaginar cómo falsarla, aunque no podamos llevar la falsación a la práctica.

En definitiva, la mejor teoría física que tenemos, la teoría cuántica, nos deja sin la más mínima posibilidad de dar una interpretación del mundo que sea manejable para el sentido común. Llega un momento en el que sólo las matemáticas pueden guiarnos, pero ni siquiera ellas nos pueden ofrecer una respuesta única.

En todo caso, el debate entre realistas y antirrealistas no está cerrado. No se puede decir que ningún bando haya obtenido la victoria definitiva. Por ello quizá no sea mala idea adoptar la posición que sugiere Adam Becker en las páginas finales de su excelente libro sobre los problemas filosóficos suscitadas por la teoría cuántica (p. 287):

“El pluralismo sobre las interpretaciones podría ser la respuesta correcta, de forma pragmática, mientras hacemos frente a este reto. O, si no el pluralismo, al menos la humildad. La física cuántica es al menos aproximadamente correcta. Hay algo real, ahí fuera, en el mundo, que de alguna manera se parece lo cuántico. Solo que no sabemos aún que significa esto. Y es el trabajo de la física averiguarlo”.

Dejemos, pues, que la física siga haciendo su trabajo. A buen seguro, la filosofía seguirá beneficiándose de ello.

Antonio Diéguez es Catedrático de Lógica y Filosofía de la Ciencia en la Universidad de Málaga y miembro de número de la Academia Malagueña de Ciencias. Sus líneas de investigación son el realismo científico, la filosofía de la biología, la filosofía de la tecnología, el biomejoramiento humano y el transhumanismo.

Es autor de numerosos artículos y libros. Entre estos últimos destacan: "La vida bajo escrutinio. Una introducción a la filosofía de la biología" (Biblioteca Buridán, 2012), "Filosofía de la ciencia" (UMAeditorial, 2020), "Transhumanismo. La búsqueda tecnológica del mejoramiento humano" (Herder, 2017), y "Cuerpos inadecuados" (Herder, 2021).

-
La noticia El gran debate filosófico del siglo XX sigue abierto desde que Einstein rechazara el antirrealismo y la interpretación de Copenhague fue publicada originalmente en Xataka por Antonio Diéguez .

Continue ReadingEl gran debate filosófico del siglo XX sigue abierto desde que Einstein rechazara el antirrealismo y la interpretación de Copenhague

Alguien está robando radares de velocidad en las carreteras de Suecia. El sospechoso es ya habitual

Alguien está robando radares de velocidad en las carreteras de Suecia. El sospechoso es ya habitual

Hasta hace poco había 2.300 radares de velocidad (cinemómetros) en las carreteras suecas. Según The New York Times ahora hay hasta 160 menos, y todos ellos han sido robados. Uno podría pensar que esos robos son simplemente un acto vandálico, pero las autoridades suecas sospechan algo muy distinto.

23.000 euros por radar. Los robos suelen producirse entre medianoche y las tres de la madrugada. Los ladrones los roban por la fuerza bruta e incluso emplean sierras o directamente arrollan los radares para robar estos cinemómetros y así extraer sus cámaras de alta velocidad, que son lo único que se llevan. Reemplazarlos no es barato: cada uno cuesta unas 250.000 coronas suecas (casi 23.000 euros).

Drones rusos. Los radares de velocidad cuentan con un componentes muy interesante: la citada cámara de alta velocidad. Dichas cámras se usan en la construcción de drones caseros que luego Rusia puede utilizar en la Guerra de Ucrania. El Servicio de Seguridad Sueco (Säpo) está al tanto de estas teorías, pero no ha confirmado ni negado esas sospechas.

Captura De Pantalla 2022 10 26 A Las 9 24 11

Háztelo tú mismo. Cámaras similares a las usadas en los cinemómetros han sido vistas en drones rusos de fabricación casera. En un vídeo publicado por el Ministro de Defensa de Ucrania, se analizó un dron ruso que había caído en suelo ucraniano.

En él encontraron una cámara Canon fijada al fuselaje con velcro y una pequeña placa de acero. El depósito de combustible era una botella de plástico reciclable. Aún así esos drones son muy útiles a la hora de analizar las posiciones defensivas de los ucranianos.

Si no puedes comprar tecnología, róbala. Lars Wilderang, analista militar consultado por el NYT, opina que las sanciones económicas están dejando a Rusia sin acceso a algunos componentes que necesitan para sus operaciones militares, aunque desde luego está intentando evitar dichas sanciones.

"Los ladrones vienen de algún lado, pero los compradores vienen de otro", comentaba. "No haces este tipo de grandes robos sistemáticos a no ser que tengas a alguien detrás que te esté pidiendo esos productos".

Retraso tecnológico. El país dirigido por Putin lleva meses surfiendo sanciones que según algunos hará que sufra "un retroceso tecnológico" que podría hacer que llevase un atraso de cinco años en el ámbito de la tecnología. Un estudio reciente indicaba cómo "Moscú tiene la opción de cambiar a componentes menos fiables pero más accesibles como los de China". 

Más y más sanciones. Estados Unidos ha impuesto un veto a la exportación de semiconductores y procesadores usados por ejemplo en cazas, sistemas de misiles, radares o satélites. La Unión Europea también amplió este mes su paquete de sanciones con nuevas restricciones a las exportaciones de componentes electrónicos, componentes para el sector de la aviación y también ciertos componentes químicos. 

Rusia se busca nuevos amigos. Ante esos problemas, Rusia está acudiendo por ejemplo a Irán para adquirir drones letales y misiles de superficie. Lo mismo está haciendo con Corea del Norte, a la que le está comprando "millones de cohetes y cartuchos" para poder mantener la campaña militar. 

Bielorrusia es otro de los países que teóricamente está suministrando drones a Rusia, que trata así de evadir sanciones de gran parte del mundo. Y como complemento, por supuesto, están los drones y armas de fabricación casera. De esas Ucrania también sabe un poco.

Cámaras de enfoque fijo. Lo curioso es que las cámaras que se usan en esos radares de velocidad son una variante de cámaras Nikon que fotografía al conductor y la matrícula a 15 metros de distancia.

El enfoque es fijo, y los expertos aseguran que "no es posible ajustar ese enfoque, según nuestro proveedor. Al menos, no de forma sencilla". Usar por tanto esas cámaras en drones sería menos práctico salgo que lograran superar esa barrera técnica.

Los drones de la guerra. Las sospechas están ahí, y ciertamente los drones se han convertido en la herramienta militar más llamativa de los últimos tiempos. En España el ejército los usa también desde hace tiempo, y la innovación en este campo es continua. 

En Europa tenemos un gran proyecto de dron militar —el EuroMALE— mientras que en la Guerra de Ucrania se ha hecho uso extensivo de los drones kamikazes, variantes de aquellos de los que hablábamos hace tiempo y que han sido utilizados para destruir tanques con una precisión asombrosa. Esos drones caseros se usan esencialmente para vigilancia, pero siguen siendo parte fundamental de estas operaciones militares.

Imagen | Svenska Dagbladet

-
La noticia Alguien está robando radares de velocidad en las carreteras de Suecia. El sospechoso es ya habitual fue publicada originalmente en Xataka por Javier Pastor .

Continue ReadingAlguien está robando radares de velocidad en las carreteras de Suecia. El sospechoso es ya habitual

Aiways U6: el nuevo coche eléctrico chino rompe con todo lo que conocíamos de la marca

Aiways U6: el nuevo coche eléctrico chino rompe con todo lo que conocíamos de la marca

Aiways presenta su nuevo SUV eléctrico. Después de probar el Aiways U5 y convencernos de que esta firma china tiene mucho que ofrecer como alternativa a las marcas europeas, llega el Aiways U6, marcado por un clara estética rompedora en diseño.

De hecho, si el Aiways U5 era un vehículo sobrio en sus detalles interiores, este Aiways U6 se posiciona como un modelo mucho más pasional, con apuesta por los tonos bicolores, y sobre todo con una apuesta tecnológica que no vimos durante nuestra prueba del SUV chino. El Aiways U6 abre por motivos evidentes una gama más arriesgada y deportiva. Esto es todo lo que ofrece.

Ficha técnica del Aiways U6

Aiways U6

Tipo de carrocería.

SUV de cinco plazas.

Medidas y peso.

4,80 m de largo, 1,88 m de ancho y 1,64 m de alto. Distancia entre ejes de 2.800 mm. 1.790 kg de peso.

Maletero.

472 litros.

Potencia máxima.

160 kW (218 CV) y 315 Nm de par máximo.

Consumo WLTP.

15,9-16,6 kWh/100 km homologados (WLTP).

Distintivo ambiental.

Cero emisiones.

Ayudas a la conducción (ADAS).

Obligatorias UE: sistema de control de velocidad, alerta de fatiga, alerta de cambio de carril, frenada de emergencia, alerta de tráfico cruzado con cámara de marcha atrás.

Otros.

Pantalla de 8,2 pulgadas en formato tira para el cuadro de instrumentos y de 14,6 pulgadas para la central.

Híbrido eléctrico.

No.

Híbrido enchufable.

No.

Eléctrico.

Sí. Motor de 160 kW (218 CV) y 315 Nm de par máximo con batería de 63 kWh de capacidad.

Precio y lanzamiento.

Por confirmar.

Aiways U6, suma funciones indispensables con un diseño rompedor

Confrontar la imagen de un Aiways U5 y un U6 es como haber visto pasar años por delante de nuestros ojos. Como decíamos, el primero optaba por la sobriedad y por evitar cualquier tipo de excentricidad. El Aiways U6, por el contrario, es un SUV coupé que evoluciona el lenguaje de diseño de la marca para ofrecer una imagen más agresiva y deportiva.

Una línea de 4,80 metros de largo que, sin embargo, no se hace pesada, especialmente por las llantas de 20 pulgadas y las líneas verticales de pintura que rompen entre ejes. Gran parte del secreto también es su Cx, de 0,248 por los 0,29 de la carrocería más clásica del U5. El interior también cambia por completo, tanto en tecnologías como en imagen. Luce una gran pantalla de 14,6 pulgadas para el sistema de infoentretenimiento y una pequeña rendija de 8,2 pulgadas de tamaño que deja muy atrás el diseño en tríptico del anterior sistema.

Aiways U6 Interior 1
Aiways U6 Interior 2

De hecho, el volante también es una seña de identidad de los cambios. Igual que Kia hace con sus últimos modelos, carece de radios inferiores. Cierra el conjunto una llamativa palanca ("de estilo náutico", según la marca) que cuenta con una rueda giratoria para la selección del cambio.

Si entramos de lleno en el ámbito más tecnológico, la información se reparte en la llamativa tira que hace las funciones de cuadro de instrumentos (una disposición muy similar a la del Lotus Eletre) y la pantalla LCD central de 14,6 pulgadas con un nuevo sistema basado en Android. En ella se pueden editar los widgets que más nos interesen.

Pero el cambio más interesante es la compatibilidad con Android Auto y Apple CarPlay. Hasta ahora teníamos el denominado "Easy Connection", un sistema que ejercía de espejo del teléfono móvil en la pantalla principal si nuestro terminal era Android. Ahora, la compatibilidad entre coche y teléfono ya es total. Y pone la guinda las actualizaciones inalámbricas.

En cuanto a las ayudas a la conducción, la marca sólo ha confirmado que se trata de un coche con nivel 2 de autonomía. Sin más detalles, podemos adelantar que el coche tendrá que contar con los sistemas ADAS de ayuda a la conducción obligatorios por parte de la Unión Europea, como el asistente de velocidad, el detector de fatiga, cámara trasera con alerta de tráfico cruzado, frenada de emergencia o alerta de cambio de carril.

Aiways U6 Exterior 10
Aiways U6 Exterior 13

Sí se han dado más detalles de sus capacidades eléctricas. El SUV contará con un motor de 160 kW (218 CV) y par máximo de 315 Nm. La velocidad está limitada electrónicamente a 160 km/h pero es capaz de acelerar de 0 a 100 km/h en 6,9 segundos. En cuanto a su consumo, la marca adelanta 15,9-16,6 kWh/100 km (WLTP), lo que son buenas cifras de partida.

Esto puede haberse conseguido con un conjunto que marca 1.790 kg de peso, una gran cifra en la que aseguran que ha sido clave la nueva plataforma. La autonomía se cifra en 400 kilómetros, gracias a una batería de 63 kWh de capacidad que admite cargas rápidas de hasta 90 kW (pasando del 30% al 80% en media hora) o cargas de corriente alterna de hasta 11 kW.

-
La noticia Aiways U6: el nuevo coche eléctrico chino rompe con todo lo que conocíamos de la marca fue publicada originalmente en Xataka por Alberto de la Torre .

Continue ReadingAiways U6: el nuevo coche eléctrico chino rompe con todo lo que conocíamos de la marca

Gran Renove de MediaMarkt: estas son las cinco mejores ofertas en tecnología que todavía puedes comprar

Gran Renove de MediaMarkt: estas son las cinco mejores ofertas en tecnología que todavía puedes comprar

Esta semana ha comenzado la segunda fase del Gran Renove en MediaMarkt, que te ofrece hasta 200 euros de ahorro para que renueves la tecnología de tu hogar al mejor precio hasta el 31 de octubre. Así, vas a encontrar ofertas en secciones como portátiles, smartphones, wearables, tablets, sobremesa y All in one, Movilidad... para que no te pierdas los chollos más atractivos, hemos seleccionado las mejores ofertas en tecnología del Gran Renove de MediaMarkt que todavía puedes comprar.

  • Uno de los teléfonos con más personalidad del momento, el Nothing Phone (1) de 256GB por 449 euros, descuento de 50 euros. Mucho más que diseño transparente y unos LEDs, el Nothing Phone (1) destacó en nuestro análisis por una cámara principal más que notable y la ROM Nothing OS.
Samsung Galaxy Watch5 Bt
  • También te puedes ahorrar algo más de 50 euros respecto a su PVP en lo último para la muñeca de Samsung, el Samsung Galaxy Watch5 con Bluetooth de 44 mm por 276 euros disponible en tres colores. En nuestro análisis del Samsung Galaxy Watch5 nos gustó su completa propuesta para la salud, su cuidado diseño con excelentes materiales y la calidad de su pantalla.
Samsung Galaxy Tab S8
  • 100 euros menos en la Samsung Galaxy TAB S8, a 649 euros, disponible en tres colores. Una ambiciosa tablet todoterreno con S-Pen incluido. Entre sus bazas, una pantalla LTPS de 11 pulgadas con alta tasa de refresco de 120 Hz, potente procesador Qualcomm Snapdragon 8 Gen 1 junto a 8 GB de memoria RAM y 128 GB de almacenamiento interno, con batería es de 8.000 mAh con carga rápida de hasta 45W, doble cámara trasera de 13 + 6 MP y frontal de 12 MP gran angular para buenas videollamadas, con cuatro altavoces estéreo AKG con sonido Dolby Atmos.
Captura De Pantalla 2022 10 25 A Las 7 35 43
  • Un portátil gaming barato perfecto para uso general y echar unas partidas de vez en cuando que se queda en 599 euros, baja 50 euros este modelo que destaca por integrar una gráfica GeForce RTX 3050Ti. Cuenta asimismo con procesador Core i5-11400H, 8GB de memoria RAM, SSD de 512GB, pantalla de 15,6" FHD y se entrega sin SO.
Scooter 2
  • Más de 100 euros de descuento en el Xiaomi Mi Scooter Essential respecto a su PVP, a 239 euros, precio mínimo para el patinete eléctrico más ligero de la casa. Diseño consolidado deportivo y pantalla para un manejo intuitivo, esta versión brilla porque su peso es inferior a 12kg, para que lo lleves plegado sin demasiado esfuerzo, con velocidad máxima de 20 km/h y una autonomía aproximada de unos 20 km.

Más ofertas

  • Con Service Point, servicio de reparaciones en menos de 2 horas.

  • Con la Recogida Express lo tienes en solo 30 minutos en tu tienda MediaMarkt.

Puedes estar al día y en cada momento informado de las principales ofertas y novedades de Xataka Selección en nuestro canal de Telegram o en nuestros perfiles de Twitter, Facebook y la revista Flipboard.

En Xataka Selección publicamos las mejores ofertas en tecnología, informática y electrónica de los principales comercios de internet. Los precios y disponibilidad pueden variar tras la publicación.

Algunos de los enlaces de este artículo son afiliados y pueden reportar un beneficio a Xataka

-
La noticia Gran Renove de MediaMarkt: estas son las cinco mejores ofertas en tecnología que todavía puedes comprar fue publicada originalmente en Xataka por Eva Rodríguez de Luis .

Continue ReadingGran Renove de MediaMarkt: estas son las cinco mejores ofertas en tecnología que todavía puedes comprar