Mi Blog

diciembre 10, 2022

Technology
Adriana P

La Península Ibérica quiere ser el referente europeo en hidrógeno verde, y ya sabe cómo: qué es el H2Med

La Península Ibérica quiere ser el referente europeo en hidrógeno verde, y ya sabe cómo: qué es el H2Med

Con la crisis energética y la misión de cortar la dependencia del gas y petróleo rusos como telón de fondo, la transición hacia las energías limpias —explicaba ayer la presidente de la Comisión Europea (CE), Ursula von der Leyen— se ha vuelto ya “no solo apremiante, sino vital”. Con ese propósito bien definido, España, Francia y Portugal acaban de escenificar en Almería su apuesta por el corredor de hidrógeno verde H2Med, una infraestructura que la propia Von der Leyen parece mirar con buenos ojos. “Va en la dirección correcta. Tiene potencial de ayudarnos”, aseguraba el viernes.

El respaldo, tanto de Madrid, París y Lisboa, como el de la propia presidenta de la CE, no es una cuestión menor para un proyecto clave que aspira a salir adelante con respaldo comunitario.

¿Qué es el H2Med? A su modo, la infraestructura que toma el relevo del frustrado MidCat, un gasoducto transpirenaico que contaba con el respaldo de Madrid pero no de París, que se opuso a su trazado a través de los Pirineos. Para desenrocar la situación hace algo menos de dos meses, en octubre, los Ejecutivos de España, Portugal y Francia anunciaron un “acuerdo político” que dejaba de lado el gasoducto e impulsaba, en su lugar, un “corredor de energía” que interconectaría la Península Ibérica con el resto de la Unión Europea a través de un canal entre Barcelona y Marsella.

Poco más se detalló entonces de un proyecto que se bautizó como BarMar, salvo que su objetivo sería el transporte de hidrógeno verde; eso sí, a través de una infraestructura preparada para otros gases renovables y —aún más importante— “una proporción limitada de gas natural como fuente de energía temporal y transitoria”. Además de la tubería marítima Barcelona-Marsella, el acuerdo incluía el compromiso con la conexión CelZa, un conducto entre Celourico a Beira (Portugal) y Zamora.

¿Qué más sabemos del proyecto? Sus detalles quedaron botando con un horizonte claro: 9 de diciembre, fecha de una cumbre de líderes del sur de Europa en la que volverían a encontrarse los representantes de los tres países. La cita se celebró ayer y sirvió para varias cosas: perfilar detalles técnicos, recalcar el respaldo de los Ejecutivos e, igual de importante, mostrar que a priori Bruselas lo ve con buenos ojos. No es una cuestión nada menor si se tiene en cuenta que el proyecto H2Med requerirá una inversión de alrededor de 2.500 millones de euros y del visto bueno de la CE puede depender que entre el 30 y 50% de ese desembolso parta de las arcas comunitarias.

“Respaldo su presentación”. De todas las declaraciones que ayer se lanzaron sobre H2Med, quizás la más relevante, por lo que puede anticipar de cara a su financiación, la dejó la dirigente de la Comisión Europea. “La Península Ibérica está llamada a convertirse en uno de los principales centros energéticos de Europa. Y la UE será parte de esta historia de éxito […]. Un corredor de hidrógeno a través de la península puede conectarse con el suministro de hidrógeno de la región mediterránea”, celebró ayer Von der Leyen, quien incluso se atrevió a ir más allá en sus declaraciones.

“Acojo calurosamente este acuerdo entre Francia, España y Portugal porque vuestro proyecto H2Med va absolutamente en la dirección correcta. Tiene potencial de ayudarnos a construir una verdadera red troncal europea de hidrógeno. Respaldo su inminente presentación para convertirlo en un proyecto de interés común, lo que lo haría elegible para solicitar el apoyo financiero de la UE”. Eso precisamente es lo que plantean hacer sus impulsores: presentar el proyecto a la CE en cuestión de días, el próximo 15 de diciembre, con el propósito de que reciba lo antes posible la etiqueta de proyecto de interés comunitario, PCI, por sus siglas en inglés, clave para la financiación.

¿Qué sabemos sobre los detalles técnicos? Desde que se presentó el proyecto, en octubre, se han ido desgranando algunos detalles técnicos. La infraestructura se apoya en dos grandes patas: un conducto terrestre de 248 kilómetros entre Celorico da Beira, en Portugal, y Zamora, con un coste de unos 350 millones de euros; y el enlace submarino entre Barcelona y Marsella, una conexión que —detalla El País— medirá 455 km y alcanzará una profundidad máxima de 2.557 metros.

Una vez en la costa gala podrá distribuirse hacia otros enclaves del continente, como Alemania o Italia. El objetivo pasaría por que la construcción pueda arrancar a finales de 2025 o comienzos de 2026 y la infraestructura esté lista para 2030. En el calendario influiría en cualquier caso los trámites de una estructura transeuropea, lo que incluye tanto los requisitos de una dotación de este tipo como el visto bueno de los propios países. El BarMar trasladaría cada año dos millones de toneladas de hidrógeno verde. El H2Med alcanzaría así el 10% del objetivo de hidrógeno renovable marcado por Bruselas en el plan “RePower EU”, que fija una meta de 20 millones de toneladas para 2030.

¿Hay retos sobre la mesa Como mínimo, quedan preguntas, como concretar las características técnicas, cronograma y financiación, aspecto este último en el que resultan claves las declaraciones lanzadas ayer por Von der Leyen. Otra de las claves es qué se canalizará a través del conducto. En octubre pareció abrirse la puerta a “una proporción limitada de gas natural” con carácter “limitado” y “transitorio”, pero para lograr la etiqueta comunitaria de PCI la estructura debería enfocarse a los gases de carácter renovable, una categoría en la que no entraría el gas natural.

El proyecto es relevante porque aspira a aprovechar el potencial de la Península Ibérica, con su capacidad para la generación de energía fotovoltaica y eólica, con unas costas aún por explotar para las instalaciones offshore, un músculo clave para la producción de hidrógeno verde. Francia también plantearía no obstante incorporar a la tubería “hidrógeno rosa”, en el que participa la energía nuclear, con un peso relevante en el país. La discusión sobre ese aspecto aún está sobre la mesa.

Imagen de portada: La Moncloa


La noticia La Península Ibérica quiere ser el referente europeo en hidrógeno verde, y ya sabe cómo: qué es el H2Med fue publicada originalmente en Xataka por Carlos Prego .

Technology
Adriana P

Intel se está poniendo las pilas con los controladores de sus GPU. O lo hace o NVIDIA y AMD le pasarán por encima

Intel se está poniendo las pilas con los controladores de sus GPU. O lo hace o NVIDIA y AMD le pasarán por encima

Hay vida más allá de AMD y NVIDIA. El regreso de Intel al mercado de las tarjetas gráficas dedicadas es una muy buena noticia para los usuarios. Y lo es debido a que una mayor competencia debería provocar que las empresas en liza dediquen más recursos a la innovación, e, incluso, que a medio plazo los precios bajen. Sin embargo, para que se produzcan estas consecuencias la pelea debe estar igualada. Y aún no lo está. No del todo.

NVIDIA y AMD llevan décadas peleando de tú a tú. Las recientes GeForce RTX 4090 y 4080 nos han entregado en algunas de nuestras pruebas un rendimiento espectacular, y confiamos en que las Radeon RX 7900 XTX y XT, que son las tarjetas gráficas que nos propone AMD para pelar con ellas, estén a la altura. Intel por el momento no tiene una GPU diseñada expresamente para competir con lo mejor de AMD y NVIDIA, pero esto no significa que sus Arc no sean interesantes.

Tanto las especificaciones como el rendimiento de su procesador gráfico más ambicioso actualmente, el Arc A770, lo colocan a la altura de las GPU GeForce RTX 3060 Ti de NVIDIA y Radeon RX 6650 XT de AMD, por lo que su pelea se ciñe, por el momento, a la gama media. Sin embargo, la propia Intel reconoció desde el principio que el rendimiento de sus GPU con microarquitectura Alchemist con API más antiguas tenía margen para mejorar.

Los nuevos controladores para las GPU Arc despuntan en DirectX 9 (según Intel)

El hardware gráfico de nueva generación debe necesariamente rendir bien con las API actuales, como DirectX 12 Ultimate o Vulkan, pero también es importante que nos entregue una productividad a la altura con librerías más antiguas utilizadas aún por muchos juegos, como DirectX 11, 10 o 9. Y en este terreno los controladores tienen un rol fundamental porque en gran medida son los responsables de que una GPU nos entregue el 100% de su potencial en cualquier API que se nos ponga a tiro.

AMD y NVIDIA parten con ventaja. Sus ingenieros tienen mucha experiencia refinando sus controladores, y, además, tienen una base de datos descomunal cuyos drivers han sido probados hasta la saciedad en las API más utilizadas. Intel, sin embargo, ha estado muchos años sin pelear en el mercado de las GPU dedicadas (en el de los gráficos integrados siempre ha estado muy presente), por lo que no tiene el bagaje que han alcanzado en este ámbito sus competidores.

Intelarc Rendimiento

Ryan Shrout y Tom Petersen, que son dos de los técnicos de Intel involucrados en el desarrollo de los procesadores gráficos Arc, aseguraron a principios del pasado mes de agosto que estaban trabajando duro para mejorar sus controladores con el propósito de que rindiesen mejor en DirectX 11, 9, y en otras API antiguas. Y sí, parece que están cumpliendo su promesa, aunque por el momento los datos que tenemos son los que ha hecho pública la propia Intel.

En la gráfica que publicamos en este artículo, que ha sido elaborada por Intel, podemos ver que la GPU Arc A770 nos entrega un rendimiento mucho más alto en DirectX 9 al utilizar la revisión 3953 de los drivers frente a la versión 3490. De hecho, según Intel, en ‘Counter-Strike: Global Offensive’ la productividad se multiplica por más de dos tanto a 1080p como a 1440p, aunque en otros juegos, como ‘Guild Wars 2’ o ‘Payday 2’ apenas varía.

En cualquier caso, es muy positivo comprobar que Intel está puliendo sus controladores. Confiemos en que siga así y su hardware gráfico se consolide como una alternativa interesante a las propuestas de AMD y NVIDIA. No cabe ninguna duda de que a los usuarios nos interesa mucho que se desarrolle más la competencia en este mercado, especialmente en el contexto actual, en el que muchas tarjetas gráficas tienen un precio tan alto que quedan fuera del alcance de buena parte de los usuarios.

Más información: Intel


La noticia Intel se está poniendo las pilas con los controladores de sus GPU. O lo hace o NVIDIA y AMD le pasarán por encima fue publicada originalmente en Xataka por Juan Carlos López .

Technology
Adriana P

El USB-C como cargador único en Europa ya tiene fecha definitiva: desde 2024, (casi) todo será USB-C o no será

El USB-C como cargador único en Europa ya tiene fecha definitiva: desde 2024, (casi) todo será USB-C o no será

Parece que fue ayer cuando Europa comenzó a discutir sobre la implementación de un cargador común único, pero no. Fue hace más de una década y no ha sido hasta ahora, a punto de terminar 2022, cuando la Unión Europea ha puesto una fecha límite a su implementación. Preparémonos, porque a partir de 2024 (casi) todo será USB-C o, sencillamente, no será.

La fecha clave. Según queda redactado en la ley, a partir del 28 de diciembre de 2024 será obligatorio que todos los dispositivos aplicables implementen puerto USB tipo C para la carga cableada. Se acabaron puertos propios como, básicamente, el Lightning de los iPhone, los cuales, a partir del iPhone 16, estarán obligados a tener USB tipo C. No obstante, ya se ha filtrado que el iPhone 15 será el encargado de estrenar esta tecnología.

A qué dispositivos afecta. La inmensa mayoría de dispositivos de electrónica de consumo tendrán que tener puerto USB-C. Tal y como queda recogido en la norma, el USB-C se aplicará a móviles, tablets, cámaras digitales, auriculares (headset, headphones y earbuds), consolas portátiles, altavoces portátiles, lectores de libros electrónicos, teclados, ratones y sistemas de navegación portátiles.

En 2026, portátiles. Actualmente es raro, aunque no imposible, encontrar puertos propietarios o diferentes a USB-C en los dispositivos mencionados anteriormente. Sin embargo, la cosa cambia bastante en los portátiles. La Unión Europea también ha dado una fecha para la obligatoriedad del USB-C en los portátiles: 28 de abril de 2026, así que los fabricantes tienen año y medio más de margen.

Qué hay de la carga rápida. La Unión Europea también ha dictaminado que en la medida en que los dispositivos puedan cargarse con potencias superiores a 15W, estos tendrán que incorporar la tecnología USB Power Delivery y se tendrá que garantizar que cualquier protocolo de carga adicional permita la plena funcionalidad del USB PD independientemente del dispositivo de carga utilizado. La última actualización de USB PD admite potencias de hasta 240W.


La noticia El USB-C como cargador único en Europa ya tiene fecha definitiva: desde 2024, (casi) todo será USB-C o no será fue publicada originalmente en Xataka por Jose García .

Technology
Adriana P

DC se ha sumido en el caos. Y lo están pagando los planes de James Gunn para los superhéroes de Warner

DC se ha sumido en el caos. Y lo están pagando los planes de James Gunn para los superhéroes de Warner

Vaya semana de locos está viviendo DC, y por extensión, Warner. Digamos que la mecha que ha hecho estallar la bomba ha sido la discreta recaudación en taquilla de ‘Black Adam‘, que como un castillo de naipes que se desploma ha puesto en duda todo: el plan del recién llegado James Gunn para el futuro del Universo DC en el cine, las propias películas que parecían garantizadas. ¡Ni siquiera Henry Cavill se salva! Esto es todo lo que ha pasado.

Black Adam no ha ido tan bien. Aunque recibió toda la atención del mundo y la jugada de la aparición del Superman de Henry Cavill fue anunciado como un regreso al universo compartido DC que los fans esperaban, ‘Black Adam’ no ha ido tan bien. Según ‘Variety’, las cuentas no salen: costó unos 195 millones de dólares, más otros 80-100 invertidos en marketing. Es decir, que la película precisaba de unos 600 internacionalmente para obtener beneficios, contando con el corte que se quedan salas y demás porcentajes.

Todo parece apuntar a que la película no pasará de 400 millones de dólares en recaudación global, lo que no la convierte en un fracaso, pero sí en un éxito muy justito. Por supuesto, esto son cálculos muy aproximados: ‘Variety’ recuerda que, según la fuente, hay que tener en cuenta el mercado doméstico y de streaming (ahora se recicla la campaña publicitaria de cines para que impacte en las plataformas), donde por cierto, ‘Black Adam’ está a punto de aterrizar.

Siguiente víctima: Wonder Woman. ‘Black Adam’ arrancó fuerte, con 67 millones de dólares, pero no es comparable con los éxitos de Marvel, y deja claro que la gente quiere superhéroes (incluso podría decirse que quieren superhéroes DC), pero también que el boca a boca pone en su sitio las propuestas menos lucidas. Algo de lo que sin duda hablarán James Gunn y Peter Safran, responsables de DC Studios, en su reunión de la semana que viene con el CEO David Zaslav. Los rumores apuntan a que una de las primeras caídas será la de la tercera ‘Wonder Woman’ de Patty Jenkins.

Según ‘The Hollywood Reporter’, una nueva película de la amazona “no encaja con los planes” de Gunn y Safran, entre otras cosas por los elevados costes que supone el regreso de Gal Gadot y Patty Jenkins. Otra versión que circula sobre el tema es que lo que no interesa es el enfoque de Jenkins (o que no quiere acogerse a las intenciones de Warner de crear un universo compartido, como cuenta ‘The Wrap‘), pero sí la permanencia de Gal Gadot en el papel, motivo por el que la estrella posteó en Instagram tranquilizando a los fans.

Choque de egos. Según ‘The Hollywood Reporter’, en realidad el anuncio de que Cavill volvía como Superman después de ese primer fin de semana más o menos triunfal de ‘Black Adam’ (es decir, cuando todo jugaba a favor de la película) contaba con el respaldo de los directivos de DC. Porque aquí hay intereses en juego que van más allá del fandom (desengañémonos, aquí los últimos monos de la función son los fans de los superhéroes): Johnson y Cavill tienen una agente (y coproductora, y ex-mujer de The Rock) común, Dany Garcia, de ahí su repentina alianza. A ambos les interesa que la vieja guardia de DC siga.

Pero a la vez, brotan rumores sobre ese plan maestro de Gunn y Safran. El último: se van a deshacer de los héroes de Zack Snyder para poner en marcha un panteón de antihéroes más afín a los gustos del director de ‘El Escuadrón Suicida’. Por ejemplo, cuentan con Jason Momoa para dar vida a Lobo, un sociópata galáctico y paródico que podría formar parte perfectamente de unos Guardianes de la Galaxia para adultos. Es solo un rumor, pero encaja perfectamente con esta nueva narrativa.

Días moviditos en DC. Ahora mismo, distintas posibilidades se abren de cara al futuro del Universo DC. Si la cancelación de ‘Wonder Woman 3’ es definitiva, puede conllevar consigo el cierre de todo el Snyderverso: una nueva película de Superman con Henry Cavill, la secuela de ‘Aquaman‘ prevista para diciembre de 2023… porque ya solo ‘The Flash‘, ya rodada, queda en pie (y que, para terminar de liarla, adelanta una semana su fecha de estreno en junio).

Pero frente a la posibilidad de que Gunn traiga bajo el brazo un nuevo universo DC con Lobo como centro (esto se ha llegado a decir, y sería una chaladura total… muy digna de Gunn), también tenemos un escalón intermedio: reboots de los grandes héroes con nuevos actores. O quizás con los mismos, como proponía hacer Andy Muschietti con Henry Cavill, devolviendo al héroe al estilo de las películas de Christopher Reeve de los setenta, la Piedra de Rosetta del cine de superhéroes. Pero… ¿aceptaría el público un reboot del héroe en un tono opuesto y con el mismo actor? Sabremos más en los próximos días.

Qué demonios: a este ritmo, en las próximas horas.


La noticia DC se ha sumido en el caos. Y lo están pagando los planes de James Gunn para los superhéroes de Warner fue publicada originalmente en Xataka por John Tones .

Technology
Adriana P

La cobertura 5G global por roaming satelital ya está más cerca. Y la empresa que quiere hacerlo posible es española

La cobertura 5G global por roaming satelital ya está más cerca. Y la empresa que quiere hacerlo posible es española

Hay tecnologías que nacen porque alguien las hizo posibles, pero pueden pasar años o décadas hasta que alguien les encuentra un uso que las hace masivas. Por ejemplo, Gorilla Glass, nacido de investigaciones de los años sesenta del siglo XX, que no fue lanzado comercialmente hasta 2007. Hoy hay un Gorilla Glass casi en cada bolsillo.

Otras tecnologías nacen como respuesta a una necesidad del mercado, a un requerimento de negocio. Por ejemplo, llevar conexiones no-terrestres a un estándar móvil. O eso cuenta Marco Guadalupi, CTO de Sateliot, una startup catalana de la que os hablamos hace unos meses y que está dispuesta a revolucionar de forma silenciosa la conectividad de las zonas desconectadas.

Roaming transparente

La 3GPP, la organización que dibuja los estándares de las comunicaciones móviles, definió al 5G como el primer estándar móvil que no solo permitía conexiones por antenas terrestres, sino también satelitales.

jaum+e

Esa posibilidad abrió los ojos de un grupo de profesionales de la industria liderado por Jaume Sanpera, que vieron cómo una tormenta perfecta estaba esperando alguien que implementase el negocio: ese nuevo estándar, una industria móvil más que consolidada, y la era de lanzadores asequibles para enviar satélites al espacio a un precio muy inferior al de hace unos años.

Soyuz o SpaceX venden su excedente de carga, habitualmente de unos pocos centenares de kilos, en lugar de rellenarlos con pesos, y así evitarse recalcular cargas y distribuciones. Y de ello se aprovechan empresas como Sateliot, que hizo su primer lanzamiento desde Kazajistán a bordo de un Soyuz… y planea lanzar su primer plano orbital a principios de 2023.

Con esos satélites empezará a poder ofrecer cobertura global a quien se conecte a su red, pero tienen claro cuál es su cliente objetivo. “Las operadoras. En ellas nos centramos. No somos su competencia, las complementamos“, explica Guadalupi. “Si ellas se conectan a nuestros satélites podrán ofrecer roaming de forma transparente a sus clientes. Cuando no tengan cobertura porque están en una zona rural o en otro país, nosotros podremos darle cobertura”.

Marco

Y ahí está otra de las grandes novedades de esta solución: solo hace falta una actualización de firmware sobre los chipsets ya existentes, ni siquiera hace falta un chipset nuevo y específico para ello, gracias a la definición del estándar, que contempla la conectividad no-terrestre.

De todas formas, para ese escenario falta algo más de tiempo. Al menos para que cualquier persona pueda conectarse vía roaming y hacer funcionar su smartphone con normalidad. Ahí entra en juego el retraso de la señal en función de la cantidad de satélites que haya desplegados.

Un solo satélite ya da cobertura global, pero apenas dos instantes por día y punto del planeta. Según se van añadiendo más satélites y más planos orbitales, en más instantes del día se va obteniendo cobertura.

Sateliot2

El satélite de Sateliot, listo para el lanzamiento. Imagen: Sateliot.

Y ahí es donde entra la segunda parte de la ecuación de Sateliot: la conectividad de objetos, entendiendo “objetos” en su definición más amplia: desde mochilas a bicis pasando por mascotas, plantaciones agrícolas, contenedores de logística… Cualquier ente donde sea potencialmente interesante aplicar conectividad.

256 satélites para 2025

Y ahí se tira de imaginación. O de negocio. Y de entender, en función del número de satélites que haya ido lanzando Sateliot en cada año, el tiempo de respuesta, y cómo se va adecuando a cada necesidad.

Por ejemplo, con cobertura durante dos instantes al día podemos hablar de algo suficiente para sectores donde sea conveniente conocer una posición o un estado con esa recurrencia. Como los datos que los sensores de una plantación agrícola envíen en esos intervalos. “En esos sectores ya no solo es que no haga falta más, es que es interesante ajustarlo mucho para ahorrar batería, hablamos de baterías que duran años”, dice Marco.

Otros sectores tal vez requieran una actualización cada dos horas. Otros, cada diez minutos. Conforme más satélites orbiten, más se reducirá ese tiempo.

El plan pasa por tener 256 satélites en 2025, algo que logrará “tiempo casi real”, según la empresa. Y más adelante, llegar a los 500 satélites, cifra con la que sí se podrá plantear la conectividad global incluso para smartphones. “Iremos incrementando el número de satélites en función de lo que vaya dictando el mercado”, comenta el CTO.

Muchos usos potenciales, pero un cliente entre ceja y ceja: las operadoras. De hecho, sus primeras pruebas y el primer acuerdo, anunciado este verano, se cerró de la mano de Telefónica. Inicialmente, con la conectividad de objetos. Más adelante, quizás empecemos a ver reclamos comerciales como roaming asequible con cobertura global.


La noticia La cobertura 5G global por roaming satelital ya está más cerca. Y la empresa que quiere hacerlo posible es española fue publicada originalmente en Xataka por Javier Lacort .

Technology
Adriana P

Los programadores ya alucinaban con CoPilot y ChatGPT, pero ahora DeepMind va más allá con AplhaCode

Los programadores ya alucinaban con CoPilot y ChatGPT, pero ahora DeepMind va más allá con AplhaCode

CoPilot surgió como una revolución para programadores y a pesar de la polémica parece imparable. No está solo. ChatGPT, el fenómeno viral de los últimos días, también apunta maneras y programa en lo que le eches. Si esos motores de inteligencia artificial ya nos parecían alucinantes esperad, que ahora llega un nuevo motor que va aún más allá.

AlphaCode. Este nuevo sistema de ingeligencia artificial llega de la mano de la célebre DeepMind, subsidiaria de Google. La empresa lleva años logrando hitos singulares: logró superar a los humanos al Go o al StarCraft II, jugó mejor que otras máquinas al ajedrez, pero también ayudó a arqueólogos, farmacéuticos, matemáticos y biólogos. Ahora sus responsables han querido ver cómo se portaba en el mundo de la programación, y el resultado, llamado AlphaCode, es alucinante.

Mejor que los humanos. Aunque CoPilot y ChatGPT son los más populares, el verdadero referente en sistemas de IA que programan era Codex, lanzado en 2021 por OpenAI y entrenado con más de 100 GB de código de GitHub. En DeepMind también han entrenado su sistema con código de estos repositorios, pero además han añadido entrenamiento basado en problemas recolectados de competiviones de programación. Por ejemplo, determinar el número de cadenas binarias de longitud “n” que no tienen ningún cero consecutivo.

Millones de soluciones candidatas. Ante un nuevo problema, AlphaCode genera soluciones candidatas en Python o C++ y las filtra para no contemplar las que considera malas. Codex generaba cientos de soluciones, pero DeepMind ha logrado que AlphaCode genere más de un millón.

La mejor entre muchas. A partir de ahí se queda con aproximadamente el mejor 1% de todas ellas y las agrupa en “clústeres” analizando las similitudes entre las salidas y las entradas. Eso permite enviar los resultados agrupados por estrategia, táctica de programación y resultado, lo que permite plantear alternativas y así ofrecer más posibilidades de resolver el problema.

Resuelve uno de cada tres problemas. Tras el entrenamiento, los responsables de DeepMind revelaron en Science que AlphaCode resolvió cerca de un 34% de los problemas que le fueron asignados. Codex, que ya era bueno, no superaba el 10%.

AlphaCode vs humanos. Para demostrar su capacidad, DeepMind apuntó a AlphaCode a competiciones de programación online en las que participan programadores humanos. En eventos con al menos 5.000 participantes, el sistema superó al 45,7% de todos ellos, pero lo más sorprendente fue otra cosa.

Creatividad. A pesar de que su entrenamiento está basado en código de GitHub y por tanto sería de esperar que las soluciones fueran por tanto similares al código allí publicado, AlphaCode no duplicó grandes secciones de código o lógica de algoritmos. En esencia estaba creando algo nuevo. No es perfecto y comete algunos errores, pero el desarrollo es prometedor y vuelve a reabrir el debate sobre creatividad en máquinas.


La noticia Los programadores ya alucinaban con CoPilot y ChatGPT, pero ahora DeepMind va más allá con AplhaCode fue publicada originalmente en Xataka por Javier Pastor .

Technology
Adriana P

Cuando se fabricaban móviles en Campanillas, Málaga: 700 millones de euros y 5 millones de móviles al año

Cuando se fabricaban móviles en Campanillas, Málaga: 700 millones de euros y 5 millones de móviles al año

Quizás si decimos “Vitelcom” más de uno no sepa de qué estamos hablando, pero seguro que si hablamos de TSM a muchos les suena mucho más. Los TSM fueron los teléfonos móviles de marca blanca que sacó a la venta Telefónica España en la década pasada, aunque llegaron a varios mercados más, como el alemán, el británico, y sobre todo, el latinoamericano. Antes de que ni siquiera existiese BQ diseñando desde Las Rozas, Vitelcom también se dedicaba a diseñar e incluso fabricar los teléfonos móviles TSM desde Campanillas, un distrito de la capital malagueña en el que se ubica el Parque Tecnológico de Andalucía.

Este parque, también conocido como PTA, se remonta a 1985, cuando la Junta de Andalucía decidió estudiar la viabilidad de un proyecto así en la comunidad y escoger la mejor ubicación posible. Tras el informe favorable de una consultora japonesa, en 1992 fue inaugurado. La localización no fue fruto del azar: se encuentra a trece kilómetros del centro de Málaga, a siete del Campus Universitario de Teatinos (donde se estudian, entre otras carreras, Informática, Teleco o Ingeniería Industrial), y a seis del Aeropuerto de Málaga-Costa del Sol.


(más…)