Acer acaba de actualizar su línea de ordenadores gaming con el nuevo Acer Nitro V 16. Estamos frente a una propuesta dirigida a aquellos usuarios que buscan un portátil equilibrado en rendimiento y precio. Si eres uno de ellos, puede que este portátil se ajuste a tus necesidades.
La serie Nitro, recordemos, es la alternativa más “económica” del fabricante taiwanés. Ofrece buenas prestaciones, pero se presenta con materiales menos premium y sistemas de refrigeración no tan avanzados. La histórica serie Predator, por su parte, es la más ambiciosa de Acer en gaming.
Ficha técnica del nuevo Acer Nitro V 16
Acer Nitro V 16
pantalla
16 pulgadas WQXGA o WUXGA
Hasta 165 Hz
Tiempo de respuesta de 3 ms
procesador
AMD Ryzen 7 8845HS
gpu
NVIDIA GeForce RTX 4060
memoria
Hasta 32 GB de RAM DRR5
almacenamiento
Hasta 2 TB SSD PCIe Gen 4
cámara
Webcam compatible con IA
puertos
1 x HDMI, 2 x USB 2.0, 2 x USB 3.2 Gen 2 Tipo-A, 2 x USB 3.2 Gen 2 Tipo-C, RJ-45
conectividad inalámbrica
WiFi 6
Bluetooth 5.1
batería
Ion Litio (Li-Ion)
SO
Windows 11
precio
Desde 1.199 euros
Un portátil gaming equilibrado desde 1.199 euros
El nuevo Acer Nitro V 16 llega en diferentes configuraciones. Nos ofrece una pantalla de 16 pulgadas con resolución WQXGA o WUXGA, tasa de refresco de hasta 165 Hz y tiempo de respuesta de 3 ms. A la hora de elegir nuestro equipo gaming tendremos que prestar atención a estos puntos.
A nivel de procesamiento, Acer ha elegido los nuevos AMD Ryzen 7 8845HS. Estos chips basados en la arquitectura Zen4 de CPU, que han sido presentados hoy por AMD, presumen de mayor rendimiento y abrazan las tareas relacionadas con la inteligencia artificial tan importante hoy.
El apartado gráfico está integrado por la versión móvil de las GeForce RTX 4060, equipada con tecnología DLSS 3. Si hablamos de la memoria RAM, el Acer Nitro V 16 eleva este apartado hasta los 32 GB de RAM DRR5, una cantidad que puede resultar ideal para muchos usuarios.
Hablando del almacenamiento, la marca nos propone elegir un equipo con hasta 2 TB de disco SSD PCIe Gen 4, otro punto importante, principalmente si tenemos en cuenta que los juegos son cada vez más pesados. Los puertos son un USB-C 4.0, dos USB 3.0, un HDMI y un lector de tarjetas microSD.
Aunque el equipo no forma parte de la familia Predator, Acer se ha ocupado de la refrigeración. En este sentido, ha incorporado una solución térmica de ventilador doble que permite mantener la temperatura bajo control incluso mientras estamos jugando a títulos exigentes.
Sobre los juegos, la firma promete que el ordenador (dependerá de la configuración que elijamos) será capaz de ejecutar una enorme cantidad de títulos populares. Sin embargo, se mencionan dos en concreto: ‘Cyberpunk 2077’, que se ha redimido con sus actualizaciones, y ‘Alan Wake 2’
Precio y disponibilidad del nuevo Acer Nitro V 16
El ordenador estará disponible en España a partir de abril de 2024 con un precio de partida de 1.199 euros.
Acer nos tiene acostumbrados a un catálogo de productos con portátiles, tablets, monitores, proyectores y accesorios. El fabricante taiwanés, sin embargo, ha decidido ampliar su presencia en el mundo tecnológico con sus propias estaciones de carga portátiles, baterías y paneles solares.
La incursión de Acer en esta categoría llega con una variedad de productos que pretenden acompañarnos en diferentes momentos en los que estemos lejos de un enchufe para cargar nuestros dispositivos. Imagínate una escapada lejos de la ciudad, en medio de la naturaleza. Veamos en detalle lo nuevo de Acer.
Ficha técnica de las estaciones de carga de Acer
Acer ASP311
acer ASP321
Acer ASP331
dimensiones
301 mm x 227 mm x 193 mm
432 mm x 270 mm x 300 mm
536 mm x 303 mm x 343 mm
peso
7 kg
22 kg
34 kg
capacidad
512 Wh
1.229 Wh
2.560 Wh
potencia
600 W
1.800 W
3.000 W
potencia máxima
1.000 W
3.000 W
5.000 W
Puertos de salida
2 x AC, 2 x USB-A, 2 x Type-C, 2 x DC 5521 y un puerto de coche.
2 x CA, 2 x USB-A, 2 x USB-A de carga rápida, 2 x Type-C, 2 x DC 5521 y un puerto de coche.
3 x CA, 2 x USB-A, 2 x USB-A de carga rápida, 2 x Type-C, 1 x Anderson y un puerto de coche.
precio
Desde 699 euros
Desde 1.399 euros
Desde 2.199 euros
Estaciones de carga portátiles
El catálogo de Acer en energía llega con tres estaciones de carga portátiles. En primer lugar, nos encontramos con la Acer ASP311, una propuesta de 301 mm de ancho, 227 mm de alto, 193 mm de profundidad y 7 kg de peso. La misma tiene una capacidad de 512 Wh, lo que significa que, sobre el papel, tendremos a disposición de nuestros dispositivos 512 W durante una hora.
Pero no siempre necesitamos tanto, así que la estación también nos podrá suministrar, por ejemplo, 256 W durante 2 horas (esto puede variar en un escenario real). Es importante que tengamos presente este concepto para los próximos productos que veremos en este artículo. Además, la Acer ASP311 nos ofrecerá una potencia máxima de 1.000 W, un punto que tendremos que tener en cuenta a la hora de alimentar dispositivos.
Acer ASP311
El fabricante promete que la estación seguirá teniendo más del 80% de capacidad después de 3.000 ciclos de carga. Nos ofrece, además, una variedad de puertos: 2 AC, 2 USB-A, 2 USB-C, un puerto para el coche y 2 puertos DC 5521. Para la carga podremos utilizar una entrada CA, el puerto para el coche o un sistema de entrada fotovoltaica de 200 W, es decir, podremos conectar un panel solar.
Acer ASP321
Acer también ha presentado la Acer ASP321. Aquí nos encontramos con un dispositivo más grande (432 mm x 270 mm x 300 mm) y pesado (22 kg), pero con mayores prestaciones. Tiene una capacidad de 1.229 Wh y una potencia máxima de 3.000 W. En cuanto a los puertos, hay 2 CA, 2 USB-A, 2 USB-A de carga rápida, 2 USB-C, un puerto para coche y 2 puertos DC 5521. Podremos cargarla a través del puerto CA, el puerto de carga para coche o un panel solar de 400 W.
Acer ASP331
Por último, tenemos la estación de carga portátil Acer ASP331. Se trata del producto más ambicioso y, por consecuencia, del más voluminoso (536 mm x 303 mm x 343 mm) y pesado (34 kg). La capacidad da un salto hasta los 2.560 Wh y la potencia pico es de 5.000 W. Este modelo llega con varios puertos: 3 CA, 2 USB-A, 2 USB-A de carga rápida, 2 USB-C, un puerto para coche, 2 CC 5521, y un enchufe Anderson. Se puede cargar a través de su conector de CA, un cargador de coche, o 2 ranuras de entrada fotovoltaica de panel solar de 400 W.
Batería y paneles solares
Acer también ha presentado una batería opcional de 2,5 kWh para la estación de carga ASP331. La misma se puede conectar a la fuente de alimentación externa de manera individual o en paralelo hasta seis unidades para alcanzar una capacidad de 17,5 kWh. Acer asegura que una configuración tope podría suministrar corriente eléctrica a una vivienda estándar (con un consumo entre 750 y 1.000 W) durante unas 24 horas.
También nos encontramos con tres paneles solares plegables de alta potencia que se presentan como una alternativa para alimentar una amplia variedad de dispositivos. En todos los casos estamos ante propuestas que llegan con protección IP67 e incluyen soporte ajustable. En concreto, se trata del ASP330 de 400 W, el ASP320 de 200 W y el ASP310 de 100 W.
El mundo tiene pocas certezas sobre los Países Bajos, pero esas certezas son firmes. A saber: no saben cocinar, saben cultivar tulipanes, no saben ganar Mundiales de Fútbol, saben construir cosas.
De las cuatro anteriores, la última es quizá la menos conocida, pero también la más impresionante. El país, al fin y al cabo, lleva siglos luchando contra la fuerza de los mares gracias a complejos sistemas de presas y represas que han hecho surgir tierras de cultivo allí donde antes sólo había marismas, en el mejor de los casos. De modo que cuando un equipo de holandeses se presta a, pongamos, edificar un túnel bajo una autovía, nos aguarda un bello espectáculo.
Es lo que sucedió en la A16, una de las muchas autovías nacionales de Países Bajos. La infraestructura era problemática por su estrechez, dado que limitaba su capacidad de tráfico. De modo que el Rijkswaterstaat, la agencia estatal de infraestructuras, inició un proceso de ensanche alargado a lo largo de varios meses. Y ya que estaba, decidió incluir la construcción de túneles que facilitaran su circulación por debajo.
¿Tarea compleja, no? Pues no. En menos de 48 horas, los obreros holandeses ensancharon un tramo de la autovía y crearon un túnel de 70 metros de la nada. Dentro timelapse:
La historia causó furor en los foros de arquitectura, ingeniería y construcción, como este, donde se iniciaron largos debates sobre el “cómo”. La parte destructiva es relativamente simple: las modernas máquinas hidráulicas permiten desmontar una rocosa autovía en un abrir y cerrar de ojos. La parte constructiva, también, aunque sólo de un tiempo a esta parte: el túnel venía prefabricado, y se colocó bajo la autovía como una pieza de Lego.
En dos días, un abrir y cerrar de ojos en tiempos ingenieros, se cortó la autovía, se demolió parte de ella, se colocó el túnel, se aseguró, se reconstruyó la autovía sobre él y se reasfaltó. Los vecinos de al zona que pasaran el fin de semana lejos de casa apenas notarían la diferencia a su vuelta. Excepto por el reluciente túnel.
El vídeo es sólo un ejemplo de la larga lista de virtuosidades repartidos por YouTube y otros foros de ingeniería. En este otro, por ejemplo, podemos observar cómo un grupo de obreros japoneses construye un edificio de 30 plantas (con sus habitaciones ya decoradas) en apenas dos semanas. En este otro podemos observar a operarios norteamericanos reconstruyendo un puentes sobre una autovía en otro fin de semana. Y aquí lo mismo, pero en China.
La proliferación de maquinaria altamente capacitada y piezas prefabricadas permite genialidades así, tan fascinantes en los time-lapses. Ahora bien, nadie superará a Japón, los maestros del asunto. Aunque los holandeses se queden muy cerca.
La sal es uno de los condimentos más populares (si no el que más) en las cocinas de todo el mundo. Sin embargo también son muchas las personas que por motivos de salud tratan de reducir al mínimo su consumo en sal. Por fortuna, expertos en salud y en alimentación cuentan con alternativas para evitar que los platos sin sal se conviertan en platos sosos.
Pero antes de nada, ¿por qué esta aversión a la sal? La sal al fin y al cabo ha sido un aliado clave para la humanidad por una propiedad clave: su capacidad para conservar alimentos el buen estado.
Esto se ha aplicado especialmente a la carne y el pescado, alimentos que antes de la llegada de los sistemas de refrigeración podían llegar a echarse a perder antes de llegar a las cocinas de la gente.
Pero el sodio (la sal es cloruro sódico, compuesto formado por los elementos cloro y sodio) es de hecho un nutriente necesario para nuestro cuerpo. Se estima que necesitamos unos 500 miligramos de este elemento para funciones como transmitir impulsos nerviosos, contraer y relajar los músculos y mantener el balance entre agua y minerales en nuestro cuerpo.
El problema es que el sodio (y por tanto la sal) es, consumido en exceso, un riesgo para nuestra salud, especialmente para nuestra salud cardiovascular. Como explica la Fundación Irlandesa del Corazón, la sal “actúa como una esponja en el cuerpo, empapando el líquido y reteniendo fluido”. Esta “esponja” se lleva el líquido al torrente sanguíneo, aumentando así la presión arterial.
La sal puede de esta forma hacer que retengamos fluidos, pero las consecuencias de un consumo excesivo van mucho más allá. El exceso de sal se ha vinculado con un mayor riesgo de sufrir infartos y accidentes cerebrovasculares o ictus, fallos cardiacos, enfermedades en los riñones y piedras, demencia vascular, osteoporosis e incluso cáncer estomacal.
¿Cuánta sal es mucha sal? Depende de factores como nuestro estado de salud, dieta o masa corporal, pero en general no es recomendable sobrepasar los seis gramos de sal al día (el cuerpo necesita uno o dos gramos diarios para sus funciones). En España, según datos de la Fundación Española del Corazón, el consumo promedio de sal es de 9,8 gramos al día (algo por debajo de la media mundial, 10,78 g/día).
Descifrando nuestra relación con la sal
Recortar la sal puede ser buena idea si tenemos en cuenta que con este condimento pasa algo semejante a lo que ocurre con el azúcar: no sabemos muy bien cuánta consumimos. Los alimentos procesados y ultraprocesados suelen incluir sal, pero raras veces somos conscientes de en qué cantidades, salvo que nos fijemos en las etiquetas y tengamos facilidad para saber cuánta sal son 15 miligramos.
Es por eso que anticiparnos, reducir nuestro consumo de sal antes de que nuestro cuerpo nos de el aviso, puede ser buena idea. Reducir el consumo de sal puede parecer una tarea titánica pero no tiene por qué serlo.
Al fin y al cabo, en el siglo XXI y en el “mundo desarrollado” nuestro acceso a condimentos y especias de todo tipo es amplio. No solo tenemos acceso a la materia prima, el saber de los expertos en gastronomía nos permite también tener acceso a los trucos para saber qué especia y cuál condimento pueden ayudarnos a reducir la sal sin perder sabor.
Un ejemplo de forma de reducir la sal es cocer algunos alimentos, como las patatas, junto a una hoja de laurel. La albahaca y el tomillo también son utilizados para condimentar las patatas sin necesidad de recurrir al cloruro sódico de toda la vida.
Existen numerosas alternativas, dependiendo del tipo de plato que queramos elaborar. Por ejemplo el laurel puede servirnos para sazonar el pescado, al igual que el eneldo, mientras podemos recurrir a la albahaca y al orégano para la pasta, o al curry y al tomillo para las verduras.
Estas alternativas entremezclan especias muy familiares para la dieta mediterránea, como el pimentón, que puede ser utilizado en todo tipo de guisos; con especias menos frecuentes en las cocinas como el cardamomo, utilizada por ejemplo para hacer pan.
El cilantro, otro ejemplo notable, es una de las hierbas aromáticas más consumidas en el mundo pero no muy habitual en la cocina española. Se trata de un condimento muy versátil, que puede dar sabor a las ensaladas (al igual que el perejil, otra hierba de gran versatilidad) pero también encaja bien en sopas, pescados y salsas.
No todos los consejos a la hora de reducir nuestro consumo de sal son culinarios. Por ejemplo, es importante saber que la persistencia es clave: la preferencia por lo salado es un gusto adquirido. Nuestro paladar se acostumbra a productos con grandes cantidades de sal “invisible” a menudo sin darse cuenta. Desentrenar el paladar puede llevar tiempo, eso sí.
El segundo consejo es aprender a leer las etiquetas. Es difícil traducir las etiquetas a un lenguaje que nuestro cerebro pueda percibir mejor. ¿Cuántos miligramos de sal hemos echado a las alubias al sazonarlas a ojo? Ni idea. Lo contrario también es cierto. Es por eso que los etiquetados también hacen referencias a cantidades diarias recomendadas y por eso es también importante saber cuánta es esa cantidad diaria que no deberíamos sobrepasar.
Google por fin muestra su gran arma contra ChatGPT. Gemini ya es oficial. El nuevo modelo de lenguaje (LLM) de Google ya se puede probar y promete ser la IA más avanzada hasta la fecha. Al contrario de lo que se pensaba, Google ha decidido lanzar ya su nuevo modelo de IA. Lo hará eso sí en tres tamaños diferentes: nano, Pro y Ultra. La mala noticia es que en su versión más potente, Gemini Ultra, no llegará hasta principios del año que viene.
Gemini, un modelo de IA que supera a todos sus rivales en los principales tests. Gemini es un modelo multimodal, lo que significa que puede entender información de varias fuentes, desde texto hasta imágenes, pasando por vídeo, audio o código. Según explican desde Google, se trata de su “modelo más flexible hasta la fecha”.
Según explica Google, los resultados de Gemini en su versión Ultra son los mejores de una IA en 30 de las 32 pruebas académicas de uso generalizado, superando ligeramente los porcentajes obtenidos por GPT-4, el modelo de OpenAI.
Google explica que con una puntuación del 90,04% en MMLU (comprensión masiva del lenguaje multitarea), es el primer modelo que supera a los expertos humanos en un test que combina 57 materias como física, historia, medicina o ética, junto a la capacidad de resolución de problemas.
Un modo de razonar diferente. Google he diseñado Gemini desde cero y el enfoque de enfrentarse a los problemas es distinto. Es multimodal de forma nativa, lo que significa que está preentrenado desde el principio para combinar distintas modalidades. En un vídeo de demostración se ensaña como Gemini es capaz de interpretar en tiempo real dibujos, relacionar objetos y sugerir canciones a medida que le damos indicaciones.
Gemini es “excepcionalmente hábil para extraer conocimientos difíciles de identificar entre ingentes cantidades de datos”, apunta Google.
Con AlphaCode 2. Gemini introduce un nuevo sistema de generación de código, AlphaCode2. Según describe Google, el nuevo sistema se desempeña bien en las matemáticas complejas y la comprensión teórica de la ciencia de la computación. Según los datos, AlphaCode 2 rinde mejor que el 85% de los participantes. Como referencia, AlphaCode 1 era mejor que el 50%.
Un salto en eficiencia. Hay un dato que Google no ha compartido oficialmente: el número de parámetros. Sí explica que Gemini Ultra es el modelo más eficiente jamás creado, lo que implica que consume una menor cantidad de energía para lo que es capaz de ofrecer.
Uno de los motivos es que Gemini Ultra llega junto al sistema TPU v5p, la unidad de procesamiento tensorial más potente, eficiente y escalable hasta la fecha. Además de con TPUs, Gemini también ha sido entrenado y utiliza GPUs externas, previsiblemente las populares Nvidia H100.
Gemini llega ya a Google Bard (pero en distintas fases). A partir de hoy, Google Bard recibe la mayor actualización de su historia con el paso a Gemini Pro. El chatbot de Google empezará a utilizar la versión mediana de Gemini. Estará disponible en inglés en más de 180 países y en Europa en los próximos meses.
A partir del año que viene, Google lanzará Bard Advanced. Una nueva versión de su IA que integrará Gemini Ultra. Por el momento no se ha lanzado la mejor versión de Gemini, ya que según Google se “están llevando a cabo comprobaciones exhaustivas de confianza y seguridad”.
Y al Google Pixel 8 Pro. Además de en Bard, Gemini estará disponible en servicios como el buscador, Ads, Chrome y Duet AI. A partir del 13 de diciembre, los desarrolladores podrán acceder a Gemini Pro a través de la API en Google AI Studio o Vertex AI.
Finalmente Gemini también estará disponible en los Google Pixel 8 Pro. AICore es un nuevo servicio donde los creadores de aplicaciones podrán aprovechar las posibilidades que genera la IA, en este caso con Gemini Nano, su versión más ligera.
Según apuntan desde Google, esta posibilidad también llegará en un futuro a otros dispositivos con Android 14. Sin especificar más detalles.
Google quiere volver a ser protagonista en el campo de la inteligencia artificial. Además de sus capacidades, Gemini promete ser el modelo de IA con las evaluaciones de seguridad más exhaustivas. Por ello, desde Google explican que en la búsqueda de puntos ciegos han trabajado con expertos externos. Al tiempo que han aplicado clasificadores de seguridad específicos para identificar contenidos que impliquen violencia o estereotipos negativos.
“Es el comienzo de una nueva era para nosotros”, explica Sundar Pichai, CEO de Google. Gemini se ha hecho de rogar pero ya ha llegado y el año que viene también se espera GPT-5. Nuevos avances para un campo, el de la IA, donde parece que cada mes hay importantes novedades.
Las guías alimentarias recomiendan que frutas y verduras formen un pilar básico de nuestra dieta diaria. Los plátanos suelen ser de gran ayuda a muchos para cumplir con estos requerimientos, ya que se trata de frutas disponibles todo el año y muy prácticas para llevar con nosotros.
Consumir esta fruta con frecuencia es sin duda beneficioso para nuestra salud pero, ¿hay algún límite?
En primer lugar podemos recordarqué es lo que hace a los plátanos una importante fuente de nutrientes, empezando por los básicos. Por cada 100 gramos de plátano, en promedio consumimos 20 de carbohidratos; 1,2 g de proteínas; y 0,3 g de lípidos o grasas según datos de la Fundación Española de la Nutrición.
Estas cifras son superiores a las de otros clásicos de nuestros fruteros como naranjas o manzanas. Esto viene acompañado con un mayor aporte calórico por cada 100 g de producto: si el plátano nos aporta 94 kilocalorías (Kcal), naranjas y manzanas aportan 42 y 53 Kcal respectivamente.
Los plátanos también son una importante fuente de fibra, pero sin duda el nutriente estrella de estas frutas es el potasio. Este elemento funciona como un electrolito, ayudando a regular funciones vitales como conducir las cargas eléctricas utilizadas por el sistema nervioso para, por ejemplo, contraer nuestros músculos.
Los electrolitos como el potasio y el sodio ayudan a regular los líquidos en el cuerpo. El potasio ayuda por ejemplo a contrarrestar el efecto del sodio en nuestra presión sanguínea.
¿El cielo es el límite?
El exceso de cualquier cosa puede acabar siendo nocivo, incluso el exceso de agua. Pero no siempre es sencillo pasarnos con la cantidad. En el caso de los plátanos son dos los nutrientes que nos aporta en cantidades relativamente altas, carbohidratos y potasio. Es por eso que, si nos preocupa el consumo excesivo de plátanos, tengamos que considerarlos.
El 90% de las calorías del plátano (una pieza de 160 g tiene unas 99 Kcal) proceden de los hidratos de carbono, pero la naturaleza de estos hidratos cambia a medida que la fruta madura: en los plátanos “verdes” estos hidratos aparecen en forma de almidones, que poco a poco van transformándose en azúcares.
La segunda cuestión a resolver es si el consumo de plátanos puede hacer que ingiramos demasiado potasio. Al exceso de este elemento en nuestro cuerpo se lo denomina hipercalemia.
Esta afección suele no suele aparecer tanto cuando consumimos demasiado potasio como cuando nuestro cuerpo tiene problemas para procesarlo y desecharlo como causa de un fallo renal. Aun así a los pacientes con este trastorno se les recomiendan cambios dietéticos, entre ellos reducir o evitar el consumo de plátanos y frutas como naranjas, kiwis o melones.
Se han dado casos en los que el consumo excesivo de plátanos se ha vinculado con la aparición de hipercalemia. Sin embargo se trata de casos extremos, algunos asociados a consumos “obsesivos” de esta fruta.
Más difícil aún es la posibilidad de inducirnos una “sobredosis” de potasio por consumir demasiados plátanos. La dietista del hospital londinense de St George’s, Catherine Collins, explicaba a la BBCque haría falta ingerir de una sentada unos 400 plátanos para causarnos una sobredosis de este elemento.
¿Podemos comer entonces plátanos a diario? La respuesta depende de muchos factores, pero una persona adulta, sana y con una dieta variada puede comer un plátano de forma diariasin que esto suponga un riesgo para su salud.
El aporte calórico de una pieza plátano representa una pequeña fracción de nuestro consumo calórico diaria (entre un 4 y un 5% aproximadamente). Una unidad tampoco alcanza por sí misma a suplir el aporte en potasio que necesitamos, aunque esto también lo suplimos con otras fuentes.
Quizá por tanto la principal consideración a tener en cuenta es que los plátanos no pueden ser la única fruta de la que dependamos. Existen otros micronutrientes, como la vitamina D, que no están tan presentes en esta fruta como en otras. Es por eso que, si bien consumir un plátano al día pueda ser perfectamente saludable, debemos recordar también consumir otras variedades de fruta.
Tienen cuerpos bien definidos, son ágiles, están valorados por muchos millones de euros. En esta descripción podría encajar Cristiano Ronaldo, Floyd Mayweather, Neymar o Lionel Messi. Pero, en realidad, estamos describiendo a los coches que conducen algunas de las estrellas del deporte mejor pagadas del mundo. Igual de exclusivos y valiosos que sus dueños, eso sí.
No vamos a descubrirte ahora la estrecha relación entre los millonarios y el gusto por los coches caros y exclusivos. Si no los compraran los millonarios esta categoría de coches se extinguiría por ser inalcanzables para el común de los mortales, que nos parece abusiva la subida progresiva del precio de los utilitarios más económicos.
Bugatti Centodieci. Cristiano Ronaldo es, además de uno de los jugadores de fútbol más laureados y mejor pagados, muy conocido por su afición a los superdeportivos exclusivos que atesora en su garaje. A la superestrella portuguesa se le vio paseando por las calles de Madrid al volante de un espectacular Bugatti Centodieci valorado en más de 10 millones de euros. La fortuna del jugador luso está valorada en unos 700 millones de dólares.
Como su nombre indica, el superdeportivo conmemora los 110 años de la marca y solo se han fabricado diez unidades de este superdeportivo de 1.600 CV y motor W16 de 8 litros con cuatro turbos que alcanza una velocidad máxima de 380 km/h. El astro portugués conduce la unidad número siete en color Blanco cuarzo.
Aston Martin Vulcan. Aunque su pasión por los coches exclusivos no llega a los niveles de Cristiano Ronaldo, Neymar Jr. también disfruta al volante de una joya mecánica. El Aston Martin Vulcan cuenta con motor V12 de 7 litros que dan rienda suelta a más de 831 CV alcanzando una velocidad máxima de 335 km/h.
Solo se fabricaron 24 unidades de este superdeportivo, lo cual lo convierte, además de en un objeto de deseo, en una pieza exclusiva valorada en más de 3,4 millones de dólares que sin duda tendrá un lugar privilegiado en el garaje de su mansión. Se estima que el futbolista brasileño tiene una fortuna de 200 millones de dólares.
Ferrari 335 S Spider Scaglietti. Los coches deportivos clásicos se guardan celosamente en los garajes de los apasionados al lujo sobre ruedas, pero más como una inversión que por el placer de lucirlos. Es el caso del Ferrari 335 S Spider Scaglietti de 1957 de Lionel Messi, valorado en más de 32 millones de euros, uno de los más caros del mundo por su exclusividad. Bajo el capó monta un motor V12 con 287 CV que alcanza los 300 km/h.
La fortuna del futbolista del jugador del Inter de Miami se calcula en torno a los 600 millones de dólares y cuenta con varias piezas de coleccionista en su garaje, así como varios superdeportivos, aunque el astro argentino siempre ha mostrado una debilidad especial por los Maseratti.
Koenigsegg CCXR Trevita. El fútbol no es el único deporte que hace millonarios a sus participantes. El boxeo también es una disciplina muy lucrativa si eres tan rápido esquivando golpes como Floyd Mayweather. El boxeador no solo recibe golpes, a fuerza de acumular más de 50 victorias y ninguna derrota, ha conseguido amasar una fortuna estimada de 560 millones de dólares.
La cintura del millonario púgil no es lo único que se mueve rápido, el Koenigsegg CCXR Trevita que guarda en su garaje (además de una colección de Rolls-Royce, algún Lambo y un McLaren F1 original) está valorado en más de 4,8 millones de dólares, tal y como publicaba el propio Floyd en su ostentoso perfil de Instagram. El superdeportivo cuenta con un motor V8 de 4,8 litros que entrega más de 1.000 CV de potencia y lo lanza a 395 km/h.
Floyd Mayweather posando con suKoenigsegg CCXR Trevita.
Mercedes-AMG ONE. Si hablamos de coches exclusivos, hay un deporte en el que las marcas ponen todo el foco y los deportistas son el escaparate perfecto para sus modelos de edición limitada: el automovilismo. Lewis Hamilton es un buen ejemplo de ello cuando se pone al volante de su espectacular Mercedes-AMG ONE que, pese a su aspecto superdeportivo y a la tecnología de Fórmula 1 que monta, es híbrido y podría recibir la etiqueta ECO.
Las 275 unidades que se han fabricado a mano montan dos motores eléctricos de 326 CV, que se suman al motor de gasolina V6 de 1.6 litros a gasolina. Otro motor adicional genera 163 CV más sobre el cigüeñal completa la suma de 574 CV que catapulta al superdeportivo híbrido a más de 352 km/h. Semejante despliegue tecnológico no es barato, ya que este Mercede cuesta 2,5 millones de euros. Suerte que la fortuna de Lewis Hamilton se calcula en torno a los 334 millones de dólares.
Ferrari 812 Competizione. También están limitadas a 999 unidades del coche que conduce Carlos Sainz Jr, el actual piloto de la Scudería Ferrari de Fórmula 1. Como no podía ser de otro modo, conduce un Ferrari 812 Competizione. Todo queda en casa.
La unidad de Sainz ha sido personalizada con el programa Tailor Made de Ferrari, lo cual lo hace más exclusivo todavía. Bajo el capó encontramos un motor V12 de 6.5 litros con 830 CV que lo lanzan a una velocidad de 340 km/h. El precio de salida de este deportivo parte de 560.000 euros. La corta carrera en la Fórmula 1 de Carlos Sainz ya le ha permitido acumular una fortuna estimada en 50 millones de dólares.
Lamborghini Aventador SVJ 63 Roadster. Lamborghini y millonario se ha convertido en un binomio muy habitual, situando al superdeportivo italiano como icono de riqueza y opulencia. Sin embargo, hay Lamborghinis que por su exclusividad se reservan a unos pocos. Es el caso del Lamborghini Aventador SVJ 63 Roadster una pieza de artesanía de la que solo existen 63 unidades en el mundo y una de ellas se encuentra en el garaje del excampeón de MotoGP Jorge Lorenzo.
Esta serie limitada cuenta con un motor de gasolina V12 que desarrolla 770 CV y alcanza una velocidad punta de 350 Km/h. Una auténtica bestia de la velocidad que solo unos pocos podrán domar. No se conoce el precio exacto de esta edición limitada, pero el modelo en el que se basa parte de un precio de 565.362 euros.
Si eres usuario de Windows 10 o Windows 11 y tu sistema ahora te dice que tienes conectada una impresora HP LaserJet, aunque no tengas una impresora LaserJet, no estás solo. Muchos otros usuarios, en sus ordenadores personales o de trabajo, están experimentando esta misma situación.
Ha sido la propia Microsoft la que ha confirmado el error. En una publicación en su página de soporte, la compañía de Redmond ha brindado algunos detalles que puede ser de gran utilidad para aquellos afectados, así como también para todos los que desean prevenir cualquier problema.
El error de Windows 10 y 11 que renombra las impresoras a HP LaserJet
La documentación de Microsoft no precisa cuántos usuarios están padeciendo problemas de impresión en Windows 10 y 11, pero sí brinda una referencia muy importante: el error se presenta en la versión 22H2 del sistema operativo y, en concreto, en aquellos sistemas con acceso a Microsoft Store.
Así que algunos usuarios cuyos equipos cumplen con los mencionados requisitos pueden ver como sus impresoras, independientemente de la marca y el modelo, cambian de nombre a HP LaserJet (por ejemplo, HP LaserJet M101-M106). El error también puede cambiar los iconos de la impresora.
Algunas impresoras renombradas a HP
El error no queda ahí. Puede que al hacer doble clic en una impresora aparezca el mensaje “No hay tareas disponibles para esta página” en pantalla. Pese a esto, las impresoras todavía deberían ser capaces de imprimir, copiar o escanear, es decir, de funcionar normalmente.
Como decimos, Microsoft está investigando el origen del problema, y todo parece indicar que la raíz de la cuestión está en la instalación automática de HP Smart a través de la Microsoft Store, una aplicación específica para equipos HP que permite acceder a estos y configurarlos.
De momento, no hay una solución recomendada por Microsoft, aunque prometen brindar más información cuando la investigación avance. El gigante de Redmond ha desligado de cualquier responsabilidad a HP alegando que el fabricante de impresoras no tiene nada que ver con el error.
Internet es maravillosa, pero lo es cada vez menos. La caótica y anárquica red de redes que revolucionó nuestro mundo y cambió nuestra forma de entenderlo (y disfrutarlo) se ha convertido en una gigantesca gallina de los huevos de oro. Una que ha acabado siendo controlada por unos pocos gigantes.
Y entre todos ellos, hay un selecto grupo de plataformas que dominan cada vez más nuestra relación no ya con internet, sino con aquellos con los que nos relacionamos y a las que admiramos. Las redes sociales, que nos maravillaron y conquistaron a (¿casi?) todos, se han convertido en un terrible virus. Uno que está provocando que internet sea cada vez menos maravillosa.
Esta es una historia en muchos actos, pero hemos querido resumirla (un poco) en un prólogo y tres de ellos. Vamos allá.
Prólogo
En 1908 Theodore Vail, por entonces presidente de AT&T, se dio cuenta de algo que a priori, la verdad, no parecía demasiado sorprendente: cuantos más clientes tenían, más le costaba a sus rivales competir con ellos.
Theodore Vail. Fuente: AT&T
Aquel año reflejó aquel pensamiento en su informe anual a los inversores, y en las páginas 21 y 22 de aquel documento llegó a una conclusión clara: “Un teléfono —sin conexión al otro lado de la línea— no es siquiera un juguete o un instrumento científico. Es una de las cosas más inútiles del mundo. Su valor depende de la conexión con otro teléfono. Y se incrementa con el número de conexiones […]. Nadie necesita dos conexiones telefónicas si puede comunicarse con todas las personas que desee a través de una sola”.
Para él el valor de AT&T no estaba en la tecnología, sino en la red que esa tecnología había permitido crear. Daba igual que alguien creara un teléfono mejor, porque nadie lo querría si no podían usarlo para llamar a su familia y amigos.
Aunque no lo llamó así, Theodore Vail fue el primero en hablar del efecto red.
Avancemos. Robert Metcalfe, coinventor de la tecnología Ethernet, validó el concepto en 1980 con la ley que lleva su nombre. Según dicha ley, el valor de una red de telecomunicaciones es proporcional al cuadrado del número de usuarios conectados al sistema (n²). Años más tarde, en 2001, un ingeniero llamado David Reed fue incluso más lejos y descubrió que Metcalfe había subestimado el valor de una red: dentro de una gran red se formaban pequeñas redes que multiplicaban ese valor. De repente el valor era exponencial (n²), y de ahí surgió la Ley de Reed.
El efecto de red aparecía frecuentemente en sistemas de retroalimentación positiva: los usuarios obtenían más y más valor de un producto a medida que más usuarios se unían a esa red. Aunque parezca una obviedad, la observación no se había formalizado hasta entonces. La teoría siguió desarrollándose sin que mucha gente prestara demasiada atención, pero un siglo después de que Vail plasmara aquella reflexión, la idea explotó.
Acto I. Facebook
El 4 de febrero de 2004 un desconocido joven llamado Mark Zuckerberg lanzaba junto a Eduardo Saverin —el cofundador olvidado— su proyecto web, una red social a la que llamaron “The Facebook”. Inicialmente aquella plataforma apenas dejaba hacer nada: uno tenía que visitar el perfil de otra persona para ver lo que publicaba, y por defecto los perfiles eran privados. Aquello tenía su gracia, pero el verdadero bombazo llegaría algo después.
Cuando Facebook se llamaba Thefacebook, en 2006. Fuente: Christiaan Colen
Lo hizo el 5 de septiembre de 2006, cuando Facebook (ya sin el “The”) anunció su nueva característica, a la que llamó “News Feed” (“Hilo de noticias”). Aquella característica difundía las actividades más importantes de los usuarios a todos los miembros de sus redes. Casi todo lo que hacías era automáticamente notificado y difundido para que los demás usuarios lo vieran. La opción, que ahora vemos lógica —imaginad teniendo que visitar usuario por usuario a ver qué ha publicado— causó una absoluta debacle aquel mismo día, y los usuarios la calificaron de espeluznante.
Como indicaron entonces en Wired, lo fácil para Zuckerberg habría sido echar marcha atrás, pero se negó a ello. Aquel News Feed era la clave de su grafo social. A los tres días publicó una carta abierta a sus usuarios: si queréis, dijo, podéis desactivar la opción. La controversia desapareció tan rápido como había aparecido, y ¿sabéis qué? Prácticamente nadie desactivó el News Feed, y el crecimiento de usuarios siguió aumentando.
Cuando TheFacebook se lanzó, solo los miembros de la Universidad de Harvard en la que estudiaban podían acceder, pero poco a poco el acceso se amplió. Primero, a otras universidades y más tarde, el 8 de marzo de 2008, se abría la caja de Pandora: Facebook se abría a todo el mundo. Al menos, a todo el que tuviera una dirección de correo electrónico.
Para entonces Facebook ya era un absoluto fenómeno de masas —y un ejemplo de libro del efecto de red—. A finales de 2007 El País calificaba a esta red social como “el fenómeno ‘internetero’ de 2007”. Por entonces había superado los 50 millones de usuarios, pero un año después ya tenía 100 millones y aquella apertura no hizo más que disparar el crecimiento. ¿Qué hacían todos esos usuarios allí?
Trabajar para Facebook.
No lo parecía y ellos (nosotros) no lo sabían, claro. Para ellos esta red social era una maravillosa plataforma en la que mantener contacto con sus conocidos, recuperarlo con familiares o antiguos amigos y, poco a poco, compartir más sobre sus vidas e intereses. Facebook, mientras tanto, iba haciéndose más y más fuerte. Más y más grande, tanto en usuarios, como en contenido. Contenido que todos esos usuarios habían generado para ellos, pero también para ella.
Acto II. Twitter
Era 2004. Evan Williams acababa de venderle Blogger a Google y buscaba un nuevo proyecto. Lo encontró en Odeo, una plataforma de podcasting que cofundó con un ingeniero llamado Noah Glass. Aquello parecía tomar forma, y la herramienta se lanzó en julio de 2005 con la ayuda de un becario cuyo nombre quizás os suene: Kevin Systrom, que años más tarde sería cofundador de Instagram.
Los principios de Twitter, también en 2006. Fuente: Emily Chang.
Pero Odeo no acababa de cuajar, y la culpa la tuvo iTunes, que poco después integraría su propia plataforma de podcasting. Para entonces Williams y sus compañeros se dieron cuenta de que aunque habían creado Odeo, apenas la usaban. Eso era mal síntoma.
¿Qué hicieron? Como contaban en un reportaje de 2011 en Business Insider, se pusieron a pensar en nuevas ideas de negocio. Crearon pequeños grupos para hacer brainstorming, y de uno de ellos salió una propuesta prometedora. Jack Dorsey quería crear un servicio en el que la gente pudiera publicar su “estado” y lo que estaban haciendo en ese momento. Noah Glass bautizó —dicen— aquella idea con un nombre sin vocales.
Twttr.
Al principio Evan Williams no parecía muy convencido con la idea, pero dejó que Glass trabajara en ella junto a otro ingeniero —exempleado de Google— llamado Biz Stone.
Quienes hablan de aquellos orígenes afirman que ninguno de aquellos que trabajaban en Twttr estaba tan entusiasmado con la idea como Glass. Otros como Florian Weber contribuyeron también a su creación, pero lo cierto es que los cofundadores a los que realmente siempre se menciona es a Dorsey, Stone y Williams. Un 21 de marzo de 2006 Dorsey publicaría el primer mensaje en Twitter, y a partir de ahí todo iría muy rápido.
Twitter ni siquiera se quería llamar Twttr: al principio la idea era una red social llamada Stat.us en la que compartir tu estado. Sin más. Así fue el primer boceto que Jack Dorsey creó con esa idea.
Williams acabaría recomprando Odeo a sus inversores y cambiando el nombre de la empresa a Obvious Corp. Y de paso, despidió a Glass, que básicamente desapareció del mapa. Otro cofundador relegado al olvido, qué casualidad.
Twitter comenzó a crecer de forma imparable, sobre todo tras aquella aparición fulgurante en la conferencia South by Southwest Interactive (SXSWi) de 2007 en la que en cada charla los usuarios podían ver sus mensajes de Twitter publicados en dos pantallas de plasma de 60 pulgadas. Al final la gente acabó más atenta a eso que a las propias charlas, y el fenómeno Twitter se comenzó a disparar progresivamente.
Al principio, de forma más recatada. Luego, poco a poco, a lo loco. Llegaban los hashtags y, sobre todo, la introducción de Twitter como medio de comunicación con identidad propia. La era del periodismo ciudadano —con aquella foto de del vuelo que amerizó en el río Hudson y acabó convirtiéndose en película— y de Twitter como altavoz social —lo demostró por ejemplo en las polémicas elecciones iranís de 2009— parecía haber llegado especialmente con los eventos de la Primavera Árabe de 2011 o con fenómenos como el del #MeToo. Todo eso cambiaría tras la sísmica aparición de Musk en escena: para él —y cierta élite en Silicon Valley— el periodismo es, sencillamente, peligroso.
Lo fuera o no, daba igual. Como había sucedido con Facebook, durante todos esos años, con sus luces y sus sombras, Twitter se había convertido en otra plataforma en la que los usuarios no habían parado de compartir todo tipo de cosas. Primero, en tan solo 140 caracteres. Luego, con los 280 como límite. Por último (si pagabas) con 4.000. Todas esas reflexiones y todos esos contenidos nos habían, en mayor o menor medida, informado y entretenido, y todos formaban parte de la misma realidad de la que nos daríamos cuenta más tarde.
También habíamos estado trabajando para Twitter sin saberlo.
Acto III. Bienvenidos al feudalismo digital
Lo que Facebook y Twitter normalizaron venía en realidad de antes. Los más maduritos del lugar probablemente recordéis —y sigáis accediendo a— aquellas protoredes sociales llamadas Slashdot —lanzada en 1997 y excelsa superviviente, ahí es nada— y Digg —que nació en 2004—. Aunque la cosa no era tan clara en Slashdot, Digg nos maravilló con la maximización digital del concepto de compartir es vivir. Uno veía algo interesante en internet, lo compartía y otros usuarios votaban si también les gustaba.
En la Edad Media el feudalismo era el sistema político predominante en Europa Occidental. La desigualdad entre gobernantes y vasallos o siervos era excepcional. Fuente: Wikimedia Commons
Aquello era adictivo y viral, y el efecto red de Vail y sus sucesores pronto hizo de las suyas. Los internautas se contagiaron de aquel fenómeno y Digg creció como la espuma: si un medio lograba portada en Digg, su tráfico se disparaba. La plataforma tuvo el acierto de entender que si alguien lograba actuar como intermediario molón, los usuarios acudirían para trabajar gratis.
Porque eso es lo que hacían los usuarios. Sí, se beneficiaban de esa plataforma de descubrimiento, sin duda, pero votar, comentar o enviar nuevos contenidos que pensaban que eran interesantes se convirtió en algo que a esos usuarios no les dio ni un duro, pero que hizo que los creadores de Digg se hicieran ricos. En su día la empresa estuvo valorada en 164 millones de dólares, pero quienes la fundaron la destrozaron y en 2012 acabó vendiéndose a Betaworks por 500.000 dólares para luego.
¿Sabéis qué plataforma se inspiró en Digg? No solo la española Menéame —que ha mentenido su esencia original a pesar de sufrir sus propias crisis—, sino, cómo no, Reddit, que adoptaría una filosofía similar —votos, ranking algorítmico de contenido, comunidad— pero con diferencias importantes en cuanto al control que se ejercía sobre el contenido: Reddit fue desde sus inicios mucho más anárquico, y aunque eso también generó diversas polémicas, el principio fue el mismo que en Digg: compartir y descubrir era maravilloso, pero Reddit ponía la plataforma —que ciertamente costaba dinero y recursos— y los usuarios, el trabajo.
Los ejemplos a partir de ahí se multiplican, pero de repente surgieron otras redes y sobre todo un fenómeno que ni Facebook ni Twitter llegaron a explotar .
El de los influencers.
Primero fue YouTube, claro. La plataforma de vídeo se convirtió en la semilla de la primera gran generación de creadores. Como contaban en Business Insider, “lo que empezó como un refugio un puñado de frikis incromprendidos, se ha convertido en una ola de dinero y fama”. En diciembre de 2007 se lanzaba el YouTube Partner Program, una iniciativa absolutamente revolucionaria que por primera vez permitía a los creadores monetizar su contenido y lograr que aquello que los usuarios hacían por afición se convirtiese en su profesión. No mucha gente puede vivir exclusivamente de YouTube: los expertos hablan de que uno comienza a poder hacerlo cuando pasa del millón de suscriptores, y se estima que hay unos 30.000 canales que igualan o superan esa cifra. ¿Qué hacen el resto de los usuarios entonces?
Exacto. Trabajar para YouTube.
Es cierto que algunos logran ciertos ingresos, pero como en otras muchas redes sociales —e industrias—, hay un pequeñísimo porcentaje de verdaderas celebridades, tras las cuales hay millones de aspirantes a esa cima. Llegar siquiera a ganarse la vida con YouTube es (muy) complicado, pero llegar a las cotas de los MrBeast (207 millones de suscriptores) o nuestro elRubiusOMG (40,3 millones) es prácticamente imposible.
En el feudalismo digital la estratificación es equivalente a la de los sistemas feudales de la Edad Media. Fuente: Zach Scott
Para la audiencia de YouTube —como en el resto de los casos— probablemente el reparto es justo: ellos obtienen entretenimiento, y la empresa gana dinero con la publicidad. De nuevo tenemos a un intermediario que “solo” —no es poco, insistimos— está ahí para que la plataforma funcione, porque el contenido y la interacción que lo alimenta todo —vídeos, comentarios, votos— la ponen los usuarios. Usuarios aparentemente felices con el hecho de que ese contenido esté salpicado con (cada vez más y más restrictivos) anuncios que a ellos quizás también deberían beneficiarles.
Pero no lo hacen. YouTube no te paga por subir vídeos a no ser que formes parte de su Partner Program, que en 2021 contaba con dos millones de miembros o lo que es lo mismo, dos millones de creadores que ganan algo de dinero con sus contenidos. En 2021 los responsables del servicio afirmaron haber pagado más de 30.000 millones de dólares entre 2018 y 2021 a sus 2 millones de creadores gracias a la publicidad, así que en esos tres años un creador habría ganado de media 15.000 dólares gracias a YouTube. El problema es que esa media es muy engañosa, porque como decimos solo unos 30.000 pasan del millón de suscriptores y pueden presumir de ganarse la vida (algunos muy bien) con esta plataforma.
Para la inmensa mayoría es probable que esos ingresos sean residuales, algo sorprendente teniendo en cuenta dos datos recientes. Uno, que YouTube tiene 2.700 millones de usuarios activos (los que al menos accedieron al servicio una vez al mes) en 2023. Y dos, que solo en 2022 el servicio generó 29.200 millones de dólares de ingresos. Hay que reconocer que la infraestructura de YouTube es gigantesca —más incluso que el de otras plataformas, el vídeo es muy exigente—, pero también otra obvia: el negocio marcha.
Sea como fuere, esas mismas mecánicas de YouTube acabaron conquistando a la nueva hornada de redes sociales, que nacieron con ese mismo enfoque desde su comienzo. Así hemos visto cómo Instagram conquistó el mundo de la fotografía, Twitch el de las emisiones de vídeo en directo o TikTok el de los vídeos cortos. Y en todas ellas, el fenómeno influencer se ha apoderado de estas plataformas, creando pequeñas élites que sirven de referente no solo a los usuarios que se limitan a consumir, sino a aquellos creadores que tratan de seguir esos pasos.
Luego llegarían otras como Substack para el mundo de las newsletters y OnlyFans para el contenido para adultos, y en todas ellas el esquema era el mismo: contenidos a raudales para unas plataformas que nos ponían a todos a trabajar. Bien para crear contenido —y en algunos casos (con suerte), monetizarlo—, bien para consumirlo y retroalimentar sus algoritmos.
Y mejor no hablamos de algoritmos, porque todas las plataformas —Twitter, la última— han acabado haciendo lo mismo: no solo no nos dejan seguir a quien queremos seguir con todo lo que publican, sino que por medio nos meten (recomiendan) un montón de contenido que no habíamos pedido. Que puede que en algunos casos ese contenido pueda ser útil, pero si lo muestran es 1) ganan más dinero con ello y 2) porque las redes controlan lo que vemos. Y si no lo hacen, se despide a un ingeniero y listo.
Con sus luces y sus sombras, todas esas plataformas —con Facebook y Twitter a la cabeza— se han convertido en dueñas y señoras de una internet en la que se ha impuesto el feudalismo digital. El concepto viene de lejos, pero un ilustre de esta casa, Antonio Ortiz, escribía hace unos meses una columna en Retina titulada ‘Feudalismo digital. La cruzada de los creadores contra la tiranía de las plataformas‘. En ella reflexionaba sobre esa realidad en la que había un fuerte contraste entre dos realidades.
La primera, la de que hay un “fascinante universo de creadores y negocios” alrededor de todas estas plataformas. Él citaba específicamente a TikTok, porque allí los creadores hacen algo asombroso: reutilizar el contenido para adaptarlo y aprovecharlo en otros escenarios: hay aplicaciones de doblaje o creadores chinos que resumen las películas a estadounidenses para que no tengan que pasarse dos horas y media en una butaca. Es un fenómeno sorprendente y que ciertamente deja claro que todas esas plataformas son enormes generadoras de trabajo no ya directo para las plataformas, sino indirecto, como reflejan esos ejemplos. Que luego esos creadores rentabilicen o no ese trabajo es harina de otro costal.
La segunda, más preocupante, es la de que, como decía Antonio Ortiz, los usuarios que ven tus tiktoks no son tuyos, porque es TikTok la que decide en cualquier momento cómo funciona su plataforma. Un creador se puede encontrar con una pesadilla si la plataforma cambia el algoritmo y sus ingresos se hunden —pasa—, pero la cosa puede ser peor: pueden borrar vídeos o cerrarte el canal de la noche a la mañana sin que puedas hacer nada por evitarlo.
Si por lo que sea se decide que tu contenido ya no es bueno, o válido, o menos interesante para quienes mandan —los caminos de [ponga aquí la red social que desee] son inescrutables—, te convertirás en un paria sin poder hacer prácticamente nada y todo tu esfuerzo podría quedarse invalidado.
Los ingresos por publicidad en redes sociales han crecido como la espuma en la última década. La gráfica se centra en EEUU, pero es extrapolable al mercado global. Vía: MarketingCharts
Para muchos artistas y fotógrafos eso ocurrió por ejemplo con Instagram. Como señalaron en The New York Times, la red que había sido hogar y refugio de imágenes de todo tipo comenzó a dejarlas atrás para convertirse en una copia de TikTok: los vídeos se convirtieron en protagonistas y los Reels debutaron precisamente para intentar que Instagram mantuviera su relevancia. Adam Mosseri, máximo responsable de la plataforma, lo dejó claro: “ya no somos tan solo una aplicación de compartición de fotos cuadradas”. Querían ser TikTok, y aunque quisieron dar marcha atrás, por el camino dejaron parcialmente huérfana a esa comunidad cuyo efecto red se había cimentado precisamente en la magia de las imágenes estáticas.
Epílogo. Trabajas para ellos y encima tienes que pagar
Esos nuevos señores feudales primero nos pusieron a todos a trabajar sin que nos diéramos cuenta. Luego, como los ingresos publicitarios comenzaron a ser importantes, comenzaron a compartir con los creadores parte de los ingresos para animarles a crear sin parar. Incluso el nuevo X de Musk ha comenzado hacerlo, pero de forma poco transparente —recuerda, comparten ingresos publicitarios, pero solo de quienes te ven y están suscritos a X— y, al parecer, favoreciendo una vez más a los creadores que más importan.
Pero ahí no acababa todo. Hay una nueva e inquietante etapa.
Esa etapa no es otra que la de las redes sociales que han comenzado a cobrarnos por poder usarlas como lo habíamos hecho toda la vida. La única diferencia destacable, la de poder usarlas sin publicidad (o con una fracción de la que aparecía antes).
Las suscripciones no son la única medida para generar ingresos adicionales. Tanto X como Reddit decidieron en los últimos meses capar el acceso a sus APIs, que hasta entonces había sido gratuito, y comenzar a cobrar cantidades importantes de dinero por esa opción. La medida ha sido un enorme jarro de agua fría para los desarrolladores y otros analistas y expertos —e incluso para gigantes como Google—, y se escuda en un argumento: están usando sus datos para entrenar modelos de inteligencia artificial.
Aquí hay una tremenda y enorme ironía —o injusticia, según se mire—, y es la de que todos esos datos a los que ahora Facebook, Twitter o Reddit no dan acceso si no pagan no los crearon ellos.
Los crearon los usuarios.
Es asombroso, porque quienes han acabado dando todo el valor a esas redes sociales son esos usuarios, que durante años las han llenado de contenidos y han alimentado sus algoritmos para pulir su funcionamiento. Y ahora no solo no comparten sus gigantescos ingresos con casi nadie, sino que además quieren que los usuarios paguen por poder disfrutar lo que antes era gratis.
Mensaje para Elon Musk, de X, y Steve Huffman, de Reddit: ¿queréis cobrar a los OpenAI y Google de turno por entrenar sus IA… con el contenido que nosotros hemos generado durante años? Maravilloso.
Por no hablar de todos los programadores y artistas que compartieron su trabajo con el mundo sin pedir nada a cambio, y que ahora (lógicamente) protestan —o demandan— porque Microsoft (con GitHub Copilot) y OpenAI (con DALL-E) entre otros usan todo ese trabajo para sus herramientas de pago. Unas herramientas por las que cobran y de las que se benefician ellos, no los creadores (¡que además tienen que pagar para usarlas con todas sus prestaciones!).
Primero creaste el contenido para ellos, y ahora ellos te cobran por poder acceder a ese mismo contenido.
Es algo terrible, y hay quien ya le ha dado nombre a esa transformación que estamos viendo en las grandes redes sociales. Cory Doctorow, un conocido escritor y bloguero, lo llamó ‘Enshittification‘ (‘Mierdificación’), y lo definió así:
“Así es como mueren las plataformas: primero, son buenas para sus usuarios; luego, abusan de sus usuarios para mejorar las cosas para sus clientes empresariales; finalmente, abusan de esos clientes empresariales para recuperar todo el valor para sí mismas. Entonces, mueren.
Yo llamo a esto enshittificación, y es una consecuencia aparentemente inevitable que surge de la combinación de la facilidad de cambiar la forma en que una plataforma asigna valor, combinada con la naturaleza de un “mercado de dos lados”, donde una plataforma se sitúa entre compradores y vendedores, manteniendo a cada uno como rehén del otro, rastrillando una parte cada vez mayor del valor que pasa entre ellos”.”.
De momento las plataformas de las que hemos hablado no han muerto y ciertamente parece difícil que lo hagan a corto plazo. A pesar de ello, parecen haber completado dos de las fases de las que habla Doctorow, y ese difícil equilibrio sigue provocando movimientos que vienen y van, como el de #deletefacebook.
Y aún así, lo que estamos viviendo es asombroso y terrible. La pregunta es si el futuro de internet pasa por aceptar esta nueva realidad (tú creas, tú consumes, pero además tú pagas) o el paradigma cambia y los usuarios acabamos “rebelándonos”, quizás abrazando alternativas descentralizadas con las que recuperamos el control como plantea con Mastodon. Eso parece difícil, y mientras no lo haga, probablemente sigamos atrapados (y despreocupados a pesar de las constantes alarmas) y prisioneros de ese efecto red que Theodore Vail perfiló hace más de un siglo.
Este año no ha sido el mejor año para dos de los productos estrella de Apple. La compañía de Cupertino ha visto como el negocio del iPad y el Mac ha sufrido una caída en relación a las cifras alcanzadas en 2022, un fenómeno que puede ser atribuido a una variedad de factores.
Los dirigidos por Tim Cook, no obstante, no están dispuestos a dejar las cosas como están, al menos según Mark Gurman. El reputado periodista de Bloomberg señala que ya se está trabajando en un plan para recuperar las ventas a golpe de lanzamientos de nuevos productos.
Nuevos iPad, Mac y accesorios en camino
Fuentes cercanas a los planes de Apple, que prefirieron mantenerse en condición de anonimato, señalan que la firma está preparándose para actualizar el MacBook Air, el iPad Pro y el iPad Air. Los dos últimos llegarán acompañados, además, de nuevos accesorios.
Apple renovó por última vez el MacBook Airen junio de este año con una pantalla de 15 pulgadas y el procesador M2. La versión 2024 del equipo adoptaría los procesadores M3, que todavía no habían sido presentado al momento de su lanzamiento.
En caso del iPad Air, este llegaría, por primera vez, en dos tamaños. Actualmente podemos comprar el iPad (2022) con una pantalla de 10,9 pulgadas. La versión del próximo año llegaría acompañada de una alternativa más grande de 12,9 pulgadas junto a la existente.
La estrategia para aumentar las ventas, en este caso, es ofrecer más opciones a los consumidores. En concreto, que puedan acceder a una pantalla más grande sin la necesidad de gastar más dinero por un modelo Pro. En Pro, como decimos, también se actualizará en 2024.
El tablet más ambicioso de la firma de Cupertino estrenará pantallas OLED y procesadores M3. Los rumores sobre esto no son completamente nuevos. A mediados de este año ya habíamos publicado un artículo al respecto sobre estos cambios, así que se consolida la hipótesis.
¿Conseguirá Apple remontar las ventas? Recordemos que el iPad y el Mac, en conjunto, representan el 15% de los ingresos de la firma. Los mencionados productos, según los rumores, llegarán a principios del próximo año. Otro gran producto de Apple, las Vision Pro, se encaminan a llegar en 2024.