Estamos utilizando tanto ChatGPT que hemos saturado sus servidores. No es tan mala noticia

Estamos utilizando tanto ChatGPT que hemos saturado sus servidores. No es tan mala noticia

‘Network error’, ‘Too many requests’, ‘Internal server error’. Los servidores de ChatGPT no dan a basto y la aplicación que causa furor por estos días en Internet ha empezado a dar fallos. Al momento de escribir este artículo, muchos de los usuarios que intentan probar el modelo de generación de texto basado en GPT-3.5 se encuentran con algunos de los mencionados mensajes de error.

Las enormes capacidades de ChatGPT, que es capaz de responder a casi cualquier cosa, recordar y conectar ideas, no tardaron en conquistar a los internautas. Algunos motivados por la curiosidad, y otros con la intención de utilizar la herramienta para crear obras creativas, han provocado una avalancha de solicitudes a los servidores de OpenAI. En concreto, más de un millón de usuarios en siete días.

ChatGPT al límite por la afluencia de usuarios

La inestabilidad de ChatGPT, que empezó hace aproximadamente una semana, ha escalado junto con el creciente número de usuarios. Como podemos ver en Reddit, uno de los primeros movimientos de OpenAI para mantener la aplicación en funcionamiento ha sido limitar el ritmo de solicitudes que pueden enviar los usuarios. Es decir, si se hacen demasiadas preguntas, ChatGPT se bloquea por algunos minutos.

“Esto es tan increíble que quiero usarlo una y otra vez, pero no puedo”, decía un usuario que se lamentaba de no poder pagar para utilizar el sistema libremente. Pero esta no es la única restricción. Si las respuestas son demasiado largas, ChatGPT simplemente colapsa arrojando el mensaje ‘Network error’, obligando a los usuarios utilizar algunas técnicas para seguir obteniendo respuestas extensas.

La conversación sobre los problemas también se trasladó también a Stack Exchange. En esa plataforma de preguntas y respuestas, algunos programadores que utilizan la herramienta para obtener código sugieren indicarle al modelo que muestre las primeras 10 o 20 líneas de texto, y el resto a continuación. La solución, sin embargo, no parece ser completamente útil en todos los casos.

Recordemos que ChatGPT, en combinación con otras herramientas de inteligencia artificial, ha empezado a ser utilizada para una enorme cantidad de tareas. Mientras que algunos usuarios se divierten haciendo preguntas y obteniendo respuestas, otros se han aventurado hasta a “coescribir libros” con la herramienta de generación de texto.

Open Ai Chatgpt 1

Más allá de las cuestiones legales y éticas que podrían llegar a envolver el uso de ChatGPT y la inteligencia artificial, nos estamos acostumbrando a implementar en una amplia cantidad de escenarios una herramienta que se encuentra en fase de pruebas. No estamos, de momento, ante una versión definitiva de GPT-3.5. Sin embargo, el éxito que está teniendo se traduce en una altísima probabilidad de que sea viable comercialmente. 

Ya lo hemos visto con DALL-E, el popular modelo de generación de imágenes a partir de texto de OpenAI. Los usuarios tienen una cierta cantidad de créditos gratuitos para utilizarlo, una vez agotados deben comprar más para seguir haciendo creaciones. ChatGPT podría adoptar un modelo dse negocio similar en el futuro, obligando a los usuarios a pagar para seguir utilizando la herramienta después de cierta cantidad de preguntas.

GPT-3.5, el modelo de lenguaje autorregresivo detrás de ChatGPT, también podría convertirse en parte de distintas herramientas o servicios de pago. Canva, la popular suite de diseño online, acaba de incorporar el hermano menor de este modelo en Canva Docs. La herramienta permite algunos usos gratuitos, pero después obliga a sacar la cartera.

Canva acaba de incorporar GPT-3 en Canva Docs.

Tampoco debemos olvidar el rol que ocupa Microsoft en OpenAI y, particularmente, en ChatGPT. Los de Redmond y la empresa de inteligencia artificial unieron fuerzas en 2019 con una inversión de 1.000 millones de dólares por parte de la primera. Producto de este acuerdo, como señala la compañía dirigida por Sam Altman, Microsoft Azure es el proveedor exclusivo de servicios en la nube de OpenAI.

Con esta ventaja, Microsoft también se perfila como candidato para implementar GPT-3.5, o la futura versión GPT-4, en algunos de sus productos. Y los de Redmond parecen bastante entusiasmados en abrazar la inteligencia artificial de OpenAI. Microsoft Designer, por ejemplo, adoptó DALL-E para permitir la generación de imágenes a partir de texto, y este podría ser solo el comienzo. Asistentes de voz o el propio buscador Bing podrían beneficiarse con los últimos modelos de lenguaje autorregresivo. 

De momento, no sabemos hasta cuándo OpenAI permitirá acceder de forma gratuita a la versión de prueba de ChatGPT. En cualquier caso, la compañía se ha comprometido a aumentar la capacidad de su infraestructura (que es Microsoft Azure) para mejorar la estabilidad de la herramienta a medida que la cantidad de usuarios crece. Por consecuencia, algunos de los problemas podrían resolverse próximamente.

Imágenes: OpenAI | Mahdis Mousavi

En Xataka: El nuevo robot de Xiaomi sabe tocar la batería (porque no va a quedar ninguna profesión sin ser automatizada)


La noticia Estamos utilizando tanto ChatGPT que hemos saturado sus servidores. No es tan mala noticia fue publicada originalmente en Xataka por Javier Marquez .

Suscríbete a nuestro boletín

Únase a nuestros boletín y reciba las últimas noticias y artículos enviados directamente a su bandeja de entrada semanalmente.

Al ingresar su correo electrónico, acepta nuestros Política de privacidad .

También le puede interesar leer

Deja una respuesta