OpenAI actualiza GPT-5 tras los reclamos de los usuarios

OpenAI actualiza GPT-5 tras los reclamos de los usuarios


El modelo GPT-5 de OpenAI estaba destinado a ser una actualización que cambiaría el mundo de su popular y precoz chatbot. Pero para algunos usuarios, el lanzamiento del pasado jueves se sintió más como una desgarradora degradación, con el nuevo ChatGPT presentando una personalidad diluida y cometiendo errores sorprendentemente tontos.

¿Un ‘doctor’ más tonto?

El viernes, el CEO de OpenAI, Sam Altman, se dirigió a X para decir que la empresa mantendría el modelo anterior, GPT-4o, para los usuarios Plus. Una nueva característica diseñada para cambiar sin problemas entre los modelos en función de la complejidad de la consulta se había roto el jueves, señaló Altman, «y el resultado fue que GPT-5 parecía mucho más tonto». Prometió aplicar correcciones para mejorar el rendimiento de GPT-5 y la experiencia general del usuario.

Dada la expectación suscitada por GPT-5, parece inevitable que se produzca cierto grado de decepción. Cuando OpenAI presentó GPT-4 en marzo de 2023, asombró a los expertos en IA con sus increíbles capacidades. Los expertos especulaban con que GPT-5 sería igual de asombroso.

OpenAI promocionó el modelo como una mejora significativa, con inteligencia de nivel de doctorado y habilidades de codificación virtuosas. Un sistema para redirigir automáticamente las consultas a los distintos modelos debía proporcionar una experiencia de usuario más fluida. (También podría ahorrar dinero a la empresa al dirigir consultas sencillas a modelos más baratos).

Sin embargo, poco después de la llegada de GPT-5, una comunidad de Reddit dedicada a ChatGPT se llenó de quejas. Muchos usuarios lamentaron la pérdida del antiguo modelo.

«Llevo unos días probando GPT-5. Incluso después de personalizar las instrucciones, sigue sin parecerme lo mismo. Es más técnico, más generalizado, y honestamente se siente emocionalmente distante», escribió un miembro de la comunidad..

«Claro, el 5 está bien, si odias los matices y sentir las cosas», escribió otro usuario de Reddit.

Otros hilos se quejaban de respuestas lentas, alucinaciones y errores sorprendentes.

Altman prometió solucionar estos problemas duplicando los límites de velocidad de GPT-5 para los usuarios de ChatGPT Plus, mejorando el sistema que cambia de un modelo a otro y permitiendo a los usuarios especificar cuándo quieren activar un «modo de pensamiento» más pesado y capaz. «Seguiremos trabajando para conseguir que las cosas sean estables y seguiremos escuchando los comentarios», escribió el CEO en X. «Como hemos mencionado, esperábamos algunos baches al desplegar tantas cosas a la vez. Pero ha sido un poco más accidentado de lo que esperábamos».

Los errores publicados en las redes sociales no indican necesariamente que el nuevo modelo sea menos capaz que sus predecesores. Simplemente pueden sugerir que el nuevo modelo se enfrenta a casos extremos diferentes a los de las versiones anteriores. OpenAI declinó hacer comentarios específicos sobre por qué GPT-5 a veces parece cometer errores simples.



¿Dependencia emocional?

La reacción ha suscitado un nuevo debate sobre los vínculos psicológicos que algunos usuarios establecen con chatbots entrenados para pulsar sus botones emocionales. Algunos usuarios de Reddit desestimaron las quejas sobre GPT-5 como prueba de una dependencia malsana de un compañero de IA.

En marzo, OpenAI publicó un estudio sobre los vínculos emocionales que los usuarios establecen con sus modelos. Poco después, la empresa publicó una actualización de GPT-4o después de que se volviera demasiado adulador.

«Parece que GPT-5 es menos adulador, más «de negocios» y menos charlatán», argumenta Pattie Maes, profesora del MIT que trabajó en el estudio. «Personalmente creo que eso es bueno, porque también es lo que llevó a los delirios, al refuerzo de los prejuicios, etcétera. Pero, por desgracia, a muchos usuarios les gusta un modelo que les diga que son inteligentes y asombrosos y que confirme sus opiniones y creencias, aunque [estén] equivocadas.»

Altman indicó en otro post de X que esto es algo con lo que la empresa luchó al construir GPT-5.

«Mucha gente utiliza ChatGPT como una especie de terapeuta o coach, aunque no lo describan así», escribió Altman. Añadió que algunos usuarios pueden utilizar ChatGPT de forma que les ayude a mejorar sus vidas, mientras que otros pueden estar «alejándose sin saberlo de su bienestar a largo plazo».

Artículo publicado originalmente en WIRED. Adaptado por Mauricio Serfatty Godoy.



Source link

Share this content:

Publicar comentario