ChatGPT mejora con el lanzamiento oficial de GPT-4.1

ChatGPT mejora con el lanzamiento oficial de GPT-4.1


Durante la presentación del mes pasado, Varun Mohan, CEO de Windsurf, empresa adquirida por OpenAI para impulsar la creación de herramientas autónomas para desarrolladores, declaró que su compañía había experimentado una mejora global del 60% respecto al pasado. La combinación de capacidades avanzadas de IA en ChatGPT con la interfaz intuitiva de Windsurf hace que el uso de herramientas sea un 30% más eficiente y que el modelo sea un 50% menos propenso a repetir ediciones innecesarias, lo que se traduce en respuestas más rápidas y flujos de trabajo más fluidos.


ken-avatar-sec-1555807678 ChatGPT mejora con el lanzamiento oficial de GPT-4.1

Los usuarios están utilizando el nuevo generador de imágenes de OpenAI para formar parte de las tendencias virales de redes sociales. Pero su uso pone en riesgo la privacidad, a menos que se tomen unas sencillas medidas de contención.


¿Cómo acceder a GPT-4.1?

Para acceder a GPT-4.1 y GPT-4.1 mini, basta con abrir la página de inicio del servicio, dirigirse al desplegable en la esquina superior izquierda, donde se elige el modelo, y seleccionar «Más modelos». Se abrirá una triple opción que incluye los dos nuevos modelos junto con GPT-4.5, también conocido como «el modelo más grande de la historia», actualmente en fase de preestreno.

Los desarrolladores tuvieron acceso anticipado a GPT‑4.1, GPT‑4.1 mini y GPT‑4.1 nano. No obstante, gracias a las mejoras en eficiencia, estos modelos se han extendido a los usuarios de pago. Se espera que más adelante estén disponibles también para usuarios gratuitos, una vez se complete el despliegue en los planes Enterprise y Edu, como ha ocurrido en ocasiones anteriores.

En un comunicado, OpenAI señaló que los precios de la serie GPT‑4.1 son un 26% más bajos que los de GPT‑4o para consultas medianas. «Para las consultas que repiten el mismo contexto, aumentamos el descuento por caché de solicitudes al 75%, en comparación con el 50% anterior. Por último, ofrecemos solicitudes de contexto largo sin coste adicional, más allá del precio estándar por token«.

Artículo originalmente publicado en WIRED Italia. Adaptado por Alondra Flores.



Source link

Share this content:

Publicar comentario