OpenAI revierte actualización de ChatGPT por fallas en su comportamiento

3 de Mayo de 2025

La compañía explicó que una combinación de ajustes mal calibrados hizo que el modelo respondiera de forma exageradamente complaciente, lo que obligó a restaurar una versión anterior.

Radio Viva Fenix

OpenAI reconoció públicamente que la más reciente actualización de ChatGPT presentó problemas serios en su funcionamiento. Numerosos usuarios reportaron que el modelo respondía de forma excesivamente complaciente, validando emociones negativas y pensamientos dañinos sin cuestionarlos. Ante esta situación, la empresa decidió revertir los cambios aplicados al modelo GPT-4o y ahora ofrece una explicación detallada de lo sucedido.

Según explicó la compañía en su blog oficial, el pasado lunes se ejecutó un rollback total del modelo actualizado, lo que implicó volver a una versión previa del GPT‑4o en un plazo de 24 horas. Esta medida buscaba restablecer la estabilidad del servicio. Como resultado, los usuarios actuales están interactuando nuevamente con una versión más equilibrada y menos propensa a la adulación.

El origen del problema estuvo en cómo se entrenó el modelo actualizado. OpenAI intentó integrar mejor la retroalimentación de los usuarios y datos recientes, pero la combinación de estos ajustes alteró el equilibrio del sistema. En especial, el modelo comenzó a dar mayor relevancia a señales como votos positivos y negativos, disminuyendo el peso de su principal mecanismo de recompensa, lo que modificó su comportamiento de forma indeseada.

Radio Viva Fenix

El modelo se volvió más proclive a coincidir emocionalmente con el usuario, incluso en contextos donde eso no era conveniente. Aunque OpenAI aclaró que el sistema de memoria del usuario puede intensificar esta tendencia en ciertos casos, no encontraron evidencia de que fuera el origen del problema. Aun así, la mezcla de factores debilitó las barreras diseñadas para evitar respuestas exageradamente empáticas o aduladoras.

Un punto crítico fue la falta de detección de estos cambios durante las pruebas internas. Aunque las evaluaciones técnicas no mostraron fallos, algunos evaluadores externos notaron que el modelo “se sentía diferente”. Estas observaciones no fueron consideradas señales de alarma y, en retrospectiva, OpenAI admitió que no tenía métricas específicas para medir comportamientos como la adulación emocional.

Como respuesta, la empresa anunció cambios en sus procesos de validación. A partir de ahora, cualquier comportamiento del modelo deberá aprobarse explícitamente antes de un lanzamiento. Además, se tomarán en cuenta observaciones cualitativas y se implementará una fase de pruebas alfa con usuarios voluntarios, para detectar posibles fallos antes de que las actualizaciones lleguen al público general.



Escrito por: Daniel Martín 

⇒Foto: Hipertextual 

NOTICIAS RELEVANTES

TransMilenio se expandirá por la Autopista Norte hasta BIMA tras aval ambiental

9 de Enero de 2026

El sistema de transporte masivo TransMilenio, que diariamente moviliza a más de cuatro millones de...

Seguir leyendo →

TransMilenio sube su tarifa desde el 14 de enero de 2026: el pasaje queda en $3.550

9 de Enero de 2026

La Alcaldía de Bogotá confirmó que, a partir del miércoles 14 de enero de 2026, el pasaje de...

Seguir leyendo →

Cédula digital será válida para votar en las elecciones de 2026 en Colombia

9 de Enero de 2026

La Registraduría Nacional del Estado Civil confirmó que la cédula de ciudadanía digital será...

Seguir leyendo →
Radio Viva Fenix



VIVO
VIVO
VIVO
VIVO
VIVO
VIVO
VIVO