El actual auge de las herramientas de IA ha desencadenado una revolución en la forma en que programan código, escriben textos y diseñan imágenes, permitiendo así generar contenidos más precisos y/o complejos.
Pero en medio de tal entusiasmo, empieza a emerger entre susurros una inquietud generalizada: hay quien observa que, en muchas IAs, por impresionante que haya resultado su lanzamiento, poco a poco los resultados terminan siendo mucho menos notable que al principio. Como si las IAs se volvieran más tontas… o perezosas.
Este fenómeno, que algunos han empezado a denominar recientemente ‘subscription fog’ (niebla de las suscripciones), describe una realidad frustrante para los usuarios: pagar una suscripción mensual por una herramienta que parece haber perdido parte de su potencia, sin tener claro si sólo son imaginaciones suyas y/o por qué ha ocurrido.
¿Qué es la ‘niebla de las suscripciones’?
El término ha sido acuñado por el usuario @nickbaumann_ en X, quien lo define como una sensación creciente entre los usuarios de herramientas de IA: aquellos que hace poco estaban entusiasmados por cosechar en un mes 3000 dólares gracias a código generado que únicamente les había costado 200 dólares… de pronto comienzan a notar una lenta pero progresiva decadencia en la calidad del servicio.
Y el problema no se limitan a que los modelos «fallen más» o no: el problema central de la niebla de las suscripciones reside en la opacidad: que cuando los proveedores controlan tanto la infraestructura de inferencia (el modelo) como la interfaz que canaliza las peticiones del usuario (el chatbot), los usuarios pierden la capacidad de entender qué está sucediendo. ¿Es el mismo modelo de antes? ¿Están limitando el contexto? ¿Está siendo más lento? ¿Ha habido cambios ocultos?
La trampa de los incentivos perversos
Baumann destaca un punto clave: los modelos no están necesariamente optimizados para ofrecer la mejor experiencia de usuario posible, sino para ser sostenibles económicamente. Y esto da lugar a incentivos perversos: así, si una compañía descubre que puede ahorrar costos reduciendo contexto, cambiando a un modelo más barato en ciertas consultas, o intercalando tiempos de latencia más largos, es posible que lo haga… especialmente si el usuario no puede notarlo fácilmente.
Como los modelos son inherentemente no deterministas (es decir, una misma consulta puede arrojar resultados distintos cada vez), cualquier degradación en el rendimiento se puede atribuir a la «variabilidad normal» del sistema. Esto hace que sea prácticamente imposible para el usuario determinar si el producto ha cambiado o no.
El caso de Claude Code: de la euforia a la frustración
En los últimos días, la comunidad de desarrolladores ha intensificado sus quejas respecto a Claude Code. Varios hilos en Reddit y GitHub reflejan la percepción de que algo ha cambiado repentinamente —y para peor— en el comportamiento del loado asistente de programación de Anthropic.
De «increíble» a «casi inutilizable»
Recientes publicaciones en el subreddit de r/ClaudeAI resume fielmente esta transformación dramática:
«Siento que hace como dos semanas (justo después de suscribirme) Claude Code era algo asombroso y entonces, de repete, esta última semana ha sido como cuando usaba GPT-4, algo muy decepcionante».
Así, los usuarios describen una caída abrupta en rendimiento: olvida el contexto constantemente, entra en bucles absurdos y genera respuestas irrelevantes o erráticas. «Se olvida de lo que estaba haciendo tras sólo dos pasos», afirma un usuario que sospecha también que
«Anthropic puede estar manipulado activamente el comportamiento del modelo entre bastidores»,
Y no se trata de casos aislados. En GitHub, los usuarios denuncian que Claude Code ha empezado a funcionar muy lentamente («más que Gemini CLI«) o que no deja de bloquearse cuando pegan varias líneas de código o cuando el problema se vuelve complejo.
La disparidad en la experiencia del usuario
Una constante en la comunidad es la inconsistencia: mientras unos usuarios denuncian caídas drásticas, otros continúan con un rendimiento aceptable.
Uno comenta que tras unos días de problemas, el servicio volvió a funcionar «normal», una variabilidad que fortalece la hipótesis de que los cambios de rendimiento podría deberse a despliegues progresivos de nuevas versiones, a la realización de pruebas A/B, o a limitaciones selectivas que permitan optimizar recursos durante picos de demanda.
La naturaleza opaca de los modelos cerrados
Uno de los grandes desafíos en el ecosistema actual es la falta de transparencia: a diferencia de software de código abierto donde los usuarios pueden inspeccionar los cambios, las herramientas comerciales de IA funcionan como cajas negras. No hay notas detalladas de versiones, ni métricas claras sobre el rendimiento, y además los cambios pueden ocurrir sin previo aviso.
Esto contrasta fuertemente con lo que se considerarían expectativas razonables en otros sectores tecnológicos. Si un proveedor de almacenamiento en la nube cambia la latencia o la capacidad sin avisar, los clientes se quejan —y con razón. Pero en el mundo de la IA, la niebla es más difícil de disipar.
¿Qué medidas deben tomarse?
Para disipar esta ‘niebla’, algunos expertos sugieren una serie de cambios estructurales que podrían devolver la confianza a los usuarios:
- Transparencia técnica: Los proveedores deberían ofrecer bitácoras de cambios, métricas de calidad y versiones claras de los modelos disponibles.
- Interfaces abiertas: Permitir que los usuarios puedan conectar sus propios chatbots o usar frameworks que no oculten los detalles técnicos.
- Controles de calidad públicos: Crear organismos independientes y/o iniciativas de benchmarking que evalúen periódicamente el rendimiento de los modelos de IA.
- Modelos de determinismo opcional: Aunque la aleatoriedad es útil en muchos casos, permitir una opción de respuesta determinista facilitaría comparar con precisión resultados entre versiones.
- Políticas claras de ‘downgrade’: Informar abiertamente si un modelo está siendo sustituido por otro de menor capacidad durante picos de demanda u optimizaciones de costos.
Imagen | Marcos Merino mediante IA
–
La noticia
Cada vez más gente percibe que sus IAs funcionan peor: las compañías tienen razones poderosas para que así sea
fue publicada originalmente en
Genbeta
por
Marcos Merino
.