Los 10 modos de fallo del coding asistido por IA
Cada fallo del coding con IA cae en uno de 10 patrones. Apréndelos y podrás prevenirlos antes de que ocurran.
Por qué importan los modos de fallo
La mayoría de los desarrolladores aprenden las limitaciones de la IA a través de experiencias dolorosas. Un bug en producción aquí, una vulnerabilidad de seguridad allá, horas perdidas depurando código alucinado. Pero estos fallos no son aleatorios: siguen patrones predecibles.
Hemos catalogado 10 modos de fallo distintos a partir de investigación, informes de incidentes y experiencia de desarrolladores. Cada uno es prevenible si sabes qué buscar.
Los 10 modos de fallo
1. La espiral de alucinaciones
Severidad: CRÍTICA
La IA genera código plausible pero incorrecto. Le pides que corrija el error. Agrava el error. Para el turno 39, tienes 693 líneas de código fabricado (Surge AI documentó este escenario exacto).
Prevención: 2 correcciones máximo. Si la IA no puede hacerlo bien en 2 intentos, detente, replantea y re-promptea desde cero.
2. La deuda de comprensión
Severidad: CRÍTICA
Entregas código que no entiendes completamente. Funciona, hasta que deja de funcionar. Ahora estás depurando un sistema donde el “autor” original (la IA) no puede explicar sus propias decisiones.
Prevención: Documenta cada función generada por IA. Si no puedes explicar una línea, no puedes entregarla.
3. Amnesia de ventana de contexto
Severidad: ALTA
Las sesiones largas hacen que la IA “olvide” el contexto anterior. Contradice sus propias decisiones previas, introduce inconsistencias o pierde el hilo de tu arquitectura.
Prevención: Usa archivos CLAUDE.md, mantén documentos de handover y vigila las señales: preguntas repetidas, sugerencias contradictorias, pérdida de convenciones de nomenclatura.
4. La trampa del sesgo de automatización
Severidad: ALTA
Aceptas la salida de la IA porque “se ve bien”: el clásico error de comisión. O pasas por alto una vulnerabilidad porque la IA no la señaló: el error de omisión. Parasuraman y Manzey (2010) documentaron esto extensamente.
Prevención: Verificación sistemática en cada paso. No un vistazo, sino una comprobación real contra tu pila de verificación de 5 capas.
5. La ilusión de confianza
Severidad: ALTA
Stanford descubrió que los desarrolladores CON IA escribieron código menos seguro mientras se sentían MÁS confiados. El estudio METR encontró una brecha de 43 puntos entre la velocidad percibida y la real. Literalmente no puedes confiar en tu propia percepción.
Prevención: Mide, no sientas. Rastrea métricas reales: bugs entregados, tiempo de resolución, problemas de seguridad encontrados en revisión.
6. Ceguera de seguridad
Severidad: CRÍTICA
La IA genera código funcional, no código seguro. El 60-70% de las vulnerabilidades introducidas por IA son de severidad BLOCKER (Sonar, 2026). La IA no piensa de forma adversarial: completa patrones, no modelos de amenazas.
Prevención: Revisión de seguridad como capa obligatoria de verificación. Cada ruta de código generada por IA necesita análisis adversarial.
7. La espiral del coste hundido
Severidad: MEDIA
Has invertido 45 minutos en una conversación con IA. No está funcionando, pero sigues porque ya invertiste tiempo. Esta es la clásica falacia del coste hundido, amplificada por el tono confiado de la IA.
Prevención: La regla de 2 correcciones. El tiempo invertido es irrelevante: solo importa la trayectoria actual.
8. Deriva arquitectónica
Severidad: ALTA
La IA usa patrones de sus datos de entrenamiento, no patrones de TU codebase. Con el tiempo, cada sesión de IA introduce convenciones ligeramente diferentes, creando un codebase inconsistente e inmantenible.
Prevención: CLAUDE.md con decisiones de arquitectura. Guías de estilo explícitas. Archivos de contexto que codifiquen TUS patrones.
9. La ilusión de testing
Severidad: MEDIA
La IA escribe tests que pasan pero que realmente no verifican comportamiento. Tests que comprueban la implementación en lugar del requisito. CI verde con cero cobertura real.
Prevención: Revisa los tests buscando aserciones significativas. Pregunta: “¿Este test detectaría un bug real?“
10. El teatro de productividad
Severidad: ALTA
Los datos DORA muestran: +98% de output individual, +91% de tiempo de revisión, +154% de tamaño de PR, entrega neta plana. Estás generando más código, pero el equipo gasta todo su tiempo revisándolo y arreglándolo.
Prevención: Mide el rendimiento del equipo, no el output individual. La métrica que importa es software funcional entregado, no líneas generadas.
El patron
¿Notas algo? Cada modo de fallo proviene de la misma causa raíz: confiar en la salida de la IA sin juicio humano adecuado.
La solución no es mejor IA. Son mejores humanos: específicamente, humanos entrenados en verificación sistemática.
- Realiza el Diagnóstico para evaluar tu vulnerabilidad a estos modos de fallo
- Lee la Metodología para el marco de prevención completo
- Explora la Evidencia para los datos detrás de cada modo de fallo