El Overfitting (sobreajuste) es un problema común que ocurre durante el entrenamiento de un modelo de IA. Sucede cuando el modelo aprende «demasiado bien» los datos de entrenamiento, incluyendo el ruido y los detalles específicos de ese dataset, en lugar de aprender los patrones generales. Como resultado, el modelo funciona perfectamente con los datos que ya ha visto, pero es incapaz de generalizar y funciona mal con datos nuevos.

Imagina a un estudiante que memoriza las respuestas exactas de un examen de práctica, incluyendo los errores tipográficos. En el examen real, si las preguntas son ligeramente diferentes o están formuladas de otra manera, el estudiante no sabrá responder porque solo memorizó, no entendió los conceptos.

Un modelo con overfitting es como ese estudiante: se ha ajustado excesivamente a los ejemplos concretos del entrenamiento y ha perdido la capacidad de aplicar lo aprendido a situaciones nuevas. Evitar el overfitting es un desafío clave en el desarrollo de modelos de IA, y se usan diversas técnicas para combatirlo (como usar más datos, simplificar el modelo o técnicas de regularización).