Los Modelos Fundacionales (Foundation Models) son modelos de IA a gran escala, entrenados con cantidades masivas de datos generales y diversos (a menudo datos no etiquetados de internet), que pueden ser adaptados (mediante técnicas como el fine-tuning) para realizar una amplia gama de tareas específicas.

Piensa en ellos como una base de conocimiento muy amplia y versátil. Un modelo fundacional de lenguaje (como un LLM) ha aprendido sobre gramática, hechos, razonamiento básico, etc., a partir de sus vastos datos de entrenamiento. Este «fundamento» de conocimiento puede luego ser aprovechado para tareas tan diversas como la traducción, la escritura de código, la respuesta a preguntas, el análisis de sentimientos, etc., a menudo con solo un pequeño ajuste adicional (fine-tuning) para cada tarea específica.

La idea es que, en lugar de entrenar un modelo desde cero para cada problema, se puede partir de estos potentes modelos fundacionales, ahorrando tiempo, recursos y datos. Son la base sobre la que se construyen muchas aplicaciones de IA actuales.