In statistica e in informatica, si parla di overfitting (in italiano: adattamento eccessivo, sovradattamento) quando un modello statistico molto complesso si adatta ai dati osservati (il campione) perché ha un numero eccessivo di parametri rispetto al numero di osservazioni.
Un modello assurdo e sbagliato può adattarsi perfettamente se è abbastanza complesso rispetto alla quantità di dati disponibili.
Si sostiene che l'overfitting sia una violazione del principio del Rasoio di Occam.
Sia nella statistica sia nel apprendimento automatico, per prevenire ed evitare l'overfitting è necessario mettere in atto particolari accorgimenti tecnici, come la convalidazione incrociata e l' arresto anticipato, che indicano quando un ulteriore allenamento non porterebbe a una migliore generalizzazione.
Nel treatment learning si evita l'overfitting utilizzando il valore di supporto migliore e minimale.