In der Psychologie beschreibt Überanpassung (overfitting) das Phänomen, dass Menschen in ihrem Handeln von einem Modell ausgehen, das zwar gut mit den bisher beobachteten Informationen übereinstimmt, aber letztlich keine Vorhersagekraft hat, da es nicht mit anderen zukünftigen Ereignissen gerechnet hat. Meist liegt es daran, dass zu viele Merkmale vorhanden sind, denen man mit seinem Verhalten genügen möchte
Überanpassung ist speziell in der Entwicklungspsychologie eine Fixierung an ein überoptimiertes kindliches Verhaltensmuster, d. h., ein Kind muss sich auch unvernünftigen und unbegründeten Vorschriften fügen, weil es vollständig vom Wohlwollen der Erwachsenen abhängig ist.
In der Schule erzieht man Kinder durch fremdbestimmten, normierten Unterricht zu passiven, überangepassten Wesen, die in der Regel nicht mehr kreativ sein können, da Kreativität meist außerhalb der Normen liegt.
Overfitting ist vor allem im Bereich der Forschung zur künstlichen Intelligenz relevant, denn man weiß, dass künstliche neuronale Netze schlechter lernen, wenn die Trainingsdaten zu ähnlich sind, denn dann können sie stärker abweichenden Input nicht mehr interpretieren. Beim maschinellen Lernen kommt es dabei zu einer Überanpassung, wenn sich ein Modell zu sehr auf die Reduzierung der Trainingswerte (meist der mittlere quadratische Fehler) konzentriert, sodass es oft zu schwierig ist, jene Muster in den Trainingsdaten zu finden, die nur zufällig verursacht wurden. Wenn dann in der Praxis das Modell auf unbekannte Daten angewendet wird, ist die Leistung schlecht.
Überanpassung bezeichnet ganz allgemein in der Mathematik und Logik eine bestimmte Korrektur eines Modells mit zu vielen erklärenden Variablen an einen vorgegebenen Datensatz.