Studie: Menschen zeigen „katastrophales Vergessen“ wie KI

Ein Team der Universität Oxford ließ Probanden und einfache neuronale Netze nacheinander zwei sehr ähnliche Aufgaben lernen. In einem Experiment sollten Menschen Positionen fiktiver Pflanzen auf einer kreisförmigen Skala merken – mit je einer Sommer- und Winterposition, verbunden durch ein festes Winkel‑„Regel“ (z.B. Winter immer 120 Grad im Uhrzeigersinn von Sommer).

Danach folgte ein zweiter Pflanzensatz mit veränderter Regel; anschließend testeten die Forschenden erneut die erste Aufgabe, ohne Feedback zu geben. Dasselbe Protokoll wurde parallel mit künstlichen neuronalen Netzen durchgespielt, die auf dieselben Daten trainiert wurden.

Wenn neue Regeln alte überschreiben

Das Ergebnis: Stimmten die Regeln der beiden Aufgaben stark überein, lernten sowohl Menschen als auch Netze die zweite Aufgabe schneller, nutzten also ihr Vorwissen effizient. Gleichzeitig zeigten sie aber deutlich mehr „Vergessen“ der ersten Aufgabe – sie begannen, dort die neue Regel anzuwenden und machten systematische Fehler.

Waren die Regeln dagegen sehr verschieden, fiel das Umlernen schwerer, doch die Leistung auf der ersten Aufgabe blieb stabiler. In der KI-Forschung ist dieses Phänomen als „katastrophales Vergessen“ bekannt, in der Psychologie spricht man von retroaktiver Interferenz – die Studie zeigt nun, dass beides de facto derselbe Mechanismus ist.

„Vereiniger“ vs. „Trenner“: Zwei Lernstile beim Menschen

Spannend ist, dass Menschen in zwei deutlich erkennbare Strategietypen fielen.

  • „Vereiniger“ suchten aktiv nach Gemeinsamkeiten zwischen Aufgaben, nutzten frühere Regeln aggressiv zum Transfer und lernten dadurch schneller und generalisierten besser – vergaßen aber die erste Aufgabe stärker.
  • „Trenner“ behandelten Aufgaben eher unabhängig voneinander, lernten langsamer und hatten schlechteren Transfer, behielten dafür alte Regeln stabiler.

Diese Profile ließen sich in den Modellen nachbilden, indem die Forschenden verschiedene „Lernmodi“ einstellten – etwa stärkeres Wiederverwenden interner Repräsentationen versus stärker getrennte Repräsentationen für jede Aufgabe.

Was neuronale Netze über unser Gedächtnis verraten

Die Analyse der Netze zeigt, wie das Vergessen zustande kommt: Bei ähnlichen Aufgaben nutzen sie dieselben inneren Merkmalsräume erneut, passen dort Gewichte an und überschreiben so Stück für Stück alte Muster. Bei sehr unterschiedlichen Aufgaben bilden sie quasi „eigene Inseln“ im Parameterraum, die einander weniger stören – das kostet mehr Kapazität, bewahrt aber bestehendes Wissen.

Damit bietet die KI gewissermaßen ein „Glas-Gehirn“: An ihr lassen sich Interferenz, Generalisierung und Vergessen mathematisch präzise untersuchen und anschließend auf menschliches Lernen zurückspiegeln.

Konsequenzen für Schule, Training und KI-Design

Für Bildung und Weiterbildung legt die Arbeit nahe, dass Curricula bewusst mit der Balance zwischen Transfer und Vergessen spielen sollten. Zu ähnlich aufeinanderfolgende Inhalte fördern zwar schnelles Lernen, können aber ältere Kompetenzen unterspülen, wenn diese nicht gezielt wiederholt oder in klar getrennten Kontexten gefestigt werden.

Für KI-Entwicklung bestätigt die Studie, dass echtes „Continual Learning“ nicht nur ein Technikproblem ist, sondern ein grundlegendes Lernprinzip betrifft. Methoden wie separate Module, „schutzwürdige“ Gewichte, Wiederholungsphasen oder „Schlaf“-ähnliche Konsolidierung helfen sowohl Maschinen als auch Menschen, Neues zu integrieren, ohne Altes zu zerstören.

Warum das Verständnis von Vergessen wichtiger wird

In einer Welt, in der generative KI immer mehr Inhalte produziert und ersetzt, rückt auch bei Menschen die Frage in den Fokus, was im Gedächtnis bleibt – und was im ständigen Strom neuer Informationen verloren geht. Parallel warnen Ökonomen bereits vor großen Einnahmeverlusten für Urheber durch KI‑Systeme, was die gesellschaftliche Dimension von Lernen und Vergessen zusätzlich schärft.

Die Studie aus Oxford zeigt: Vergessen ist kein Fehler, sondern der Preis für effizientes Generalisieren – bei Menschen wie bei Maschinen. Die Kunst besteht darin, bewusst zu entscheiden, wo sich dieser Preis lohnt und wo nicht.

Ähnliche Beiträge