Optimale Aufgabenschwierigkeit in künstlichen neuronalen Netzen


Beim menschlichen und tierischen Lernen gibt es bekanntlich einen optimalen Schwierigkeitsgrad, bei dem am besten Neues gelernt wird, denn sind die Aufgaben zu leicht, gibt es kaum noch etwas zu lernen und es ist schwierig sich zu motivieren, sind die Aufgaben zu schwer, scheitert man und die Motivation ist dahin. Für das optimale Lernen muss daher immer genau jene Schwierigkeitsstufe bei Aufgaben gefunden werden, bei der die Inhalte einerseits fordernd, andererseits aber auch bewältigbar sind. Das gilt auch für neuronale Netzwerke, wie Wilson et al. (2019) gezeigt haben, denn neuronale Netzwerke lernen dann am besten, wenn sie etwa fünfzehn Prozent Fehler machen, etwa auch solche Fehler, die menschliches und tierisches Lernen nachbilden sollen. In den Versuchen wurde ein sehr einfacher Test eingesetzt, in dem die elektronischen Probanden lediglich eine sich gemeinsam bewegende Gruppe von Punkten erkennen mussten, wobei sich diese Fähigkeit durch Üben verbessern lässt, und wie schnell die Netzwerke lernen, lässt sich dabei auch exakt messen. Nach diesen Experimenten ist die Lerngeschwindigkeit am höchsten, wenn man durch Anpassen der Schwierigkeit die Trefferquote bei 15 Prozent hält, wobei diese 85-Prozent-Regel auch für alle getesteten Akteure gilt. Weicht die Fehlerrate dagegen in die eine oder andere Richtung deutlich von diesem Wert ab, sinkt die Lerngeschwindigkeit exponentiell.

Literatur

Wilson, R. C., Shenhav, A., Straccia, M. & Cohen, J. D. (2019). The Eighty Five Percent Rule for optimal learning. Nature Communications volume, 10, doi:10.1038/s41467-019-12552-4.





Sorry, comments for this entry are closed at this time.

Sorry, comments for this entry are closed at this time.

© Werner Stangl Linz 2019