Deutschlands Schüler haben ernsthafte Probleme – zumindest wenn man TIMSS glaubt. Oder PISA. Oder IGLU. Doch das größere Problem ist die Testgläubigkeit der deutschen Bildungspolitik.

Schüler werden so vermessen, getestet und verglichen, als wären sie technische Geräte. Aber Bildung kann nicht nur nach technischen Methoden beurteilt werden, Lernerfolg nicht nur nach ökonomischen Standards. Doch genau das passiert – immerhin wird die PISA-Studie von der Organisation für wirtschaftliche Zusammenarbeit und Entwicklung organisiert.

Völlig außer Acht gelassen wird bei solchen standardisierten Tests, dass Lernen ein individueller Prozess ist, der in großem Maße von den Voraussetzungen der Schüler (die durch Inklusion und Migranten immer heterogener werden) und nicht zuletzt durch die Fähigkeit der Lehrer bestimmt wird. Zudem sind die scheinbar objektiven Tests beileibe nicht narrensicher. Dass spätere Ergebnisse besser ausfielen als beim „PISA-Schock“ vor 15 Jahren, liegt auch daran, dass viele Schüler – glaubt man ihren Lehrern – gezielter auf ungewohnte Aufgabentypen vorbereitet wurden als beim ersten Test.

Dass Bildung vermessen wird, ist wichtig. Das von Kritikern ins Feld geführte Argument, Bildung sei gar nicht messbar, falsch. Dass nach dem „PISA-Schock“ mehr auf Leistung gesetzt werden sollte, kann auch nicht schlecht sein. Problematisch wird es aber dann, wenn Bildungspolitik primär auf den vermeintlich allgemeingültigen Vergleichtests fußt. Und wenn schlechte Ergebnisse blinden Aktionismus hervorrufen in einem Bereich, in dem ohnehin mit schöner Regelmäßigkeit neue oder wieder aufgewärmte Methoden und Lehren als der Weisheit letzter Schluss angepriesen werden.

Deshalb sollte man Bildungsstudien wie TIMSS und PISA – dessen neueste Ergebnisse am 6. Dezember veröffentlicht werden – zwar ernst nehmen. Aber bitte ohne Hysterie, ohne Schock und mit gesunder Skepsis.