De boodschap van het rapport is over de hele linie (wat betreft basisonderwijs) duidelijk: de prestaties dalen. Aan de hand van welke cijfers dat dan precies wordt vastgesteld? Want het is immers nogal een boude stelling te beweren dat de prestaties dalen, als je de referentiecijfers niet bij de hand hebt.
Om dat duidelijk te maken pak ik er maar een voorbeeld bij. Als ik de groei van het wagenpark wil weten, dan stel ik eerst vast wat het referentietijdstip is waarop ik ga meten, de zogenaamde nulmeting. Van dat moment af kan ik dan vaststellen of er groei of krimp is, in welke mate, en of er sprake is van fluctuatie in die groei. Natuurlijk snap ik dat dit wel een iets harder cijfer is, maar je begrijpt: zonder referentietijdstip en -maat is het moeilijk vast te stellen of er groei of krimp is.
Kijk ik naar de resultaten van het rapport, dan moet ik eerst hard zoeken naar dat referentieniveau; en daarnaast moet dat ook nog voor elk vak als hard niveau worden vastgesteld. Wel: waarschijnlijk kan ik niet zo goed studeren, want ik kan die keiharde basiscijfers niet vinden, en al helemaal niet eenduidig.
Wat ik wel weet is dat alle cijfers, die genoemd worden, gebaseerd zijn op steeds wisselende basiscijfers. Wie immers gaandeweg het onderzoeken de normen steeds aanpast weet op zeker moment niet meer wat gemeten en vergeleken wordt.
Voorbeeld? Laten we dan eens kijken welke M-toets groep 5 Rekenen/Wiskunde van CITO werd afgenomen in februari van het jaar 2007, en met welke normering de scores werden berekend. Vervolgens doen we datzelfde met de M-toets groep 5 Rekenen/Wiskunde van het jaar 2017.
Stel nu dat we de toets uit 2017 eens zouden berekenen met de score-tabellen van de toets uit 2007, welke score levert dat dan op? Zien we dan ook dezelfde trend van achteruitgang? Of is er geen verschil in wat we gemeten hebben? Dan hebben we met elkaar vastgesteld dat de verschillende normeringen geen verschillende waarderingen hebben
Of: is het niet mogelijk de toets van 2017 te berekenen met de scoretabellen van 2007? En als dat inderdaad niet zo is, waar baseert de inspectie dan de berekening van achteruitgang op?
Natuurlijk weten we in de praktijk best wat er gebeurd is. In de jaren ’90 van de vorige eeuw was het met het rekenonderwijs op de PABO’s niet best gesteld, met als gevolg dat twintig jaar later niet elke leerkracht een goede rekeninstructie kan verzorgen (en, inspecteurs, geloof me: je hebt de vaardigheid of je hebt die niet).
Vervolgens werd in het begin van dit millennium besloten realistische rekenmethoden in te voeren. Wat dat voor effect heeft op het basisniveau in groep 8 kan elke ervaren rot je vertellen. Een deling van 23.655.542 door 236 uit het hoofd is er tegenwoordig niet meer bij. (Is het niet de inspectie die besloten heeft een onderzoek te doen naar rekenonderwijs, maar daarbij niet te willen kijken naar realistisch rekenen?).
In 2014 werd besloten Passend Onderwijs in te voeren. Een ordinaire bezuinigingsoperatie, die vooral ten koste is gegaan van leerlingen, die beter en effectiever onderwijs hadden moeten hebben in kleine groepen, met veel meer aandacht voor hun specifieke belemmeringen. Nu is het effect dat veel van deze leerlingen langdurig in groepen verblijven waar ze in verdrinken, onvoldoende aandacht krijgen, steeds verder achterop raken, demotiveren (en misschien ook nog gedragsproblemen gaan vertonen). En: leerlingen die al lijden aan gedragsstoornissen hebben een negatief effect op de rest van de groep.
Laat ik nu dit soort feiten niet benoemd zien in dit rapport. De inspectie rept wel van het feit dat Passend Onderwijs nog geen succes is, maar onthoudt ons de negatieve gevolgen, net zo min als de andere zaken niet benoemd worden (dan wel versluierd). En: ik hoor het graag als ik onjuistheden poneer…. Reageer maar.