poniedziałek, 23 grudnia 2013

EWD jako narzędzie do kreowania kolejnego rankingu szkół jest patologią

To, że nie rozumieją tego dziennikarze Gazety Wyborczej, to mnie nie dziwi. Dla nich ważne jest odczytywanie tego, co służy sensacji, tabloidowemu wyostrzeniu pewnych tez, a że te nie mają nic wspólnego z istotą procesu kształcenia oraz jego uwarunkowaniami, to już nie ma najmniejszego znaczenia.

Kiedy czytam w łódzkim dodatku GW: Ranking łódzkich liceów. Szkołą „dresów: nad „patriotami” (21.12.2013, s. 3), że rolą EWD jest porównywanie wyników egzaminu gimnazjalnego z wynikami matury, by kwalifikować na tej podstawie szkołę do jednej z pięciu grup, to zastanawiam się nad tym, o czym pisał Wojciech Młynarski „Co by tu jeszcze spieprzyć, panowie ...”. Nie jest to winą dziennikarza, tylko tych, którzy tworząc ważne narzędzie diagnostyczne, postanowili je wpisać w proces rywalizacji antagonistycznej, chociaż powinien on służyć czemuś zupełnie innemu. Dziennikarz nie będzie zastanawiał się nad patologią tego procesu, bo on po prostu referuje wyniki EWD i ich interpretację zgodnie z podaną klasyfikacją urzędową. Młynarski śpiewał właśnie o tym, jak to jest możliwe, że:

(...) faceci wokół się snują co są już tacy,
że czego dotkną, zaraz zepsują. W domu czy w pracy.
gapią się w sufit, wodzą po gzymsie wzrokiem niemiłym.
Na niskich czołach maluje im się straszny wysiłek,
bo jedna myśl im chodzi po głowie, którą tak streszczę:
"Co by tu jeszcze spieprzyć, Panowie? Co by tu jeszcze?
"

Co piszą twórcy EWD?

Metoda EWD to zestaw technik statystycznych pozwalających zmierzyć wkład szkoły w wyniki nauczania. By można ją zastosować, potrzebujemy wyników przynajmniej dwóch pomiarów osiągnięć szkolnych: na początku nauki w danej szkole i na jej zakończenie. Po co nauczycielom, wizytatorom i samorządom metoda edukacyjnej wartości dodanej?
Metoda edukacyjnej wartości dodanej służy przede wszystkim szkołom. To dyrektorzy i nauczyciele mogą dzięki właściwej analizie wyników egzaminacyjnych zobaczyć mocne i słabe strony nauczania w swojej placówce. Wnikliwe przyjrzenie się rezultatom testów egzaminacyjnych dostarcza ważnych przesłanek do formułowania planów rozwoju szkoły, pozwala ocenić skuteczność już podjętych działań. Ewaluacja prowadzona przez samą szkołę w celu poprawy swojego funkcjonowania to najważniejszy obszar wykorzystania wyników egzaminacyjnych, a tym samym i metody edukacyjnej wartości dodanej.

Beneficjentami skutecznej autoewaluacji stają się uczniowie, którzy mają szansę uczyć się w skuteczniej nauczających szkołach. Wiele szkół gimnazjalnych jest już zaawansowanymi użytkownikami metody edukacyjnej wartości dodanej, co roku korzysta z prostej w użyciu aplikacji komputerowej

Metoda edukacyjnej wartości dodanej służy też nadzorowi szkolnemu. Porównywalne wyniki egzaminów pozwalają na obiektywną ewaluację zewnętrzną szkół. Użycie metody edukacyjnej wartości dodanej umożliwia skupienie uwagi na tym, co w nauczaniu najważniejsze, czyli na postępach uczniów w danym cyklu nauczania. Już od kilku lat dostępne są on-line wskaźniki egzaminacyjne dla około 6 tysięcy gimnazjów i niemal 4 tysięcy liceów ogólnokształcących i techników. Kolejnym potencjalnym użytkownikiem metody edukacyjnej wartości dodanej są samorządy. Bez wchodzenia w kompetencje nadzoru pedagogicznego mogą one monitorować efektywność nauczania w szkołach na swoim terenie.
(podkreśl. BŚ)


W wyniku takiego właśnie zastosowania metody EWD, nie jest ważny uczeń, ale wejście w posiadanie jeszcze jednego narzędzia do selekcjonowania szkół na najlepsze, lepsze, słabsze, gorsze i najgorsze. Dlaczego? Na jakiej podstawie twierdzi się, że to, co jest wynikiem pomiaru „na wyjściu” jest efektem znakomitej lub fatalnej pracy nauczycieli? Jaki to ma związek z „wysiłkiem szkoły”, skoro doskonale wiemy, już od kilkudziesięciu lat, że ten jest jednym z wcale nie najważniejszych, chociaż też istotnych czynników końcowych osiągnięć szkolnych uczniów? Pomiar EWD absolutnie niczego nie "mówi" o mocnych i słabych stronach szkoły, gdyż tych po prostu nie mierzy. To jego twórcy przypisują mu pośrednio takie znaczenie mimo, iż nie ma ku temu empirycznych podstaw. On w ogóle nie mierzy procesu kształcenia, czy jakby chcieli w/w twardogłowi dydaktycy - przebiegu oraz jakości nauczania i uczenia się. On mierzy tylko i wyłącznie to, jaki jest poziom różnicy między wynikami jednego egzaminu zewnętrznego a po kilku latach drugiego egzaminu zewnętrznego. Tyle, i tylko tyle. Skąd nagle taka interpretacja wyników?

Po co wprowadzamy w błąd samych uczniów, ich rodziców, że beneficjentami tej metody stają się uczniowie, gdyż (...) mają szansę uczyć się w skuteczniej nauczających szkołach? Proszę zwrócić uwagę na tkwiący w tym podejściu język dydaktyki lat 50. XX w., na to, że oto szkoły mają skuteczniej nauczać. To właśnie w wyniku karykaturalnie tworzonych rankingów, wyjałowionych zresztą z pomiaru kluczowych zmiennych, bowiem koncentrujących się jedynie na wynikach egzaminów, można pisać, że „Liceum rzekomo „dresiarskie” wypadło lepiej niż „patriotyczne”. Biedna pani dyrektor „patriotycznego” rzekomo liceum twierdzi, że „trzeba mieć pokorę, bo nigdy nie wiemy, jaki osiągniemy wynik”. Pani dyrektor, trzeba mieć dużo pokory, by tego typu rankingi jeszcze tolerować w sferze oświatowej.