09 grudnia 2016

PISA jako źródło politycznego marketingu


Autorzy książeczki pt. "Polska oświata w międzynarodowych badaniach umiejętności uczniów PISA OECD. Wyniki, trendy, kontekst i porównywalność (Warszawa: 2013, s. 128) - dr hab. prof. UW Roman Dolata, b. wiceminister edukacji - dr Maciej Jakubowski i pracownik IBE Artur Pokropek - słusznie pisali o tym, jak ważne jest prowadzenie analiz krytycznych wyników badań PISA, chociaż sami nie przyłożyli do tego ręki:

Staranna i krytyczna analiza wyników PISA jest (...) obowiązkiem każdego badacza zjawisk oświatowych, a wsłuchiwanie się w rezultaty tych analiz – podstawowym obowiązkiem polityków edukacyjnych.

Wspomniana tu rozprawa jest jedną z pierwszych w naszym kraju prób odsłonięcia nie tyle kulis owych badań, ile próbą zmierzenia się socjologów i pedagogów z założeniami metodologicznymi i wynikami międzynarodowych badań, dzięki którym można uzyskać poprawną statystycznie "fotografię" stanu i poziomu osiągnięć szkolnych piętnastolatków. Nie znajdziemy jednak w tej publikacji ani jednego odniesienia do jakiejkolwiek naukowej krytyki badań PISA (Programu Międzynarodowej Oceny Umiejętności Uczniów - Programme for International Student Assesment), jaka ma miejsce na świecie. Natomiast autorzy wyciągają na podstawie PISA nie w pełni uzasadnione wnioski na temat rzekomej skuteczności kształcenia w kraju.

MEN nigdy nie zainteresował się badaniami Mirosława J. Szymańskiego i Zbigniewa Kwiecińskiego, którzy przeprowadzili ważniejsze dla reform edukacyjnych w Polsce badania rzeczywistych powodów analfabetyzmu, procesów selekcyjnych i uwarunkowań zróżnicowania osiągnięć szkolnych uczniów szkół podstawowych i średnich. Wynika z nich jednoznacznie, że to nie od szkoły samej w sobie zależy efektywność wykształcenia dzieci i młodzieży, a już na pewno nie od umiejętności rozwiązywania testów.

Kierujący innym projektem badań międzynarodowych (TIMSS) prof. Krzysztof Konarzewski pisze o tego typu pomiarach, że są one substytutem eksperymentu, w którym tworzy się grupy reprezentujące wartości interesującej badacza zmiennej niezależnej, a po zbadaniu zmiennej zależnej wykrywa zależności między nimi. Badacz jednak nie ingeruje w przebieg zmiennej niezależnej, a więc nie jest podmiotem wprowadzającym potencjalne zmiany, lecz korzysta ze zróżnicowania, które wytworzyło samo życie. (Jak uprawiać badania oświatowe. Metodologia praktyczna, Warszawa 2000, s. 65)

Nie należy zatem na podstawie wyników PISA wnioskować o występowaniu jakiejkolwiek dynamiki osiągnięć szkolnych (zmiennej zależnej) w wylosowanej próbie badawczej. Pomiar programu PISA nie dotyczy przecież osiągnięć szkolnych tych samych respondentów w kolejnych latach ich życia i rozwoju, tylko różnych roczników piętnastolatków.

Tymczasem przedstawiciele władz resortu edukacji, jak i uczestnicy zespołu badawczego PISA wybiórczo prezentują wyniki osiągnięć piętnastolatków, żeby można było mówić i pisać albo o sukcesach, albo o porażkach polskiej edukacji.

To jest nonsens. PISA stała się dla kolejnych formacji rządzących politycznym instrumentem statystycznych analiz danych, mimo że wspomniani powyżej autorzy stwierdzali m.in.:

* W końcu musimy pamiętać, że to nie jest badanie podłużne. Gdyby cała populacja uczniów klas I szkół ponadgimnazjalnych kontynuowała naukę w tych samych typach szkół, uzyskany wynik można by z większą pewnością traktować jako miarę postępów. Tak jednak nie jest. Po klasie I następuje kolejny proces selekcji – słabsi uczniowie wykruszają się z liceów ogólnokształcących i trafiają do II klas szkół zawodowych (s. 84);

* Fakt, że prezentowane badanie nie jest studium podłużnym, ma jeszcze jedną ważną konsekwencję. Nie potrafimy mianowicie stwierdzić, czy między III klasą gimnazjum a I klasą szkół zawodowych istnieją znaczące różnice w poziomie wykonania testu PISA.(s. 85)

Pomiar PISA nic nam nie mówi o procesie kształcenia, o jego uwarunkowaniach, o tym, kto i jak kształci nasze dzieci oraz w jakich warunkach. Całkowicie eliminuje przemiany systemowe, społeczno-polityczne i makrooświatowe kraju pochodzenia uczniów tak samo, jak stan ich kondycji psychofizycznej w dniu, w którym muszą przez kilka godzin wypełniać kilkanaście zeszytów z kilkudziesięcioma zadaniami w każdym z nich.

PISA nie uwzględnia specyfiki procesu kształcenia w krajach uczestniczących w tym pomiarze, tymczasem mówi i pisze się o jej wynikach tak, jakby to na skutek konkretnych rozwiązań politycznych tej czy innej ekipy rządzącej doszło do rzeczywistych zmian w osiągnięciach naszych uczniów.

Język pseudonaukowych uzasadnień PISA-wców jest w stylu wróżbiarstwa (probabilistycznym), kiedy piszą:

(...) pozytywne efekty reformy ujawniły się być może z opóźnieniem, co widać w poprawie między edycjami PISA 2003 i 2006. To może być efekt zmian wprowadzonych wraz z reformą ustroju szkolnego, które wymagały czasu, aby ujawnić swój pozytywny wpływ. Między 2006 a 2009 rokiem nie obserwujemy żadnej zmiany, co pokazuje, że system nauczania gimnazjalnego ustabilizował się po pozytywnym – ale też wymagającym dostosowań – szoku, jakim była reforma. (s. 32)

Afirmatorzy PISA formułują wnioski, które nie są w interpretacyjnej warstwie wiarygodne, bowiem równie dobrze można byłoby na podstawie prezentowanych danych stwierdzić, że w naszym kraju zmienił się klimat, była mniej surowa zima i dlatego uczniowie uzyskali nieco lepsze wyniki.

Wyniki PISA w żadnej mierze nie dowodzą, że zmiana ustrojowa systemu szkolnego ustabilizowała poziom osiągnięć szkolnych u gimnazjalistów innego zupełnie rocznika, albo że dzięki zmianie ustroju szkolnego polska młodzież uplasowała się na bardzo wysokim miejscu wśród uczniów z innych krajów świata, gdyż nauczyciele znacznie lepiej z nimi pracowali.

Autorzy w/w publikacji sami doszli do wniosku, że porównywanie wyników rocznika pierwszej edycji PISA z 2000 r. z następnymi jest nonsensowne, gdyż niewielki ich wzrost między 2006 a 2009 r. jest nieistotny statystycznie,(...) a więc nie można stwierdzić, że jakakolwiek poprawa nastąpiła.

Po czym sami sobie zaprzeczają i jak mantrę powtarzają: Polska jest bowiem jednym z niewielu krajów, którym udało się w stosunkowo krótkim czasie tak podnieść swoje wyniki i osiągnąć poziom znacznie bliższy krajom najlepszym. Sukces ten jest wiązany, zapewne słusznie, z reformą edukacji z 2000 roku. (s. 38)

Socjotechnika sterowania społeczeństwem polega na tym, by będąc u władzy - budować pozytywny wizerunek działań politycznych, natomiast w opozycji należy ten wizerunek niszczyć, deprecjonować. Tak więc, kiedy rząd nie ma się czym pochwalić w sferze edukacyjnej, to jedynym „atutem”, na który może wskazać (tak, jakby to rzeczywiście mogło zależeć od jego polityki oświatowej) są hurraoptymistyczne interpretacje statystycznych danych, najlepiej międzynarodowych.

Statystyczny Polak i tak nie rozumie, na czym polega zastawiona na niego pułapka. Jeżeli zaś rządzący chcą wykazać na podstawie wyników tych badań, że konieczna jest zmiana systemu szkolnego, to będą odnosić się do nich i interpretować je bez jakiegokolwiek entuzjazmu.

Przejawem zatem nieracjonalnych, pozanaukowych postaw wobec wyników PISA jest wybiórcze prezentowanie danych na temat osiągnięć uczniów w zakresie wiedzy i kompetencji, żeby można było mówić i pisać o sukcesach lub porażkach polskiej szkoły. Wcale to nie oznacza, że propagandowo skrojone dane są nieprawdziwe.

Liczby są liczbami, a z faktami się nie dyskutuje, tylko przyjmuje je na wiarę. Równie dobrze można stwierdzić, że dzięki polityce MEN albo badaniom rzekomo niezależnego naukowo Instytutu wzrosła hodowla trzody chlewnej, skoro na lekcjach biologii przekazuje się uczniom wiedzę na temat zwierząt domowych.

Wyniki PISA nie mogą być nam obojętne. Uzyskane dane porównawcze "mówią" nam coś o naszych uczniach, o niewidocznych i obcych nam uczniach z innych państw. Nie mogą jednak być podstawą do analizy trendów w edukacji i wykształceniu osób w różnych krajach, jak i w każdym z nich z osobna.

Niewiele wiemy o tych, którzy uczestniczyli w tym pomiarze, gdyż informacja o ich płci, miejscu zamieszkania i statusie społecznym rodziców jest w tym przypadku mało istotna dla formułowanych wniosków. To są zaledwie zmienne pośredniczące, a nie czynniki zmiany, wpływu na poziom rozwoju badanych uczniów.

Tak więc różnicujemy ich ze względu na mało istotne cechy własne i środowiskowe w oderwaniu ich jednak od czynników bezpośredniego wpływu w skali mikro, mezo- i makrowychowawczej czy/i dydaktycznej. W ramach PISA dokonujemy pomiaru wiedzy i umiejętności uczniów na wyjściu z danego systemu (poziomu kształcenia) nie mając zupełnie wiedzy o tym, jakimi badani byli na wejściu, a więc zanim wkroczyli na ścieżkę własnej edukacji w danym typie szkoły.

Nikt nie chce mówić i pisać o kuchni całej machiny biurokratów, euroedukratów, którzy żyją z tego, co sami wygenerują, ale nie ma to żadnego wpływu ani na losy osób testowanych, ani na zmiany w systemach edukacyjnych państw OECD. Jest to rodzaj zabawy polityków statystycznymi grami, z których można bardzo dobrze żyć, będąc ich konstruktorem, ale w niczym nie przyczyniają się one do jakości procesu kształcenia.

Testy PISA - zdaniem niemieckiego filozofa kształcenia Manfreda Fuhrmanna - mierzą wprawdzie kompetencje, ale nie są w stanie uwzględnić głębszych deficytów kształcenia. Pomijają one bowiem tysiącletnią tradycję europejskiej kultury w obszarze religii, filozofii, literatury czy sztuki. Koncentrują się natomiast jedynie na diagnozowaniu umiejętności, które obiecują sukces ekonomiczny. Nie mierzą zatem rzeczywiście wykształcenia, tylko sugerują, co miałoby być traktowane jako wykształcenie.

Także inny niemiecki analityk badań PISA R. Messner twierdzi, że nie jest uprawnione na ich podstawie wnioskowanie o jakości kształcenia w ogóle, gdyż jednak pomiar ten jest wyraźnie ograniczony do kilku subzmiennych, pomijając zupełnie kwestie edukacji literacko-estetycznej i społeczno-politycznej szkoły.

PISA nie uwzględnia wiedzy z zakresu historii, nauk o społeczeństwie, języków obcych, a i w zakresie czytelnictwa nie dostrzega wagi fantazji, symboliki, poetyki itp., jak i nie diagnozuje umiejętności krytycznych i postaw etycznych, które są kluczowym komponentem kształcenia w ramach tych przedmiotów. OECD eksponuje w badaniach przede wszystkim skutki ekonomiczne procesu kształcenia, a nie społeczne i kulturowe.

O wynikach PISA decydują także procesy demograficzne, gospodarcze i polityczne w każdym z państw, w wyniku których jest zupełnie inne nasycenie określonego rodzaju środowisk pochodzenia uczniów. W państwach wielokulturowych zwraca się przecież uwagę na to, jak poważnie rzutują na wyniki pomiaru wiedzy i umiejętności kompetencje komunikacyjne dzieci imigrantów.

W światowej literaturze z nauk społecznych badania OECD, UNDP są niczym innym, jak jedynie monitoringiem o charakterze polityczno-analitycznym wykorzystywanym do pozyskiwania danych o przyczynach i skutkach prowadzonej przez rządy polityki publicznej. Ich celem jest pozyskiwanie danych o wybranych wskaźnikach, dzięki którym władze i inni aktorzy tych informacji o osiągniętym stanie rozwoju, będą mogli mówić o osiąganiu celów i wykorzystywaniu przydzielonych im środków finansowych przez organizacje międzynarodowe np. Bank Światowy, Międzynarodowy Fundusz Walutowy, Unia Europejska. Zadaniem monitoringu politycznego jest określenie, czy te zmiany są wynikiem przyjętej przez władzę polityki, mimo iż nie zachodzi tu możliwy do udowodnienia związek.

Paweł Kasprzyk – prezes Off Fundacji opublikował w październiku 2014 r. w Internecie w tłumaczeniu na język polski List Otwarty do dyrektora Biura PISA/OECD dra Andreasa Schleichera, jaki skierowali uczeni z wielu państw świata, a uczestniczący w tym programie. Ten nawet jednym zdaniem nie wspomniał o krytyce PISA na wczorajszej konferencji w ZNP.

Wprawdzie strona internetowa z Listem została przez 'niewidzialną rękę usunięta”, ale nie wszystko ginie w wirtualnej przyrodzie, tylko czasami zmienia właściciela. Przytoczę zatem dla równowagi główną część Listu P. Kasprzyka, w którym jego sygnatariusze zwracają uwagę nie tylko na negatywne skutki rankingów PISA.

Oto niektóre z problemów, powodujących ich niepokój:

o ile zestandaryzowane testy stosowano w wielu krajach od dziesięcioleci (pomimo poważnych zastrzeżeń co do ich reprezentatywności i miarodajności), badania PISA doprowadziły do umocnienia roli testów i ilościowych miar. Choćby w USA na wyniki PISA powoływano się uzasadniając program „Wyścig do Szczytów”, oparty na intensywnym użyciu standardowych testów do oceny uczniów, nauczycieli oraz administracji, wbrew powszechnym zastrzeżeniom dotyczącym rozlicznych niedoskonałości testów, jako źródła oceny (proszę zauważyć np. niewyjaśniony spadek Finlandii w rankingach);

• trzyletni cykl badań spowodował znaczące przesunięcie celów edukacyjnych polityk zainteresowanych krajów. Koncentrują się one na krótkoterminowych projektach poprawy wyników, ignorując badania pokazujące, że zmiany w edukacji zajmują dekady, a nie kilkuletnie cykle. Wiemy na przykład z licznych badań, że status nauczycieli ma przemożny wpływ na jakość kształcenia, że ten status różni się bardzo znacznie pomiędzy krajami i kulturami i nie da się go łatwo zmienić w krótkookresowych programach naprawczych;

• koncentrując się na wąskich i łatwo mierzalnych zagadnieniach, rankingi PISA odwracają uwagę od celów trudniej poddających się ilościowym porównaniom, jak rozwój fizyczny, moralny, obywatelski i artystyczny. Powoduje do niebezpieczne zawężenie zbiorowej świadomości celów edukacji;

• jako organizacja rozwoju gospodarczego, OECD w naturalny sposób ocenia oświatę z ekonomicznej perspektywy. Jednakże przygotowanie młodych kobiet i mężczyzn do efektywnego zatrudnienia nie jest jedynym ani nawet nie jest głównym celem publicznej edukacji. Chodzi w niej również o przygotowanie uczniów do uczestnictwa w demokracji, do stanowienia o sobie, do osobistego rozwoju i do szczęśliwego życia;

• w odróżnieniu od ONZ, UNESCO i UNICEF, których mandat do działań na rzecz poprawy edukacji i warunków życia dzieci na świecie jest jasny i niepodważalny, OECD takiego mandatu nie ma. Nie dysponuje również żadnym efektywnym mechanizmem uczestnictwa w demokratycznym procesie podejmowania decyzji;

• dla realizacji badań PISA i licznych innych działań, które im towarzyszą, OECD uruchomiła „partnerstwo prywatno-publiczne” angażujące międzynarodowe organizacje komercyjne, rynkowo korzystające z deficytów – realnych lub tylko wyobrażonych – ujawnianych i odkrywanych w badaniach PISA. Niektóre z tych organizacji świadczą komercyjne usługi na rzecz amerykańskich szkół i szkolnych okręgów na wielką skalę, angażując się również w plany rozwoju prywatnego sektora podstawowej oświaty w Afryce, gdzie OECD zamierza wprowadzić swój program PISA;

• wreszcie, co jest niewątpliwie najważniejsze: ów szczególny reżim testów szkodzi dzieciom, prowadzi do zubożenia szkolnych klas, nieuchronnie wprowadzając do ich życia wciąż nowe wersje uproszczonych testów, schematyczne scenariusze lekcji oferowane przez zewnętrznych dostawców, ograniczając autonomię nauczycieli. W ten sposób PISA podnosi jeszcze wystarczająco już wysoki poziom stresu w naszych szkołach, zagrażając samopoczuciu zarówno dzieci, jak nauczycieli.
Wszystko to stoi w otwartym konflikcie z szeroko akceptowanymi zasadami dobrej edukacji i demokratycznej praktyki:

• żadna reforma nie powinna opierać się na pojedynczej ocenie stosującej w dodatku szczególnie wąskie kryteria;

• żadna reforma nie może ignorować ważnej roli czynników pozaedukacyjnych, wśród których socjoekonomiczne nierówności pomiędzy krajami mają znaczenie przemożne. W wielu krajach, łącznie z USA, nierówności wzrosły dramatycznie na przestrzeni ostatnich 15 lat, co wyjaśnia rosnącą przepaść między edukacją bogatych i ubogich – żadna edukacyjna reforma, choćby doskonale zaprojektowana, nie ma wielkich szans na odwrócenie tego trendu;

• OECD, jak każda organizacja tak głęboko wpływająca na życie zainteresowanych krajów i środowisk, musi być otwarta na udział członków tych wspólnot w demokratycznych decyzjach jej dotyczących;

Piszemy nie tylko w celu wskazania wad i problemów. Chcemy również zaproponować konstruktywne pomysły i sugestie, które mogą złagodzić wskazane wyżej kłopoty. Lista nie jest żadną miarą kompletna, niemniej pokazuje, jak można próbować zmieniać edukację, unikając tego rodzaju negatywnych efektów ubocznych.

Należy zatem:

• opracować alternatywę dla rankingowych tabel: sposoby przedstawiania wyników, bardziej odporne na sensacyjne prezentacje w mediach i raportach. Porównywanie na przykład krajów rozwijających się, gdzie praca piętnastoletnich dzieci jest powszechną praktyką z krajami pierwszego świata nie ma żadnego sensu edukacyjnego ani politycznego, za to tworzy przestrzeń dla zarzutów edukacyjnego kolonializmu, wymierzonych w OECD;

• zapewnić miejsce w dyskusji oraz w podejmowaniu decyzji przedstawicielom odpowiednio do celów szerokiego spektrum środowisk i naukowych specjalności: obecnie największy wpływ na międzynarodową ocenę systemów edukacji mają specjaliści w dziedzinie psychometrii, statystyki i ekonomii. Oczywiście należy im się miejsce przy stole, ale należy się ono również bardzo wielu innym grupom: rodzicom, edukatorom, przedstawicielom administracji, liderom lokalnych wspólnot, uczniom wreszcie, jak również naukowcom z takich dziedzin jak antropologia, socjologia, językoznawstwo oraz sztuka i dyscypliny humanistyczne. Pytanie, co i jak próbujemy mierzyć w międzynarodowych ocenach systemów edukacji powinno się stać przedmiotem dyskusji angażującej wskazane środowiska na lokalnym, krajowym i międzynarodowym poziomie;

• włączyć w określanie celów, standardów i metod badania systemów edukacji organizacje krajowe i międzynarodowe, których cele wykraczają poza ekonomiczne aspekty publicznej oświaty i które koncentrują się na zagadnieniach zdrowia, rozwoju osobowości, satysfakcji i szczęściu uczniów oraz nauczycieli. Lista powinna zawierać wspomniane wyżej organizacje ONZ, ale również organizacje nauczycieli, rodziców i pracowników administracji, by wymienić tylko kilka z bardzo długiej listy;

• ujawnić bezpośrednie i pośrednie koszty badań PISA, tak, by podatnicy zainteresowanych krajów byli w stanie wskazać alternatywne sposoby wydawania milionów dolarów i by mogli zdecydować, czy partycypacja w PISA jest rzeczywiście tym, czego chcą;

• zaprosić niezależne zespoły fachowców do obserwacji i kontroli badań PISA i stosowanych w nich procedur od ich określania do wykonania, by problematyczne kwestie dotyczące statystycznych metod i algorytmów obliczania punktacji mogły być uczciwie skonfrontowane z podnoszonymi zarzutami;

• ujawnić szczegóły zaangażowania i rolę komercyjnych podmiotów w przygotowaniach, przeprowadzeniu i publikowaniu badań PISA, by uniknąć rzeczywistego lub pozornego konfliktu interesów związanych z ewentualną podwójną działalnością;

• wyhamować rozpędzoną lokomotywę testów. By zyskać czas na dyskusję o podniesionych tu sprawach na szczeblu lokalnym, krajowym i międzynarodowym, należy rozważyć pominięcie kolejnego cyklu badań. Dałoby to szansę na wykorzystanie zbiorowej wiedzy wynikającej z sugerowanych rozważań do stworzenia nowego, lepszego modelu badań
.

MEN potwierdziło, że Polska nadal będzie uczestniczyć w tych diagnozach. W studiach i rozprawach prof. Eugenii Potulickiej z UAM w Poznaniu mamy przekonujące dowody na to, że to Bank Światowy i OECD, a nie racje polskiego stanu i narodu wymagają zmian w strukturach systemów edukacji i programów kształcenia. Te zaś muszą być zgodne z oczekiwaniami ich beneficjentów.

Zanim bowiem ów Bank udzieli pomocy (gwarancji) finansowej państwom, które o nią zabiegają, musi mieć gwarancje sponsorowania powyższego konsorcjum. Poznańska pedagog słusznie zatem upomina się o to, by Polaków (...) skłonić do refleksji nad bezkrytycznym naśladowaniem tego, „co lepsze, bo zachodnie”, szczególnie na temat testów, ich jakości i wpływu na procesy nauczania-uczenia się. (Neoliberalne reformy edukacji w Stanach Zjednoczonych. Od Ronalda Reagana do Baraka Obamy, Kraków 2014, s. 20).

Nie przekonują mnie opublikowane w DGP argumenty dra hab. M. Fedorowicza, który tak tłumaczy lekki spadek wyników PISA w 2015 r. w stosunku do tych, jakie uzyskali nasi gimnazjaliści w 2012 r. Mówi bowiem: (...) zmiana może być efektem nowej technologii prowadzenia badania. – W tej edycji uczniów testowano wyłącznie przy użyciu komputerów. Za spadek może więc odpowiadać nie tyle ubytek wiedzy, ile słabsze umiejętności komputerowe uczniów.

Skąd to wie, skoro PISA nie weryfikuje tego typu zmiennej pośredniczącej? Po co takie wciskanie kitu czytelnikom? Nie ma znaczenia. Można w nieskończoność wymyślać powody tego stanu rzeczy. Dyrektor IBE M. Fedorowicz powiada zatem dla DGP:

"Na spadek Polski mogła nałożyć się jeszcze inna okoliczność. – W 2012 r. zmieniał się u nas egzamin gimnazjalny. Po raz pierwszy matematyka i nauki przyrodnicze były w osobnych arkuszach. Wiemy, że nauczyciele i uczniowie bali się tej zmiany i przykładali szczególną wagę do nauki. To mogło wpłynąć na bardzo wysokie wyniki PISA 2012 ".

Równie dobrze, można stwierdzić, że na pogorszenie się wyników wpłynęła zła pogoda w dniu , w którym prowadzono testy, albo uczniowie byli niewyspani, gdyż oglądali w nocy mecz bokserski lub szprycowali się dopalaczami. Co za różnica? W podobnym stylu wypowiada się b. wiceminister edukacji M. Jakubowski. Sposób "naciągania" w interpretacji danych jest równie demagogiczny:

"(...) gimnazja pomagają uczniom z biedniejszych rodzin znacznie lepiej niż szkoły w innych krajach. Może to być związane z faktem, że w wielu krajach 15-latkowie uczęszczają już do różnego typu szkół. Wielu uczniów z biedniejszych rodzin trafia do szkół zawodowych, gdzie nie uczy się przedmiotów przyrodniczych."

Każdy argument w stylu "mogła..., mogło..." jest tak samo prawdziwy, jak ten, że nie mogła czy nie mogło. Tak to jest, kiedy socjolodzy interpretują wyniki diagnoz osiągnięć szkolnych, ale nigdy nie pracowali w szkole, nie znają literatury przedmiotu i nie wiedzą, od czego w istocie może zależeć taki czy inny wynik jednorazowego pomiaru wiedzy i umiejętności.

Czytajmy wyniki PISA i potraktujmy je jako dobrą zabawę, grę, która kosztuje budżet państwa dziesiątki milionów złotych, ale w żadnej mierze nie przyczynia się do jakiejkolwiek poprawy jakości kształcenia dzieci i młodzieży. PISA tego nie mierzy. To jest monitoring polityczny dla celów, które mają niewielki związek z edukacją i troską o naszych uczniów.

Poprzedni rząd pijarowo wykorzystywał niektóre wyniki PISA, by stwierdzić, jak było cudownie w polskiej edukacji, a obecny będzie wyrażał sceptycyzm, bo jeszcze nie zorientował się, na czym polega ta rankingowa, a kosztowna zabawa. Beneficjenci znajdą się zarówno wśród zwolenników, jak i oponentów. Ofiarami tej gry stają się uczniowie.

Polecam do ćwiczeń z krytycznego myślenia:

A. Wittenberg - PISA 2015: Gimnazja wyrównały szanse, ale i tak znikną;

Wyniki badania PISA 2015 – prezentacja Instytutu Badań Edukacyjnych;

PISA 2015. Polska na 22. miejscu z wynikiem powyżej średniej OECD. Liderami Singapur, Japonia i Estonia;

Wyniki badania PISA 2015.

Na stronie IBE jest Raport PISA 2015.