Ministerstwo Nauki i Szkolnictwa Wyższego afirmuje badania OECD, globalnej organizacji, która utrzymuje się ze środków państw członkowskich od 30 września 1961 r. Badania TALIS KTS 2024 miały rzekomo posłużyć do porównań międzynarodowych, ale kadra IBE-PIB postanowiła zadowolić się porównaniem z państwami, które w wiekszości swojej małości do OECD nie należą.
Zawsze lepiej jest dla populistycznej władzy i dla celów propagandowych porównywać się ze słabszymi, bo wśród 8 państw osiągnęliśmy drugie miejsce! Sam zachwyt nad tym stanem papierowej "rywalizacji" powinien już nam zrekompensować wydatki na te pseudobadania.
W grupie państw należących do OECD są: Australia, Austria, Belgia, Chile, Czechy, Dania, Estonia, Finlandia, Francja, Grecja, Hiszpania, Holandia, Irlandia, Islandia, Izrael, Japonia, Kanada, Republika Korei, Litwa, Łotwa, Luksemburg, Meksyk, Niemcy, Norwegia, Nowa Zelandia, Polska, Portugalia, Słowacja, Słowenia, Stany Zjednoczone, Szwajcaria, Szwecja, Turcja, Węgry, Wielka Brytania i Włochy.
Nie ma tam Chorwacji, Arabii Saudyjskiej, Południowej Afryki i Maroko. Mieliśmy zatem godnych konkurentów.
Przy zaledwie 8 państwach nie należy przeceniać wartości rzekomo wartościowych porównań międzynarodowych. Korzyść dla Polski nie polega głównie na „rankingu w skali świata”, tylko na rzekomej diagnozie własnego systemu wy-kształcenia nauczycieli przy użyciu wystandaryzowanego narzędzia OECD.
Raport wyraźnie wskazuje, że celem TALIS jest dostarczanie danych pomocnych w monitorowaniu i doskonaleniu polityk edukacyjnych na rzecz jakości kształcenia oraz efektywności i stabilności kadr.
Warto zatem dociekać, czy rzeczywiście badanie w module KTS daje Polsce twardy pomiar wiedzy pedagogicznej nauczycieli, a nie tylko ich deklaracji. Ponoć TKS mierzyło wiedzę naszych belfrów z zakresu nauczania, uczenia się i oceniania, pomijając ich osobiste źródła wiedzy. Dzięki temu - zdaniem autorów raportu - można zobaczyć nie tylko, co nauczyciele o sobie myślą, ale jaki jest rzeczywisty rozkład kompetencji poznawczych z punktu widzenia tej profesji.
Ponoć TALIS KTS 2024 pozwala rozpoznać wewnętrzne słabości polskiego modelu przygotowania i doskonalenia nauczycieli. Jak twierdzą jego autorzy, przykładowo: w Polsce większość nauczycieli osiąga poziom 2, a 25% poziom 3; jednocześnie tylko 44% deklaruje przygotowanie do wspierania samoregulacji ucznia, 49% do teorii uczenia się, a 50% do psychologii rozwojowej. Mogłoby się wydawać, że są to bardzo konkretne sygnały dla uczelni akademickich, by uwzględniły wyniki tej diagnozy w kształceniu przyszłych nauczycieli.

Badanie ponoć także ujawnia, że problem polskiej szkoły nie leży „między szkołami”, ile wewnątrz szkół i w kadrze nauczycielskiej. Raport stwierdza, że tylko 3% zróżnicowania wyników wyjaśnia poziom szkoły, a więc szkoły różnią się niewiele, natomiast znacznie różnią się nauczyciele w obrębie tych samych placówek. To ma ogromne znaczenie dla polityki edukacyjnej, bowiem pokazuje, że samo administrowanie strukturą szkoły nie wystarczy, jeśli nie poprawi się jakości formacji zawodowej nauczycieli.
Zdaniem autorów raportu TKS pozwala on zobaczyć, które obszary (nie-)wiedzy nauczycielskiej są szczególnie wymagające. Raport pokazuje niższe wyniki m.in. wśród nauczycieli wychowania fizycznego, sztuki oraz — wyłącznie w Polsce — religii lub etyki. Wskazuje też, że standard przygotowania pedagogicznego jest formalnie jeden, ale jego jakość może się różnić zależnie od ukończonego kierunku studiów czy trybu studiów dyplomowych, szkoleń itp. Daje to podstawę do bardziej selektywnej, a nie ogólnej polityki doskonalenia.
Autorzy sugerują sens połączenia danych z modułu TKS z danymi z podstawowego badania TALIS 2024. Raport zaznacza, że ponieważ oba badania prowadzono w tych samych szkołach, można łączyć wyniki z odpowiedziami nauczycieli i dyrektorów. TKS nie jest zatem tylko jednorazowym testem wiedzy, ale może służyć do głębszej analizy zależności między wiedzą pedagogiczną a organizacją szkoły, warunkami pracy, składem uczniów czy kulturą szkół.
Zobaczmy na przykładzie zadania oznaczonego jako rys. 3.3. Narzędzie diagnostyczne nie bada realnego myślenia pedagogicznego nauczyciela w konkretnej sytuacji, lecz jego zgodność z wcześniej ustalonym kluczem reakcji. Zadanie „Reakcja nauczyciela” zostało zaklasyfikowane do domeny „uczenie się”, jako wiedza teoretyczna, z treścią: „aktualne priorytety w edukacji”, a poprawność odpowiedzi została zamknięta w kluczu właściwego wskazania.
Właśnie w tym tkwi problem. Zaprzeczenie pedagogiki polega tu na tym, że istnieje jedna słuszna reakcja nauczyciela, która jest niezależna od wieku ucznia, jego wcześniejszych doświadczeń, stanu emocjonalnego, dynamiki grupy, historii relacji z nauczycielem, kontekstu lekcji, a nawet kultury szkoły.
Jeżeli zadanie sugeruje, że poprawna reakcja jest z góry dana i mierzalna w oderwaniu od tych zmiennych, to nauczyciel zostaje potraktowany nie jak podmiot profesjonalnego rozstrzygnięcia, lecz jak wykonawca poprawnej procedury. To bardziej logika testu zgodności z normą niż logika racjonalności pedagogicznej.
Można to ująć jeszcze inaczej: w takim zadaniu uczeń przestaje być osobą, a staje się nośnikiem sytuacji testowej. Nie ma tu miejsca na różnicę między dziećmi, na ich odmienny rytm rozwoju, odmienną wrażliwość, doświadczenie porażki, oporu, lęku czy motywacji. Jest tylko modelowa sytuacja i modelowa reakcja. A przecież właśnie to, że dzieci nie są takie same, stanowi punkt wyjścia pedagogiki do pracy z nimi.
Dlatego zadanie 3.3 nie tyle bada „wiedzę pedagogiczną”, ile sprawdza, czy nauczyciel rozpozna pożądaną odpowiedź wpisaną w aktualny dyskurs edukacyjny. Sam raport to zresztą ujawnia, wpisując zadanie w kategorię „aktualne priorytety w edukacji”, a nie np. w analizę złożonego przypadku wychowawczego.
To jest kolejny przykład erozji norm epistemicznych: zamiast badania profesjonalnych przekonań nauczycieli mamy test zgodności z ideologicznym kluczem redakcji raportu.
Raport TALIS KTS 2024 zawiera fundamentalne błędy metodologiczne, co sprawia, że jego wartość jest zerowa. Otrzymaliśmy bowiem artefakty. Dopuściła do ich publikacji recenzentka ze stopniem doktora, a przecież w Radzie Naukowej IBE-PIB są także profesorowie. Czyżby było im to obojętne?
Narzędzie diagnostyczne zostało utworzone bez udziału polskich
ekspertów, a zatem nie uwzględnia krajowego kontekstu badań wiedzy i przekonań nauczycieli w tym zakresie,
który czyniłby je porównywalnymi. To jest poważny zarzut epistemologiczny, który nie jest domysłem, ani czyjąkolwiek złośliwością, lecz wynika z treści samego raportu.
Autorzy piszą, że ostateczna
operacjonalizacja wiedzy pedagogicznej i narzędzie badawcze uwzględniały
konsultacje z ekspertami 7 krajów uczestniczących w KTS oraz analizę ich standardów
zawodowych, ale zarazem dopowiadają w przypisie, że Polska nie uczestniczyła
w tych pracach, ponieważ dołączyła do badania później.
To
oznacza, że polski pomiar został włączony do gotowej już ramy
konceptualnej, a był współtworzył jej założenia i trafność narzędzi od samego początku. Z metodologicznego
punktu widzenia rodzi to poważne problemy.
Po
pierwsze, osłabia to trafność kulturową i systemową narzędzia w odniesieniu do Polski, w tym kompromitujące autorów zadanie. Jeżeli konstrukt „wiedzy pedagogicznej” oraz zadania
pomiarowe były dopracowywane bez udziału polskich ekspertów, to nie mamy prawa do jego zastosowania, skoro nie ma podstaw merytorycznych co do pewności, czy to, co mierzy narzędzie, rzeczywiście pokrywa się z polskim
rozumieniem profesjonalizmu nauczycielskiego, standardów przygotowania
pedagogicznego i praktyki szkolnej.
Po
drugie, osłabia to moc porównań międzynarodowych. Raport odwołuje się do
„międzynarodowej porównywalności” narzędzia, ale ta porównywalność była
wcześniej weryfikowana w innych ustrojach państwowych, jeszcze przed wejściem
Polski do projektu. Innymi słowy: dla Polski porównywalność została raczej założona
i przeniesiona, niż rzeczywiście współwypracowana od podstaw.
Po
trzecie, powstaje ryzyko błędu kategorii: badanie TKS mierzyło bowiem nie tyle
uniwersalną „wiedzę pedagogiczną”, ile znajomość określonego, z góry
zdefiniowanego transnarodowego kanonu pedagogicznego, który nie jest kanonem dla tych państw. Sam raport mówi zresztą o
„kanonie wiedzy” i „aktualnych priorytetach w edukacji” jako podstawie konstrukcji
zadań. Tym samym nie jest to neutralny opis rzeczywistości, lecz wejście w obszar
selekcji tego, co ma być uznane za prawomocną wiedzę.
Po
czwarte, skoro w pilotażu jakościowym uczestniczyło sześć krajów poza Polską i Chile, to tym bardziej trudno twierdzić, że polska recepcja
treści zadań, ich jednoznaczność, adekwatność językowa i zgodność z krajową
kulturą kształcenia zostały gruntownie sprawdzone na etapie tworzenia
narzędzia.
Moim zdaniem to unieważnia wyniki badania, zdecydowanie podważając siłę roszczenia do pełnej porównywalności i osłabia
epistemiczną legitymizację wniosków odnoszonych do Polski.
Polska została w tym pomiarze potraktowana przez IBE bardziej jako odbiorca gotowej
matrycy pomiaru niż jako współtwórca definicji tego, co w ogóle ma uchodzić
za mierzalną wiedzę pedagogiczną. Nie jest to drobny szczegół naruszenia procedur w badaniach międzynarodowych, ale także kwestia władzy nad konstrukcją kategorii poznawczej. To
jest fundamentalny błąd.
Po co badać rzekomo porównywalność wiedzy dydaktycznej nauczycieli w krajach, w których nie kształci się kandydatów do tej profesji na podstawie tych samych źródeł wiedzy?
To jest kolejny absurd. Badanie
TKS opiera się na założeniu, że istnieje „wspólna dla zawodu
nauczycielskiego baza specjalistycznej wiedzy teoretycznej i praktycznej”,
niezależna od przedmiotu nauczania, a w istocie także wystarczająco wspólna między
krajami, by można ją było mierzyć jedną skalą.
Powyższe założenie jest tu
kompromitującym IBE-PIB ogniwem. Kandydaci do zawodu nauczyciela zostali wykształceni w różnych państwach, ale nie na podstawie tych samych teorii kształcenia. Nie przeszli przez te same modele przygotowania zawodowego. Nie funkcjonują w tej samej kulturze dydaktycznej, szkolnej i nie uczą w oparciu o te same cele edukacji szkolnej, tradycje pedagogiczne i profesjonalne standardy.
W
tej sytuacji porównywanie ich „wiedzy pedagogicznej” tak, jakby chodziło o
jeden wspólny, transnarodowy zasób wiedzy, jest metodologicznie niewłaściwe.
Trafniej byłoby powiedzieć, że badanie porównuje nie „wiedzę nauczycieli jako
taką”, lecz stopień zgodności nauczycieli z określoną, uprzednio
zdefiniowaną matrycą wiedzy pedagogicznej OECD, ale i w tym przypadku dokonano nadużycia interpretacyjnego.
Raport
próbuje to uzasadnić, twierdząc, że operacjonalizacja wiedzy pedagogicznej
miała wyodrębniać te elementy, które są „uniwersalne międzykulturowo” i
mają związek z osiągnięciami uczniów. Pojawia się zatem zasadnicze
pytanie: kto i na jakiej podstawie rozstrzyga, co jest naprawdę uniwersalne?
Sam wybór tego, co uznano za „uniwersalne”, jest już aktem teoretycznym i
kulturowym, a nie neutralnym założeniem badawczym.
Inaczej
mówiąc: godząc się na udział w tym poseudonaukowym pomiarze kadry IBE-PIB zaakceptowały wspólność zjawisk, które dopiero należałoby dowieść.
Najpierw przyjęto, że istnieje wspólna baza wiedzy nauczycielskiej, potem
powstało narzędzie, a następnie ogłoszono, że dzięki temu można porównywać nauczycieli w każdym kraju .
To jest poważny błąd, gdyż porównywalność nie zostaje tu w pełni wykazana,
lecz zostaje wcześniej wpisana w założenia konstrukcji badania.
Co
więcej, raport sam przypomina, że wiedza nauczyciela jest dynamiczna i zależy
od zmieniających się celów edukacji, technologii, przemian społecznych,
migracji, heterogeniczności klas i rozwoju nauk o uczeniu się. Skoro tak, to
tym bardziej trudno utrzymywać, że da się ją sprowadzić do jednego,
ponadnarodowego rdzenia, mierzalnego w identyczny sposób w tak odmiennych
systemach.
Zatem nie wolno bezmyślnie, niekompetentnie porównywać wiedzę dydaktyczną nauczycieli z tak odległych kulturowo i ustrojowo państw, jeśli nie istnieje wspólna formacja źródłowa tej wiedzy. W takim układzie wynik kraju mówi raczej o tym, jak blisko jego nauczyciele
lokują się wobec uznawanego przez OECD modelu, niż o tym, jaki jest ich
rzeczywisty poziom profesjonalizmu w obrębie własnej tradycji pedagogicznej.
TKS
nie zmierzył zatem „wiedzy nauczycielskiej w ogóle”, lecz zmierzył zgodność z określoną, rzekomo kanoniczną definicją wiedzy nauczycielskiej, a to nie jest to samo.