25 kwietnia 2026

Nauczyciel nie jest knowledge workerem

 


 


(Gemini AI)

 

Badacze przyjęli założenie, że: "Nauczyciele to pracownicy wiedzy (knowledge workers) – ich zawód wymaga specyficznej, właściwej dla obszaru działalności, specjalistycznej wiedzy" . To jest kolejny nonsens takich badań. Nauczyciele nie są pracownikami wiedzy, toteż należy sformułować zarzut nie tyle empiryczny, ile ontologiczny i epistemologiczny.

Faktem jest, chociaż już mocno osłabionym przez dostęp uczniów do wiedzy globalnej, że zawód nauczycielski wymaga specyficznej, specjalistycznej wiedzy właściwej dla tej działalności publicznej. To nie jest wynik badania, lecz teza wstępna, która w sposób ukryty redukuje sens tego zawodu: z relacji wychowawczej ku zasobowi wiedzy, z praktyki społeczno-moralnej ku kompetencji poznawczej i z odpowiedzialności za uczniów ku sprawności operowania profesjonalnym repertuarem pojęć, strategii i procedur.

Nie można zgodzić się z tezą, że nauczyciel jest tylko, a może nawet przede wszystkim, „pracownikiem wiedzy”, skoro - przynajmniej w Polsce - jest on kreatorem relacji wychowawczych, przewodnikiem rozwoju, organizatorem środowiska uczenia się, interpretatorem ludzkich konfliktów i zdarzeń rozwojowych, mediatorem norm i wartości, a nie wykonawcą pracy analogicznej do eksperta od analizy danych czy inżyniera wiedzy.

Innymi słowy nauczyciel posługuje się wiedzą, ale nie staje się nauczycielem z tego właśnie powodu. To nie wiedza konstytuuje istotę tego zawodu, lecz odpowiedzialność za drugiego człowieka w procesie jego rozwoju. W tym sensie kategoria knowledge workers jest redukcyjna, traktująca nauczycieli jako przekaźników i egzekutorów wiedzy. Redukuje się tym samym zawód nauczyciela jedynie do tego, co w jego pracy da się zmierzyć testem poznawczym. 

Takie podejście prowadzi do bardzo poważnego zniekształcenia, gdyż zaczyna się badać nauczyciela tak, jakby był głównie nośnikiem zasobu wiedzy, podczas gdy jego praktyka obejmuje także sąd moralny, takt pedagogiczny, intuicję sytuacyjną, odpowiedzialność, zdolność budowania relacji i rozumienia kontekstu. Tych wymiarów TKS nie mierzy, bo z definicji nie może, ale przypisuje sobie prawo do rozstrzygania o tym, jakimi są polscy nauczyciele.

Można więc postawić tezę, że badanie TKS opiera się na antropologii zawodu nauczycielskiego, która jest zbyt wąska, redukcyjna, powierzchowna i nieadekwatna do standardów kształcenia w Polsce. Mamy tu doi czynienia z klasycznym mechanizmem metodologicznej redukcji, w ramach którego najpierw zawęża się przedmiot badań, potem konstruuje narzędzie do pomiaru tego zawężenia, a na końcu ogłasza się, że zmierzono „kompetencje pedagogiczne nauczyciela”. Gdzie tu jest pedagogika? 

 

Zajrzyjmy na s. 16: 

"Dane samoopisowe. Odpowiedzi na pytania ankietowe gromadzące informacje kontekstowe w badaniu TKS są deklaracjami nauczycieli biorących udział w badaniu i odzwierciedlają ich opinie oraz subiektywne postrzeganie badanych zjawisk. Dane uzyskane w ten sposób mogą się różnić od danych pozyskanych z innych źródeł lub innymi metodami. Prezentują jednak perspektywę nauczycieli i dają wgląd w ich postrzeganie badanych zjawisk. Przy interpretacji danych samoopisowych należy brać pod uwagę (OECD, 2026)" 

Narzędzie do badań powstało w 2014 roku bez udziału polskich ekspertów, ale badacze IBE-PIB piszą, że należy interpretować wyniki zgodnie z modelem OECD z 2026 roku! Kompletny absurd. Jak można tak się kompromitować? Można. Papier wszystko przyjmie a kadra kierownicza będzie z samozachwytem opowiadać, jak znaczące to były badania. Reguły interpretacji zostały dopisane post factum, już po badaniu, co osłabia zaufanie do przejrzystości procedury.

W raporcie widać, że autorzy odwołują się do dwóch różnych poziomów dokumentacji: do wcześniejszego frameworku konceptualnego OECD 2025 oraz do Technical Report OECD 2026, czyli zapewne końcowej dokumentacji technicznej całej edycji TALIS 2024. Innymi słowy, 2026 może tu oznaczać rok wydania dokumentacji końcowej, a nie moment powstania samych zasad metodologicznych.

Jeśli nawet tak jest, to problem pozostaje. Nie dlatego, że „nie należy” uwzględniać dokument z 2026 roku, lecz dlatego, że raport nie porządkuje chronologii i statusu źródeł metodologicznych. Czytelnik powinien dostać jasną informację: co było założeniem przyjętym przed badaniem, co było częścią narzędzia i procedury terenowej oraz co jest późniejszym opracowaniem technicznym opisującym już zrealizowane badanie.

Tego rozdzielenia tu brakuje. Zamiast tego można mieć wrażenie, że autorzy swobodnie mieszają: historię konstrukcji narzędzia, realizację badania i późniejszą dokumentację OECD. W nauce nie jest to redakcyjny drobiazg, tylko kwestia kontroli nad statusem twierdzeń metodologicznych. 

Powyższe podważa wiarygodność naukową tych badań, bo w rzetelnym raporcie metodologia musi być nie tylko poprawna, ale także czasowo i logicznie przejrzysta.

Na stronie 16 raportu TALIS KTS 2024 odnajduję kolejną, kuriozalną treść: 

"Związki przyczynowo-skutkowe. 

Badanie TKS nie pozwala na jednoznaczne ustalenie związków przyczynowo-skutkowych, np. określenie, jakie strategie skutecznie budują wiedzę zawodową nauczycieli. Pozwalają określić kierunek (pozytywny lub negatywny), siłę i istotność statystyczną związków między zmiennymi". 

Dlaczego zatem właśnie tak zatytułowano ów akapit? Chyba tylko po to, by wszystkim się zdawało, że wykonawcy tego projektu ustalili związki przyczynowo-skutkowe. Nie. Nie zbadali ich. 

c.d.n. 

Fundamentalne błędy badania TALIS KTS 2024 kompromitują recenzentkę i Radę Naukową IBE PIB

 


Ministerstwo Nauki i Szkolnictwa Wyższego  afirmuje badania OECD, globalnej  organizacji, która utrzymuje się ze środków państw członkowskich od 30 września 1961 r. Badania TALIS KTS 2024 miały rzekomo posłużyć do porównań międzynarodowych, ale kadra IBE-PIB postanowiła zadowolić się porównaniem z państwami, które w wiekszości swojej małości do OECD nie należą. 

Zawsze lepiej jest dla populistycznej władzy i dla celów propagandowych porównywać się ze słabszymi, bo wśród 8 państw osiągnęliśmy drugie miejsce! Sam zachwyt nad tym stanem papierowej "rywalizacji" powinien już nam zrekompensować wydatki na te pseudobadania.         

W grupie państw należących do OECD są: Australia, Austria, Belgia, Chile, Czechy, Dania, Estonia, Finlandia, Francja, Grecja, Hiszpania, Holandia, Irlandia, Islandia, Izrael, Japonia, Kanada, Republika Korei, Litwa, Łotwa, Luksemburg, Meksyk, Niemcy, Norwegia, Nowa Zelandia, Polska, Portugalia, Słowacja, Słowenia, Stany Zjednoczone, Szwajcaria, Szwecja, Turcja, Węgry, Wielka Brytania i Włochy. 

Nie ma tam Chorwacji, Arabii Saudyjskiej, Południowej Afryki i Maroko. Mieliśmy zatem godnych konkurentów.


Przy zaledwie 8 państwach nie należy przeceniać wartości rzekomo wartościowych porównań międzynarodowych. Korzyść dla Polski nie polega głównie na „rankingu w skali świata”, tylko na rzekomej diagnozie własnego systemu wy-kształcenia nauczycieli przy użyciu wystandaryzowanego narzędzia OECD. 


Raport wyraźnie wskazuje, że celem TALIS jest dostarczanie danych pomocnych w monitorowaniu i doskonaleniu polityk edukacyjnych na rzecz jakości kształcenia oraz efektywności i stabilności kadr.


Warto zatem dociekać, czy rzeczywiście badanie w module KTS daje Polsce twardy pomiar wiedzy pedagogicznej nauczycieli, a nie tylko ich deklaracji. Ponoć TKS mierzyło wiedzę naszych belfrów z zakresu nauczania, uczenia się i oceniania, pomijając ich osobiste źródła wiedzy. Dzięki temu - zdaniem autorów raportu - można zobaczyć nie tylko, co nauczyciele o sobie myślą, ale jaki jest rzeczywisty rozkład kompetencji poznawczych z punktu widzenia tej profesji.

Ponoć TALIS KTS 2024 pozwala rozpoznać wewnętrzne słabości polskiego modelu przygotowania i doskonalenia nauczycieli. Jak twierdzą jego autorzy, przykładowo: w Polsce większość nauczycieli osiąga poziom 2, a 25% poziom 3; jednocześnie tylko 44% deklaruje przygotowanie do wspierania samoregulacji ucznia, 49% do teorii uczenia się, a 50% do psychologii rozwojowej. Mogłoby się wydawać, że są to bardzo konkretne sygnały dla uczelni akademickich, by uwzględniły wyniki tej diagnozy w kształceniu przyszłych nauczycieli. 


Badanie ponoć także ujawnia, że problem polskiej szkoły nie leży „między szkołami”, ile wewnątrz szkół i w kadrze nauczycielskiej. Raport stwierdza, że tylko 3% zróżnicowania wyników wyjaśnia poziom szkoły, a więc szkoły różnią się niewiele, natomiast znacznie różnią się nauczyciele w obrębie tych samych placówek. To ma ogromne znaczenie dla polityki edukacyjnej, bowiem pokazuje, że samo administrowanie strukturą szkoły nie wystarczy, jeśli nie poprawi się jakości formacji zawodowej nauczycieli.

Zdaniem autorów raportu TKS pozwala on zobaczyć, które obszary (nie-)wiedzy nauczycielskiej są szczególnie wymagające. Raport pokazuje niższe wyniki m.in. wśród nauczycieli wychowania fizycznego, sztuki oraz — wyłącznie w Polsce — religii lub etyki. Wskazuje też, że standard przygotowania pedagogicznego jest formalnie jeden, ale jego jakość może się różnić zależnie od ukończonego kierunku studiów czy trybu studiów dyplomowych, szkoleń itp. Daje to podstawę do bardziej selektywnej, a nie ogólnej polityki doskonalenia.

Autorzy sugerują sens połączenia danych z modułu TKS z danymi z podstawowego badania TALIS 2024. Raport zaznacza, że ponieważ oba badania prowadzono w tych samych szkołach, można łączyć wyniki z odpowiedziami nauczycieli i dyrektorów. TKS nie jest zatem tylko jednorazowym testem wiedzy, ale może służyć do głębszej analizy zależności między wiedzą pedagogiczną a organizacją szkoły, warunkami pracy, składem uczniów czy kulturą szkół.


Zobaczmy na przykładzie zadania oznaczonego jako rys. 3.3. Narzędzie diagnostyczne nie bada realnego myślenia pedagogicznego nauczyciela w konkretnej sytuacji, lecz jego zgodność z wcześniej ustalonym kluczem reakcji. Zadanie „Reakcja nauczyciela” zostało zaklasyfikowane do domeny „uczenie się”, jako wiedza teoretyczna, z treścią: „aktualne priorytety w edukacji”, a poprawność odpowiedzi została zamknięta w kluczu właściwego wskazania.  


Właśnie w tym tkwi problem. Zaprzeczenie pedagogiki polega tu na tym, że istnieje jedna słuszna reakcja nauczyciela, która jest niezależna od wieku ucznia, jego wcześniejszych doświadczeń, stanu emocjonalnego, dynamiki grupy, historii relacji z nauczycielem, kontekstu lekcji, a nawet kultury szkoły. 

Jeżeli zadanie sugeruje, że poprawna reakcja jest z góry dana i mierzalna w oderwaniu od tych zmiennych, to nauczyciel zostaje potraktowany nie jak podmiot profesjonalnego rozstrzygnięcia, lecz jak wykonawca poprawnej procedury. To bardziej logika testu zgodności z normą niż logika racjonalności pedagogicznej.

Można to ująć jeszcze inaczej: w takim zadaniu uczeń przestaje być osobą, a staje się nośnikiem sytuacji testowej. Nie ma tu miejsca na różnicę między dziećmi, na ich odmienny rytm rozwoju, odmienną wrażliwość, doświadczenie porażki, oporu, lęku czy motywacji. Jest tylko modelowa sytuacja i modelowa reakcja. A przecież właśnie to, że dzieci nie są takie same, stanowi punkt wyjścia pedagogiki do pracy z nimi.

Dlatego zadanie 3.3 nie tyle bada „wiedzę pedagogiczną”, ile sprawdza, czy nauczyciel rozpozna pożądaną odpowiedź wpisaną w aktualny dyskurs edukacyjny. Sam raport to zresztą ujawnia, wpisując zadanie w kategorię „aktualne priorytety w edukacji”, a nie np. w analizę złożonego przypadku wychowawczego. 

To jest kolejny przykład erozji norm epistemicznych: zamiast badania profesjonalnych przekonań nauczycieli mamy test zgodności z ideologicznym kluczem redakcji raportu.


Raport TALIS KTS 2024 zawiera fundamentalne błędy metodologiczne, co sprawia, że jego wartość jest zerowa. Otrzymaliśmy bowiem artefakty. Dopuściła do ich publikacji recenzentka ze stopniem doktora, a przecież w Radzie Naukowej IBE-PIB są także profesorowie. Czyżby było im to obojętne?  

Narzędzie diagnostyczne zostało utworzone bez udziału polskich ekspertów, a zatem nie uwzględnia krajowego kontekstu badań wiedzy i przekonań nauczycieli w tym zakresie, który czyniłby je porównywalnymi. To jest poważny zarzut epistemologiczny, który nie jest domysłem, ani czyjąkolwiek złośliwością, lecz wynika z treści samego raportu

Autorzy piszą, że ostateczna operacjonalizacja wiedzy pedagogicznej i narzędzie badawcze uwzględniały konsultacje z ekspertami 7 krajów uczestniczących w KTS oraz analizę ich standardów zawodowych, ale zarazem dopowiadają w przypisie, że Polska nie uczestniczyła w tych pracach, ponieważ dołączyła do badania później.

To oznacza, że polski pomiar został włączony do gotowej już ramy konceptualnej, a był współtworzył jej założenia i trafność narzędzi od samego początku. Z metodologicznego punktu widzenia rodzi to poważne problemy.

Po pierwsze, osłabia to trafność kulturową i systemową narzędzia w odniesieniu do Polski, w tym kompromitujące autorów zadanie. Jeżeli konstrukt „wiedzy pedagogicznej” oraz zadania pomiarowe były dopracowywane bez udziału polskich ekspertów, to nie mamy prawa do jego zastosowania, skoro nie ma podstaw merytorycznych co do pewności, czy to, co mierzy narzędzie, rzeczywiście pokrywa się z polskim rozumieniem profesjonalizmu nauczycielskiego, standardów przygotowania pedagogicznego i praktyki szkolnej.

Po drugie, osłabia to moc porównań międzynarodowych. Raport odwołuje się do „międzynarodowej porównywalności” narzędzia, ale ta porównywalność była wcześniej weryfikowana w innych ustrojach państwowych, jeszcze przed wejściem Polski do projektu. Innymi słowy: dla Polski porównywalność została raczej założona i przeniesiona, niż rzeczywiście współwypracowana od podstaw.

Po trzecie, powstaje ryzyko błędu kategorii: badanie TKS mierzyło bowiem nie tyle uniwersalną „wiedzę pedagogiczną”, ile znajomość określonego, z góry zdefiniowanego transnarodowego kanonu pedagogicznego, który nie jest kanonem dla tych państw. Sam raport mówi zresztą o „kanonie wiedzy” i „aktualnych priorytetach w edukacji” jako podstawie konstrukcji zadań. Tym samym nie jest to neutralny opis rzeczywistości, lecz wejście w obszar selekcji tego, co ma być uznane za prawomocną wiedzę.

Po czwarte, skoro w pilotażu jakościowym uczestniczyło sześć krajów  poza Polską i Chile, to tym bardziej trudno twierdzić, że polska recepcja treści zadań, ich jednoznaczność, adekwatność językowa i zgodność z krajową kulturą kształcenia zostały gruntownie sprawdzone na etapie tworzenia narzędzia.

Moim zdaniem to unieważnia wyniki badania, zdecydowanie podważając siłę roszczenia do pełnej porównywalności i osłabia epistemiczną legitymizację wniosków odnoszonych do Polski.

Polska została w tym pomiarze potraktowana przez IBE bardziej jako odbiorca gotowej matrycy pomiaru niż jako współtwórca definicji tego, co w ogóle ma uchodzić za mierzalną wiedzę pedagogiczną. Nie jest to drobny szczegół naruszenia procedur w badaniach międzynarodowych, ale także kwestia władzy nad konstrukcją kategorii poznawczej. To jest fundamentalny błąd.

Po co badać rzekomo porównywalność wiedzy dydaktycznej nauczycieli w krajach, w których nie kształci się kandydatów do tej profesji na podstawie tych samych źródeł wiedzy? To jest kolejny absurd. Badanie TKS opiera się na założeniu, że istnieje „wspólna dla zawodu nauczycielskiego baza specjalistycznej wiedzy teoretycznej i praktycznej”, niezależna od przedmiotu nauczania, a w istocie także wystarczająco wspólna między krajami, by można ją było mierzyć jedną skalą. 

Powyższe założenie jest tu kompromitującym IBE-PIB ogniwem. Kandydaci do zawodu nauczyciela zostali wykształceni w różnych państwach, ale nie na podstawie tych samych teorii kształcenia. Nie przeszli przez te same modele przygotowania zawodowego. Nie funkcjonują w tej samej kulturze dydaktycznej, szkolnej i nie uczą w oparciu o te same cele edukacji szkolnej, tradycje pedagogiczne i profesjonalne standardy.

W tej sytuacji porównywanie ich „wiedzy pedagogicznej” tak, jakby chodziło o jeden wspólny, transnarodowy zasób wiedzy, jest metodologicznie niewłaściwe. Trafniej byłoby powiedzieć, że badanie porównuje nie „wiedzę nauczycieli jako taką”, lecz stopień zgodności nauczycieli z określoną, uprzednio zdefiniowaną matrycą wiedzy pedagogicznej OECD, ale i w tym przypadku dokonano nadużycia interpretacyjnego.


Raport próbuje to uzasadnić, twierdząc, że operacjonalizacja wiedzy pedagogicznej miała wyodrębniać te elementy, które są „uniwersalne międzykulturowo” i mają związek z osiągnięciami uczniów. Pojawia się zatem zasadnicze pytanie: kto i na jakiej podstawie rozstrzyga, co jest naprawdę uniwersalne? Sam wybór tego, co uznano za „uniwersalne”, jest już aktem teoretycznym i kulturowym, a nie neutralnym założeniem badawczym.

Inaczej mówiąc: godząc się na udział w tym poseudonaukowym pomiarze kadry IBE-PIB zaakceptowały wspólność zjawisk, które dopiero należałoby dowieść. Najpierw przyjęto, że istnieje wspólna baza wiedzy nauczycielskiej, potem powstało narzędzie, a następnie ogłoszono, że dzięki temu można porównywać nauczycieli w każdym kraju . To jest poważny błąd, gdyż porównywalność nie zostaje tu w pełni wykazana, lecz zostaje wcześniej wpisana w założenia konstrukcji badania.

Co więcej, raport sam przypomina, że wiedza nauczyciela jest dynamiczna i zależy od zmieniających się celów edukacji, technologii, przemian społecznych, migracji, heterogeniczności klas i rozwoju nauk o uczeniu się. Skoro tak, to tym bardziej trudno utrzymywać, że da się ją sprowadzić do jednego, ponadnarodowego rdzenia, mierzalnego w identyczny sposób w tak odmiennych systemach.

Zatem nie wolno bezmyślnie, niekompetentnie porównywać wiedzę dydaktyczną nauczycieli z tak odległych kulturowo i ustrojowo państw, jeśli nie istnieje wspólna formacja źródłowa tej wiedzy. W takim układzie wynik kraju mówi raczej o tym, jak blisko jego nauczyciele lokują się wobec uznawanego przez OECD modelu, niż o tym, jaki jest ich rzeczywisty poziom profesjonalizmu w obrębie własnej tradycji pedagogicznej.

TKS nie zmierzył zatem „wiedzy nauczycielskiej w ogóle”, lecz zmierzył zgodność z określoną, rzekomo kanoniczną definicją wiedzy nauczycielskiej, a to nie jest to samo.


24 kwietnia 2026

O rzekomych zaletach badań TALIS TKS 2024

 



Przeczytałem raport  z badania wiedzy pedagogicznej nauczycieli  TALIS TKS 2024. Powinien to być dowód na poziom niekompetencji kadry kierowniczej IBE-PIB wraz z jej Radą Naukową. Jestem zdumiony, że można było coś tak absurdalnego sfinansować z budżetu państwa. Otrzymujemy kolejny materiał tego Instytutu  zaprzeczający wartości poznawczej (merytorycznej) badań - w tym przypadku na temat rzekomej wiedzy pedagogicznej nauczycieli. Tymczasem są one przykładem pseudonaukowych badań przeprowadzonych przez instytucję publiczną MEN.  

Zacznę jednak od tego, co wprowadza czytelników takiego raportu w błąd, a z racji braku wiedzy generuje potencjalny zachwyt nad rzekomym umiędzynarodowieniem diagnoz edukacyjnych. Nie można  przecież przystępować do lektury z jakimś uprzedzeniem, negatywnym nastawieniem. W końcu IBE-PIB opublikował raport z badań, które są pod auspicjami OECD.  

Zapytajmy zatem o korzyść z przeprowadzonej diagnozy, starając się ustalić jej beneficjentów, poza rzecz jasna tymi, którzy otrzymali za udział w tym projekcie stosowne honoraria.    

Najważniejsza korzyść jest taka, że państwa uczestniczące w badaniach OECD otrzymują rzekomo porównywalne międzynarodowo dane, które mogą służyć do monitorowania i doskonalenia polityki oświatowej na rzecz jakości kształcenia oraz stabilności i efektywności kadr oświatowych. Będący przedmiotem mojej recenzji Raport dotyczy programu TALIS, z udziału w którym powinny wynikać konkretne pożytki:

Po pierwsze, państwo powinno dostrzec, jak wygląda środowisko pracy nauczycieli i szkół z perspektywy samych praktyków — nauczycieli i dyrektorów placówek oświatowych. Mogłoby to być materiałem do diagnozy systemu szkolnego nie tylko na poziomie funkcji założonych w ustawie Prawo oświatowe, ale także realiów szkolnych.

Po drugie, w przypadku komponentu badań o nazwie TALIS TKS kraj społeczeństwo polskie powinno uzyskać pomiar wiedzy pedagogicznej nauczycieli w trzech obszarach: nauczanie, uczenie się i ocenianie, po to, by móc rozpoznać mocne strony i deficyty własnego systemu przygotowania oraz doskonalenia nauczycieli.

Po trzecie, takie badanie powinno dostarczyć danych o uwarunkowaniach tej wiedzy — np. związanych z przygotowaniem do zawodu, stażem, specjalizacją przedmiotową czy poczuciem sprawstwa nauczycieli. Dzięki temu MEN oraz MNiSW mogłyby lepiej projektować reformy kształcenia i doskonalenia nauczycieli.

Po czwarte, udział w takim badaniu powinien stworzyć możliwość porównań międzynarodowych, by tak obywatele, eksperci, jaki  i przede wszystkim władze oświatowe mogły sprawdzić, gdzie lokuje się wobec innych krajów nasz system kształcenia i doskonalenia zawodowego i czy jego wyniki są wyższe, niższe czy zbliżone do innych systemów edukacyjnych. 

Sam raport pokazuje właśnie takie zestawienia między ośmioma państwami, a są to "szczyty" światowej edukacji :) - USA, Chorwacja, Portugalia, Chile, Południowa Afryka, Arabia Saudyjska  i Maroko. Nareszcie dzięki badaniu IBE-PIB możemy dowiedzieć się, jak sytuują się wiedza i umiejętności pedagogiczne polskich nauczycieli na tym tle. Brawo.       

Po piąte, korzyścią udziału w tych badaniach miało być zapewne współtworzenie narzędzia i standardów diagnozowania powyższych kwalifikacji polskich nauczycieli. W raporcie zaznaczono, że ostateczna postać operacjonalizacji i narzędzia uwzględniała konsultacje z ekspertami z w/w krajów oraz analizę ich standardów zawodowych. Miałoby to oznaczać, że polskie nauczycielstwo stało się nie tylko „obiektem pomiaru”, ale współuczestniczyło w budowie ram porównania.

Podsumowując to, co zapewne zachwyci niekompetentnych dziennikarzy i kadry MEN oraz MNiSW, to rzekoma korzyść dla państwa sprowadzająca się nie tylko do miejsca w tym kompromitującym „rankingu”, lecz na uzyskaniu diagnostycznego lustra dla własnej polityki oświatowej.

W następnych odcinkach wykażę, na co państwo polskie wyrzuca setki tysięcy złotych do kosza. Ściągnijcie sobie ten pseudoraport, bo warto omówić go ze studentami nauk społecznych - nauk o polityce, nauk prawnych,  socjologii, pedagogiki, a nawet psychologii.  W końcu od tylu lat zachęcamy do myślenia krytycznego, z którego nie potrafią korzystać nawet w Radzie Naukowej IBE-PIB, to nie dajmy sobie wciskać kitu.   

cdn.