26 lutego 2018

Dlaczego studenci psychologii boją się zajęć ze statystyki i metodologii badań?




Na to pytanie nie znajdziemy jeszcze odpowiedzi, jeżeli interesują nas postawy polskich studentów wobec powyższej kwestii. Maria Flakus i Maria Chełkowska-Zacharewicz z Instytutu Psychologii Uniwersytetu Śląskiego dopiero pracują nad adaptacją narzędzia diagnostycznego, za pomocą którego zamierzają zmierzyć postawy wobec statystyki oraz badań naukowych naszej młodzieży. Pani M. Flakus ma za sobą analizę literatury przedmiotu, bowiem dokonała przeglądu literatury związanej z istniejącymi już wynikami badań dotyczących kształcenia przyszłych psychologów w zakresie przedmiotów związanych z metodologią badań naukowych oraz metodami badań statystycznych. Tekst na ten temat znajdziemy w najnowszym numerze kwartalnika "Edukacja" (2017 nr 4), który jest też dostępny online.

W związku z tym, że autorki adaptują narzędzie diagnostyczne autorstwa Papanastasiou sensowne jest zastanowienie się nad następującym wnioskiem tej uczonej z jej badań (2014): (...) studenci miewają tendencję do mylnego utożsamiania przedmiotów stricte metodologicznych ze statystyką. Prowadzi to do przekonania, że brak umiejętności matematyczno-statystycznych (związanych zwłaszcza z ilościową analizą danych) uczyni niemożliwym uzyskiwanie pozytywnych ocen na kursach poświęconych prowadzeniu badań naukowych Można przypuszczać, że lęk związany z kontekstem planowania i przeprowadzania badań empirycznych może wynikać z wykształconej wcześniej postawy wobec statystyki". (s. 77)

Skoro studiujący psychologię mają z tym problem, to co dopiero mówić o pedagogach. W czasie moich studiów obowiązkowe były ćwiczenia z "metod badań statystycznych", dzięki czemu każdy absolwent mógł w ramach podjętej pracy naukowo-badawczej dokonać wyboru paradygmatu badawczego, gdyż uzyskiwał wiedzę także z metodologii badań jakościowych. Przypuszczam, że systemowa "bolonizacja" kształcenia pedagogów z podziałem na studia I stopnia - zawodowe i II stopnia - uzupełniające doprowadziła do wyeliminowania statystyki z programów kształcenia. Na studiach I stopnia okazuje się, że zajęcia ze statystyki są zbyteczne jako zbyt trudne. Absolwenci mają być przygotowani do realizowania praktycznych rozwiązań, wdrażania już obowiązujących metodyk kształcenia, wychowania, opieki czy resocjalizacji zgodnie z postulowanym przez władze modusem "dobrych praktyk".

Już na wejściu popełnia się kardynalny błąd w kryteriach przyjęć na studia pedagogiczne pomijając wyniki egzaminu maturalnego z matematyki! To sprawia, że środowisko pedagogiczne i nauczycielskie po kierunkach humanistycznych nie jest zdolne do krytycznego analizowania wyników badań krajowych i międzynarodowych, które dotyczą uwarunkowań kształcenia i osiągnięć szkolnych uczniów. Nie rozumieją polityków, którzy w celach propagandowych serwują społeczeństwu wyniki pseudodiagnoz czy badań opinii publicznej jako rzekomo odpowiadające rzeczywistości, gdyż nie są zdolni krytycznie analizować przedstawiane w debatach publicznych rezultaty sondaży diagnostycznych czy nawet wyników międzynarodowych badań porównawczych nastolatków.

Tymczasem M. Flakus relacjonując wyniki badań zagranicznych postaw studentów wobec statystyki pisze: "Badania pokazują, że im lepsze były wczesne doświadczenia związane z nauką matematyki i statystyki, oraz im lepsza była ocena nauczycieli na wczesnych etapach edukacji, tym lepsze jest nastawienie uczniów i studentów. (...) Związek między wyższym poziomem lęku przed matematyką a niższym poziomem rozwiązywania zadań wymagających zaangażowania umiejętności matematycznych można zaobserwować u uczniów już w pierwszych latach nauki w szkole" (s. 80)

Autorka nie czyta literatury pedagogicznej, toteż przywołuje zagranicznych badaczy, co nie najlepiej świadczy o jej warsztacie badawczym. Co jak co, ale badania w zakresie edukacji matematycznej już wśród dzieci w wieku przedszkolnym od kilkudziesięciu lat prowadzi prof. dr hab. Edyta Gruszczyk-Kolczyńska, więc byłoby dobrze, żeby psycholodzy zaczęli rozglądać się także w rodzimej literaturze naukowej, gdyż wnioski z niej płynące są bardziej znaczące ze względu na kontekst kulturowy i aksjonormatywny.

Zupełnie nie przekonuje pani M. Flakus przywoływaniem założeń badawczych (bo wyników w ogóle nie przywołuje) w zakresie doszukiwania się "związku między wyższym poziomem lęku przed matematyką a niższym poziomem rozwiązywania zadań wymagających zaangażowania umiejętności matematycznych (...) u uczniów już w pierwszych latach nauki w szkole" , bowiem sięga do prac George'a i Kaplana, Astone'a i McLanahana, Epstein i Carrasquillo itd., które akurat w tym przypadku są najmniej przydatne i wiarygodne. Dotyczą bowiem czynników środowiskowych, głównie środowiska rodzinnego, rówieśniczego oraz kultury szkoły, a te są zdecydowanie odmienne ze względu na inne warunki ustrojowe, socjalne, ekonomiczne i kulturowe naszego społeczeństwa. Autorka źle tłumaczy obce teksty myląc istotność nauki (ba, nawet postawy wobec nauki) z istotą uczenia się. Tu powinna jednak dokształcić się pedagogicznie, jeśli rzeczywiście chce badać predyktory osiągnięć akademickich studentów psychologii. Postawy wobec badan naukowych nie są bowiem tożsame z postawami wobec uczenia się.

Tego typu badania psycholodzy powinni prowadzić wspólnie z pedagogami, bo przecież to, jakie psycholodzy czy studenci innych kierunków nauk społecznych mają kompetencje metodologiczne zależy nie tylko od ich lęków, uprzedzeń czy nawet środowiskowych zmiennych, ale w dużej mierze od jakości kształcenia akademickiego. Nie jest bez znaczenia to, kto edukuje młodzież, jakie ma kompetencje, czy sam prowadził badania w każdym z paradygmatów i jakie przekazuje treści oraz jak kształci ich kompetencje. Skupienie się tylko i wyłącznie na diagnozie postaw niczego nie wyjaśnia, ani też niczego nie zmienia. Szkoda zatem na to pary i kasy.

25 lutego 2018

JAK MŁODZIEŻ WYBIERA STUDIA?


W serii "Policy Notes" ukazała się wspólna publikacja Fundacji Naukowej Evidence Institute oraz Związku Nauczycielstwa Polskiego, w której autorzy Tomasz Gajderowicz, Maciej Jakubowski i Jerzy Wiśniewski udzielają odpowiedzi na diagnostyczne pytanie: JAK MŁODZIEŻ WYBIERA STUDIA? Częściowo słusznie wskazują już we wstępie na to, że: Wybór kierunku studiów jest jedną z ważniejszych decyzji w życiu każdego maturzysty – warunkuje bowiem możliwości dalszej drogi życiowej i kariery zawodowej. W skali kraju te wybory kształtują przyszłe zasoby kapitału ludzkiego i potencjał rozwojowy całej gospodarki.

Dlaczego ta diagnoza jest częściowo słuszna? Z bardzo prostego powodu. Badacze już na wstępie założyli, że (...) wybory młodzieży mają fundamentalne znaczenie dla rozwoju gospodarki i społeczeństwa kluczowe staje się pytanie, na ile państwo może kształtować te wybory i na nie wpływać. Nie wzięli bowiem pod uwagę tego, że wybór kierunku studiów wcale nie jest podyktowany interesem gospodarki czy społeczeństwa, gdyż młodzież ma te czynniki w dalekim poważaniu.

Młodzież nie wybiera kierunku studiów tylko dlatego, żeby lepiej rozwijała się polska gospodarka czy społeczeństwo. Fałszywe założenie znalazło zresztą już przed tą quasi diagnozą zaprzeczenie w przywołanej z 2015 r. publikacji autorów z Wydziału Nauk Ekonomicznych Uniwersytetu Warszawskiego (Sztanderska i Grotkowska, którzy wykazali, że do najważniejszych czynników warunkujących wybór studiów należą:

• zgodność kierunku studiów z zainteresowaniami,

• łatwość znalezienia pracy po studiach,

• prestiż zawodu wykonywanego po danych studiach,

• pracochłonności w czasie studiów,

• wysokość oczekiwanych dochodów.

W toku studiów powyższe uwarunkowania ulegają pewnej modyfikacji zarówno ze względów osobistych jak i wymagań, które są stawiane studentom przez nauczycieli akademickich.

Tymczasem, jak piszą autorzy reportu Evidence i ZNP (...) można poprzez rozwijanie zainteresowań w toku edukacji szkolnej i informowanie uczniów o sytuacji na rynku pracy można tak kształtować wybór kierunków studiów, aby lepiej odpowiadał potrzebom gospodarki. Powraca stara nuta ingerowania przez władze w indywidualne wybory w taki sposób, by w wyniku różnego rodzaju ułatwień, preferencji czy korzyści młodzież wybierała nie to, co jest zgodne z jej zainteresowaniami, wysokością oczekiwanych zarobków czy nawet prestiżem wykonywanego w przyszłości zawodu, ale wynika z etatystycznie wygenerowanej pokusy studiowania wbrew osobistym preferencjom i kompetencjom.

Mieliśmy już w minionych latach dopłacanie młodzieży za podejmowanie studiów na tzw. kierunkach zamawianych przez rząd, tyle tylko że w kilkudziesięciu procentach były to zmarnowane pieniądze publiczne. Studiujący skonsumowali stypendia a studiów nie ukończyli, a jeśli nawet, to nie podjęli pracy w spodziewanym przez resort zawodzie. Jeśli nawet podjęli, to... poza granicami kraju.

Co to za propagandowi "mędrcy", którzy niczego nie badając wmawiają innym potoczne sądy?

Dlatego zastanawia mnie komu potrzebny jest taki quasi raport, kilkustronicowa powtórka z danych statystycznych, które interpretuje się w ideologiczny sposób, bo przecież autorzy tego materiału nie prowadzili badań terenowych, tylko dokonali wtórnej analizy już istniejących danych. Co to za raport, który nie zawiera ani jednego zdania na temat metodologii stanowiącej podstawę do zaprezentowania rzekomo wyników własnych badań?

Taki kit można wciskać niedouczonym politykom, ignorantom i urzędnikom MNiSW. Oni zawsze coś z tego wybiorą dla siebie, by wprowadzić rzekomo naukowe analizy do publicznego dyskursu. Niestety, ale formułowane w tym materiale wnioski są brane z sufitu, jak np. "Trzeba jednak brać pod uwagę, że o ile wysoki prestiż zawodu jest istotnie i pozytywnie związany z preferencjami kandydatów na studia, o tyle wpływ prestiżu naukowego uczelni na wybory jest niejednoznaczny – dla części kandydatów wysoka renoma naukowa odstrasza od wybrania danej uczelni."

Każdy z zamieszczonych wykresów można dowolnie interpretować, skoro są to tylko i wyłącznie dane statystyczne, za którymi nie kryją się żadne naukowe badania rzeczywistych uwarunkowań wyboru studiów.

24 lutego 2018

Po co "Raport o czasopismach naukowych" ?


Trzeba było czekać kilka lat, aż łaskawie Komitet Ewaluacji Jednostek Naukowych zainteresuje się jakościową oceną czasopism naukowych. Szkoda, że przeprowadzona ocena jakościowa wszystkich periodyków z listy B, której dokonali profesorowie z komitetów naukowych Polskiej Akademii Nauk w 2015 roku! została zlekceważona. Pisałem o tym w blogu, a także przekazałem uwagi do Ministerstwa. Emanuel Kulczycki nie raczył uwzględnić w swoim Raporcie tego, że przy Ministerstwie Nauki i Szkolnictwa Wyższego został powołany w dniu 2 czerwca 2015 r. Zespół w sprawie kryteriów i trybu oceny czasopism naukowych. Dla nauk humanistycznych i społecznych Zespołowi przewodniczył prof. dr hab. Krzysztof Mikulski, zaś ośmiu ekspertom z pedagogiki przewodniczyła prof. dr hab. Henryka Kwiatkowska.

Powołany we współpracy z PAN zespół dokonał po raz pierwszy od pięciu lat jakościowej oceny czasopism naukowych z wykazu B. Ministerstwo Nauki i Szkolnictwa Wyższego wyraziło zgodę na przeprowadzenie tej oceny, bo za ocenę parametryczną odpowiadał KEJN, ale nie wyraziło zgody na to, by miała ona właściwy takim ocenom charakter. Jeżeli bowiem była akceptacja dla przeprowadzenia oceny czasopism naukowych, to powinna ona mieć dwoisty wymiar, a mianowicie:

1) przyznanie punktów tym, które zasługiwały na to (dopiero zarejestrowane i jeszcze bez punktów)

2) na podwyższenie punktacji pismom, których poziom uległ zdecydowanej poprawie;

3) zmniejszenie liczby punktów lub usunięcie z wykazu tych, które okazały się pseudonaukowymi periodykami.

Tymczasem KEJN wyraził zgodę tylko na pozytywną ocenę jakości czasopism. Oznaczało to, że eksperci analizujący zawartość periodyków i wszystkie elementy związane z ich procesem wydawniczym nie mogli wskazać ministrowi czasopism, które - w świetle oceny jakościowej - należałoby natychmiast usunąć z wykazu B lub co najmniej obniżyć punktację.

Muszę odnotować jeszcze jeden fakt historyczno-akademicki z powodu niewiedzy E. Kulczyckiego, że w latach 2007-2010 miała miejsce w MNiSW jakościowo-ilościowa ocena czasopism . Został wówczas powołany Zespół ds. oceny czasopism naukowych, który miał ekspertów z każdej dziedziny nauk. Profesorowie spotykali się co najmniej dwa razy w roku na specjalnych sesjach, w trakcie których prezentowali oceny jakościowe zarejestrowanych czasopism oraz uzasadniali powody przyznania poszczególnym tytułom punktów. Doskonale pamiętam, jak istotne były ustalenia kryteriów ocen oraz konieczność weryfikowania danych, które przekazywały redakcje czy wydawcy czasopism naukowych.

Obowiązywał wówczas rzetelny system odwoławczy. Przedstawiciel-ekspert dyscypliny naukowej, do której było przypisane czasopismo musiał wyjaśnić komisji i zainteresowanym, dlaczego periodykowi X przyznano 0, 2, 4 lub 6 punktów, i z czego to wynikało. Do ministerstwa musiały być nadsyłane komplety każdego tytułu za ostatni rok, zaś ekspert miał prawo żądać wyjaśnień i dowodów od redakcji na zapisane w arkuszu rejestracyjnym dane. To była rzetelna i uczciwa ewaluacja czasopism naukowych.

Okazało się, że wiele redakcji ordynarnie kłamało, wprowadzało fałszywe informacje lub niepełne dane. Ukrywano rzekomo zewnętrzne afiliacje autorów lokalnego, uczelnianego pisma w ten sposób, że podawali oni miejsce swojego drugiego czy nawet trzeciego zatrudnienia, byle tylko uzyskać wyższy wskaźnik oceny parametrycznej.

Liczba patologii i konieczność przechowywania w szafach resortu tysięcy już egzemplarzy czasopism sprawiła, że MNiSW postanowiło pozbyć się problemu. To prof. B. Kudrycka uwolniła urzędników i ich szafy od prowadzenia dokumentacji i przechowywania periodyków do kontroli, by przejść na system pozoranctwa. Od 2011 roku mamy bowiem tylko i wyłącznie ocenę parametryczną dokumentacji elektronicznej czasopism bez weryfikacji wiarygodności danych. Ta, jak wspomniałem powyżej, miała jednorazowo miejsce w 2015 r. w wymiarze pracy społecznej i tylko o charakterze pozytywnym.

Po opublikowaniu przez Emanuela Kulczyckiego z KEJN "Raportu - Podstawowe Informacje o Polskich Czasopismach Naukowych" w 2018 roku zobaczyłem, że mamy do czynienia z paradoksalną sytuacją. "Cezurą czasową jest rok 2011, w którym został wdrożony nowy model oceny czasopism naukowych na potrzeby Kompleksowej Ewaluacji Jednostek Naukowych dokonywanej przez Ministerstwo Nauki i Szkolnictwa Wyższego.

O ile profesorowie PAN musieli w ciągu dwóch miesięcy społecznie ocenić wartość czasopism naukowych z listy B, a w wielu dyscyplinach było tak - jak np. w pedagogice, że musieliśmy w ciągu miesiąca ocenić ponad 190 tytułów zarejestrowanych w tej dyscyplinie, o tyle członek KEJN zrealizował zadanie o charakterze ilościowym w ciągu roku ze środków budżetowych w ramach projektu „Badanie wzorców doskonałości w nauce i sztuce” w ramach programu Ministra Nauki i Szkolnictwa Wyższego pod nazwą „DIALOG” (2017-2019).

Jak napisał twórca Raportu:

"Celem niniejszego raportu jest prezentacja informacji o polskich czasopismach naukowych. Uwzględnione zostały czasopisma ze wszystkich obszarów nauki, które – według źródeł je indeksujących – uznawane są za czasopisma naukowe. Dane na temat wydawanych czasopism naukowych w Polsce są rozproszone i niepełne. Jednocześnie wiele gromadzonych informacji nie jest publicznie dostępna bądź odpowiednio eksponowana. Dlatego istotne jest pokazanie tego, co wiemy o polskich
czasopismach oraz wskazanie, czego nie wiemy, a powinniśmy wiedzieć, aby prowadzić efektywną politykę wydawniczą: zarówno na poziomie pojedynczego czasopisma i wydawnictwa, jak i na poziomie kraju."


Tym samym odsłonięto i potwierdzono zarazem to, o czym mówili członkowie Zespołu Ekspertów PAN, że to KEJN przyznawał punkty czasopismom mimo braku danych, nieodpowiedniego ich wyeksponowania, bez jakiejkolwiek weryfikacji rzetelności tych danych. W ten sposób wiele periodyków otrzymało wysoką punktację na podstawie fałszywych danych i niesprawdzalnych w ramach oceny parametrycznej informacji oraz całkowicie pominiętej zawartości treści. Teraz postanowiono dociec zakresu patologii i braków.

Przeczytałem ten Raport. Ciekaw byłem, czy zatem powołany i finansowany przez resort zespół przeprowadził rzetelną ocenę, a w każdym razie podjął takie starania. W moim przekonaniu takie zadanie jest niemożliwe do zrealizowania w zespole, który nie ma kompetentnych sędziów, ekspertów w poszczególnych dyscyplinach znających bardzo dobrze środowisko naukowe, wydawców i publikujących na łamach pism autorów. To, co zaproponował zespół pod kierunkiem dra hab. E. Kulczyckiego musiało zatem spalić na panewce, ale za to bardzo dobrze posłuży władzom do demagogicznego przekonywania akademickiego środowiska o konieczności likwidacji wykazu B czasopism krajowych.

Jak piszą autorzy Raportu, a co dyskwalifikuje jego wartość ze względu także na wyżej wspomniane przez nich powody diagnozy: "Dlatego zadaniem raportu jest wskazanie, jakie informacje o polskich czasopismach są dostępne oraz co na ich podstawie można powiedzieć o praktykach wydawniczych". Innymi słowy, podjęto się oceny czasopism ze względu na to, że nie ma odpowiednich danych na stronach wydawców i w wypełnionych formularzach rejestracyjnych, albo są te dane przekłamane. Jako żywo, nie po raz pierwszy widzę taki nonsens metodologiczny.