12 lutego 2013

Nienaukowe raporty oświatowe


Namnożyło się nam raportów badawczych, wtórnych opracowań, pasożytniczych analiz, które nie mają nic wspólnego z dociekaniem prawdy o rzeczywistości. Byle ignorant może zgłosić do różnych instytucji rządowych lub pozarządowych wniosek o przeprowadzenie badań naukowych, ale kiedy zajrzymy do założeń metodologicznych, to okaże się, że nie są to własne badania terenowe, tylko ich imitacja typu „desk research” połączona z ankietkowaniem, którego poziom jest poniżej najsłabszej pracy licencjackiej.

Najpierw zaczyna się od „deskowania”, czyli zamiast rzetelnej analizy źródeł wtórnych, która polega na zebraniu i (re-)interpretacji danych dotyczących wybranego problemu, bez konieczności podejmowania pracy badawczej „w terenie”, mamy do czynienia z wklejaniem różnych danych bez składu i ładu. Tego typu pseudo diagnozy stały się bardzo modne, a niezorientowani dają na nie dość dużą kasę. Gdyby jeszcze zostały one pogłębione o konteksty historyczne, społeczne, polityczne, edukacyjne czy teoretyczne w ramach przyjętego paradygmatu badań, to przy dobrze określonych kryteriach wtórnej analizy treści danych empirycznych mógłby powstać bardzo interesujący dla współczesnych materiał wyjściowy do własnych badań. Niestety, niektórzy nie doczytali, nie zrozumieli.

Ostatnio trafił w moje ręce – wcześniej wyśmiany przez dziennikarza lokalnej prasy (co już jest świadectwem jego „jakości”) – materiał określony mianem „Raportu” z realizacji projektu naukowo-badawczego związanego z ofertą edukacyjną w szkolnictwie ponadgimnazjalnym w jednym z województw. Badaczami byli pracownicy naukowi jednego z uniwersytetów. Chyba nigdy nie pracowali w szkołach, w których postanowili coś zdiagnozować, toteż nic dziwnego, że ich oferta nie została poprzedzona żadnymi założeniami metodologicznymi. We wstępie do „Raportu” stwierdza się, że ów projekt zakładał przeprowadzenie badań. Koniec. Kropka. Co było ich przedmiotem, jaki był ich cel, jak brzmiał główny problem badawczy, jakie wynikały z niego zmienne i co miało być ich wskaźnikami? Tego nie wie nikt. Władze samorządowe dały na to „lipne badanie” kilkadziesiąt tysięcy złotych i nawet nikt z nich (poza wspomnianym dziennikarzem) nie zaprotestował, jak ów materiał został im przedłożony.

Tak zwani badacze najpierw przepisali dane statystyczne z opracowań GUS-owskich i OKE, a następnie przygotowali ankietki, których już w swoim „Raporcie” nie zamieścili, bo pewnie byłoby się czego wstydzić. Przekazali je do szkół i … czekali, aż zostaną im zwrócone. A młodzież, jak to młodzież. Jak otrzymała kwestionariusze, to zaczęła sobie je wypełniać tak, jak jej się zachciało. Dane, które pozyskano od dyrektorów szkół, określono mianem wyników badań. Tymczasem potrafi je zestawić każdy urzędnik miasta w ciągu kilku godzin. Tu zawracano głowę dyrektorom, by w odpowiednich rubrykach podali to, co i tak już dużo wcześniej przekazywali do organu prowadzącego szkołę.

To, co było zapowiadane, czyli analiza, w ogóle w tym „Raporcie” nie ma miejsca. Po prostu wymienia się pod tabelami dane, które zostały w nich zawarte bez jakiejkolwiek interpretacji. Wstyd i żenada, aczkolwiek zapewne nie wśród tych, którzy wytworzyli ten bubel. To niech wstydzą się chociaż zań ci, którzy wydali nań publiczne pieniądze… Eeee, pewnie też się nie wstydzą, bo niczego nędznego sami w tym nie widzą. Pozostaje mieć nadzieję, że „naukowcy” z uniwersyteckiej łaski zajrzą jeszcze kiedyś do podręcznika z metodologii badań. Może będą w stanie cokolwiek zrozumieć i zastosować w praktyce, bo tymczasem dali plamę.

Niech zatem udadzą się na konferencję, jaką organizuje w najbliższym czasie grupa socjologów z UŁ. Będzie to II Transdyscyplinarne Sympozjum Badań Jakościowych w Łodzi, 10 -12 czerwca 2013.