19 stycznia 2026

Asymetria pokoleniowa wobec AI w edukacji – stan badań, luki i hipotezy badawcze


 (źródło: Grafika: koncept i generacja – ChatGPT (OpenAI) 



Dotychczasowy stan badań nad postawami wobec sztucznej inteligencji w edukacji – w tym nad różnicami pokoleniowymi – jest wyraźnie zdominowany przez badania sondażowe. Dotyczy to zarówno analiz prowadzonych w szkolnictwie wyższym (studenci vs nauczyciele), jak i badań obejmujących edukację K–12 (uczniowie, nauczyciele, rodzice).

Najczęściej spotykane są trzy typy "dowodów" empirycznych.

Po pierwsze, porównawcze badania ankietowe grup wiekowych lub generacyjnych, w których zmienną niezależną jest wiek (lub przypisana mu kategoria generacyjna), a zmiennymi zależnymi – deklarowane postawy wobec AI: gotowość do użycia, percepcja korzyści, percepcja zagrożeń, oczekiwania regulacyjne. Badania te dość konsekwentnie pokazują, że osoby młodsze (uczniowie, studenci) częściej deklarują użycie i akceptację AI jako narzędzia wspierającego uczenie się, natomiast osoby starsze (nauczyciele, kadra akademicka) częściej akcentują ryzyka etyczne, poznawcze i instytucjonalne.

Po drugie, sondaże ról edukacyjnych (uczniowie–nauczyciele–rodzice), w których różnice postaw korelują z wiekiem, ale także z pozycją w systemie edukacyjnym. Ten typ badań pokazuje istotną ambiwalencję młodszych respondentów: wysoki poziom adopcji AI współwystępuje z wysokim poziomem obaw dotyczących uzależnienia poznawczego, spadku samodzielności czy jakości uczenia się. Wyniki te podważają uproszczony obraz młodego pokolenia jako bezrefleksyjnie entuzjastycznego wobec technologii.

Po trzecie, badania ogólnospołeczne stratyfikowane według wieku, które – choć nie zawsze koncentrują się bezpośrednio na edukacji – wskazują, że młodsi dorośli częściej niż starsi przewidują negatywne skutki AI dla ludzkich kompetencji (kreatywność, relacje społeczne, myślenie krytyczne). To istotny kontekst interpretacyjny dla badań edukacyjnych, sugerujący, że większy niepokój młodszych nie jest anomalią, lecz elementem szerszego wzorca.

Warto dostrzec ograniczenia metodologiczne dominujących w społeczeńtwie  sondaży opinii różnych środowisk.

Choć przywołane badania dostarczają istotnych danych opisowych, ich wartość wyjaśniająca pozostaje ograniczona. Dominacja sondaży ilościowych wiąże się z kilkoma powtarzalnymi problemami metodologicznymi.

Po pierwsze, badania te mierzą deklaracje, a nie procesy motywacyjne. Odpowiedzi respondentów informują, co myślą o AI, ale rzadko pozwalają odpowiedzieć na pytanie, dlaczego myślą w ten sposób. Kategorie takie jak „obawa”, „entuzjazm” czy „niepewność” pozostają deskryptywne i nie są osadzane w kontekście doświadczeń edukacyjnych, relacji władzy czy praktyk instytucjonalnych.

Po drugie, w większości badań wiek pełni funkcję zmiennej zastępczej. Różnice przypisywane „pokoleniu” mogą równie dobrze wynikać z roli systemowej (uczeń vs nauczyciel), poziomu odpowiedzialności instytucjonalnej lub ekspozycji na konsekwencje regulacyjne. Brakuje modeli analitycznych, które pozwalałyby rozdzielić efekt wieku od efektu pozycji w strukturze edukacyjnej.

Po trzecie, badania te mają zazwyczaj charakter przekrojowy, co uniemożliwia wnioskowanie przyczynowe. Nie wiemy, czy obawy młodszych są efektem oddziaływań dorosłych, doświadczeń własnych, narracji medialnych czy dynamiki rówieśniczej – a być może kombinacji wszystkich tych czynników.

Nie bez ukrytej intencji jest hipoteza „straszenia” i jej status empiryczny.

Hipoteza, zgodnie z którą większy niepokój młodszych wobec AI może być efektem permanentnego alarmizowania przez dorosłych (rodziców, nauczycieli, decydentów, media), jest teoretycznie spójna, lecz obecnie słabo przetestowana empirycznie.

W dostępnych badaniach nie pojawiają się bezpośrednie miary:

  • ekspozycji uczniów na przekazy alarmistyczne,
  • źródeł obaw (rodzina, szkoła, media, rówieśnicy),
  • relacji między narracjami dorosłych a internalizacją lęku przez młodych.

Jednocześnie dane empiryczne nie przeczą tej hipotezie. Wysoki poziom obaw młodszych współwystępuje z intensywną obecnością dyskursów ryzyka w debacie publicznej i szkolnej. Jednak na gruncie istniejących sondaży nie da się rozstrzygnąć, czy strach młodych jest przede wszystkim wtórny wobec narracji dorosłych, czy raczej wynika z bezpośredniego doświadczenia intensywnego użytkowania technologii.

Jakie hipotezy są dziś testowalne?

Na podstawie dotychczasowego stanu badań można sformułować kilka hipotez, które są empirycznie testowalne, ale wymagają odejścia od prostych sondaży.

Po pierwsze, hipoteza mediacji narracyjnej: wpływ wieku na postawy wobec AI jest mediowany przez ekspozycję na alarmistyczne narracje dorosłych. Test wymagałby pomiaru zarówno postaw, jak i częstotliwości oraz źródeł komunikatów ostrzegawczych.

Po drugie, hipoteza doświadczenia użytkowego: wyższy poziom obaw młodszych wynika z intensywniejszego i bardziej świadomego kontaktu z AI. Wymagałoby to powiązania danych o faktycznym użyciu (częstotliwość, cele, kontekst) z deklarowanymi obawami.

Po trzecie, hipoteza konfliktu normatywnego: młodsi internalizują sprzeczne komunikaty – z jednej strony zachęty do innowacyjności, z drugiej ostrzeżenia moralne – co prowadzi do ambiwalentnych postaw wobec AI. Testowalne byłoby to w badaniach jakościowych i panelowych.

Czy da się przewidzieć lub wpłynąć na  kierunki dalszych badań w powyższym zakresie?

Jeśli badania nad AI w edukacji mają wyjść poza opis deklaracji, konieczne jest włączenie metod jakościowych (wywiady pogłębione, fokusy), projektów podłużnych oraz analiz instytucjonalnych. Dopiero takie podejścia pozwolą uchwycić mechanizmy socjalizacji technologicznej, relacje władzy międzypokoleniowej i realne źródła niepokoju młodych ludzi.

Na obecnym etapie można stwierdzić jedno: asymetria pokoleniowa wobec AI w edukacji jest empirycznie widoczna, lecz jej interpretacja pozostaje otwarta. Bez pogłębienia metodologicznego ryzykujemy, że różnice te będą nadal opisywane językiem stereotypów, zamiast analizowane jako złożone efekty kulturowe, instytucjonalne i komunikacyjne.

 


18 stycznia 2026

O cyfrowej entropii szkoły wyższej w badaniach Andrzeja Paradysza

 


Kilka miesięcy temu ukazała się książka Andrzeja Paradysza, która bardzo dobrze wpisuje się we współczesną krytykę pozorowanej transformacji cyfrowej w szkolnictwie wyższym.  Problem należy do wyjątkowo niewygodnych, toteż może właśnie dlatego sięgnąłem po jego książkę. 

Jego studia i badania empiryczne wnoszą bowiem argument kontrintuicyjny, który podważa jedną z najczęściej powtarzanych tez w debacie o cyfryzacji szkolnictwa wyższego, jeden z jej komponentów dydaktycznych. W tym przypadku dotyczy on prywatnej uczelni, która działa na konkurencyjnym rynku, kształci  m.in. informatyków, specjalistów w zakresie zrządzania, a zatem cyfryzację ma wpisaną nie tylko w strategię, ale wręcz w tożsamość instytucjonalną.

Tego typu szkoły wprawdzie nie są politechnikami, uniwersytetami klasycznymi, ale też nie należą do niedofinansowanych technologicznie, skoro chcą być rynkowo atrakcyjne dla swoich klientów. Jeśli gdziekolwiek transformacja cyberedukacji miałaby się sprawdzać, to właśnie w politechnikach, na uniwersyteckich wydziałach nauk ścisłych, jak i w wyższej szkole oferującej m.in. powyższe studia.

Znaczenie ewaluacyjnych w swej istocie badań A. Paradysza polega na pokazaniu, że głoszony wysoki poziom kompetencji cyfrowych kadry nie przekłada się automatycznie na transformację dydaktyki ani organizacji danej instytucji. W badanej przez autora ksiązki uczelni działa infrastruktura, narzędzia są kadrze znane, informatyzacja procesów biurokratycznych jest zaawansowana, a mimo to model kształcenia pozostaje częściowo transmisyjny, nudny, staroświecki. Cyfryzacja wzmacnia istniejące hierarchie zamiast je przekształcać w kulturę 4.0, zaś technologia 2.0. służy efektywności operacyjnej, zamiast egzystencjalnie znaczącej refleksji naukowej, w tym pedagogicznej.

To uderza w mit, że wystarczy znać technologię, a reszta sama zaistnieje. Paradysz dostrzega, że cyfryzacja bywa narzędziem kontroli, a nie emancypacji. Bardzo wyraźnie pokazuje coś, co w teorii bywa pomijane lub celowo skrywane. Mam tu na uwadze to, że systemy cyfrowe są wykorzystywane głównie do monitorowania, standaryzacji, rozliczalności, a nie do personalizacji studiowania, nie do autonomii studenta, czy tym bardziej nie do dialogu dydaktycznego, jeśli prowadzącym zajęcia na tym nie zależy. Innymi słowy, cyfryzacja wzmacnia logikę administrowania, aniżeli logikę i rzeczywistą jakość studiowania.

Gdzie zatem jest „uniwersytet 4.0”? Chyba nie tylko tam, gdzie w każdej wsi jest WSI? Nie tylko prywatne uczelnie są laboratorium pozornej innowacji dydaktycznej.  Paradysz potwierdza w swojej rozprawie, że logika rynkowa nie sprzyja transformacji cyfrowej w sensie pedagogicznym, bo presja studenta jako klienta (szczególnie niestacjonarnego) sprzyja prostocie i przewidywalności. Innowacje dydaktyczne są ryzykowne a technologia służy raczej skalowaniu oferty niż jej pogłębianiu. Zrównoważony rozwój jest ideologicznym hasłem, skoro badani nawet nie wiedzą, co jest jego istotą. 

W efekcie e-edukacja zostaje sprowadzona do opakowania nowoczesności, a nie do zmiany relacji (auto-, socjo-) edukacyjnej. Paradysz ujawnia cząstkę swoich badań, które obalają argument, że niski poziom e-kształcenia jest kwestią jedynie jakiegoś zapóźnienia. Tak nie jest, skoro nawet „cyfrowo uprzywilejowane” uczelnie wpadają w tę samą pułapkę. Być może zatem problem jest także kulturowo-instytucjonalny a nie tylko technologiczny czy kompetencyjny. 

Autor wzmacnia swoją analizą tezę o cyfryzacji bez cyberpedagogiki, czyli o transformacji, która zmienia narzędzia, ale nie zmienia sensu kształcenia. Jeśli nawet uczelnia, która kształci informatyków, marketingowców nie potrafi przełożyć cyfryzacji na zmianę pedagogiczną, to problem nie leży w technologii, lecz w praktyce szkół wyższych, także uniwersytetów. Badania Paradysza są bezlitosne, toteż jego wnioski okazały się dlań niewygodne. 

Co Autor faktycznie pokazuje w swojej książce? Nie tylko to, że sprzęt i systemy się starzeją, ale model ich użycia starzeje się szybciej niż sama technologia, zaś szkoła wyższa zamraża rozwiązania w momencie wdrożenia tych narzędzi, gdyż brakuje w niej ciągłej rekonfiguracji kompetencji kadry nauczycielskiej i administracyjnej. W praktyce infrastruktura informatyczna staje się instytucjonalnym zabytkiema nie środowiskiem przygotowującym młodych dorosłych do życia i pracy w świecie onlife.  


17 stycznia 2026

O białych plamach „Białej Księgi”

 





W ostatnich miesiącach „Biała Księga AI w szkole” zaczęła funkcjonować w debacie publicznej jako niemal założycielski dokument dla rozmów o roli sztucznej inteligencji w polskiej edukacji. Kluczowe tezy tej publikacji są przywoływane w wystąpieniach konferencyjnych, cytowane w dokumentach programowych, a nawet wprost lub półgębkiem traktowane są jako dowód, że edukacja szkolna w Polsce już weszła w epokę sztucznej inteligencji. 

W tym właśnie miejscu zaczyna się postprawda i to nie dlatego, że dokument jest niekompetentny czy źle napisany. Przeciwnie, jest to spójne, erudycyjne opracowanie, napisane językiem rzekomo współczesnej polityki oświatowej, które zostało osadzone w raportach międzynarodowych. 

Problem polega na celowym wprowadzeniu czytelników w błąd dla usprawiedliwienia mylnej diagnozy systemowej, która powinna dotyczyć realnej praktyki szkolnej w naszym kraju. Autorzy zastosowali makropolityczną narrację przestrzeni, którą w rzetelnej analizie powinny konfrontacyjnie uzupełniać diagnozy w skali mikro- i mezoinstytucjonalnej systemu szkolnego.

Rzekoma diagnoza z tzw. "lotu ptaka" oznacza, że jej przedmiotem nie jest rzeczywista praca dydaktyczna nauczycieli w klasie szkolnej, ani też nie dotyczy ona zastosowania AI przez uczniów, lecz kreuje się architekturę systemu polityki publicznej, strategii państwa, globalnych trendów technologicznych, czy nawet zmian w paradygmatach dydaktycznych. Autorzy dociekają bowiem, czy polski system edukacji jest gotowy na cywilizacyjną zmianę wywołaną przez AI? Czy władze państwowe zaprojektowały warunki dla sensownego, etycznego i pedagogicznie uzasadnionego wykorzystania nowych technologii w procesie kształcenia młodych pokoleń?

Na tym poziomie diagnoza jest trafna i w dużej mierze bezlitosna. System jest reaktywny, fragmentaryczny i radykalnie spóźniony w stosunku do tego, jak kraje ościenne inwestują nie tylko w sprzęt do cyfrowej edukacji, ale przede wszystkim w kompetencje nauczycieli i uczniów, ich rodziców a nawet członków rodzin. Przeważają u nas parcjalne tematycznie i kompetencyjnie szkolenia zamiast stosowania długofalowych ścieżek rozwoju dzieci, młodzieży i osób dorosłych. Reaguje się głównie zakazem, tam, gdzie potrzebne jest rozumienie dynamiki zmian, które są konieczne w codziennym życiu technopolowych społeczeństw. 

Studia makropolityczne są ważne pod warunkiem, że uwzględniają diagnozy tego, co faktycznie dzieje się w szkołach. Nie podważam sensowności wiedzy, jaką otrzymujemy o państwie jako projektancie zmiany, jednak niewiele jest w raporcie mowy o szkole jako miejscu codziennej praktyki wspomagania lub hamowania rozwoju młodych generacji, a to jest zasadnicza różnica. Z perspektywy polityki publicznej widzimy, że system „nie jest gotowy”, zaś z perspektywy pedagogiki szkolnej jest to stanowczo za mało.

Nauczyciel wciąż jest postrzegany jako postulowana rola zawodowa. 

W „Białej Księdze” nauczyciel pojawia się dość często, ale niemal wyłącznie jako figura normatywna. Zgodnie z duchem czasu projektuje się potrzebę zmian oddziaływań osób podających wiedzę, narzucających zredukowane do curriculum kompetencje na rzecz bycia dla uczniów tutorem, przewodnikiem, partnerem uczenia się, architektem procesu dydaktycznego. Jest to wizja atrakcyjna, zgodna z nowoczesnymi koncepcjami pedagogicznymi i dobrze wpisująca się w język kompetencji przyszłości.

Problem jednak tkwi w tym, że jest to nauczyciel z projektu, a nie z empirycznego opisu. Nie wiemy, ilu nauczycieli rzeczywiście korzysta z AI i w jaki sposób. Nie wiemy, czy robią to świadomie, metodycznie, czy raczej doraźnie i „po cichu”. Nie dowiemy się, czy AI służy im do projektowania zadań, oceniania, komunikacji z uczniami, czy wyłącznie do przygotowania prezentacji i kart pracy. Nie wiemy wreszcie, jak nauczyciele radzą sobie z napięciami etycznymi, jakie AI wprowadza do codziennej pracy z oceną samodzielności, z odpowiedzialnością uczniów czy/i z presją rodziców.

W efekcie nauczyciel w „Białej Księdze” nie jest tym, którego spotkamy w powszechnej edukacji, ale tym, jakim on powinien się stawać. Normatywny nauczycieli nie negocjuje sensu swojej praktyki dydaktycznej z realnymi ograniczeniami systemu szkolnego, tylko ma realizować wizję, która – choć pedagogicznie może wydawać się sensowną – nie została skonfrontowana z rzeczywistością szkolną.

Uczniowie i ryby głosu nie mają?

Jeszcze wyraźniejsza luka w tym raporcie  dotyczy uczniów. W analizowanym tu dokumencie są oni przede wszystkim beneficjentami rzekomej personalizacji, wsparcia, wyrównywania szans, korzystania z nowych środków poznawczych. Otrzymujemy zatem wizerunek ucznia racjonalnego, refleksyjnego, gotowego do krytycznej współpracy z najnowszą technologią. 

Tymczasem badani przez nas uczniowie są strategicznymi dla niniejszego projektu aktorami zmiany. Oni od dłuższego czasu używają AI, by przyspieszyć drogę poznania, testują granice wiedzy, sprawdzają, co im wolno, a czego jeszcze nie zakazano. Młode pokolenie negocjuje sens uczenia się z algorytmem a nie z nauczycielami, którzy nie są do tego przygotowani (albo mentalnie, albo kompetencyjnie). Ono wie, że dzięki cyberprzestrzeni ma szybszy, cierpliwszy i mniej stresujący i wymagający dostęp do wiedzy niż oferowana jemu (ocenzurowana) wiedza przez szkołę (MEN).

„Biała Księga” nie pyta o to, jak AI zmienia motywację uczniów, ich wysiłek poznawczy, stosunek do autorstwa i odpowiedzialności, nie pyta, czy uczniowie traktują AI jako narzędzie rozwoju, czy jako protezę poznawczą. Bez tej wiedzy opowieść o kompetencjach przyszłości pozostaje deklaracją, a nie diagnozą, czego moglibyśmy się spodziewać.

Każda szkoła jest organizacją z własną kulturą, z nieformalnymi normami, lękami, strategiami unikania ryzyka, ale i z przeciwstawnymi im postawami części nauczycieli.

Nie wiemy, czy i jak AI jest przedmiotem rozmów na radach pedagogicznych. Nie wiemy, jaką rolę odgrywa dyrektor szkoły, który zamiast bycia lider zmiany, jako przedstawiciel nadzoru pedagogicznego jest strażnikiem spokoju czy administratorem ryzyka. Nie wiemy, jak na praktyki nauczycielskie wpływa presja rodziców, oczekujących jednocześnie „nowoczesności” i wysokich wyników egzaminacyjnych.

Tymczasem na tym właśnie poziomie szkoły jako instytucje o niskiej, przeciętnej czy elitarnej kulturze rozstrzyga się los każdej makrostrategii, a tym samym przyszłość uczniów. Bez diagnozy kultury organizacyjnej rekomendacje pozostają na papierze, a innowacja sprowadza się do indywidualnych, często ryzykownych eksperymentów nielicznych nauczycieli.

Analiza makro jest potrzebna, ale nie powinna być substytutem diagnoz empirycznych. Najpoważniejszy problem nie polega na samym braku diagnoz mikro i mezo, ale na tym, że makrodiagnoza zaczyna je zastępować. Wizja systemowa – zamiast być punktem wyjścia do badań terenowych – jest traktowana jako dowód, że zmiana już się dokonuje.

Im wyżej patrzymy, tym łatwiej uwierzyć, że proces transformacji jest w toku. Z góry nie widać jednak improwizacji, lęków i sprzeczności, które definiują codzienność szkoły. Nie widać nauczyciela, który nie wie, jak stymulować czy ocenić pracę ucznia. Nie widać dyrektora, który boi się skargi rodzica. Nie widać też ucznia, który nauczył się, że algorytm zawsze da mu właściwą odpowiedź.

Bez diagnozy mikro i mezo AI pozostanie w polskiej szkole nie tyle narzędziem zmiany, ile językiem uspokajania sumień lub wywoływania lęku. Szkoła zaś, zamiast stać się miejscem krytycznego oswajania technologii, pozostanie przestrzenią improwizacji, w której globalne wizje rozmijają się z lokalną codziennością.

Jeśli chcemy naprawdę rozmawiać o AI w edukacji, musimy zejść z poziomu strategii do poziomu szkół, bo inaczej białe księgi będą mnożyć się szybciej niż realna zmiana. 

 

(źródło: Sekcja Edukacji Cyfrowej Komitetu Informatyki PAN, Sztuczna inteligencja w polskiej szkole. Biała księga. Wnioski, spostrzeżenia, rekomendacje. Warszawa-Tarnów, maj 2025.)