01 maja 2026

Nauka sama diagnozuje własną „pedagogikę lęku

 


Grafika wygenerowana i opracowana we współpracy z narzędziem AI ChatGPT (OpenAI)


Badacze państw Unii Europejskiej, w tym z Polski, prowadzą masowo, w ramach OECD, UE, UNICEF i na zlecenie firm IT diagnozy oraz publikują raporty o najsilniejszym „negatywnym nachyleniu” metodologicznym, które dotyczą dzieci i młodzieży w cyberprzestrzeni.  

OECD pisze wprost o ryzykach posługiwania się przez niepełnoletnich konsumentów telefonami komórkowymi, które determinują ich problemy zdrowotne, zaburzenia snu, przemoc (hejting, seksting itp.), upowszechnianie dezinformacji. Parlament Europejski koncentruje się na szkodach rozwojowych i „problematic use”, zaś UNICEF wskazuje na związek cyfryzacji z kryzysem zdrowia psychicznego młodych pokoleń. 

Tego typu podejście do diagnoz społecznych nie jest polską specyfiką, gdyż wpisuje się w interesy globalnych podmiotów gospodarczych i politycznych. Niektórzy naukowcy sami widzą problem „negatywnego skrzywienia” w tych diagnozach. Autorzy wspomnianego przeze mnie wczoraj badania EU Kids Online 2026 przyznali, że media i debata publiczna często „nadmiernie koncentrują się na ryzykach, pomijając korzyści”, jakie wynikają z korzystania przez dzieci i młodzież z technologii AI. Zwracają uwagę na to, że badania tej strefy aktywności są wykorzystywane przez polityków ze względu na kwestie bezpieczeństwa, a toteż nie odnoszą się do uwarunkowań integralnego rozwoju młodych pokoleń.

Dlaczego rośnie liczba raportów „negatywnych”? Powód tego jest realny (empiryczny), bowiem nie da się uciec od takich faktów, jak: powszechny dostęp do treści seksualnych i przemocy, cyberprzemocy, jak kwestia uzależnienia od cyfrowych mediów, algorytmizacja codziennego życia czy nowe ryzyka związane z rozwojem sztucznej inteligencji, deepfakami, manipulacją, hejtem. Jednym z powodów zainteresowania tą problematyką ma charakter metodologiczny, bowiem tego rodzaju badania są strukturalnie tendencyjne (bias). 

Łatwiej jest mierzyć ryzyko niż rozwój, łatwiej eksponować problemy z tym związane niż potencjał rozwojowy czy uzyskać finansowanie, które chętniej przeznacza się na kwestie związane z „zagrożeniami”. W efekcie bada się to, co budzi niepokój, bo to jest policzalne i „politycznie użyteczne”. 

Wytwarzanie lęku zaczyna się od selekcji wskaźników. Nie bada się wszystkiego, ale to, co jest mierzalne (czas ekranowy, pornografia), spektakularne (przemoc, uzależnienia) i politycznie użyteczne. Natomiast nie bada się równie intensywnie kompetencji cyfrowych, strategii radzenia sobie z mediami, pozytywnych funkcji technologii. W związku z tym nie ma się co dziwić, że powstaje asymetria poznawcza 

Jeszcze jednym powodem podejmowania badań o uzależnieniu od mediów w nurcie samopotwierdzającej się hipotezy jest powód polityczny. Raporty na ten temat są propagandowym "paliwem" dla decyzji w sprawie regulacji korzystania z platform (DSA, COPPA, zakazy), wprowadzania ograniczeń ze względu na wiek i kontrolowania algorytmów.  Przykładem jest finansowanie badań dotyczących „uzależniających algorytmów” TikToka. 

We Francji proponuje się ograniczenia wieku i „cyfrowe godziny policyjne”, zaś w Niemczech monitoruje, jak w poszczególnych krajach związkowych (Landy) wprowadzane są ograniczenia w dostępie dzieci do sieci. 

Być może najciekawszy powód tak powszechnego prowadzania badań w powyższym zakresie ma charakter kulturowy. W Europie, w tym szczególnie w Polsce, w odróżnieniu od USA, jest silna tradycja ochrony dziecka przed zagrożeniami, przemocą. Wystarczy tu wspomnieć o rozwoju pajdocentryzmu i "czarnej pedagogiki" (Schwarze Pädagogik), co sprawia, że jest większe zaufanie do państwa odgórnie regulującego dostęp do sieci. 

Dlatego raporty europejskie są bardziej normatywne, alarmistyczne, systemowe. 

Niewątpliwie, można tu mówić o częściowej modzie diagnostycznej. Skończyła się pandemia, słabnie zainteresowanie wojną w Ukrainie i jej następstwami, toteż trzeba postraszyć społeczeństwa uzależnieniami od mediów cyfrowych i zagrożeniem ze strony AI. Można w tej sytuacji mówić o wywoływaniu i podtrzymywaniu „fali paniki cyfrowej 2.0”. 

Wystarczy spojrzeć wstecz na dominującą czy też bardziej eksponowaną i finansowaną problematykę badań społecznych, które były skoncentrowane na następujących zagadnieniach lękotwórczych:  

I. pierwsza dekada XXI wieku, to pornografia, grooming.

II. od ok. 2010 roku to social media, cyberbullying.

III. od ok. 2020 roku jest to uzależnienie od smartfona, AI, zdrowie psychiczne. 

Każda dekada ma swoją „dominującą obawę” o los dzieci i młodzieży, ale nie należy tego utożsamiać z kreowaniem przez badaczy empirycznych danych na temat zagrożeń. Dane liczbowe na ten temat nie są wymyślone, jeśli zostały pozyskane zgodnie z obowiązującą metodologią badań społecznych. W każdym z państw wzrasta liczba osób będących ofiarami cyberprzemocy, smartfonowych uzależnień itp.   

Musimy jednak mieć świadomość, że badania społeczne są konstruowane poznawczo i politycznie, a to znaczy, że badacze operują wskaźnikami postaw, zachowań adekwatnie do założonego modelu teoretycznego, nadają im określone znaczenie, budują narrację poprawności diagnostycznej, by mogło powstać coś, co można nazwać „inflacją ryzyka” w badaniach nad dzieckiem w świecie cyfrowym. 

W krajach anglosaskich jest więcej - w stosunku do państw europejskich - badań o korzyściach rozwojowych z tytułu dostępu do mediów cyfrowych i wzrostu innowacji w różnych dziedzinach życia. Większy nacisk kładzie się w edukacji na indywidualną odpowiedzialność z tym związaną. 

Wzrost liczby raportów o negatywnych skutkach cybermediów nie jest ani czystą modą, ani prostym odzwierciedleniem rzeczywistości, ale jest następstwem sprzężenia trzech czynników: realnych ryzyk, metodologicznego uprzywilejowania problemów oraz politycznej potrzeby regulacji.  Zagrożenia w sieci istnieją, ale to, które z nich uznajemy za najważniejsze, mówi więcej o naszych lękach niż o dzieciach, które w zdecydowanej większości są socjalizowane medialnie w rodzinie i edukowane w placówkach oświaty szkolnej oraz pozaszkolnej.

 

(we współpracy z AI. ChatGPT 5).

Brak komentarzy:

Prześlij komentarz

Nie będą publikowane komentarze ad personam