Grafika wygenerowana i opracowana we współpracy z narzędziem AI ChatGPT (OpenAI)
Badacze
państw Unii Europejskiej, w tym z Polski, prowadzą masowo, w ramach OECD,
UE, UNICEF i na zlecenie firm IT diagnozy oraz publikują raporty o
najsilniejszym „negatywnym nachyleniu” metodologicznym, które dotyczą dzieci i
młodzieży w cyberprzestrzeni.
OECD
pisze wprost o ryzykach posługiwania się przez niepełnoletnich konsumentów
telefonami komórkowymi, które determinują ich problemy zdrowotne, zaburzenia
snu, przemoc (hejting, seksting itp.), upowszechnianie
dezinformacji. Parlament Europejski koncentruje się na szkodach
rozwojowych i „problematic use”, zaś UNICEF wskazuje na związek
cyfryzacji z kryzysem zdrowia psychicznego młodych pokoleń.
Tego
typu podejście do diagnoz społecznych nie jest polską specyfiką, gdyż
wpisuje się w interesy globalnych podmiotów gospodarczych i politycznych.
Niektórzy naukowcy sami widzą problem „negatywnego skrzywienia” w tych
diagnozach. Autorzy wspomnianego przeze mnie wczoraj badania EU Kids Online
2026 przyznali, że media i debata publiczna często „nadmiernie koncentrują
się na ryzykach, pomijając korzyści”, jakie wynikają z korzystania przez dzieci
i młodzież z technologii AI. Zwracają uwagę na to, że badania tej
strefy aktywności są wykorzystywane przez polityków ze względu na kwestie
bezpieczeństwa, a toteż nie odnoszą się do uwarunkowań integralnego
rozwoju młodych pokoleń.
Dlaczego
rośnie liczba raportów „negatywnych”? Powód tego jest realny (empiryczny),
bowiem nie da się uciec od takich faktów, jak: powszechny dostęp do treści
seksualnych i przemocy, cyberprzemocy, jak kwestia uzależnienia od
cyfrowych mediów, algorytmizacja codziennego życia czy nowe ryzyka
związane z rozwojem sztucznej inteligencji, deepfakami, manipulacją, hejtem.
Jednym z powodów zainteresowania tą problematyką ma charakter metodologiczny,
bowiem tego rodzaju badania są strukturalnie tendencyjne (bias).
Łatwiej jest mierzyć ryzyko niż rozwój, łatwiej eksponować problemy z tym związane niż potencjał rozwojowy czy uzyskać finansowanie, które chętniej przeznacza się na kwestie związane z „zagrożeniami”. W efekcie bada się to, co budzi niepokój, bo to jest policzalne i „politycznie użyteczne”.
Wytwarzanie lęku zaczyna się od selekcji wskaźników. Nie bada się
wszystkiego, ale to, co jest mierzalne (czas ekranowy, pornografia), spektakularne
(przemoc, uzależnienia) i politycznie użyteczne. Natomiast nie bada się równie
intensywnie kompetencji cyfrowych, strategii radzenia sobie z mediami, pozytywnych
funkcji technologii. W związku z tym nie ma się co dziwić, że powstaje asymetria
poznawcza
Jeszcze
jednym powodem podejmowania badań o uzależnieniu od mediów w nurcie
samopotwierdzającej się hipotezy jest powód polityczny. Raporty na ten temat są
propagandowym "paliwem" dla decyzji w sprawie regulacji
korzystania z platform (DSA, COPPA, zakazy), wprowadzania ograniczeń ze
względu na wiek i kontrolowania algorytmów. Przykładem jest
finansowanie badań dotyczących „uzależniających algorytmów” TikToka.
We
Francji proponuje się ograniczenia wieku i „cyfrowe godziny policyjne”, zaś w
Niemczech monitoruje, jak w poszczególnych krajach związkowych (Landy)
wprowadzane są ograniczenia w dostępie dzieci do sieci.
Być
może najciekawszy powód tak powszechnego prowadzania badań w powyższym zakresie
ma charakter kulturowy. W Europie, w tym szczególnie w Polsce, w
odróżnieniu od USA, jest silna tradycja ochrony dziecka przed
zagrożeniami, przemocą. Wystarczy tu wspomnieć o rozwoju pajdocentryzmu i
"czarnej pedagogiki" (Schwarze Pädagogik), co sprawia, że
jest większe zaufanie do państwa odgórnie regulującego dostęp do
sieci.
Dlatego
raporty europejskie są
bardziej normatywne, alarmistyczne, systemowe.
Niewątpliwie,
można tu mówić o częściowej modzie diagnostycznej. Skończyła się pandemia,
słabnie zainteresowanie wojną w Ukrainie i jej następstwami, toteż trzeba
postraszyć społeczeństwa uzależnieniami od mediów cyfrowych i zagrożeniem ze
strony AI. Można w tej sytuacji mówić o wywoływaniu i podtrzymywaniu „fali
paniki cyfrowej 2.0”.
Wystarczy
spojrzeć wstecz na dominującą czy też bardziej eksponowaną i finansowaną
problematykę badań społecznych, które były skoncentrowane na następujących
zagadnieniach lękotwórczych:
I.
pierwsza dekada XXI wieku, to pornografia, grooming.
II.
od ok. 2010 roku to social media, cyberbullying.
III.
od ok. 2020 roku jest to uzależnienie od smartfona, AI, zdrowie psychiczne.
Każda
dekada ma swoją „dominującą obawę” o los dzieci i młodzieży, ale nie należy
tego utożsamiać z kreowaniem przez badaczy empirycznych danych na temat zagrożeń. Dane liczbowe na ten
temat nie są wymyślone, jeśli zostały pozyskane zgodnie z obowiązującą metodologią badań społecznych. W każdym z państw wzrasta liczba osób będących ofiarami cyberprzemocy, smartfonowych uzależnień itp.
Musimy
jednak mieć świadomość, że badania społeczne są konstruowane poznawczo i
politycznie, a to znaczy, że badacze operują wskaźnikami postaw,
zachowań adekwatnie do założonego modelu teoretycznego, nadają im określone znaczenie, budują narrację poprawności
diagnostycznej, by mogło powstać coś, co można nazwać „inflacją
ryzyka” w badaniach nad dzieckiem w świecie cyfrowym.
W
krajach anglosaskich jest więcej - w stosunku do państw europejskich
- badań o korzyściach rozwojowych z tytułu dostępu do mediów cyfrowych i wzrostu
innowacji w różnych dziedzinach życia. Większy nacisk kładzie się w edukacji
na indywidualną odpowiedzialność z tym związaną.
Wzrost
liczby raportów o negatywnych skutkach cybermediów nie jest ani czystą modą,
ani prostym odzwierciedleniem rzeczywistości, ale jest następstwem sprzężenia
trzech czynników: realnych ryzyk, metodologicznego uprzywilejowania problemów
oraz politycznej potrzeby regulacji. Zagrożenia w sieci istnieją,
ale to, które z nich uznajemy za najważniejsze, mówi więcej o naszych lękach
niż o dzieciach, które w zdecydowanej większości są socjalizowane medialnie w
rodzinie i edukowane w placówkach oświaty szkolnej oraz pozaszkolnej.
(we współpracy z AI. ChatGPT 5).
