08 września 2025

Pod parasolem sztucznej inteligencji?

 

 


W sali wykładowej, obok kredy, tablicy i stosu książek, pojawił się nowy uczestnik. Nie zajmuje miejsca w ławce, nie zgłasza się do odpowiedzi, nie ma też indeksu. Jest niewidzialny, a jednak coraz bardziej obecny – sztuczna inteligencja. Przyszła bez zaproszenia, ale i bez wrogości. Zagnieździła się w komputerach studentów, w smartfonach, czasem w notatkach nauczycieli. Potrafi podać definicję, streścić artykuł, napisać esej – szybciej, niż zdążymy otworzyć książkę.

Na pierwszy rzut oka wydaje się, że to dar losu. Student dostaje w kilka sekund to, co dawniej wymagało godzin spędzonych w bibliotece. Profesor może błyskawicznie stworzyć bank pytań albo konspekt zajęć. Wydaje się, że oto technologia oszczędza nam czas i wysiłek. Ale kto próbował zaufać AI bezkrytycznie, ten wie, że to dar podszyty ryzykiem. Bo maszyna, choć mówi pewnym tonem, często zmyśla. Tworzy książki, których nikt nigdy nie napisał. Podaje liczby, których nie znajdziemy w żadnym raporcie. To lustro w krzywym zwierciadle – rozpoznajemy znajome kształty, ale ich proporcje bywają złudne.

Niebezpieczeństwo nie tkwi więc w samej sztucznej inteligencji, lecz w naszym stosunku do niej. Największym ryzykiem jest nasza łatwowierność – przekonanie, że skoro zdania brzmią wiarygodnie, muszą być prawdziwe. Edukacja nie może na to pozwolić. Naszym zadaniem jest uczyć nie tylko wiedzy, lecz także postawy: krytycznego sprawdzania, cierpliwego weryfikowania, umiejętności dostrzegania sprzeczności. AI staje się więc nie egzaminatorem, lecz pretekstem do ćwiczenia umysłu.

Wyobraźmy sobie zajęcia, na których studenci analizują tekst wygenerowany przez maszynę. Sprawdzają dane w raportach GUS czy Eurostatu, szukają cytatów w katalogach, odkrywają, co jest faktem, a co fikcją. To nie jest strata czasu – to praktyka uczenia się myślenia. Bo w epoce, w której informacja przychodzi łatwo, najcenniejsza jest umiejętność odróżnienia prawdy od pozoru.

Nie oznacza to jednak, że mamy AI wyrzucić z sal wykładowych. Wręcz przeciwnie – warto ją zaprosić, ale do roli asystenta, nie nauczyciela. Jeśli pomoże wykładowcy uwolnić się od biurokratycznej rutyny, ten będzie miał więcej czasu na rozmowę ze studentami. Jeśli studentowi wskaże drogę w gąszczu informacji, ten szybciej dotrze do tego, co naprawdę ważne.

Potrzebujemy więc nowej pedagogicznej umowy: AI tak, ale zawsze pod nadzorem ludzkiego krytycznego umysłu. To oznacza jasne zasady – jawne przyznawanie się do korzystania z maszyn, sprawdzanie ich pracy w niezależnych źródłach, a nade wszystko dodawanie własnego wkładu, którego żadna technologia nie zastąpi.

Bo edukacja to zawsze spotkanie: człowieka z książką, człowieka z człowiekiem. Dziś do tego spotkania dołącza maszyna. Ale dopóki to my zachowamy ostatnie słowo, dopóty pozostaniemy gospodarzami tej rozmowy. Pretekstem do niej było wydanie w Oficynie "Impuls" książki poświęconej generatywnej AI. 

Nie ma się co dziwić, że pojawiają się także w naukach społecznych rozprawy poświęcone problematyce sztucznej inteligencji. Szczególnie tak głęboka zmiana technologiczna w komunikacji międzyludzkiej nie może być zlekceważona, toteż możem spodziewać się lawinowo wydawanych książek i artykułów na temat pozytywnego i /lub negatywnego potencjału generatywnej sztucznej inteligencji. Podobnie było z wywołanym na świecie szokiem na skutek pandemii Covid-19. Nadal ukazują się studia, analizy, wyniki badań porównawczych dotyczące jej następstw w społeczeństwach i życiu jednostkowym. 

Przed nami zatem kolejny nurt rozpraw o AI także w pedagogice, bowiem bez dobrej edukacji uwzględniającej to narzędzie młode pokolenia będą miały problem z własnym wykształceniem, zaś osoby dorosłe z realizacją zadań zawodowych. Cieszy zatem wydana w Oficynie "Impuls" w Krakowie książka profesorki Uniwersytetu Szczecińskiego dr hab. Elżbiety Porzyckiej-Borowskiej, która posłużyła się w narracji metaforą funkcji parasola mającego funkcję ochronną przed deszczem (wiedzy), ale także towarzyszącą człowiekowi w tej sytuacji.

Autorka odpowiada na pytanie: Jak i na jakich warunkach nauczyciel oraz środowisko akademickie mogą dostrzec i wykorzystać potencjał generatywnej sztucznej inteligencji, jednocześnie chroniąc się przed jej niezamierzonymi konsekwencjami? Już po przeczytaniu wstępu zawierającego też tak ciekawe pytania poznawcze:

1. Jak AI może wspierać edukację -a gdzie napotyka granice? 

2. Jakie dylematy etyczne wiążą się z wprowadzeniem AI do szkół i uczelni? 

3. Jakie nowe ( i nie zawsze przewidywalne) perspektywy otwiera bycie w dialogu z narzędziami generatywnej sztucznej inteligencji?

pomyślałem, że dopełnienie pytania głównego o kwestię niezamierzonych konsekwencji jest niewłaściwe, bowiem stanowi parasol  zbytecznego choć możliwego przedrozumienia, które będzie osadzone w samospełniającej się hipotezie. Zapytałem zatem generatywną AI: Jak i na jakich warunkach nauczyciel oraz środowisko akademickie mogą dostrzec i wykorzystać potencjał generatywnej sztucznej inteligencji? bez parasola chroniącego przed jej niezamierzonymi konsekwencjami. Przecież wiadomo, że będą niezamierzone, skoro nie jesteśmy AI, tylko kierujemy do niej określone zadanie. 


📌 Źródło: Tekst częściowo opracowany na podstawie rozmowy autora z modelem ChatGPT (GPT-5), OpenAI, 2025.

   

 

Brak komentarzy:

Prześlij komentarz

Nie będą publikowane komentarze ad personam