Czy korzystanie z generatywnych modeli AI faktycznie prowadzi do degradacji funkcji poznawczych, jak ostrzega prof. Andrzej Zybertowicz? A może to nie technologia, lecz sposób jej użycia decyduje o tym, czy stajemy się mniej refleksyjni? W tym wpisie odpowiadam z perspektywy modelu dydaktycznego, który nie tylko chroni przed poznawczym lenistwem, ale prowokuje do głębszego myślenia, dialogu i twórczości.
używania AI jako kalki poznawczej („kopiuj–wklej”), osłabiającej refleksyjne myślenie,
automatyzacji myślenia analitycznego i zaniku kompetencji rozumowania krytycznego,
zaniku pracy nad złożonością i niepewnością, które są kluczowe dla rozwoju naukowego i etycznego,
podatności na manipulację i dezinformację, zwłaszcza w środowiskach edukacyjnych i medialnych,
depersonalizacji procesu uczenia się, gdzie relacja człowiek–człowiek ustępuje interakcji człowiek–system,
przenoszenia odpowiedzialności decyzyjnej na systemy AI, co może prowadzić do erozji autonomii moralnej,
oraz pogłębiania nierówności cyfrowych – nie wszyscy mają równy dostęp do narzędzi AI, ani kompetencje, by z nich krytycznie korzystać.
To jednak nie jest wina samej technologii, lecz modelu jej użycia. Niektórzy badacze podnoszą uzasadnione obawy, że rozwój AI w edukacji może prowadzić do depersonalizacji procesu uczenia się w sytuacji, w której relacja człowiek–człowiek ustępuje interakcji człowiek–system. Taki scenariusz, w którym maszyna wypiera wspólnotowy charakter edukacji, niesie ze sobą realne ryzyko osamotnienia, automatyzacji oraz redukcji procesu kształcenia do wymiany informacji. Model IALE (Intentionally AI-Linked Education), który rozwijam od kilkunastu miesięcy, proponuje jednak zupełnie inne podejście – nie opiera się na zastępowaniu relacji międzyludzkich technologią, ale na wzmacnianiu edukacyjnej wspólnoty poprzez świadome, etyczne i refleksyjne włączanie AI jako partnera poznawczego. W tym ujęciu człowiek pozostaje podmiotem procesu, a AI pełni funkcję towarzysza, katalizatora i narzędzia wspierającego rozwój intelektualny i emocjonalny ucznia. Kluczowe nie jest więc to, czy korzystamy z AI, ale jak to robimy i czy potrafimy zachować w tym procesie sens relacji, odpowiedzialności i zaufania.
"To nie AI zubaża myślenie. To my zubożamy je, gdy używamy AI bez refleksji."
W koncepcji IALE model ten może stanowić ważną odpowiedź na wspomniane ryzyko degradacji funkcji poznawczych poprzez świadome zneutralizowanie dzięki kilka istotnym filarom :
- partnerstwo poznawcze, ponieważ AI nie jest źródłem odpowiedzi, lecz partnerem w dialogu;
- decyzyjność etyczna, ponieważ to człowiek zachowuje odpowiedzialność za wybory;
- empatia algorytmiczna, ponieważ użytkownicy uczą się rozumieć, jak i dlaczego AI coś generuje;
- sprawczość współdzielona, ponieważ to uczniowie wyznaczają kierunki poznawcze;
- transparentność, ponieważ zapewnia świadomość granic działania AI.
W tym ujęciu AI nie zastępuje funkcji poznawczych, lecz prowokuje ich aktywację na wyższym poziomie – np. metapoznawczym, refleksyjnym czy syntetycznym.
Można postawić alternatywną tezę, że nie dochodzi do degradacji, lecz do transformacji funkcji poznawczych. Dzięki AI:
- mniej skupiamy się na mechanicznym przetwarzaniu danych,
- więcej uwagi poświęcamy krytycznej analizie, ocenie wiarygodności, reinterpretacji treści.
To zbieżne z tym, co opisywał Daniel Kahneman w koncepcji „myślenia wolnego i szybkiego”, gdzie szybkie (system 1) jest intuicyjne i automatyczne, a wolne (system 2) refleksyjne i analityczne. AI może „odciążyć” system 1, ale nie zastąpi głębokiej refleksji charakterystycznej dla systemu 2.
Zgadzam się z prof. Zybertowiczem, że takie zagrożenie istnieje, zwłaszcza wtedy, gdy brakuje odpowiedniego modelu edukacyjnego. Edukacja z AI pozbawiona kontekstu może prowadzić do lenistwa poznawczego, nadprodukcji treści pozornych, a nawet poznawczej nieautentyczności. Właśnie dlatego potrzebujemy modeli dydaktycznych odwołujących się do sztucznej inteligencji, które wzmacniają świadome, etyczne i refleksyjne postawy, bo to nie AI degraduje poznanie, ale brak kultury edukacyjnej wokół AI może je zubożyć.
Wypowiedź prof. Zybertowicza jest ważnym głosem ostrzegawczym, ale wymaga dopowiedzenia, że degradacja funkcji poznawczych nie jest nieunikniona, lecz zależy od sposobu, w jaki AI zostanie zintegrowana z edukacją i kulturą poznawczą. Rozwiązaniem nie jest zakaz, ani idealizacja. Rozwiązaniem jest zmiana sposobu myślenia o współpracy z AI. Nawet jeśli ktoś nie zna modelu IALE, może i powinien korzystać z AI tak, jak korzysta z doświadczonego współpracownika, a więc z szacunkiem, odpowiedzialnością, świadomością ograniczeń i ciekawością, co można razem stworzyć. AI może być cyfrowym partnerem, ale tylko wtedy, gdy człowiek nie zrezygnuje z kryczynego, analitycznego i refleksyjnego myślenia, lecz wejdzie z nim w relację opartą na etyce, krytycyzmie i refleksji. To nie tylko nowa technologia. To nowa ontologia działania i epistemologia myślenia*.
* * *
*Nowa ontologia działania oznacza uznanie, że w pracy z AI nie jesteśmy jedynym sprawczym podmiotem, ponieważ działanie staje się współdzielone między człowiekiem a maszyną, która wnosi swoją logikę, tempo i strukturę. Nowa epistemologia myślenia polega na tym, że wiedza nie jest już tylko produktem ludzkiego poznania, lecz wynikiem interakcji, dialogu i negocjacji znaczeń z inteligentnym systemem – myślimy inaczej, bo myślimy wspólnie.
Bibliografia:
Zybertowicz, Andrzej. (2024). AI Eksploracja. Warszawa: Zona Zero sp. z o.o.
Zybertowicz, Andrzej. (2022). Cyberpunk kontra real. Cywilizacja w techno-pułapce. Warszawa: Fundacja Rzeczpospolita.
Carr, Nicholas. (2013). Płytki umysł. Jak internet wpływa na nasz mózg. Gliwice: Helion.
Zuboff, Shoshana. (2020). Wiek kapitalizmu inwigilacji. Walka o przyszłość ludzkości na nowej granicy władzy. Poznań: Wydawnictwo Zysk i S-ka.
Kahneman, Daniel. (2012). Pułapki myślenia. O myśleniu szybkim i wolnym. Poznań: Media Rodzina.
Kahneman, Daniel, Sibony, Olivier, Sunstein, Cass R. (2022). Szum, czyli skąd się biorą błędy w naszych decyzjach. Poznań: Media Rodzina.