czwartek, 10 lipca 2025

Zadłużenie poznawcze, czyli co ryzykujemy ucząc się z AI i jak temu zapobiegać

W najnowszym artykule „Against Brain Damage” Ethan Mollick, autor bloga One Useful Thing, ostrzega przed niekontrolowanym wykorzystaniem sztucznej inteligencji w edukacji. Jego teza jest radykalna, ale trafna. Jeśli pozwolimy uczniom korzystać z AI bez refleksji, mogą utracić zdolność samodzielnego myślenia. Uczenie się stanie się jedynie iluzją procesu poznawczego. Praca stworzona przy udziale AI może sprawiać wrażenie oryginalnej, choć trudno określić, kto jest jej rzeczywistym odbiorcą? Uczeń, nauczyciel czy może tylko algorytmiczny system.
„Uczenie się stanie się jedynie iluzją procesu poznawczego.”
Najnowsze  badania przeprowadzone przez Massachusetts Institute of Technology (MIT) dostarczają pierwszych neurofizjologicznych dowodów na to, że korzystanie z generatywnej AI (takiej jak ChatGPT) istotnie obniża aktywność mózgową związaną z tworzeniem, analizowaniem i zapamiętywaniem treści. Badacze wykorzystali EEG, by porównać aktywność mózgu w czasie pisania eseju przez osoby:
  • pracujące samodzielnie,
  • korzystające z wyszukiwarki internetowej,
  • korzystające z AI (ChatGPT).
Wyniki nie powinny nikogo zaskoczyć. Studenci korzystający z AI wykazywali wyraźnie niższą aktywność poznawczą i słabsze poczucie autorstwa w trakcie pisania. Co istotne, także po czterech miesiącach od badania utrzymywały się u nich te same deficyty, mimo że od tego czasu wykonywali inne zadania edukacyjne. Powstało zjawisko nazwane „zadłużeniem poznawczym”, sytuacja, w której uczeń zaciąga dług, rezygnując z używania własnych zdolności myślenia, bo polega na AI, przez co nie ćwiczy ważnych umiejętności i z czasem zaczyna je tracić. O tym mówi i przestrzega również prof. Andrzej Zybertowicz twierdząc, że sztuczna inteligencja degraduje funkcje poznawcze człowieka. Teraz potwierdzają to również badania przeprowadzone w MIT. Jeśli AI używana jest bezrefleksyjnie, prowadzi do spadku zaangażowania i aktywności poznawczej uczniów. Poza tym nieodpowiedzialne korzystanie z AI zmniejsza poczucie sprawczości i odpowiedzialności za własną pracę. Niesie to ze sobą trwałe skutki. Efekty te mogą utrzymywać się długo, pogłębiając zadłużenie poznawcze. Uczniowie polegający na AI nie rozwijają umiejętności krytycznego myślenia, analizy i samodzielnego rozwiązywania problemów.
„Uczeń zaciąga dług, rezygnując z używania własnych zdolności myślenia, bo polega na AI, przez co nie ćwiczy ważnych umiejętności i z czasem zaczyna je tracić.”
Mollick nie jest przeciwnikiem AI, ale przestrzega przed bezmyślnym lub nieprzemyślanym jej wykorzystaniem. W jego wizji przyszłości, ale również podpowiada to nasza intuicja i wieloletnie doświadczenie, szkoła nie może dłużej opierać się na testach i pracach domowych, które łatwo zautomatyzować. Potrzebujemy edukacji:
  • opartej na autentycznym procesie myślowym,
  • wspieranej przez nauczyciela jako przewodnika, nie tylko oceniającego,
  • wykorzystującej AI jako narzędzie refleksji, a nie automatyzacji.
Model IALE (Intentionally AI-Linked Education) rozwija przedstawioną przez Mollicka perspektywę. Zakłada, że AI już jest obecna i zostanie. Nie chcemy jej eliminować, lecz uczyć, jak z nią świadomie współpracować. Model IALE opiera się na trzech głównych zasadach (obok nich wymieniam jeszcze empatię algorytmiczną i transparentność):
  • Partnerstwo poznawcze, gdzie AI występuje w roli towarzysza myślenia, ale człowiek decyduje, weryfikuje i nadaje sens.
  • Sprawczość współdzielona, czyli uczymy uczniów, że AI może proponować, ale nie rozstrzyga.
  • Decyzyjność etyczna, rozumiana jako refleksja nad tym, czy i jak skorzystać z wygenerowanej przez AI treści.
Zamiast uciekać przed „uszkodzeniem mózgu”, IALE proponuje trening poznawczej odporności w obecności AI.

Wcześniejsze badania Mollicka, które omawiałem już na tym blogu, pokazały, że AI może być produktywnym członkiem zespołu i podnosić efektywność, inspirować, wspierać analizę. Ale tylko wtedy, gdy człowiek pozostaje liderem procesu. To właśnie tu IALE odnajduje swój sens. AI jako partner, ale to uczeń jest świadomy swojej roli i to on ma ostatnie słowo we współpracy w modelu IALE.

Co z tego wynika dla szkoły? Jeśli Mollick ostrzega i jednocześnie dostarcza ciekawych wyników swoich badań dotyczących AI jako członka zespołu, a wyniki badań MIT dostarczają dowodów, że brak świadomego wykorzystania AI w edukacji, to czas na systemowe podejście do zmian w sposobie nauczania i oceniania. Przede wszystkim warto projektować takie zadania, które wymagają autentycznego myślenia, a nie jedynie odtwarzania informacji czy generowania gotowych treści przy pomocy AI. Zamiast łatwo zautomatyzowanych prac domowych czy testów, lepiej sprawdzają się projekty, prezentacje, zadania problemowe i dyskusje, które pobudzają refleksję i rozwijają własną argumentację uczniów. Istotne jest również wprowadzanie pracy zespołowej, w której AI pełni funkcję pomocniczą, ale nie zastępuje indywidualnego wysiłku i współpracy uczniów. W tym kontekście rola nauczyciela ulega przekształceniu, gdzie staje się przewodnikiem, moderatorem i projektantem doświadczeń edukacyjnych. Powinien zachęcać uczniów do krytycznej analizy treści generowanych przez AI, uczyć ich weryfikowania informacji, formułowania własnych ocen i rozwijania metarefleksji. Przydatne są ćwiczenia pomagające zrozumieć, jak i po co korzystamy z narzędzi generatywnych, a także jak rozpoznawać momenty, w których AI wspiera rozwój poznawczy, a kiedy może go ograniczać. Warto także zmienić metody oceniania i przesunąć akcent z gotowych odpowiedzi na ocenę procesu myślowego, argumentacji, analizy źródeł oraz samodzielności w korzystaniu z AI. Należy doceniać nie tylko efekt końcowy, ale również sposób pracy ucznia, jego krytyczne podejście i etyczną refleksję. Równocześnie szkoły powinny zadbać o rozwój kompetencji cyfrowych i etycznych, wprowadzając zajęcia poświęcone etyce AI, bezpieczeństwu cyfrowemu i odpowiedzialności za własną pracę. Uczniowie powinni być przygotowani do świadomego, odpowiedzialnego i zgodnego z normami społeczno-szkolnymi korzystania z nowych technologii.
„AI może sugerować rozwiązania, ale to uczeń podejmuje decyzje i ponosi za nie odpowiedzialność.”
Wdrażanie modelu IALE oznacza świadome i celowe integrowanie sztucznej inteligencji z procesem nauczania, przy zachowaniu aktywnej roli ucznia. W tym podejściu AI nie zastępuje myślenia, lecz staje się partnerem poznawczym, narzędziem, z którego uczniowie korzystają, ale nad którym zachowują kontrolę. Kluczowe jest, by uczniowie nie tylko odbierali treści generowane przez AI, ale przede wszystkim je weryfikowali, oceniali i nadawali im znaczenie. Tylko wówczas technologia może wspierać rozwój myślenia krytycznego i refleksyjnego. Model IALE promuje koncepcję sprawczości współdzielonej, gdzie AI może sugerować rozwiązania, ale to uczeń podejmuje decyzje i ponosi za nie odpowiedzialność. Niezbędnym elementem tego podejścia jest również kształtowanie postawy etycznej. Uczniowie powinni być zachęcani do refleksji nad tym, kiedy, w jakim celu i w jakich granicach korzystać z AI. Świadome i odpowiedzialne podejmowanie decyzji technologicznych staje się tu nie tylko kompetencją, ale fundamentem edukacji przyszłości.

Podsumowując: 
  • Projektujemy zadania tak, by AI mogła być wsparciem, ale nie rozwiązaniem.
  • Uczymy uczniów metarefleksji nad tym, jak i po co korzystają z AI.
  • Zmieniamy metody oceniania – mniej „prawidłowych odpowiedzi”, więcej procesów decyzyjnych i analizy źródeł.
Sztuczna inteligencja staje się naturalnym elementem środowiska edukacyjnego i  nie tyle jako zagrożenie, ile jako wyzwanie, które wymaga świadomego podejścia. Kluczowe nie jest to, czy AI będzie obecna w szkole, ale w jaki sposób ją tam wprowadzimy. Refleksyjna integracja, oparta na odpowiedzialności, etyce i rozwijaniu samodzielnego myślenia uczniów, pozwala wykorzystać potencjał nowych technologii bez rezygnacji z fundamentalnych celów edukacji. Model IALE oraz praktyczne rekomendacje dla szkół wskazują kierunek, w którym warto podążać ku edukacji, w której AI wspiera, ale nie zastępuje człowieka.
* * * 
Źródła:
1. Ethan Mollick – Against “Brain Damage” Substack One Useful Thing, 7 lipca 2025
https://www.oneusefulthing.org/p/against-brain-damagerevkin.substack.com+15oneusefulthing.org+15oneusefulthing.org+15
2. Ethan Mollick – „The Cybernetic Teammate” (One Useful Thing, 22 marca 2025) https://www.oneusefulthing.org/p/the-cybernetic-teammate
3. Time Magazine – Is Using ChatGPT to Write Your Essay Bad for Your Brain? New MIT Study Explained, 25 czerwca 2025 https://time.com/7295195/ai-chatgpt-google-learning-school/ oneusefulthing.org+10time.com+10media.mit.edu+10