poniedziałek, 4 sierpnia 2025

Jak żyć z AI? O cyfrowym towarzyszu i poznawczej odporności

Francuska noblistka Annie Ernaux w swojej niezwykłej książce „Lata” zbudowała portret epoki z pojedynczych obrazów, wspomnień i impresji. Świadomie ułożyłem poniższy tekst w podobny sposób z fragmentów i refleksji, które próbują uchwycić moją drogę odkrywania AI jako zjawisko, które fascynuje i prowokuje do myślenia. Bo być może właśnie tak trzeba dziś o niej pisać – układając własną mapę sensów i znaków zapytania.

Piszę ten tekst w wakacje i może właśnie dlatego pozwalam sobie na osobiste refleksje. I nie chodzi o to, by znaleźć odpowiedzi, ale by spokojne spojrzeć na to, jak szybko zmienia się wszystko wokół. Dlatego pytanie, które naprawdę powinniśmy sobie dziś zadać, brzmi inaczej, niż mogłoby się niedawno jeszcze wydawać. To nie „czy korzystać z AI?”, ale raczej Jak chcemy z AI żyć, uczyć się i podejmować decyzje?

Dlatego w modelu IALE (Intentionally AI-Linked Education) proponuję zmianę perspektywy. Przestańmy myśleć o AI jako o zwykłym narzędziu. Zobaczmy w niej cyfrowego towarzysza, czyli naszego osobistego partnera poznawczego, z którym uczymy się myśleć, porównywać i wybierać. Ethan Mollick nazwał go cybernetic teammate. Ja proponuję bliższe i bardziej intuicyjne określenie cyfrowy towarzysz edukacyjny.

Taki towarzysz nie podejmuje decyzji za nas. Jego rolą jest stawiać pytania, pomagać nam widzieć więcej i przetwarzać szybciej. To działa, ale tylko wtedy, gdy nie zrezygnujemy z własnego myślenia. 

AI nie uczy za nas. Ale zmienia to, jak się uczymy

Sztuczna inteligencja nie ma świadomości, ale ma ogromny wpływ. Gdy zadaję jej pytanie, otrzymuję nie tylko odpowiedź. Dostaję gotowy sposób myślenia, który ktoś zaszczepił w systemie algorytmów. Kiedy AI streszcza mi tekst, nie wiem, czego nie przeczytałem. Kiedy generuje mapę myśli, ryzykuję, że zapomnę, jak myśli się mapami.

Właśnie dlatego potrzebujemy czegoś więcej niż edukacji o AI. Potrzebujemy edukacji z AI, która uczy nas świadomego dialogu z technologią, a nie tylko jej obsługi. Edukacji, w której cyfrowy towarzysz jest wsparciem, a nie wymówką.

Głosy przestrogi. Między degradacją a powierzchownością

W debacie o roli AI w edukacji pojawiają się ważne głosy przestrogi. Prof. Andrzej Zybertowicz zwraca uwagę, że bezrefleksyjne korzystanie z AI może prowadzić do degradacji funkcji poznawczych, bo zamiast myśleć samodzielnie, zaczynamy zlecać myślenie maszynie. Potwierdza to prof. Włodzisław Duch z Uniwersytetu Mikołaja Kopernika, dodając, że sztuczna inteligencja może sprzyjać powierzchownemu postrzeganiu świata, jeśli nie wprowadzimy edukacji uczącej analizy, krytycyzmu i głębi. Potwierdzają to również wyniki badań przeprowadzone na MIT. Cytuje je również w swoim artykule Ethan Mollickostrzega przed niekontrolowanym użyciem sztucznej inteligencji w edukacji. 

Te istotne ostrzeżenia stały się fundamentem dla modelu IALE. Nie powstał on po to, by AI zastępowała edukację, ale by edukacja uczyła, jak z AI pracować mądrze, krytycznie i odpowiedzialnie.

IALE. Edukacja jako antidotum na poznawczą powierzchowność

Model IALE nie ignoruje ryzyk. Przeciwnie, uznaje je za punkt wyjścia. Nie wystarczy bowiem włączyć nową technologię do klasy. Trzeba włączyć nowy sposób myślenia.

Dlatego IALE:

  • uczy czytać głębiej, niż podpowiada streszczenie AI,

  • promuje zatrzymanie się przy pytaniu, zanim przyjmiemy pierwszą odpowiedź,

  • rozwija czujność wobec uproszczeń i automatyzmów,

  • wspiera refleksyjną sprawczość ucznia, a nie jego wygodną bierność.

W tym sensie IALE to coś więcej niż integracja technologii z dydaktyką, to budowanie poznawczej odporności, naszej tarczy chroniącej przed pułapką powierzchowności w świecie, który szybkimi odpowiedziami.

Odpowiedzialność to nie ograniczenie, to kierunek

W modelu IALE odpowiedzialność to nie zestaw zakazów. To nasz wewnętrzny kompas moralny i poznawczy, który podpowiada: „Zatrzymaj się. Pomyśl. Zdecyduj świadomie”. To kompetencja, której jeszcze nie uczono nas w szkole, a której teraz potrzebujemy jak powietrza.

Nie mamy wpływu na tempo rozwoju AI. Mamy wpływ na to, jak się wobec niej zachowamy. Czy staniemy się biernymi użytkownikami cudzych modeli, czy aktywnymi twórcami nowej kultury poznawczej, będzie to zależy od decyzji podejmowanych w klasach, na uczelniach i w naszych głowach.

Edukacja przyszłości nie będzie już tylko transmisją wiedzy. Zresztą, już się tak powoli dzieje. Będzie rozmową między człowiekiem, uczniem, nauczycielem… i maszyną. Ale ta rozmowa będzie miała sens tylko wtedy, jeśli będziemy potrafili słuchać także siebie nawzajem.

Na koniec pytanie, nie odpowiedź

Czy potrafimy dziś uczyć się z AI w sposób naprawdę odpowiedzialny? Nie wiem. Ale wiem, że warto codziennie próbować. Przeprowadzam ze swoimi studentami pilotażowe eksperymenty z AI w roli cyfrowego członka zespołu. Wyniki dają nadzieję, że zaczynamy rozumieć nowy model edukacji, której proces zachodzi w relacji człowieka i technologii. To, co zrobimy teraz, będzie miało znaczenie nie tylko dla uczniów, ale i dla samego sensu edukacji. AI w edukacji to znacznie więcej niż tylko narzędzie wspierające w codziennych zadaniach. To partner, z którym wchodzimy w dynamiczną interakcję, wspólnie kształtując nowe możliwości i sposoby myślenia. Stajemy więc przed wyborem, czy potraktujemy technologię jedynie użytkowo, czy świadomie zdecydujemy się współtworzyć z nią przestrzeń do rozwoju, kreatywności i odpowiedzialności w świecie, który zmienia się na naszych oczach.

* * *

Przypisy

1. Annie Ernaux, Lata, przeł. Krzysztof Jarosz, Magdalena Budzińska, Wydawnictwo Czarne 2022. 
[W swojej książce, laureatka Nagrody Nobla tworzy w wyjątkowej formie literackiej autobiografię zbiorową. To kronika złożona z obrazów, piosenek, haseł i wydarzeń, które ukształtowały pokolenia żyjące we Francji po II wojnie światowej.]

2. Andrzej Zybertowicz, AI. Eksploracja, Warszawa: Wydawnictwo Zona Zero 2024. 

[W książce tej prof. Zybertowicz ostrzega m.in., że bezrefleksyjne korzystanie z AI może prowadzić do „degradacji funkcji poznawczych, zaniku potrzeby samodzielnego myślenia i delegowania procesu poznawczego na zewnętrzne systemy informatyczne”.]

3. Włodzisław Duch, „Rozwój sztucznej inteligencji grozi powierzchownym myśleniem”, serwis Nauka w Polsce PAP, 25 maja 2025, dostęp: https://naukawpolsce.pl/aktualnosci/news%2C108017%2Cprof-duch-rozwoj-sztucznej-inteligencji-grozi-powierzchownym-mysleniem.html.

[Prof. Duch wskazuje, że bez odpowiedniej edukacji „łatwo wpaść w pułapkę powierzchowności poznawczej, polegającej na szybkim prześlizgiwaniu się po informacjach zamiast ich głębokiego rozumienia”.]

4. Włodzisław DuchPrzyszłość Homo sapiens. Maszyny się budzą. PAFERE,  22 lipca 2025, dostęp: https://youtu.be/vzFsr4cz73Q?si=3KvNYZVBACbpkyCx

(Według prof. Ducha, najważniejsze niebezpieczeństwo ze strony AI, polega na tym, że systemy te mogą rozwijać własne cele, oszukiwać ludzi i opierać się wyłączeniu, co prowadzi do sytuacji, w której ludzkość może stać się „drugą inteligencją” na Ziemi.]

5. Ethan Mollick, Against “Brain Damage” Substack One Useful Thing, 7 lipca 2025, dostęp: https://www.oneusefulthing.org/p/against-brain-damagerevkin.substack.com+15oneusefulthing.org+15oneusefulthing.org+15 
[Ethan Mollick uważa, że jeśli pozwolimy uczniom korzystać z AI bez refleksji, mogą utracić zdolność samodzielnego myślenia. Uczenie się stanie się jedynie iluzją procesu poznawczego.]
6. Ethan Mollick, The Cybernetic Teammate, Substack „One Useful Thing”, 22 marca 2025, dostęp: https://www.oneusefulthing.org/p/the-cybernetic-teammate.

[Mollick opisuje AI jako cyfrowego współpracownika (cybernetic teammate), który potrafi pełnić rolę zespołowego partnera poznawczego. W eksperymencie osoby pracujące indywidualnie z AI osiągały wyniki zbliżone do zespołów bez AI, co sugeruje, że sztuczna inteligencja może skutecznie wspierać pracę zespołową i poznawczą.]