wtorek, 31 marca 2026

AI w akademii nie jest już tylko narzędziem. O moim modelu IALE i nowej architekturze uczenia się

Nie przekonuje mnie już język, w którym o sztucznej inteligencji w edukacji mówi się wyłącznie jako o „wsparciu”, „ułatwieniu” albo „nowoczesnym narzędziu”. To za mało, aby opisać skalę zmiany, która dokonuje się na naszych oczach. AI nie tylko wchodzi do edukacji. Ona zmienia warunki, w których człowiek uczy się, myśli, pyta, interpretuje i rozumie.

Właśnie dlatego coraz wyraźniej widzę, że nie wystarczy dziś opisywać nowe funkcje technologii. Trzeba próbować nazwać nową architekturę uczenia się. Tę próbę podejmuję w moim autorskim modelu IALE – Intentionally AI-Linked Education.

Nie chodzi już tylko o technologię

W wielu tekstach poświęconych AI w szkole, ale też w edukacji akademickiej,  powtarzają się podobne wątki. Personalizacja nauczania, automatyzacja oceniania, chatboty wspierające studentów, inteligentne systemy tutoringowe, usprawnienie organizacji pracy uczelni. To wszystko jest ważne. Nie ma sensu tego lekceważyć, ale zatrzymanie się w tym miejscu prowadzi do uproszczenia. Wtedy AI jawi się jedynie jako narzędzie modernizacji istniejącego systemu. Pomaga szybciej działać, sprawniej zarządzać, lepiej dopasowywać treści do potrzeb studenta. Taki opis mówi jednak głównie o tym, jak poprawić funkcjonowanie edukacji, a znacznie mniej o tym, jak dziś zmienia się samo uczenie się.

Dla mnie to pytanie jest najważniejsze. Nie interesuje mnie wyłącznie to, czy AI przyspiesza proces dydaktyczny, ale to, czy w tej nowej sytuacji człowiek nadal uczy się naprawdę. Czy rozumie głębiej. Czy staje się bardziej samodzielny. Czy zachowuje zdolność krytycznego osądu. Czy nie oddaje zbyt łatwo własnej odpowiedzialności za myślenie.

IALE jako autorska odpowiedź

Z tej właśnie potrzeby zrodził się mój model IALE – Intentionally AI-Linked Education. To mój autorski koncept edukacyjny, który nie sprowadza AI do roli dodatku technologicznego, lecz ujmuje ją jako element nowego środowiska poznawczego człowieka.

IALE nie zaczyna się od pytania o aplikacje, platformy czy funkcje, ale od pytania o relację. O to, co dzieje się z człowiekiem wtedy, gdy jego proces uczenia się zostaje spleciony z obecnością inteligentnego systemu.

Dlatego fundamentem IALE jest partnerstwo poznawcze Human + AI.

To fundament kluczowy. Nie chodzi tu o prostą współobecność człowieka i technologii, ani też o wygodne korzystanie z podpowiedzi generowanych przez model. Partnerstwo poznawcze oznacza świadomie organizowaną relację, w której AI uczestniczy w procesie myślenia, ale nie zwalnia człowieka z odpowiedzialności za sens, ocenę, interpretację i decyzję.

Człowiek pyta, sprawdza, porównuje, podważa, porządkuje i rozumie. AI może wspierać ten proces, może go przyspieszać, może poszerzać pole widzenia, jednak nie może przejąć tego, co w uczeniu się najważniejsze: odpowiedzialności za rozumienie.

Cztery filary modelu

Na tym fundamencie opierają się cztery filary mojego modelu IALE.

  • Hybrydowa kreatywność

Pierwszy filar dotyczy twórczości rozwijanej we współpracy człowieka z AI. Nie rozumiem jej jako prostego generowania tekstów, obrazów czy pomysłów. Hybrydowa kreatywność to zdolność do tworzenia nowych jakości dzięki relacji z inteligentnym systemem, ale pod warunkiem, że człowiek zachowuje kierunek, intencję i odpowiedzialność za sens. AI może być katalizatorem twórczości, ale nie powinna stawać się jej ukrytym autorem. To człowiek pozostaje autorem decyzji twórczych, nawet jeśli pracuje w dialogu z AI. 

  • Odporność relacyjna

Drugi filar przypomina, że edukacja nie jest wyłącznie procesem poznawczym, lecz także relacyjnym. Uczymy się poprzez napięcie, dialog, niepewność, konfrontację, współobecność i zaufanie. W świecie, w którym AI staje się coraz silniejszym partnerem poznawczym, trzeba szczególnie dbać o to, by człowiek nie utracił zdolności bycia w relacji z drugim człowiekiem, z własną niewiedzą i z trudnością. Odporność relacyjna chroni edukację przed redukcją do czystej funkcjonalności. Dzięki temu człowiek nie popada w dług poznawczy: stan, w którym dostęp do odpowiedzi rośnie szybciej niż zdolność ich rozumienia.

  • Suwerenność etyczna

Trzeci filar dotyczy odpowiedzialności. Człowiek może korzystać z AI, ale nie może oddać jej swojego sumienia. Nie może przenieść na algorytm odpowiedzialności za ocenę, za wybór, za rozstrzygnięcie. Suwerenność etyczna oznacza zdolność do zachowania własnego osądu nawet wtedy, gdy system podpowiada rozwiązania szybciej, sprawniej i bardziej przekonująco niż tradycyjne źródła wiedzy. Człowiek powinien odpowiadać nie tylko za decyzję o użyciu AI, lecz także za sens i skutki tego, co dzięki niej powstaje.

  • Architektura wiedzy

Czwarty filar wynika z prostego rozpoznania. W epoce AI nie wystarczy już posiadać informacje. Trzeba umieć je porządkować, łączyć, hierarchizować i interpretować. Architektura wiedzy oznacza zdolność do budowania sensownych struktur rozumienia. To kompetencja odróżniania danych od wiedzy, wiedzy od interpretacji, interpretacji od sądu. W świecie nadmiaru odpowiedzi właśnie ta umiejętność staje się podstawą dojrzałości intelektualnej. AI może dostarczać odpowiedzi, lecz architektura wiedzy zaczyna się dopiero wtedy, gdy człowiek potrafi przekształcić je w sensowną strukturę rozumienia.

IALE jako architektura, nie zestaw narzędzi

Coraz częściej myślę o IALE jak o budowli. Ma fundament i ma cztery filary. Fundamentem jest partnerstwo poznawcze Human + AI. Filary nadają tej konstrukcji stabilność, kierunek i sens. Bez fundamentu filary byłyby tylko zbiorem efektownych haseł. Bez filarów fundament pozostałby ideą niewyprowadzoną w praktykę.

To właśnie dlatego IALE nie jest dla mnie modelem technicznym ani instrukcją wdrożeniową. To propozycja całościowej architektury uczenia się w świecie, w którym sztuczna inteligencja staje się trwałym elementem naszego środowiska poznawczego.


Co naprawdę jest dziś stawką

Największym błędem byłoby sprowadzenie całej debaty o AI w edukacji do pytania o skuteczność narzędzi. Owszem, trzeba pytać o efektywność, organizację, wyniki, bezpieczeństwo danych i przygotowanie kadry. Ale to nie jest jeszcze sedno. Moje pytanie brzmi inaczej, a mianowicie jakiego człowieka współtworzy edukacja zanurzona w AI?

Można przecież mieć uczelnię lub szkołę lepiej zorganizowaną, a zarazem studenta i ucznia mniej samodzielnego. Można mieć szybciej udzielane odpowiedzi, a jednocześnie płytsze rozumienie. Można poprawić wskaźniki efektywności i osłabić zdolność samodzielnego myślenia. To napięcie będzie jednym z najważniejszych pytań najbliższych lat.

Dlatego IALE nie jest dla mnie zachwytem nad technologią, ale próbą obrony człowieka w nowym środowisku uczenia się. Nie przez odrzucenie AI, lecz przez takie zaprojektowanie relacji z nią, aby człowiek nie przestał być podmiotem własnego rozumienia.

Na końcu zawsze chodzi o człowieka

Nie pytam więc już tylko o to, jak wykorzystać AI na uczelni, ale jak projektować edukację, która w świecie inteligentnych systemów nie utraci człowieka?

Właśnie na to pytanie próbuję odpowiedzieć poprzez IALE i jego model. Oparty jest on na fundamencie partnerstwa poznawczego Human + AI i rozwijany przez cztery filary: hybrydową kreatywność, odporność relacyjną, suwerenność etyczną i architekturę wiedzy.

Dopiero wtedy rozmowa o AI przestaje być rozmową o narzędziach. Staje się rozmową o nowej architekturze uczenia się. A jeszcze głębiej, to rozmową o człowieku, który chce pozostać myślący, odpowiedzialny i wolny.