Właśnie dlatego w modelu IALE – Intentionally AI-Linked Education jednym z filarów jest etyczne i odpowiedzialne współdziałanie z AI. W tym artykule chciałbym przedstawić, jak sześć zasad wypracowanych przez Microsoft w ramach Responsible AI Standard może zostać wpisanych w ramy IALE i stanowić podstawę edukacji przyszłości.
Odpowiedzialność – za działania, decyzje i wpływ
W modelu IALE odpowiedzialność nie ogranicza się do kwestii technicznych. Oznacza świadomość tego, że każda decyzja podjęta wspólnie z AI – czy to analiza danych, stworzenie treści czy wybór źródła – niesie konsekwencje.
Uczniowie uczą się:
- stawiać pytania o to, kto ponosi odpowiedzialność za generowane treści,
- analizować, w jakim stopniu wynik pracy jest wspólnym efektem człowieka i maszyny,
- rozumieć, że korzystanie z AI nie zwalnia z odpowiedzialności za rzetelność, etykę i intencje.
Inkluzywność – dla każdego i z uwzględnieniem różnorodności
IALE zakłada, że technologia powinna służyć wszystkim, niezależnie od poziomu umiejętności, pochodzenia kulturowego czy stylu uczenia się. Wybór narzędzi AI, język instrukcji i forma pracy muszą być przyjazne, zrozumiałe i dostępne.
Praktyczne zastosowania:
- praca w zespołach, w których AI wspiera uczniów o różnych stylach uczenia się (np. wizualnym, werbalnym, analitycznym),
- wykorzystywanie AI do tłumaczeń, streszczeń i adaptacji tekstów dla uczniów z trudnościami,
- projektowanie ćwiczeń tak, by każdy mógł wnieść coś unikalnego do pracy zespołu uczeń–AI–społeczność.
Niezawodność i bezpieczeństwo – sprawdzone narzędzia, chronione dane
Uczniowie pracujący w modelu IALE uczą się świadomego wyboru narzędzi AI – takich, które szanują prywatność, przechowują dane zgodnie z przepisami i są tworzone z myślą o edukacji.
Warto wprowadzić:
- praktykę sprawdzania, jak dany system AI przechowuje i przetwarza dane,
- zasady bezpieczeństwa cyfrowego (np. nieudostępnianie prywatnych informacji),
- krytyczną analizę regulaminów i zasad korzystania z popularnych narzędzi (np. ChatGPT, Copilot, Canva AI).
Uczciwość – przeciwdziałanie uprzedzeniom algorytmicznym
Algorytmy uczą się na danych – a dane bywają pełne społecznych uprzedzeń. IALE uczy uczniów rozpoznawać, że AI może nieświadomie faworyzować jedne poglądy, style czy źródła kosztem innych.
W praktyce:
- uczniowie analizują wyniki AI z różnych perspektyw (społecznej, kulturowej, historycznej),
- porównują odpowiedzi AI z rzeczywistością lokalną lub faktami,
- prowadzą dyskusje o tym, jak „niewidzialna ręka danych” kształtuje odpowiedzi.
Transparentność – zrozumieć jak myśli AI
IALE promuje uczenie się nie tylko z AI, ale o AI. Oznacza to, że uczniowie nie powinni tylko odbierać komunikatów generowanych przez modele, ale też rozumieć, jak powstały.
Działania:
- zadawanie AI pytań typu: „Dlaczego tak odpowiedziałeś?”, „Z czego to wynika?”,
- wykorzystywanie narzędzi wyjaśniających działanie modeli (tzw. explainable AI),
- tworzenie map decyzyjnych pokazujących przebieg rozumowania AI i człowieka w równoległym zadaniu.
Prywatność i ochrona danych – Twoje dane, Twoja decyzja
W świecie IALE uczniowie są świadomi, że ich dane są wartością. Uczą się chronić swoje informacje, sprawdzać, kto ma do nich dostęp, i wybierać narzędzia, które tej ochronie sprzyjają.
Zastosowania:
- analiza ustawień prywatności w narzędziach AI,
- nauka tworzenia treści bez konieczności podawania danych osobowych,
- zrozumienie różnicy między danymi treningowymi a wejściowymi.
Odpowiedzialność jako kompetencja przyszłości
Włączenie tych sześciu zasad do modelu IALE sprawia, że uczenie się z AI staje się nie tylko efektywne, ale i etyczne. Uczniowie nie są biernymi użytkownikami narzędzi technologicznych – są partnerami, którzy współtworzą odpowiedzialny świat edukacji.
IALE zyskuje w ten sposób wymiar nie tylko pedagogiczny, ale też obywatelski – uczy, jak być obecnym w świecie z AI i jak ten świat współtworzyć.
* * *
Dla pogłębienia refleksji:
Przewodnik po zasadach odpowiedzialności AI w edukacji (Microsoft Responsible AI Standard, v2. June 2022): https://cdn-dynmedia-1.microsoft.com/is/content/microsoftcorp/microsoft/final/en-us/microsoft-brand/documents/Microsoft-Responsible-AI-Standard-General-Requirements.pdf?culture=pl-pl&country=pl [dostęp: 9.06.2025]