Na skróty:

Przejdź bezpośrednio do treści (Alt 1) Przejdź bezpośrednio do menu głownego (Alt 2)

AI w szkolnictwie wyższym
Kiedy AI zagraża wiedzy

Ilustracja symbolizująca grecką popiersie i panteon.
Ilustracja: © Ricardo Roa

Sztuczna inteligencja zmienia nasze podejście do wiedzy. W jaki sposób wpływa na zaangażowanie studentów? Jakie ma znaczenie dla tożsamości uniwersytetu? I jak zmienia rolę krytycznego myślenia w procesie wytwarzania wiedzy? Na te pytania odpowiada Jeppe Klitgaard Stricker.

Szkolnictwo wyższe znajduje się w stanie permanentnego kryzysu. Nie tylko za sprawą fałszywych informacji i dezinformacji, lecz zjawiska, które może okazać się równie destrukcyjne. Chodzi o kryzys wywołany „wiedzą syntetyczną”, który powoduje  zanieczyszczenie naszego środowiska epistemicznego i podważa podstawy tego, co uznajemy za wiedzę, co warte poznania i prawdziwe.  
Problemem nie są oczywiście same treści generowane przez AI, lecz to, że coraz bardziej przypominają one wiedzę, omijając mechanizmy nadające jej legitymizację. Tradycyjne zabezpieczenia, takie jak recenzje eksperckie, dyskusje naukowe czy transparentność metodologiczna, tracą znaczenie w świecie, w którym wiarygodność wynika częściej z językowej perswazji niż z faktycznej ekspertyzy. Dobrze napisane, logicznie skonstruowane i pewnie przedstawione twierdzenie coraz częściej uchodzi za wiedzę lub prawdę – niezależnie od tego, czy ma jakąkolwiek wartość epistemiczną.

Dużo mówi się o tym, że studenci piszą prace z pomocą czatu GPT, lecz kluczową sprawą jest to, że całe instytucje – uniwersytety, wydawnictwa i organy decyzyjne –  coraz częściej sięgają po treści generowane przez AI, które zacierają granicę między ludzkim rozumieniem a statystycznym prawdopodobieństwem. Co się stanie, gdy osoby odpowiedzialne za naukę nie będą już miały pewności, skąd pochodzi wiedza i czy została wypracowana dzięki wysiłkowi intelektualnemu, który kiedyś definiował badania naukowe?

Era syntetycznej perswazji  

Niebezpieczeństwo związane z generatywną AI nie polega na jej halucynacjach ani na błędach – te zawsze można naprawić. Kryzys wynika z faktu, że sztuczna inteligencja łączy różne treści w spójną całość, tworząc teksty, które są tak precyzyjnie dopasowane do zasad argumentacji, że od samego początku wykluczają sceptycyzm. Wkraczamy w świat, w którym wiedza nie rodzi się z dyskusji i intelektualnego starcia, lecz na podstawie prognoz statystycznych. To świat, w którym to, co pozornie wiarygodne, zastępuje prawdę.

Zmiany te najlepiej widać wśród studentów. Gdy proszeni są o napisanie analizy opartej na argumentacji, wielu z nich sięga najpierw po interpretacje wygenerowane przez AI. Odpowiedzi te są przejrzyste, językowo dopracowane i przystępne w odbiorze – i jednocześnie puste, bo pomijają sam proces interpretacji, zastępując go pozornie fachowym streszczeniem. Tak powstaje pokolenie, które zatraca umiejętność pogłębionej lektury, a samo pojęcie czytania ulega zmianie. Dogłębna analiza złożonego tekstu i formułowanie własnej odpowiedzi opartej na wiedzy zostaje zastąpione, lub przynajmniej uzupełnione, możliwością szybkiego skorzystania z gotowych interpretacji. W ten sposób pogłębia się kryzys wywołany wiedzą syntetyczną – niekoniecznie przez fałszywe informacje, lecz przez stopniowe osłabianie kryteriów odróżniających wiedzę od jej substytutów.

Współodpowiedzialność uniwersytetów

W obecnym kryzysie uniwersytety nie są niewinnymi ofiarami, lecz same się do niego przyczyniają. Presja pozyskiwania funduszy, generowania publikacji, zdobywania cytowań i tworzenia „mierzalnych rezultatów” stworzyła środowisko, w którym ilość wygrywa z jakością wiedzy. Badania naukowe stały się towarem, a generatywna AI tylko wzmacnia trend, który istniał już wcześniej: kapitalizację produkcji wiedzy, w której osiągnięcia intelektualne coraz częściej oceniane są według wskaźników premiujących szybkość, a nie treść.

Przykładem jest zjawisko tzw. fabryk artykułów (paper mills). Dzięki AI tworzenie pozornie wiarygodnych prac badawczych, które ukazują się w mniej renomowanych czasopismach naukowych, stało się banalnie proste. Jak uniwersytety reagują na tę sytuację? Wprowadzają więcej narzędzi antyplagiatowych, tworzą nowe procedury i inne środki zaradcze, które skierowane są przeciw objawom, ale nie rozwiązują sedna problemu. Struktura akademicka nagradza bowiem iluzję produktywności, a nie rzeczywisty wkład intelektualny. AI nie jest chorobą, lecz symptomem systemu, który już wcześniej stawiał na wymierne wyniki ponad pogłębioną refleksję.

Jeszcze gorsze jest bezkrytyczne przyjmowanie AI ze względu na jej rzekomą efektywność. Aby odciążyć administrację, uniwersytety wprowadzają automatyczne systemy oceniania, feedback generowany przez algorytmy oraz programy nauczania tworzone przez AI. Jaki jest jednak cel tej efektywności? Jeśli ocenę powierza się systemowi, który nie potrafi odróżnić prawdziwego zaangażowania od powierzchownej spójności, fundamenty szkolnictwa wyższego zaczną się chwiać.
 

Stworzyliśmy środowisko nieświadomie zachęcające zarówno studentów, jak i wykładowców do takiego podejścia do wiedzy, które promuje efektywność bardziej niż głęboki namysł. Oczywiście nadal prowadzi się rzetelne badania i publikuje wartościowe treści, jednak nawet najbardziej szanowani naukowcy nieustannie borykają się z presją czasu. Studenci natomiast, kiedy tworzą prace zaliczeniowe z AI, lekko poprawiając wyniki wygenerowane przez czat GPT, nie traktują tego jako „oszustwa” w tradycyjnym sensie – po prostu dostosowują się do środowiska, w którym tworzenie wiedzy przypomina bardziej symulację niż autentyczny wysiłek intelektualny. Czy to źle? Być może – a może wcale nie.

Przyszłość wiedzy w szkolnictwie wyższym  

Uniwersytety stoją dziś przed wyborem: mogą wzmocnić epistemiczną precyzję, broniąc procesów nadających wiedzy sens i redefiniując sposób uczenia i prowadzenia badań – albo dryfować w morzu wiedzy syntetycznej, promując nieograniczoną i łatwą konsumpcję treści.

To nie jest wezwanie do technofobii. AI musi znaleźć swoje miejsce w szkolnictwie wyższym, ale nie może być przyjmowana bezkrytycznie i sprowadzana wyłącznie do argumentu wzrostu produktywności. Stawką jest epistemiczna integralność uniwersytetu. Jeśli uczelnie będą opierały swoją działalność na treściach generowanych przez AI, wyrzekną się swojej roli jako strażników wiedzy i ciekawości.

Zmiana nie będzie łatwa. Instytucje będą musiały zrewidować systemy oceniania tak, by stawiały proces ponad wynikiem, zrehabilitować metody naukowe, które są odporne na łatwe streszczenia oraz nauczyć studentów rozpoznawać różnicę między prawdziwą wiedzą a jej syntetycznym sobowtórem. To zadanie trudne i czasochłonne.

W przeciwnym razie czeka nas przyszłość, w której uniwersytet przestanie być miejscem poszukiwania prawdy, a stanie się targowiskiem efektywnie brzmiących, lecz pustych argumentów, powielanych bez jakichkolwiek ograniczeń. To wizja świata pozbawionego intelektualnego wysiłku, który niegdyś stanowił fundament tego, co nazywamy wiedzą.

 

Perspectives_Logo Publikacja tego artykułu jest częścią projektu PERSPECTIVES – nowego przedsięwzięcia promującego niezależne, konstruktywne dziennikarstwo uwzględniające różnorodne punkty widzenia. Projekt ten, współfinansowany przez Unię Europejską, jest realizowany przez JÁDUwe współpracy z sześcioma redakcjami z Europy Środkowo-Wschodniej pod przewodnictwem Goethe-Institut. >>> Więcej o projekcie PERSPECTIVES