European Commission logo
Zaloguj Utwórz konto
Można wpisać wiele słów, odzielając je przecinkami.

EPALE - Elektroniczna platforma na rzecz uczenia się dorosłych w Europie

Blog

Słowo pisane i edukacja w czasach postplagiatu

W 2021 roku dr Sarah Elaine Eaton zaproponowała koncepcję „postplagiatu” – wizji przyszłości pisania (naukowego, ale nie tylko) w erze sztucznej inteligencji.

ok. 10 minut czytania polub, linkuj, komentuj!


W 2021 roku dr Sarah Elaine Eaton zaproponowała koncepcję „postplagiatu” – wizji przyszłości pisania (naukowego, ale nie tylko) w erze sztucznej inteligencji. W ostatnim rozdziale swojej książki Plagiarism in Higher Education: Tackling Tough Topics in Academic Integrity przedstawiła sześć tez opisujących tę nową rzeczywistość. Te założenia brzmiały następująco:

  1. Hybrydowe pisanie ludzi i sztucznej inteligencji stanie się normą.
  2. Kreatywność ludzka będzie wzmacniana przez AI.
  3. Bariery językowe znikną.
  4. Ludzie będą mogli oddać kontrolę, ale nie odpowiedzialność.
  5. Uznanie autorstwa i źródeł wciąż jest ważne.
  6. Historyczne definicje plagiatu nie mają już znaczenia.

Minęło kilka lat i możemy sprawdzić, na ile te prognozy się spełniły. Zapraszam was do przyjrzenia się każdej tezie z osobna, odwołując się do danych, komentarzy ekspertów i wydarzeń z lat 2021–2025. Jak AI wpłynęła na sposób, w jaki piszemy i pojmujemy plagiat? Co się zmieniło w podejściu do oryginalności i uczciwości, a co pozostało niezmienne? 

grafika

fot. shutterstock

Teza 1: Hybrydowe pisanie ludzi i sztucznej inteligencji stanie się normą

Sara Eaton przewidywała, że teksty współtworzone przez człowieka i sztuczną inteligencję wkrótce przestaną być ciekawostką, a staną się codziennością. Rzeczywistość 2025 roku w dużym stopniu potwierdza tę wizję.

W ciągu zaledwie kilku lat narzędzia generatywnej AI szturmem wkroczyły do głównego nurtu edukatorów i edukowanych. Szczególnie przełomowy okazał się ChatGPT udostępniony pod koniec 2022 roku, który w ciągu kolejnych miesięcy zdobył dziesiątki milionów użytkowników na całym świecie. W środowisku edukacyjnym początkowo wywołało to niepokój: obawiano się, że studenci będą masowo wykorzystywać AI do pisania prac zaliczeniowych. Niektóre instytucje zareagowały wręcz zakazami – przykładowo Nowy Jork już w styczniu 2023 roku ogłosił blokadę dostępu do ChatGPT w publicznych szkołach. Dobry krok? Raczej ślepa uliczka. Zaledwie kilka miesięcy później, po głębszym zapoznaniu się z technologią, nowojorski wydział edukacji cofnął zakaz i zapowiedział wspieranie nauczycieli i uczniów w korzystaniu z AI, jako pomocy naukowej i dydaktycznej. Podobną drogę przeszły inne duże i małe instytucje edukacyjne na świecie.

W szkolnictwie wyższym hybrydowe pisanie szybko zyskuje na popularności. Według badań Eduventures, w 2023 roku około 32% dorosłych studentów (szczególnie na studiach magisterskich) przyznawało się do korzystania z narzędzi AI w pisaniu, a już w 2024 roku odsetek ten wzrósł do 48%. Oznacza to niemal połowę studentów szkół wyższych! Co więcej, wśród osób młodych odsetki te są jeszcze wyższe – w grupie 19–24 lata wyniosły 58%. 

Zjawisko hybrydowego pisania ma charakter globalny: generatywna AI jest dostępna dla każdego z dostępem do internetu, a narzędzia działają dziś w wielu językach, coraz skuteczniej “naśladując” ludzki styl pisania. W roku akademickim 2023/24 pojawiły się pierwsze oficjalne integracje AI z edukacją – firma OpenAI uruchomiła pilotażowy program dziś znany jako ChatGPT Edu w partnerstwie z kilkoma dużymi uniwersytetami w USA. To zaś oznaczało legitymizację tego tematu i dostarczenie narzędzi AI oficjalną drogą dla setek tysięcy studentów.

Czy jednak taka symbioza pióra i algorytmu jest powszechnie akceptowana? 

Tutaj obraz jest nieco bardziej złożony. Choć hybrydowe pisanie szybko zyskało popularność, wciąż trwają debaty nad jego miejscem w edukacji. Część wykładowców obawia się, że zbyt łatwy dostęp do AI może osłabić u studentów umiejętność samodzielnego formułowania myśli. Popierają to zresztą liczne badania naukowe. W Polsce warto śledzić aktywność prof. Joanny Mytnik z Politechniki Gdańskiej, która popularyzuje ten temat. Inni wskazują jednak, że współpraca z AI to po prostu nowa kompetencja, której należy uczyć – podobnie jak kiedyś uczono obsługi wyszukiwarek czy arkuszy kalkulacyjnych. Hybrydowe pisanie staje się zatem coraz bardziej normalne, choć wymaga wypracowania jasnych zasad (o czym więcej poniżej). 

Teza 2: Kreatywność ludzka będzie wzmacniana przez AI 

Dr Eaton argumentowała, że sztuczna inteligencja nie odbierze nam zdolności twórczych, lecz może je poszerzyć – dać inspirację, pomysły, poszerzyć granice wyobraźni. Rosnąca dostępność generatywnych modeli (potrafiących tworzyć teksty, obrazy, muzykę) rzeczywiście otworzyła przed ludźmi nowe źródła inspiracji. Przykładowo, wielu pisarzy i dziennikarzy zaczęło używać narzędzi takich jak ChatGPT czy Jasper do przełamywania blokady twórczej – AI może podrzucić nietypowy pomysł na fabułę, zaproponować pierwsze zdanie akapitu albo pomóc sformułować trudną myśl. To samo przecież może dotyczyć pracy nauczycieli i ich potrzeb.

Badania naukowe potwierdzają, że skoordynowana współpraca z narzędziami generatywnej sztucznej inteligencji potrafi podnieść jakość i pomysłowość utworów literackich. W jednym z eksperymentów poproszono 300 osób o napisanie krótkiego opowiadania, przy czym część uczestników mogła skorzystać z podpowiedzi generowanych przez ChatGPT. Rezultat raczej oczywisty: opowiadania pisane z pomocą AI były oceniane jako bardziej kreatywne, lepiej napisane i ciekawsze – zwłaszcza w przypadku autorów, którzy na starcie mieli mniej własnych pomysłów. Innymi słowy, AI może niwelować różnice – pomagając osobom mniej kreatywnym osiągnąć wyższy poziom.

Dziś takie podejście do tematu nikogo już nie dziwi: malarze generują szkice za pomocą sieci neuronowych jako punkt wyjścia dla własnych obrazów, muzycy eksperymentują z modelami tworzącymi melodie, a nauczyciele kreatywnego pisania zachęcają uczniów do wykorzystywania podpowiedzi. Czujemy jednak wszyscy, że AI nie może przejąć całego procesu, bo wówczas dzieło straci indywidualny styl, a przecież nie o to chodzi w kreatywności.

Jest więc oczywiście też druga strona tego medalu. To samo badanie, które pokazało wzrost jakości opowiadań pisanych z AI, wykazało również coś, co nazwano efektem homogenizacji: historie tworzone z pomocą tego samego modelu stawały się do siebie bardziej podobne. Jeśli wszyscy będziemy korzystać z podobnych rozwiązań AI, istnieje ryzyko powtarzalności schematów i spadku różnorodności pomysłów. Myślę, że wielu z nas już dziś to dostrzega. Zaprzyjaźnieni nauczyciele wspominali mi niedawno, że coraz trudniej wykryć im prace pisane przez AI za pomocą analizy stylu (AI upodabnia się do człowieka coraz sprawniej), ale za to lepiej dostrzegają pewne powtarzające się schematy „myślenia” czy argumentacji. 

Teza 3: Bariery językowe znikną

Trzecia teza głosi, że dzięki AI język przestanie być taką barierą jak dawniej – każdy z każdym będzie mógł się zrozumieć, niezależnie od tego, jakim językiem włada na co dzień. Rzeczywiście, ostatnie przyniosły rewolucję w tłumaczeniach maszynowych i komunikacji.

Już wcześniej narzędzia pokroju Google Translate czy DeepL potrafiły dokonywać przekładu z zadziwiającą sprawnością. Jednak dopiero wdrożenie modeli nowej generacji oraz integracja tłumaczenia ze sztuczną inteligencją konwersacyjną sprawiły, że tłumaczenia w czasie rzeczywistym stały się bliższe rzeczywistości. Na razie są to raczej rozwiązania demonstracyjne, nastawione na wywołanie efektu wow wśród odbiorców. Jednak póki co ich wprowadzenie na masową skalę wydaje się być nieco zbyt kosztowne. Trzeba pamiętać, że to dosyć skomplikowany i wieloetapowy proces. 

Nie zmienia to jednak faktu, że już teraz wpływ tych technologii jest widoczny. Profesjonalni tłumacze odczuwają presję – w ankietach ponad 75% z nich obawia się, że generatywna AI negatywnie odbije się na ich zarobkach i popycie na usługi. I oczywiście mają rację - wystarczy porozmawiać o tym z przedstawicielem dowolnego biura tłumaczeń. Ten biznes przeżywa ogromny kryzys, a broni się jeszcze (i to skutecznie) w obszarze tłumaczeń specjalistycznych i - rzecz jasna - przysięgłych. Jednak „długi ogon” tych usług, na który składało się tłumaczenie stron www, artykułów popularnych czy treści na social media, został przejęty przez narzędzia typu DeepL.

Ale zanik barier językowych to nie tylko kwestia tłumaczeń, ale także szansa dla osób, które dotąd były wykluczone z globalnego obiegu wiedzy przez brak biegłości np. w języku angielskim. Weźmy środowisko naukowe: angielski jest językiem nauki, co stanowi wyzwanie dla badaczy z krajów nieanglojęzycznych. Teraz jednak pojawiły się narzędzia zdolne asystować naukowcom w pisaniu tekstów naukowych po angielsku, nawet jeśli ci badacze słabiej władają tym językiem. Praca opublikowana w Korean Journal of Radiology w 2023 r. nazwała ChatGPT wręcz „Prometeuszem dla naukowców nieanglojęzycznych”. Autorzy wskazują, że duże modele językowe mogą znacząco obniżyć barierę językową w pisaniu publikacji po angielsku, pozwalając badaczom skupić się na meritum badań zamiast na zmaganiach z gramatyką. Warunkiem jest oczywiście odpowiedzialne użycie – AI bywa przecież omylna (o „halucynacjach” wszyscy przecież słyszeliśmy).

Czy więc teza o zanikaniu barier językowych została udowodniona? 

Tak i nie. Z jednej strony, technologia dokonała tu ogromnego postępu, z drugiej, całkowite zniknięcie barier to wciąż niedostępny ideał. Język to nie tylko słowa, to także kultura, kontekst, niuanse – a te bywają trudne do przełożenia nawet dla najlepiej wytrenowanej sztucznej inteligencji. Obawy może też budzić fakt, że ludzie mogą przestać się uczyć języków obcych, ufając ślepo maszynom. Coś, co miało łączyć świat, może paradoksalnie prowadzić do utraty pewnych kompetencji (np. spadku liczby poliglotów). Niemniej jednak dr Eaton miała rację - świat od 2021 stał się nieco mniejszy. 

Teza 4: Ludzie będą mogli oddać kontrolę, ale nie odpowiedzialność

Ta myśl dr Eaton zawiera w sobie ważne ostrzeżenie: nawet jeśli pozwolimy AI w dużej mierze przejąć proces pisania czy decydowania, to odpowiedzialność za efekt końcowy nadal spoczywa na człowieku. I jest zdecydowanie coś, co powinniśmy przekazywać naszym studentom. Nie jesteśmy w stanie kontrolować wszystkich narzędzi, weryfikować użycie AI w każdym przypadku, ale możemy przyjąć jako aksjomat: jeśli używasz sztucznej inteligencji, to tylko ty odpowiadasz za efekty i nie ma sensu zwalać winy na algorytm czy halucynacje. 

Przykładów jest cała masa. W 2023 roku w USA dwóch prawników zostało ukaranych grzywną za złożenie do sądu pisma procesowego, które zawierało… sfabrykowane przez AI precedensy sądowe. Jeden z adwokatów, przygotowując argumentację, skorzystał z ChatGPT, by ten wyszukał orzecznictwo na poparcie jego tez. Model GPT zgrabnie wymyślił sześć rzekomych wyroków, które brzmiały wiarygodnie, ale nigdy nie zapadły. Prawnik, nieświadomy fałszerstwa, powołał się na te fikcyjne sprawy. Oczywiście, podobnych przykładów wpadek jest wiele i kto korzysta z narzędzi opartych o duże modele językowe wie, że niekoniecznie powinien ufać wynikom otrzymywanym od AI. 

Nauczyciele akademiccy coraz częściej pozwalają studentom korzystać z AI w trakcie pracy, ale stawiają warunki: student ma obowiązek zweryfikować fakty, poprawność obliczeń, spójność argumentacji. Jeżeli AI popełni błąd, nie jest to usprawiedliwienie. Tak jak kalkulator nie zwalnia z myślenia nad sensem wyniku, tak AI nie zwalnia z myślenia nad prawidłowością i rzetelnością treści. W środowisku naukowym z kolei coraz więcej czasopism wprowadza wytyczne dotyczące użycia AI przy pisaniu artykułów. Redakcje zaznaczają, że autor ponosi pełną odpowiedzialność za treść. Ma to też związek z tym, że nie można ukarać AI, bo nie posiada żadnej osobowości, a co za tym idzie każdorazowo moglibyśmy zwalać winę na ten głupi ChatGTP, Claude czy Co-Pilota. 

Można więc powiedzieć, że ta czwarta teza jest niemal oczywistą prawdą w 2025 roku, ponieważ trudno to zagadnienie rozwiązać inaczej, niż poprzez odpowiedzialność człowieka za pracę maszyny. 

Teza 5: Uznanie autorstwa i źródeł wciąż jest ważne

Śmiem twierdzić, że może ważniejsze, niż kiedykolwiek. Na pierwszy rzut oka mogłoby się wydawać, że świat „postplagiatu” podważa sens tradycyjnego cytowania. Przecież jeśli AI napisze za kogoś artykuł od zera, to autor mógłby powiedzieć: „to moje własne, oryginalne dzieło” (bo nie skopiował cudzych treści, formalnie nie jest to plagiat). W praktyce jednak okazało się, że rzetelna atrybucja jest jeszcze ważniejsza niż dawniej. Dlaczego?

Mimo nowych okoliczności technologicznych, dr Sarah Eaton podkreśliła, że wskazywanie źródeł wiedzy zawsze będzie potrzebne. Innymi słowy, w epoce AI nadal powinniśmy przywiązywać wagę do cytowania, referencji i ogólnie ujawniania, skąd pochodzi treść. 

Po pierwsze, AI sama w sobie nie jest wiarygodnym źródłem informacji, co już wiemy. Modele językowe często tworzą tekst brzmiący świetnie, ale zdarza im się konfabulować lub podawać nieaktualne dane. W 2025 r. serwis Retraction Watch opisał historię pewnej pracy naukowej, w której ponad 90% źródeł okazało się fikcyjne – w tym rzekom recenzja samego artykułu, która nigdy tak naprawdę nie powstała. I znowu, jest to jeden z wielu przypadków, których na świecie są tysiące. Dziś istnieją platformy AI, które za stosunkowo niewysoką opłatą tworzą w kilka godzin prace licencjackie czy magisterskie. Oczywiście pozostaje pytanie: gdzie był promotor? Tym bardziej jednak należy zwracać uwagę na fact checking i weryfikację źródeł. Napisanie świetnie wyglądających głupot, wspartych bibliografią jest dziś wyjątkowo proste. 

Świat nauki ma z tym oczywiście ogromny problem. Coraz więcej redakcji jasno określa zasady: AI nie może być formalnie wymieniona jako współautor publikacji, ale jeżeli z niej korzystano przy pisaniu lub analizie, należy to opisać w sekcji podziękowań lub metodologii. Podobne zalecenia wydają uczelnie studentom: jeśli użyłeś ChatGPT do wygenerowania szkicu wypracowania, to powiedz o tym – np. w przypisie lub komentarzu do pracy. 

Teza 6: Historyczne definicje plagiatu nie mają już znaczenia

Ostatnia z tez dr Eaton sugerowała, że klasyczne pojęcie plagiatu (jako zapożyczania cudzych słów bez podania źródła) stanie się niewystarczające w obliczu AI. Zatem polityki instytucji nauki i edukacji będą musiały się zaadaptować do nowych realiów. Czy tak się stało do 2025 roku?

Rzeczywiście, pojawienie się generatywnej AI wywołało zamęt w rozumieniu plagiatu. Dotychczasowa definicja mówiła zwykle o prezentowaniu cudzej pracy jako własnej, kopiowaniu cudzych słów czy pomysłów bez stosownych przypisów. Jednak w sytuacji, gdy student oddaje pracę napisaną przez AI, nie zachodzi klasyczne kopiowanie cudzych słów – tekst jest przecież oryginalny. Czy to zatem w ogóle plagiat? Niektórzy twierdzą, że nie. 

Argumentują: Plagiat dotyczy prac napisanych przez innych ludzi. AI to nie człowiek, więc przejęcie jej tekstu to nie kradzież czyjejś własności intelektualnej. Taki pogląd wyraziła chociażby badaczka akademicka Debora Weber-Wulff, mówiąc: „Plagiat, moim zdaniem, dotyczy sytuacji, gdy mamy do czynienia z kimś identyfikowanym jako autor – AI nie jest osobą, więc trudno mówić o plagiacie”. W podobnym duchu European Network for Academic Integrity (ENAI) zaproponowała, by nie mieszać pojęć i niedozwolone użycie AI określać innym terminem – np. „nieautoryzowane generowanie treści” – zamiast od razu nazywać to plagiatem. Innymi słowy, część ekspertów sugeruje, że potrzebujemy nowej kategorii oszustwa akademickiego: nie klasycznego plagiatu, lecz właśnie aigiarism (gra słów od AI + plagiarism, co po polsku można zgrabnie przetłumaczyć jako plAIgiat).

Z drugiej strony, wielu specjalistów przekonuje, że istota problemu jest jednak podobna do plagiatu – autor przypisuje sobie coś, czego sam nie wymyślił czy nie napisał w pełni. Dlatego argumentują oni, że użycie AI bez ujawnienia to jednak forma plagiatu – tyle że specyficzna. Bez względu na to, jakie stanowisko przyjmiemy, dalej czujemy wyraźnie, że takie działania są niewłaściwe. 

W środowisku akademickim, również w Polsce, popularność zdobyła rada, by w sylabusach jasno określać zasady użycia AI przy zadaniach i projektach. Takie jawne reguły pomagają zarówno studentom, jak i wykładowcom, zrozumieć co jest, a co nie jest dopuszczalne, redukując niebezpieczną szarą strefę i przestrzeń do bezcelowych dyskusji.

W ten sposób widać, że historyczne podejście do plagiatu faktycznie nie wytrzymało próby czasu. Stare definicje nie zostały może całkiem wyrzucone do kosza (nadal obowiązują w kwestii kopiowania cudzych prac), ale zdecydowanie przestały wystarczać. 

Edukacja w epoce postplagiatu

Przyglądając się sześciu tezom dr Sarah Eaton z perspektywy roku 2025, można śmiało stwierdzić, że większość z jej prognoz znalazła odzwierciedlenie w rzeczywistości – choć czasem z pewnymi zastrzeżeniami lub w nieoczekiwany sposób. Hybrydowe pisanie człowiek-maszyna stało się zjawiskiem masowym: uczniowie, studenci, badacze i profesjonaliści korzystają z AI na co dzień, tak jak korzystają z edytorów tekstu czy Internetu. Sztuczna inteligencja w wielu przypadkach wzbogaciła ludzki proces twórczy, pomagając pokonać ograniczenia (np. językowe czy kreatywne) – ale jednocześnie przypomniała nam, jak ważne są ludzka oryginalność i krytycyzm, by nie popaść w bezmyślne kopiowanie powtarzanych schematów. Bariery między językami faktycznie zaczęły się kruszyć za sprawą coraz lepszych tłumaczeń maszynowych i wsparcia AI. Ale wyłoniły się też nowe bariery natury etycznej.

 

Dr Sarah Elaine Eaton w 2021 roku naszkicowała wizję przyszłości, w której polityka akademicka musi gonić postęp technologiczny. Stało się to na długo przed debiutem ChatGPT, gdy jeszcze nikt z nas nie wiedział, jak bardzo generatywna sztuczna inteligencja zmieni nasze życie. Widzimy, że jesteśmy w samym środku tego procesu zmian. Być może dojdziemy do punktu, gdzie pojęcie plagiatu w tradycyjnym sensie faktycznie odejdzie w cień, bo ważniejsze będzie rozróżnienie oryginalności pracy. Już teraz mówi się, że zamiast zakazywać AI, należy opracować nowe formy oceniania, które premiują unikalny wkład człowieka, kreatywność i krytyczne myślenie – rzeczy, których nawet najlepszy model nie podrobi.


Piotr Maczuga – pisze, nagrywa, szkoli i występuje publicznie, przybliżając temat nowych technologii w edukacji dorosłych. Na co dzień produkuje treści edukacyjne i cyfrowe eventy oraz buduje i modernizuje studia multimedialne. Współzałożyciel Fundacji Digital Creators. Ambasador EPALE.


Zobacz także:

Kuratela treści, czyli nie wszyscy muszą tworzyć

Warto rozmawiać. Techniczne aspekty podcastingu na odległość

Szkolenie jako podcast

Podkast - kiedy warto (a kiedy nie) wykorzystać to narzędzie w praktyce trenera

Podkasting dla trenerów


Źródła i inspiracje:

Likeme (0)