W erze sztucznej inteligencji tworzenie ilustracji, wykresów i infografik jeszcze nigdy nie było tak proste. Narzędzia takie jak Midjourney, DALL·E, ChartGPT, czy inne generatory danych wizualnych umożliwiają błyskawiczne przygotowanie grafiki pasującej do każdego tematu. Równocześnie coraz więcej doktorantów i badaczy zaczyna korzystać z tych narzędzi w pracach naukowych, prezentacjach czy artykułach.
Ale z tą łatwością wiąże się poważne ryzyko: nadużycia autorstwa, naruszenia praw autorskich i nieświadomego plagiatu graficznego. W niniejszym wpisie wyjaśniamy, dlaczego nawet grafika „stworzona” przez AI nie zwalnia z obowiązku rzetelnej adnotacji i co należy zrobić, by uniknąć błędów, które mogą zaważyć na wiarygodności pracy naukowej.
Czym jest plagiat graficzny?
Plagiat graficzny to użycie cudzej ilustracji, wykresu, schematu, diagramu lub fotografii bez prawidłowego oznaczenia źródła, lub – co gorsza – bez jakiegokolwiek wskazania, że nie jest to własne dzieło autora.
W świecie nauki obowiązują te same zasady dla obrazów, co dla tekstu:
- Każdy materiał niebędący własnym wytworem intelektualnym musi być odpowiednio zidentyfikowany;
- Użycie cudzych prac wymaga podania źródła, a niekiedy również zgody właściciela praw autorskich;
- Nawet grafika zmodyfikowana (np. przez filtr lub przerysowanie) nie staje się automatycznie oryginalna, jeśli nie zmieniono jej znacząco i nie zaznaczono źródła.
A co z grafiką wygenerowaną przez AI?
Tu pojawia się nowy problem. Grafiki tworzone przez AI nie pochodzą bezpośrednio od człowieka – ale są efektem działania modelu uczonego na cudzych danych. Nawet jeśli obraz „nie wygląda jak nic znanego”, może:
- zawierać elementy składowe zapożyczone z chronionych prac (np. styl, kompozycję, tekstury),
- być zbliżony do istniejących dzieł (co może prowadzić do tzw. „hallucinated derivations”),
- sprawiać wrażenie pracy oryginalnej autora, jeśli nie zostanie odpowiednio oznaczony.
Dlatego brak adnotacji do wygenerowanego obrazu lub wykresu może być uznany za plagiat, nawet jeśli autor nie kopiował niczego intencjonalnie.
Przykłady potencjalnie ryzykownych sytuacji
🔸 Wygenerowany przez AI wykres trendów (np. przez ChartGPT) w artykule naukowym bez oznaczenia źródła danych – może sugerować, że dane są oryginalne, podczas gdy zostały zasymulowane przez model.
🔸 Obrazek „zainspirowany renesansem” wygenerowany przez Midjourney użyty na okładce pracy doktorskiej bez adnotacji o narzędziu – czytelnik może błędnie uznać, że to praca własna autora.
🔸 Infografika stworzona z pomocą Canva lub innego generatora z gotowymi komponentami – elementy te są licencjonowane i często wymagają podania źródła lub linku licencyjnego.
Czy AI może być autorem?
Zgodnie z aktualnym stanem prawnym i etycznym – AI nie jest autorem. Modele takie jak DALL·E czy ChatGPT generują treści bez świadomości, intencji i twórczości w ludzkim sensie. Co to oznacza?
- Odpowiedzialność za obraz, wykres czy grafikę zawsze ponosi człowiek, który je wygenerował, wykorzystał i wprowadził do pracy.
- Nawet jeśli AI pomogło stworzyć coś nowego, to autor tekstu (czy pracy naukowej) podpisuje się pod tym jako osoba decyzyjna.
- Nieoznaczenie pochodzenia grafiki generatywnej (np. „Wykres wygenerowany przez ChartGPT na podstawie danych własnych”) może zostać uznane za próbę zatajenia źródła.
Jak prawidłowo oznaczać grafiki i wykresy z AI?
✅ Adnotacja techniczna
W podpisie pod ilustracją lub w opisie pracy należy jasno wskazać:
- że grafika została wygenerowana przez narzędzie AI (np. „wygenerowano za pomocą DALL·E 3”, „obraz stworzony przez Midjourney”),
- czy dane, na których oparto grafikę, są rzeczywiste, czy syntetyczne,
- ewentualne ograniczenia lub brak źródeł, jeśli AI wygenerowało obraz bez danych wejściowych.
Przykład podpisu:
Rys. 3. Symulacja modelu adaptacyjnego. Wykres wygenerowany za pomocą ChartGPT na podstawie syntetycznych danych. Autor: [Twoje imię i nazwisko].
✅ Opis w metodologii lub przypisach
Jeśli grafiki tworzone są masowo z pomocą AI, warto umieścić informację w sekcji metodologicznej:
„Wybrane ilustracje koncepcyjne (rys. 1–3) zostały wygenerowane z pomocą modelu Midjourney. Autor dokonał selekcji i obróbki finalnej.”
Dobre praktyki doktoranta w tworzeniu i wykorzystywaniu grafik
W dobie nowoczesnych technologii i narzędzi generatywnych opartych na sztucznej inteligencji coraz więcej doktorantów sięga po AI w procesie przygotowywania ilustracji, wykresów czy infografik do swoich prac doktorskich. Choć takie rozwiązania potrafią znacząco przyspieszyć pracę, warto pamiętać, że ich stosowanie wymaga zachowania szczególnej ostrożności i przestrzegania zasad etyki naukowej. Oto kilka kluczowych wskazówek, jak bezpiecznie i odpowiedzialnie korzystać z grafiki w pracy doktorskiej:
Dokładnie zapisuj, jak i kiedy powstała grafika – zawsze notuj, w jakim narzędziu (np. generator AI) i kiedy stworzyłeś daną ilustrację. Takie informacje stanowią nieocenione zabezpieczenie w przypadku, gdy komisja lub recenzenci będą chcieli zweryfikować źródła Twoich materiałów wizualnych.
Unikaj kopiowania obrazów z internetu bez sprawdzenia ich licencji – pamiętaj, że AI często korzysta z baz danych trenowanych na obrazach dostępnych online, a Ty nie masz pełnej kontroli nad tym, czy takie materiały są objęte prawami autorskimi lub wymagają specjalnego oznaczenia. Zawsze sprawdzaj, czy obraz, który chcesz wykorzystać, jest legalny i wolny od ograniczeń licencyjnych.
Konsultuj się z promotorem lub bibliotekarzem akademickim – jeśli masz wątpliwości co do zasad wykorzystania grafiki w swojej pracy doktorskiej, nie bój się pytać. Zasada jest prosta: lepiej zapytać i uniknąć błędu niż narazić się na poważne konsekwencje związane z nieświadomym naruszeniem praw autorskich.
Dbaj o oryginalność również w warstwie wizualnej – pamiętaj, że oryginalność Twojej pracy dotyczy nie tylko treści pisanej, ale także ilustracji i wykresów. To one stanowią integralną część Twojego dorobku naukowego i świadczą o Twojej rzetelności badawczej. Staraj się, aby wszystkie grafiki były czytelne, zrozumiałe i uczciwie oznaczone, tak aby żaden recenzent nie miał wątpliwości co do ich pochodzenia.
Sztuczna inteligencja to narzędzie – nie alibi
AI ułatwia życie naukowca. Ale nie zastępuje odpowiedzialności za treść. W przypadku grafik, wykresów i ilustracji granica między „twórczością” a „zapożyczeniem” jest szczególnie cienka. Dlatego transparentność, oznaczenie źródła i świadomość roli autora to nie tylko wymogi formalne, ale fundament uczciwości akademickiej. Zanim użyjesz generatywnej grafiki w swojej rozprawie, artykule czy prezentacji: Zatrzymaj się. Sprawdź. Zapytaj. Bo choć obraz mówi więcej niż tysiąc słów, odpowiedzialność za każde z nich wciąż ponosi człowiek.
Zamiast polegać wyłącznie na intuicji lub algorytmie, skonsultuj się z osobą, która zna realia publikacji naukowej: promotorem, opiekunem naukowym lub ekspertem od prawa autorskiego. To właśnie ludzie – nie modele – pomogą Ci ocenić, czy dana ilustracja rzeczywiście spełnia standardy rzetelności akademickiej.
Bo sztuczna inteligencja może stworzyć obraz – ale tylko Ty odpowiadasz za jego obecność w nauce!