Bez kategorii

Samoczynne generowanie bibliografii: wygoda kontra ryzyko błędnych cytowań i nieświadomego plagiatu

Automatyzacja wielu zadań badawczych kusi wygodą – w tym także automatyczne generowanie bibliografii za pomocą narzędzi opartych na sztucznej inteligencji. Modele językowe takie jak ChatGPT, Google Bard czy Anthropic Claude potrafią w kilka sekund wygenerować listę pozornie poprawnych źródeł literatury do niemal dowolnego tematu. Dla przyszłego doktoranta lub badacza brzmi to jak spełnienie marzeń: koniec z żmudnym wyszukiwaniem artykułów i ręcznym formatowaniem przypisów. Należy jednak zachować ostrożność. Ta wygoda wiąże się z poważnymi ryzykami – od tzw. halucynacji bibliograficznych (wymyślonych źródeł) przez błędne dane w cytowaniach, aż po nieświadome popadnięcie w plagiat wtórny. W tym wpisie przyjrzymy się bliżej zarówno zaletom, jak i zagrożeniom automatycznego tworzenia bibliografii z pomocą AI. Wyjaśnimy, skąd biorą się błędne cytowania, pokażemy konkretne przykłady takich pomyłek, a także omówimy konsekwencje etyczne i naukowe. Na koniec podpowiemy, jak korzystać z tych narzędzi odpowiedzialnie – tak, by czerpać z nich korzyści, nie tracąc przy tym wiarygodności jako autor.

Czym jest automatyczne generowanie bibliografii przez AI?

Automatyczne generowanie bibliografii to praktyka polegająca na wykorzystaniu inteligentnych chatbotów lub asystentów (np. ChatGPT, Bard, Claude) do tworzenia listy cytowań literatury na zadany temat. Wystarczy wpisać polecenie w stylu: „Podaj 5 najważniejszych publikacji o wpływie mediów społecznościowych na edukację”, a model AI wygeneruje gotowe pozycje bibliograficzne. Zazwyczaj formatowane są one w wybranym stylu (APA, MLA itp.), zawierają nazwiska autorów, tytuły, nazwy czasopism, tomy, numery, strony, a nawet identyfikatory DOI. Dla zapracowanych naukowców brzmi to doskonale – AI może w sekundę wykonać pracę, która normalnie zajęłaby godziny. Co więcej, generatory tekstu oparte na modelach językowych mają „wiedzę” z ogromnych zbiorów danych, więc teoretycznie mogą znać artykuły i książki, do których my dopiero musielibyśmy dotrzeć. To sprawia, że coraz więcej osób eksperymentuje z takimi narzędziami przy przygotowywaniu prac dyplomowych, artykułów naukowych czy przeglądów literatury.

Na czym polega działanie takich narzędzi? Warto zrozumieć, że modele pokroju ChatGPT nie przeszukują aktywnie baz danych w tradycyjny sposób. Zamiast tego generują tekst, przewidując kolejne słowa na podstawie wzorców językowych, które „nauczyły się” z danych treningowych. Innymi słowy, gdy prosimy o bibliografię, model nie wykonuje rzeczywistego wyszukiwania w bibliotekach czy Google Scholar – on tworzy odpowiedź, która brzmi wiarygodnie na podstawie tego, co „przeczytał” wcześniej. Może to oznaczać, że w odpowiedzi AI wymiesza prawdziwe informacje z własnymi uzupełnieniami. W przypadku cytowań bywa to szczególnie problematyczne, o czym za chwilę.

Kusząca wygoda: co oferuje AI przy tworzeniu bibliografii?

Zanim przejdziemy do ostrzeżeń, przyjrzyjmy się przez moment korzyściom. Dlaczego w ogóle ktoś miałby używać AI do generowania bibliografii? Oto kilka potencjalnych zalet takich narzędzi:

  • Błyskawiczne propozycje literatury: Chatbot potrafi w kilka sekund podsunąć nam listę prac powiązanych z naszym tematem. To może być przydatne na początkowym etapie badań, gdy rozpoznajemy teren i chcemy poznać kluczowe źródła. AI może wskazać istotne nazwiska autorów czy tytuły czasopism, o których nie słyszeliśmy. Bywa to inspirujący punkt startowy – jakby wirtualny bibliotekarz zasugerował nam “Sprawdź te pozycje…”.
  • Poszerzanie horyzontów: Narzędzia AI dysponują ogromną „pamięcią” tekstów. Czasem potrafią zasugerować literaturę spoza naszej bańki czy specjalizacji. Mogą np. wskazać artykuły z pokrewnej dziedziny, które rzucają nowe światło na problem. Dla doktoranta szukającego interdyscyplinarnych powiązań może to być cenna pomoc.
  • Oszczędność czasu przy formatowaniu: Generatory potrafią od razu podać cytowanie w określonym stylu bibliograficznym (APA, Chicago, Vancouver itd.). To oznacza, że w teorii możemy zaoszczędzić czas na mozolnym stawianiu przecinków, kropek, kursyw i nawiasów. Automatyczne formatowanie bywa dużym ułatwieniem – wystarczy skopiować i wkleić gotowy przypis (oczywiście po uprzedniej weryfikacji jego poprawności).
  • Podsumowanie i organizacja wiedzy: Niektóre zaawansowane narzędzia AI (jak np. wspomniane w środowisku naukowym aplikacje Consensus czy Elicit) idą krok dalej – nie tylko wskazują źródła, ale i pomagają w ich podsumowaniu. Potrafią np. wygenerować krótkie streszczenia znalezionych artykułów lub posegregować je według tematów. Dla badacza tonącego w setkach PDF-ów taka inteligentna asysta może wydawać się zbawienna.

Patrząc na te zalety, łatwo zrozumieć, skąd entuzjazm. AI może służyć jako inteligentny asystent, który odciąży nas w nużących czynnościach i wskaże nowe tropy w literaturze. Wielu młodych naukowców skusiło się już na wypróbowanie tych możliwości. Niestety – jak zaraz zobaczymy – za ową wygodą czai się druga strona medalu, która wymaga naszej uwagi i krytycyzmu.

Nie rezygnuj z możliwości, jakie daje sztuczna inteligencja – korzystaj z niej z rozwagą i w sposób świadomy. Pamiętaj jednak, że w momentach, gdy decydują się kwestie Twojej wiarygodności i solidności badań, najważniejsze jest wsparcie doświadczonego, rzeczywistego eksperta. To właśnie taka współpraca stanowi najlepszą gwarancję jakości Twojej pracy doktorskiej.

Halucynacje bibliograficzne: gdy AI wymyśla źródła

Jednym z najpoważniejszych zagrożeń jest zjawisko halucynacji bibliograficznych. To termin zapożyczony z żargonu sztucznej inteligencji, oznaczający sytuację, w której model AI z pełnym przekonaniem generuje treści niezgodne z rzeczywistością. W kontekście bibliografii chodzi o cytowania, które wyglądają na wiarygodne, ale w rzeczywistości są zmyślone – dana praca nigdy nie została opublikowana, nie istnieje w żadnej bazie, choć jej opis brzmi bardzo prawdopodobnie.

Dlaczego tak się dzieje? Model językowy „wie”, jak zazwyczaj wyglądają prawdziwe przypisy, więc potrafi tworzyć analogiczne fikcyjne przykłady. Ostrzegają o tym nawet sami twórcy i biblioteki uniwersyteckie. Jak zauważają bibliotekarze z Duke University, ChatGPT potrafi „fabrykować, czyli halucynować cytowania – brzmią one naukowo i wiarygodnie, ale nie są prawdziwe”. Jeśli spróbujemy znaleźć takie źródło w internecie lub katalogu biblioteki, okaże się, że nie istnieje – „nie natrafimy na nic”.

Niestety, użytkownik nieświadomy tego mechanizmu łatwo może dać się zwieść. Wygenerowana bibliografia wygląda profesjonalnie: tytuły artykułów pasują do tematu, nazwiska autorów są znane w danej dziedzinie, czasopisma brzmią renomowanie, a do tego jest nawet DOI wyglądający autentycznie. Wszystko jest jednak dziełem fantazji AI. Jak opisuje jedno z badań, zmyślone cytowania często zawierają prawdziwe elementy – np. istniejące nazwiska badaczy i poprawnie sformatowane identyfikatory DOI – co może łatwo zmylić zarówno studentów, jak i doświadczonych naukowców. Innymi słowy, model potrafi wziąć fragmenty prawdziwych informacji (np. nazwisko uznanego autora, tytuł konferencji, numer tomu czasopisma) i posklejać je w fałszywą całość, która wygląda jak realna publikacja.

Jak często dochodzi do takich halucynacji? Niestety, dość często – zwłaszcza w starszych lub słabszych modelach. Pierwsze doniesienia z 2023 r. wskazywały, że ChatGPT-3.5 generował zatrważająco dużo nieistniejących źródeł. W jednym z eksperymentów ponad połowa (aż 55%) podanych przez niego cytowań okazała się kompletnie zmyślona. Nowsze wersje, jak GPT-4, radzą sobie nieco lepiej, ale wciąż daleko im do niezawodności – w tym samym badaniu stwierdzono, że nawet GPT-4 wytworzył fałszywe dane bibliograficzne w prawie co piątym przypisie (18% przypadków). Co więcej, pewne typy źródeł sprawiają AI szczególną trudność. Dla przykładu, aż 70% cytowanych rozdziałów książkowych wygenerowanych przez GPT-4 nie miało pokrycia w rzeczywistości (najprawdopodobniej dlatego, że model nie dysponował pełnymi informacjami o mniej popularnych rozdziałach, więc je „dopowiedział”).

W innej analizie skupiono się na dziedzinie psychologii i tam wyniki również były alarmujące. Badanie opublikowane na łamach Mind Pad (periodyku Canadian Psychological Association) wykazało, że w zależności od subdyscypliny odsetek fałszywych cytowań z ChatGPT wahał się od 6% do aż 60%. Średnio około 32% wszystkich wygenerowanych przez AI referencji okazało się nie istnieć. To niemal co trzecia pozycja na liście bibliograficznej!

Co gorsza, problem nie dotyczy jedynie ChatGPT. Podobne tendencje zaobserwowano w innych modelach językowych. Dla przykładu, w niedawnym porównaniu możliwości ChatGPT i Google Barda w zbieraniu literatury do przeglądów systematycznych, Bard wypadł dramatycznie słabo. Jego „precyzja” okazała się bliska zeru – w teście nie udało mu się wskazać żadnego poprawnego źródła spośród ponad setki podanych (0% trafności). Innymi słowy, cała bibliografia wygenerowana przez Google Bard nie pokrywała się z rzeczywistymi pracami – najwyraźniej większość albo wszystkie cytowania były halucynacjami. To dobitnie pokazuje, że ryzyko fałszywych źródeł jest realne we wszystkich obecnych chatbotach AI.

Przykłady halucynacji w praktyce

Aby unaocznić skalę problemu, przytoczmy kilka konkretnych przykładów błędnych cytowań wygenerowanych przez AI:

  • Nieistniejący artykuł w prawdziwym czasopiśmie: Jeden z użytkowników forum badawczego opisał sytuację, w której ChatGPT podał mu pozornie rzetelny przypis: zawierał on tytuł artykułu, nazwisko autora, nazwę znanego czasopisma wraz z numerem tomu i stroną publikacji. Gdy badacz próbował odnaleźć ten artykuł, okazało się, że w danym numerze czasopisma nie ma żadnej pozycji nawet zbliżonej tytułem do tej podanej przez AI. Model najwyraźniej wymyślił artykuł, wpasowując go w autentycznie istniejący wolumin pisma – co czyniło mistyfikację wyjątkowo trudną do wychwycenia na pierwszy rzut oka.
  • Fikcyjne decyzje sądowe w pracy prawniczej: Głośnym echem obiła się historia z czerwca 2023 r., gdy pewien amerykański adwokat skorzystał z ChatGPT przy sporządzaniu pisma procesowego. Chatbot podsunął mu listę orzeczeń sądowych pasujących do linii argumentacji. Prawnik, ufając AI, zacytował te sprawy w swoim dokumencie. Niestety, okazało się, że co najmniej sześć z przywołanych orzeczeń w ogóle nie istniało – zostały one w całości zmyślone przez model. Sąd nie był wyrozumiały: ukarał prawnika za niedopełnienie obowiązku rzetelności. Choć ten przykład dotyczy prawa, niesie ważną lekcję dla świata nauki: automatycznie wygenerowane źródła mogą wpędzić autora w poważne tarapaty.
  • „Widmo” ChatGPT w czasopiśmie naukowym: Redakcja jednego z czasopism pedagogicznych (Medical Teacher) otrzymała do recenzji artykuł, w którym autorzy prawdopodobnie użyli ChatGPT do wygenerowania bibliografii. Recenzenci szybko zorientowali się, że coś jest nie tak: wśród cytowanych pozycji były prace o ChatGPT datowane… na lata poprzedzające powstanie ChatGPT, a żadne ze źródeł nie miało numeru DOI ani linku. Innymi słowy, autorzy powołali się na badania rzekomo opisujące narzędzie AI zanim zostało stworzone – co dowodzi, że cytowania były po prostu fałszywe. W komentarzu do tego przypadku Ken Masters (ekspert od AI w edukacji) zauważył, że powielanie nieprawdziwych źródeł może mieć dewastujące skutki dla zaufania do czasopisma i jakości decyzji opartych na takich „dowodach”.

Te przykłady pokazują, że halucynacje bibliograficzne to nie hipotetyczna ciekawostka, lecz realny problem. Mogą dotknąć zarówno studentów piszących prace zaliczeniowe, jak i doświadczonych badaczy przygotowujących artykuł – i mogą pojawić się w każdej dziedzinie, od nauk społecznych, przez medycynę, po prawo. Warto mieć świadomość, że prośba do AI o pomoc w znalezieniu źródeł jest jak prośba do bardzo pewnego siebie asystenta, który niestety czasem konfabuluje. Jak ujął to jeden z komentatorów, „gdy zapytasz ChatGPT o referencje, on je wymyśla”.

Kluczowa zasada brzmi więc: zawsze weryfikuj istnienie i treść źródeł uzyskanych od AI, zanim włączysz je do swojej pracy. W przeciwnym razie możesz paść ofiarą halucynacji bibliograficznej, nawet o tym nie wiedząc.

Błędne dane w cytowaniach: drobne pomyłki, duże konsekwencje

Nawet jeśli narzędzie AI podaje odwołania do rzeczywistych publikacji, nadal nie możemy spuścić gardy. Kolejnym ryzykiem są błędy w danych bibliograficznych. Model AI może co prawda „przypomnieć” sobie, że dany artykuł istnieje, ale pomylić szczegóły albo połączyć informacje z różnych źródeł. W efekcie cytowanie jest częściowo prawdziwe, a częściowo fałszywe. Takie zniekształcone dane mogą być trudniejsze do wykrycia niż całkowicie wymyślone prace – bo czytelnik widzi np. poprawny tytuł i nazwisko, ale reszta się nie zgadza.

Jakiego rodzaju pomyłki mogą się pojawić? Oto najczęstsze przykłady zaobserwowane przez badaczy:

  • Błędni autorzy lub tytuły: AI potrafi przekręcić nazwisko autora (np. podać „Kowalski” zamiast „Konarski”) albo pomieszać tytuły – np. cytuje artykuł A, ale nadaje mu tytuł podobny do artykułu B. W jednym z badań każdy wygenerowany przypis do istniejącej pracy sprawdzano pod kątem takich właśnie istotnych błędów: złych nazwisk, przeinaczonych tytułów, niewłaściwych nazw czasopism czy wydawnictw, błędnych numerów tomów, stron itp.. Okazało się, że nie brakuje tego typu usterek – AI miewa problemy z dokładnym odtworzeniem wszystkich elementów nawet prawdziwego źródła.
  • Nieprawidłowe DOI i linki: Często generowane identyfikatory DOI wyglądają bardzo wiarygodnie na pierwszy rzut oka, ale po wklejeniu ich do przeglądarki okazują się ślepym tropem. Model może wygenerować ciąg znaków w formacie DOI (np. 10.1177/03057356211030985 – który zresztą faktycznie cytował jako przykład pewien badacz), lecz ten identyfikator nie prowadzi do żadnej publikacji. Podobnie bywa z linkami URL – AI czasem tworzy link, który ma poprawną strukturę (np. domena znanego wydawcy), ale końcówka jest fikcyjna. W rezultacie poszukiwanie źródła przez DOI lub URL kończy się fiaskiem.
  • Mylone wydania i paginacja: Zdarza się, że chatbot pomyli rok wydania albo numer wydania książki, wskaże zły numer zeszytu czasopisma, albo poda zakres stron, który nie pasuje do rzeczywistości. Mogą to być pozornie drobne pomyłki, ale wprowadzają chaos – bibliografia zawierająca takie niespójności traci na wiarygodności, a czytelnik próbujący dotrzeć do źródła może się zniechęcić, widząc niepasujące dane.

Skąd biorą się te błędy? Najczęściej z natury samego modelu AI. Ponieważ model operuje na statystycznych prawidłowościach języka, może mieszać fragmenty informacji, gdy nie jest pewien. Przykładowo, jeśli w danych treningowych widział dwie podobne publikacje (np. dwa artykuły o zbliżonym tytule, ale różnych autorach), wygenerowany przypis może być swoistą hybrydą – autor z jednej pracy, tytuł z drugiej. Albo model „wie”, że dany autor badał dany temat, więc przypisuje mu artykuł, który w rzeczywistości napisał ktoś inny o podobnym nazwisku. To, co dla człowieka jest oczywistą pomyłką, dla AI jest po prostu najbardziej statystycznie prawdopodobnym ciągiem słów.

Konsekwencje takich błędów mogą być poważne: od odrzucenia naszego tekstu przez recenzenta (jeśli ten wychwyci nieścisłość i nabierze podejrzeń co do rzetelności autora) po realne problemy z ustaleniem faktów (np. kiedy ktoś próbuje zweryfikować nasze dane, a nie może odnaleźć przytoczonej informacji z powodu błędnego cytowania). W najlepszym razie błędne przypisy ośmieszą autora, w najgorszym – podważą wiarygodność całej pracy.

Przykład: Wyobraźmy sobie, że piszemy artykuł i chcemy zacytować klasyczną pracę Smitha z 2010 r. na interesujący nas temat. Prosimy AI o pomoc, a ono zwraca nam cytowanie: “Smith, J. (2010). Title about our topic. Prestigious Journal, 12(3), 45-59.” Na pozór wszystko wygląda dobrze. Ale po weryfikacji odkrywamy, że owszem, Smith pisał o tym, ale w 2011 r., nie 2010; artykuł ukazał się w tomie 11 numer 3, a nie 12(3); i w dodatku stronice w oryginale to 145-159, nie 45-59. Model AI wygenerował poprawnie brzmiący, lecz częściowo fałszywy przypis. Gdybyśmy ślepo przepisali te dane, nasza bibliografia zawierałaby cały szereg nieścisłości. Recenzent mógłby pomyśleć, że niedbale przepisywaliśmy źródła albo – co gorsza – że nie czytaliśmy cytowanej pracy, bo inaczej zauważylibyśmy te pomyłki.

Podsumowując: automatycznie wygenerowane cytowanie może zawierać realne błędy nawet jeśli odwołuje się do istniejącej publikacji. Nie wystarczy więc upewnić się, że źródło istnieje – trzeba także sprawdzić, czy wszystkie detale (autorzy, tytuł, rok, wolumin, numery stron, DOI itp.) są zgodne z oryginałem. Poprawianie takich usterek to dodatkowa praca, która i tak spadnie na nas jako na autorów.

Nieświadome kopiowanie cytowań a ryzyko plagiatu wtórnego

W ferworze korzystania z ułatwień AI łatwo przekroczyć cienką granicę między legalną inspiracją a działaniem nieetycznym. Jednym z subtelnych zagrożeń jest nieświadome kopiowanie cudzych cytowań – co bywa nazywane plagiatem wtórnym. Jak do tego dochodzi? Wyobraźmy sobie sytuację: znajdujemy ciekawy artykuł X, który cytuje prace Y i Z. Nie mamy czasu czytać Y i Z, ale ufamy autorowi X, że to ważne źródła, więc postanawiamy również uwzględnić je w swojej bibliografii. Jeśli zrobimy to bez sięgnięcia do oryginałów Y i Z, popełniamy poważny błąd warsztatowy (a niektórzy powiedzieliby – etyczny). Dosłownie przejmujemy cudze cytowania. W ten sposób można nieświadomie powielać czyjąś omyłkę lub interpretację, a także wprowadzić do własnej pracy pozycje, z którymi faktycznie nie mamy bezpośredniej styczności.

Gdzie tu rola AI? Otóż generatory bibliografii mogą pogłębić ten problem. ChatGPT czy Bard uczą się na podstawie ogromnych zbiorów tekstów, w tym zapewne również bibliografii z istniejących publikacji. Gdy prosimy je o listę źródeł, część z nich może pochodzić z literatury, którą model „widział” – czyli de facto mogą to być cytowania zaczerpnięte z prac innych autorów, którzy kiedyś je zestawili u siebie. Jeśli my bezrefleksyjnie przejmiemy te propozycje i włączymy do własnej bibliografii, to tak, jakbyśmy skopiowali cudzy dobór literatury. Być może AI wskaże nam artykuł, którego nigdy nie czytaliśmy, tylko dlatego, że gdzieś pojawił się w kontekście naszego tematu.

To rodzi dwa problemy:

  • Po pierwsze, łamiemy zasadę rzetelności naukowej, cytując pracę, z którą się nie zapoznaliśmy. W przypisie sugerujemy, że opieramy się na danym źródle, choć tak nie jest. Jest to sprzeczne z etyką badań – przypomina cytowanie „na ślepo”. Oczywiście, czasem cytuje się prace za pośrednictwem innych (tzw. cytowanie wtórne), ale wymaga to odpowiedniego oznaczenia (np. „cyt. za: …”), a najlepiej jednak dotarcia do źródła pierwotnego. AI zachęca nas do pominięcia tego kroku.
  • Po drugie, możemy nieświadomie popełnić plagiat bibliografii. Jeśli lista literatury w naszej pracy pokrywa się podejrzanie dokładnie z listą z jakiegoś innego artykułu (np. tego, którym „naczycił się” model AI), recenzent lub promotor może nabrać uzasadnionych podejrzeń. Bywały przypadki, że studenci kopiowali bibliografię z pracy znalezionej w sieci – traktuje się to jako oszustwo. Wykorzystanie AI może być mniej oczywiste do wykrycia, ale efekt podobny: w naszym tekście pojawiają się cytowania, które są „dziełem” kogoś innego (czy to innego autora, czy samego modelu AI, który przejął je z cudzych prac).

Warto podkreślić słowo „nieświadome” w kontekście tego plagiatu. Doktorant korzystający z AI może nie mieć złych intencji – może myśleć: „Skoro AI podaje mi tę książkę, to pewnie jest ważna, dodam ją”. Jednak niewiedza nie zwalnia z odpowiedzialności. Jeśli nie przeczytaliśmy danej pozycji, a mimo to ją cytujemy, wprowadzamy w błąd odbiorców naszej pracy. W literaturze anglosaskiej pojawia się nawet pojęcie citation plagiarism, odnoszące się do przejmowania cudzych referencji bez samodzielnego zweryfikowania ich treści.

Już przed erą AI problem ten istniał. Jak zauważył wspomniany Ken Masters, „powoływanie się na artykuły bez ich przeczytania już jest problemem w akademii”, a dostępność ChatGPT może ten problem spotęgować. Dlaczego? Bo teraz znacznie łatwiej dostać gotową listę pozornie relewantnych pozycji bez wysiłku. Dawniej trzeba było przynajmniej przekartkować cudzą bibliografię – dziś wystarczy jedno pytanie do chatbota i mamy wynik. Pokusa pójścia na skróty jest silniejsza niż kiedykolwiek.

Konsekwencje dla młodego naukowca mogą być poważne. Promotor lub recenzent, który zorientuje się, że autor nie zna własnych cytowanych źródeł, może zakwestionować całą pracę. W skrajnych przypadkach uzna to za przejaw nierzetelności naukowej lub nawet plagiatu (zwłaszcza jeśli powielono charakterystyczny zestaw referencji z cudzego dzieła). Utrata zaufania akademickiego na starcie kariery to coś, czego każdy doktorant wolałby uniknąć.

Jak temu zaradzić? Zasada jest prosta: cytuj tylko to, co sam przeczytałeś lub co faktycznie wykorzystujesz i rozumiesz. Jeśli AI zasugeruje jakąś publikację, nie dodawaj jej automatycznie do bibliografii „bo ładnie wygląda”. Zdobądź ją, przejrzyj, oceń przydatność. Może się okazać, że praca wcale nie dotyczy dokładnie tego, o co Ci chodziło, lub że AI błędnie ją opisał. A może faktycznie będzie cenna – wtedy możesz ją rzetelnie włączyć, już jako świadomy autor, nie „kopista” cudzych cytowań.

Konsekwencje etyczne i naukowe: od utraty wiarygodności po plagiat

Zbierając powyższe wątki, warto wyraźnie zaznaczyć, jakie mogą być skutki nieostrożnego korzystania z AI przy tworzeniu bibliografii. Zarówno halucynacje bibliograficzne, jak i błędy w cytowaniach czy plagiat wtórny, mogą nadszarpnąć coś bardzo cennego w świecie nauki – wiarygodność autora. Oto główne konsekwencje, z jakimi trzeba się liczyć:

  • Ryzyko plagiatu (także wtórnego): Wykorzystanie cudzych sformułowań bez cytowania to plagiat, ale plagiatem może być również wykorzystanie cudzych pomysłów lub zestawień. Jeśli AI „podrzuci” nam czyjąś oryginalną kompilację literatury, a my ją wykorzystamy bez kredytu lub zrozumienia, ocieramy się o nieuczciwość. Ponadto, jak opisano wyżej, cytowanie prac bez ich przeczytania może być uznane za wprowadzanie w błąd, czyli działanie nieetyczne. Systemy antyplagiatowe (np. JSA w Polsce) co prawda wykrywają głównie powtórzony tekst, ale promotor czy recenzent merytoryczny może wychwycić nieuzasadnione podobieństwo naszej bibliografii do innych źródeł.
  • Utrata zaufania i wiarygodności: Naukowiec jest tak dobry, jak jego metodologia i rzetelność. Jeśli w naszej pracy wyjdą na jaw nieistniejące pozycje lub liczne błędy w przypisach, czytelnik (bądź recenzent) zacznie się zastanawiać, co jeszcze zrobiliśmy niedbale. Nietrafione lub fałszywe źródła podważają wiarygodność całej argumentacji. Reputacja młodego badacza może ucierpieć, a w świecie nauki łatka osoby nierzetelnej potrafi przylgnąć na długo. W przypadku prac doktorskich czy habilitacyjnych konsekwencje mogą być fatalne – od odrzucenia pracy, przez opóźnienia, aż po postępowania dyscyplinarne w skrajnych sytuacjach.
  • Błędne wnioski i „efekt motyla” w nauce: Bibliografia to podstawa, na której budujemy nasze tezy. Jeżeli wprowadzimy do niej fałsz (świadomie lub nie), to tak jakbyśmy wpuścili do obiegu naukowego toksynę. Ktoś inny może oprzeć się na naszym cytowaniu i dalej powielać błąd, wierząc, że to my go zweryfikowaliśmy. W ten sposób niewinne zaufanie do AI może skutkować rozpowszechnianiem nieprawdziwych informacji w literaturze naukowej. Przykładowo, jeśli wskażemy w przeglądzie literatury kilka „wydmuszek” (prac, które nie istnieją), to przyszli badacze mogą tracić czas, próbując je znaleźć, albo – co gorsza – cytować je za nami. Tak rodzą się miejskie legendy naukowe i „widma” w spisach literatury.
  • Konsekwencje prawne i formalne: Co prawda prawo autorskie na razie nie reguluje wprost korzystania z AI przy bibliografii, ale jeśli doszłoby do skrajnych nadużyć (np. jawne przepisanie cudzego zestawienia bibliografii z naruszeniem praw autorskich edytorskich), mogłyby pojawić się roszczenia. Bardziej realne są jednak formalne następstwa akademickie: np. cofnięcie publikacji (retrospektywna errata lub wycofanie artykułu) w razie wykrycia, że zawierał fikcyjne cytaty. Dla autora to naukowy blamaż.

Krótko mówiąc, stawką jest nasza reputacja i rzetelność naukowa. Błędy bibliograficzne były dotąd postrzegane jako objaw niedbałości; teraz dochodzi nowa warstwa – podejrzenie, że ktoś mógł próbować pójść na skróty z AI. Co ważne, redakcje i recenzenci zaczynają być wyczuleni na ten problem. Pojawiają się rekomendacje, by uważnie sprawdzać wszystkie źródła w nadesłanych manuskryptach, szukać „dziur” (np. brak DOI tam, gdzie być powinien) i nie wahać się dopytywać autorów o oryginały cytowanych prac. Słowem – oszustwo (nawet niezamierzone) prędzej czy później wyjdzie na jaw.

AI jako pomocnik, nie zastępca: zachowajmy równowagę

Po serii ostrzeżeń warto podkreślić jedno: narzędzia AI same w sobie nie są złem wcielonym. Wszystko zależy od tego, jak z nich korzystamy. Można bezpiecznie czerpać z ich mocnych stron, jednocześnie minimalizując ryzyka omówione powyżej. Kluczowa jest świadomość ograniczeń sztucznej inteligencji i przyjęcie zasady, że to człowiek – badacz ponosi ostateczną odpowiedzialność za poprawność bibliografii.

Jak mądrze korzystać z AI w tym obszarze? Oto kilka wskazówek i dobrych praktyk:

  • Używaj AI jako inspiracji, nie wyroczni. Jeśli utknąłeś w poszukiwaniu literatury, zapytaj ChatGPT o sugestie – ale potraktuj je wyłącznie jako punkt wyjścia. Możesz potem sprawdzić te sugestie w wiarygodnych źródłach (bazach danych, katalogach bibliotecznych). Nie kopiuj i nie wklejaj bezmyślnie całej listy od AI do swojej pracy.
  • Weryfikuj każde źródło podane przez AI. Zasadę tę warto powtórzyć: sprawdź istnienie publikacji (np. poprzez Google Scholar, PubMed, CrossRef), a następnie zweryfikuj szczegóły bibliograficzne. Jeśli czegoś nie możesz znaleźć od razu, istnieje duża szansa, że to halucynacja. Nawet jeśli publikacja istnieje, porównaj tytuł, autorów, rok, DOI z tym, co podał model – popraw ewentualne różnice. Ta dodatkowa praca jest niezbędna, by uniknąć wpadki.
  • Nie proś AI o „listę źródeł” bez krytycznego nastawienia. Eksperci z bibliotek wręcz ostrzegają przed takim podejściem. Duke University Libraries zaleca: „Nigdy nie każ ChatGPT sporządzać listy źródeł do danego tematu”, bo choć czasem trafi poprawnie, to równie dobrze może wymyślić nieistniejące prace. Lepiej zadać pytanie inaczej: np. poprosić o omówienie tematu (by uzyskać konteksty, pojęcia, nazwiska kluczowych autorów), a dopiero potem samemu poszukać literatury na tej podstawie.
  • Korzystaj ze sprawdzonych narzędzi do zarządzania bibliografią. AI to nie jedyna droga ułatwiająca pracę z literaturą. Programy takie jak Zotero, Mendeley czy EndNote od lat pomagają badaczom w gromadzeniu i formatowaniu bibliografii. Co prawda nie wyszukają one za Ciebie nowych artykułów „na zawołanie”, ale doskonale integrują się z bazami danych i umożliwiają automatyczne importowanie prawdziwych rekordów bibliograficznych (bez literówek i przeinaczeń, bo często bezpośrednio z CrossRef lub innych katalogów). Ponadto zapewniają spójność stylu cytowań w całym tekście. Wykorzystaj te narzędzia jako bezpieczną podporę techniczną – AI zostaw ewentualnie do burzy mózgów, a konkretne przypisy powierz aplikacjom bibliograficznym, które łączą się z wiarygodnymi źródłami.
  • Skonsultuj się z promotorami i bibliotekażami. Nie wahaj się zapytać bardziej doświadczonych naukowców o pomoc w doborze literatury. Promotor czy opiekun naukowy z pewnością woli poświęcić czas na naprowadzenie Cię na dobre źródła, niż później odkryć w Twojej pracy rażące braki lub błędy. Również bibliotekarze naukowi (specjaliści od informacji) mogą pomóc w skutecznym wyszukiwaniu literatury. To ludzie, a nie algorytmy, więc nie „zhalucynują” odpowiedzi – mogą za to polecić konkretne bazy danych, czasopisma warte przejrzenia czy sprawdzone strategie wyszukiwania. Pamiętaj, że klasyczne metody (jak przeszukiwanie baz Scopus, Web of Science, Google Scholar, czy nawet przegląd bibliografii w ważnych publikacjach) wciąż są fundamentem rzetelnego researchu.
  • Zachowaj logikę i krytycyzm. Kiedy AI proponuje Ci jakieś źródło, zastanów się: czy to w ogóle ma sens, że taka praca istnieje? Jeśli np. model twierdzi, że w 2020 roku ukazał się artykuł dokładnie o Twojej wąskiej niszy badawczej w czołowym czasopiśmie – sprawdź to podwójnie. Zwracaj uwagę na detale, które mogą zdradzić fałsz, np. brak numeru DOI, data publikacji, która nie pasuje do stanu wiedzy (jak w przykładzie z pracami o ChatGPT sprzed jego powstania). Nie zakładaj, że “skoro jest podane, to na pewno istnieje”.
  • Dokumentuj proces pozyskania źródeł. Dla własnego spokoju sumienia i ewentualnie na potrzeby wyjaśnień, miej zapisane, skąd wziąłeś dane cytowanie. Jeśli AI zasugerowało Ci jakąś pracę, zapisz sobie tę informację (np. w notatkach do bibliografii dopisz: „znalezione przez ChatGPT, zweryfikowane w bazie X dnia Y”). W razie wątpliwości łatwiej będzie Ci prześledzić drogę, jak dana pozycja trafiła do Twojej listy. To może też być przestrogą – jeśli przy którejś pozycji masz notatkę „z AI – nie znaleziono potwierdzenia”, wiesz, że trzeba ją usunąć, zanim oddasz pracę.

Automatyczne generowanie bibliografii za pomocą AI to kusząca ścieżka na skróty. Pamiętajmy jednak, że w nauce nie ma drogi na skróty, która nie wiązałaby się z ryzykiem. Wygoda oferowana przez ChatGPT czy inne modele idzie w parze z potencjalnymi błędami, które mogą kosztować nas bardzo drogo – od poprawek i opóźnień, po utratę reputacji lub oskarżenia o plagiat.

Doktoranci i badacze, mają obowiązek dochować najwyższej staranności w dokumentowaniu źródeł. Sztuczna inteligencja może być świetnym sługą, ale kiepskim panem. Wykorzystujmy ją tam, gdzie faktycznie pomaga (np. do znalezienia nowych haseł, koncepcji, ogólnego rozeznania w temacie), ale nie powierzajmy jej na ślepo tak kluczowej kwestii, jak rzetelność naszych przypisów. Ostateczna odpowiedzialność za poprawność bibliografii zawsze spoczywa na człowieku – autorze.

Pamiętaj o odpowiedzialnej postawie autora: bądź ciekawy nowych technologii, lecz jednocześnie krytyczny wobec ich ograniczeń. Ucz się od doświadczonych naukowców, korzystaj z tradycyjnych, sprawdzonych metod wyszukiwania literatury i narzędzi zarządzania nią. Jeśli już sięgamy po AI, róbmy to z pełną świadomością i gotowością do weryfikacji otrzymanych wyników.

Twoja praca doktorska czy artykuł naukowy mają szansę stać się trwałym wkładem w wiedzę – zadbaj, by opierały się na solidnych fundamentach, a nie na „halucynacjach” algorytmu. Zachowując ostrożność i uczciwość, możemy czerpać korzyści z nowych technologii, nie przekraczając granicy akademickiej rzetelności.

Korzystaj z AI mądrze, pytaj mentorów, sprawdzaj każde źródło i buduj swoją bibliografię odpowiedzialnie. Tylko wtedy nowoczesne narzędzia staną się sprzymierzeńcem, a nie zagrożeniem, na drodze do naukowego sukcesu.

Nie odrzucaj zalet sztucznej inteligencji – traktuj ją jako sprytne narzędzie w swoim warsztacie badawczym. Gdy jednak stawką są Twoja reputacja naukowa i wiarygodność wyników, postaw na kontakt z prawdziwym, doświadczonym specjalistą. To właśnie osobiste konsultacje stanowią najpewniejszą inwestycję w rzetelny i wartościowy doktorat.

Skonsultuj się z nami!

Leave a Comment

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *