23 listopada 2025

Jawność wykorzystania AI w rozprawach naukowych w świetle standardów Committee on Publication Ethics (COPE)


 


W nawiązaniu do referatu dr Agnieszki Raubo poprosiłem AI o wskazanie, w których aspektach standardy COPE mogą być jeszcze bardziej rozbudowane i jakie ryzyka pokrywają się z omawianymi przez nią problemy z punktu widzenia Committee on Publication Ethics (COPE). Ta bowiem organizacja odnosi się do zastosowania sztucznej inteligencji (AI)/generatywnych modeli językowych (LLM) w publikacji i recenzjach wydawniczych czy tym bardziej - awansowych. 

Cytuję za ChatGPT 5, AI 2025: 

 

"1. Transparentność i ujawnienie użycia AI

  • COPE w „COPE Focus on artificial intelligence” wskazuje, że użycie narzędzi AI w procesie publikacji ma rosnącą rolę — jednak jednocześnie podkreśla, iż autorzy, redaktorzy i recenzenci muszą być jasno świadomi i deklarować gdy korzystają z takich narzędzi. publicationethics.org+1
  • Przykład: publikacja „From Detection to Disclosure — Key Takeaways on AI Ethics from COPE’s Forum” wskazuje, że jedna z głównych kategorii problemów to „Transparency and disclosure” — tj. kiedy użyty został model AI, autorzy (lub redakcja) powinni to ujawnić. The Scholarly Kitchen
  • COPE podkreśla, że „AI is a tool and not an accountable author or reviewer”. The Scholarly Kitchen+1

2. Odpowiedzialność autora/recenzenta/redaktora

  • Jeśli autor korzysta z narzędzia AI, to nawet jeśli fragment został wygenerowany przez AI, autor nadal ponosi pełną odpowiedzialność za treść, jej dokładność, oryginalność, etyczność. enago.com+1
  • COPE wskazuje, że narzędzia AI nie mogą być uznane za autorów – nie spełniają kryteriów autorstwa (np. odpowiedzialności, możliwości odpowiadania za prace). enago.com+1

3. Wykorzystywanie AI jako wsparcie, z zastrzeżeniami

  • COPE zwraca uwagę, że AI może być używane w pewnych aspektach procesu (np. wspomaganie języka, automatyczne sprawdzanie podobieństwa, wykrywanie wzorców nadużyć) — ale pod warunkiem, że istnieje warstwa ludzkiego nadzoru i redaktorskiego sprawdzenia. The Scholarly Kitchen+1
  • Na przykład: analiza COPE Forum mówi o możliwości zastosowania AI w „screening manuscripts for scope, quality … identify suitable reviewers” – ale jednocześnie ostrzega przed przekładaniem decyzyjności w procesie wyłącznie na AI. The Scholarly Kitchen

4. Ryzyka i wyzwania

  • COPE wskazuje na kilka kluczowych ryzyk związanych z AI w publikacji/recenzji:
    • naruszenie poufności (np. przekazanie niepublikowanych treści do zewnętrznego AI-serwisu), OFIS+1
    • generowanie fałszywych danych, „halucynacje” AI, niezweryfikowane referencje, błędy logiczne, co może prowadzić do utraty zaufania w proces publikacyjny. The Scholarly Kitchen
    • nierówny dostęp do zaawansowanych narzędzi AI — może pogłębiać dysproporcje (np. między krajami, instytucjami) i wpływać na równość w publikowaniu. The Scholarly Kitchen

5. Brak jeszcze pełnych, szczegółowych wytycznych

  • COPE sama przyznaje, że choć prace nad wytycznymi dotyczącymi AI idą, to nadal brakuje pełnej standaryzacji w zakresie kiedy, jak i na jakich warunkach można używać modeli AI w recenzji lub pisaniu artykułów. publicationethics.org+1