https://www.pngmart.com/image/609648
W
świetle wskazanych przez AI informacji (ChatGPT 5.0), autorzy rozpraw korzystający z AI jako osoby prawne powinni brać pod uwagę
następujące zapisy i zasady COPE:
"1. AI nie może
być autorem
„AI tools cannot meet the requirements for authorship
as they cannot take responsibility for the submitted work.” PMC+1
Komentarz: COPE podkreśla, że narzędzie AI (np. model językowy) nie
spełnia warunków autorstwa — nie może ponosić odpowiedzialności prawnej, nie
może być stroną w licencjach, nie może deklarować konfliktów interesów.
2. Obowiązek
ujawnienia użycia AI przez autora
„If generative AI was part of the study design … include appropriate methodological detail … If generative AI was used to generate manuscript content, then state clearly in the Acknowledgments section how and where generative AI tool was used.” PMC
Komentarz: Autorzy muszą jasno wskazać, kiedy i w jaki sposób użyli AI –
czy do generowania tekstu, danych, tabel, ilustracji – i podać narzędzie,
wersję, zakres użycia.
3. Pełna
odpowiedzialność autora za treść, także generowaną lub wspieraną przez AI
„Authors must be accountable for the content of AI-generated comments submitted in the manuscript.” PMC
Komentarz: Nawet jeśli fragment tekstu został wygenerowany przez AI,
autor - konkretna osoba - nadal odpowiada za to, że treść jest prawdziwa, oryginalna, nie
narusza praw autorskich, nie zawiera plagiatu, nie wprowadza w błąd.
4. Użycie
AI w recenzji i procesie redakcyjnym – obowiązek przejrzystości i zachowania
poufności
„Peer reviewers … disclose which generative AI tool was used … describe how it was used in supporting peer review generation … editor is accountable for the content of their decisions, including AI-generated content … and the final decision on the manuscript.” PMC+1
Komentarz: AI może wspierać recenzenta lub redaktora (np. w analizie
treści, sprawdzaniu stylu lub danych), ale wtedy użycie musi być ujawnione, a
procedura musi zabezpieczać poufność manuskryptu i standardy recenzji.
5. Ryzyka
związane z AI, które wymagają uwagi
o „AI-generated references may
be fictitious (hallucinations)”. PMC
o „Detection tools są niedoskonałe; nadchodzi etap, że bardziej chodzi o czy deklarowano użycie AI niż czy można je wykryć.” The Scholarly Kitchen
Komentarz: Standardy wskazują, że AI niesie ze sobą specyficzne
zagrożenia — generowanie wymyślonych danych/cytowań, utrata poufności (np.
wprowadzanie treści do narzędzia zewnętrznego), nierówny dostęp do narzędzi AI,
możliwe uprzedzenia. W związku z tym redakcje i recenzenci muszą być czujni.
Kilka
wyróżnionych zaleceń w formie streszczenia
- Nie wskazywać AI jako współautora –
tylko osoby fizyczne mogą być autorami.
- W przypadku użycia AI:
wpis w sekcji „Metodologia” lub „Podziękowania” – nazwa narzędzia, wersja,
zakres użycia.
- Pełna odpowiedzialność autora –
sprawdzenie cytowań, poprawności danych, legalności treści.
- Recenzenci/redaktorzy:
muszą ujawnić, jeśli korzystali z AI, sprawdzić narzędzia pod kątem
poufności i jakości.
- Redakcje:
mogą stosować narzędzia detekcji AI-treści jako jeden z elementów (ale nie
jako jedyne), muszą egzekwować ujawnienie i odpowiedzialność.
- Poufność i etyka:
w procesie peer review, jeśli wykorzystywane są narzędzia AI, należy mieć
pewność, że nie naruszają poufności manuskryptu.
- Równy dostęp:
warto pamiętać, że nierówności w dostępie do narzędzi mogą utrudniać
sprawiedliwość w publikowaniu.
- Stale ewoluujące wytyczne: COPE wskazuje, że temat AI w publikacjach jest nadal rozwijany i zmienia się szybko — redakcje i wydawcy powinni być na bieżąco. The Scholarly Kitchen+1".