24 listopada 2025

Kluczowe zapisy i zasady stosowania AI w nauce

 


https://www.pngmart.com/image/609648


W świetle wskazanych przez AI informacji (ChatGPT 5.0), autorzy rozpraw korzystający z AI jako osoby prawne powinni brać pod uwagę następujące zapisy i zasady COPE

 

"1.     AI nie może być autorem

„AI tools cannot meet the requirements for authorship as they cannot take responsibility for the submitted work.” PMC+1

Komentarz: COPE podkreśla, że narzędzie AI (np. model językowy) nie spełnia warunków autorstwa — nie może ponosić odpowiedzialności prawnej, nie może być stroną w licencjach, nie może deklarować konfliktów interesów.

2.     Obowiązek ujawnienia użycia AI przez autora

„If generative AI was part of the study design … include appropriate methodological detail … If generative AI was used to generate manuscript content, then state clearly in the Acknowledgments section how and where generative AI tool was used.” PMC


Komentarz: Autorzy muszą jasno wskazać, kiedy i w jaki sposób użyli AI – czy do generowania tekstu, danych, tabel, ilustracji – i podać narzędzie, wersję, zakres użycia.

3.     Pełna odpowiedzialność autora za treść, także generowaną lub wspieraną przez AI

„Authors must be accountable for the content of AI-generated comments submitted in the manuscript.” PMC


Komentarz: Nawet jeśli fragment tekstu został wygenerowany przez AI, autor - konkretna osoba - nadal odpowiada za to, że treść jest prawdziwa, oryginalna, nie narusza praw autorskich, nie zawiera plagiatu, nie wprowadza w błąd.

4.     Użycie AI w recenzji i procesie redakcyjnym – obowiązek przejrzystości i zachowania poufności

„Peer reviewers … disclose which generative AI tool was used … describe how it was used in supporting peer review generation … editor is accountable for the content of their decisions, including AI-generated content … and the final decision on the manuscript.” PMC+1


Komentarz: AI może wspierać recenzenta lub redaktora (np. w analizie treści, sprawdzaniu stylu lub danych), ale wtedy użycie musi być ujawnione, a procedura musi zabezpieczać poufność manuskryptu i standardy recenzji.

5.     Ryzyka związane z AI, które wymagają uwagi

o    „AI-generated references may be fictitious (hallucinations)”. PMC

o    „Detection tools są niedoskonałe; nadchodzi etap, że bardziej chodzi o czy deklarowano użycie AI niż czy można je wykryć.” The Scholarly Kitchen


Komentarz: Standardy wskazują, że AI niesie ze sobą specyficzne zagrożenia — generowanie wymyślonych danych/cytowań, utrata poufności (np. wprowadzanie treści do narzędzia zewnętrznego), nierówny dostęp do narzędzi AI, możliwe uprzedzenia. W związku z tym redakcje i recenzenci muszą być czujni.


Kilka wyróżnionych zaleceń w formie streszczenia

  • Nie wskazywać AI jako współautora – tylko osoby fizyczne mogą być autorami.
  • W przypadku użycia AI: wpis w sekcji „Metodologia” lub „Podziękowania” – nazwa narzędzia, wersja, zakres użycia.
  • Pełna odpowiedzialność autora – sprawdzenie cytowań, poprawności danych, legalności treści.
  • Recenzenci/redaktorzy: muszą ujawnić, jeśli korzystali z AI, sprawdzić narzędzia pod kątem poufności i jakości.
  • Redakcje: mogą stosować narzędzia detekcji AI-treści jako jeden z elementów (ale nie jako jedyne), muszą egzekwować ujawnienie i odpowiedzialność.
  • Poufność i etyka: w procesie peer review, jeśli wykorzystywane są narzędzia AI, należy mieć pewność, że nie naruszają poufności manuskryptu.
  • Równy dostęp: warto pamiętać, że nierówności w dostępie do narzędzi mogą utrudniać sprawiedliwość w publikowaniu.
  • Stale ewoluujące wytyczne: COPE wskazuje, że temat AI w publikacjach jest nadal rozwijany i zmienia się szybko — redakcje i wydawcy powinni być na bieżąco. The Scholarly Kitchen+1".