https://www.pngmart.com/image/609648
W
świetle wskazanych przez AI informacji (ChatGPT 5.0), autorzy rozpraw korzystający z AI jako osoby prawne powinni brać pod uwagę
następujące zapisy i zasady COPE:
"1. AI nie może
być autorem
„AI tools cannot meet the requirements for authorship
as they cannot take responsibility for the submitted work.” PMC+1
Komentarz: COPE podkreśla, że narzędzie AI (np. model językowy) nie
spełnia warunków autorstwa — nie może ponosić odpowiedzialności prawnej, nie
może być stroną w licencjach, nie może deklarować konfliktów interesów.
2. Obowiązek
ujawnienia użycia AI przez autora
„If generative AI was part of the study design … include appropriate methodological detail … If generative AI was used to generate manuscript content, then state clearly in the Acknowledgments section how and where generative AI tool was used.” PMC
Komentarz: Autorzy muszą jasno wskazać, kiedy i w jaki sposób użyli AI –
czy do generowania tekstu, danych, tabel, ilustracji – i podać narzędzie,
wersję, zakres użycia.
3. Pełna
odpowiedzialność autora za treść, także generowaną lub wspieraną przez AI
„Authors must be accountable for the content of AI-generated comments submitted in the manuscript.” PMC
Komentarz: Nawet jeśli fragment tekstu został wygenerowany przez AI,
autor - konkretna osoba - nadal odpowiada za to, że treść jest prawdziwa, oryginalna, nie
narusza praw autorskich, nie zawiera plagiatu, nie wprowadza w błąd.
4. Użycie
AI w recenzji i procesie redakcyjnym – obowiązek przejrzystości i zachowania
poufności
„Peer reviewers … disclose which generative AI tool was used … describe how it was used in supporting peer review generation … editor is accountable for the content of their decisions, including AI-generated content … and the final decision on the manuscript.” PMC+1
Komentarz: AI może wspierać recenzenta lub redaktora (np. w analizie
treści, sprawdzaniu stylu lub danych), ale wtedy użycie musi być ujawnione, a
procedura musi zabezpieczać poufność manuskryptu i standardy recenzji.
5. Ryzyka
związane z AI, które wymagają uwagi
o „AI-generated references may
be fictitious (hallucinations)”. PMC
o „Detection tools są niedoskonałe; nadchodzi etap, że bardziej chodzi o czy deklarowano użycie AI niż czy można je wykryć.” The Scholarly Kitchen
Komentarz: Standardy wskazują, że AI niesie ze sobą specyficzne
zagrożenia — generowanie wymyślonych danych/cytowań, utrata poufności (np.
wprowadzanie treści do narzędzia zewnętrznego), nierówny dostęp do narzędzi AI,
możliwe uprzedzenia. W związku z tym redakcje i recenzenci muszą być czujni.
Kilka
wyróżnionych zaleceń w formie streszczenia
- Nie wskazywać AI jako współautora –
tylko osoby fizyczne mogą być autorami.
- W przypadku użycia AI:
wpis w sekcji „Metodologia” lub „Podziękowania” – nazwa narzędzia, wersja,
zakres użycia.
- Pełna odpowiedzialność autora –
sprawdzenie cytowań, poprawności danych, legalności treści.
- Recenzenci/redaktorzy:
muszą ujawnić, jeśli korzystali z AI, sprawdzić narzędzia pod kątem
poufności i jakości.
- Redakcje:
mogą stosować narzędzia detekcji AI-treści jako jeden z elementów (ale nie
jako jedyne), muszą egzekwować ujawnienie i odpowiedzialność.
- Poufność i etyka:
w procesie peer review, jeśli wykorzystywane są narzędzia AI, należy mieć
pewność, że nie naruszają poufności manuskryptu.
- Równy dostęp:
warto pamiętać, że nierówności w dostępie do narzędzi mogą utrudniać
sprawiedliwość w publikowaniu.
- Stale ewoluujące wytyczne: COPE wskazuje, że temat AI w publikacjach jest nadal rozwijany i zmienia się szybko — redakcje i wydawcy powinni być na bieżąco. The Scholarly Kitchen+1".
Ma to sens. Brzmi to trochę jak wołanie o cofnięcie się do dawnych epok. A może nie? Chirurg opisuje jakich narzędzi używał w czasie operacji. Grafik opisuje jakich narzędzi używał podczas tworzenia grafiki. Mechanik opisuje jakich narzędzi użył do naprawienia samochodu. Piekarz opisuje składniki i metodę wypiekania chleba.
OdpowiedzUsuńNajlepiej zatem będzie utrwalać zamknięcie się w jednej subsziedzinie naukowej i wychwytywanie w sposób lakoniczny kto w publikacji użył AI, aby utrzymać tak długo jak się da [to jak wygrać dziesięć razy z rzędu w dużego lotka] swoją pozycję (społeczną) w oparciu o... - no właśnie, "o co?"
W kształceniu pedagogów Cope - a przynajmniej Pana wybrane treści - miałyby sens, gdyby system i jego jakość kształcenia pedagogów, jak i jakość szkolnictwa też miał sens. Z Pana postu nasuwa mi się prosta refleksja: "gdyby (za pomocą) AI kształcić/ło (przyszłych) rodziców do roli nauczyciela, wtedy niepotrzebni byliby nauczyciele" - oczywiście z pozoru, bo wykształcony rodzic może być dobrym i refleksyjnym nadzorcą nauczyciela.
Niestety, ale obawiam się, że sposób weryfikacji wiedzy (w tym umiejętności) - może niekoniecznie uczniów i nie wszystkich i we wszystkich placówkach - ale studentów pozostawia troszkę do życzenia. To tak jakby student miał się przyznać, że wspomógł się AI przy odrobieniu pracy "Napisz na pół strony A4 czym jest pojęcie pedagogiki i uwzględnij jego potencjał aksjologiczny" - tu pojawi się problem, czy AI jest równoznaczne roli słownika (online). Ale główny problem - z resztą wie Pan profesor o tym doskonale - to niska jakość kształcenia refleksyjnych nauczycieli, a zamiast tego męczennicy, krzyczący kto ma, kto miał i kto będzie miał gorzej, gdy "władza sama się wyżywia".
Adrian Merchelski