W nawiązaniu do referatu
dr Agnieszki Raubo poprosiłem AI o wskazanie, w których aspektach
standardy COPE mogą być jeszcze bardziej rozbudowane i jakie ryzyka pokrywają
się z omawianymi przez nią problemy z punktu widzenia Committee on
Publication Ethics (COPE). Ta bowiem organizacja odnosi się do
zastosowania sztucznej inteligencji (AI)/generatywnych modeli językowych (LLM)
w publikacji i recenzjach wydawniczych czy tym bardziej - awansowych.
Cytuję za ChatGPT
5, AI 2025:
"1. Transparentność
i ujawnienie użycia AI
- COPE w „COPE Focus on artificial
intelligence” wskazuje, że użycie narzędzi AI w procesie publikacji ma
rosnącą rolę — jednak jednocześnie podkreśla, iż autorzy, redaktorzy i
recenzenci muszą być jasno świadomi i deklarować gdy
korzystają z takich narzędzi. publicationethics.org+1
- Przykład: publikacja „From Detection
to Disclosure — Key Takeaways on AI Ethics from COPE’s Forum” wskazuje, że
jedna z głównych kategorii problemów to „Transparency and disclosure” —
tj. kiedy użyty został model AI, autorzy (lub redakcja) powinni to ujawnić. The
Scholarly Kitchen
- COPE podkreśla, że „AI is a tool and not an accountable author or
reviewer”. The
Scholarly Kitchen+1
2. Odpowiedzialność
autora/recenzenta/redaktora
- Jeśli autor korzysta z narzędzia AI,
to nawet jeśli fragment został wygenerowany przez AI, autor nadal
ponosi pełną odpowiedzialność za treść, jej dokładność,
oryginalność, etyczność. enago.com+1
- COPE wskazuje, że narzędzia AI nie
mogą być uznane za autorów – nie spełniają kryteriów autorstwa (np.
odpowiedzialności, możliwości odpowiadania za prace). enago.com+1
3. Wykorzystywanie AI
jako wsparcie, z zastrzeżeniami
- COPE zwraca uwagę, że AI może być
używane w pewnych aspektach procesu (np. wspomaganie
języka, automatyczne sprawdzanie podobieństwa, wykrywanie wzorców nadużyć)
— ale pod warunkiem, że istnieje warstwa ludzkiego nadzoru i
redaktorskiego sprawdzenia. The
Scholarly Kitchen+1
- Na przykład: analiza COPE Forum mówi
o możliwości zastosowania AI w „screening manuscripts for scope, quality …
identify suitable reviewers” – ale jednocześnie ostrzega przed
przekładaniem decyzyjności w procesie wyłącznie na AI. The
Scholarly Kitchen
4. Ryzyka i wyzwania
- COPE wskazuje na kilka kluczowych
ryzyk związanych z AI w publikacji/recenzji:
- naruszenie poufności (np.
przekazanie niepublikowanych treści do zewnętrznego AI-serwisu), OFIS+1
- generowanie fałszywych danych,
„halucynacje” AI, niezweryfikowane referencje, błędy logiczne, co może
prowadzić do utraty zaufania w proces publikacyjny. The
Scholarly Kitchen
- nierówny dostęp do zaawansowanych
narzędzi AI — może pogłębiać dysproporcje (np. między krajami,
instytucjami) i wpływać na równość w publikowaniu. The
Scholarly Kitchen
5. Brak jeszcze pełnych,
szczegółowych wytycznych
- COPE sama przyznaje, że choć prace nad wytycznymi dotyczącymi AI idą, to nadal brakuje pełnej standaryzacji w zakresie kiedy, jak i na jakich warunkach można używać modeli AI w recenzji lub pisaniu artykułów. publicationethics.org+1"
Brak komentarzy:
Prześlij komentarz
Nie będą publikowane komentarze ad personam