Bezmyślne "przeklejki" z ChataGPT w setkach naukowych publikacji
Coraz więcej publikacji naukowych zawiera fragmenty wygenerowane przez sztuczną inteligencję — często bez ujawnienia tego faktu. Jak alarmują prof. Artur Strzelecki z Uniwersytetu Ekonomicznego w Katowicach oraz eksperci cytowani przez „Nature”, problem ma charakter systemowy i może podważać wiarygodność badań. Ukryte użycie narzędzi AI, „cicha korekta” tekstów już opublikowanych i kaskadowe powielanie niezweryfikowanych treści pokazują, że nauka musi pilnie wypracować jasne zasady korzystania z AI.