“最近幾個月,編輯們在編輯待發表論文的參考文獻時,發現有數字對象識別碼(DOI)卻無法檢索到對應的引用文獻,說明這些引用是虛構的。”近日,《柳葉刀》副主編Sabine Kleinert表示,論文寫作過程中使用生成式人工智能(AI)并產生“幻覺式引用”,這種行為應該被制止。
Sabine Kleinert(受訪者供圖)
10月20日,由北京大學兒童青少年衛生研究所、《柳葉刀》及聯合國教科文組織全球健康與教育教席(北京大學)聯合主辦的“中國兒童青少年健康發展研討會”在北京大學醫學部舉辦。會議期間,Sabine Kleinert就研究人員使用生成式AI等話題,接受了《中國科學報》采訪。
Sabine Kleinert介紹說,使用生成式AI引發的新型科研不端行為,是時下的熱門話題。盡管生成式AI的使用正在增加,但由于目前尚無技術手段能可靠地識別,出版機構只能依靠作者的誠信聲明。《柳葉刀》也不例外。
據了解,《柳葉刀》系列期刊的投稿頁面設置了一個復選框,詢問作者是否在其研究成果中使用了生成式AI。如使用,則需要具體描述使用情況,包括大語言模型的名稱、版本、確切提示詞、使用目的以及在文章手稿中的位置。如果作者選擇了“是”,編輯會在投稿系統中收到提示。
“當我們發現一些不適當的‘幻覺式引用’,也就是說,在一篇論文中的大部分內容使用了AI且未予以聲明時,即使我們開始接收了這篇論文,最后也會拒稿,然后會告訴作者,這樣的做法是不恰當的。如果這種情況非常普遍,我們可能會與作者所在的機構溝通,說明他們需要接受關于生成式AI合理使用的教育。”Sabine Kleinert表示。
據Sabine Kleinert介紹,《柳葉刀》曾收到過一些通訊欄目的投稿,編輯們高度懷疑這些信件大量使用了生成式AI,盡管沒有確鑿證據。“這些信件沒有任何價值。它們只是總結了一下已發表的論文,評論一下,然后強調一些局限性,而這些其實論文本身已經做過了。這類信件我們每天大概會收到五篇,一律直接拒稿。”
不過,Sabine Kleinert也承認,在將人類從繁瑣的任務中解放出來、從而擁有更多時間進行批判性思考上,AI的確“非常棒”。“生成式AI可以用于改善語法和語言表達,甚至用于查閱已有的研究成果,或對其進行總結,這些都是合理的用途。”她指出,關鍵在于,要對使用情況“保持誠實和透明”。
Sabine Kleinert著重指出了一些不被允許使用AI的場景,包括同行評審、撰寫述評文章。“因為審稿人可能會將未發表的論文輸入到公共系統中,成為公開文獻的一部分,這會破壞研究的保密性。”同樣由于涉及保密問題,相關專家在撰寫與論文同期發表的相關評論時,也不被允許使用生成式AI。
據了解,2024年《柳葉刀》成立科研誠信小組,旨在評估和制定《柳葉刀》系列期刊內部應對科研誠信問題的相關政策,并思考監控和塑造使用生成式Al的最佳方式。
Sabine Kleinert透露,未來,《柳葉刀》還將成立科研誠信委員會,旨在規范全球的科研發表工作。“我們計劃在明年二月舉行啟動會議,來自世界各地、背景各異的委員將聚在一起,討論委員會的工作范圍、工作組的組成以及他們的任務。我可以非常肯定地說,生成式AI及其對科研誠信的影響,將會是討論的重要內容之一。”
本文鏈接:《柳葉刀》副主編:這類信件,我們一律拒稿http://m.sq15.cn/show-11-27511-0.html
聲明:本網站為非營利性網站,本網頁內容由互聯網博主自發貢獻,不代表本站觀點,本站不承擔任何法律責任。天上不會到餡餅,請大家謹防詐騙!若有侵權等問題請及時與本網聯系,我們將在第一時間刪除處理。
上一篇: 世界最小3D生物打印機有助醫生修復聲帶
下一篇: AI模型精準預測颶風“梅麗莎”迅猛增強