人工智能(AI)已全面滲透到科研活動的各個環節。在提升效率的同時,AI也催生了代寫論文、偽造數據乃至隱性的“思想抄襲”等新型學術不端行為,其手法日益隱蔽,給學術誠信帶來全新挑戰。科技期刊應該如何甄別、應對和防范?近日,科技日報記者與《柳葉刀》副主編薩賓娜·克萊納特(Sabine Kleinert)就此進行了對話。
記者:對于AI引發的新型科研不端問題,如同行評審、數據核查等傳統的科研誠信評估方法,可能面臨失效的風險。科技期刊該如何發揮“守門人”的作用?
薩賓娜:我認為,科研過程中生成式AI的使用程度正與日俱增。目前,我們主要靠作者的“自我聲明”。《柳葉刀》系列期刊的投稿頁面新設了一個復選框,詢問作者是否在其研究成果的任何部分中使用了生成式AI。如果作者選擇了“是”,我們會要求他們詳細說明具體使用的大語言模型的名稱、版本、確切提示詞、使用目的以及在文章手稿中的位置,并會將這些信息與論文一同發表。文章手稿的致謝部分也要披露這部分信息。
為確保對編輯、審稿人和讀者的透明度,作者必須恰當聲明生成式AI的使用情況,并對其作品的原創性、準確性和完整性負最終責任,否則編輯可能因其不當使用AI而拒稿。
記者:這個方法效果怎樣?
薩賓娜:這是一個很大的問題。回顧過去,我們發現只有7%的作者表示,在其投稿的研究中使用過生成式AI。這與一些關于生成式AI使用的調查結果大相徑庭——調查中超過50%的用戶表示有使用生成式AI。顯然,我們確實發現很多作者沒有準確披露他們使用了生成式AI。
最近,我們注意到一些未聲明的人工智能生成內容(AIGC)不恰當使用的明顯跡象,主要表現為“幻覺式引用”。我們的編輯會檢查參考文獻,發現一些沒有被標記的引用,比如有DOI(數字對象唯一標識符,相當于數字資源的“身份證”)卻無法檢索到對應的引用。編輯主動核實這些引用是否真實存在后發現,一些論文中有多達10至15個不存在的引用。
記者:發現“幻覺式引用”,會如何處理?
薩賓娜:如果一篇論文中大部分內容不當使用了AI也未予以聲明時,我們即使接收最后也會拒稿。我們會告知作者,這樣的做法是不恰當的。如果這種情況非常普遍,我們可能會與作者所在機構溝通,說明他們需要接受關于生成式AI合理使用的教育。
記者:因為這種情況拒稿的論文比例是多少?
薩賓娜:很少。過去一個月只發生幾次。這實際上是一個非常新的現象,我不知道未來還會看到多少類似的情況。
此外,還有一類情況。我們會拒收沒有任何實質內容的通訊投稿。每天我們都能看到約5篇明顯由生成式AI寫的這類稿件,內容非常套路、毫無新意,完全沒有實質性科學發現。
記者:在科研論文撰寫、審稿和出版過程中,哪些情況是不允許使用AI的?
薩賓娜:《柳葉刀》系列期刊不支持使用AI輔助技術替代研究人員的工作,如提出科學見解、分析和解釋數據、得出科學結論或提出建議。
目前,我們不允許在同行評審過程中使用生成式AI。因為審稿人可能會將未發表的論文輸入到公共系統中,這會破壞保密性。同樣,在對論文進行批判性評價時,甚至評論作者在撰寫研究的相關評論時,也不能使用生成式AI。在利用生成式Al創建圖形或插圖時,應主要用作頭腦風暴和提出圖像概念的工具。
記者:什么情況下可以使用生成式AI?
薩賓娜:為提高論文的可讀性,我們支持作者在寫作過程中使用生成式AI改善語法和語言表達,查閱已有的研究成果或對其進行總結,這些都是合理的用途。
我理解一些研究者存有顧慮,可能他們認為聲明使用AI會影響他們的論文,但事實并非如此。我們只希望在提交的研究論文中,誠實、公開地聲明是否使用了AI。最終,還是要由人類進行監督、負責和承擔責任。
記者:科技期刊如何應對生成式AI可能帶來的科研誠信危機?
薩賓娜:我認為在這個領域進行監管非常困難,因為AI技術已經普及,大家都在使用。最好的辦法是明確指出哪些情況是不適當的,然后在其他方面保持誠實和透明,最終由使用者承擔全部責任。
《柳葉刀》編輯部內部成立了一個研究誠信工作組,主要關注兩件事:一是緊跟最新政策,團隊已經制定了《柳葉刀》系列期刊關于生成式AI的內部政策;二是監控任何正在進行的比較難處理的案例,并觀察采取的適當措施。同時,我們也會關注外部指南的變化。比如最近,國際出版倫理委員會更新了他們的撤稿指南。我們會關注這些內容,并將其納入《柳葉刀》的內部流程,依據最新的指南來指導我們的決策。
《柳葉刀》編輯部正在籌備成立科研誠信委員會,但目前還處于起步階段,計劃在明年二月召開啟動會。生成式AI及其對科研誠信的影響,將會是委員會關注的重要內容之一。
記者:科研人員和編輯在使用生成式AI時,應該考慮哪些原則?
薩賓娜:人們應當將AI更多地視為一種輔助工具。我一直覺得AI這個概念中的“智能”意味著洞察力、洞見,而AI并沒有真正具備這些能力。
研究人員、編輯和出版機構在了解如何最優使用生成式AI時,必須謹慎處理一些注意事項和陷阱。幻覺、偏見、種族主義、模型崩潰,以及違反科研誠信的行為都有可能損害公眾對科學的信任。目前,生成式AI模型產生的內容往往在表面上聽起來合理,但實際上卻缺乏洞察力、新穎性和實際意義。生成式AI使下一代研究人員面臨著巨大的去技能化風險。