面對 AIGC(生成式 AI)不可擋的浪潮,尤其是 ChatGPT 用量的大爆發,知名科學期刊《Nature》終於也坐不住了。本週,這家權威學術出版機構就「ChatGPT 代寫學術文章」、「ChatGPT 被列為論文作者」等一系列問題,給了正式的定調:任何大型語言模型工具(Large language models,LLM,如 ChatGPT)都「不能」成為論文作者。如在論文創作中用過相關工具,作者必須在「方法」、「致謝」或其他適當的地方明確說明,這些要求目前已經被新增到作者投稿指南中。
《Nature》正式禁止 ChatGPT 等 AI 工具被列為作者
OpenAI 於 2022 年 11 月推出的 ChatGPT 工具,因為其表現大幅超越其他大型語言模型,迅速被多個行業利用,拿來輔助生產、提升效能,學術圈自然也不例外。儘管使用 AI 工具引發了不小爭議與質疑,但《Nature》發表的投稿指南中並未禁止使用 ChatGPT 寫論文,只是明確的指出,不能將它列為作者。
「大型語言模型(LLMs),如ChatGPT,目前並不符合我們的作者標準。」(《Nature》投稿指南)
根據《Nature》統計的情況表明,使用 ChatGPT 工具,並將其列為作者的論文最少也有 4 篇。比如一篇發表於 medRxiv 上的論文,該論文主要用於探討 ChatGPT 在「美國醫學執照考試(USMLE)」中的表現。
附帶一提,該論文指出,ChatGPT 在沒有任何專門訓練或強化的情況下,在所有三次考試中的表現都達到或接近門檻。此外,ChatGPT 在「解釋」領域表現出高水平的一致性和洞察力。論文的結果表明,大型語言模型可能真的有潛力在未來協助醫學教育,甚至直接輔助臨床決策。
另外一篇論文則發佈在《實踐中的護士教育》(Nurse Education in Practice)上,同樣是在探討人工智慧平台用於護士教育上,到底是濫用還是進步的選擇。
第三篇論文,則是來自英科智能(Insilico Medicine)執行長的一份研究,主要在探討新藥雷帕黴素應用上的哲學論證,他們也將 ChatGPT 列為了作者。英科智能是一間透過基因學 、大數據分析以及深度學習來進行電腦藥物開發的公司。
該論文也十分有趣,主要用上了「帕斯卡的賭注」這個哲學角度,來進行新藥利弊的分析論證。所謂帕斯卡的賭注,其實就是一種從理性的角度判斷不確定性的事物時,可以採取的辯證視角。
論證認為,理性的個人應該相信上帝存在,並依此生活。因為若相信上帝,而上帝事實上不存在,人蒙受的損失不大;而若不相信上帝,但上帝存在,人就要遭受無限大的痛苦。(帕斯卡的賭注)
至於第四篇論文,則是一篇在 ChatGPT 問世前的文章,探討 GPT-3 技術在極少人力介入的前提下,透過 AI 生成論文的能力如何。該論文發現,GPT-3 能夠對其自身的能力和特徵產生清晰而簡潔的描述。這比以前的系統有很大的進步,因為以前的系統往往很難產生關於自己的連貫的文字。
在這份論文中,同樣將 GPT 模型列為了作者。
ChatGPT 等 AI 工具,最大的問題是「無法對工作負責」
雖然上述論文都是以「AIGC」工具作為討論核心,因此將 GPT-3 或者 ChatGPT 列為作者似乎無可厚非。但是《Nature》給出的最新指引表示,大型語言模型並不符合成為作者的標準,因為作者的身份更包含了對「工作的責任」,這不能有效地適用於LLMs。
事實上,我先前在《AI 雖迷人,但它極有可能破壞現在的人類文明:我認為 3 年內會發生的 11 件事》一文中也提過:「AI 本身,是無法對錯誤肩負任何責任的:所以,AI 實名制勢必會誕生。」也是抱持著與《Nature》期刊類似的看法。
由於生成式 AI 對人類而言,還是頗為新鮮的領域,無論是 ChatGPT,Midjourney,還是 Google 最新推出的 MusicLM,最終都離不開「內容生成後的責任」這個環節,包括版權考量等等。也因此,Google 才沒選擇在第一時間開放 MusicLM 給用戶體驗。
不過,生成式 AI 的浪潮已經是不可抵擋的趨勢,《科技人》會持續專注關心 AI 的消息,歡迎加入我的最愛。
Hi! I cokuld have sworn I’ve beeen to thiss blog before but
aftr browsing tthrough many oof tthe articles I realized
it’s neew to me. Nonetheless, I’m certainly delighted I discovered it and I’ll be bookmarking it annd checking bacck
often!