AI產業

OpenAI CEO:大語言模型規模接近極限,非越大越好

OpenAI CEO:大語言模型規模接近極限,非越大越好 OpenAI 評論, AI, 頭條

近日,OpenAI 聯合創始人兼 CEO 薩姆・奧爾特曼(Sam Altman)在麻省理工學院「想像力行動」活動上接受採訪,談及大語言模型(LLM)的發展趨勢和安全問題。

奧爾特曼指出,我們正接近 LLM 規模的極限,規模越大並不一定意味著模型越好,可能只是為了追求一個數字而已。LLM 的規模不再是衡量模型品質的重要指標,未來將有更多方式來提升模型的能力和效用。他將 LLM 的規模與過去晶片速度的競賽進行了類比,指出如今我們更關注晶片能否完成任務,而非它們的速度。他表示,OpenAI 的目標是為世界提供最有能力、最有用、最安全的模型,而非追求參數數量。

OpenAI CEO:大語言模型規模接近極限,非越大越好 OpenAI 評論, AI, 頭條

公開信爭議:安全標準與技術細節

針對一封要求 OpenAI 暫停開發更強大 AI 六個月的公開信,奧爾特曼表示,他同意在能力越來越強大的情況下,安全標準也要提高。然而,他認為信件缺乏技術細節和準確性。他透露,OpenAI 在發布 GPT-4 之前已經花了六個月以上的時間來研究安全問題,並邀請外部審計和「紅隊」來測試模型。

奧爾特曼指出,信中的建議並非解決問題的最終方法。他表示,OpenAI 已經在這個領域工作了七年,付出了許多努力,而大多數人都不願意這樣做。他願意公開討論安全問題和模型的局限性,因為這是正確的事情。他承認有時候他和其他公司代表會說一些「蠢話」,結果發現是錯誤的,但他願意冒這個風險,因為這項技術需要對話。

OpenAI CEO:大語言模型規模接近極限,非越大越好 OpenAI 評論, AI, 頭條

AI 安全與技術發展:持續探討與改進

奧爾特曼強調,在 GPT-4 的基礎上,OpenAI 還在進行其他研究工作,涉及各種安全問題。他認為,信中對於這些問題的提及並不充分。因此,他主張要謹慎行事,對安全問題採取越來越嚴格的態度。

奧爾特曼表示,OpenAI 將繼續與業界合作,共同面對潛在的安全挑戰。他呼籲公司和研究機構保持開放的態度,共同研究、討論安全問題和模型的局限性,以確保 AI 技術能在安全的前提下持續發展。

總結來說,OpenAI CEO 薩姆・奧爾特曼強調,大語言模型的規模不再是衡量模型品質的唯一指標。在未來的發展中,安全性和技術細節將成為更為重要的焦點。同時,OpenAI 將持續與業界合作,共同探討如何在保證安全的前提下,提升模型的能力和效用。

Written by
黃郁棋

《科技人》站長,在科技業打滾十年的老屁股,每天都覺得自己要被新技術取代了,完了完了。

公開留言

發佈留言

發佈留言必須填寫的電子郵件地址不會公開。 必填欄位標示為 *