為應對即將到來的美國 2024 年總統大選,ChatGPT 背後的母公司 OpenAI 近日更新了政策,以防範選舉相關假訊息的傳播,嚴格限制旗下產品用來模仿候選人、政府以及競選與遊說,這或許會大大影響未來的 AI 運用政策。
OpenAI 為應對美國大選假訊息的新政策
近日,OpenAI 宣佈了一系列新的政策,目的在防止旗下 AI 工具在即將到來的 2024 年美國總統選舉中被濫用。這一決策背後的原因是顯而易見的:隨着 AI 技術的日益成熟,其在選舉中的潛在影響力不容小覷。
根據《華爾街日報》的報導,OpenAI 已禁止旗下的 AI 工具被用來模仿候選人或地方政府,同時也禁止將這些工具用於競選活動或遊說,這包括但不限於 AI 圖片的建立、文字用句的模仿等等。
此外,OpenAI 還明確禁止使用他們家的 AI 工具來阻礙投票行為,或歪曲投票過程。
OpenAI 導入 C2PA 證書:加強生成式圖像真實性驗證
OpenAI 計劃在今年將內容來源和真實性聯盟(C2PA)的數位證書整合到旗下的 Dall-E 圖像生成工具中,例如 ChatGPT Dall-E 應用。這一系統將使得人工生成的圖像更易於識別,即便在細節處理上無懈可擊,依舊能被判斷出是否是 AI 生成。
除了 OpenAI,微軟、亞馬遜、Adobe 和 Getty 等公司也正在參與這一計劃。
引導選民查詢正確資訊:強化投票指導
針對美國選民提出的有關投票的問題,OpenAI 的工具將指引用戶前往 CanIVote.org 查閱資料,這是一個關於如何和在哪裏投票的權威網路資源。
考量到 AI 本身的快速變化,包括運用 AI 工具寫詩、寫一些一本正經的謊言方面的能力,這些措施在選舉季的到來,是否可以有效防止虛假訊息傳,效果尚不明確。
由於 OpenAI 旗下的 ChatGPT 是全球 AIGC 工具中的領導者,OpenAI 對於 AI 的監管政策,會相當大程度的影響全球其他產品的運營方向。
或許在不久的將來,為了避免工具被濫用,AI 工具的適用範圍將會被大大限縮。
公開留言