Meta 公司近日宣布,將解散負責任 AI(Responsible AI,RAI)團隊,並將更多資源投入到生成式人工智慧的產品開發中。這一消息由 The Information 網站率先報導,該網站聲稱看到了一份內部公告。
關鍵提問
- Meta 公司為什麼要解散 RAI 團隊?
- 生成式人工智慧是什麼?它有什麼優勢和挑戰?
- Meta 公司如何兌現其負責任開發人工智慧的承諾?
Meta 人工智慧團隊的重組
根據 The Information 的報導,RAI 團隊的大部分成員將轉移到 Meta 公司的生成式人工智慧產品團隊,而其他成員則將從事 Meta 公司的人工智慧基礎設施工作。Meta 公司先前一直聲稱,它希望負責任地開發人工智慧,甚至在其網站上設立了一個專頁,列出了其負責任人工智慧的原則,包括問責、透明、安全、隱私等。
The Information 的報導引述了 Meta 公司的代表 Jon Carvill 的話,他表示,該公司仍將「繼續優先投資安全和負責任的人工智慧開發」。他補充說,雖然該公司將 RAI 團隊分散,但這些成員將「繼續支援跨 Meta 公司的相關工作,以負責任地開發和使用人工智慧」。
Meta 公司沒有及時回應記者的詢問。
事實上,Meta 的 RAI 團隊早在今年初就已經經歷了一次重組,據 Business Insider 報導,當時的重組包括了一些裁員,使得 RAI 團隊變成了「一個空殼」。該報導還稱,RAI 團隊自 2019 年成立以來,就缺乏自主權,其倡議必須經過漫長的利益相關者協商,才能得以實施。
生成式人工智慧的發展
生成式人工智慧是一種利用深度學習技術,創造出新的數據或內容的人工智慧。例如,生成式對抗網路(Generative Adversarial Network,GAN)就是一種生成式人工智慧的模型,它會透過兩個神經網路相互博弈的方式進行學習,學習後就可以生成出逼真的圖像(例如 Deep fake)、影片、音樂等。
生成式人工智慧有著巨大的潛力,它可以用於各種領域,如娛樂、教育、醫療、商業等。它可以幫助人們創造出新的想法、內容、產品等。然而,生成式人工智慧也面臨著一些挑戰,如資料品質、模型偏見、版權問題、道德風險等。因此,生成式人工智慧的開發和使用需要有一定的規範和監督,以確保其安全和負責任。
META RAI 團隊解散前都在做些什麼?
Meta 的 Responsible AI 團隊是一個專門負責確保 Meta 公司的人工智慧系統符合責任、倫理和人權原則的團隊。
他們在被解散以前的任務是:
- 與外部專家和監管機構進行定期的協商和合作,以了解和解決人工智慧所引發的各種難題,如隱私、公平、透明、安全等。
- 建立和測試各種方法和工具,以幫助 Meta 公司的產品和功能設計和使用負責任的人工智慧,例如,創建和分發更多元的資料集、測量和緩解人工智慧模型的不公平差異、使用機器學習技術實現廣告的更公平分配等。
- 以五個關鍵的支柱為基礎,組織和推動 Meta 公司的負責任人工智慧的工作,這五個支柱分別是:隱私與安全、公平與包容、穩健與安全、透明與控制、問責與治理。
關於人工智慧的責任與監管
Meta 公司並非唯一一家面臨人工智慧責任和監管的挑戰的公司。不久前,美國政府與人工智慧公司達成了一些協議,並由總統拜登指示政府機構制定人工智慧安全規則。歐盟也發布了其人工智慧的原則,並仍在努力通過其人工智慧法案。
然而,在重重監管挑戰的背後,AI 的發展趨勢仍然非常快速。Meta 將 RAI 團隊解散並改組一個生成式 AI 團隊這樣的動作,或許也是不得已:你不盡全力衝刺,就會落後其他人、其他公司。
與此同時,OpenAI 正面臨董事會大地震、創辦人 Sam Altman 被開除的風波,人工智慧領域在表面風光的背後,暗潮洶湧。
公開留言