Home AI AI 雖迷人,但它極有可能破壞現在的人類文明:我認為 3 年內會發生的 11 件事
AI深度評論頭條

AI 雖迷人,但它極有可能破壞現在的人類文明:我認為 3 年內會發生的 11 件事

AI 雖迷人,但它極有可能破壞現在的人類文明:我認為 3 年內會發生的 11 件事 AI 評論, AI, 深度, 頭條

認識我的人可能知道,我是一個相當著迷於 AI(人工智慧)的科技玩家。事實上,我會選擇開一個《科技人》網站,本身就是因應機器學習技術爆炸的一項實驗:透過 AI,我可以走到哪裏?然而,迷人歸迷人,看完《TIME》對 DeepMind 創辦人的最新一篇專訪後,我忍不住停下來想了一天,細思極恐。

為什麼 DeepMind 創辦人的話如此重要?

DeepMind 是一間 Google 旗下專注於人工智慧的公司,你可能沒聽過 Deep Mind 公司名稱,但是你一定聽過這間公司的產品:AlphaGo。沒錯,就是圍棋擊敗李世乭九段的人工智慧,來自台灣的黃士傑是最重要的功臣之一。

如果你有時間的話,建議看一下我在 2016 年寫的這篇介紹:《AlphaGo 究竟是如何「思考」的?用國中生也能懂的語言說給你聽》,文章很長,但我試著用普通人的角度介紹 AlphaGo 的運行原理,搭配一部分黃士傑在 Google 總部記者會的說明影片。

DeepMind 這間公司與 OpenAI 這間公司的發展方向截然不同,DeepMind 更加專注在遊戲以及醫療領域上,他們希望透過深度學習的力量,來「準確」的改善人類生活。

之所以說「準確」,是因為在機器學習領域,「準確」並非關鍵:有答案的時候,我們告訴機器答案是什麼,可以讓機器學習循著「監督式學習」的方向前進。而更多時候,我們空有無數資料,卻不一定知道答案、或無精力整理出答案,於是「非監督式學習」就成為了主角:電腦自動從大數據中尋找資料之間的關聯性,然後自動賦予它意義:無論對錯,不分真假。

DeepMind 創辦人哈薩比斯(Demis Hassabis)相當難得的接受了媒體專訪,在這個 OpenAI 旗下的 ChatGPT 成為全世界目光焦點的時候,哈薩比斯試著發出一些不一樣的聲音:儘管這很容易被解讀成酸葡萄心態。

機器人正在彈鋼琴的照片

AI 優先,還是人類優先

這是一個很關鍵的根本問題,但是到了今天,似乎沒什麼人在乎。我們都發現了 AI 的好,原來機器學習發展到後來,可以在方方面面變得實用。原本人類要花 3 天才能找到解決方案的問題,現在可能只需要 30 秒。

「儘管我們致力於使機器變得聰明,但我們希望將人類置於我們在這裡所做工作的中心。」(Demis Hassabis)

這是一個蠻核心的起心動念差異,我們今天希望出現的 AI 巨星,是一個專門解決特定任務的工具人(例如:數位醫療),還是一個無所不能的超人?

我前面之所以說,我開了《科技人》這個網站,很大程度就是為了機器學習技術爆炸所做的實驗,就是因為:這個網站的文章,大部分都有 AI 參與編輯任務。沒錯,這是記者與作家最怕的事情,但也是遲早會發生的事情,可能是三年,可能是一年內,我只是先別人一步做實驗罷了。

透過 AI 協助做網站,機器可以幫我判斷網站語法哪裏可能有問題,甚至可以幫我修改部分文章:原本可能要花很多時間整理的數據資料,它直接幫我統整好,用不同的句子重新說一遍,避開了版權問題,也避開了搜尋引擎的懲罰。

AI 技術爆發這件事的影響範圍有多廣,很不好說;它帶來的結果是好是壞,也同樣不好說。一體總有兩面,但大部分人現在只看得見光明的那一面,而對陰暗面缺乏興趣。

「實驗者往往不會注意到他們手上正持有的危險材料,我們即將製造出足以破壞人類文明的工具,但並不是每個人都有意識到這件事。更不幸的是,我們是實驗室裏的小白鼠。」(Demis Hassabis)

我認為三年內全世界會出現的 AI 危機:

  • 由 AI 自動產出的內容(文章、圖片、影片)將大量取代人工產出的內容,且內容的流暢性、擬真度已經讓人無法判斷,什麼東西是人造的,什麼東西是機器虛構的。
  • 承上,人類判斷不出來,搜尋引擎當然也判斷不出來,Google、Bing 搜尋引擎將會遇到史無前例的內容爆發,他們根本來不及索引新的網站,也無法判斷新內容到底是不是優質原創內容,用戶在透過搜尋引擎找資料時,搜尋結果的優質程度可能會下降。
  • 又,因為「非監督式學習」的技術爆發,這些由機器產出的內容雖然多,但是卻「不保證正確性」。當錯誤答案成為了所有搜尋網站的一致結果,會有越來越多「積非成是」的狀況發生。
  • 人類為了因應這種情況,勢必要強化「中央集權」的力量,塑造出「官方認可」的正確內容、「官方認可」的人工優質作品形象,類似過去「老三台」的媒體生態可能誕生,只是這次載體是網路,中央集權的火種又捲土重來。
  • 當機器學習的內容爆發,勢必會出現「不該被拿來當訓練材料的内容,都被拿來使用」的情況,且一旦開始訓練,基本上要從中拔除特定訓練內容也幾乎不可能。
  • 換言之,對人類有害的、錯誤的東西,可能會出現在 AI 產生的內容當中。而 AI 本身,是無法對錯誤肩負任何責任的:所以,AI 實名制勢必會誕生。每一支 AI 機器人,都要有對應的真人在背後負責,一定會成為全世界的統一標準。
  • 隨著機器虛構的(看似)優秀內容越來越多,真正的人類創作者的成就感會急劇減少,且賺錢的難度會極速增加。用戶都分辨不出「人造」跟「機器虛構」的時候,機器勢必會擠壓「人造」的存活空間。
  • 慢慢的,用戶對於網路內容會逐漸冷感,劣幣會驅逐良幣,真人創作者會快速變少。從收入來看,廣告費會比現在更難賺,因為爆炸的內容量搶走了太多用戶時間與眼球。
  • 為了挽救局面,Google 或相關科技巨頭,可能會定出「驗證真人」的徽章之類的東西,透過手機、電腦鏡頭來判斷眼前的操作是真人操作、真人作品,來給與更好的排序位置。但是過往的美好年代是注定回不去了。
  • 電腦虛構的半真半假的故事、影片、新聞,成為了人們的「新知」,進而影響人類活動。媽媽說給孩子聽的床邊故事,可能是 AI 隨機產生的。
  • 因為人工智慧太強,網路業同樣會爆發失業潮。到最後,懂得利用 AI 的人才是贏家,不懂得利用 AI 的人就會成為消失的浪花。網路更加發達了,世界經濟卻不一定會更美滿,因為網路經濟的本質是「人類的時間與專注」,失去了人類,這些產能一文不值。
工程師正在編程的照片

當然,AI 肯定也能帶來很多很多方便的地方,例如隨身 AI 助理,它透過你的網路活動、鏡頭、麥克風、定位,以及物聯網的多設備同步,來得知你的一切事情,進而幫你安排時間、歸納重點、寫會議記錄,前所未有的強大。

只是,如果人們繼續朝著「非監督式學習」的人工智慧道路飛速前進,那麼 AI 帶給人類的未來,可能會越來越難以預料。(文/黃郁棋,2023)

Written by
黃郁棋

在科技業打滾十年的老屁股,每天都覺得自己要被新技術取代了,完了完了。

公開留言

發佈留言

發佈留言必須填寫的電子郵件地址不會公開。 必填欄位標示為 *