首頁>科技>

美國加州大學伯克利分校(UC Berkeley)電腦科學教授 Stuart Russell 被視為人工智慧領域的領先人物,他負責帶領伯克利的人類相容人工智慧中心(Center for Human-Compatible AI,CHAI)。

他與 Google 研究總監 Peter Norvig 合著的《人工智慧:一種現代方法》(Artificial Intelligence: A Modern Approach)被全球超千所大學選擇為標準教科書。2019年,他的新書《人類相容:人工智慧及其控制問題》(Human Compatible:Artificial intelligence and The problem of control)再次引發全球關注。

那麼,Stuart Russell 對於 AI 的發展都有那些觀點,他擔心什麼、提倡什麼、以及正在做什麼?希望下文能讓你快速認識他。

如果我們成功了呢?

1995 年,Stuart Russell 寫了有關 AI 的書。他跟 Peter Norvig 合著的《人工智慧:一種現代的方法》成為全世界最受歡迎的課程教材之一。在最後一章的最後幾頁,作者自己提出了一個問題:如果我們成功了該怎麼辦?也就是說,如果我們實現自己的目標,世界會發生什麼樣的改變?不過他們的答案几乎算不上認可。他們的答案是:“這種趨勢似乎並不算太消極。”

其實在“ AI 與人類”這一問題上,Stuart Russell 本人始終倡議發展友善及安全的 AI。2015 年,他曾起草並率先在一份旨在呼籲學者多方面考慮人工智慧研究的公開信上簽字,信中指出:「我們建議擴大人工智慧研究的範圍,目的是確保日益強大的人工智慧系統是穩定和對人類有益的」「堅持 AI 發展應基於社會利益,而不是一昧冒進打造強大的機器,其中最令人憂心的就是發展自主武器」。

這封公開信得到了來自全球 7000 多名學者與業界人士的支援,其中包括谷歌、Facebook、微軟等科技巨頭的核心人工智慧研究者,以及全球頂尖的電腦科學家、物理學家和哲學家。

同年,他也受邀在《特定常規武器公約》(Convention on Certain Conventional Weapons,CCW)大會上提供專家證詞。他認為:“ AI 及機器人界必須採取立場,就像物理學家在面對核武、化學家或生物學家在使用化學或病毒武器一樣.....什麼都不做,就等同是投下贊成發展的一票。”

智慧就好比核武器

那麼,Stuart Russell 對於“人工智慧與人類未來”的擔心,到底是什麼?何以至於,他無數次的在各個平臺發聲以及通過寫書的方式不斷詮釋自己的想法。

在 Stuart Russell 曾接受的一場採訪中,涉及到了一些,他在擔心什麼的表達。我們摘錄了這場採訪中的四個問題,如下:

Q:你認為人工智慧演變成災難可能的途徑是什麼?

Stuart Russell:最典型的情況就是明顯或者隱含的價值體系失調:人工智慧系統被賦予的目標難以完全考慮和計算人類所關心的目標要素。

各個公司想要取得巨大技術優勢的方法是多種多樣和紛繁複雜的,國家之間也想盡力在敵國之前建立人工智慧系統,或者以一種溫水煮青蛙的方式漸漸使得我們變得越來越虛弱,不得不依賴人工智慧才能生活下來,就像 E. M. Forster的科幻小說《機器休止》(The Machine Stops)。

Q:阻止人工智慧大災難需要做些什麼?

Stuart Russell:首先,需要對技術方法潛在的風險和進展進行研究,消除風險。第二,調整AI和培養學生的目標,以使 AI 系統遵循人類的目標成為本領域內最重要的事,就像遏制在核聚變研究中很重要一樣。

Q:但是在我們發展核聚變的同時,已經有了原子彈。但人工智慧危險只是出於推測中,那我們是否真的處於人工智慧「核聚變」的階段?

Stuart Russell:1939年,利奧·西拉特(Leo Szilard)在證明核鏈式反應後寫道:「我們把一切都關掉,回家了。那天晚上,我毫不懷疑,世界正走向悲痛。」那些說:「嗯,我們可能永遠都達不到人類水平的 AI 或超級 AI 。」我會回答:這就像開車直向懸崖邊,然後說,「讓我們祈求汽油儘快被燒完!」

Q:我們應該像監測易裂變物質(核燃料)一樣監測AI研究嗎?誰負責此類的監管?

Stuart Russell:我認為正確的做法是把問題直接建立到從業者如何定義他們所做的事上。土木工程從業者沒有誰會談到「搭建不會倒塌的橋樑」他們只說「搭建橋樑」。基本上所有的核聚變研究者都認為遏制核武器是理所當然的事;不受限制的聚變反應對人類無益處。

所以,我們要從現在起聚焦在「可能有益的AI」上,今後才能單用「AI」來概括對人類有益的AI。這個領域目前致力於建立純粹的智慧,而不顧它們的目標和可能帶來的後果。我們應該摒棄這樣的想法,重新規劃目標。

做更好、更安全的AI

2019年,Stuart Russell 的新書《人類相容:人工智慧及其控制問題》,再次回到了上本書最後的那一個問題:如果我們成功了呢?

這次,他不再退縮。

在書中,他有一章談到濫用 AI 可能會出現的不好之處。Russell 認為在 AI 安全和監管方面沒有取得重大進展的情況下,會出現混亂局面。

現在,Stuart Russell 的實驗室致力兩件事,一是打造更好的 AI(making AI better),另一個是打造安全的 AI(making AI safe)。”

關於打造安全的 AI 部分,他成立了人類相容人工智慧中心並專門寫了《人類相容:人工智慧及其控制問題》一書。以此,來試圖防止長期發展 AI 所可能產生不可控制、負面的問題出現,以及確保聚焦 AI 對人類社會有益。

Stuart Russell 還表示,他們要開發一個可證明有益人工智慧的方法(provably beneficial AI),並且基於三大原則:

第一個原則是利他主義(Altruism),機器人唯一的目標就是用盡全力實現人類的目標。二是謙遜法則(A law of humility),機器知道它需要講人類價值最大化,但它不知道這價值究竟是什麼。三是機器人的工作是要了解更多人們的需求,讓它們觀察人類進而學習,也可以透過閱讀書籍、看電視等方式來達到。

目前,全世界成千上萬最最聰明的頭腦都在開發AI。製造比人類更智慧的機器可能是人類史上最重大的事件,也或許是最後一件事。

而關於“ AI 與人類未來”,也正有許多藝術試圖描述各種可能的想象,比如電影。身為 AI 專家,Stuart Russell 認為電影《星際穿越》中擁有最好的人工智慧,主要是基於兩個理由:一、因為戲裡頭的 AI 機器人完全只執行人類下達的指令,甚至會為了救援人類而犧牲自己;二、一個很重要的原因是它們長得不像人。

人工智慧到底該如何定義,它的邊界是什麼?2020年,最受關注的 AI 影像作品是 HBO 剛播出結束的《西部世界》第三季。在這部劇裡,機器人與人類外型一模一樣,並且正開始反擊人類。

參考資料:

1.Stuart Russell:人工智慧就好比核武器

2.新書《Human Compatible》書評:AI與我們的未來

3.Stuart Rusell 專訪:斯坦福百年報告否定人類水平 AI,不可理喻

4.專訪人工智慧大師 Stuart Russell,AI 現階段瓶頸:人類不清楚怎麼讓機器做長時間尺度的決策

最新評論
  • 整治雙十一購物亂象,國家再次出手!該跟這些套路說再見了
  • 發展的副作用:新能源更新太快造成消費者糾結,車主:再等等吧