谷歌擔心人工智慧。不,並不是說它會變得有知覺並接管世界,而是說,一個樂於助人的家庭機器人可能會不小心用刀刺傷它的主人。該公司最新的人工智慧研究論文以“人工智慧安全中的具體問題”為題對此問題進行了深入研究。不過,真的,這隻是一種別出心裁的說法,“我們如何阻止這些恐怖機器人在睡夢中殺死我們。”
未來機器人**商面臨的五大關鍵問題
為了回答這個讓人頭疼的問題,谷歌的電腦科學家們研究了五個“實際研究問題”——程式設計師在開始建立下一個johny5之前需要考慮的關鍵問題。出於公共關係的原因,本文提出了這些問題,因為它們可能涉及到一個假想的清潔機器人,但實際上,它們是要應用到任何現實世界的人工智慧代理,將控制一個機器人,將與人類互動。
問題如下:
所以,這些並不像艾薩克·阿西莫夫的機器人三定律那麼簡單,但我們不應該期待。畢竟,這些都是問題,不是答案。
其中有些問題似乎很簡單。例如,對於最後一個,您可能只想程式設計一個具有許多預設模式的bot。當它發現自己在一個工業環境中(它會知道,因為你會告訴它),它可以切換到工廠模式,也許會更努力地清掃。
但其他問題是如此的背景沉重,幾乎不可能為每一個場景預先規劃響應。考慮一下“安全探索”問題,論文將其掩蓋為“採取看似不理想的行動[…],但有助於代理瞭解其環境。”機器人代理當然需要在其參考範圍之外採取行動來瞭解世界,但當他們這樣做時,你如何減輕潛在的傷害?
Boston Dynamics這篇論文提出了一系列的方法,包括建立機器人智慧體在撞擊現實世界之前可以探索的模擬“有界探索”的規則,限制機器人的運動到一個預定義的空間,一個可能已經被機器人證明可能的錯誤;還有好的、老式的人類監督——讓機器人在採取超出其職權範圍的行動之前,先與處理者核實。
你可以想象,每種方法都有自己的優缺點,谷歌的論文並不是要提出一個突破性的解決方案——它只是概述了更廣泛的問題。但正如該公司在其研究部落格中指出的那樣,這些實際挑戰才是真正的機器人安全風險。
如果你願意的話,擔心有知覺的人工智慧,但是像這樣的問題更直接
儘管像埃隆·馬斯克和斯蒂芬·霍金這樣的人物提高人們對人工智慧危險的認識是好的,但大多數電腦科學家都同意,這些問題還很遠,很遠。在我們擔心人工智慧變得有殺傷力之前,我們需要確保可能在工廠和家庭中工作的機器人足夠聰明,不會意外地殺死或殘害人類(這已經發生了,而且肯定還會發生。)
谷歌在這一切中的股份也很有趣。該公司可能會將2013年收購的雄心勃勃的機器人硬體**商波士頓動力公司(Boston Dynamics)**,但它仍在繼續向各種人工智慧專案投入資金和資源。正是這項工作,以及來自大學和競爭對手公司的研究,將為軟體大腦提供物理機器人動畫的基礎。確保這些大腦思維正常不是一件小事。
... Siri在2011年登場,一年後的今天,谷歌緊隨其後。到2014年,微軟擁有Cortana。同年,亞馬遜將一款名為Alexa的人工智慧卡插在一個塑膠管裡,人們可以把它放在工作臺上。此後,谷歌和蘋果也採取了同樣的...
... 谷歌的機器學習課程將機器學習概括為“使用資料回答問題”。他們將機器學習分為兩部分:訓練和預測。想象一下,你有一組影象,其中包含你想要識別的形狀。如果影...
...是能夠從無到有地建立自己的原始、真實的影象。為此,研究人員使用ImageNet作為資料庫,提供真實世界的樣本影象,供人工智慧學習。 ...
... 與此同時,麻省理工學院研究人員喬伊·布奧蘭維尼回憶說,在研究面部識別技術時,為了讓軟體認出她,她經常需要戴上白色的面具。為了解決這樣的問題,Buolamwini和其他IT專業人士正在關注這...
...智慧。人工智慧技術是世界上發展最快的領域之一,安全研究人員正在不斷地評估並將其整合到他們的消費產品中。 ...
你注意到谷歌搜尋的變化了嗎?或者說語音識別和語言翻譯是如何變得更好的?我相信你沒有錯過亞馬遜和Netflix等網站的個性化推薦。 ...
...還不明白人工智慧到底是怎麼回事,你可能想從探索這些谷歌人工智慧實驗開始。這可能會讓你有足夠的興趣邁出下一大步:學習更多關於人工智慧的知識。 ...
...部員工、外部學者和活動家簽署了一份支援這位人工智慧研究人員的**書。該公司在Maven專案(一個旨在改進軍用無人機打擊的人工智慧專案)上的工作一直受到批評。今年早些時候,谷歌員工宣佈成立工會的計劃時,反對該專...