你有沒有因為Siri、Alexa或Google聽不懂你的話而咒罵過?你不是一個人。我們自己可能會被侮辱一兩次。
但我們都應該小心。
雖然在你侮辱的另一端沒有一個真實的人,但那些罵人的話也不會消失在虛空中。我們無意識的倒刺通過網絡傳輸到遠程服務器。我們如何對待數字私人助理可以教會他們人性中最壞的一面,也可能導致一些公司認為我們中的一些人精神錯亂,無法僱用。
事實證明,我們認為無害的玩笑終究不是無害的。
Siri在2011年登場,一年後的今天,谷歌緊隨其後。到2014年,微軟擁有Cortana。同年,亞馬遜將一款名為Alexa的人工智能卡插在一個塑料管裡,人們可以把它放在工作臺上。此後,谷歌和蘋果也採取了同樣的做法。科技巨頭們正在迅速尋找將人工智能轉化為消費者現成產品的方法。
這些數字個人助理似乎很成熟。他們甚至可能有讓我們高興的時刻。但他們還處於青春期。他們是識字率很高的幼兒,他們積極地從我們提供給他們的信息中學習。**它們的公司也是如此。
Siri背後的團隊正在開發Viv(現為三星所有),這是一款數字助理,與Weather Underground和Uber等第三方服務集成,為演講者提供更詳細的迴應。臺上的演示顯示Viv會回答我們問別人的問題,而不是我們為機器量身定做的那種語言。這是學習人們使用語言的方式的結果。
當我們描繪人工智能時,數字個人助理並不是我們大多數人想象的那樣。與ELIZA不同的是,ELIZA是上世紀60年代的一個模擬自然語言的計算機程序(你可以嘗試在線與之交談),這些人工智能並沒有為自己做太多的“思考”。這些工作都是通過互聯網完成的。
這個過程有幾個步驟。
第一部分是語音識別。該設備要麼直接上傳錄音,要麼將你的文字翻譯成文本,然後發送到遠程服務器(蘋果的、谷歌的、亞馬遜的、任何人的)。這就是魔法發生的地方。或者更確切地說,軟件在數據庫中搜索合適的響應。然後它將這些信息推回到個人助理。
簡而言之:有人問你一個問題,你問Siri,然後Siri問蘋果服務器。服務器給了Siri一個答案,她會回覆你,你要麼高興要麼就只能處理你的失望。
這些數據庫不僅僅包含答案。有些儲存語音記錄,幫助電腦瀏覽我們不同方言的許多細微差別。這些信息不僅幫助機器人瞭解我們。為了教Messenger聊天機器人如何談判,Facebook在兩人之間使用了數千種自然語言進行談判。
這些並不是唯一從我們說話的方式中學到的人工智能。
去年,微軟在Twitter、Kik和GroupMe上發佈了一個聊天機器人,目的是模擬一個美國少女。幾個小時內,“泰”就同意了希特勒的觀點,並支持各種各樣的攻擊性言論。微軟在這一天結束前讓泰伊下線。
雖然Tay是個失敗,但這並沒有減緩聊天機器人的擴散。你可以在Facebook和Snapchat等社交網絡中找到它們,還有HipChat和Slack等消息客戶端。有些人在附近談話。其他人將您連接到服務。有些機器人更安全,因為它們不試圖模仿自然對話,因為現在,機器模仿我們說話的方式未必好。
我們並沒有給機器人們樹立一個最好的學習榜樣。密蘇里州立大學學院教授Sheryl Brahnam進行了一項研究,得出的結論是,10%到50%的互動研究表明,人類對計算機助理有虐待或其他刻薄的行為(其中數字個人助理只是一種類型)。這是一個令人不安的大數字。有些父母在孩子面前說一句壞話就感到內疚。這與他們一半的互動都是消極的相去甚遠。
我之前提到的那些Facebook Messenger聊天機器人?他們不僅通過學習自然語言學會了談判,還學會了撒謊。
在未來,我們可能會達到這樣一個地步:我們如何與機器人通信會讓我們丟掉工作。根據《哈佛商業評論》(Harvard Business Review),當我們不再把一個受虐待的機器人看成一個壞掉的**,而更像一隻被踢的小貓時,這種轉變就可能發生。對公司機器人不尊重可能會讓你被解僱。
這並不意味著員工或僱主會開始將機器人視為可愛的生命體。然而,他們可能會有足夠的知覺,虐待他們,使他們看起來不專業,適得其反。如果你是一個經理,濫用人工智能可能會讓你在人力資源部之前因為領導不善而被叫來。
這聽起來是不是太假設了?想想我們已經知道發生了什麼。我們打給這些助手或對他們說的每一句話都是通過互聯網發送的,我們真的不知道之後會發生什麼。大部分信息都被記錄下來了。即使這些信息並不總是綁定到你的帳戶,它仍然被存儲。
谷歌對此在技術上是透明的,但這並不能說明這一點。這類數據收集擴展了在記錄之前徵得某人同意的定義。
這些收集到的數據現在看來似乎是無害的,但沒有什麼能阻止科技巨頭們最終把我們每個人的詳細投資組合放在一起,未來的僱主、銀行和其他實體可以在與我們接觸之前進行檢查,就像信用報告一樣。
在一個涉及阿肯色州一名男子被控殺害其朋友(一名前警官)的案件中,檢察官試圖利用亞馬遜回聲公司的錄音作為證據。亞馬遜拒絕了這一要求,但這只是部分安慰。令人不安的是,亞馬遜在第一時間就存儲了數據。嫌犯已經允許訪問這些數據。
我提到公司可以在與我們互動之前檢查我們的數據記錄。在執法方面,他們已經注意到了這些信息。如果****局能夠依靠私營部門為他們收集這些信息,它真的需要自己收集數據嗎?我們應該相信每個人都有那麼多數據的人嗎?
數據中包含的不僅僅是我們搜索的內容或發出的命令,還有我們是如何做到的。我們不僅僅是讓別人瞭解我們的興趣和行為,我們還讓別人瞭解我們的行為。你和Alexa之間發生的事並不是你和Alexa之間的事。
當Tay不得不暫停時,微軟發現另一個機器人取得了巨大的成功。它的名字叫小冰。在中國和日本,這個機器人已經與超過4000萬人互動。小冰沒有自毀,部分原因是文化差異。在中國,某些類型的言論是不允許上網的。
現在,機器人已經開始自己執行治安任務了。社交網絡開始使用機器人來減少仇恨言論。我們可能不會直接與這些機器人交談,但他們仍在研究我們的語言,以瞭解什麼是虐待。
不管你怎麼處理這個問題,我們說什麼和怎麼說都很重要。機器人和**它們的公司都在傾聽。總有一天,我們的僱主會加入他們。如果電腦在未來取代我們,我們不希望它們變得更好嗎?
當數字個人助理失敗時,你會如何反應?你對待他們就像他們有感情一樣嗎?你在乎別人是否注意你說的話嗎?你認為負責任的前進道路是什麼?一個人會留意你下面的評論。
圖片來源:deagreez1/照片
即使你使用自然語言,你的Mac電腦也能聽懂你在說什麼。想想在日常與人交談中從你舌頭上滾落下來的單詞和句子。困難的部分是要習慣這個想法,並記住使用自然語言時,你已經使用電腦說了這麼久。 ...
...現在。而且因為這些實驗中有幾個依賴於機器學習,所以你的直接互動實際上會有助於發展。下面是一些最好的谷歌人工智慧實驗,你可以玩現在。 ...
...,這需要一點適應。但它也抵消了藍光的負面影響,大大減少了眩光。即使你懷疑它能改善你的睡眠,當你在光線昏暗的房間裡使用**時,你也會立刻注意到眼睛疲勞的減輕。 ...
...音到文字功能審查員使用星號詛咒單詞。幸運的是,無論你的**使用哪種鍵盤,這都很容易關閉。 ...
...問題的一個明顯答案是,世界各地的公司都在不斷地尋找減少員工工作量的方法。這並不是完全取代他們,因為人們常常錯誤地認為。 ...