facebook正在用人工智慧模擬使用者的不良行為

Facebook的工程師們開發了一種新的方法來幫助他們識別和防止有害的行為,比如使用者散佈垃圾郵件、欺騙他人、買賣武器和毒品。他們現在可以透過在並行版本的Facebook上釋出人工智慧機器人來模擬壞人的行為。然後,研究人員可以在模擬中研究機器人的行為,並用新的方法來阻止它們。...

Facebook的工程師們開發了一種新的方法來幫助他們識別和防止有害的行為,比如使用者散佈垃圾郵件、欺騙他人、買賣武器和毒品。他們現在可以透過在並行版本的Facebook上釋出人工智慧機器人來模擬壞人的行為。然後,研究人員可以在模擬中研究機器人的行為,並用新的方法來阻止它們。

007Ys3FFgy1gpnx2i5512j31v818tan5

這個模擬器名為WW,發音為“Dub Dub”,基於Facebook的真實程式碼庫。該公司在今年早些時候發表了一篇關於WW的論文(之所以稱之為“模擬器”,是因為它是WWW(全球資訊網)的截斷版本),但在最近的一次圓桌會議上分享了更多關於這項工作的資訊。

這項研究由Facebook工程師馬克•哈曼(markharman)和該公司位於倫敦的人工智慧部門牽頭。哈曼在接受記者採訪時說,WW是一種非常靈活的工具,可以用來限制網站上各種各樣的有害行為,他舉了一個例子,利用這種模擬來開發針對騙子的新防禦措施。

在現實生活中,騙子通常透過搜尋使用者的友誼團體來尋找潛在的標記來開始他們的工作。為了在WW中對這種行為進行建模,Facebook工程師們建立了一組“無辜”機器人作為目標,並培訓了一些“壞”機器人,他們探索網路試圖找到它們。工程師們隨後嘗試了不同的方法來阻止壞機器人,引入各種限制,比如限制機器人每分鐘傳送的私人訊息和帖子的數量,看看這是如何影響他們的行為的。

哈曼將這項工作與城市規劃師在繁忙道路上試圖減少超速行駛的工作進行了比較。在這種情況下,工程師在模擬器中模擬交通流,然後在某些街道上試驗引入減速帶之類的東西,看看它們有什麼效果。WW模擬允許Facebook做同樣的事情,但與Facebook使用者。

哈曼說:“我們將‘減速帶’應用到我們的機器人可以執行的動作和觀察中,如此快速地探索我們可以對產品做出的可能改變,以抑制有害行為而不傷害正常行為。”。“我們可以將其擴充套件到數萬或數十萬個機器人,因此,並行地搜尋許多不同的可能的[…]約束向量。”

在機器學習中,模擬你想學習的行為已經足夠普遍了,但是WW專案是值得注意的,因為模擬是基於真實版本的Facebook。Facebook稱其方法為“基於網路的模擬”

哈曼說:“與傳統的模擬不同,在網路模擬中,一切都是模擬的,而動作和觀察實際上是透過真實的基礎設施進行的,因此更加真實。”。

不過,他強調說,儘管使用了真實的基礎設施,但機器人無法以任何方式與使用者互動。他說:“透過構造,它們實際上不能與其他機器人以外的任何東西進行互動。”。

值得注意的是,這個模擬並不是Facebook的視覺複製品。不要想象科學家們研究機器人行為的方式和你在Facebook群組中觀察人們相互交流的方式一樣。WW不會透過Facebook的GUI生成結果,而是將所有互動記錄為數字資料。把它看作是看足球比賽(真正的Facebook)和簡單地閱讀比賽統計資料(WW)之間的區別。

目前,WW也處於研究階段,該公司使用機器人進行的模擬都沒有導致Facebook在現實生活中發生變化。哈曼說,他的小組仍在進行測試,以檢查模擬是否與現實生活中的行為相匹配,具有足夠高的保真度,以證明現實生活中的變化是合理的。但他認為,這項工作將導致在年底前修改Facebook的程式碼。

當然,模擬器也有侷限性。例如,WW不能模擬使用者意圖,也不能模擬複雜的行為。Facebook表示,機器人可以搜尋、請求好友、留言、發帖和傳送訊息,但這些行為的實際內容(比如對話內容)並不是模擬的。

哈曼說,世界大戰的力量,不過,是它的能力運作在一個巨大的規模。它讓Facebook執行數千次模擬,在不影響使用者的情況下檢查網站的各種細微變化,並從中發現新的行為模式。他說:“我認為,來自大資料的統計能力仍然沒有得到充分的重視。”。

這項工作的一個更令人興奮的方面是,WW有可能透過機器人的行動發現Facebook架構中的新弱點。機器人可以透過各種方式訓練。有時,他們被明確地指示如何行動;有時,他們被要求模仿現實生活中的行為;有時,他們只是被賦予一定的目標,讓他們自己決定自己的行動。在後一種情況下(一種被稱為無監督機器學習的方法),當機器人找到工程師無法預測的方法來達到他們的目標時,意外的行為就會發生。

“目前,主要的重點是訓練機器人模仿我們知道的在平臺上發生的事情。但在理論和實踐上,機器人可以做我們以前從未見過的事情,”哈曼說。“這其實是我們想要的,因為我們最終想要超越不良行為,而不是繼續追趕。”

哈曼說,該組織已經看到了機器人的一些意想不到的行為,但拒絕透露任何細節。他說他不想給騙子任何線索。

  • 發表於 2021-04-18 15:13
  • 閱讀 ( 40 )
  • 分類:網際網路

你可能感興趣的文章

10款android應用程式,適用於網際網路速度慢或網路連線不良

... 4facebook精簡版 ...

  • 發佈於 2021-03-11 16:24
  • 閲讀 ( 49 )

facebook現在正在使用人工智慧來幫助防止自殺

...般的資料保護條例,防止公司使用敏感資訊來分析他們的使用者。 ...

  • 發佈於 2021-03-12 07:20
  • 閲讀 ( 54 )

減少你的詛咒:濫用你的人工智慧裝置會讓你失去工作

...助機器人瞭解我們。為了教Messenger聊天機器人如何談判,Facebook在兩人之間使用了數千種自然語言進行談判。 ...

  • 發佈於 2021-03-13 01:57
  • 閲讀 ( 53 )

instagram推出新工具打擊欺凌

...慧來警告人們,他們的評論可能是冒犯性的,另一種是讓使用者有效地遮蔽他們不想再與之互動的任何人。 ...

  • 發佈於 2021-03-20 05:36
  • 閲讀 ( 50 )

facebook的人工智慧解決了可惡內容的增加

... 儘管該平臺利用“使用者報告和技術的結合”來刪除可惡的內容,但這一巨大的飛躍主要歸功於Facebook的先進人工智慧。 ...

  • 發佈於 2021-03-29 12:24
  • 閲讀 ( 41 )

facebook的下一個大型人工智慧專案是在使用者的公共影片上訓練機器

...措,希望能讓它在這項重要的工作中佔據優勢:在Facebook使用者的公共影片上訓練人工智慧。 獲取培訓資料是人工智慧最大的競爭優勢之一,透過從數以百萬計的使用者那裡收集這些資源,Facebook、谷歌和亞馬遜等科...

  • 發佈於 2021-04-16 02:30
  • 閲讀 ( 44 )

facebook現在正在使用人工智慧對內容進行排序,以加快稽核速度

...(包括垃圾郵件、仇恨言論和“美化暴力”的內容)會被使用者或機器學習過濾器標記。一些非常明確的案例會被自動處理(例如,響應可能涉及刪除帖子或阻止帳戶),而其餘的則會進入佇列,由人工版主審閱。 Facebook在全球...

  • 發佈於 2021-04-17 07:52
  • 閲讀 ( 58 )

臉譜網說,人工智慧助長了仇恨言論的鎮壓

...仇恨言論流行的新資訊。該公司估計,0.10%到0.11%的Facebook使用者看到的內容違反了仇恨言論規則,相當於“每10000次內容瀏覽就有10到11次仇恨言論瀏覽量”。這是基於對帖子的隨機抽樣,衡量內容的覆蓋範圍,而不是單純的帖子...

  • 發佈於 2021-04-17 09:22
  • 閲讀 ( 48 )

facebook是如何利用人工智慧來打擊covid-19錯誤資訊和發現“可恨的模因”的

...配技術應用於尋找**和自傷的帖子,提高了Instagram內容在使用者報告之前被刪除的百分比。 2019年最後一個季度,Facebook刪除了500萬條內容,**和自傷執法力度也有所擴大— 是前幾個月的兩倍。一位發言人說,這一激增源於Facebook...

  • 發佈於 2021-04-19 07:34
  • 閲讀 ( 51 )

臉譜網’到2020年,中國控制假貨的問題只會變得更糟

...licat的應用程式在iOS和Android上啟動,它使用機器學習貼上使用者’ 面對大眾的反應天賦。現在它只適用於預先挑選的天才,但公司’s CEO告訴邊緣’我允許使用者在將來將面**他們喜歡的任何內容中,這是由一種機器學習方法(...

  • 發佈於 2021-04-20 15:31
  • 閲讀 ( 41 )
狗頭大魔王
狗頭大魔王

0 篇文章

作家榜

  1. admin 0 文章
  2. 孫小欽 0 文章
  3. JVhby0 0 文章
  4. fvpvzrr 0 文章
  5. 0sus8kksc 0 文章
  6. zsfn1903 0 文章
  7. w91395898 0 文章
  8. SuperQueen123 0 文章

相關推薦