科技行者Facebook挑戰賽:利用AI檢測惡意圖文,還有很長的路要走

Facebook挑戰賽:利用AI檢測惡意圖文,還有很長的路要走

Facebook挑戰賽:利用AI檢測惡意圖文,還有很長的路要走

2020年5月15日 21:43:24 科技行者
  • 分享文章到微信

    掃一掃
    分享文章到微信

  • 關注官方公眾號-科技行者

    掃一掃
    關注官方公眾號
    科技行者

Facebook認為,惡意圖文對于機器學習程序而言是一個有趣的挑戰,機器學習在短時間內還找不到完美的解決方法。

來源:科技行者 2020年5月15日 21:43:24

關鍵字:機器學習 人工智能 Facebook

科技行者 5月15日 北京消息:  

▲ 圖:Facebook認為,要確認「惡意圖文」,就需要計算出“無害短語”和“無害圖像”之間的交集函數。Facebook用人工示例來說明這個問題的本質所在。

惡意圖文(Meme,又譯迷因或模因),是一種基于宗教或種族等特征的、用于貶低他人的文字和圖像組合。Facebook認為,惡意圖文對于機器學習程序而言是一個有趣的挑戰,機器學習在短時間內還找不到完美的解決方法。而Facebook最新研究表明——深度學習的人工智能形式在“檢測”惡意模因的能力方面遠遠落后于人類。

Facebook本周公布的一篇題為《惡意模因挑戰:在多模式模因中檢測仇恨言論(The Hateful Memes Challenge: Detecting Hate Speech in Multimodal Memes)》的研究論文,文章搜集了網上(包括Facebook上)的10,000個惡意模因,建了個示例數據集,作者比較了各種最先進的深度學習模型檢測及人類檢測結果。

論文的主要結論是:“還有很大的改進空間”。作者發表博文《Hateful Memes Challenge and Data Set》(https://ai.facebook.com/hatefulmemes)概述了這項研究。另外幾個Facebook研究人員發表的另一篇博文《AI advances to better detect hate speech》(https://ai.facebook.com/blog/ai-advances-to-better-detect-hate-speech)廣泛地探討了AI檢測仇恨言論的話題。

他們就這個有趣的機器學習課題發表博文,是因為「惡意圖文檢測」只是作者提出的“多模式”學習的一個示例?茖W家研究的多模式,就是結合各種機器學習程序,處理兩種或多種信號。博文里的例子則是對文本和圖像的處理。

作者在博文里提到,臭鼬圖片本身沒什么惡意,文字“喜歡你的味道”本身也沒有惡意,但將二者結合起來就“惡意”了。因此,計算機程序不一定能用一個函數計算出文字和圖像的交集函數,該交集是一種誹謗或其他仇恨言論。

他們做的測試非常簡單。作者從不同地方(包括Facebook)收集了100萬個模因樣本,他們移除了任何違反Facebook服務條款的模因,例如含色情內容的模因,結果剩下162,000個模因。然后,他們重新將文本復制到一張新圖片上,重新創建了模因,新圖片來源是與庫存圖片授權公司Getty Images合作獲得的。這樣做是為了消除原始模因創建方式中的特質,這種特質可能會扭曲測試結果。

然后,他們讓人工審核人員判斷這些模因是否內含“惡意”,一旦有多數人對同一個模因意見相同,就留下這個模因,最后得到10,000個模因,這10,000個模因是機器學習的訓練和測試數據集。他們還納入了“混雜因素”, 混雜因素指那些意思反過來的模因,就是原本是“惡意”的模因,然后轉換成“贊賞”或“恭維”的模因。作者寫道,這樣做是為了擾亂機器學習系統里可能存在的“偏見”,“偏見”會令機器學習系統輕松地評估模因的惡意程度。

文章沒有列舉模因的實際例子,文章認為這樣做不適合重新定位內容,那些希望了解模因的人可以下載數據庫(https://github.com/facebookresearch/mmf/commit/ef04cc2de0cf58e3e31c662ed49f679d876cf9a3)。相反,作者使用的圖文是暗示性復制品,例如本文上圖里的模因,那個文本是“喜歡你今天的味道”的臭鼬圖片。

然后,一個人類“專家”復核者需猜測面前每個模因的惡意度,每個模因在這里成了該測試的人類基準。不同的機器學習計算機程序,都必須做同樣的事,計算惡意度。

人類在估測“模因”惡意度的平均準確度得分為84.7(滿分為100),最佳的深度學習模型得分僅為64.73。

模因數據可以從網絡下載,是Facebook《模因挑戰賽》用的模因數據集,《模因挑戰賽》模因數據集有點仿ImageNet數據集的意思,ImageNet數據集幾年前推動了圖像識別的發展。Facebook通過托管在線挑戰的合作公司DrivenData,為參加挑戰賽人士提供了總計100,000美元的獎勵, 一等獎50,000美元。

Facebook表示,挑戰賽會是今年NeurIPS AI會議的挑戰之一。有關錄入日期等數據可從DataDriven的網站上獲得(https://www.drivendata.org/competitions/64/hatefulmemes/?fbclid=IwAR2NFrckKiT9yiQbARrK7AD2g_Cq_HTCm7J-kuOI9PEEfk1YHK3uCq5ILNI)。用于挑戰賽評估參賽程序的模因示例,是未在模因數據集里出現的模因。

文章里提到的測試里目前得分最高的模型是ViLBERT和Visual BERT,ViLBERT是佐治亞理工學院的Jiasen Lu及其同事是去年提出的(https://arxiv.org/pdf/1908.02265.pdf),ViLBERT模型技術將視覺和語言處理結合在一起;Visual BERT(https://arxiv.org/pdf/1908.03557.pdf)的作者是UCLA的Liunian Harold Li及其同事,也是去年提出的。

▲ 圖:不同的深度學習模型計算模因“惡意”度以及人類估測“惡意”度的結果。性能最佳的模型是ViLBERT和Visual BERT,兩個模型都是基于 “融合”文本和圖像處理開發的。

可以從名字看出來,兩個模型都是從谷歌的BERT系統派生出來的,而BERT系統則是基于“Transformer”方法進行語言建模。Kiela及其Facebook同事在測試中發現,在推導一個模因的惡意度方面,這些視覺語言聯合體,比那些只看模因文本的模型要好。例如,與VisualBERT的64.73分相比,純BERT模型的得分僅為59.2。

筆者用電子郵件向文章作者提了幾個問題。其中的一個問題是“人類注釋者是什么人?”,由于文章作者在文中提到了“人類注釋者承擔了構建模因數據集及提供基線人類評分的任務”。Facebook拒絕置評。

第二個問題是“Facebook上的仇恨言論問題的嚴重程度”。這項工作的出發點是利用人工智能清理社交媒體上的仇恨言論,所以就要知道Facebook是不是需要定期刪除仇恨言論,或是到目前為止一共刪了多少仇恨言論,這一點很重要。Facebook也拒絕置評。

文章的第一作者Kiela倒是回答了筆者提出的幾個重要技術問題。其中一個技術問題是,“這些尖端模型(如Visual BERT)要縮小與人類的差距,還缺什么東西?”

Kiela在給筆者的電子郵件里表示,“假若我們知道缺的是什么,要修補人工智能與人類之間的差距就容易了?偟膩碚f,我們需要在改進多模式的理解和推理方面做工作。” 

他表示,“我們知道人工智能基準在推動該領域的發展可以起重要作用。我們的文章,試圖推動該研究方向上更多的工作,以及在我們取得的任何進展時提供具體的衡量方式。”

筆者還在電郵里問到“Facebook在利用現有模型處理仇恨言論方面的進展”。Kiela在回郵里表示,Facebook現在用的模型與純文本BERT模型很接近,是Facebook最近發明的,名為RoBERTa和XLM-R(https://www.zdnet.com/article/facebooks-latest-giant-language-ai-hits-computing-wall-at-500-nvidia-gpus/),兩個模型都是非常大的自然語言處理程序。Kiela在電郵里強調,RoBERTa和XLM-R仍然是“單模模型”,因此兩個模型都是僅處理文本,不是處理圖像的程序,因此,兩個模型用于處理多模模型時的性能還存在差距。

筆者還問到一些有關數據集的問題,那個數據集一開始含一百萬個示例模因,最終的數據集縮減到10,000個示例。筆者問,為什么是這兩個數字?當然,兩個數字都似乎是任意的,而且數據集最后只有10,000個樣本,似乎很小的數字。

Kiela在電子郵件中告訴筆者,“我們用了許多圖像縮減到一萬個樣本的數據集,這個故事是要說明,我們花了很大的心思設計該數據集。通常,人工智能數據集(尤其是單模人工智能數據集)比這個數據集更好一些,因此我們覺得有必須向人工智能社區解釋一下,為什么該數據集相對較小。” 

Kiela 表示,“原因是我們用了訓練有素的注釋者,我們非常謹慎地確保,其他人可以將數據集用于研究目的,而且我們對數據集進行了大量過濾處理,以確保數據集的高質量。”

▲ 圖:Facebook示意圖:組合多種信號類型進行多模式機器學習的說明。

由于這項研究強調“多模式”方法在深度學習中的重要性,因此筆者最后問了“當今哪種模型最能代表這方面未來的研究方向”。Kiela告訴筆者,朝著ViLBERT及“多模雙變換器”方向看。Facebook的Dhruv Batra和Devi Parikh參與了ViLBERT的研發。Kiela和同事研發了多模雙變換器,是去年發表的(https://arxiv.org/pdf/1909.02950.pdf)。

ViLBERT和其他多模式人工智能程序的示例代碼,可以在Facebook AI的 “ MMF”網站(https://mmf.readthedocs.io/en/latest/)上找到,示例代碼內置了各種用PyTorch實現的功能。

從這里開始將如何進一步發展,取決于業界的科學家是否覺得Facebook挑戰有其價值,以及對應的數據集是否足以為引導新方法的開發提高基準。

Facebook的想法倒是對到點子上,從總體上解決仇恨言論問題需要自動化,原因是,靠人類構建的數據集本身無法從總體上解決仇恨言論問題。

正如Kiela和同事所說的那樣,“靠人類檢查每個數據點,無法應付惡意內容的處理。”

    大香大香伊人在钱线久久_波多野结衣家庭教师_被强奷很舒服好爽好爽的视频