谷歌有一個(gè)雄心勃勃的計(jì)劃,那就是利用人工智能刪除侮辱性評論,防御網(wǎng)絡(luò)暴民。雖然目前的技術(shù)無法應(yīng)對這樣的挑戰(zhàn),但它有助于改善那些已經(jīng)標(biāo)準(zhǔn)化的互聯(lián)網(wǎng)社區(qū)。
【資料圖】
人類已經(jīng)摧毀了互聯(lián)網(wǎng)。網(wǎng)絡(luò)欺凌、騷擾言論、社會(huì)羞辱和惡心言論在推特和紅迪網(wǎng)等網(wǎng)站上像瘟疫一樣傳播,尤其是當(dāng)你碰巧得到了錯(cuò)誤的關(guān)注時(shí)。
提供在線服務(wù)的公司正被指控?zé)o視騷擾言論和壓制言論自由。然而,谷歌現(xiàn)在認(rèn)為,人工智能可以用來減少這種數(shù)字評論造成的悲劇。該公司的技術(shù)孵化器Jigsaw(原名谷歌智庫Google Ideas)正計(jì)劃通過自動(dòng)化程序“對話AI”識(shí)別和刪除數(shù)字騷擾信息。
正如Jigsaw負(fù)責(zé)人賈里德科恩(Jared Cohen)所說,“我想用我們擁有的最好的技術(shù)來應(yīng)對那些戰(zhàn)爭哨所和不公平的戰(zhàn)術(shù)(這些不公平的手段讓那些敵對的聲音占據(jù)了不成比例的比例),并盡最大努力提供一個(gè)公平的環(huán)境”。
谷歌此舉顯示了它的大膽,這個(gè)計(jì)劃與Jigsaw之前的工作不同。Jigsaw此前的工作包括推出Project Shield(免費(fèi)開放的DDoS攔截服務(wù)),旨在保護(hù)新聞網(wǎng)站和促進(jìn)言論自由的網(wǎng)站免受拒絕服務(wù)攻擊。Jigsaw的另一個(gè)成就,密碼警報(bào),是一個(gè)Chrome插件,旨在確保用戶的密碼免受網(wǎng)絡(luò)釣魚攻擊。
這些曾經(jīng)是主要的技術(shù)挑戰(zhàn),但戰(zhàn)爭帖子和網(wǎng)絡(luò)暴民的話題已經(jīng)成為一個(gè)社會(huì)學(xué)問題。
對話AI是谷歌“月球拍攝”項(xiàng)目中最成功的項(xiàng)目之一,也是“谷歌大腦”的一個(gè)分支。一方面,Conversation AI通過大規(guī)模的神經(jīng)網(wǎng)絡(luò)給機(jī)器學(xué)習(xí)領(lǐng)域帶來了革命性的發(fā)展,同時(shí)也讓谷歌擁有了更多的優(yōu)勢,比如在圖像識(shí)別領(lǐng)域比人類更加熟練。但是對話人工智能對網(wǎng)上的辱罵言論無能為力。
雖然Jigsaw的目標(biāo)是“對抗網(wǎng)絡(luò)暴民的崛起”,但目前程序本身過于溫和,所以距離Jigsaw成為合格項(xiàng)目還有很長的路要走。對話AI將主要用于簡化社區(qū)評論流程(這個(gè)流程目前主要是人類完成的),所以即使不能根除那些不良的網(wǎng)絡(luò)行為,也能為一些網(wǎng)站積累更多更好的評論。
暗示性言語的檢測
幾個(gè)月后,Jigsaw將率先將Conversation AI應(yīng)用到《紐約時(shí)報(bào)》網(wǎng)站,幫助公司管理其在線評論。目前,《紐約時(shí)報(bào)》的所有者幾乎必須審查他們網(wǎng)站上發(fā)布的每一條評論。
現(xiàn)在,Conversation AI正在閱讀1800萬條評論,并學(xué)習(xí)如何檢測被拒絕的評論,包括沒有實(shí)質(zhì)性內(nèi)容的評論、跑題的評論、垃圾郵件、煽動(dòng)性和攻擊性的評論、包含淫穢信息的評論等。
《紐約時(shí)報(bào)》的目標(biāo)不是盡量減少其評論中的辱罵性言論,因?yàn)檫@個(gè)問題現(xiàn)在已經(jīng)得到控制;相反,《紐約時(shí)報(bào)》希望減少人工版主的工作量?!拔覀冾A(yù)計(jì)不會(huì)有全自動(dòng)系統(tǒng)?!薄都~約時(shí)報(bào)》社區(qū)團(tuán)隊(duì)項(xiàng)目經(jīng)理Erica Greene說。
《紐約時(shí)報(bào)》社區(qū)編輯Bassey Etim估計(jì),大約有50% ~ 80%的評論可以自動(dòng)評論,從而使手動(dòng)版主能夠?qū)⒏嗑ν度氲狡渌糠帧?/p>
與實(shí)時(shí)免費(fèi)網(wǎng)站Twitter和Reddit不同,《紐約時(shí)報(bào)》網(wǎng)站面臨其他問題??紤]到目前機(jī)器學(xué)習(xí)的局限性,會(huì)話人工智能無法有效對抗網(wǎng)絡(luò)空間中存在的辱罵言論。
盡管機(jī)器學(xué)習(xí)取得了輝煌的成就,但它仍然沒有破解人類語言。
。人類語言中的那些類似于圍棋或者圖像中的圖案的部分,證明了語言的難以捉摸。辱罵性言論檢測中的語言難題是語言的語境。Conversation AI的評論分析并不適用于一個(gè)完整的討論過程,因?yàn)樗豢梢詫蝹€(gè)的評論和學(xué)習(xí)模式中的評論來進(jìn)行匹配,從而識(shí)別哪些是好評論或者壞評論。
例如,如果評論傾向于包含常用詞匯、短語和其他特征時(shí),這些評論就會(huì)被認(rèn)為是可接受的。但據(jù)Greene介紹,谷歌的系統(tǒng)經(jīng)常會(huì)將關(guān)于唐納德·特朗普(Donald Trump)的文章中的評論視為辱罵性的言論,因?yàn)樗麄儠?huì)引用特朗普的一些言論,而這些言論如果出現(xiàn)在讀者的評論中通常都會(huì)被屏蔽。對于這些類型的文章,《紐約時(shí)報(bào)》將會(huì)選擇關(guān)閉自動(dòng)審核機(jī)制。
因此,期望Conversation AI在開放的網(wǎng)站(例如Twitter)中有良好的表現(xiàn),幾乎是癡人說夢。
Conversation AI如何檢測那些發(fā)送給猶太記者的辱罵性言論中關(guān)于大屠殺的暗示?對這些辱罵性言論的檢測是建立在機(jī)器學(xué)習(xí)算法能夠檢測的歷史知識(shí)和文化背景基礎(chǔ)之上的,而這些只有在機(jī)器學(xué)習(xí)算法接受過類似的訓(xùn)練之后才能實(shí)現(xiàn)。
即便如此,如果有人發(fā)送“如果特朗普贏了,我就會(huì)買這個(gè)”并附上相同的圖片,Conversation AI又如何能夠?qū)⑵渑c辱罵性言論進(jìn)行區(qū)分?
事實(shí)上,這個(gè)過程所需要的語義和實(shí)踐知識(shí),甚至已經(jīng)超出了目前機(jī)器學(xué)習(xí)所希望達(dá)到的目標(biāo)。
因此,毫無疑問,專門的引戰(zhàn)帖將會(huì)找到一種新的方法來發(fā)布辱罵性言論,而這種方式可以避開類似于Conversation AI這樣的系統(tǒng)。如果目標(biāo)是阻止評論者用侮辱性稱呼例如“同志”等稱呼對方的話,那么機(jī)器學(xué)習(xí)通過屏蔽一些評論可以很好地實(shí)現(xiàn)這一點(diǎn)。但是機(jī)器學(xué)習(xí)無法識(shí)別隱喻,例如說某人是“彎”的來隱喻某人不正常。
換句話說,對于那些已經(jīng)非常規(guī)范的社區(qū)來說,Conversation AI將會(huì)使得審核任務(wù)完成得更有效率。
但如果想要根除那些我們聽到的最糟糕的辱罵性言論(這些言論通常出現(xiàn)在那些審核標(biāo)準(zhǔn)最低的網(wǎng)站上),Conversation AI則顯得無能為力。
除非改變Twitter和Reddit這些平臺(tái)的性質(zhì),否則想要管理存在于這些網(wǎng)站的辱罵性言論幾乎不可能。
鄭重聲明:本文版權(quán)歸原作者所有,轉(zhuǎn)載文章僅為傳播更多信息之目的,如作者信息標(biāo)記有誤,請第一時(shí)候聯(lián)系我們修改或刪除,多謝。
標(biāo)簽: 上一篇:用AI玩游戲?谷歌推出兩個(gè)新的人工智能工具下一篇:最后一頁