(資料圖)
原標題:莫讓AI換臉技術淪為詐騙的道具
萬周
今年4月20日,福州市某知名企業(yè)法定代表人郭先生意外接到一位“至交好友”的視頻通話信息。聊天中,“至交好友”告訴郭先生,他的朋友在外地投標,需要430萬元保證金,且需要對公賬戶過賬,所以想借用其公司的賬戶走一下賬。由于郭先生通過視頻確認了對方的面孔和聲音,便毫無懷疑地把430萬元分兩筆轉賬過去。事后,郭先生電話聯(lián)系好友,才發(fā)現(xiàn)對方通過智能AI技術手段,佯裝成好友對自己實施了詐騙。慶幸的是,在福州和包頭警方的聯(lián)動下,郭先生追回了被騙的資金336萬元。(相關報道見A7版)
從警方披露的案情看,這種詐騙伎倆并沒有多少創(chuàng)新,甚至可以說是對老套路的復制。然而,由于此種詐騙伎倆運用了AI換臉技術,詐騙分子更容易成功冒充他人。在上述案例中,當事人郭先生之所以不假思索地給冒充成“至交好友”的詐騙分子轉賬,根本原因就在于后者偽裝的面孔太逼真,讓郭先生對其深信不疑。
AI換臉,是指通過AI人工智能技術,把別人的臉換成自己的臉。AI換臉技術在初期多用于各種娛樂場景,比如歌迷把自己的臉換成歌星的臉,借此“過把歌星癮”。不過,隨著AI換臉技術的迭代更替,換臉效果愈發(fā)逼真,一些“空手套白狼”的不法之徒也看到了斂財商機,致使AI換臉技術淪為詐騙的道具。
相比于普通的詐騙手法,借助AI換臉技術實施的詐騙伎倆,具有非接觸性、能精準鎖定受害對象等特點,隱蔽性強,也最容易得逞。同時,AI換臉技術運用簡單,可復制性強,違法成本低,更是給受害者識別真假帶來了難度,令人防不勝防。因此,如何不讓AI換臉技術淪為詐騙犯罪的道具,需要創(chuàng)新治理手段。
不讓AI換臉技術淪為詐騙道具,須對這種詐騙伎倆做到露頭即打。相關部門要加強跨區(qū)域、跨部門的協(xié)調(diào)聯(lián)動,開展聯(lián)合打擊防范。在上述案例中,福州、包頭兩地警方聯(lián)手行動,借助銀行配合,成功為受害者止損336萬元,充分證明了跨區(qū)域、跨部門聯(lián)動協(xié)作打擊防范涉AI換臉技術詐騙犯罪的重要性,值得各地各部門各行業(yè)借鑒。
打擊防范涉AI換臉技術詐騙犯罪,治本之策在于以良法促善治。雖然目前我國已出臺了《網(wǎng)絡音視頻信息服務管理規(guī)定》《互聯(lián)網(wǎng)信息服務深度合成管理規(guī)定》等法規(guī),對AI換臉技術運用有一定的約束力,但這些法規(guī)層級較低且缺乏系統(tǒng)性,難以適應打擊防范涉AI換臉技術詐騙的實際需要。相關部門應堅持“急在治標”與“重在治本”并舉的導向,在及時完善現(xiàn)有法律規(guī)范的同時,著眼長遠地制定出統(tǒng)一的上位法,從而用嚴密完善的法律,將AI換臉技術的運用規(guī)范在法制軌道上,不再讓其淪為詐騙犯罪的道具。
需要注意的是,涉AI換臉技術的詐騙伎倆能夠輕易得逞,一個重要原因在于詐騙分子掌握了受害者好友的人臉、聲音等個人信息。對此,公眾要增強保護個人人臉、聲音等敏感信息的意識,充分認識到泄露此類個人信息的潛在風險;監(jiān)管部門亦應強化監(jiān)管,以法律責任的嚴肅追究,倒逼采集人臉、聲音等個人信息的商家或相關機構建立起技術防范與依法管理相得益彰的個人信息安全格局,讓詐騙分子利用AI換臉技術實施詐騙不再具備條件。