近日,全國多地警方發(fā)布了多個“AI詐騙”的典型案例,引發(fā)大眾對于使用人工智能技術(shù)進(jìn)行詐騙的案件頻發(fā)進(jìn)行探討。揚(yáng)子晚報/紫牛新聞記者注意到,這些被騙典型案例中不乏有被騙上百萬的受害者,并且詐騙手段也從以往的圖片、電話聲音造假,逐漸發(fā)展成視頻造假。網(wǎng)絡(luò)安全從業(yè)人員告訴紫牛新聞記者,當(dāng)下AI技術(shù)的發(fā)展使得技術(shù)運(yùn)用門檻降低,容易被不法分子利用,而相應(yīng)防范手段卻顯得滯后,普通大眾更需要提高自身防范意識。
AI詐騙話題登上熱搜?
(資料圖)
AI換臉技術(shù)被引入詐騙
記者實(shí)際體驗(yàn)發(fā)現(xiàn)“質(zhì)量高,速度快”
網(wǎng)絡(luò)安全從業(yè)人員小鄭告訴紫牛新聞記者,隨著人工智能技術(shù)的發(fā)展,不少例如AI換臉、AI語音合成的技術(shù)門檻已越來越低。小鄭介紹,早些年犯罪分子們就會通過使用PS等圖片合成軟件,在有經(jīng)驗(yàn)和技術(shù)能力的人員操作下,合成不少以假亂真的圖片用以實(shí)施詐騙。而如今,AI替代了合成技術(shù)人員,能夠在犯罪分子使用簡單指令和操作下,自動完成細(xì)致到毛發(fā)、光影都真實(shí)的合成圖片。并且AI的工作效率能短時間生成大量圖片合成視頻,這樣也就實(shí)現(xiàn)在視頻中以假亂真換臉。而音頻合成詐騙電話早些年就已出現(xiàn),甚至有犯罪分子通過騷擾電話的形式來錄取受害者聲音特征,最終合成音頻實(shí)施詐騙。
藝術(shù)工作者用AI進(jìn)行創(chuàng)作(圖源小紅書用戶)
在專業(yè)人員指導(dǎo)下,紫牛新聞記者體驗(yàn)了多款A(yù)I換臉合成工具。其中一款國外軟件被稱為效果最好最自由的工具,本意是為了幫助藝術(shù)創(chuàng)作者提高工作效率,最后卻因功能強(qiáng)大和免費(fèi)開放下載,成為當(dāng)前AI換臉違法行為的主要工具。記者在電腦上安裝好軟件后,使用網(wǎng)絡(luò)下載的明星臉部模型,加上網(wǎng)絡(luò)分享的指令,最快5秒就能生成一張?jiān)撁餍菢O為真實(shí)的照片,而通過指令的改變可以隨意切換場景、人物動作、表情等細(xì)節(jié)。
記者同時還使用了自己平時20張左右的生活照提供給AI,嘗試對其進(jìn)行換臉訓(xùn)練,AI用幾小時時間就掌握了記者的面部特征,并生成一個帶有記者臉部信息的模型文件。運(yùn)用該模型,記者嘗試了正面、側(cè)面等多角度人物照片生成,結(jié)果幾秒內(nèi)導(dǎo)出的照片就已非常近似記者本人照片。小鄭告訴記者,AI的學(xué)習(xí)能力很強(qiáng),如果能有30張以上的人物露臉照片,就能生成很真實(shí)的圖片。
不少視頻app中帶有換臉功能?
紫牛新聞記者在手機(jī)軟件下載程序中搜索“AI換臉”,可以搜索到數(shù)十種各類換臉軟件,其中不少的介紹都包含“一鍵視頻換臉”“一鍵換裝換發(fā)型”等宣傳。而一些主流的短視頻軟件中,也出現(xiàn)了植入的換臉特效。記者使用發(fā)現(xiàn),只要上傳自己的一張照片,再配合軟件給出的一些影視片段、網(wǎng)絡(luò)視頻,就可以自動生成惟妙惟肖的換臉視頻。
視頻中除了臉型變化不大,人物的五官基本都被替換,而且色調(diào)、光線等方面均沒有什么違和感,只是在側(cè)臉時會露出一些“破綻”,以及臉部有時會出現(xiàn)一些特殊的抖動,這些軟件制作的換臉視頻以娛樂為主,細(xì)看還是很難亂真。不過據(jù)小鄭介紹,目前所有的軟件都還需要一定時間的計(jì)算和生成,想做到實(shí)時的“換臉”對硬件要求很高。
各類軟件的層出不窮,也帶來不少法律問題。近期,上海一家網(wǎng)絡(luò)公司就因換臉手機(jī)APP新增多份肖像權(quán)糾紛裁判文書。據(jù)悉,該公司未經(jīng)原告許可擅自使用其影像作品,并制作融臉視頻模板,提供給付費(fèi)會員使用。多位網(wǎng)紅起訴該公司,法院認(rèn)為,涉案軟件生成視頻除臉部特征以外,動作、背景、視頻角度與原告發(fā)布的視頻均高度雷同一致,部分視頻存在明顯的“換臉”痕跡,系利用信息技術(shù)手段偽造等方式侵害原告的肖像權(quán)。
如何識別和預(yù)防AI換臉
提高防范意識減少信息暴露是關(guān)鍵
紫牛新聞記者注意到,在AI換臉圖片、視頻層出不窮后,如何鑒定相關(guān)內(nèi)容真假成為了不少網(wǎng)友討論的熱點(diǎn)。一名現(xiàn)常使用AI進(jìn)行寫真創(chuàng)作的設(shè)計(jì)師告訴記者,AI制作的真人照片與視頻如今還存在一些沒有完善的地方,例如AI生成的人眼神會比較奇怪,常出現(xiàn)瞳孔不自然,呆滯無神的情況。此外,一些人物身體細(xì)節(jié)也是容易出錯的區(qū)域,例如手部手指的不自然、人體比例的不協(xié)調(diào)等。但該設(shè)計(jì)師表示,這些情況可能在隨著AI技術(shù)快速進(jìn)步而逐漸得以解決。
網(wǎng)友分享經(jīng)驗(yàn):AI生成圖手部與眼睛容易存在問題?
與此同時,也有不少平臺開始嘗試?yán)眉夹g(shù)手段識別AI生成圖片。記者在抖音、嗶哩嗶哩、小紅書等平臺看到,一些看似真實(shí)的照片被識別判定為AI生成內(nèi)容,使用眼神、手部等細(xì)節(jié)觀察法,確實(shí)也能發(fā)現(xiàn)照片為假。不過類似平臺的技術(shù)手段依然存在不準(zhǔn)確的問題,不少作者明確注明AI創(chuàng)作的情況下,判定系統(tǒng)未能識別成功。
平臺通過技術(shù)手段來提醒AI生成內(nèi)容?
除了平臺可以加大對AI生成內(nèi)容的管控提醒下,個人也需提高警惕性,例如在碰到涉及轉(zhuǎn)賬、支付等情況時,通過特殊的問題提問,指定行為不同角度的視頻要求等形式來確定對方身份,同時要求對方用手指在臉前比劃看是否有穿幫。
多位AI圖像技術(shù)使用者告訴記者,大眾在使用社交軟件時,一定要盡可能少發(fā)布個人正面照片或視頻,不提及年齡、工作、所在地等內(nèi)容,減少個人信息的暴露。同時對于網(wǎng)上信息,一定要留有疑心,多方求證,不輕易相信任何一個涉及個人財(cái)產(chǎn)的恐嚇信息,及時通過報警等合法有效渠道保障自身權(quán)益。
揚(yáng)子晚報/紫牛新聞記者 劉瀏 見習(xí)記者 陳燃
校對 陶善工
熱門
聯(lián)系我們:435 226 40 @qq.com
版權(quán)所有 重播新聞網(wǎng) www.hbmingxingmzc.cn 京ICP備2022022245號-17