版權(quán)歸原作者所有,如有侵權(quán),請聯(lián)系我們

新型“AI換臉”詐騙如何防?

福建省科學(xué)技術(shù)協(xié)會(huì)
福建省科學(xué)技術(shù)協(xié)會(huì),是福建省科技工作者的群眾組織。
收藏

近日

香港警方披露了一起詐騙案件

騙子利用AI“多人換臉”實(shí)施詐騙

涉案金額高達(dá)2億港元……

生成式AI技術(shù)越來越先進(jìn)

一方面人們?yōu)?/p>

“輸入文字就出視頻”

的新技術(shù)贊嘆不已

但另一方面新技術(shù)

也讓詐騙行為升級

正在和你視頻通話的人

可能就是詐騙分子

用AI換臉技術(shù)“生成”出來的

那么

AI換臉在技術(shù)上是如何實(shí)現(xiàn)的?

我們又該如何防范AI詐騙?

快跟隨小編往下看看吧?

**AI換臉如何實(shí)現(xiàn)?**AI換臉過程主要包括人臉識(shí)別追蹤、面部特征提取、人臉變換融合、背景環(huán)境渲染、圖像與音頻合成等幾個(gè)關(guān)鍵步驟。

首先,利用深度學(xué)習(xí)算法精準(zhǔn)地識(shí)別視頻中的人臉圖像,并提取出如眼睛、鼻子、嘴巴等關(guān)鍵面部特征。

其次,將這些特征與目標(biāo)人臉圖像進(jìn)行匹配、替換、融合。

最后,通過背景環(huán)境渲染并添加合成后的聲音,生成逼真度較高的虛假換臉視頻。

如何防范AI詐騙這兩年,不法分子利用“AI換臉”和AI音頻合成的技術(shù)實(shí)施新型網(wǎng)絡(luò)詐騙,這類騙局常常會(huì)在短時(shí)間內(nèi)給被害人造成較大損失。

那么,我們應(yīng)該如何防范呢?

1. 可以要求對方在視頻通話時(shí),在臉部前揮手,揮手過程會(huì)造成面部數(shù)據(jù)干擾,偽造的面部就會(huì)出現(xiàn)抖動(dòng)等異常情況;

2. 在溝通中可以問一些只有對方知道的問題,驗(yàn)證對方的真實(shí)性。

3. 針對存疑的身份,如所謂領(lǐng)導(dǎo)或者熟人,可以通過打電話或詢問對方的親朋好友,確認(rèn)對方的真實(shí)身份和情況。

專家提醒,可以讓對方摁鼻子、摁臉,觀察其面部變化。如果是真人的鼻子,按下去是會(huì)變形的,但AI生成的鼻子并不會(huì)。

保護(hù)生物信息除了一些辨別AI換臉詐騙的小訣竅,我們在日常生活中也要做好相關(guān)防范措施,養(yǎng)成良好的上網(wǎng)習(xí)慣。

01首先應(yīng)該是做好日常的信息安全的保護(hù),加強(qiáng)對人臉、聲紋、指紋等生物特征數(shù)據(jù)的安全防護(hù):另外做好個(gè)人的手機(jī)、電腦等終端設(shè)備的軟硬件的安全管理。

02****不要登錄來路不明的網(wǎng)站,以免被病毒侵入。

03對可能進(jìn)行聲音、圖像甚至視頻和定位采集的應(yīng)用,做好授權(quán)管理。不給他人收集自己信息的機(jī)會(huì),也能在一定程度上讓AI換臉詐騙遠(yuǎn)離自己。

雖然科技發(fā)展一日千里

但一定要時(shí)刻保持警惕

在人工智能的“深偽技術(shù)”下

網(wǎng)上已經(jīng)“眼見不一定為實(shí)

有圖有片亦不一定是真相”