男子參加視頻會議被騙,只有自己是真人!如何辨別真假?專家支招
參加多人視頻會議結(jié)果只有自己是真人。這事聽上去似乎匪夷所思,卻真實地發(fā)生了。
據(jù)央視新聞報道,近期,香港警方披露了一起AI“多人換臉”詐騙案,涉案金額高達2億港元。在這起案件中,一家跨國公司香港分部的職員受邀參加總部首席財務官發(fā)起的“多人視頻會議”,并按照要求先后轉(zhuǎn)賬多次,將2億港元分別轉(zhuǎn)賬15次,到了5個本地銀行賬戶內(nèi)。
其后,向總部查詢才知道受騙。警方調(diào)查得知,這起案件中所謂的視頻會議中只有受害人一個人是“真人”,其他“參會人員”都是經(jīng)過“AI換臉”后的詐騙人員。
據(jù)香港媒體報道,詐騙分子是利用了人工智能的深度偽造技術(shù),從國外視聽網(wǎng)站YouTube上下載了視頻,模仿了公司高層人員的聲音再對受害者發(fā)出行動指示,最終成功行騙。
由于AI形象在講話時被人打斷或提問容易漏出破綻,在視頻過程中,嫌疑人曾要求受害者做簡短的自我介紹,隨后便沒有其他口頭互動交流,在用借口完結(jié)了對話之后,嫌疑人將溝通轉(zhuǎn)移到線上即時通訊軟件上進行。
網(wǎng)上流傳其他AI換臉行騙視頻
香港特區(qū)政府嚴正澄清
據(jù)悉,除了此次香港AI“多人換臉”視頻詐騙案,香港近期還出現(xiàn)了其他AI換臉行騙隱患。
港媒24日報道稱,網(wǎng)上出現(xiàn)以人工智能(AI)偽造的電視節(jié)目片段,冒稱香港特別行政區(qū)行政長官向市民推介一項投資計劃。
在網(wǎng)上出現(xiàn)以AI偽造的短片中,可以看到“AI李家超”現(xiàn)身推介一項“高回報的投資計劃”。
1月24日晚,香港特區(qū)政府發(fā)布新聞公報稱,特區(qū)政府發(fā)言人呼吁市民必須提高警惕,切勿誤信網(wǎng)上以AI偽造的電視節(jié)目片段,節(jié)目內(nèi)容均冒稱行政長官向市民推介一項投資計劃。特區(qū)政府嚴正澄清,影片全屬偽造,行政長官從未作出相關言論,并強烈譴責不法之徒假冒行政長官向市民詐騙。
發(fā)言人再次提醒市民,切勿輕信類似的所謂投資廣告或推廣影片,在網(wǎng)上提供個人資料給他人,登記加入有關的應用程序或點擊任何鏈接。市民應小心求證,核實真?zhèn)?,慎防受騙。有關事件將轉(zhuǎn)交警方作進一步調(diào)查。
AI詐騙屢見不鮮
近年來關于使用AI進行詐騙的案例屢見不鮮。近期,在陜西西安,財務人員張女士與老板視頻通話,老板要求她轉(zhuǎn)賬186萬元到一個指定賬號。
被害人 張女士:老板讓把這個款趕緊轉(zhuǎn)過去,這個款非常著急,因為他聲音還有視頻圖像都跟他人長得一樣的,所以就更確信這筆款是他說的了,然后我直接就把這筆款轉(zhuǎn)了。
轉(zhuǎn)賬之后,張女士按照規(guī)定將電子憑證發(fā)到了公司財務內(nèi)部群里,然而出乎意料的是,群里的老板看到信息后,向她詢問這筆資金的來由?
被害人 張女士:然后我們就打電話再跟老板去核實,老板說他沒有給我發(fā)過視頻,然后也沒有說過這筆轉(zhuǎn)賬。
意識到被騙的張女士連忙報警求助,警方立刻對接反詐中心、聯(lián)系相關銀行進行緊急止付,最終保住了大部分被騙資金156萬元。
如何識別AI“換臉換聲”?
學會這幾招很關鍵
據(jù)中國網(wǎng)絡空間安全協(xié)會人工智能安全治理專委會專家薛智慧介紹,AI換臉過程,主要包括人臉識別追蹤、面部特征提取、人臉變換融合、背景環(huán)境渲染、圖像與音頻合成等幾個關鍵步驟。
其背后,最核心的包括為三個部分:
首先,利用深度學習算法精準地識別視頻中的人臉圖像,并提取出如眼睛、鼻子、嘴巴等關鍵面部特征。
其次,將這些特征與目標人臉圖像進行匹配、替換、融合。
最后,通過背景環(huán)境渲染并添加合成后的聲音,生成逼真度較高的虛假換臉視頻。
AI換臉這一技術(shù)的出現(xiàn),導致耳聽為虛、眼見也不一定為實了。
那我們該如何防范呢?
專家表示,其實AI人工換臉無論做得多逼真,想要識別真假還是有一些方法的。
中國計算機學會安全專業(yè)委員會數(shù)字經(jīng)濟與安全工作組成員 方宇:我們可以要求對方在視頻對話的時候,在臉部的面前通過揮手的方式,去進行一個識別,實時偽造的視頻,因為它要對這個視頻進行實時的生成和處理和AI的換臉。
在揮手的過程中,會造成面部的數(shù)據(jù)的干擾。揮手過程中,他所偽造的這個人臉,會產(chǎn)生一定的抖動或者是一些閃現(xiàn),或者是一些異常的情況。
第二個就是點對點的溝通中可以問一些只有對方知道的問題,驗證對方的真實性。
近日,中國科技大學網(wǎng)絡空間安全學院執(zhí)行院長俞能海提醒,可以讓對方摁鼻子、摁臉,觀察其面部變化。
他在一個采訪中表示,如果是真人的鼻子,按下去是會變形的,但AI生成的鼻子并不會。
提高防范意識
避免個人生物信息泄露
專家表示,除了一些辨別AI換臉詐騙的小訣竅,我們每一個人都應該提高防范意識,在日常生活中也要做好相關防范措施,養(yǎng)成良好的上網(wǎng)習慣。
首先應該是做好日常的信息安全的保護,加強對人臉、聲紋、指紋等生物特征數(shù)據(jù)的安全防護。另外做好個人的手機、電腦等終端設備的軟硬件的安全管理。
第二,不要登錄來路不明的網(wǎng)站,以免被病毒侵入。
第三,對可能進行聲音、圖像甚至視頻和定位采集的應用,做好授權(quán)管理。不給他人收集自己信息的機會,也能在一定程度上讓AI換臉詐騙遠離自己。
AI技術(shù)“換臉換聲”
可能存在法律風險
法律專家表示,用AI技術(shù)為他人換臉換聲甚至翻譯成其他語言并發(fā)布視頻,可能涉嫌侵權(quán),主要有三個方面:
一是涉嫌侵犯著作權(quán),例如相聲、小品等都屬于《中華人民共和國著作權(quán)法》保護的“作品”。例如網(wǎng)友用AI軟件將相聲、小品等“翻譯”成其他語言,需經(jīng)過著作權(quán)人授權(quán),否則就存在侵權(quán)問題。
二是涉嫌侵犯肖像權(quán),根據(jù)《中華人民共和國民法典》,任何組織或者個人不得以丑化、污損,或者利用信息技術(shù)手段偽造等方式侵害他人的肖像權(quán)。未經(jīng)肖像權(quán)人同意,不得制作、使用、公開肖像權(quán)人的肖像,但是法律另有規(guī)定的除外。
三是涉嫌侵犯聲音權(quán),根據(jù)《中華人民共和國民法典》規(guī)定,對自然人聲音的保護,參照適用肖像權(quán)保護的有關規(guī)定。也就是說,需要取得聲音權(quán)人的同意,才能夠使用他人的聲音。
AI視頻技術(shù)火熱發(fā)展
概念股曾于近期大漲
AI視頻技術(shù)是近年的熱潮,雖然伴隨著信息安全等爭議,仍一路高歌取得快速發(fā)展。前段時間,繼ChatGPT這一現(xiàn)象級的應用推出一年之后,美國開放人工智能研究中心OpenAI正式發(fā)布了旗下首款視頻生成模型Sora。該模型通過接收文本指令,即可生成60秒的短視頻。Sora的發(fā)布后在A股市場再次掀起了AI熱潮。
2月19日,龍年A股首個交易日,在外圍市場表現(xiàn)強勢的帶動下,滬指高開20.69點,以2886點開市,創(chuàng)業(yè)板指數(shù)更是高開1.51%。漲幅榜前列,大多是AI概念股,與視覺領域相關的海康威視、大華股份也出現(xiàn)大漲。從板塊來看,與AI相關的板塊漲幅排在前列,如多模態(tài)AI板塊漲幅高達7%以上,AIGC概念板塊漲幅超6%。此外,短劇游戲板塊漲幅接近5%。算力相關的板塊漲幅也超4%。AI視頻技術(shù)的新發(fā)展一度讓外界十分看好。