眼見不一定為實(shí)!人工智能造假行騙:能治嗎?

  央視新聞客戶端   2024-10-12 07:10:19

眼見不一定為實(shí),有圖未必有真相。隨著AI技術(shù)不斷發(fā)展,AI合成,已經(jīng)不僅限于換臉,或生成音頻這么簡單,而是可以將人臉、聲音、手勢動作等多種元素深度合成,甚至可以實(shí)現(xiàn)使用合成的人物進(jìn)行實(shí)時視頻通話。

而與此同時,AI合成的技術(shù)門檻也越來越低,使得普通人也可以輕松學(xué)會。如何去防范利用AI深度偽造技術(shù)的新型詐騙?又該如何通過治理讓AI技術(shù)能更好向善?《新聞1+1》關(guān)注:人工智能造假行騙:能治嗎?

人工智能造假行騙,責(zé)任如何劃分?

對外經(jīng)貿(mào)大學(xué)數(shù)字經(jīng)濟(jì)與法律創(chuàng)新研究中心主任 許可:在深度偽造技術(shù)發(fā)展、使用過程中,有非常多的主體發(fā)揮作用。有技術(shù)的研發(fā)者、分發(fā)者、使用者。利用技術(shù)實(shí)施詐騙的人,當(dāng)然是第一責(zé)任人,但在整個生態(tài)中,技術(shù)的研發(fā)者、軟件的分發(fā)平臺以及傳播相關(guān)信息的人也可能發(fā)揮著一定的作用,如何形成一種治理的合力?這里面可能要區(qū)分兩種不同的責(zé)任:

一種責(zé)任是行為人的責(zé)任,比如說利用人工智能去詐騙的人。 另一種責(zé)任是平臺責(zé)任,平臺一端連著用戶,一端連著提供人工智能技術(shù)的人,這要求平臺發(fā)揮管理兩邊的責(zé)任。一旦發(fā)現(xiàn)違法違規(guī)行為,平臺就應(yīng)該采取積極措施,去制止無論是信息內(nèi)容的發(fā)布者還是軟件的提供者,從而實(shí)現(xiàn)整個平臺治理的安全穩(wěn)定。

法律如何應(yīng)對人工智能造假行騙?

對外經(jīng)貿(mào)大學(xué)數(shù)字經(jīng)濟(jì)與法律創(chuàng)新研究中心主任 許可:人工智能的發(fā)展其實(shí)剛剛開始,用在違法違規(guī)、刑事犯罪方面也不久,我國的法律也及時進(jìn)行了應(yīng)對。法律出臺之后,需要做的是進(jìn)一步實(shí)施和落地。這些新制度的出臺,目前還仍在建規(guī)立制的階段,通過各方的合力,既要依托于監(jiān)管部門,不斷將法規(guī)的細(xì)則落實(shí)到每一個主體身上,也要通過社會的綜合治理,實(shí)現(xiàn)個人要知道、主張自己的權(quán)益,企業(yè)要知道、踐行自己的責(zé)任和義務(wù)。還需要一個循序漸進(jìn)、逐漸完善的過程。

AI生成合成內(nèi)容將有“專屬水印”

9月,國家網(wǎng)信辦起草了《人工智能生成合成內(nèi)容標(biāo)識辦法(征求意見稿)》,這能遏制“換臉”詐騙嗎?

對外經(jīng)貿(mào)大學(xué)數(shù)字經(jīng)濟(jì)與法律創(chuàng)新研究中心主任 許可:在大量AI深度偽造技術(shù)的詐騙中,最大的問題是被騙的人以為視頻是真的?!度斯ぶ悄苌珊铣蓛?nèi)容標(biāo)識辦法(征求意見稿)》要求,通過人工智能生成的視頻、音頻、圖片都必須加以明確的標(biāo)識。這樣,看到的人能夠知道這是AI生成的內(nèi)容。這種通過信息披露實(shí)現(xiàn)的治理,在我們現(xiàn)在來看是非常有效的措施。

老年人如何防范“AI換臉”詐騙?

對外經(jīng)貿(mào)大學(xué)數(shù)字經(jīng)濟(jì)與法律創(chuàng)新研究中心主任 許可:這是一個素質(zhì)素養(yǎng)提升的工作,因?yàn)樾畔Ⅷ櫆?、技術(shù)鴻溝,很多老年人根本就不知道世界上還有這么一種技術(shù),能把假的變成真的。

讓老年人提升認(rèn)識,需要包括媒體、教育機(jī)構(gòu)、科研院所共同普及這方面的知識,告訴他們信息的真假是需要認(rèn)真甄別的。另一方面,老年人獲取信息的來源除了社會,很多是來自于家人。孩子們應(yīng)該多和自己的父母、長輩溝通,告訴他們這些詐騙案例,讓他們產(chǎn)生警惕。通過社會和家庭的共同作用,讓老年人提升認(rèn)識。

責(zé)編:戴蓉

一審:譚思敏

二審:李茁

三審:文鳳雛

來源:央視新聞客戶端

我要問