何芳明 楊思穎 2025-01-13 17:25:14
文/何芳明 楊思穎
當(dāng)前,隨著媒體融合發(fā)展的深入推進(jìn),人工智能(Artificial Intelligence,AI)賦能新聞傳媒發(fā)展,讓麥克盧漢(Marshall McLuhan)60年前“媒介即人的延伸”的預(yù)見(jiàn),呈現(xiàn)出更豐富而生動(dòng)的現(xiàn)實(shí)圖景。人工智能介入新聞生產(chǎn)正在為新聞業(yè)發(fā)展注入新動(dòng)能,也給傳統(tǒng)的新聞倫理帶來(lái)沖擊與挑戰(zhàn)。如何應(yīng)對(duì)人工智能給新聞生產(chǎn)帶來(lái)的沖擊與挑戰(zhàn),是新聞業(yè)當(dāng)下亟須面對(duì)的問(wèn)題。
一、人工智能在新聞生產(chǎn)中的應(yīng)用不斷深入
“1956年的達(dá)特茅斯會(huì)議上,約翰·麥卡錫(John McCarthy)正式提出‘人工智能’(Artificial Intelligence)的名字”,[1]人工智能走過(guò)了70年蜿蜒向前的探索之路。第一代人工智能,主要依賴(lài)預(yù)設(shè)的規(guī)則和人類(lèi)知識(shí)進(jìn)行推理、決策,如阿爾法狗(Alpha Go)的國(guó)際象棋人機(jī)大戰(zhàn),該行為基于既定規(guī)則,可以做出準(zhǔn)確判斷,但對(duì)不確定情境的處理能力有限,因此其對(duì)新聞生產(chǎn)的介入有限。第二代人工智能運(yùn)用人工神經(jīng)網(wǎng)絡(luò)和人類(lèi)腦神經(jīng)工作原理,摸擬人類(lèi)的學(xué)習(xí)和決策過(guò)程,能夠?qū)π畔⑦M(jìn)行分類(lèi)、預(yù)測(cè)和生成,實(shí)現(xiàn)了圖像識(shí)別和自然語(yǔ)言處理,因此能深度分析新聞素材,自動(dòng)撰寫(xiě)與編輯新聞稿件,從而真切地介入新聞生產(chǎn)。當(dāng)前發(fā)展的第三代人工智能,在知識(shí)和數(shù)據(jù)的雙驅(qū)動(dòng)之下,朝著具有獨(dú)立思考和決策能力的方向發(fā)展,將深度介入新聞生產(chǎn)各環(huán)節(jié),融合創(chuàng)新新聞呈現(xiàn)樣態(tài),推動(dòng)新聞業(yè)的全新變革。
自美國(guó)Open AI公司2022年底發(fā)布一款人工智能聊天機(jī)器人——ChatGPT以后,人工智能生成內(nèi)容(AIGC)引起了全球范圍內(nèi)的廣泛關(guān)注,除了ChatGPT,Google、Facebook(Meta)等國(guó)外科技公司都研發(fā)了各自的人工智能語(yǔ)言大模型,國(guó)內(nèi)的科大訊飛、百度、騰訊等科技公司也相繼推出了人工智能語(yǔ)言大模型,如星火、文心一言等。2024年初,Sora等視頻生成模型的推出,讓人工智能生成內(nèi)容在新聞生產(chǎn)的應(yīng)用有了具象化的場(chǎng)景。
國(guó)內(nèi)外媒體機(jī)構(gòu)已經(jīng)將人工智能積極地應(yīng)用于新聞內(nèi)容生產(chǎn)。在國(guó)內(nèi),人民日?qǐng)?bào)社2023年10月發(fā)布“人民日?qǐng)?bào)創(chuàng)作大腦AI+”,利用人工智能技術(shù)搭建起了集智能化、場(chǎng)景化、自動(dòng)化于一體的全新工作模式;新華社2023年7月發(fā)布了大型語(yǔ)言模型MediaGPT,并在成都大運(yùn)會(huì)報(bào)道中,利用此模型生成具有表現(xiàn)力的新聞產(chǎn)品《AIGC:珍稀“寶貝”為成都大運(yùn)會(huì)加油助威》;中央廣播電視總臺(tái)也于2023年7月發(fā)布了“央視聽(tīng)媒體大模型”(CMG Media GPT),專(zhuān)注于視聽(tīng)媒體的內(nèi)容生產(chǎn)。在國(guó)外,美聯(lián)社早在2015年就開(kāi)始使用AI生成有關(guān)上市公司的財(cái)經(jīng)分析新聞,2023年7月與Open AI簽署合作協(xié)議,接入其人工智能大模型進(jìn)行新聞生產(chǎn);《紐約時(shí)報(bào)》開(kāi)發(fā)了數(shù)據(jù)分析機(jī)器人“Blossomblot”,分析社交平臺(tái)上的信息來(lái)輔助生產(chǎn)“爆款”內(nèi)容,2023年情人節(jié)前夕,使用ChatGPT創(chuàng)建情人節(jié)消息生成器生成互動(dòng)新聞《A Valentine,F(xiàn)rom AI.TO You》;路透社、英國(guó)廣播公司等媒體機(jī)構(gòu)也已使用生成式AI進(jìn)行內(nèi)容生產(chǎn)。
人工智能生成內(nèi)容的強(qiáng)大功能和既有的新聞生產(chǎn)實(shí)踐已經(jīng)表明,其作用和影響不可小覷。對(duì)新聞生產(chǎn)而言,人工智能將使新聞素材的獲取、采集、篩選更加高效和精準(zhǔn),新聞寫(xiě)作、編校審核、內(nèi)容呈現(xiàn)形式、版面頁(yè)面布局更加快捷和優(yōu)化,在整體上提升新聞生產(chǎn)的效能。但是,機(jī)遇與挑戰(zhàn)并存,我們迎接人工智能帶來(lái)的技術(shù)福利時(shí),也不可忽視人工智能帶來(lái)倫理風(fēng)險(xiǎn)。
二、人工智能介入新聞生產(chǎn)的倫理風(fēng)險(xiǎn)
新聞倫理是指在新聞生產(chǎn)傳播實(shí)踐中應(yīng)遵循的道德規(guī)范和行為準(zhǔn)則,它劃定了新聞從業(yè)者的職業(yè)操守和價(jià)值底線(xiàn)。盡管對(duì)于新聞倫理的理解是一個(gè)動(dòng)態(tài)的認(rèn)識(shí)過(guò)程,但其核心準(zhǔn)則是相對(duì)恒定的,真實(shí)準(zhǔn)確、客觀中立、尊重人格尊嚴(yán)等專(zhuān)業(yè)規(guī)范,是長(zhǎng)期以來(lái)的新聞實(shí)踐形成的核心準(zhǔn)則。人工智能介入新聞生產(chǎn),將對(duì)新聞生產(chǎn)流程各環(huán)節(jié)造成影響,沖擊既有的從業(yè)規(guī)范,給新聞生產(chǎn)帶來(lái)倫理風(fēng)險(xiǎn)。
(一)新聞失實(shí)的隱憂(yōu)。真實(shí)性是最基本的新聞倫理準(zhǔn)則。新聞?wù)鎸?shí)是基于客觀事實(shí)的真實(shí)準(zhǔn)確,而人工智能生成內(nèi)容是基于數(shù)據(jù)和算法生產(chǎn)新聞,真實(shí)準(zhǔn)確的數(shù)據(jù)是事實(shí),但數(shù)據(jù)與事實(shí)并能簡(jiǎn)單地劃等號(hào),因?yàn)閿?shù)據(jù)可能包含錯(cuò)誤、虛假的信息?;跀?shù)據(jù)及其算法的人工智能生成內(nèi)容,可能暗藏著相應(yīng)的新聞失實(shí)的隱憂(yōu)。
數(shù)據(jù)偏差可能造成新聞失實(shí)。ChatGPT是基于Common Crawl的大型文本數(shù)據(jù)集生成的,對(duì)網(wǎng)絡(luò)信息進(jìn)行直接爬蟲(chóng)收集組合而成的數(shù)據(jù)集,其數(shù)據(jù)并未經(jīng)過(guò)嚴(yán)格的審查與篩選,本身可能包含錯(cuò)誤甚至虛假的信息?;阱e(cuò)誤、虛假數(shù)據(jù)生成的文本內(nèi)容,形成錯(cuò)誤、虛假的事實(shí),造成新聞失實(shí)。而且,數(shù)據(jù)集本身就是一個(gè)復(fù)雜的集合體,含有大量的虛構(gòu)作品、用戶(hù)生成內(nèi)容(UGC)等文本,事實(shí)與觀點(diǎn)、事實(shí)與想象共存一體,人工智能因其自在的結(jié)構(gòu)性缺陷無(wú)法區(qū)分。將觀點(diǎn)與想象的數(shù)據(jù)誤認(rèn)為事實(shí)的數(shù)據(jù),就會(huì)生成與事實(shí)不符的文本內(nèi)容,造成新聞失實(shí)。
算法局限性可能導(dǎo)致新聞失實(shí)。算法難以完全理解復(fù)雜的語(yǔ)義和文化背景,當(dāng)新聞事件中包含人文地理和文化隱喻的內(nèi)容時(shí),算法可能誤解這樣的內(nèi)容,做出錯(cuò)誤的判斷和表述,從而導(dǎo)致新聞失實(shí)。OpenAI對(duì)用戶(hù)作出提示:ChatGPT“可能偶爾會(huì)生成不正確的信息”和“產(chǎn)生有害指令”,其實(shí)就是對(duì)算法局限性可能造成失實(shí)的警示。
(二)客觀中立的偏頗??陀^中立的新聞倫理原則,要求在新聞生產(chǎn)傳播實(shí)踐中做到不偏不倚。人工智能生成內(nèi)容的核心邏輯是向數(shù)據(jù)學(xué)習(xí),數(shù)據(jù)偏見(jiàn)和算法偏見(jiàn)之上,人工智能生產(chǎn)內(nèi)容是否能夠堅(jiān)守新聞客觀中立性原則,已不受新聞從業(yè)者掌控,難免失之偏頗。
數(shù)據(jù)偏見(jiàn)是人工智能自在的缺陷?!皬臄?shù)據(jù)出發(fā)尋求解決方案的AIGC,在接受大量網(wǎng)絡(luò)文本作為‘全人類(lèi)’的‘代表’時(shí),冒有系統(tǒng)性偏向的風(fēng)險(xiǎn)。”[2]當(dāng)數(shù)據(jù)集偏向某個(gè)特定的人群而無(wú)法準(zhǔn)確代表人口多樣性時(shí),就可能產(chǎn)生人口偏見(jiàn)。用于ChatGPT訓(xùn)練的數(shù)據(jù)集含有推特平臺(tái)上大量用戶(hù)生成內(nèi)容(UGC),而推特用戶(hù)中白人占比達(dá)60%,男性占比66%,大模型在學(xué)習(xí)這樣的數(shù)據(jù)之后生成的新聞內(nèi)容,自然會(huì)偏向于白人男性,對(duì)其他族裔和女性產(chǎn)生偏見(jiàn)。
算法偏見(jiàn)就是人工智能的規(guī)則偏見(jiàn)。算法是研發(fā)者賦予的數(shù)據(jù)處理規(guī)則,規(guī)則偏見(jiàn)是算法設(shè)計(jì)不完善不合理而產(chǎn)生的系統(tǒng)性偏見(jiàn)。人工智能看似是沒(méi)有主觀意見(jiàn)的機(jī)器,但是算法必然受到研發(fā)者本身價(jià)值傾向的影響。ChatGPT宣稱(chēng)是一款“沒(méi)有主觀意見(jiàn)的人工智能”,但其生成的文本出現(xiàn)黑人是罪犯、穆斯林是恐怖分子等內(nèi)容并非偶然,可能就是算法設(shè)計(jì)而導(dǎo)致的偏見(jiàn)。而且,算法就像一個(gè)黑箱,數(shù)據(jù)的使用方式、決策機(jī)制、計(jì)算參數(shù)的設(shè)計(jì)與調(diào)整等都是不透明的。算法黒箱隱藏著研發(fā)者的主觀偏見(jiàn),決定了生成的新聞內(nèi)容帶有相似屬性。
(三)人文關(guān)懷的缺失。?人文關(guān)懷是新聞倫理的重要考量,強(qiáng)調(diào)在新聞報(bào)道中關(guān)注人的價(jià)值和尊嚴(yán),避免對(duì)人的傷害和岐視。人工智能的本質(zhì)上是基于數(shù)據(jù)和程序運(yùn)行的工具,沒(méi)有像人類(lèi)一樣的情感體驗(yàn)和意識(shí)。因此,人文關(guān)懷的缺失,是人工智能介入新聞生產(chǎn)顯在的倫理風(fēng)險(xiǎn)。
人工智能生成內(nèi)容漠視情感?!皺C(jī)器學(xué)習(xí)算法在生成新聞內(nèi)容時(shí)會(huì)根據(jù)數(shù)據(jù)集自動(dòng)進(jìn)行選擇性分析和分類(lèi)。這意味著其會(huì)忽略主觀的判斷和深入的調(diào)查?!盵3]正是由于沒(méi)有人類(lèi)情感的判斷力,人工智能自動(dòng)生成的新聞無(wú)法把握和傳達(dá)新聞事件中的情感因素。比如,對(duì)于災(zāi)難新聞的寫(xiě)作,人工智能在模板化的語(yǔ)料與框架之下快速地寫(xiě)出新聞。這樣的新聞當(dāng)然是生硬和冷漠的,不能對(duì)災(zāi)難事件提供情感支持。
人工智能生成內(nèi)容可能造成人格侵害。人工智能在新聞生產(chǎn)中需要大量的數(shù)據(jù)支持,這其中就包括私人生活、領(lǐng)域和行為的隱私數(shù)據(jù),如果這些數(shù)據(jù)被不當(dāng)使用于訓(xùn)練人工智能,可能侵害當(dāng)事人的隱私權(quán);如果生成的內(nèi)容涉及到對(duì)個(gè)人的不當(dāng)描述、誹謗等,就會(huì)侵害當(dāng)事人的名譽(yù)權(quán)。而且,人工智能大模型往往會(huì)自動(dòng)保存與用戶(hù)的通話(huà)記錄,ChatGPT的對(duì)話(huà)記錄就被保存在OpenAI公司的存儲(chǔ)系統(tǒng)中,這同樣是對(duì)用戶(hù)隱私安全的潛在威脅。
(四)對(duì)社會(huì)公平的威脅。社會(huì)公平是新聞倫理追求的最終目標(biāo),但是人工智能作為新技術(shù)推動(dòng)新聞生產(chǎn)變革,可能導(dǎo)致行業(yè)資源集中和智能鴻溝的擴(kuò)大,從而對(duì)社會(huì)公平構(gòu)成新的威脅。這與新聞追求社會(huì)公平正義的倫理準(zhǔn)則背道而馳的,因此可以視為人工智能介入新聞生產(chǎn)帶來(lái)的倫理風(fēng)險(xiǎn)。
人工智能導(dǎo)致行業(yè)資源集中威脅社會(huì)公平。一方面,人工智能的研發(fā)技術(shù)資源主要被少數(shù)科技巨頭掌握,作為內(nèi)容生產(chǎn)者的新聞機(jī)構(gòu)需要購(gòu)買(mǎi)技術(shù)服務(wù),這樣可能形成不利于買(mǎi)方的不公平交易。另一方面,大型媒體機(jī)構(gòu)更有資源和能力采用先進(jìn)的人工智能技術(shù),可能會(huì)加劇媒體行業(yè)的資源集中,使得小型媒體難以獲得同等的發(fā)展機(jī)會(huì),影響行業(yè)的公平競(jìng)爭(zhēng)。
人工智能產(chǎn)生智能鴻溝威脅社會(huì)公平。智能傳播時(shí)代,數(shù)字鴻溝進(jìn)一步發(fā)展為智能鴻溝?!爸悄茗櫆咸刂甘莻€(gè)體或群體在智能技術(shù)的接觸、使用及應(yīng)用結(jié)果等方面形成的差異。”[4]受到文化程度、年齡、地域、經(jīng)濟(jì)水平等因素的影響,不同群體對(duì)人工智能的接觸頻率、認(rèn)知水平和應(yīng)用能力方面都存在差距,人工智能介入新聞生產(chǎn)會(huì)加劇擴(kuò)大數(shù)字鴻溝。比如,使用ChatGPT獲取新聞時(shí),能否提出有效的提示詞影響著所獲取新聞的廣度與深度。而且,智能鴻溝的擴(kuò)大,本質(zhì)上是知識(shí)不平等的加劇,必將影響處于劣勢(shì)的群體參與社會(huì)討論和公共決策的機(jī)會(huì),導(dǎo)致社會(huì)參與的不公平。
三、規(guī)避人工智能新聞生產(chǎn)倫理風(fēng)險(xiǎn)的可能路徑
“新聞行業(yè)構(gòu)建一套共同認(rèn)可的倫理價(jià)值觀,其目的不僅在于保持行業(yè)內(nèi)部的良性競(jìng)爭(zhēng)和可持續(xù)發(fā)展,更關(guān)乎對(duì)整個(gè)社會(huì)倫理的引導(dǎo)?!盵5]當(dāng)下的人工智能生成內(nèi)容,是基于數(shù)據(jù)驅(qū)動(dòng)而實(shí)現(xiàn)的,由此帶來(lái)的新聞倫理風(fēng)險(xiǎn)主要是以數(shù)據(jù)為中心衍生的風(fēng)險(xiǎn)。因此,規(guī)避人工智能給新聞生產(chǎn)帶來(lái)的倫理風(fēng)險(xiǎn),需要并從數(shù)據(jù)出發(fā),去探尋可能路徑。
(一)認(rèn)知煥新:利用人工智能學(xué)習(xí)人工智能?!叭魏我淮渭夹g(shù)革命的背后,實(shí)際上是一種主體性質(zhì)的觀念革命”[6]。傳媒行業(yè)迎接人工智能技術(shù)革命,同樣需要來(lái)一場(chǎng)觀念革命:強(qiáng)化數(shù)據(jù)觀念和智能技術(shù)觀念,重視數(shù)據(jù)作為生產(chǎn)要素的作用,重視人工智能對(duì)產(chǎn)業(yè)變革的驅(qū)動(dòng)力量,積極運(yùn)用人工智能技術(shù)進(jìn)行新聞生產(chǎn)與傳播;同時(shí)要強(qiáng)化技術(shù)倫理意識(shí),關(guān)注人工智能可能帶來(lái)的社會(huì)倫理問(wèn)題,關(guān)注人工智能介入新聞生產(chǎn)傳播帶來(lái)的倫理風(fēng)險(xiǎn),積極尋求工具理性與價(jià)值理性的平衡。
對(duì)新聞從業(yè)者來(lái)說(shuō),要理性認(rèn)識(shí)人工智能技術(shù)的發(fā)展及其在新聞生產(chǎn)中的應(yīng)用。為人工智能的便捷高效而歡呼的同時(shí),新聞工作者需要理性地面對(duì)人工智能帶來(lái)的倫理困境,關(guān)注人工智能生產(chǎn)對(duì)新聞?wù)鎸?shí)性、客觀性、人格尊重和社會(huì)公平的挑戰(zhàn),主動(dòng)規(guī)避相應(yīng)的道德風(fēng)險(xiǎn)。同時(shí),要?jiǎng)?chuàng)新思維,主動(dòng)學(xué)習(xí),跨界學(xué)習(xí),利用人工智能學(xué)習(xí)人工智能,不斷提升自己的數(shù)字傳媒素養(yǎng)和人工智能技術(shù)運(yùn)用能力,從而增強(qiáng)自己防范人工智能新聞生產(chǎn)倫理風(fēng)險(xiǎn)的本領(lǐng)。
(二)模式轉(zhuǎn)變:構(gòu)建人機(jī)協(xié)同新聞生產(chǎn)模式。人工智能介入新聞生產(chǎn),新聞生產(chǎn)模式需要進(jìn)行與之適配的改變。構(gòu)建人機(jī)協(xié)同的新聞生產(chǎn)模式,是一項(xiàng)持久的任務(wù),也是一條值得探索的有效路徑?!爸敲节厔?shì)下,盡管人在內(nèi)容生產(chǎn)中將始終保持主導(dǎo)地位,傳統(tǒng)的一些內(nèi)容生產(chǎn)模式也會(huì)延續(xù)下去,但未來(lái)人機(jī)協(xié)同也將成為一種常態(tài)。”[7]
新聞生產(chǎn)各環(huán)節(jié)加入了人工智能作為新聞生產(chǎn)者的角色,意味著記者與人工智能共同作為新聞生產(chǎn)合作者。合作需要分工,也需要協(xié)同。記者的角色不再是單純的內(nèi)容生產(chǎn)者,而要轉(zhuǎn)向?yàn)樾侣剤?bào)道的指揮者。記者發(fā)揮其主觀能動(dòng)性,策劃新聞報(bào)道,挖掘內(nèi)容深度;人工智能則發(fā)揮其數(shù)據(jù)收集和快速產(chǎn)出的能力,從而實(shí)現(xiàn)人機(jī)角色的優(yōu)勢(shì)互補(bǔ)。人機(jī)協(xié)同的新聞生產(chǎn)模式,在深度報(bào)道中的優(yōu)勢(shì)非常明顯:記者可以發(fā)揮自身經(jīng)驗(yàn)和專(zhuān)業(yè)知識(shí),深入現(xiàn)場(chǎng)調(diào)查采訪,挖掘新聞價(jià)值;而人工智能生成內(nèi)容可以快速梳理相關(guān)政策文件等背景知識(shí)。這樣的協(xié)同合作,新聞內(nèi)容質(zhì)量更優(yōu)、效率更高。當(dāng)然,在人機(jī)協(xié)同的新聞生產(chǎn)模式中需要強(qiáng)化人工核查,而人的主體性意識(shí)可以做出理性判斷和價(jià)值選擇,對(duì)人工智能生成內(nèi)容進(jìn)行嚴(yán)格的事實(shí)核查和倫理審查,以規(guī)避新聞倫理問(wèn)題。
(三)法制規(guī)約:加強(qiáng)行業(yè)自律建立AIGC倫理規(guī)范。隨著人工智的發(fā)展,規(guī)約人工智能應(yīng)用的法制建設(shè)已在全球范圍內(nèi)引起重視。由歐盟牽頭推進(jìn)的《人工智能公約》于今年9月5日簽署,已有57個(gè)國(guó)家加入,要求簽署國(guó)對(duì)AI產(chǎn)生的有害結(jié)果負(fù)責(zé)。在國(guó)內(nèi),國(guó)家互聯(lián)網(wǎng)信息辦公室2023年4月起草了《生成式人工智能服務(wù)管理辦法(征求意見(jiàn)稿)》,明確了生成式人工智能應(yīng)用的相關(guān)規(guī)則。這都是對(duì)人工智能生成內(nèi)容的法制規(guī)約。
但是,對(duì)人工智能應(yīng)用的法律監(jiān)管終究還處于起步階段,而人工智能介入新聞生產(chǎn)已經(jīng)面臨現(xiàn)實(shí)的倫理風(fēng)險(xiǎn)。因此更需要新聞行業(yè)、新聞從業(yè)者堅(jiān)守新聞倫理準(zhǔn)則,加強(qiáng)行業(yè)自律。行業(yè)自律需要從具體的機(jī)構(gòu)媒體做起,大型機(jī)構(gòu)媒體應(yīng)率先垂范,制定具有明確指導(dǎo)性和具體要求的AIGC倫理規(guī)范,為人工智能新聞生產(chǎn)立規(guī)矩;建立嚴(yán)格的倫理審查機(jī)制,明確記者、編輯、技術(shù)人員在人工智能新聞生產(chǎn)中的職責(zé)和權(quán)限,加強(qiáng)對(duì)生產(chǎn)流程的把控,確保人工智能技術(shù)的應(yīng)用符合倫理價(jià)值要求。新聞行業(yè)組織應(yīng)發(fā)揮引領(lǐng)作用,牽頭制定人工智能新聞生產(chǎn)的行業(yè)規(guī)范或自律公約,引導(dǎo)新聞機(jī)構(gòu)和新聞從業(yè)者自覺(jué)遵守倫理規(guī)范。
(四)技術(shù)規(guī)約:發(fā)展數(shù)據(jù)管理與算法監(jiān)測(cè)技術(shù)。數(shù)據(jù)是人工智能沖擊新聞倫理的主要風(fēng)險(xiǎn)來(lái)源,正是數(shù)據(jù)本身的偏差與數(shù)據(jù)管理不當(dāng)給新聞倫理帶來(lái)威脅。因此,要通過(guò)發(fā)展數(shù)據(jù)管理技術(shù)來(lái)提升數(shù)據(jù)管理能力,運(yùn)用技術(shù)手段科學(xué)管理數(shù)據(jù)的收集、篩選、存儲(chǔ)和使用。比如,使用加密技術(shù),防止數(shù)據(jù)濫用,以保障新聞內(nèi)容涉及的個(gè)人隱私和信息安全;利用區(qū)塊鏈技術(shù),為新聞內(nèi)容提供不可篡改的溯源信息,以確保新聞信息源的真實(shí)可靠;利用水印技術(shù),確認(rèn)數(shù)據(jù)及其生成內(nèi)容的權(quán)屬,以明晰侵權(quán)責(zé)任。
算法偏見(jiàn)是人工智能新聞生產(chǎn)自在的倫理風(fēng)險(xiǎn)。算法是研發(fā)者賦予的機(jī)制,可以通過(guò)人工審核其是否完善與合理、是否存在偏見(jiàn)或岐視,但是作為用戶(hù)的新聞生產(chǎn)者通常在算法黑箱之外,無(wú)以知曉無(wú)處審核。因此,發(fā)展算法審核與監(jiān)測(cè)技術(shù),利用技術(shù)手段發(fā)現(xiàn)與糾正算法偏見(jiàn),同樣是行之有效的方法。比如,利用數(shù)據(jù)挖掘工具跟蹤算法的運(yùn)行過(guò)程,及時(shí)發(fā)現(xiàn)并糾正可能導(dǎo)致倫理風(fēng)險(xiǎn)的算法偏見(jiàn);運(yùn)用決策樹(shù)、規(guī)則集、線(xiàn)性模型等解釋性機(jī)器學(xué)習(xí),增強(qiáng)算法的解釋性,便于審核與糾錯(cuò);采用倫理評(píng)估模型,根據(jù)評(píng)估結(jié)果改進(jìn)算法,減少倫理風(fēng)險(xiǎn)。歸根結(jié)底,要推動(dòng)人工智能技術(shù)的研發(fā),提高其透明度和可解釋性,使新聞從業(yè)者和受眾能夠更好地理解和監(jiān)督人工智能的決策過(guò)程,減少因算法黑箱而導(dǎo)致的風(fēng)險(xiǎn)。
(作者何芳明系湖南大學(xué)新聞與傳播學(xué)院教授,《長(zhǎng)沙晚報(bào)》高級(jí)編輯,博士;楊思穎系湖南大學(xué)新聞與傳播學(xué)院2024級(jí)碩士研究生)
摘自《華聲·傳播觀察》
責(zé)編:羅嘉凌
一審:黃帝子
二審:蘇露鋒
三審:黃柏禹

版權(quán)作品,未經(jīng)授權(quán)嚴(yán)禁轉(zhuǎn)載。湖湘情懷,黨媒立場(chǎng),登錄華聲在線(xiàn)官網(wǎng)www.voc.com.cn或“新湖南”客戶(hù)端,領(lǐng)先一步獲取權(quán)威資訊。轉(zhuǎn)載須注明來(lái)源、原標(biāo)題、著作者名,不得變更核心內(nèi)容。
我要問(wèn)