?
機器人新聞寫作的風險評估及責任機制探討
內(nèi)容提要:寫稿機器人已是當下媒體機構(gòu)中一支不可忽視的新聞生產(chǎn)力量。國內(nèi)外新聞傳播領(lǐng)域重在關(guān)注機器人在新聞生產(chǎn)中的應(yīng)用,對其可能存在的風險問題認識相對不足,對寫稿機器人相關(guān)各方的責任研究比較薄弱。本文就寫稿機器人的設(shè)計者、生產(chǎn)者、運營者與使用者應(yīng)當為其行為承擔怎樣的責任,對寫稿機器人又該如何實施監(jiān)管提出看法。
關(guān)鍵詞:寫稿機器人;新聞寫作;風險評估;責任機制
人工智能應(yīng)用于媒體實踐的一個重要方面就是機器人新聞寫作。如今,越來越多的主流媒體引入寫稿機器人作為內(nèi)容生產(chǎn)工具。但機器人新聞寫作是把"雙刃劍",其既可以通過智能化技術(shù)更快更好地采集和處理新聞資源,解決媒體人在新聞生產(chǎn)中的一些痛點,又可能給內(nèi)容生產(chǎn)安全帶來多方面的風險。
當寫稿機器人犯錯時,又該由誰來為此買單?防范和杜絕寫稿機器人可能引發(fā)的風險問題,需要厘清其設(shè)計者、生產(chǎn)者、所有者、使用者以及監(jiān)管者的責任歸屬與權(quán)利邊界,從法律層面保證寫稿機器人設(shè)計、生產(chǎn)的合理性,并督促使用者正確應(yīng)用、監(jiān)管者科學管理,從而推動治理原則貫穿寫稿機器人寫作與服務(wù)的全過程。
一、寫稿機器人的應(yīng)用現(xiàn)狀
自2015年9月10日,騰訊發(fā)布國內(nèi)首篇由機器人撰寫的新聞稿《8月CPI同比上漲2%創(chuàng)12個月新高》以來,我國寫稿機器人大舉進軍媒體。
(一)應(yīng)用范圍越來越廣。從新華社等國家級媒體引領(lǐng),到省、市級媒體跟進,我國機器人新聞寫作起步雖較晚,但發(fā)展速度非???。據(jù)不完全統(tǒng)計,全國自主研發(fā)或引進寫稿機器人的媒體已超過30家,涌現(xiàn)出了一大批機器寫手,其中以"小"字命名的居多,如新華社的"快筆小新"、人民日報的"小融"、光明日報的"小明"、浙江衛(wèi)視的"小聰"……
更為關(guān)鍵的是,寫稿機器人已不再是用來吸引眼球的噱頭,而是真正在新聞采編中發(fā)揮獨特作用。2019年8月,在超強臺風"利奇馬"報道中,浙江廣電集團旗下的錢江都市頻道通過機器人快速制作了多條非常直觀專業(yè)的數(shù)據(jù)新聞視頻,取得了很好的傳播效果。
?。ǘ?yīng)用頻率越來越高。寫稿機器人不僅在垂直領(lǐng)域報道中作品被高頻率采用,而且在一些傳統(tǒng)媒體和新媒體上開設(shè)欄目專題。早在2015年11月,新華社首位"機器人員工"——"快筆小新"就常態(tài)化向一些欄目供稿;2016年12月,微軟"小冰"加入《錢江晚報》,在"小時新聞"APP上開設(shè)"小冰公社";2017年8月,封面新聞寫稿機器人在APP設(shè)立"‘小冰’的封言封語"專欄;2019年4月,中國財富網(wǎng)研發(fā)的寫稿機器人——"財富小精靈"上線,并發(fā)布"智訊"新聞。
?。ㄈ?yīng)用功能越來越強。從內(nèi)容上看,之前寫稿機器人的報道范圍主要集中在財經(jīng)、體育、災難、天氣等以簡單數(shù)據(jù)呈現(xiàn)為主的領(lǐng)域。如今,寫稿機器人的寫作內(nèi)容已向民生新聞甚至時政新聞延伸,開始探索自動生成新聞綜述、新聞評論等較復雜的報道。2017年全國兩會期間,廣州日報寫稿機器人"阿同""阿樂"連續(xù)寫出《政府工作報告》熱詞分析、外交部長記者會熱點問題分析等多篇報道。
從表現(xiàn)形態(tài)上看,寫稿機器人已從文字向視頻拓展,實現(xiàn)了視頻的智能化生產(chǎn)和編輯。2018年3月2日,新華社"媒體大腦"從5億網(wǎng)頁中,僅用15秒鐘就生產(chǎn)出第一條完全由機器生產(chǎn)的視頻新聞。2019年8月26日,新華社又推出"智能新聞機器人第一梯隊",發(fā)布自主研發(fā)的25款媒體機器人,大大豐富了媒體機器人的生產(chǎn)功能與產(chǎn)品形態(tài)。
?。ㄋ模?yīng)用影響越來越大。我們不知什么時候點擊的新聞,就是出自24小時無眠無休、永不疲倦的機器人之手。寫作速度快,生產(chǎn)數(shù)量多,準確程度高,可突破時空束縛,這些無疑是寫稿機器人非常顯著的特點,也是寫稿機器人贏得影響力的原因所在。特別是在突發(fā)事件報道中,寫稿機器人可根據(jù)算法在第一時間自動生成稿件,時效優(yōu)勢明顯。如2017年8月8日21時19分四川九寨溝發(fā)生7級地震,機器人僅用25秒就寫出新聞稿實現(xiàn)全球首發(fā)。
?。ㄎ澹?yīng)用前景越來越好。在未來,智能化將成為媒體最重要的特點之一。一方面,隨著大數(shù)據(jù)的發(fā)展,媒體人在新聞資源的采集和處理過程中,勢必需要引入更多更先進的機器人,以不斷提高新聞生產(chǎn)的能力與水平。另一方面,隨著對人工智能識別技術(shù)以及學習技術(shù)的升級,寫稿機器人的能力不斷被挖掘和提升,其會涉足更多報道領(lǐng)域,突破更多媒體的"內(nèi)容防線"。如目前較難駕馭的深度報道、時政新聞等,也有可能成為機器人的新寫作技能。屆時,我們必將迎來一個全新的媒體生態(tài)。
二、機器人新聞寫作存在的內(nèi)容風險
從實踐層面看,由于多種因素限制,機器人新聞寫作還不能完全避免犯錯。而且由于寫稿機器人的特殊性,其一旦偏離"軌道",可能產(chǎn)生的不良后果波及面更廣、影響更嚴重。
(一)內(nèi)容的失真風險,主要是數(shù)據(jù)準不準的問題。寫稿機器人應(yīng)用需要以海量的數(shù)據(jù)作支撐,其內(nèi)容的生產(chǎn)質(zhì)量取決于積累的穩(wěn)定可靠的數(shù)據(jù)源。在機器人新聞寫作中,數(shù)據(jù)本源真不真,有沒有遭受污染甚至篡改?數(shù)據(jù)質(zhì)量高不高,有沒有采集到核心關(guān)鍵數(shù)據(jù)?數(shù)據(jù)規(guī)模大不大,多樣性是不是足夠?如果基礎(chǔ)數(shù)據(jù)集不實、不全、不準確或處理數(shù)據(jù)的算法包含錯誤,那么寫稿機器人就可能產(chǎn)生錯誤報道。當前,"信息孤島"問題依然突出,很多數(shù)據(jù)沒有實現(xiàn)互通、共享,制約了數(shù)據(jù)集質(zhì)量。
?。ǘ﹥?nèi)容的導向風險,主要是觀點正不正的問題。技術(shù)需要正確的價值觀來引領(lǐng),寫稿機器人的算法由設(shè)計者的價值觀決定。當前,媒體應(yīng)用的寫稿機器人有的是與技術(shù)公司合作開發(fā),有的是媒體完全自主研發(fā),也有的是直接從第三方引進。寫稿機器人設(shè)計生產(chǎn)主體多元,這一方面有利于激發(fā)創(chuàng)新活力,另一方面因為標準不統(tǒng)一,又可能帶來安全隱患。寫稿機器人應(yīng)確保寫作內(nèi)容的絕對安全,決不能只追求"快不快"而不管"對不對",只追求"真不真"而不管"正不正",只追求"多不多"而不管"好不好",放棄"舉旗定向"的責任,任由背離公序良俗甚至觸犯法律法規(guī)的內(nèi)容"出籠"。
?。ㄈ﹥?nèi)容的偏見風險,主要是事實全不全的問題。機器是中立的,但為機器設(shè)計算法程序的人卻不是中立的。當設(shè)計者在算法建模中選擇包含哪些屬性或忽略哪些屬性時,個人的思想不同、立場不同、角度不同、態(tài)度不同,往往直接影響甚至決定結(jié)果,導致得出的可能是既無法代表事實也無法反映存在的偏見。同樣,數(shù)據(jù)收集本身是帶著設(shè)計者主觀意識的,有著"天然的偏見基因"。當設(shè)計者以自己的理解去獲取、存儲、分析數(shù)據(jù),就可能在算法中植入偏見,并在應(yīng)用中不斷延續(xù)和擴大。
?。ㄋ模﹥?nèi)容的侵權(quán)風險,主要是法規(guī)依不依的問題。獲取和處理海量信息數(shù)據(jù),不可避免會涉及個人隱私保護這一重要倫理問題。有的算法設(shè)計者可能會無視用戶的隱私保護:一方面過度收集數(shù)據(jù),如將個人敏感數(shù)據(jù)納入收集范圍;另一方面對個人數(shù)據(jù)缺少有效保護,隨意流轉(zhuǎn)數(shù)據(jù),導致數(shù)據(jù)泄露。在互聯(lián)網(wǎng)生活早已成為公共生活一部分的今天,完全拒絕讓渡任何個人信息無法想象。但如果寫稿機器人收集數(shù)據(jù)得不到合理管控,人類將被置于隱私"裸奔"境地,產(chǎn)生嚴重的倫理問題。另外,聚合全網(wǎng)信息而形成的大數(shù)據(jù)也容易引發(fā)侵犯作品著作權(quán)問題。
(五)內(nèi)容的"黑箱"風險,主要是技術(shù)靈不靈的問題。專家指出,人工智能具有不可預知性,可能做出難以預測的損害性行為。"即使是最細心的設(shè)計者、編程者以及制造者都沒有辦法控制或者預測人工智能系統(tǒng)在脫離他們之后將會經(jīng)歷些什么。"[1]就寫稿機器人而言,其怎樣利用算法進行新聞生產(chǎn)和信息推薦的過程對于普通用戶來說是個不可見的隱蔽"黑箱",后臺不可見的新聞生產(chǎn)讓機器人寫稿缺乏必要的公眾監(jiān)督。所以從某種程度說,寫稿機器人存在操作權(quán)失控、被惡意使用或技術(shù)管理失當、遭受外來攻擊等所帶來的安全威脅。
三、構(gòu)建寫稿機器人的責任機制
善治才能有"善智"。對于寫稿機器人,不可心存"先發(fā)展后治理"的僥幸。2019年6月17日,國家新一代人工智能治理專業(yè)委員會發(fā)布《新一代人工智能治理原則——發(fā)展負責任的人工智能》,給包括寫稿機器人在內(nèi)的人工智能的健康發(fā)展立下規(guī)矩。
我們必須增強風險意識,把黨管媒體的原則延伸到技術(shù)領(lǐng)域,加強前瞻預防與約束引導,及早對寫稿機器人應(yīng)用中已出現(xiàn)或潛在的內(nèi)容風險問題進行處理、規(guī)范、監(jiān)管,以確保寫稿機器人安全、可靠、可控,使寫稿機器人走上健康、可持續(xù)發(fā)展的軌道。
?。ㄒ唬懜鍣C器人的設(shè)計者需要把好大局方向。寫稿機器人具有技術(shù)屬性和意識形態(tài)屬性高度融合的特征。為此,寫稿機器人的設(shè)計者必須同時具有技術(shù)的先進性與方向的正確性。
作為設(shè)計者要堅持正確政治方向。寫稿機器人的設(shè)計者是新聞輿論工作的重要參與者,屬于新時代新聞輿論工作者。新聞輿論工作是有方向、有立場、有原則的。寫稿機器人的設(shè)計者頭腦同樣要特別清醒,同樣必須樹立馬克思主義新聞觀,恪守新聞工作的黨性原則,始終成為黨和人民的喉舌;同樣必須把堅持正確政治方向擺在第一位,做到堅定政治信仰、站穩(wěn)政治立場、保持政治定力、把牢政治方向。
作為設(shè)計者要堅持正確輿論導向。習近平總書記指出:"新聞輿論工作各個方面、各個環(huán)節(jié)都要堅持正確輿論導向。"機器人新聞寫作也不例外。正確引導輿論同樣必須成為寫稿機器人設(shè)計者的初心和使命,要把講導向落實到全體研發(fā)設(shè)計人員身上,落實到研發(fā)設(shè)計的每一個環(huán)節(jié)和每一個程序中。設(shè)計者要珍惜并用好手中的設(shè)計權(quán),確保設(shè)計出來的算法能夠融入社會主流價值、符合社會主流規(guī)范,在輿論導向上不出絲毫偏差。
作為設(shè)計者要堅持正確工作取向。作為寫稿機器人的設(shè)計者要堅持以人民為中心的思想,不斷提升設(shè)計的適用性、可操作性,增強設(shè)計的透明性、可解釋性。特別是要告知可能產(chǎn)生的風險和影響,讓利益相關(guān)者知道算法的設(shè)計意圖、設(shè)計目標、運行效率、適用條件和存在的缺陷,了解算法的運行機制和做出特定決定的原因,確保用戶知情權(quán),從而更好地防范與應(yīng)對機器人可能帶給我們的風險。
?。ǘ懜鍣C器人的生產(chǎn)者需要堅持質(zhì)量標準。人工智能存在風險主體多元性和不可預知性。寫稿機器人的生產(chǎn)者要建立科學的質(zhì)量標準和控制體系,以提升產(chǎn)品安全。
作為生產(chǎn)者要不斷提升生產(chǎn)環(huán)節(jié)的可公開。要把大眾看不見的東西變?yōu)榭沙浞至私獾男畔?,切實提高大眾的知情?quán),虛心傾聽大眾建議,促進生產(chǎn)環(huán)節(jié)的科學化。例如人工智能系統(tǒng)的部件制造者可能沒有想到自己生產(chǎn)的部件會被應(yīng)用在人工智能系統(tǒng)上。對此,生產(chǎn)者要給予公開,接受大眾監(jiān)督。
作為生產(chǎn)者要不斷完善產(chǎn)品質(zhì)量的可追溯。圍繞寫稿機器人生產(chǎn)各環(huán)節(jié),建設(shè)跨領(lǐng)域的寫稿機器人質(zhì)量測試平臺,開發(fā)系統(tǒng)性的測試方法和指標體系,推動寫稿機器人安全認證,評估寫稿機器人產(chǎn)品和系統(tǒng)的關(guān)鍵性能,構(gòu)建動態(tài)的寫稿機器人研發(fā)應(yīng)用評價機制。
作為生產(chǎn)者要不斷推進問題差錯的可校準。要對參與人工智能系統(tǒng)部件的多元主體生產(chǎn)者,由于質(zhì)量問題而發(fā)生的差錯,給予持續(xù)校準。同時,要將責任分配給寫稿機器人系統(tǒng)每一部件的生產(chǎn)者,建成完整的技術(shù)標準、服務(wù)體系,推行產(chǎn)品質(zhì)量"三包"制度。
?。ㄈ懜鍣C器人的運營者需要樹立陣地意識。寫稿機器人是生產(chǎn)意識形態(tài)產(chǎn)品的新型工具,無疑是意識形態(tài)的新興陣地。要根據(jù)"誰引進,誰負責""誰運營,誰負責""誰使用,誰負責"原則,擔起意識形態(tài)工作主體責任制,做到守土有責、守土負責、守土盡責,履行好內(nèi)容審核、安全把關(guān)的責任。
應(yīng)用前的評估。媒體要加強對寫稿機器人應(yīng)用于新聞生產(chǎn)可能產(chǎn)生的影響進行全面評估,分析效果與潛在危害,制定對算法系統(tǒng)運行的風險評估標準,構(gòu)建復雜應(yīng)用場景下突發(fā)狀況的解決方案,甚至在寫稿機器人的研發(fā)、設(shè)計、生產(chǎn)階段,媒體單位就提前主動介入,以促進人工智能算法邏輯與社會價值規(guī)范的統(tǒng)一。
應(yīng)用后的管理。要制定寫稿機器人的崗位管理、生產(chǎn)流程、發(fā)布標準等規(guī)定,建構(gòu)與機器人新聞采寫編發(fā)相適應(yīng)的新流程。要通過運用新的智能化核查手段和工具,并結(jié)合傳統(tǒng)媒體多年堅持的內(nèi)容"三審"等好做法,探索建立有效的"人機結(jié)合"的內(nèi)容核查機制。要配齊配足配強日常審核力量,由擁有較高媒介素養(yǎng)的人去給機器人把關(guān)。
應(yīng)用中的保障。寫稿機器人作為一套自動化的新聞生產(chǎn)系統(tǒng),專業(yè)的技術(shù)與設(shè)備需要專業(yè)的技術(shù)人員進行維護與監(jiān)測。要培養(yǎng)或引進專業(yè)的技術(shù)人員,來承擔對寫稿機器人的日常運維和錯誤修正工作。
?。ㄋ模懜鍣C器人的使用者需要保持專業(yè)情懷。隨著機器人新聞寫作能力的提升,傳統(tǒng)媒體的記者、編輯需要重新思考和整理自己在人工智能時代的定位和價值。有專家預言,未來的新聞業(yè)將是媒體人與技術(shù)人員協(xié)同寫稿機器人一起合作高效開展新聞生產(chǎn)。
對于使用者來說,要提升算法素養(yǎng)。要避免新聞生產(chǎn)過程中的"唯技術(shù)論"。要對算法的設(shè)計和運行原理有一定理解和認識能力,對數(shù)據(jù)收集和結(jié)果輸出有一定的辨別和解釋能力;要科學認識機器人寫作和算法新聞的局限性,對算法本身及其得出的結(jié)論保持批判態(tài)度。
對于使用者來說,要充分揚長避短。寫稿機器人與人類記者應(yīng)該是互補互存關(guān)系。人類記者要堅守新聞專業(yè)和傳播規(guī)律,堅持對事實、信息、真相的不懈追求,對公開、透明、服務(wù)的牢牢把握,糾正機器的偏見、失誤,增加機器的情感、溫度,發(fā)揮自己作為"人"的優(yōu)勢,以寫稿機器人的智慧拓展自己的能力,從而更高效地完成優(yōu)質(zhì)作品。
對于使用者來說,要當好"把關(guān)人"。核實是新聞的中心工作。人類記者要裁判機器人新聞寫作中的價值,糾正機器人新聞寫作中的偏見,修改機器人新聞寫作中的錯誤甚至隱藏在數(shù)據(jù)背后的人為造假。根據(jù)社會實際,研判稿件發(fā)布的時度效,衡量輕重緩急,匹配時段位置,通過各種措施更有效地把符合社會主流價值觀的內(nèi)容推送給受眾。
?。ㄎ澹懜鍣C器人的監(jiān)管者需要筑牢安全底線。要明確寫稿機器人的監(jiān)管部門,在充分考慮新聞業(yè)和新聞算法特殊性的基礎(chǔ)上,加快制定有效的監(jiān)管措施,理清人工智能法律主體以及相關(guān)權(quán)利、義務(wù)和責任等關(guān)系,推進監(jiān)管法治化、制度化、規(guī)范化。
建立準入機制。針對設(shè)計、生產(chǎn)寫稿機器人的主體越來越多,獲取寫稿機器人越來越容易的實際,必須盡快明確寫稿機器人的資質(zhì)要求,建立科學的準入標準與評價體系,嚴格依照標準開展監(jiān)管,管住源頭。同時,盡快制定并落實寫稿機器人生產(chǎn)、銷售、使用的法律法規(guī),提升安全評估和管控能力。
建立追責機制。受眾有權(quán)利知道自己閱讀觀看的新聞是由人類記者還是機器人所創(chuàng)作。如中國財富網(wǎng)對"財富小精靈"寫的稿件,發(fā)布時在文尾注明是寫稿機器人快速生成的,并提醒"數(shù)據(jù)未經(jīng)審核,轉(zhuǎn)載或引用請謹慎"。但更多媒體對機器人寫作的內(nèi)容卻打著匿名的旗號。當然,即使注明是寫稿機器人的新聞作品,如出現(xiàn)問題,發(fā)布的媒體依然不能免責。同時,應(yīng)切實加強對數(shù)據(jù)濫用、侵犯隱私、違背倫理等行為的懲戒力度。
建立退出機制。除了在日常不斷糾偏設(shè)計、加強內(nèi)容安全管理, 當發(fā)現(xiàn)寫稿機器人存在缺陷或潛在風險時,應(yīng)主動及時修復、優(yōu)化,視情況決定是否中止算法系統(tǒng)及相關(guān)服務(wù),并由相關(guān)責任方對造成的損失承擔責任。
【注釋】
[1]陳偉光:《關(guān)于人工智能治理問題的若干思考》,《人民論壇·學術(shù)前沿》,2017年10月(下)。