【摘要】目前,人工智能技術已經滲透到了新聞傳播活動的各個方面,同時也存在著一定的隱患風險,一旦觸及道德底線,就會引發一些傳播倫理失范問題。為了解決這些問題,需要通過智能技術與人的有機結合,實現新聞生產效率的最大化,同時應提升新聞機構的責任意識,加大公眾監督力度;加強技術革新,從源頭加強信息過濾;健全法律法規,促進人工智能良性發展。
【關鍵詞】人工智能 新聞傳播 倫理失范
【中圖分類號】G23 【文獻標識碼】A
目前,媒體朝著“技術+內容”的方向發展,人工智能技術已經滲透到了新聞傳播活動的各個方面,能夠對信息數據進行采集、加工、自動寫稿、編輯分發,如:新華社機器新聞生產系統“快筆小新”、騰訊財經的“Dream Writer”等寫稿機器人。但是在傳媒領域中,由于人工智能技術不夠完善、觸及傳播倫理底線、算法設計不透明、法律體系不健全、市場監管不到位等因素的影響,人工智能技術引發了一些傳播倫理失范問題。如何解決人工智能技術所引發的倫理失范成了傳媒領域面臨的重要問題。
人工智能技術引發的新聞傳播倫理失范現象
運用人工智能技術進行新聞傳播,容易造成內容失真,違背新聞報道基本要求。由于人工智能技術在新聞傳播領域中的應用還不成熟,技術的客觀性可能使新聞缺乏人文關懷,導致倫理失范被放大。并且基于廣泛數據挖掘的人工智能技術還會造成媒體暴力、新聞失實等現象,增加公民隱私權、著作權受侵犯的風險,從而形成了傳播的二次失范和次生失范。寫稿機器人自動寫稿可能會背離新聞的全面性,造成新聞失實,缺乏現場的感官體驗。此外,寫稿機器人過分注重刊播效果,不加人工干預,容易使真正重要的新聞被邊緣化,容易導致新聞失衡,只單純地迎合受眾,使大眾媒體的公共服務職能受到嚴重影響,損害了傳統的新聞價值標準。
運用人工智能技術進行新聞傳播,缺失輿論監督功能。新聞媒體具有輿論監督的重要作用,而與人類記者相比,寫稿機器人只是機械地進行寫作,沒有大局意識,不具備輿論監督的能力。機器人無法對報道的時間、內容和效果等進行判斷,也不擅長發表具有引領作用的深刻見解,從而削弱了新聞媒體的監督功能,降低了公眾對媒體的信任度。同時,隨著人工智能技術在新聞傳播領域的滲透,無論是智能熱點搜集、新聞寫作還是智能推薦,信息采集的范圍將不斷擴展,方式將更加隱蔽。這極有可能導致源數據被披露,從而導致公民的著作權無法受到保護。
運用人工智能技術進行新聞傳播,容易導致新聞同質化現象,傳播效果不佳。人工智能時代,智能分發平臺是基于受眾的個人畫像和閱讀行為,將內容推送的權力由人類編輯轉化為智能算法,以不同的形式,根據推測出的受眾閱讀偏好,將受眾認同和想了解的信息進行推送。智能新聞生產、分發模式是以挖掘用戶喜好為導向,給受眾帶來了許多同類信息,新聞同質化現象嚴重,言論單一,導致受眾的知識素養和新聞品位下降。容易造成受眾沉浸在智能分發平臺為他們編制的“信息繭房”中,使受眾的信息接觸面越來越窄。一旦智能新聞分發平臺陷入“雷同之海”,長期控制新聞生產和分發模式,就會違背媒體需要客觀中立、傳遞不同聲音的理念,導致公眾對社會公共事件的忽視。
通過智能技術與人的有機結合,實現新聞生產效率的最大化;提升新聞機構的責任意識,加大公眾監督力度
在簡單的消息寫作領域,人工智能技術能夠充分發揮其應有的作用,會部分取代人類記者。一方面,人工智能技術的個性化推薦能夠充分實現新聞生產效率的最大化,提升受眾獲取信息的效率;另一方面,寫稿機器人能夠將新聞工作者從單調乏味的基礎工作中解放出來,能夠有效緩解記者、編輯的工作壓力,賦予他們更多的時間和精力去挖掘有深度、有反思性的的報道。但是在新聞傳播中,機器人只是一種輔助工具,還需要新聞工作者來彌補其存在的諸多弊端。如:新聞工作者擅長對深度和邏輯的宏觀把控,能夠彌補人工智能不能理解新聞事件背后的信息和因果關系的缺陷;新聞工作者所具有的人文關懷也能夠彌補人工智能不能產生“有溫度”新聞的缺陷,能夠很好地把握新聞傳播倫理的界限。因此,面對信息爆炸和人工智能快速發展的趨勢,通過記者的深入調查、深度思考,利用智能算法,分析數據、發現熱點事件和重大事件來完善新聞報道,并由智能推薦將信息有計劃性地送達用戶手中,將人工智能技術與新聞工作者有機的結合在一起。同時,新聞記者要充分發揮人的主體地位,增強對人工智能技術的運用與把控,提升深度分析和深入調查的能力,促使未來新聞業向更高效、智能的方向發展,實現“人機共生”。
新聞機構掌握著眾多的人工智能成果、技術和手段,為了維護社會的和諧發展,在使用人工智能的過程中,傳媒機構必須要承擔起相應的責任,提升責任意識,增強人工智能技術的透明度。對于公眾來說,智能算法可能難以理解,因此,為了消除公眾對人工智能技術的過分信任或完全抵制,新聞機構有必要明確告知受眾機器人運行中可能帶有的偏見和所犯的錯誤,讓智能新聞以真實可感的形象走到大眾中來。人類是智能新聞的“元作者”,人類設計和編寫了智能算法,因此,對于源數據的版權和準確性來說,人要負起主要的責任,除了要增強智能新聞的透明度,還要明確機器人犯了錯由誰來負責,明確智能新聞的問責機制。為了避免人工智能技術所導致的傳播倫理失范問題,要做到人機責任捆綁,為每一則智能新聞分配責任人,在機器人客觀公正的基礎上,由責任人專業把控,做好新聞的審核和檢驗。
加強技術革新,從源頭加強信息過濾;健全法律法規,促進人工智能良性發展
目前,在傳播領域中,還需要通過加強技術革新,用技術優化來完善觸及傳播倫理的部分技術缺陷,從而解決人工智能技術所導致的傳播倫理失范問題。首先,要使技術應用與內容選擇保持平衡關系,規范技術的適用范圍和使用標準;其次,要從源頭上對新聞進行過濾,通過嚴密的算法,以技術發展加強機器人對新聞數據質量的判斷。并且為了真正做到“有方法可依,有數據可查”,由機器人生產的新聞應明確標注數據來源、內容的生成方式,從源頭上避免虛假新聞的產生;另外,為了保證源數據的真實可用,新聞從業者應充當“把關人”的角色,在技術未完全成熟前,對數據管理和程序進行驗證。同時,要提升智能算法的運算程序,減輕智能分發所造成的“信息繭房”問題。并且為了避免用戶陷入“信息孤島”的困境,還要結合社會重大事件、用戶圈層,基于受眾畫像、行為習慣描繪受眾顯性需求,通過技術手段,全方位改善個性化推送的內容和機制。
目前,在新聞傳播領域中,人工智能技術相關的法律法規還不夠健全,為了最大限度地防止人工智能對人類社會產生的威脅,需要建立強有力的法律法規和管理制度,更好實現人工智能技術對人類社會的價值。首先,要使人工智能技術和產品的各方面做到有法可依,完善對數據使用中侵犯隱私權的處罰,明確可抓取數據的范圍和邊界,從立法層面加強對公眾隱私的保護,促進人工智能良性發展。其次,在人工智能監督過程中,有關部門擔負著主導職能,因此,為了全方位監督人工智能技術,應該明確人工智能的發展方向和發展原則等。最后,公眾是智能新聞的受眾和潛在侵權對象,在社會監督中,公眾的積極監督和舉報具有制約的作用,能夠實現法規政策和監管力量雙管齊下的目的。
(作者為新鄉學院新聞傳播學院副教授)
【參考文獻】
①王卉、張瑞靜:《人工智能技術在數字出版中的應用現狀與發展趨勢》,《出版發行研究》,2018年第2期。
責編/谷漩 美編/于珊
