AI 帶給新聞業致命威脅?哥倫比亞大學新聞學院權威報告給你答案

作者 | 發布日期 2017 年 11 月 07 日 9:15 | 分類 AI 人工智慧 , 人力資源 , 自動化 follow us in feedly

隨著越來越多新聞媒體開始採用 AI 生產新聞報導,AI 和自動化技術的日益增強正在改變整個新聞業。那麼對正陷入困境的新聞業來說,AI 究竟是急迫需要的生命線,還是生存的致命威脅?



日前,數位新聞中心(the Tow Center for Digital Journalism)和布朗媒體創新研究所(the Brown Institute for Media Innovation)聯合技術專家和記者召開政策交流論壇,一起討論 AI 如何影響新聞媒體,以及如何將 AI 應用於新聞領域這議題。本次報告中,著重討論這 4 個問題:

  • 記者如何利用 AI 來輔助報導?
  • AI 可替代哪些新聞室角色?
  • 新聞機構還未應用 AI 技術的領域有哪些?
  • AI 最終將成為新聞報導不可或缺的一部分嗎?

議題一:AI 在新聞業的應用

如大家所了解,每個新聞編輯室都有一套獨特的 AI 方法。經過幾次案例研究,AI 在新聞機構貢獻最大的活動共有以下 3 類:

  • 資料量很大或很複雜的情況下,AI 可做為突破性工具,排除人身認證的外部或特殊情況──這個角色完全適用於標準的新聞編輯室流程。
  • 辨識趨勢(或偏離趨勢):AI 的大量計算能力可幫助提供數據聚合的表徵,或有可能按照時間、地理或人口統計分組。此外,它還能快速辨識離群數據。
  • 檢查 AI 或計算的應用程式可為故事本身的主題:演算法由人類構建,所以不可避免帶有人類的偏見──如何透過這些工具找到複雜的思想?當這些工具被國家或城市具體採納並運用時,又會發生哪些不可預知的情況?

1、幾大具體案例

AI 可透過以下幾種方法來增強記者的工作:分類文件;辨識數據中的異常值。當然,在討論的過程中,經驗豐富的人類常會運用真實新聞來判斷,以為新聞編輯室工作的重要組成部分。

雖然有許多有據可查由 AI 編寫的新聞故事,例如體育賽事的總結、公司財報發布,甚至地震等數據模式,但很少有與會者認為記者的工作會完全被機器或演算法取代。只有在人類的操縱和驗證結果情況下,AI 才能更幫助自由作家持續不斷重寫相同的故事,並處理更多原始報告。

最近的一些案例,比如《洛杉磯時報》記者使用分類器檢測 LAPD(洛杉磯市警局)降級犯罪分類的實例,取得顯著成功;亞特蘭大憲法機構對醫生實施性虐待的調查;路透社的主題建模,以尋求最高法院上訪問的權利中心;ProPublica(美國一家非政府、非營利的網路新聞機構)日前聯合 Google 推出一個基於機器學習的工具──仇恨犯罪新聞紀錄索引。它透過分析大量新聞文章,建立一個全國範圍內預測仇恨犯罪發生地的預警圖;《紐約時報》報導總統川普就職典禮新聞事件,使用人臉辨識技術以獲取觀眾席資訊。

對一些記者來說,他們可能會在 GitHub 抓取示例代碼,並應用於新聞報導。但是,除非這名記者對這些工具或技術很了解,不然可能會出現不法行為的風險。

2、記者在使用數據時應注意陷阱

記者在使用從社交媒體到政府機構的數據時,應小心陷阱。他們必須小心評估這些新型訊息來源的可靠性,特別是在涉及 AI 的情況下。比如,使用 Twitter 為社交媒體平台的記者,必須謹慎使用這些數據來分析社會行為。

3、出版商的挑戰:包括大型和小型新聞機構

所有新工具,新聞機構都有責任和義務訓練記者、編輯及開發人員如何正確使用它們。雖然像《紐約時報》這種大型新聞機構,資金可能不是問題,但對資源較少的小型新聞機構來說,這將是一個不小的挑戰。

新聞媒體的領導人可能面臨的一個決定在於,如何與他人建立 AI 工具使用上的合作。因為使用複雜數據集和自定義演算法進行的調查分析和團隊建設可能需要幾個月時間,這並不是所有新聞機構都能獨自完成。

與學術機構和研究人員合作可成為新聞機構在新聞編輯室開始使用 AI 工具的好方法。不過,新聞編輯室和學術實驗室的文化差異很大,兩者在創造 AI 工具的目標上可能會有分歧。

議題二:AI 技術如何適應新聞報導規則?

AI 技術如何適應新聞管道?如前所述,AI 在報導、內容創建、分發和受眾互動起的作用越來越大。比如,近日,開發眾包、腦力激盪和事實核查工具正被用來收集數據資訊,特別是用於構建相關數據。在當代的新聞編輯室中,自動化已成為競爭的關鍵工具,不僅是為了獲取客戶關注,還用於和大型平台的競爭,如 Netflix、Facebook 和亞馬遜。

自動化寫作和個性化推介

自動化可以在短時間內處理大量的任務,例如在幾分鐘甚至幾秒鐘內分析和匯總大量的數據,進而盡可能的減少記者負擔。另一方面,許多社交媒體平台和網路公司也都實證了個性化推送是捕捉注意力的一種有力工具。如,Netflix 使用行為數據為觀眾提供觀看建議;亞馬遜的成功部分原因在於它為購物體驗提供數據驅動的個性化設計。

1)案例一:Wibbitz

Wibbitz 公司和《今日美國》報的體育報導部門開始合作,該公司可以把媒體記者寫作的文字報導在短短幾秒鐘內製作出短片。Wibbitz 公司最核心的 AI 技術是「文本轉換影像技術」(Text-to-Video Technology)。一開始,Wibbitz 的 AI 技術會分析一個故事文本,然後在這個文字報導的基礎上形成一個摘要,緊接著,AI 將這個文本摘要轉換成一個伴隨有照片、圖形及其他更多媒介形式的、帶有畫外音的短片。實際上,整個製作過程就是利用 AI 驅動軟體,將一個文字報導內容壓縮為一個故事腳本,然後將一系列圖像或影片串接在一起,並添加一些畫外音。

2)案例二:BuzzFeed

BuzzFeed 是另一個進入 AI 領域的知名媒體。在 2016 年美國大選期間,BuzzFeed 的「新聞開放實驗室」(Open Labs for Journalism)開發了一個新聞機器人(Buzzbot),這個新聞機器人可以蒐集共和黨全國代表大會中來自不同消息來源的新聞資訊。AI 驅動的新聞聚合器可以追蹤即時選舉結果和投票報導,這樣媒體記者就不用靠人力來完成這些工作。有了新聞機器人,BuzzFeed 的記者可以集中精力去報導更加複雜和場景化的新聞故事,而這類新聞是機器學習解決方案技術,自身無法生產出來的。

3)案例三:路透社

路透社為了解決真假訊息辨識的問題,他們使用新的新聞追蹤系統叫做 News Tracer,針對每天 5 億則 Twitter 訊息進行演算,從假新聞、不合理的新聞、廣告、雜音中找到真的新聞事件,有了演算法的輔助,記者可以從社交媒體的眾多訊息中脫身,把更重要的時間用來挖掘故事。News Tracer 與其他監控工具不同之處,在於其模仿的是記者的思考方式,程式人員在這套演算法中植入 40 個評量指標,諸如原始貼文者的地點與身分、新聞的傳播方式等,建立一個新聞可信度評分,該系統還會針對記者確定可靠的新聞進行來源交叉檢查,並辨識其他潛在的消息來源。

4)案例四:美聯社

美聯社是最早採用 AI 技術的媒體組織之一。早在 2014 年,美聯社與美國「自動化洞察」(Automated Insights)公司合作──該公司開發出了自動化寫稿程式 Wordsmith,它當時是世界上唯一的公共自然語言生成平台──來程式化地寫出許多上市公司公開發布的季收入報告相關新聞報導。在將人工智慧技術用於處理季度收入報告之前,美聯社新聞記者每季只能創作幾百個新聞故事,結果導致數千個公司的收入報告沒有被報導。在使用 Wordsmith 自動化寫稿程式之後,美聯社有關公司收入的新聞報導數量增加了 12 倍。

評論系統和觀眾參與

今年 6 月,《紐約時報》與 Google 母公司 Alphabet 旗下技術孵化器 Jigsaw 合作,運用後者的 Perspective 機器學習技術來過濾新聞報導的評論數量。據了解,之前《紐約時報》每天安排 14 名審查員處理約 12,000 條評論,每篇文章下方的評論有 20% 是打開的。運用該 AI 工具後,其可以把有害的評論和健康正確的評論阻隔開來,不僅可以減少修正評論人員 25% 的工作量,還能將文章下方的評論取的打開率提升至 80%。

《紐約時報》想利用該 AI 工具,建立一個平台,以便審查員和讀者進行更加深入的互動。不過,這其中仍然存在一大挑戰,即是如何建立共同點,且尊重不同的觀點,讓新聞報導和讀者的區域觀點保持一致。透過這一機器學習工具,審查員不僅可以提高處理評論的速度,還可以透過預測模型輕鬆組合相似的評論。

議題三:演算法與倫理:究竟該怪人類還是演算法?

在新聞編輯室使用 AI 工具,如機器學習、自然語言處理、人臉辨識和機器視覺,這個過程不可避免會帶上人類倫理的思考痕跡。這裡牽扯到 3 個方面的內容。

1、透明度和責任感

由於 AI 在新聞工作中可以扮演很多角色,因此在解釋何時何地以及如何使用AI時,更應該謹慎解釋。如涉及聊天機器人和用戶的互動時,如果由 AI 來驅動,這個機器人又該如何向觀眾解釋自己的運行原理?觀眾需要知道故事的構建過程,以及機器在創建過程做了哪些選擇?當涉及 AI 時,最終應該追究誰的錯誤?如何解釋由人類創建的算法引起的錯誤?究竟該怪人類還是演算法?

據 ProPublica 的研究表明,演算法偏差在數學上是不可避免的。即便如此,新聞工作者應該對這些 AI 系統負責,並鼓勵在演算法系統的構建流程中建立問責制。

2、編輯性決定和偏見

演算法在新聞策劃中的作用越來越普遍,這些代表編輯性決策的演算法需要用人類的方式來編寫。以聊天機器人為例,電腦就像人類一樣,如果他們不了解內容,就不能進行對話。機器人能夠談論的唯一領域就是我們可以為該會話語境構建模型。

此外,為了讓去偏見概念更加複雜化,通常會讓數據更具中性。一些研究表明,有許多類型的機器學習,都是用來「監督學習」。演算法無法重現人類的心理模型,但能重構因果關係。

3、數據的倫理使用

數據的倫理使用是每個記者需要面對的根本問題,同樣的原則也適用於處理大量數據的公司。雖然有許多社交媒體平台會向記者提供數據,但數據發布商和平台之間關於開放數據獲取的關係依然複雜。

許多演算法的性質更像是一個「黑盒」,其掩蓋了對軟體正在做的決定的批判性認識。所以,記者需要盡可能的在研究和報導中使用這種批判性態度。

七大研究結論

如前所述,經過這次研究,關於 AI 究竟是對新聞業是威脅還是助力,我們可得到以下 7 大發現。

  1. AI 工具可以幫助記者講述或報導之前不切實際或技術上無法實現的新故事。雖然 AI 可能會轉變新聞業,但它會增強而不是取代記者的工作。事實上,為了正確使用 AI 技術,人類必須隨時保持機敏狀態。
  2. 設計 AI 的技術人員和使用 AI 技術的記者之間存在知識差距和溝通差距,這樣可能導致新聞事件的不正之風。
  3. 讀者在如何使用 AI 工具進行分析、辨識模式以及報告故事中的發現時,應該得到一種透明的方法。
  4. 雖然 AI 和數據的互動可以為讀者參與、獲利和個性化新聞推送提供新的機會,但是在創建迴聲室和繼續致力於新聞公共服務使命之間找到平衡存在挑戰。
  5. 數據的倫理使用和披露(如何收集、儲存、使用、分析和分享用戶訊息)是記者需要面對的一個根本問題。
  6. AI 有潛力增強記者的工作,但在開放數據獲取上依然存在挑戰。
  7. AI 是不可預知的。我們不能自信地預測哪裡會出現最大的問題,所以技術專家和記者需保持警惕,以確保 AI 系統的準確性。

結語

照目前的情況來看,AI 對新聞業的助力遠大於威脅。未來採用 AI 輔助報導將成為各新聞機構在競爭賽道上的一大趨勢。只是,在應用 AI 的道路上,人類應盡快釐清演算法倫理的追責問題,以便提前清除後患。

註:報告原文來自哥倫比亞大學新聞學院,由 Mark Hansen、Meritxell Roca-Sales、Jon Keegan 和 George King 4 位共同編寫。

(本文由 雷鋒網 授權轉載;首圖來源:pixabay

延伸閱讀:

關鍵字: , ,