蘋果前員工打造、入選 YC 的 Intrinsic,要用大型語言模型解決 Facebook 都做不好的事

作者 | 發布日期 2024 年 01 月 28 日 10:30 | 分類 AI 人工智慧 , Facebook , 數位內容 line share follow us in feedly line share
蘋果前員工打造、入選 YC 的 Intrinsic,要用大型語言模型解決 Facebook 都做不好的事


社群平台上的內容都是由使用者製作(UGC),平台該不該為這些內容負責?

不管是仇恨性言論、色情內容、假新聞等,儘管平台方都強調透過AI協助審查,仍有許多漏網之魚或誤刪內容的情況發生。

生成式AI背後的基礎大型語言模型(LLM),有沒有可能是解方?

曾在蘋果(Apple)擔任詐欺工程和演算法團隊工程師的Karine Mellata和Michael Lin,在 2023 年創立Intrinsic正在嘗試這個可能性,並入選國際知名加速器Y Combinator(YC)。

▲ 蘋果前員工Karine Mellata和Michael Lin,解決企業在內容審查上花費的時間和人力成本,創辦Intrinsic。(Source:Intrinsic

AI成為審查員的救命稻草?

社群媒體大老Facebook曾在全球雇用幾萬名內容審查員,以人工的方式篩選平台貼文內容。

但人工審查不僅效率低、成本費用高,聘用的審查人員還需要承受巨大的精神壓力,例如經常目睹到暴力、血腥或是色情等影像,而每則貼文也只有幾秒鐘的時間讓他們決定是否符合發布規定。長時間來說,對這些審查員而言也是嚴重的工傷。

直到2017年,Facebook創辦人祖克柏(Mark Zuckerberg)開始讓AI過濾平台內容,自動檢視每則貼文和言論是否違反平台規定。利用AI審查內容無疑加快分析速度,但避免不了誤判或是遺漏的情況。

時至今日,不論是Facebook或是各媒體平台的AI分析功能仍不夠全面,例如AI只能偵測出38%的敏感或是仇恨言論,同時又不斷有新的違規發文出現在平台上,AI需要更多詳細的訓練才能做出更精確的判斷。就連Facebook這麼大的企業都難以做到完美了,這題該怎麼辦?

Intrinsic運用大量參數優勢解決「語意判讀」問題

Intrinsic認為還是得靠AI。雖然他們不是第一個利用AI做內容審查工具的團隊,但可能是第一個把大型語言模型納入規劃的團隊。

現在的AI審查大多採用NLP(自然語意處理)的技術,然而受限於餵給AI的資料有限,AI可能會不認得相同語意的關鍵字,例如「高清」、「4K」、「高畫質」,AI可能只會認得「高畫質」這個關鍵字。

但是大型語言模型可以從數據中找出關聯和語意,能夠以接近人類語言的邏輯處理言論審查,這也是Intrinsic所看好的。

Intrinsic用LLM審查除了更方便審核虛擬帳號、暴力言論等違反網路安全內容之外,也讓企業依據需求畫出審查的範圍。例如只要告訴LLM不希望在網站上出現關於哪一類腥羶色的圖片或是字眼,Intrinsic就會根據相同語意的字眼和訊息加以審核。

企業只需將Intrinsic的檢測系統嵌入自家的內容審查系統中,便會自動分析社群平台中的正負面內容,或是檢測每位用戶的真實性,若檢測出詐騙或騷擾訊息,會立即通知該企業的審查團隊調查該名使用者,利用AI加速內容審查流程。

不可忽視AI審查的未來隱憂

目前Intrinsic於今(2024)年籌集310萬美元(約新台幣9,600萬元)的資金,主要投資者包括Urban Innovation Fund、Y Combinator和645 Ventures等知名創投。創辦人Karine Mellata表示,計劃將這筆資金運用在繼續研發大型語言模型,將審查內容擴大到影片和聲音內容。

雖然LLM幫助加快內容審查的效率,但仍不可忽視AI可能隨之而來的問題。AI無法受到監控,因此像是訓練AI的共用數據,或許也包含許多使用者的個人資訊,容易造成資料外洩的情況發生,讓AI把持大眾的網路言論自由是否真能成為解方,仍有待商榷。

(本文由 創業小聚 授權轉載;首圖來源:shutterstock)