ChatGPT 快速推 Plus 版盈利!生成式 AI 下一步是暗黑還是榮耀?

作者 | 發布日期 2023 年 02 月 13 日 11:10 | 分類 AI 人工智慧 , 機器人 , 財經 line share follow us in feedly line share
ChatGPT 快速推 Plus 版盈利!生成式 AI 下一步是暗黑還是榮耀?


全球掀起產生式 AI 應用熱潮,ChatGPT 短時間推出 ChatGPT Plus 版,迅速讓 AI 盈利變現,台灣使用者可每月花 20 美元,獲更快回應速度。KPMG 安侯董事總經理謝昀澤表示,產生式 AI 不只在拚演算法、功能炫技,各大廠短期的決戰重點,還是在「正確性」與「可靠性」。

目前新一代產生式 AI 大戰第一回合,Google 緊急推出 Bard 對話機器人應戰,但答錯太陽系外行星第一張照片是誰拍?落得股價大跌。謝昀澤解釋,Google 具備有強大的 AI 演算法及雲端運算平台的能量,但「照片正確」環節跌倒,其實不是第一次。

謝昀澤分享,早在 2015 年 Google 就因 AI 演算法出包,將黑人照片辨識為大猩猩,落入種族歧視爭議風暴,幾乎 Bard 上埸同時,OpenAI 立即觀察到 ChatGPT 反應速度,遠遠追不上使用者的熱情,於是推出付費訂閱版,以降低使用者暴增造成等待或停止回應時間拉長。

ChatGPT 產生式 AI 大戰開打

ChatGPT 快速導入訂閱模式,但許多付費使用者仍常遇到服務滿載卡頓。謝昀澤認為,「答案有感的機器人,會取代只是歷史讀稿的機器人」、「反應快速的機器人,會取代頁面自轉圈圈的機器人」,但如何判斷答案「正確」且「適用」將是最大挑戰。

謝昀澤分析,各大廠產生式人工智慧大對決的後續觀察重點,除了「採用訂閱營利或廣告營利?」「如何以 API 創造生態圈?」「如何與瀏覽器或辦公室軟體整合?」等「商業模式」比拚,誰能持續稱霸 AI 進化世界的關鍵,還是在有沒有足夠 AI「科技治理」能力。

謝昀澤認為,影響產生式 AI 風險,需嚴格管理的三大「暗黑情境」為「更迷離的深假(Deepfake)」、「更智慧的駭客」及「更暴露的使用者隱私」。

產生式 AI 就像雙面刃

以「深假技術」為例,謝昀澤指出,已可做到使用甲臉孔搭配乙身材與動作,自然用丙嘴型說出假內容,然而產生式 AI 技術大躍進就像雙面刃,如果駭客或犯罪組織使用相同技術,將造成重大損失。

謝昀澤說明,如駭客用 ChatGPT 針對不同企業,產生數萬封釣魚郵件後,再運用偽造聲紋假冒財務長致電財務人員匯款,或駭客用產生式 AI 強大分析與歸納功能,找出企業內未曾發現的弱點,藉此進行網路進階攻擊或機密竊取。

謝昀澤補充,因產生式 AI 具備寫基礎程式的能力,惡意程式開發門檻將大幅降低,連不會寫程式的人都能當駭客等,雖然各 AI 系統都有使用規則與迴避有害內容的功能,但還是有許多控管漏洞,都可能被有心人士繞過。

「深假技術」將造成威脅  

KPMG 安侯執行副總經理林大馗預測,如果產生式 AI 連動既有深假技術,可能導致風險加乘,未來 AI 創造的假文章、假程式、假郵件、假影片將大量湧現且難以辨識,進而影響到產生式 AI 的正確性。

企業資安除了標配防火牆與防毒軟體,可能還需透過「人工+工人智慧」打假工具及內容確認工程師等協作,才能有效降低 AI 的資安風險。林大馗建議,新興風險治理工具尚未成熟前,一般企業可建立「智慧型主動式」的防護能量。

林大馗舉例,像是公開影片添加專屬雜湊值或安全憑證,或利用深假技術尚未能完整學習受複製對象側面的技術缺陷,或在視訊會議請客戶往左或右轉頭 90 度,並維持一小段時間等,以確保來源真實性,並防止駭客暗中蒐集與惡意竄改,更可避免駭客用來欺騙其他消費者。

參考「零信任」資訊架構

林大馗說明,或擴大運用「MFA 多因子認證」讓消費者透過兩種以上的認證機制,才能取得授權,如再搭配實體安全金鑰等控制技術與避免單一持有設備,如手機取得所有認證資訊等方式,應可有效降低「深假技術」與「更智慧的駭客」帶來的威脅。

為降低駭客攻擊的的風險及提升使用者隱私安全性,林大馗認為,企業可以參考零信任(Zero Trust)資訊架構,避免以一次驗證後即可長時間與完全取用所有服務的傳統做法,改採依據不同的服務風險等級、搭配多次的驗證,降低單一識別方法失效的災損程度,確保適當的風險控管。

針對「深假進化」危機,林大馗提醒網路使用者,開始要建立「眼見不為憑」的警覺,一般民眾必須理解,過去習慣的「有圖有真相」有可能會變成「看片都上當」,網路收到影片時,應該收起對內容的好奇心,選擇安全可靠的科技應用廠商或服務,避免過度揭露個人資料,並強化防護認知。

(首圖來源:Unsplash

延伸閱讀: