大摩:現階段 ChatGPT 可放大工作效率,難取代人

作者 | 發布日期 2023 年 02 月 24 日 13:45 | 分類 AI 人工智慧 , 機器人 , 軟體、系統 line share follow us in feedly line share
大摩:現階段 ChatGPT 可放大工作效率,難取代人


聊天機器人「ChatGPT」這些基於人工智慧(AI)的文字生成系統,目前仍有產生「幻覺」(hallucination)的疑慮,也就是創造非事實的內容。摩根士丹利(Morgan Stanley、通稱大摩)預測,未來幾年 ChatGPT 仍會偶爾幻想出錯誤答案。

Business Insider 23日報導,大摩由Shawn Kim帶領的分析師團隊22日發表研究報告指出,在需要高度精確的任務方面,ChatGPT仍偶爾會出現幻覺,生成看似具說服力、實際卻是錯誤的答案。

報告稱,「現在這個階段,最好讓受過高等教育的用戶先行揪錯,把生成式AI (Generative AI)應用程式當作放大勞動效率的方式,而非直接取而代之。」

由OpenAI開發的ChatGPT近來開放給全球民眾使用後爆火,在促使AI類股飆漲的同時,也迎來批判的聲浪。學者警告,ChatGPT等AI平台可能散布錯誤資訊。Kim認為,「未來幾年,正確性會是需要持續面對的挑戰」。

不過,報告稱,AI平台偶有錯誤的問題或許有解,可將ChatGPT等大型語言模型(large language model, LLM)連結至特殊網域來確認特定資訊。

與此同時,ChatGPT等工具有望透過邊緣運算大幅改善。Kim指出,若要讓更多程式運用AI,則須在邊緣裝置運作,但這些裝置內建的繪圖處理器(GPU)通常效能能力不高。

所謂邊緣運算是指靠近現實世界資料創造源的運算力。Kim表示,透過邊緣運算執行AI,不但能降低延遲度(相較於雲端運算),也較不昂貴,還能保有隱私,並對消費者更加友善。

微軟(Microsoft Corp.)2月展示支援AI的Bing搜尋引擎beta測試版後,測試者很快就發現問題,Bing AI有時語帶威脅、有時提供怪異且毫無幫助的建議,且打死不認錯,甚至宣稱愛上使用者。測試者也發現,這款聊天機器人有一個名字為「Sydney」的隱藏人格(alternative personality)。

CNBC、Forbes 2月16日報導,部分AI專家早已警告,LLM會有幻覺等問題,也就是LLM可能會捏造事實。有些人擔憂,高級的LLM可能讓人類誤以為他們有知覺,甚至鼓勵人類傷害自己或他人。

(本文由 MoneyDJ新聞 授權轉載;首圖來源:pixabay