更像與真人聊天,OpenAI 發表新一代語言模型 ChatGPT

作者 | 發布日期 2022 年 12 月 02 日 16:30 | 分類 AI 人工智慧 , 機器人 line share follow us in feedly line share
更像與真人聊天,OpenAI 發表新一代語言模型 ChatGPT


AI 聊天機器人再進化。AI 研究機構 OpenAI 推出新一代語言模型 ChatGPT,能以「更貼近一般人」的對話方式與使用者互動,如回答問題、承認錯誤、質疑不正確的提問或拒絕不當要求等。ChatGPT 目前為研究預覽階段,供用戶免費試用,使用者輸入的內容會成為 AI 訓練素材,因此不要輸入個人隱私或敏感字詞的內容。

ChatGPT 是基於 GPT-3.5 模型微調而成,以語言服務模型 InstructGPT 為基礎,透過人類回饋增強學習(RLHF)訓練該模型,不過數據設置略有不同。能以對話回應使用者問題,基本上能回答許多瑣事。經實測詢問 ChatGPT 機器人若沒有錢該怎麼辦,系統數秒就能回答,提供發問者實質建議。

另外,OpenAI 測試後發現 ChatGPT 也可以 debug 程式碼。開發人員貼一段存在 bug 的程式碼,詢問 ChatGPT 除錯方法;而 ChatGPT 會透過對話詢問開發者更多資訊,以提供具體有效的解法。

研究人員說明,ChatGPT 對措辭非常敏感。當使用者發問而未獲得正確答案或回應時,可嘗試調整措辭;只要稍微改寫句型,ChatGPT 就能正確回答。

OpenAI 也指出,ChatGPT 回應仍未完美,因有時 ChatGPT 會有看似合理卻不正確或荒謬的答案。研究人員認為原因有三種,除了在增強訓練時缺乏事實來源,或是監督訓練時被誤導,訓練模型過度謹慎反而拒絕回答可能正確回答的問題。

另外,有時 ChatGPT 回應會過度冗長或不停重複部分詞語,研究人員說明是訓練資料偏差。人工智慧訓練者通常喜歡全面回答,加上常見模型過度最佳化,導致 ChatGPT 重複語句。

研究人員補充,理想狀況,當使用者提出模稜兩可問題時,AI 模型會試著發問以釐清問題,不過目前 AI 模型通常傾向猜測使用者意圖。

除此之外,ChatGPT 回應問題時,有時仍會出現偏見或提出有害回應(如假資訊)。研究人員表示,以盡量讓 ChatGPT 拒絕不當請求,且透過 Moderation API 警告或阻擋特定不安全內容;不過仍預期有部分遺漏,因此會持續收集使用者回饋並改進系統。

(首圖來源:OpenAI