生成式人工智慧(AI)運作原理常以比喻解釋,OpenAI 執行長奧特曼(Sam Altman)推廣文字計算機比喻備受關注。他將 AI 工具比喻為計算機,突顯高效處理語言能力,當然這比喻並非完美,外界批評他掩蓋 AI 偏見、錯誤及倫理挑戰。而生成式 AI 到底如何模擬人類說話?背後規律值得探究。
語言用字有規可尋
日常語言看似隨意,其實有跡可尋。歐美點一杯「濃茶」,會說「Strong tea」而不是「Powerful tea」,powerful 多形容力量、影響力、藥效,如「powerful engine」或「powerful drug」,如果說「powerful tea」就很怪。且歐美社會一般講「鹽與胡椒」而非「胡椒與鹽」。這種詞序偏好源自日常用語頻率,語言學稱為搭配,反映人類憑直覺選詞組句,等於無形計算。
大型語言模型如 GPT-5及 Gemini 善於捕捉此類直覺,分析詞語關係產生流暢句子,乍看就如出於人手,有些更能打動人心。
但生成式 AI 並非純粹電腦科學產物,與語言學淵源極深。技術源於冷戰時期俄英翻譯工具,後來受語言學大師 Noam Chomsky 啟發,焦點轉向破解人類語言規律。從最初編程語法規則,到依據數據分析詞序頻率,再到現今以神經網路產生自然語言,AI 都以計算概率為核心。
AI 本質為何易誤解?
AI 企業常用思考或推理等詞語形容生成式 AI,令人誤以為 AI 有人類的理解力。但 AI 還只是計算工具。舉例 AI 可判斷兩人相愛,卻不知道愛是什麼,也無法理解用戶真正意圖,只會模擬說話模式。
文字計算機比喻很簡單明瞭,但不能盡述生成式 AI 的複雜性。這項技術擅於產生動人內容,但本質只是計算,而不是真情。大眾應審視 AI 能力與局限,數位時代善用潛力,同時珍惜人際溝通的真摯性。
(本文由 Unwire HK 授權轉載;首圖來源:shutterstock)






