根據外媒 TechCrunch 近日看到的內部信件顯示,協助改善 AI 聊天機器人 Gemini 的外包商將其答案與競爭對手 Anthropic Claude 所產生的答案進行比較。
負責對模型輸出準確性進行評估的 Gemini 外包商根據多項標準(如真實性和冗長性),對他們看到的每個 AI 回應進行評分。TechCrunch 報導指出,外包商每次收到文字提示,最多有 30 分鐘來確認 Gemini 和 Claude 的答案誰比較好。
內部對話顯示,外包商注意到 Claude 的 AI 回應似乎比 Gemini 更強調安全。「Claude 的安全設定是最嚴謹的」,一名外包人員說。因為某些情況下,Claude 不會回應不安全的提示指令。
Anthropic 的商業服務條款禁止客戶在未經同意情況下,存取 Claude 來「建立競爭產品或服務」或「訓練競爭 AI 模型」。但實際上,Google 是 Anthropic 這家新創的投資人之一,有了這層關係,Google 利用 Claude 改善自家 Gemini 似乎說得通。
Google DeepMind 發言人被 TechCrunch 詢問,未透露 Google 是否已經獲得 Anthropic 同意來使用 Claude,僅表示 Google DeepMind 確實比較模型輸出來進行評估,但不會以 Anthropic 模型訓練 Gemini。
(首圖來源:Google Blog)