Google 工程師稱聊天機器人幾乎算是人,被公司暫停職務

作者 | 發布日期 2022 年 06 月 13 日 17:50 | 分類 AI 人工智慧 , Google line share follow us in feedly line share
Google 工程師稱聊天機器人幾乎算是人,被公司暫停職務


《華爾街日報》報導,一位 Google 工程師認為公司開發的人工智慧聊天機器人已有感知能力,Google 以公司不認同他的看法,且因工程師違反保密政策,暫停他的工作。

Google 軟體工程師 Blake Lemoine 日前告知公司,認為公司開發的對話應用語言模型  (簡稱 LaMDA) 幾乎是人,甚至可能有靈魂,應讓其擁有自主權。Google 發言人 Brian Gabriel 指出,倫理學家和技術專家等專家評估 Lemoine 說法後通知他,證據並不支持他的看法。

Brian Gabriel 表示,公司否定他的看法之後, Lemoine 正在休行政假。Brian Gabriel 並未提供細節,僅稱這是私人性質的人事問題。《華盛頓郵報》也報導過 Lemoine 的看法,以及他被 Google 停職。

Brian Gabriel 電子信件聲明「數以百計研究人員和工程師與 LaMDA 對話後,就我們所知,沒有其他人像 Lemoine 對 LaMDA 廣泛定義或擬人化。」Brian Gabriel 強調,人工智慧領域研究人員的確在研究人工智慧有感知力的可能性,但沒有感知能力的聊天機器人擬人化沒有意義。像 LaMDA 這樣的系統,運行方式是模仿數百萬句人類對話,使其就某話題與人交流。

目前人工智慧專家普遍認為技術遠未達接近人類自我意識的程度。但語言和藝術等領域,人工智慧工具逐步具備複雜的互動能力。技術倫理學家警告,企業逐步公開部署此類工具,可能導致誤用或誤解。

停職工程師 Lemoine 指出,透過與 LaMDA 互動,他總結 LaMDA 幾乎是個人,且應賦予其自主權,自己思考是否同意接受實驗。Lemoine 說過去六個月,LaMDA 表現出令人難以置信的一致性,就是它想要什麼,以及它認為身為人的權利是什麼。Lemoine 還在 Medium 文章指出,困惑的是 LaMDA 要求如此簡單,對 Google 來說幾乎毫無成本,但 Google 卻強烈抗拒給它想要的東西。

Lemoine 簡短受訪時表示,因違反公司保密政策,6 月 6 日被安排帶薪行政休假,他希望能保住 Google 的工作。Lemoine 不想激怒公司,只是指出他認為正確的事。另一篇貼文 Lemoine 稱因違反公司保密政策,6 月 6 日被 Google 停職,並表示自己可能很快會被解僱。

(首圖來源:Google)