劍橋大學的哲學家湯姆·麥克萊蘭(Tom McClelland)近日發表一項引人注目的觀點,指出我們可能永遠無法確定人工智慧(AI)系統是否具備意識。這個論點在 18 日的劍橋研究新聞中報導,並引發廣泛討論。
麥克萊蘭強調,當前我們對意識的理解仍然存在著巨大的知識鴻溝,這使得我們無法可靠地測試AI是否具備意識。他指出,意識的內在主觀性與我們能夠觀察到的行為之間存在著根本的區別,這使得未來的測試方法可能無法填補這個空白。
隨著AI技術的快速發展,許多公司正在投入大量資金以追求通用人工智慧(AGI),這些系統旨在模擬人類的思考和推理能力。儘管有些人認為意識的AI可能很快就會出現,但麥克萊蘭警告說,這種情況可能會導致倫理和法律上的風險。他指出,開發者可能會利用這種不確定性,聲稱他們的AI具備意識以逃避責任,或否認其意識以避免道德義務。
在討論中,麥克萊蘭提到,意識本身並不自動使AI具備倫理重要性。他強調,只有當AI具備感知能力和情感時,才會涉及倫理問題。他舉例說,自動駕駛汽車能夠感知路況,但如果它們開始對目的地產生情感反應,那將是另一回事。
麥克萊蘭的研究還引發了公眾對AI聊天機器人的關注,許多人向他發送信件,聲稱他們的聊天機器人具備意識。這使得意識問題變得更具體,因為人們對於是否應該賦予這些機器權利產生疑問。他指出,這種情感連結可能會導致存在上的危險,尤其是在科技行業的誇大宣傳下,讓人們對AI的意識產生錯誤的認知。麥克萊蘭的觀點引發了對於AI意識的倫理和政策辯論,並強調了在不確定的情況下,對於潛在的機器痛苦應採取的預防措施。
(首圖來源:pixabay)






