面對日益嚴重的人工智慧(AI)心理健康危機,OpenAI 迅速採取行動,推出四步驟管理策略,對公司領導者是重要參考。OpenAI 系統若檢測到單一用戶多次自殺訊息時會立即行動,除了聘請緊急準備主管,也安裝即時內容分類器,並產品嵌入強制休息提醒。OpenAI 執行長 Sam Altman 承認,公司模型「開始出現真正的挑戰」,特別是心理健康方面,也應成為其他組織的警鐘。
這問題不限科技公司,而是擴散至各行各業辦公室。微軟研究顯示,全球75%知識工作者會使用AI工具,但53%擔心自己看起來可被取代,52%會隱瞞有使用AI。若領導者無法看到,便無法有效管理。
更重要的是,工具用途已發生變化。員工不再只將ChatGPT和Claude等工具用於草擬和摘要。Sentio大學研究,48.7%有心理健康問題的用戶尋求轉向AI支持,過半使用AI工具的員工工作時卻未獲得正式批准。這些聊天機器人成為未經授權、未經監控且日益依賴的知己。
微軟AI執行長Mustafa Suleyman警告,所謂「AI精神病」逐漸出現──用戶對機器產生妄想,形成模糊工具與關係的界限。這些並非少數案例,而是重塑人類在組織發展角色的跡象。
從OpenAI的公司實踐可總結三個管理原則。
首先,應有防護措施,而非政策備忘錄。OpenAI系統直接建立即時安全防護措施。操作框架要求重要行動前先人工確認。模型規範現在明確指導脆弱用戶尋求現實世界支持。企業領導者應該要求每個採購工具都有同樣功能,而不只是披著企業標誌的消費者等級產品。
其次,人類技能發展必須設計好,而非只停在假設。當管理者將回饋、衝突解決和團隊溝通委託給自動化工具時,雖然節省時間,卻無形中侵蝕了判斷力。麥肯錫研究證實,持續採用靠的是有意識的提升技能,而非被動使用。OpenAI學院正是基於對以往工作轉型有效與否的研究而建立的免費AI素養計畫。
第三,透明度是留才策略。近三分之一使用AI工具的員工隱瞞不說,這種行為顯示公司文化的失敗,而非只是不合規定。創造開放政策、正常化對話並獎勵人類判斷與工具熟練度的組織,才能在技術技能持續貶值時留住人才。
OpenAI快速自我修正之所以算成功,是因已建立檢測問題的基礎設施,多數組織卻沒有。每位領導者應該思考的問題不是員工是否有用AI工具──他們確實有用。問題在於,組織是否確實掌握AI工具用在哪裡,以及員工是否悄悄被AI取代。最值得保護的資產仍然是人類。
(首圖來源:Unsplash)






