中央銀行近期針對金融科技應用示警,指出 AI 導入信用評分系統時,若過度依賴種族、宗教或性別等敏感數據,將引發嚴重的道德與歧視問題。目前金融機構雖積極運用 AI 提升審核效率,但其「黑箱」決策機制使得信用審核過程缺乏透明度,一旦演算法產生偏見,可能導致特定族群被排除在金融服務之外。金管會對此已要求銀行公會研議將生成式 AI 等新興科技納入自律規範,強化資安與公平待客原則,確保技術進步不以犧牲消費者權益為代價,並將監理科技納入金檢重點。
金融機構追求自動化審核的背後,核心動機在於降低人力成本並擴大客群覆蓋率,然而 AI 偏見卻可能演變成系統性風險。當演算法強化了歷史數據中的社會偏見,不僅會損害銀行品牌聲譽,更可能面臨監理機關的重罰。這股趨勢正推動產業轉向「可解釋人工智慧」(XAI)的研發,金融業者必須在模型精準度與公平性之間取得平衡。未來,具備偏見檢測與透明度證明的 AI 解決方案將成為市場剛需,這不僅是技術升級,更是金融業在數位轉型中重塑社會信任與落實普惠金融的關鍵轉折點。