美國每年投入 5 兆美元於醫療保健,占 GDP 五分之一,人均支出為其他富裕國家兩倍。儘管治療水準世界一流,三分之一成年人因費用過高而延遲就醫;過去 Google、IBM 等科技巨頭曾試圖顛覆醫療體系但鎩羽而歸。
如今在AI技術突破、患者信任度下降及監管趨於友善的背景下,新創公司再度挑戰這個龐大市場,2025年創投資金激增35%達140億美元,美國醫療轉型或許將迎來關鍵時刻。
醫療資訊取得的新模式
今年1月,OpenAI和Anthropic推出專攻健康領域的聊天機器人升級版,這些工具能用白話文解釋艱澀的檢驗報告,對於智慧手錶等穿戴裝置的資料將進行分析,抓出異常模式。用戶現在可以跟一個了解你的症狀、年紀和病史的AI直接對話,拿到量身打造的建議。
然而,當用戶把自己的症狀輸入AI,系統卻告訴他不用太擔心、先觀察看看就好,結果這人信了AI的話延誤就醫,病情急轉直下,這時該找誰負責?現行的醫療法規和產品責任法根本沒有針對這種新型態的服務提供清楚的指引,形成一個巨大的法律灰色地帶。
傳統醫療過失認定架構在這裡也派不上用場。過去要證明醫療過失,得先確立醫病關係的存在,但用戶跟AI聊天機器人之間算不算醫病關係?AI系統又該適用什麼樣的注意義務標準?這些問題還沒有明確答案,等於是把病患暴露在一個權益保障真空的危險情境。
資訊品質與AI模型風險
網路上充斥著大量的健康資訊,其中不乏錯誤百出、甚至可能致命的內容。AI模型在訓練過程中不可避免地會吸收這些垃圾資料,然後在用戶查詢時把這些未經驗證的說法包裝成看起來頭頭是道的專業建議。
美國FDA選擇了一條頗為大膽的路線,放手讓市場先跑,監管再慢慢跟上。今年1月FDA宣布放寬對部分穿戴裝置的管制標準,其負責人Marty Makary更放話說監管機構必須學會用矽谷的速度來辦事。這番表態無疑是對科技業伸出的橄欖枝,釋放出鼓勵創新的強烈訊號。
但這種鬆綁策略其實是一把雙面刃。過度僵化的事前審查會扼殺創新動能,讓美國在全球醫療科技競賽中失去先機,適度鬆綁可以讓有潛力的新技術盡早進入市場接受實戰檢驗;監理標準的下降將使病患暴露在難以預測的風險之中,等到出了大事再來亡羊補牢恐怕為時已晚。
建立AI醫療的監理與責任制度
從比較法來觀察,歐盟在這個議題上採取的是截然不同的路徑,歐盟AI法案對高風險AI應用設下層層門檻,醫療領域更被列為重點管制對象。兩相對照,美國目前的做法明顯偏向市場自律與事後究責,這或許有利於加速創新落地,卻讓消費者必須承擔更大的試錯成本。
當務之急是建立一套動態的監理機制,既能容許技術在可控範圍內快速迭代,又能透過持續的數據追蹤和結果分析及時揪出問題。同時立法者也應該認真思考,是否需要針對AI健康諮詢服務制定專門的法律,明確界定各方當事人的權利義務,特別是在發生損害時的舉證責任和賠償機制。
畢竟科技可以飛快前進,但病患權益的保障不能懸而未決。這場矽谷發起的醫療革命最終會走向何方,取決於立法者和監理機關手上。
(首圖來源:AI 生成)






