新知特寫

首頁> 新知特寫> 醫療人工智慧的責任風險
醫療人工智慧的責任風險 Understanding Liability Risk from Healthcare AI
醫療領域中,人工智慧(AI)擁有巨大潛力,但相對的風險也引發嚴重關切。律師們擔心醫療機構可能面臨的責任和訴訟,必須遵守不斷發展的法律。其中,最急迫的法律問題是:當AI工具導致患者受傷時,責任歸屬問題。對於這些責任風險的認識將直接影響醫生和醫療機構使用AI工具的意願,可能導致保守決策,限制了醫療領域的創新。 史丹佛大學人本人工智慧研究中心(HAI)的一份研究報告對法院在處理涉及軟體錯誤案例時所面臨的挑戰進行了審視,並提出了針對醫療機構的風險管理建議,特別關注擁有「人在回路」(human in the loop, HITL)功能的AI應用程式。這種應用程式在人工智慧系統中加入了人類參與和監督的機制或環節。報告的目標是為醫療機構、醫生、患者和政策制定者提供支持,以確保醫療人工智慧工具的安全有效應用,並推動醫療保健領域的永續發展。報告的重點主要包括: (1) 法律責任焦點:人們對於AI在醫療領域帶來的潛力持樂觀態度,但對於法律責任的擔憂感到憂心。當使用AI工具導致患者受傷時,責任歸屬成為焦點。 (2) 案例分析:很少有法律案例涉及由AI或軟體系統導致的身體傷害。研究分析了51個此類案例,發現責任索賠通常與軟體缺陷導致的護理或資源管理問題、醫生在護理決策中使用軟體,或醫療設備中的軟體故障有關。 (3) 法律挑戰:軟體和AI模型的抽象性和模糊性,使得按照傳統產品責任規則追究軟體開發者責任面臨挑戰。在侵權法規則適應AI影響之前,原告可能難以主張或獲得勝訴。 (4) 風險評估框架:提供一個風險評估框架,將幫助醫療機構根據每個工具的責任風險仔細評估其實施和監測醫療人工智慧工具的方法。監管醫療人工智慧應考慮不同程度的傷害風險。 (5) 合作減少風險:與人工智慧開發者仔細協商授權合約是醫療機構減少責任風險的重要途徑。
2024/03/28
https://hai.stanford.edu/policy-brief-understanding-liability-risk-healthcare-ai
Stanford Institute for Human-Centered Artificial Intelligence (HAI)
賴允政