焦點報導

首頁> 焦點報導清單> 歐盟人工智慧法案現況與風險層級介紹

歐盟人工智慧法案現況與風險層級介紹

薛孝亭、洪立萍/ 發布日期:2023/08/14/ 瀏覽次數:543

一、前言

人工智慧(AI)為近期迅速發展的新興科技,其重要性與影響力不言可喻。人工智慧能為社會帶來許多好處,如可改善疾病診斷的準確性、提升運輸工具的安全性、優化工業生產效率、提高再生能源發電預測準確度等,然而亦可能產生嚴重的風險,如創造出以假亂真的錯誤資訊、放大固有偏見與歧視,甚至可能侵害基本人權與人身安全。因此,為了保護人民的健康、安全、基本權利,促進以人為本與值得信賴的人工智慧發展與創新,歐盟執委會(European Commission)在2021年4月提出「人工智慧法(Artificial Intelligence Act)草案」。該草案制定了人工智慧的監管框架,依照人工智慧系統風險層級予以相對應的監管方式。2023年6月歐洲議會(European Parliament)通過該項草案的修正案。本文將依據近期通過之修正案,介紹目前人工智慧法案所規劃之監管框架。

 

二、風險層級與管理機制

人工智慧監管框架將人工智慧系統依照風險嚴重程度分成四大風險層級,分別為不可接受風險(Unacceptable Risk)、高度風險(High Risk)、有限風險(Limited Risk)以及低風險或無風險(Minimal or no Risk),以下分別闡述各風險層級的人工智慧類型以及監管方式(各風險層級之人工智慧系統摘要請參閱圖一)。

 

 

(一) 不可接受風險(Unacceptable Risk)
不可接受風險之人工智慧系統會對民眾的安全、生計與基本權利構成嚴重威脅,因此將會嚴格被禁止使用。此類人工智慧系統包括:
1.以引導潛意識或故意操縱或欺騙等方式,達到扭曲個人或群體行為之目的(以治療為目的可除外),或削弱其做出明智決定的能力。
2.利用個人或特定群體之弱點(如人格、經濟狀況、年齡、身體或精神能力等特徵),扭曲個人或群體行為,進而導致該人或另一人受到重大傷害。
3.根據自然人或群體之社會行為或個人特徵,進行社會評分或分類。前述評分會導致自然人或群體遭遇不公平對待。
4.在如車站、街道、商場等公共場所使用即時遠距生物特徵(如臉部、指紋、虹膜等)識別。
5.根據自然人的所在地點、過去犯罪行為等個人特質或特徵,預測其犯罪與再犯罪風險。
6.從互聯網或監視影像中無針對性地擷取臉部影像,建置或擴建臉部辨識資料庫。
7.於執法、邊境管理、工作場所和教育機構領域等場所,以AI工具推斷個人的情感或情緒。

(二)高度風險(High Risk)
目前屬於高度風險之人工智慧系統涵蓋用於以下應用領域:
1.自然人生物特徵識別和分類
情緒辨識系統等用於自然人生物特徵識別的人工智慧系統(不可接受風險範疇之人工智慧系統除外)。
2.關鍵基礎設施管理和營運
預期作為道路、鐵路與空中等交通場域,以及水、煤氣、暖氣、電力供應、關鍵數位設施等基礎設施之安全與營運管理的人工智慧系統。
3.教育和職業培訓
會對自然人進入教育和職業培訓機構之錄取與分配決定產生重大影響,或用以評估教育和職業培訓機構的學生以及入學所需的測試之人工智慧系統,包括能用以偵測考試期間禁止行為的人工智慧系統。
4.就業、工人管理和自雇者工作機會
用於招聘或徵才之人工智慧系統,尤其是職缺廣告刊登,或作為資歷篩選與面試評分等用途。另外,用於評估員工績效表現以作為升遷、任務分配、資遣等決策參考之人工智慧系統亦屬於該領域範疇。
5.公私部門或單位所提供之人基本服務及社會福利
此領域之人工智慧系統有:評估自然人社會福利與服務資格,包括醫療保健服務與居住、供電、網路等基本服務,以及福利與服務內容調整與資格撤銷;評估信用度或建立信用評分(檢測金融詐欺除外),包括評估自然人參與健康與人壽保險的資格;評估消防與醫療緊急調度之優先度,包括報案分析與分類系統、緊急醫療分診系統。
6.執法
執法領域之人工智慧系統涵蓋以下用途:測謊或具有類似功能之工具;評估刑事案件調查或起訴流程中證據的可靠性;於偵查、調查或起訴過程中對個人民眾進行行為推測。
7.移民、庇護和邊境管理
該領域之人工智慧系統涵蓋:測謊或具有類似功能之工具;分析欲進入或已進入領土之民眾可能產生的風險,包括安全風險、非正常移民風險或健康風險;驗證簽證相關文件之真實性;用以審查庇護、簽證和居留許可申請相關文件之真實性;監視、監測或分析邊境管理之相關數據;預測移民流動或過境之趨勢。
8.司法與民主程序
司法與民主程序領域之人工智慧系統包括:能協助司法當局研究與解釋法律以及事實(fact)之人工智慧系統;能影響投票結果或投票權之行使的人工智慧系統;於社群媒體平台使用之個人化推薦系統。

前述高度風險人工智慧系統需要遵守嚴格的安全規範,包括:建立風險管理機制,且該機制需在人工智慧系統的生命週期中持續運作與更新;須能自動記錄活動,確保可追溯性;具備適當的人類監督措施,可由人類進行監督,以減少風險;具備一定程度的準確性、穩健性、安全性和網絡安全性,並在整個生命週期中有一致性的表現。
另外,高度風險人工智慧系統進入市場前,亦必須向監管機構提供技術文件,包括預期目的、產品開發與風險管理等流程的詳細描述。

(三) 有限風險(Limited Risk)以及低風險或無風險(Minimal or no Risk)
有限風險人工智慧系統包含:聊天機器人,以及能創造出文字、圖像或影音等生成式AI系統(如ChatGPT)。有限風險人工智慧的規範重點為資訊透明,必須讓使用者及時且明確地知道自己正在跟AI互動,或正在觀看與使用AI創造的內容,並且揭露製作者、監督者等資訊。此外,該類人工智慧系統亦不能阻止執法機構檢測深度造假(deepfake)或進行刑事犯罪調查。
至於低風險或無風險人工智慧系統包括人工智慧電玩遊戲、垃圾郵件過濾器等。此類人工智慧系統可自由使用。

 

三、結語

相較於歐盟執委會於2021年提出的人工智慧法案草案(以下簡稱草案),2023年歐洲議會的修正案擴大了高度風險與不可接受人工智慧系統的範疇。例如即時遠距生物特徵識別系統、詐欺預測系統等,在草案中原屬於高度風險範疇,但由於該項應用具有侵犯人身自由或加固歧視等疑慮,於修正案中,則被調整為不可接受風險;另外,草案中未提及的社交媒體推薦系統,於修正案中被新增至高度風險範疇。
除了風險範疇調整外,節能與環境友善亦是該修正案新增的重點。例如修正案46a條明確指出人工智慧系統應考量最先進的方法和適用標準,以減少能源、資源使用與浪費,並且提高能源使用效率和系統整體效率。
未來該修正案將會於部長理事會(Council of the European Union)內進行協商,目標於2023年底前確認最終版本的人工智慧法案。

延伸閱讀
資料來源