科技議題

首頁> 科技議題 - 智慧科技> 人工智慧白皮書--歐洲邁向卓越與信賴的方式
人工智慧白皮書--歐洲邁向卓越與信賴的方式 On Artificial Intelligence - A European Approach to Excellence and Trust (White Paper)
2020/02
European Commission
https://ec.europa.eu/info/sites/info/files/commission-white-paper-artificial-intelligence-feb2020_en.pdf
AI人工智慧發展迅速,無論是協助診斷或預防疾病、提高農耕效率、減緩氣候變遷、改善生產效率或提高人民生活安全,都大幅提升生活品質;但也隱含了決策不透明、性別或其他歧視、騷擾隱私或作為犯罪工具等風險。在全球競爭日益激烈的今日,歐洲勢必要採取穩固的方法,基於歐洲過去在能源、汽車、醫療設備的良好基礎以及法規架構所建立的價值,來部署AI發展策略。本白皮書旨在提出政策行動建議,冀望藉由兩大支柱:以政策架構串聯價值鏈打造卓越生態系,以及運用法規架構建立起值得信賴的AI生態系,讓歐洲能以AI及數據應用成為全球的創新領導者。
現今生活所產生的所有資料都是數據的來源,而歐洲過去擁有運算基礎建設的優勢,在各行業的機器人、製造業與服務業也居世界領先的地位,同時擁有許多卓越研究中心、創新的新創公司,如果能夠串聯硬體製造業與軟體服務業的價值鏈,便能強化其在產業生態系中的地位。過去3年來,歐盟在AI的研發與創新投資雖然較先前增加70%左右,但在公、私部門及區域間仍存有落差。以2016年歐洲在AI的投資32億歐元來說,相較於北美投資121億歐元及亞洲投資65億歐元,歐洲的投資規模顯得落後,必須聯合歐盟各會員國才能在AI價值鏈上發揮綜效。
雖然歐洲近期在網路平台的消費性應用較居劣勢,導致在數據資料的取得與價值創造也遭弱化。但是歐洲在次世代AI處理器的低功耗電子居全球領導地位,雖然現在市場主導者並非歐洲玩家,但在「歐洲處理器倡議(European Processor Initiative)」以及2021年即將開始的「關鍵數位技術聯合承諾(Key Digital Technology Joint Undertaking)」的助攻下應有斬獲。同時歐洲在工業4.0自動化以及交通運輸方面也擁有仿神經型態系統的解決方案,在量子電腦的突破發展也可望為學術界與產業界注入新量能。因此歐洲具有AI演算的基礎優勢,但是還需要介接不同的學門領域,如機器學習、深度學習、象徵推理,結合深度神經網絡,才得以提高AI的可解釋性而將AI潛能發揮到極致。
因此在打造卓越生態系的行動建議包括:
(一) 與會員國共商,在2020年底由歐盟執委會根據白皮書的公開諮詢結果,提出協調方案。
(二) 聚焦研究與創新社群的研究,歐盟執委會利用法規工具在數位歐洲計畫下建立卓越與測試中心,並以2021年-2027年的多年期財務架構協助水平歐洲(Horizon Europe)的研究與創新。
(三) 在技能方面,透過數位歐洲計畫的進階技能支柱的協助,鏈結領先大學與高教機構的網絡來吸引最好的專家與科學家,以提供世界領先的AI專業教育課程。
(四) 專注在中小企業,執委會與會員國確保在每一國都至少建立一個數位創新中心作為隨選AI平台,來協助與整合中小企業,並由數位歐洲計畫支持,歐洲投資基金也將挹注資金協助。
(五) 與私部門建立夥伴關係,在水平歐洲的脈絡下建立公私合營機制,合力發展AI大數據及機器人,同時鏈結上述數位創新中心。
(六) 加速公部門採用AI,執委會開啟公開、透明的部門對話,訂定行動方案將健康照護、鄉村行政、公共服務作業列為優先項目,同時協助AI系統的公共採購,同時也協助採購本身轉型。
(七) 確保數據資料的取得以及運算的基礎建設。
(八) 與理念相同國家建立合作關係,進而與國際AI完家共同建立法規與標準。
建立可信賴AI系統生態系的行動建議包括:
(一) 首先須定義問題,AI應用的主要風險是個資、隱私保護與反歧視等基本人權,以及責任體制的安全性與有效運作的風險。
(二) 在現行的AI相關法規架構下調整AI應用可能產生的風險,包括:現有法規的有效運用與強制執行、既定法規的限制、因應AI系統軟硬體整合產生的功能性改變,供應鏈不同角色的責任分配的不確定性、對安全概念的轉變等。
(三) 未來歐盟法規架構的範疇,將奠基於消費者保護、不公平商業操作、個資與隱私保護的嚴格法規架構之上,針對某些高風險、敏感領域,如健康照護、交通運輸、能源及某些公部門的特殊需求,制定領域限定的法規。
(四) 上述特殊需求在法規上強制要求的項目包括:用來訓練AI系統的資料是安全、不帶歧視且個資受到保護,資料必須妥善歸檔保存,提供的資訊必須正確且充份告知民眾,反覆測試系統的穩健性與準確性,最後必須由人類把關監督,針對遠距生理資訊的蒐集與應用另訂特殊要求。
(五) 針對AI系統中的敏感資訊接收人身份是否可靠,其責任歸屬以及地區法規的差異必須特別界定。
(六) 處理高風險AI應用必須事先接受確認評估,以瞭解是否遵循前述強制要求項目,並且在事後接受合格的國家主管機關約束。
(七) 基於經濟層面考量,可以自主標示為非高風險AI應用。
(八) 訂定AI的治理架構必須確保最多利害關係人參與,提供既有的醫療、金融、製藥、航空等法規架構,以避免重複,並與國家主管機關保持密切合作以接受監督。
張國鈞
英文