焦點報導

首頁> 焦點報導清單> 人工智慧之倫理、治理及政策挑戰

人工智慧之倫理、治理及政策挑戰

張國鈞、李美慧/ 發布日期:2019/04/17/ 瀏覽次數:134
AI不同於過去網路、汽車或其他工業革命,由於其可能因被人類賦權產生破壞性創新而帶來不可預知的挑戰,必須要有特定的發展策略與規範,以免引發倫理上的問題。「歐洲政策研究中心(Centre for European Policy Studies, CEPS)」為瞭解AI的國際發展與可能引發的革命,開始討論機器人的市民法(Civil Law),召集任務小組以探討AI能為歐洲做什麼、歐洲又能為AI做些什麼,以及如何透過法規系統改革符合歐洲2030議程,並提出因應建議。

目前的AI研究中,有60%的研發投資集中在機器學習領域,其中又以深度學習最受矚目,並已創造出許多新的經濟與社會價值。例如:圖形處理器(graphics processing unit, GPU)的出現滿足了AI深度學習對平行運算能力的需求,接續又發展張量處理器(Tensor Processing Units, TPU)讓平行運算的能力增強數倍。未來即使摩爾定律的速度下降,仍能快速運算,但是若管理不善,AI的社會應用恐面臨有如冬天般的蕭條。

對於AI的應用,必須小心謹慎,目前的濫用案例,包括:假新聞與網路攻擊等。此外,新興的風險尚包含:利用AI深度學習偽造人體圖像的深度偽造,或是透過分散的網路系統發動群蜂戰術攻擊(Swarming Attack),甚至可能對穿戴式裝置、植入物或聯網裝置發動各種攻擊。雖然各國對於AI尚無公認的治理標準,但也未阻止任何國家投入這場危機競賽。在無意或偏見下產生的歧視或不平等,也有可能導致人權受到侵犯,但若能善加運用AI則可以解決許多社會議題。

發展AI必須特別留意需具備三大特性:
一、互補性:AI應是補足人類智慧之不足,而非取代人類。
二、責任與信任感:掌握權力就必須負起責任,開發AI之前必須衡量公平性、可究責性、透明性及可解釋性。在開發AI時必須確保倫理融入設計中,利用方法或工具使AI具有道德推理能力,並確保開發者或製造者的正直與誠信。
三、永續性:必須符合社會永續性,以及環境與經濟永續性。

從超級電腦到量子電腦各國已展開一場國際角力賽,最後在AI競賽中的領先者,勢必成為全球的統治者,而地緣政治的關聯性是無可避免。國際AI角逐賽中最受矚目的當屬美國與中國,中國甚至發下豪語,要在2030年成為全球AI的領導者,推出的政策方案包括著重精準與敏捷的「中國製造2025(Made in China 2025)」、偏重智慧製造的「Internet +」、聚焦機器人的「Robot Industry Development Plan (2016-2020) 」以及2017年推出的「New Generation AI Development Plan」等,期望2025年能在AI研發產生重大突破,並在2030年征服全球市場。

而美國因為有科技巨人以及大學在AI研發的大量投資,因此美國政府在這一場人工智慧大戰中傾向採取不干預(“hands-off” approach)市場發展的策略。2018年5月白宮宣佈將以移除創新障礙、支持勞工、促進公共研發為主要策略。國防高等研究計畫署(DARPA)發佈一項20億美元的投資計畫「AI Next」,以解決目前AI的瓶頸技術。此外,日本對機器人與AI在社會的整合應用最為積極,推出「Society 5.0」,以提高使用者為導向的生產力,同時回應高齡社會的健康福祉、行動安全、環境友善、資訊安全等挑戰。

有別於中國及美國投資產品以提高國際競爭力的策略,歐洲更著重於堅守AI倫理與法規的原則,但是必須避免歐洲在AI國際賽局中墊底。因而歐盟執委會於2018年4月19日公告推動產業數位化(Digitising European Industry)新措施,以落實歐盟單一數位市場,期能帶動歐洲產業、中小企業、研究機構及政府部門充分運用新技術,促使歐盟在科技及數位經濟保持全球領先地位。

在全球亟待制定AI規範與準則的時刻,歐盟執委會的諮議機構「科學與新技術倫理諮詢小組(Group on Ethics in Science and New Technologies)」在2018年發表一份有關於AI、機器人以及自動系統的宣言,強調AI在歐洲的核心價值,未來倫理規範是AI開發者、販賣者、經銷商,甚至是使用AI的機構都必須遵循的原則。
延伸閱讀
資料來源