焦點報導

首頁> 焦點報導清單> Future of Life Institute 因應人工智慧風險之政策建議

Future of Life Institute 因應人工智慧風險之政策建議

吳思萱、洪立萍/ 發布日期:2023/06/30/ 瀏覽次數:435

一、前言

現在,已有不少知名人工智慧研究者指出,若再不細思我們眼前人工智慧的發展,恐怕將面臨不少風險。如當前人工智慧發展已經有能力創造出以假亂真的錯誤資訊,造成社會分裂;也有可能放大固有的偏見與歧視、邊緣化弱勢族群和多元觀點;又或是破壞勞動市場和政治性組織的穩定性,導致權力集中到非民選的少數商業組織等問題──有鑑於系統可能以目標的達成作為其核心重點,過程中有可能會忽略人權、人身安全甚至是人類生存的價值,從而造成難以想像的災害。

另外一方面,由於目前人工智慧的發展乃以商業競爭為主體,難以顧及公共利益或社會價值等層面,因此政策的介入與監督是必要的。但是,要建立完善的法律制度來監督全新的科技技術,需要對科技帶來的影響有全面性的了解,而法律的修訂同樣曠日廢時。因此,Future of Life Institute(生命未來研究所,下稱FLI)呼籲,我們應放緩人工智慧發展的腳步,花費至少六個月時間,仔細評估人工智慧可能帶來的風險、訂定應對措施。下文將陳述FLI提出的隱憂,以及七項作為應對策略的建議。

 

二、人工智慧的風險與應對

 

(一)授權第三方進行人工智慧的審核與認證
綜觀目前的人工智慧發展,其影響層面已經不僅止於網路上的數據資料,更可以從物質、心靈和經濟影響到人類的現實生活,影響範圍也從個人擴及到群體甚至社會。比如「信用評分系統」就有可能影響到不同族群在社會、經濟等層面受到不同的待遇。
為了應對人工智慧時代的來臨,歐洲已經訂定出「人工智慧法」草案,當中即要求被評定為「高風險」的人工智慧系統必須接受獨立第三方組織審核,才能夠投入使用或是進行修改。而指定由第三方組織則是為了避免利益衝突的發生。

(二)管控高速運算資源(Computational power, 或譯為算力)
目前人工智慧的發展取決於系統的運算能力。最先進的技術──如OpenAI的GPT-4或Google的PaLM,都必須使用數以千計的晶片進行幾個月的運算。高昂的成本導致僅有少數人能夠投入此領域;但是相對來說,如能管控關鍵硬體元件──如晶片的供應,則有可能在一定程度上管控人工智慧系統的構築。
以美國為例,2022年,美國商務務部工業與安全局針對相關電子零件設置了出口限制,透過產業鏈上下游供應者供貨的管理,監督美國境內或是進出口限制範圍內出現未經授權的大型系統。雖說如此,仍有不少公司透過雲端運算等手段進行人工智慧系統的構築,成功避開這些管控。
FLI認為,政府還可藉由將「認識客戶政策」(Know your customer, 簡稱KYC)擴展到高效能運算元件的供應商、大量雲端運算的供應商,透過完整的供應鏈資訊,控制並減少風險的產生。

(三) 建立國家層級人工智慧管理單位
由於人工智慧的快速發展已改變人類的生活模式,政府也需要依據這些改變,重新檢視當前法律的不足之處、進行積極的管理。舉例來說,英國已經建立人工智慧辦公室;歐洲正在立法籌備人工智慧委員會。FLI認為,各國應加速完備相關管理機構的法源依據,其轉變為國家層級的專責單位。人工智慧管理單位的設立,將有助於透過專業知識的觀點來建立適切的管理辦法,降低不健全的管理政策帶來的風險。對此,布魯金斯研究所的Anton Korinek曾就管理人工智慧提出一藍圖:

(1) 監督人工智慧之管理規則與單位:針對應納入管理的人工智慧進行定義(如規模或涉及的領域),確認其應由哪個領域的管轄單位(例如:FDA)進行管理並監督其發展。
(2) 授權利害相關人進行影響評估:由人工智慧投入使用的領域專業人員來評估其對人民權利、福祉以及社會的影響。以生物醫學領域的人工智慧系統來舉例,評估人員必須評估其創造出新的病原體之可能性。
(3) 建立執法單位來應對風險、預防人工智慧的濫用。
(4) 公開發布人工智慧評估報告:讓顧客、工作者、人工智慧開發者能提前了解相關問題。公開透明將有助於學界針對一般問題了解趨勢、並提出解決方案。

除上述內容,FLI也另外建議,由各國管理單位建立人工智慧安全事件資料庫。例如非營利性的人工智慧事件資料庫(AI Incident Database)或是歐盟人工智慧法下即將成立的歐盟人工智慧資料庫。

(四)建立責任歸屬與究責框架
由於人工智慧模型開發完成後,仍然能夠持續進行學習、改變,其整體系統具動態演化的可能性;或是人工智慧在開發者未曾預期的情境下執行;又或者考慮到人工智慧系統之間的連結、服務支援,以上特性使得人工智慧系統,在其達成指令的過程中造成危害時,相對於傳統的商品或是軟體服務,以現行的法律框架將很難對人工智慧相關的所有人員進行責任歸屬並究責。

FLI建議,應盡快建立起人工智慧造成之危害的責任歸屬,並藉由罰款督促利益趨向的人工智慧開發者更加謹慎。其次,也希望透過責任歸屬框架,讓人工智慧開發者與使用人工智慧提供服務的單位在危害產生時能負起責任。

(五)針對人工智慧模型建立風險預防與追蹤措施
2023年3月份,由Meta公司開發的LLaMa遭公開外洩到網路上,這是首次出現由科技公司開發的大型語言模型被公開給群眾的案例。對此,FLI建議政府應強制人工智慧模型使用浮水印技術,避免遭到非法使用。浮水印技術可將特定資訊隱藏在模型參數中,因此開發者能據此識別是否為洩密或非法使用,有助於其對非法散布、使用者採取法律行動。

(六)增加人工智慧安全研究的資金投入
目前,產業針對研究人工智慧安全研究的投資嚴重不足。儘管2022年約有1000億元美金的非官方投入,但換算過來,全球約僅有100為位專職人工智慧安全研究者。近期,部分人工智慧開發公司甚至正在縮減或廢除人工智慧部門。雖然這也跟資訊技術產業普遍存在的大規模裁員趨勢有關,但也反映出對營利單位而言,在追求商業利益過程中,難以在安全與道德的考量上盡善盡美。

為了確保我們有能力應對,由人工智慧系統所帶來,且逐步攀升的風險,FLI建議應大幅增加人工智慧安全研究的公共預算,特別是以下領域:
(1) 校正:開發與檢驗或校正機制相關的技術,確保人工智慧的學習與運作符合開發者的預期、原始目的與社會價值。
(2) 穩定性:設計保障機制,使人工智慧即使在非預期的情況下,依然具可靠性,而操作者亦可藉此評估人工智慧的性能。
(3) 可解釋性:設計機制將人工智慧回報的運作邏輯,呈現為人類可理解的形式,以理解人工智慧進行決策的過程。這有助於理解與確認人工智慧是可信任的。

(七)人工智慧生成內容的識別與管理標準
這項建議所涉及的內容與因應對策,必須從不同層面分開來說。首先是人工智慧合成的產物。目前,人工智慧已有能力製造出高品質的文本作品,包含影音、圖像到文章。以案例來說,先前就發生過利用人工智慧合成語音進行金融詐騙。其次,由於人工智慧對自然語言的掌握與表達已漸趨成熟,一般使用者將越來越難知道自己是否是在和人工智慧進行互動,而這也將影響到使用者對於人工智慧給予之結果的判斷。舉例來說,使用網路搜尋產品的時候、搜尋結果可能會建議優先排序特定品牌;又或是僅呈現出特定觀點的新聞報導。再來,考慮到未來及多產業可能都會使用人工智慧輔助工作者完成職務,我們更必須了解從客戶到人類受託人、人工智慧之間的關係。比如投資顧問工作,人類受託人有義務以客戶的最佳利益和減損風險為最佳考量,但若其藉由人工智慧進行判斷,人工智慧是否能忠於「忠誠義務」(duty of loyalty)以及「注意義務」(duty of care),以客戶的最佳利益和風險迴避進行最佳考量? 

從上述情境中,FLI建議應投入更多資金,針對數位合成內容的技術和標準制定進行研究,並由政府與產業訂立統一標準。其中應包含能讓使用者辨別網路上的產物到底是合成或真實來源,並且在該物進行過數位編輯或修改的情況下,也能夠保障原創作者的隱私與表達權力;其次,使用者有權知道其是否正在使用或與人工智慧互動,以利使用者對人工智慧提出的結果進行情境判斷;最後,如果是應用人工智慧輔助服務提供的情況,應要求人類受託人可證明所使用的人工智慧已善盡「忠誠義務」以及「注意義務」,否則當問題發生時,責任歸屬仍應回到人類受託人身上。

 

三、結論

當前人工智慧應用正快速融入人類生活,我們卻仍無法預測當其應用範圍偏離開發者原本預期範圍的時候,可能產生什麼問題──而在缺乏保護措施的情況下,這些風險可能演變成對於個人、群體、社會的短期或長期災害。FLI認為運用政治政策工具來暫停人工智慧的發展是必須的。雖然上述的七項建議難以在短時間內實現,至少會讓決策者有更多的時間來建構更完善的人工智慧管理制度。
 

延伸閱讀
資料來源