科技議題

首頁> 科技議題 - 智慧科技> 澳洲生成式人工智慧技術趨勢立場聲明
澳洲生成式人工智慧技術趨勢立場聲明 Tech Trends Position Statement: Generative AI
2023/08
eSafety Commissioner (eSafety)
https://www.esafety.gov.au/sites/default/files/2023-08/Generative%20AI%20-%20Position%20Statement%20-%20August%202023%20.pdf
這份立場聲明檢視生成式AI的不斷演變的景觀,提供生成式AI生命週期的概覽,其使用和濫用的例子,以及對在線安全風險和機會的考慮。此聲明還提出一系列監管挑戰和方法。最後一部分強調新興的良好實踐和新的「安全設計」措施,為行業提供有意義的、可操作的和可實現的指南,以最小化現存和新興的生成式AI傷害。

eSafety是澳洲的獨立監管機構和網路安全教育機構。他們協調澳洲政府的活動,以幫助人們在網上更安全,進行研究,提供教育,並管理監管計劃以應對某些類型的網上傷害。他們利用監管權力來促進網路行業的透明度和責任制。此外,他們與其他政府機構、企業和組織合作,分享資訊和最佳實踐,以使互聯網成為一個更安全的地方,無論人們住在哪裡。他們透過掃描新的研究、政策、法律和技術發展,以及與學者和研究人員交談等方式,保持他們的內容、計劃和監管優先事項的最新性。此外,eSafety還就網路行業的新興問題、國際技術監管發展以及對澳洲人的網路安全問題向澳洲通信部長和政府提供建議。生成式AI是一種人工智慧技術,它可以生成新的數據、圖像、聲音和文本等內容。這種技術的發展已經帶來許多潛在的好處,例如自動化創作、增強現有內容和提高生產力等。然而,生成式AI也存在一些潛在的風險,例如誤導性資訊、假新聞、仇恨言論和暴力內容等。這些風險可能會對個人和社會產生負面影響,因此需要採取措施來減少損害。為此,需要提供有關生成式AI的最新資訊,以幫助人們更好地瞭解這一技術的優點和風險,並提供指導以減少損害。同時提供一些關於生成式AI的定義和示例,以及有關如何報告傷害和保護兒童的信息。

生成式AI的生命週期,包括下列十個步驟:
1.商業案例:評估開發生成式AI技術的商業案例,並探索資金籌集的選項。
2.數據收集:收集和準備用於訓練生成式AI模型的數據。
3.模型訓練:使用收集的數據訓練生成式AI模型。
4.模型測試:測試生成式AI模型的性能和準確性。
5.部署:將生成式AI模型部署到實際應用中。
6.監控:監控生成式AI模型的性能和行為,以檢測任何潛在的問題或風險。
7.維護:維護生成式AI模型,包括更新和修復。
8.風險評估:評估生成式AI可能帶來的風險和損害。
9.風險管理:制定風險管理計劃,以最大限度地減少生成式AI可能帶來的風險和損害。
10.相關法律法規:遵守相關的法律法規,例如隱私法和版權法等。

生成式AI的應用可能帶來以下風險和損害:
1.AI未能如預期般運作:當系統生成不正確或有害的回應時,可能會意外造成損害。例如,生成式AI系統可能會「幻覺」,並對用戶提示產生不適當的回應。
2.AI被惡意使用:當模型被訓練或利用於有害目的時,可能會發生這種情況。例如,當從事兒童性虐待的人士試圖使用生成式AI工具來誘騙兒童或生成兒童色情材料時。
3.AI在特定情境下被過度使用、魯莽使用或不當使用:這指的是在使用生成式AI時,可能會出現過度或魯莽使用,或者不當使用,從而導致有害或誤導性的結果。例如,當生成式AI為兒童用戶生成不適當的網路色情時。

生成式AI的應用也可能帶來機遇,例如:
1.創造新的藝術和文化表現形式:生成式AI可以幫助藝術家和文化從業者創造出新的藝術和文化表現形式,從而豐富人們的生活體驗。
2.改善醫療保健和科學研究:生成式AI可以幫助醫療保健從業者和科學家更好地理解和處理複雜的醫學和科學問題,從而提高醫療保健和科學研究的效率和準確性。
3.增強創造力和創新能力:生成式AI可以幫助人們更好地理解和應對複雜的問題,從而增強創造力和創新能力,推動社會和經濟發展。

總之,生成式AI的應用既帶來機遇,也帶來風險和損害。我們需要採取相應的措施,最大限度地發揮其潛力,同時最小化其潛在的負面影響。

生成式AI的複雜性和不透明性可能會導致其應用產生風險和損害,因此需要採取相應的監管措施。例如歐盟的AI法案所採用的方法。在2023年,七國集團(G7)國家同意採用風險基礎的AI監管,並創建國際技術標準。這種模型可以幫助監管機構評估生成式AI模型的風險,並制定相應的監管措施。其次,監管機構需要考慮如何測試生成式AI模型的準確性,以確保提供者對AI生成的內容負責。各個司法管轄區正在考慮前置(部署前)和後置(部署後)方法的優點和挑戰。此外,監管機構需要協調努力,並配備必要的技能和資源,以應對空間中的快速發展。這包括獲取資金、擴大知識、增強技術測試能力和開發審計技能。eSafety是澳洲的獨立監管機構,負責在線安全的監管和教育。在生成式AI方面,eSafety的方法是透過與國內和國際監管機構、學術界和行業合作,分享資訊和最佳實踐,以確保在線內容的安全和負責任。eSafety還透過監測和評估生成式AI技術的應用,以及與行業和學術界的對話,來瞭解其潛在的風險和損害。eSafety還提供教育和培訓,以幫助人們更好地理解生成式AI技術和其潛在的影響。總之,eSafety在生成式AI方面的方法是透過監管、教育和合作,確保在線內容的安全和負責任。

而eSafety也提到三個安全設計原則,即預防、檢測和應對,並提供一個安全設計干預圖,該圖顯示在生成式AI的生命週期中可以實施的安全設計措施。此外,eSafety委員會正在開發行業標準,以確保線上產品和服務的安全性和責任性。

而eSafety也針對使用者提出許多寶貴且有用的建議,讓使用者可以以此更加妥善利用生成式AI:
1.如何識別和報告問題:如果您或您的孩子遭遇到生成式AI相關的問題,例如網路欺淩、虛假資訊或色情內容等,您可以向相關機構報告,例如eSafety委員會。
2.如何保護個人資訊和隱私:當使用生成式AI時,您需要注意保護個人資訊和隱私。您可以透過關閉聊天記錄、選擇哪些對話用於訓練AI模型等方式來管理您的資料。
3. 如何使用生成式AI來促進創造力和創新:生成式AI可以用於創造藝術、音樂、文學等內容。您可以嘗試使用這些工具來發揮自己的創造力和創新能力。
4. 如何在使用生成式AI時保持警惕:在使用生成式AI時,您需要注意不要輕信虛假資訊或誤導性內容。您還需要瞭解生成式AI的局限性和潛在風險。
5. 如何瞭解和評估生成式AI的潛在影響:您可以瞭解生成式AI的工作原理、資料來源、演算法等方面,以更好地評估其潛在影響。
最後,我們鼓勵用戶積極參與生成式AI的發展和監管,以確保其安全和負責任性。
高飛
英文