[會員專享]
於本篇文章中,將簡單為大家說明這份由歐盟執委會下設之「AI-高階專家工作小組」所研擬的新AI倫理指引文件中,其所提到用來構成「值得信賴的AI規範架構」的基本要件及相關基礎究竟為何?
撰文/ 孫世昌 生醫資深顧問 2020/01/10
如筆者先前在介紹歐盟對「以人工智慧(Artificial Intelligence,簡稱AI)為基礎之醫療器材軟體新近規範趨勢觀察」系列文章中所曾提到過的,將找機會為讀者們介紹一下由「歐盟執委會」(European Commission)於去(2019)年4月8日所正式發布的一份最終版「值得信賴的AI倫理指引文件」(Ethics Guidelines for Trustworthy AI,以下簡稱「新AI倫理指引文件」)內容,而根據筆者先行觀察與整理後的感想是,這整份文件內容,在論述與編排上,是採取了從抽象的概念到具體的實踐這樣的順序,是從前一章節來抽剝出後一章節的內容而彼此緊密相扣的,所以如不從頭到尾的依序看過,確實是不容易掌握箇中的精神,不過…既然筆者先前都說過要來介紹了,所以…也就只好把這份未來對歐洲境內AI技術發展具相當影響力的文件,盡力的為各位讀者們從頭到尾的來好好的檢視一下。
有關上述新AI倫理指引文件內容,係由歐盟執委會下設之「AI-高階專家工作小組」(Artificial Intelligence-High Level Experts Group,簡稱AI-HLEG )所研擬,經採納公眾意見徵詢程序所收集之回饋意見完成修正後,於去年4月由歐盟執委會正式公布,如我們將觀察重點擺放在「建立值得信賴的AI規範架構」此點上,則涵蓋3個部分,從抽象到具體依序包括:規範架構之基本基礎、如何實現及實務運作評估等,不過,考量文章篇幅,筆者不得不決定再將其拆分為兩篇來進行介紹,其中一篇,將簡單說明「構成值得信賴的AI規範架構之基本要件及相關基礎為何?」(即本文);而另一篇文章,則將來看看在實務上「有哪些建議的方法可被用來實現值得信賴的AI」。以下我們就先來一同觀察一下歐盟值得信賴的AI規範架構的基本構成要件及其背後的支撐基礎:
指引文件適用範圍
- 就文件中所列相關建議,可處理所有受AI設計、開發、部署、實施、使用所影響利益相關者之相關問題,包括(但不限於):企業、公共服務、政府單位、民間團體、學術機構、研究人員、個人、勞工及消費者等。
- 本項文件,主要是為AI之應用提供共通性指引,並為實現值得信賴的AI 建立起一水平橫向基礎。
- 對承諾並打算實踐「值得信賴的AI」之利益相關者來說,於開發、部署或使用AI系統時,可「自願性」的選擇使用本項文件,並將之作為落實其承諾的一種方法。
值得信賴的AI概念
- 於本文件中,AI-HLEG專家直接點明,「可信賴度」(Trustworthiness)是人民及社會在開發、部署及使用AI系統之重要先決條件。
- 對AI系統之開發、部署及使用而言,信任不僅僅是與技術本身所具特性有關,其同時也涉及在社會-技術系統中各種AI應用之品質,且從觀察發生在航空、核能及食品安全等領域喪失社會大眾信任之相關案件可知,我們不只須考慮AI系統本身之可信賴度,更應將其整體性及系統性方法同時納入考量,此包括在:(1)AI系統之整體生命週期、及(2)社會-技術環境下所有參與者及過程中所含之可信賴度,因為此將牽涉到整體系統能不能真正的取得大眾的信任。
- 說明「值得信賴的AI」包含3項構成要素,且應在AI系統之整體生命週期中加以滿足,如下:
- 應為「合法的」:即應遵守所有應適用之法律及法規規定(第1項構成要素);
- 應為「倫理的」:即應確保可貼合「倫理原則」及「歐盟本身之價值觀」(第2項構成要素);及
- 應為「穩健的」:因為從技術面與社會面等角度來看,即便是具良善意圖,AI系統也有可能導致非預期的危害,故應確保其穩定與健全(第3項構成要素)。
上述各構成要素均屬必要,且於理想狀況下,各構成要素間應彼此交互重疊並和諧的一同運作。