發展值得信賴的人工智慧?歐盟發布AI倫理指引文件 Part-II~值得信賴的AI倫理原則之落實(上)

撰文/ 孫世昌 生醫資深顧問 2020/07/22


上回簡單與讀者們分享由「歐盟執委會」(European Commission)於去(2019)年4月8日所正式發布的一份最終版「值得信賴的AI倫理指引文件」(Ethics Guidelines for Trustworthy AI,以下簡稱「新AI倫理指引文件」)的前半部內容後(即AI倫理規範架構基本要件及相關原則),算了算好像也過了小一段時間,而在筆者持續關注其他國家近年間針對AI技術發展所公布相關規範措施的同時(例如:美國),差點忘了自己曾提過,會為讀者們針對於上開新AI倫理指引文件中所提到的包括:(一)就AI系統整體生命週期中的相關參與者(例如:開發者、部署者、最終使用者等)應如何來實踐該份文件中所列明的各項AI倫理原則?以及(二)於實務上又有哪些具體方法(措施)可被用來實現「值得信賴的AI」等部分,再整理出一篇文章;故以下,筆者將嘗試藉適度篇幅,就此份「新AI倫理指引文件」的後半部內容,擇要與讀者們進行分享。   

       關於上述歐盟「新AI倫理指引文件」後半段內容,就其所提出AI倫理原則的落實,直接點明,必須先將之轉化為數項相對應的「要求」(也就是說如能夠滿足這些要求,基本上即等同於可符合其相應的倫理原則規範),且再透過實施合適的「技術性」或「非技術性」方法(可視己身需求與條件自由擇選),便可進一步地將前述各項要求確實導入AI系統的整體生命週期中。現在我們就趕緊來一同瞧瞧,這些轉衍出的「要求」以及「技術性」或「非技術性」方法究竟為何?

值得信賴的AI之相關要求

  1. 適用範圍

按文件內容,就其於前半部所抽剝出之抽象性倫理原則,如欲用以現實化值得信賴的AI,尚必須再進一步轉化為相關要求,而這些要求,原則上可適用於AI系統整體生命週期中各不同階段參與之利益相關者群體,其包括了開發者、部署者、終端使用者,甚至是整個社群。

  1. 用詞定義

就上述所提到的各利益相關者群體,其定義如下:

    1. 開發者是指進行研究、設計與/或開發AI系統的人員。
    2. 部署者係指在其業務流程及向他人所提供的產品或服務中,使用AI系統的公部門或私人組織(機構)。
    3. 終端使用者是指那些直接或間接與AI系統接觸者。
    4. 更廣泛的社群於文件中,乃是指包括受到AI系統直接或間接影響的其他人。
  1. AI倫理原則轉化出的相關要求

有關此份文件以「非窮盡」方式所列出的7項要求,其涵蓋範疇包括了系統、個人、社會等面向,如下:

    1. 人為代理及監管:此係指包含對基本權利保護、人為代理及人為監督等要求。
    2. 技術穩健性及安全性:此係指包括對遭攻擊的恢復力、完整備援計畫、及整體安全/準確性/可靠性與再現性等方面的要求。
    3. 隱私與數據治理:此指包含對於應尊重隱私、數據資料的品質與完整性、及對數據資料的近用等方面的要求。
    4. 透明性:這是指對可追溯性、可解釋性與連結的要求。
    5. 多樣性不歧視及公平:此指對包括應避免不公平的偏見、可近用性、通用性設計及利益相關者的參與。
    6. 社會及環境福祉:此指包含對永續發展與環境友善、社會衝擊、社會及民主等方面的要求。
    7. 有責性:係指包括對於應具可稽核性、負面影響的最小化與通報、衡平及糾正措施的要求。

      本篇專欄文章僅限訂閱會員專屬享閱。如您還未訂閱成為會員,請選擇 標準會員高階會員 訂閱方案加入,以瀏覽本站生醫法規獨家專欄文章。