在中國大陸政府決定採取較極端隔離防疫手段的同時,以結果來看,似確實是產生了明顯的效果,而在疫情尚未完全解除期間,為使其境內各項商業經濟活動可在嚴格限制人員移動(或保持隔離)的情況下持續維持運轉,該國除大力推廣數位化科技防疫的概念外,更鼓勵廠商開發及大規模運用「人工智慧」相關產品,以長期對抗COVID-19疫情...
撰文/ 孫世昌 生醫資深顧問 2020/06/22
在這波由新冠肺炎病毒(即COVID-19)所造成的全球疫情中,就中國大陸政府面對境內疫情擴散所採的高強度管制措施,早已成為各國媒體高度關注的焦點,姑不論在過程中所曾引發對人民權益保障不足的爭議問題,在該國政府決定採取較極端隔離防疫手段的同時,以結果來看,似確實是產生了明顯的效果,而在疫情尚未完全解除期間,為使其境內各項商業經濟活動可在嚴格限制人員移動(或保持隔離)的情況下持續維持運轉,該國政府除大力推廣數位化科技防疫的概念外,更鼓勵廠商開發及大規模運用「人工智慧」(Artificial Intelligence,以下簡稱AI)相關產品(聚焦生技醫療與公共衛生領域),以長期對抗COVID-19疫情。
承上述,進一步探究中國大陸在此波疫情期間,之所以能如此迅速的推出與使用各種人工智慧科技防疫新產品背後的原因,其實並非偶然,最主要的關鍵,是在於該國政府早在2017年7月8日時,就由國務院正式頒布了一份名為「新一代人工智慧發展規劃」(「國發[2017]35號通知」)的國家AI政策,為其未來AI技術發展,預先奠下了基本基礎;而後至2019年5月25日,在上開政策架構下,由「北京智源AI研究院」聯合了包括北京大學、清華大學、中國科學院自動化研究所、中國科學院計算技術研究所、新一代AI產業技術創新戰略聯盟等高校、科研院所及產業聯盟等公/私部門單位,再度共同發布了一項「人工智慧北京共識」(Beijing AI Principles),目的是要明確為將來AI技術與相關產品的開發,劃定出一個安全、合理且可資依循的倫理範疇。有鑑於,前述由中國大陸產/官/學/研界所共同發布的自律性倫理原則,對其日後境內AI技術的研發與使用,將產生導引的效果,且理論上,也勢必會對AI相關產業走向帶來一定程度的影響,故以下,筆者打算透過簡單的整理,來與對中國大陸AI發展狀況感興趣的讀者們,一起來觀察一下這份「人工智慧北京共識」內容,並順道檢視有沒有哪些地方是值得稍作留意的。
有關上述由中國大陸產/官/學/研界所共同發表的「人工智慧北京共識」文件,其內容,主要是針對AI的研發、使用及治理等三大面向,在納入AI倫理規範精神的前提下,所提出的15項可資參與者依循的相關原則,現大致整理如下:
針對AI的「研究及開發」建議應遵循的原則:
- 造福:指出AI應被用來促進社會與人類文明的進步,推動自然環境與社會的永續發展,造福全人類與環境,增進社會與生態的福祉。
- 為人類服務:點明AI的研發應服務於人類、符合人類價值觀、符合人類的整體利益;應充分尊重人類的隱私、尊嚴、自由、自主、權利;AI不應被用來對抗、利用或危害人類。
- 為負責任的:提醒AI的研究者及開發者,應充分考慮其產品所帶來潛在對倫理、法律、社會等方面的衝擊與風險,並應採取具體行動來予以減低及避免。
- 管控風險:建議AI及其產品的研發者,應致力於持續提升AI系統的成熟度、健全性、可靠性、可控制性,以確保數據資料的安全性、系統本身的安全性及防護性,以及當AI系統部署時,其對外部環境的安全性。
- 為倫理的:倡導AI的研發,應採用符合倫理的設計方法,以使系統為「值得信賴的」(Trustworthy)。其包括但不限於:使系統盡可能的公平、減少可能的歧視及偏誤、改善其透明性、可解釋性及可預測性,並使AI系統更可追溯、可稽核及負責任的。
- 為多樣的與包容的:呼籲AI的發展應該體現出多樣性與包容性,且應被設計為盡可能的為更多人帶來利益,尤其是那些於AI應用過程中容易被忽視的或少數的族群。
- 開放及分享:鼓勵建立AI開放平台,以避免數據資料/平台的壟斷,最大範圍的分享AI發展所帶來的利益,並促進不同地域、行業有相同的發展機會。
針對AI的「使用」建議應遵循的原則:
- 明智及適當的使用:AI系統的使用者,應具備必要的知識及能力,以使AI系統能按照其設計運行,並應對其所可能帶來之潛在影響具充分之瞭解,以避免可能之誤用、濫用,以最大化其利益,並最小化其風險。
- 告知同意:應採取相關措施,以確保AI系統之利益相關者,就AI系統對其相關權利與利益的影響,具備充分的告知同意基礎。當非預期的狀況發生時,應建立合理的數據資料及服務的「撤銷機制」(Revocation Mechanisms),以確保使用者本身所擁有的相關權利及利益,不會因此而受到侵害。
- 教育與訓練:AI系統的利益相關者,應要能夠獲得相關教育及訓練,以協助其適應AI發展對心理、情感及技術等各方面所帶來的影響。
針對AI的「治理」建議應遵循的原則:
- 最佳化就業:建議應採取一種包容的態度,來面對AI對人類就業所帶來的潛在影響。
- 協調與合作:應積極發展合作方式,以建立一個跨學科、跨領域、跨部門、跨機構、跨地域、全球性、綜合性的AI治理生態系統,以避免惡意的AI競爭,分享AI治理經驗,共同以「最適化共生」(Optimizing Symbiosis)的理念,來因應AI所帶來的衝擊。
- 適應性與緩和:應積極考量AI原則、政策、法規等修正的適應性,以調整其能順應AI的發展。
- 再細分與實施:應積極考量於各種不同場域及情境之AI應用,來制訂更加具體及細緻的指引。
- 長期性規劃:應鼓勵對「擴增智慧」(Augmented Intelligence)、「通用人工智慧」(Artificial General Intelligence)及「超級智慧」(Superintelligence)的潛在影響持續進行研究。
在簡單瀏覽過上述原則後,我們其實並不難察覺,這份「人工智慧北京共識」文件,也在其針對AI研發部分所提出的原則中,明確導引其境內未來AI系統的研究及開發,朝向「值得信賴的AI」此方向發展,而除此之外,筆者覺得還有幾個有趣的地方,可稍補充於下:
- 從整體角度觀察,就此份文件中所列舉出的各項原則,基本上,與歐盟方面所提出的AI倫理原則的規範精神非常近似,例如:告知同意/為人類服務/最佳化就業等原則尊重人類自主原則(歐盟)、為負責任的/管控風險/明智及適當的使用等原則vs.危害預防原則(歐盟)、為多樣的與包容的/開放及分享等原則vs.公平原則(歐盟)等等(有興趣的讀者可回頭參考筆者稍早所撰寫有關歐盟AI倫理原則的文章內容)。
- 就此份文件針對AI治理所提出的某些原則,為充分掌握其精神,可再作進一步理解:首先,是最佳化就業原則部分,由於中國大陸政府認知到未來AI的廣泛使用,很可能會對人民就業帶來相當程度的衝擊,因此,所謂最佳化就業原則,在概念上,也包含著於AI在各領域應用的推廣前,必須採取較為謹慎的態度仔細地加以評估,而從AI應為人類服務的角度思考,在這項原則下,其實也強調應鼓勵並探索更能夠發揮人類優勢及特質的人類-AI協同的方法及新型態工作。其次,是關於適應性與緩和原則部分,除要求應積極考量AI原則、政策、法規等修正的適應性,以調整至能順應AI的發展外,也一併對AI技術及相關應用所為之規範管理,要求應注意如後兩項重點:其一,是要確保AI確實可為社會及自然環境帶來利益;而另一,則是要避免因不當的法規(或非法規限制)而阻礙了AI的合理利用。
總上述,根據筆者手邊所蒐集的相關資料顯示,中國大陸自武漢市爆發COVID-19疫情以來,已有不少將AI科技運用在防疫上的實際案例,例如:(一)北京市海淀醫院推出疫情防治機器人Orion Star,可協助醫師與負壓隔離確診病患進行「遠端問診」;(二)大陸公安部亦與優必選科技合作,推出具備紅外線體溫量測及臉部辨識等功能的AI警用機器人,透過連接公安部門的身分認證系統來協助「遠距身分認證」;(三)科技大廠百度宣布建構口罩人臉辨識及分類模型,可用於人群密集之公共場所,快速辨識攜帶或未攜帶口罩之所有人臉,以降低公共場所防疫安全風險;(四)電信設備大廠華為技術公司,利用其自身華為雲(Huawei Could)的電腦視覺與影像分析技術,開發出AI輔助醫療影像診斷系統,可為醫師提供快速且準確的分析結果等,故由此可知,將此與疫情爆發前其AI應用與相關產品呈現出較緩和成長的情況相較,此波COVID-19疫情,可說是意外的為中國大陸AI產業發展,打上了一劑腎上腺素,且亦使中國大陸政府卯足全勁在AI技術領域發展要趕美超歐上所下的決心隨之浮出檯面,故從這個角度來看,其AI產業的未來發展,確實是有值得外界高度期待的理由。
參考資料:
|