《人工智能北京共識》發布 提出15條原則規范人工智能研發使用

2019年05月26日09:00  來源:新京報
 
原標題:《人工智能北京共識》發布

  人工智能倫理與安全研究中心主任曾毅

  《人工智能北京共識》發布會現場。新京報記者 吳寧 攝

  《人工智能北京共識》發布,提出了各個參與方應遵循的有益於人類命運共同體的15條原則。

  其中研發方面,要服從人類的整體利益,設計上要合乎倫理﹔使用方面要避免誤用和濫用,確保利益相關者對其權益所受影響有充分的知情與同意﹔治理方面,對人工智能部分替代人類工作保持包容和謹慎態度。共識的發布,為規范和引領人工智能健康發展提供了“北京方案”。

  昨日,北京智源人工智能研究院聯合北京大學、清華大學等單位發布《人工智能北京共識》,《人工智能北京共識》提出服從人類的整體利益,人工智能在設計上要合乎倫理,體現多樣性與包容性等。

  當天,北京智源人工智能研究院人工智能倫理與安全研究中心揭牌成立。研究中心將圍繞人工智能倫理與安全的理論探索、算法模型、系統平台、行業應用等開展一系列研究。

  研發設計上要合乎倫理

  《人工智能北京共識》由北京智源人工智能研究院聯合北京大學、清華大學、中國科學院自動化研究所、中國科學院計算技術研究所、新一代人工智能產業技術創新戰略聯盟等高校、科研院所和產業聯盟共同發布。

  《人工智能北京共識》提出的15條原則中,研發方面,提倡要有益於增進社會與生態的福祉,服從人類的整體利益,設計上要合乎倫理,體現多樣性與包容性,盡可能地惠及更多人,要對潛在倫理風險與隱患負責,提升技術水平控制各種風險,並最大范圍共享人工智能發展成果。

  使用方面,提倡善用和慎用,避免誤用和濫用,以最大化人工智能技術帶來的益處、最小化其風險,應確保利益相關者對其權益所受影響有充分的知情與同意,並能夠通過教育與培訓適應人工智能發展帶來的影響。

  在治理方面,對人工智能部分替代人類工作保持包容和謹慎態度,鼓勵探索更能發揮人類優勢和特點的新工作,廣泛開展國際合作,共享人工智能治理經驗。人工智能的准則與治理措施應做到適應和適度,並開展長遠戰略設計,以確保未來人工智能始終保持向對社會有益的方向發展。

  實現人工智能“自律”“有序”

  人工智能倫理與規范是未來智能社會的發展基石,已經引起了各國政府和學術界、企業界等的廣泛關注。歐盟、日本等國際組織和國家,均發布了人工智能的倫理准則。

  《人工智能北京共識》強調促進人工智能相關准則的“落地”,為未來打造“負責任的、有益的”人工智能。

  人工智能倫理與安全研究中心主任曾毅認為,這一共識的發布,為規范和引領人工智能健康發展提供了“北京方案”。北京是人工智能國際化大都市和國家新一代人工智能創新發展試驗區首個城市,《共識》有助於表達北京發展人工智能與其他地區和世界范圍形成的共識。

  ■ 對話

  人工智能倫理與安全研究中心主任曾毅:

  人工智能系統還不能准確了解人類價值觀

  為降低人工智能發展過程中可能存在的技術風險和倫理隱患,北京智源人工智能研究院專門成立人工智能倫理與安全研究中心,中國科學院自動化研究所研究員曾毅任研究中心主任。對此,新京報記者對曾毅進行了專訪。

  談人工智能倫理:

  機器和人的價值觀校准是最大挑戰

  新京報:研究人工智能倫理與安全是否具有緊迫性?

  曾毅:近年來,隨著人工智能研究與產業發展,一些相關倫理與社會問題逐漸凸顯,例如人工智能帶來的安全風險、隱私、算法歧視、行業沖擊、失業、收入分配差異擴大、責任分擔、監管難題、以及對人類道德倫理價值的沖擊等。

  因此,我國急需開展人工智能倫理與安全的研究,將對人工智能風險、安全、倫理的思考模型化、算法化、系統化等多方的努力,確保人工智能向對人類和自然有益的方向發展。

  新京報:倫理研究出於何種考慮?

  曾毅:人工智能倫理准則是各個國家、組織進行對話的重要議題。目前,人工智能系統不能真正理解人類的價值觀。舉例說,你需要很快從A點跑到B點,如果中途有個孩子過來,你一定會繞開他,不會為了節省時間,撞到孩子也在所不惜。但是機器為了更快達到目標,可能做出相反的選擇。

  所以如何使機器自主學習人類價值觀、避免風險是人工智能倫理研究中重要主題,叫做價值觀校准。這是人工智能研究中的聖杯,也是人工智能最大的挑戰之一。

  談人工智能風險:

  改變一個像素飛機可能被認成狗

  新京報:如何看待人工智能發展中的安全風險?

  曾毅:人工智能的發展過程中已出現一些潛在的風險,例如一張飛機的圖片,如果改變其中關鍵的一個像素,人還是覺得圖片中是飛機。但目前很多深度學習模型可能會顛覆認知,認為那是一隻狗。這說明現在機器學習算法的自適應性還不能應對實時變化的環境、噪聲以及惡意攻擊。

  機器學習的前提假設最好是輸入的數據能很好地描述實際世界,但實際情況是訓練數據往往比較理想化或者片面,而真實世界是非常復雜、多變的。因此,我們未來研發人工智能模型要向低風險、高安全方向發展。

  新京報:如何看待此次《北京共識》的提出,對人工智能部分替代人類工作保持包容和謹慎態度?

  曾毅:人工智能的研發如果不考慮潛在的風險,不考慮服務於人類、構建負責任的、對社會有益的人工智能,就有可能帶來不可估量的負面影響。因此在《人工智能北京共識》中,就倡導對通用智能、超級智能潛在的風險進行持續研究與分析。

  談研究中心工作:

  將探索用戶撤銷個人數據授權

  新京報:《人工智能北京共識》提到避免技術誤用和濫用,如何做到?

  曾毅:在構建人工智能平台時,企業往往不知道用戶會如何使用平台。其實應該做一些設計,如果出現人工智能濫用,平台應該能自動化檢測、告知和避免,這是所有人工智能研究者和企業應該關注的問題。

  新京報:如何保証人工智能中的數據安全?

  曾毅:歐盟相關企業對《通用數據保護條例(GDPR)》的實踐表明,採取更嚴格的數據保護機制,雖然一開始,相關企業和服務方需要付出額外努力適應條例,但是隨后往往帶來用戶量的增加。用戶反饋說明,用戶更相信遵守數據保護條例的企業,更願意選擇為保護用戶數據安全做出努力的產品與服務。

  研究中心將與企業開展聯合實踐,建設數據安全示范應用系統,最大限度防止數據泄密,降低風險,探索允許用戶撤銷個人數據授權的機制及計算平台,提升個人數據安全。

  新京報記者 張璐

(責編:孟竹、高星)

推薦閱讀

北京:胡同微花園為老城添新景 馬桶變身文藝花池,老磚瓦砌出漂亮花壇,空調水收集搭建澆灌系統......春光明媚的五月,北規院、央美聯合團隊與東城區朝陽門街道史家社區居民聯手共建,改造了家門口6座別具匠心的微花園,為美麗的胡同又添新景致。

【詳細】北京:胡同微花園為老城添新景 馬桶變身文藝花池,老磚瓦砌出漂亮花壇,空調水收集搭建澆灌系統......春光明媚的五月,北規院、央美聯合團隊與東城區朝陽門街道史家社區居民聯手共建,改造了家門口6座別具匠心的微花園,為美麗的胡同又添新景致。 【詳細】