人民網>>人民創投

以法律堵住人臉識別濫用的口子

2019年11月07日08:29  來源:新京報

應對人臉識別技術的大規模使用提出“必要性原則”“比例原則”“正當程序原則”,用制度的剛性來確保“科技向善”。

最近,人臉識別成了不折不扣的熱議話題。

浙江理工大學特聘副教授郭兵一紙訴狀,把杭州野生動物世界告上了法庭。原告認為,被告要求自己增加人臉識別技術的入園條件,收集個人面部特征等生物識別信息,侵犯了公民的個人信息,也違反了《消費者權益保護法》的規定。

人臉識別的濫用風險

不過,相比學者的較真兒,更多普通人把人臉識別作為一項高大上的技術來津津樂道。有了人臉識別,進安檢不用憑票了,付賬單不用掃碼支付了,開汽車不要鑰匙啟動了,老師上課、單位打卡可以直接人臉識別簽到……這也顯示了人臉識別技術廣闊的應用前景。

不可否認,人臉識別是我們這個時代最偉大的進步技術之一。它集成了人工智能、機器識別、機器學習、模型理論、專家系統、視頻圖像處理等多種專業技術,是生物特征識別的最新應用,更展現了弱人工智能向強人工智能的轉化。它所依賴的,是每個個體的生物特征,比如虹膜。這是與指紋、掌紋、靜脈一樣的生物特征,也被稱為“人體密碼”。

與數字密碼不同,生物特征是人無法改變的生理特征,在某種意義上,生物特征是最后的防線。這也意味著,人臉識別技術應用也存在相應的風險。比如,如果操作不當,或者被有心人採集、出售、應用,甚至被拿來冒名身份,這時不僅個體毫無安全可言,對整個世界秩序的后果也不堪設想。

這種擔憂並不是杞人憂天。人臉識別的一個重要特征就是非強制性,即用戶不需要專門配合人臉採集設備,幾乎可以在無意識的狀態下就可獲取人臉圖像,這樣的取樣方式沒有任何強制性。

換句話說,在無意識或者稍不留神的時候,我們的人臉圖像就被採集了。

更嚴重的是,隨著深度學習推動人臉識別技術在分析、讀取和比對環節功能的不斷強大,通過對人臉面部表情的深度識別,攝像頭還可以計算個體內心世界的真實情感,不僅能把你“看個清楚”,還能把你“想個明白”。

用制度剛性確保“科技向善”

目前,人臉識別技術在法律性質上,仍停留在身份信息識別的隱私權范疇。根據現行刑法規定,不經同意而非法獲取,或者將合法取得的個人信息出售或提供給第三方,此類行為均涉嫌構成侵犯公民個人信息罪。而民法總則第一百一十一條規定,任何組織和個人需要獲取他人個人信息的,應當依法取得並確保信息安全,不得非法收集、使用、加工、傳輸他人個人信息,不得非法買賣、提供或者公開他人個人信息。

從這個意義上來說,人臉識別的法律邊界確實值得充分厘清。但是,我們在人臉信息獲取這第一個環節就出了問題,也就是清華大學法學院勞東燕教授所說的收集的合法性問題。

面對越來越普及的智能人臉識別設備,我們對收集的主體、目的、方法、范圍與程序等問題,完全沒做任何限定,也沒有對違規收集或使用的行為規定相應的法律責任。

退一步說,即便在某些人臉識別的場景得到了被收集人的允許,但由於收集的主體、收集的數據范圍、使用目的及范圍、保護措施與相應風險等信息告知不充分,被收集人依然處於弱勢地位。

從學理上,可以認定上述的允許在法律上不能形成有效的同意,這樣的收集行為仍是違法的。但當人臉識別應用成為大勢所趨時,任何人都沒辦法對技術說“不”。

多年來,一直備受詬病的公民個人信息泄露就是直接例証。相比之下,生物學數據的個人指向性更為明確,對個人而言,也顯然比一般的個人信息更為重要。因此,對於人臉識別的態度要更加謹慎。

今年6月,國家新一代人工智能治理專業委員會發布《新一代人工智能治理原則》,提出對人工智能治理的框架和行動指南,呼吁發展“負責任的人工智能”,即技術的發展應該符合人類的價值觀和倫理道德,避免誤用,禁止濫用、惡用。

相應地,在法律的框架下,我們也應該對人臉識別技術的大規模使用提出“必要性原則”“比例原則”“正當程序原則”,甚至在某些特殊場景下考慮設立禁用“黑名單”制度,用制度的剛性來確保“科技向善”。

未來,可以考慮在這些大的原則之下,細化相關法律規定,徹底將人臉識別濫用的口子堵上。

目前看來,一切才剛剛開始。

□蔡斐(西南政法大學副教授)

(責編:黃玲麗、陳鍵)

深度原創

特別策劃

    創投20年——我的關鍵詞 邀請
二維碼