亚洲全黄无码一级在线看_国产剧情久久久性色_无码av一区二区三区无码_亚洲成a×人片在线观看

當(dāng)前位置: 首頁 > 社會新聞 >

讓人臉識別應(yīng)用以"必要"為限技術(shù)發(fā)展須

時(shí)間:2019-11-12 18:40來源:網(wǎng)絡(luò)整理 瀏覽:
原標(biāo)題:讓人臉識別應(yīng)用以“必要”為限 “難道我們就要一輩子躲在井底下嗎?” 本月初,經(jīng)典科幻電影《終結(jié)者:黑暗命運(yùn)》如期上映。影片中,
原標(biāo)題:讓人臉識別應(yīng)用以“必要”為限

“難道我們就要一輩子躲在井底下嗎?”

本月初,經(jīng)典科幻電影《終結(jié)者:黑暗命運(yùn)》如期上映。影片中,大反派使用人臉識別技術(shù)鎖定對方的位置信息進(jìn)行追殺。面對如影隨行的危險(xiǎn),女主角Dan絕望而無奈地說出了這句話。很快,大反派又通過人臉識別找到了他們……

實(shí)際上,電影中的情節(jié)已經(jīng)在現(xiàn)實(shí)中上演。近段時(shí)間,隨著人臉識別技術(shù)的大規(guī)模應(yīng)用,有關(guān)“臉”的話題成為焦點(diǎn)。據(jù)媒體報(bào)道,9月初,中國藥科大學(xué)試水教室人臉識別,引發(fā)對課堂隱私邊界的爭議;10月,上海一小區(qū)電梯引入人臉識別,引發(fā)公眾對隱私泄露的擔(dān)憂;不久前,有消息稱北京地鐵將應(yīng)用人臉識別技術(shù)對乘客實(shí)施分類安檢,觸動大眾擔(dān)心個(gè)人信息安全的神經(jīng)。

而因不愿意“刷臉進(jìn)門”,購買了動物園年卡的浙江理工大學(xué)副教授郭兵將杭州野生動物世界告上了法庭。11月3日,浙江省杭州市富陽區(qū)人民法院正式受理此案。這也被稱為國內(nèi)“人臉識別第一案”。

一些業(yè)內(nèi)專家近日接受《法制日報(bào)》記者采訪時(shí)指出,人臉識別等人工智能技術(shù)本身并無好壞,但這種技術(shù)在使用的時(shí)候必須要在法律框架內(nèi)進(jìn)行。要通過規(guī)范的引導(dǎo)來進(jìn)行必要的規(guī)制,以維護(hù)好安全、便利和隱私三者間的平衡。

當(dāng)事人同意并不意味著合法

抓捕逃犯、追蹤兒童、智慧城市……人臉識別技術(shù)除了在這些特定場景下得以應(yīng)用之外,還越來越多地滲入到普通人的日常生活中,比如進(jìn)門不用刷卡,看球賽看演唱會過安檢不用憑票,超市購物不用掃碼支付。在帶來諸多便利的同時(shí),對人臉識別技術(shù)的擔(dān)憂也隨之而來,越來越多的人擔(dān)心“刷臉”會讓自己“丟臉”。

在一些業(yè)內(nèi)專家看來,這種便利的代價(jià)過于巨大,一旦操作不當(dāng),不僅會給個(gè)人帶來危險(xiǎn),甚至?xí)φ麄€(gè)世界秩序產(chǎn)生不堪設(shè)想的后果。更值得警惕的是,人臉識別技術(shù)的隨意擴(kuò)大使用還面臨著合法性和比例原則等法律拷問。此前,就有媒體曝光某地廁所用人臉識別技術(shù)來達(dá)到避免人們重復(fù)取紙的應(yīng)用。

由于人臉采集不需要專門設(shè)備,幾乎可以在無意識的狀態(tài)下獲取人臉圖像,所以一旦當(dāng)事人同意,人臉信息瞬間就可以被企業(yè)等“合法”地采集走。但在北京航天航空大學(xué)法學(xué)院教授、北航備案審查制度研究中心主任王鍇看來,人臉識別應(yīng)用的合法性問題并非僅僅獲得當(dāng)事人同意就可以解決。“從個(gè)人信息自決權(quán)的角度,個(gè)人的自決要建立在充分知情的基礎(chǔ)上,即個(gè)人要充分了解風(fēng)險(xiǎn),同時(shí)要求個(gè)人全程參與個(gè)人信息流動的過程,至少要留給個(gè)人監(jiān)督企業(yè)使用個(gè)人信息的渠道。個(gè)人自決意味著個(gè)人隨時(shí)有權(quán)對企業(yè)使用個(gè)人信息喊停?!?/p>

“在當(dāng)前無法完全保障人臉信息數(shù)據(jù)庫安全性的情況下,對人臉識別廣泛應(yīng)用的擔(dān)心是可以理解的。”王鍇分析指出,人臉識別的“危險(xiǎn)”在于,一方面,人臉雖然不屬于隱私,但因?yàn)槿四樳@種生物特征具有唯一性,通過人臉識別可以更加容易地發(fā)現(xiàn)個(gè)人隱私;另一方面,人臉識別要依靠大型的信息數(shù)據(jù)庫,而這種數(shù)據(jù)庫的安全性是存疑的,一旦被濫用或者泄露,就會極大威脅到個(gè)人隱私乃至個(gè)人的其他權(quán)利。

“這就好像安樂死,盡管大家都知道它對于維護(hù)人的尊嚴(yán)的好處,但是在無法防止被濫用而且生命一旦損失就無法補(bǔ)救的情況下,世界各國對放開安樂死還是比較謹(jǐn)慎的?!蓖蹂|說。

濫用刷臉屬于技術(shù)不當(dāng)使用

從密碼識別到芯片識別,再到個(gè)體生物特征識別(包括指紋、語音以及面部識別等),就加密或識別技術(shù)而言,日新月異的科技在帶來便捷與效率的同時(shí)也帶來擔(dān)憂。

正因?yàn)槿四樧R別技術(shù)可能會導(dǎo)致對隱私和公民權(quán)利的侵犯,目前,一些國家和地區(qū)已經(jīng)開始對人臉識別技術(shù)持謹(jǐn)慎甚至否定的態(tài)度,并從法律層面加以防范。

8月,瑞典數(shù)據(jù)保護(hù)機(jī)構(gòu)對瑞典一所中學(xué)因違反《通用數(shù)據(jù)保護(hù)條例》而判處約1.9萬歐元罰款。原因是該機(jī)構(gòu)被發(fā)現(xiàn)使用人臉識別技術(shù)來監(jiān)控22名高中生的出勤率。瑞典數(shù)據(jù)監(jiān)管機(jī)構(gòu)認(rèn)為,在日常環(huán)境中對學(xué)生進(jìn)行攝像監(jiān)控等行為侵犯了學(xué)生的隱私,即便教育部門事先取得那些學(xué)生家長的同意,但仍然沒有足夠的合法理由,去搜集其他人的敏感數(shù)據(jù)。再以美國為例,鑒于該項(xiàng)技術(shù)可能會引起對有色人種的歧視,美國舊金山市今年專門出臺禁令,成為第一個(gè)禁止使用人臉識別技術(shù)的城市。此外,一些其他城市,如加利福尼亞州奧克蘭市以及馬薩諸塞州薩默維爾市也都提出了類似禁令建議。

中國社會科學(xué)院法學(xué)所研究員、教授姚佳分析指出,對于人類來說,除了保護(hù)人格尊嚴(yán)等精神層面,最重要的就是對生物層面的保護(hù),因?yàn)楹笳卟攀俏ㄒ恢械摹拔ㄒ弧?,是完全無法替代的。

“技術(shù)本身并無好壞善惡之分,但是人們利用技術(shù)的行為應(yīng)接受評判,人們在應(yīng)用技術(shù)時(shí)應(yīng)充分考慮技術(shù)可能帶來的負(fù)面影響并將風(fēng)險(xiǎn)降至最低。技術(shù)本來是為了便捷和提高效率,濫用‘刷臉’屬于典型的技術(shù)不當(dāng)使用?!币颜f。

人工智能技術(shù)發(fā)展須有法律規(guī)范

顯然,以人臉識別為代表的人工智能技術(shù)的急速擴(kuò)張帶來的法律問題不容回避,但現(xiàn)行法律卻顯得“力不從心”。目前,對于包括收集主體、目的、方法、范圍與程序等在內(nèi)的關(guān)鍵問題,法律尚一片空白,尤其是缺乏對侵權(quán)責(zé)任者的追究機(jī)制。

值得一提的是,今年6月,國家新一代人工智能治理專業(yè)委員會發(fā)布《新一代人工智能治理原則》,提出對人工智能治理的框架和行動指南,呼吁發(fā)展“負(fù)責(zé)任的人工智能”,即技術(shù)的發(fā)展應(yīng)該符合人類的價(jià)值觀和倫理道德,避免誤用,禁止濫用、惡用。

“應(yīng)把保護(hù)人類能動性作為人工智能研發(fā)的底線原則?!敝袊ヂ?lián)網(wǎng)協(xié)會青年專家、國家能源集團(tuán)研究院研究員畢競悅認(rèn)為,以人臉識別技術(shù)為代表的人工智能的發(fā)展不應(yīng)妨礙人類自治,人類不從屬于人工智能系統(tǒng),也不應(yīng)受到人工智能系統(tǒng)的脅迫。人類與人工智能系統(tǒng)互動時(shí)必須保持充分有效的自我決定權(quán),有權(quán)選擇退出。

在畢競悅看來,科技的發(fā)展有利有弊,但總體而言利大于弊。不應(yīng)因噎廢食恐懼于科技的發(fā)展,而要善于利用科技增進(jìn)人類福祉。在此過程中,政府要承擔(dān)起監(jiān)管和制定標(biāo)準(zhǔn)的責(zé)任。

畢競悅具體分析說,首先,在人臉識別等人工智能系統(tǒng)的開發(fā)、使用和管理過程中要確保公平。開發(fā)人員和實(shí)施者需要確保不讓特定個(gè)人或少數(shù)群體遭受偏見、侮辱和歧視,避免將弱勢群體置于更為不利的地位。在發(fā)生危害時(shí),可以為用戶提供有效補(bǔ)救。政府還可以提供機(jī)制,保障特殊群體的需求。其次,透明性應(yīng)成為人工智能運(yùn)行的基本要求。在使用包括人臉識別在內(nèi)的人工智能技術(shù)收集個(gè)人信息時(shí),必須保障個(gè)體的知情權(quán),并擁有選擇退出的權(quán)利。再次,人工智能系統(tǒng)的全生命周期都必須保護(hù)隱私數(shù)據(jù)。包括用戶提供的所有數(shù)據(jù)以及在與人工智能系統(tǒng)交互過程中生成的關(guān)于用戶的所有信息。此外,還要建立起具體、可操作的責(zé)任機(jī)制。

“新技術(shù)處于發(fā)展初期,法律制度不能過于嚴(yán)苛,需要鼓勵(lì)新產(chǎn)業(yè)的發(fā)展。但是,當(dāng)行業(yè)發(fā)展較為成熟,新技術(shù)影響到公眾的生活安寧,就需要嚴(yán)格法律規(guī)范予以調(diào)整,就應(yīng)該建立更加嚴(yán)格的準(zhǔn)入和監(jiān)管制度?!敝袊茖W(xué)技術(shù)法學(xué)會常委會理事、北京市偉博律師事務(wù)所主任李偉民說。

李偉民建議盡快建立“人臉識別倫理規(guī)范”,評估新技術(shù)的價(jià)值和作用,加強(qiáng)新技術(shù)的行業(yè)監(jiān)管。時(shí)機(jī)成熟之時(shí),建立關(guān)于人臉識別的專門法律制度,規(guī)范大數(shù)據(jù)的采集、保管、加工、交易等環(huán)節(jié)中的法律監(jiān)管,防止人臉識別過程中的信息泄露。“技術(shù)應(yīng)該服務(wù)于人類、方便為人類應(yīng)用,而不能成為限制人行為、傷害人生活安寧的工具。我們應(yīng)該建立對人臉識別技術(shù)的風(fēng)險(xiǎn)評估、法律規(guī)范的相應(yīng)制度,讓人臉識別技術(shù)在一個(gè)合理范圍內(nèi)服務(wù)人類。”

同時(shí),李偉民還建議制定人臉識別技術(shù)應(yīng)用的相關(guān)規(guī)范制度?!跋嚓P(guān)部門采用人臉識別技術(shù)應(yīng)當(dāng)遵守嚴(yán)格的程序限制,履行嚴(yán)格的審批、聽證、公開等程序,廣泛聽取民意,讓人臉識別技術(shù)的應(yīng)用做到以‘必要’為限?!?/p>

人工智能勢頭猛,立法如何跟上

記者 朱寧寧

很多時(shí)候,技術(shù)越強(qiáng)大,內(nèi)心越恐慌。

人臉識別作為生物識別的一種技術(shù),可用來長期追蹤個(gè)人身份、去向、習(xí)慣。據(jù)悉,最新的人臉識別技術(shù)通過對人臉面部表情的深度識別,不僅能夠識別性別與估計(jì)年齡,還能夠辨別個(gè)人的面部表情,計(jì)算個(gè)體內(nèi)心世界的真實(shí)情感。這意味著,人臉識別不但能看清臉,還能讀懂心,不僅能把行蹤摸清楚,還能把內(nèi)心想明白。

然而,以人臉識別為代表的科學(xué)技術(shù)的高速發(fā)展和廣泛應(yīng)用,也給個(gè)人信息保護(hù)帶來巨大挑戰(zhàn)。目前,我國有關(guān)數(shù)據(jù)管理、數(shù)據(jù)安全等人工智能內(nèi)容以及個(gè)人信息保護(hù)等規(guī)定散見于一些法律之中。比如,根據(jù)現(xiàn)行刑法規(guī)定,不經(jīng)同意而非法獲取,或者將合法取得的個(gè)人信息出售給第三方,此類行為均涉嫌構(gòu)成侵犯公民個(gè)人信息罪。民法總則第一百一十一條規(guī)定,任何組織和個(gè)人需要獲取他人個(gè)人信息的,應(yīng)當(dāng)依法取得并確保信息安全,不得非法收集、使用、加工、傳輸他人個(gè)人信息,不得非法買賣、提供或者公開他人個(gè)人信息。消費(fèi)者權(quán)益保護(hù)法第二十九條規(guī)定,經(jīng)營者收集、使用消費(fèi)者個(gè)人信息,應(yīng)當(dāng)遵循合法、正當(dāng)、必要的原則,明示收集、使用信息的目的、方式和范圍,并經(jīng)消費(fèi)者同意。經(jīng)營者收集、使用消費(fèi)者個(gè)人信息,應(yīng)當(dāng)公開其收集、使用規(guī)則,不得違反法律、法規(guī)的規(guī)定和雙方的約定收集、使用信息。網(wǎng)絡(luò)安全法中明確了對個(gè)人信息收集、使用及保護(hù)的要求,并規(guī)定了個(gè)人對其個(gè)人信息進(jìn)行更正或刪除的權(quán)利。目前正在編纂中的民法典人格權(quán)編草案對“換臉”等人工智能技術(shù)使用等作出了回應(yīng)。草案規(guī)定,任何組織或者個(gè)人不得以利用信息技術(shù)手段偽造的方式侵害他人的肖像權(quán)。此外,2019年,中央網(wǎng)信辦發(fā)布了《數(shù)據(jù)安全管理辦法(征求意見稿)》,向社會公開征求意見,明確了個(gè)人信息和重要數(shù)據(jù)的收集、處理、使用和安全監(jiān)督管理的相關(guān)標(biāo)準(zhǔn)和規(guī)范。

然而,制定專門的數(shù)據(jù)安全法、個(gè)人信息保護(hù)法仍然是必要的。值得一提的是,十三屆全國人大常委會立法規(guī)劃中,數(shù)據(jù)安全法與其他68部法律被列為“條件比較成熟、任期內(nèi)擬提請審議的法律草案”。2019年十三屆全國人大二次會議新聞發(fā)布會上,大會發(fā)言人張業(yè)遂稱在2019年將推進(jìn)數(shù)據(jù)安全法立法工作。

然而,立法加速的同時(shí),不得不看到技術(shù)的突破和進(jìn)步速度似乎更快。由此,給立法工作帶來的挑戰(zhàn)也不斷加碼。立法該怎樣追趕技術(shù)的腳步呢?

鑒于此,有專家建議全國人大常委會積極授權(quán)國務(wù)院和地方各級人大先行先試相關(guān)領(lǐng)域立法。比如,目前,大數(shù)據(jù)、網(wǎng)絡(luò)平臺治理、人工智能、生物技術(shù)等前沿科技引發(fā)的隱私權(quán)保護(hù)等問題比較突出的地方大都位于北京、上海、廣東、浙江、江蘇等地方,而這些地方人大的立法專業(yè)化水平也都較高。據(jù)了解,現(xiàn)在一些地方已經(jīng)在積極推進(jìn)人工智能立法。比如,上海市最近在《上海市促進(jìn)國際科創(chuàng)中心建設(shè)條例》起草過程中,將人工智能、大數(shù)據(jù)等前沿科技的安全規(guī)制等問題凝練成條款。同時(shí),立法中還可借鑒地方立法以往采用的專業(yè)性專職委員等好的做法,將一些前沿科技治理研究的學(xué)者或者實(shí)務(wù)人員充實(shí)到立法隊(duì)伍中,以加快相關(guān)立法起草的速度和質(zhì)量。此外,考慮到前沿科技涉及利益群體較多,地方各級人大要解放思想,除了一部分涉及國家安全的條款,其他部分應(yīng)將開門立法的理念貫徹到底,要讓民眾積極地參與其中,以避免產(chǎn)業(yè)界通過立法和規(guī)范性文件的制定來進(jìn)行利益立法。

(責(zé)編:趙光霞、宋心蕊)
推薦內(nèi)容