行业报告 AI展会 数据标注 标注供求
数据标注数据集
主页 > 机器视觉 > 正文

人脸识别技术被套上“枷锁”?技术还需等一等制度

以后在公共场合不能随意使用人脸识别技术了?近日,欧盟以377:248的投票结果通过了一项决议——禁止警方在公共场所使用面部识别技术,并对其使用人工智能进行预测性警务活动实施严格的限制措施。

 

无独有偶,中国也采取了一系列相关措施。去年10月,备受瞩目的《个人信息保护法(草案)》在中国人大网公布,向社会征求意见。主题是对于在公共场所中的图像采集、个人身份识别设备做出规定:例如所收集的个人图像、个人身份特征信息只能用于维护公共安全的目的,不得公开或者向他人提供等。

看起来大热的人脸识别技术正在被套上越来越重的“枷锁”。但此前人们对人脸识别技术还持有一种积极的、完全开放的态度,为何现在却是如此对待呢?

从技术层面来看,人脸识别技术在欧洲对LGBT人士、少数民族、妇女、老年人都进行过错误的辨认,这就造成了该技术经常产生歧视的结果。很多人并不希望自己的个人信息被泄露,他们会担心隐私保护措施不到位、数据被随意篡改,由此产生失控的后果,甚至还有人担心人工智能有一天掌握了充足的人类信息之后会统治世界。

除了政府之外,巨头也采取了相关措施。例如2020年2月,德国工业巨头博世发表了《AI道德准则》,提出将人工智能限制在安全、可靠、可解释的范围之内,认为人类应始终保留对人工智能的控制权。

普华永道的一份报告显示,自2018年以来,欧洲各种组织共发表了44份报告,对“人工智能伦理”提出了建议,看起来欧洲已经下定决心要把人工智能关进“牢笼中”。

而在中国,人脸识别技术在公共场所的应用过程中也没少“惹祸”:某房地产商在售楼中心使用人脸识别技术对顾客进行分析,以便更精准地卖房;杭州野生动物世界要求年卡用户刷脸入园,因此被告上法庭,成为“中国人脸识别第一案”;某些小区为方便管理,强制居民使用人脸识别门禁等。

其实人们对人脸识别的担忧,主要来源于其技术普及程度过快,但实际上并不成熟,以及政策与法律的滞后所产生的风险。没有足够的约束,没有明确的界定,导致信息透明度不足,公众就无法知悉自己的数据究竟归属谁手、会被用于何处,这在当今这个隐私本就难保的世界必然会引发更大的担忧。

总的来看,人脸识别技术虽好,但没有限制的狂奔,不论对技术今后的发展还是人们的隐私安全都是弊大于利的。就像欧盟委员会所说的,人工智能发展迅猛,但也要应对一系列潜在的风险。“技术必须遵从人民的权利”,因此现阶段只能给它套上“枷锁”,用这种强制性的手段让人脸识别技术等一等政策和法规,这也是为了该技术以后更广阔的前景以及人类的安全着想。

微信公众号

声明:本站部分作品是由网友自主投稿和发布、编辑整理上传,对此类作品本站仅提供交流平台,转载的目的在于传递更多信息及用于网络分享,并不代表本站赞同其观点和对其真实性负责,不为其版权负责。如果您发现网站上有侵犯您的知识产权的作品,请与我们取得联系,我们会及时修改或删除。

网友评论:

发表评论
请自觉遵守互联网相关的政策法规,严禁发布色情、暴力、反动的言论。
评价:
表情:
用户名: 验证码:点击我更换图片
SEM推广服务

Copyright©2005-2026 Sykv.com 可思数据 版权所有    京ICP备14056871号

关于我们   免责声明   广告合作   版权声明   联系我们   原创投稿   网站地图  

可思数据 数据标注行业联盟

扫码入群
扫码关注

微信公众号

返回顶部