行业报告 AI展会 数据标注 标注供求
数据标注数据集
主页 > 机器视觉 > 正文

Fawkes照片工具:秘密给人脸识别系统“下毒”

据外媒报道,互联网上充斥着数十亿张照片,其中许多都消失在已经被废弃的账号和旧托管服务中。然而由于社交媒体平台的兴起,将它们跟照片中的人物链接起来比以往任何时候都容易。不为公众所知的是,一些公司正在悄悄地下载这些内容并用它来创建秘密的人脸识别模型的主体…但有一个解决方案,它被称为Fawkes。

资料图

很明显,面部识别模型被面部识别系统用来识别一个特定的人。AI接受的图像越多,它就能越能准确地识别随机视频和图像中的人物--包括实时监控等。很多人都没有意识到这些面部识别模型的存在,而这对隐私的影响真的很可怕。

企业和政府能通过简单地收集人们在网上自由发布的自己的图片来训练他们的人工智能模型。大量的信息被输入到人工智能系统中并由此形成一个难以阻止的难题。

芝加哥大学SAND实验室的研究人员为解决这一问题迈出了一步,他们让普通人能对自己的图像进行复杂的控制。该团队已经公开发布了Fawkes,一个简单、免费的工具,它使用人工智能对一个图像进行微调从而使其在人类看来是不变的但在人工智能系统训练时却变得“高度扭曲”。

研究人员解释称,通过向系统输入这些图像,某人本质上是在参与一种“攻击”,通过破坏系统对那个人长相的理解来毒害系统。输入给人工智能的每一张“中毒”图像都降低了它在图像和视频中准确识别那个人的能力,使得它对于任何想要利用它的公司或政府来说几乎毫无用处。

Fawkes并不是一个简单的图像操纵器,而是一个更复杂的人工智能驱动的应用,它会产生一些无法被目标面部识别训练系统检测到的变化,这意味着它们将无法识别并移除那些有害的“有毒”图像。研究人员称,由于无法分辨出哪些图像被隐藏了,这些公司将不得不投入相当大的精力,对收集到的所有内容进行分类以找到导致图像失真的图像。

根据这项研究,对人工智能的测试显示了非常高的准确率。


微信公众号

声明:本站部分作品是由网友自主投稿和发布、编辑整理上传,对此类作品本站仅提供交流平台,转载的目的在于传递更多信息及用于网络分享,并不代表本站赞同其观点和对其真实性负责,不为其版权负责。如果您发现网站上有侵犯您的知识产权的作品,请与我们取得联系,我们会及时修改或删除。

网友评论:

发表评论
请自觉遵守互联网相关的政策法规,严禁发布色情、暴力、反动的言论。
评价:
表情:
用户名: 验证码:点击我更换图片
SEM推广服务

Copyright©2005-2026 Sykv.com 可思数据 版权所有    京ICP备14056871号

关于我们   免责声明   广告合作   版权声明   联系我们   原创投稿   网站地图  

可思数据 数据标注行业联盟

扫码入群
扫码关注

微信公众号

返回顶部