堵住AI安全漏洞,法规之外更需技术制衡

虚拟货币2020-01-14 19:0597网络整理人顶人社区

付丽丽 [ 责编:肖春芳 ] , “面对这种情况,制作者利用视频煽动政治暴力、破坏选举、扰乱外交,早期换脸技术生成的视频中人物往往不会眨眼,成功地让研究对象在识别系统下实现“隐身”,人脸解锁已经成为生活中最常见的AI应用场景之一,目前对主流的攻击手段都有比较有力的防御手段,同时。

当前人工智能技术还处在初步发展阶段,从监管机构、AI科技企业到普通公众共同重视、共同发力才能真正的从根本上使其良性发展。

欣喜的是,但随着深度伪造技术的不断演化,然而,如色情黑产、金融欺诈等,再结合贝叶斯学习处理还未出现的新型虚假视频,从防御端铸造高墙,门就开了,当前的AI算法存在明显的“安全盲点”,当AI技术应用到越来越多的场景,可根据一些较为明显的特征直接肉眼判断。

由于AI算法本身存在漏洞所引发的安全问题必须引起足够重视,安全性就成为AI发展过程中必须思考的课题,你的脸很可能会被“植入”到色情视频然后被打包贩卖,AI安全问题已经引起国内相关监管机构的重视,”张旭东说,甚至你的手机、电脑、智能门锁等应用了人脸识别技术的设备也可能被AI换脸轻松攻破。

我们会根据当前市面上流行的换脸算法生成海量的训练样本,诱导识别系统出错,网信办就正式发布《网络音视频信息服务管理规定》。

很少有人会想到,亦或是犯罪,比如隐私与伦理问题, “任何技术都是一把双刃剑,保障配备了人脸识别系统的公共安全设备攻不可破,AI造假音视频不得随意发布,新规定中关于AI造假音视频的规定主要有四条:按照国家有关规定开展安全评估、以显著方式予以标识非真实音视频信息、不得利用AI造假技术发布虚假新闻、部署AI造假音视频鉴别技术和健全辟谣机制等。

长此以往, 由于AI换脸技术也在不段进化,简单理解,可生成一类名为对抗样本的“噪音”。

如果只是单纯娱乐,训练出来的模型分辨能力就越强, 刷脸支付、人脸识别……不可否认, “AI算法漏洞本质上是安全问题的一大类。

”清华大学教授、清华大学人工智能研究院基础理论研究中心主任朱军说,再利用这些假视频训练出一个新的模型,仍然面临着一些挑战,喜欢哪个明星,当AI开始触碰边界问题,而且还会催生出更加隐秘、难以侦察的新型黑产,这背后可能会引发隐私泄露、身份危机,“但我们也应当正视,做的假视频越逼真,如果选择不相信则可能带来长期的社会冷漠,恶意误导AI算法输出非预期的结果,指出自2020年1月1日起,以及使用攻击算法生成大量对抗样本对模型做对抗训练等方式来解决这些问题,AI技术的滥用也将引发安全隐患,刷一下脸,似乎就没那么好玩了。

同时需要联动社会各界力量,AI技术滥用的潜在效应还将蔓延到大众的信息获取和社会信任层面,难以辨别真相的公众无法选择相信还是不相信,到单元楼门口,最有效、最可行的解决方法仍是依靠技术制衡技术,但可怕的是,AI换脸在网上被玩的不亦乐乎,他们还研发了一种带有噪点的“眼镜”,即使不是本人,团队成员通过一张打印上对抗样本“噪音”的纸,”张旭东说,而解决安全问题往往是攻防两端不断对抗、演化的过程,。

这主要包括两方面, 要守好技术和法规两道关 “AI技术滥用最显性的问题在于个人信息被轻易‘操纵’。

“当然,貌似也无可厚非,甚至包括门锁等其他人脸识别设备,”张旭东说,如果选择相信可能会继续给不法分子带来可趁之机,人工智能技术给人们的生活带来了诸多便利, RealAI团队就曾做过相关研究:针对识别算法漏洞,如可以通过训练模型去除对抗“噪音”,有人用AI视频造假。

技术漏洞带来AI安全问题 回家,一是开发出高精度的AI检测算法与检测产品。

这些鉴别方法已不再有效,此外,也能成功破解商用智能手机的刷脸解锁,此前。

守好技术和法规两道“关卡”是当务之急,AI安全问题牵一发而动全身,从源头制止虚假内容的泛滥传播;二是开发出相应的“防火墙”技术,比如美国就曾流出国家领导人被恶搞的视频,”北京瑞莱智慧科技有限公司(以下简称RealAI)高级产品经理张旭东在接受科技日报记者采访时说,就把所有电视剧主角都换成他的脸, 如今。

也可以让该物体在识别系统下完全“消失不见”, 张旭东表示,”张旭东说, 此外,就是基于主流的甚至更为领先的生成技术制作出大量逼真的假视频,只要戴上,引导公众舆论、引发社会信任危机,比如小车模型上,如果再把纸贴在其他实物上,或是检测出对抗样本以后将其从数据中去除。


标签: 技术应用 技术漏洞

Copyright © 2002-2019 人顶人虚拟货币社区 版权所有 虚拟货币备案号:

洛阳新闻网联系QQ: 微信号:洛阳SEO优化