百度安全马杰:不要害怕,最好是拥抱




在人工智能方面,人们有一种经典的恐惧:

一旦人工智能发展,它将取代所有人的工作;继续发展并最终奴役人类。 ”

有一个小故事可以解决他们的疑虑:

在伦敦,有一辆汽车持续了几十年,取而代之的是马车。伦敦的10万名车夫熬夜并在街头游行,担心失业。最后,大多数车夫都成了出租车司机,而世界末日并未到来。

对于人工智能威胁理论,我的判断一直是:“担心被人工智能抢夺工作的女性将首先被别人抢夺工作;那些被人工智能所奴役的人将首先成为他人的附庸。 “

我今天要讨论的是另一个更实际的恐惧:人工智能本身是否存在安全问题?

2017年,百度李董事将无人驾驶车辆带到五环路,并收到违反规定的罚单。虽然后来证明“实线”和“不转灯”是人类驾驶员的行为,但它仍然让很多吃瓜的人感到有点惊心动魄。

在未来,人工智能将帮助我开车并帮助我治愈。如果我被黑客攻击做出“愚蠢”的事情,后果仍然非常严重。刚开一个脑洞:

如果自动驾驶的“大脑”被入侵,那么在第四环路上会有一千多只“野马”,乘客会执行《速激8》剧。

如果自动手术的“机器医生”程序令人困惑,那么它将准备打开一厘米的微创手术,从而导致一米长的开口。 。 。

这会发生吗?

1.有自然安全的工具吗?

根据我的惯例,要回答人工智能是否安全的问题,您必须首先定义其属性:

无论是汽车还是无人驾驶汽车,它们基本上都是“工具”,如锤子和打火机。因为我们对世界的理解是渐进的,所以工具的安全性也在逐步提高。由于其“利润”慢慢超过“劣势”,这个工具将逐渐扩散。

我举几个例子:

1. 1910年,美国颁布了禁止酒后驾车的法律; 1968年颁布法律,强迫司机系安全带。今天是90分。在汽车普及过程中,经历了百年事故发生频率缓慢下降的时期。2.作为世界上最受认可的工具,互联网也经历了十年极低的安全性。大约2000年前,大量的病毒出现在红色代码,冲击波和熊猫烧香中。病毒只需要十几个小时就可以占据全世界的计算机,比1942年的灾难要严重得多。经过这么多年的发展,今天的网络安全水平大概是80分。

3,人工智能将不可避免地面临同样的命运。历史不会重演,但会押韵。与其为人工智能的完善而祈祷,不如研究如何使其更安全。

说到这,你必须让今天的主角,互联网巨头百度首次亮相。百度,两年前的“All in AI”,已经在这条赛道上取得了领先地位。世界仍然相当公平:跑得快的人会首先遇到坑。因此,百度在“人工智能安全”方面积累了大量经验。

李艳红乘坐自驾车,在北京五环路上行走。

不久前,我遇到了百度安全事业部总经理马杰和百度安防产品部总经理韩祖立。与他们交谈后,我相信会发生两件事:

1.下一个大规模流行的人工智能产品可能来自百度;

2.对于大规模用户,问题将暴露出来并引起广泛关注。所以第一个遇到并解决人工智能安全问题的人也可能是百度。

那么,人工智能面临的具体风险是什么?

马杰(画左)和韩祖丽(画右)

第二,人工智能的安全问题是什么?

韩祖利将人工智能面临的问题分为五类。

1,传感器欺骗

在2017年的大黑客大赛中,百度安全实验室用A4纸打印的面部欺骗了面部解锁装置;相同的A4纸也可用于打印后的虹膜识别; A4纸甚至可以破解社会保障系统中使用的“高手指安全”技术。

人脸识别,虹膜识别,指纹识别和手指静脉识别都是基于人工智能的一个重要分支:图像识别技术。小格雷告诉我:“每个人使用的识别技术都将基于传感器来收集信息,然后输入算法。因此,只要他们知道这些传感器需要”看到“的内容,我们就会伪造一个。我很容易欺骗和欺骗它。“

这是小灰灰色的眼睛,用于破解虹膜识别系统。

这也是韩祖丽在人工智能眼中面临的第一个问题:“传感器欺骗”。

一种简单的验证方法,例如仅面部识别或虹膜识别,具有旁路技术。因此,当前业界的解决方案是“多因素认证”,这意味着同时使用两种或更多种认证方法。 。同时,两种认证方法被欺骗,难度变得更大。

他说。

2,软件缺陷

着名的TensorFlow是由谷歌推出的机器学习系统。每个人都可以使用这个平台开发自己的人工智能应用程序。

但是假设架构本身存在漏洞?

Han Zuli说:“Tensor有887万行代码。不仅如此,要运行Tensor,你需要调用100多个依赖库,其中很多都是多年前的”古老古董“。代码已经超出了人工审计。数量,必须有漏洞。“

此图表列出了主要人工智能平台的漏洞(点击放大)

看一下上图,这是每个主要人工智能平台的漏洞表。不用说,他们很脆弱。

似乎没有好办法处理这种漏洞,即不断审计和发现问题。安全研究人员的责任就在这里,至少百度在自己的Paddle Paddle人工智能平台上做到这一点。

3,数据中毒

当谈到数据中毒时,它是AI攻防的最激动人心的部分。它也是最接近人们想象力的人。

Down Song是加州大学伯克利分校着名的人工智能专家,是“城市游戏”的代表。她在一个标有“停止”的牌子上贴了几条胶水。人类似乎根本没有任何东西,但在自主智能智能方面,这是一个每小时45公里的速度限制。想象一下,如果您的自动驾驶汽车遇到这样的标志,您会毫不犹豫地冲过去,让您体验从救护车到医院救援的整个过程。

韩祖利说,这是“反数据”的标准。

还有很多其他的游戏方式,例如日本的团队,每个图像都添加一个像素,这可能会使人工智能识别成为一个大错误,直接将鹿称为马。 (顺便说一下,他们正在获得一个非常强大的Face系统。)

再举一个例子,如果你欠了一个朋友200,000并且不打算返回,你必须进行整容。但如果你想让人脸识别不认识你,你只需要这种特殊的照明眼镜。一旦戴上,它将被系统识别为另一个人。

虽然人工智能被称为人工智能,但事实上,目前的技术还没有达到人类完整的知识体系。因此,许多人看起来很低的欺骗性方法很容易“绊倒”它。

我刚才所说的是它反对已经“成人”的人工智能。有些人甚至做得更多。当人工智能接受数据训练时,它直接将数据与“毒性”混合,以便训练的人工智能具有自然缺陷。

这是“数据集中毒”。

毕竟,目前的人工智能就像一个孩子,孩子们经常被欺骗。

4,系统安全

人工智能系统将在操作系统上运行。而这些操作系统每年都会被“白帽子”发现很多漏洞,带有一堆补丁。在前一阶段爆发的WannaCry病毒,未修补的计算机遭受了损失。

特别是对于许多具有智能功能的硬件,如果操作系统存在未及时填补的漏洞,则很可能由黑客控制。

5,网络安全

与系统安全性类似,网络安全性不是人工智能的独特威胁。只要有通过网络传输的数据,黑客就有可能拦截数据。

您可能会觉得有很多角度和姿势可以摆脱人工智能。事实上,所有的安全都是这样的:防守者必须占据砖墙的每一寸,而攻击者可以找到一个突破点,你已经完成了。这是典型的内部和外部操作之间的差异。不幸的是,人工智能处于进化的顶端,不仅受到其他人的威胁,而且还面临着独特的威胁。三,百度的人工智能会受到攻击吗?

说这么多攻击人工智能的方法,但在大多数情况下,这些攻击不会发生。黑客入侵系统的基本要素之一是——动机。在这个时代,做坏事的动机通常是金钱。

我一直在强调平衡点的概念。这是一个例子:当用户的大小达到一定水平,越过平衡点时,它在攻击者眼中具有价值。因此,百度想要关注的是拥有或将拥有众多用户的产品。

我认为百度目前有两款人工智能产品在前面运行,即“DuerOS人工智能操作系统”和“Apollo无人驾驶系统”。果然,百度安全部门总经理马杰对这两款产品非常关注。

如DuerOS的Raven扬声器

我先来谈谈DuerOS。

DuerOS是一种嵌入各种智能硬件的人工智能操作系统。例如,Raven扬声器,Fill耳机和DuerOS都嵌入其中。

一般而言,诸如智能空气净化器,智能扬声器和家政机器人之类的东西都配有许多传感器,例如声音收集,视频捕捉,并且通常放置在起居室或甚至卧室中。如果他们受黑客控制,上传一点声音和视频真的很尴尬。 。 。

但为了防止这些事情发生,只有DuerOS本身的安全性还不够。

DuerOS已经拥有一个四位数的合作伙伴,但这些硬件通常由合作伙伴生产。原则上,百度只是人工智能系统的提供者,无法控制合作伙伴的硬件安全性或操作系统的安全性。

但任何设备都有问题,损坏是百度的品牌。因此,我们必须尽力帮助我们的合作伙伴做其他安全方面。

马杰说。

他们是如何做到这一点,以避免锅?

每个知道如何打击一个团体的人都知道,为了解决他们做不到的事情,他们通常需要“联盟”。在酿造半年后,百度终于在2017年底推出了AI联盟。它主要提出了一套技术标准,包括:安全Linux内核,补丁热修复技术,安全通信协议,身份认证机制,自动攻击拦截五项技术。这几乎涵盖了本文第二部分提到的“对人工智能的五大威胁”。其中许多技术都是百度首席安全科学家魏伟团队“Xteam”的核心。

这个新词更多,简单的总结,就是百度开发了一套完整的人工智能安全解决方案,可以包含在DuerOS中。鉴于智能硬件供应商的安全性能普遍较低,奖金不太合适。用马佳的话来说,它被称为“强制奖金”。——只要使用DuerOS,就必须采用AI Alliance认证的安全方案。这节省了时间和精力,非常高兴。

从这个角度来看,DuerOS硬件应用的安全性得到了保证。

2,我们来谈谈阿波罗

李艳红说,通过Apollo平台大规模生产无人驾驶汽车的时间是2019年。

目前,Apollo是一个开源自动驾驶系统,迭代迭代(代码可以去Github监控他们的进度),在每个新发布之前,这是百度安全同学熬夜的季节。因为他们负责审查代码的安全性,所以要查找代码中的缺陷。

这是“软件安全”。

阿波罗系统

每个人都喜欢老司机因为他们“稳定”。在自动驾驶的世界中,人工智能的作用是驱动力。如果阿波罗不“稳定”,如何抓住秋天的山峰。说实话,无人驾驶安全的重要性不仅仅是卧室里的“上传”净化器。

无人驾驶车辆是人工智能的第一个主要战场。在科学法律方面,无论哪个公司的无人驾驶车辆越流行,越容易暴露安全问题。

在这个阶段,即使是第一批百度无人驾驶车辆也在研究和开发过程中,直接脑补充《速度与激情8》中的场景有些不合时宜。如果你问我,汽车中人工智能将面临什么样的特定攻击姿势,最科学的答案是:我不知道。可以说,对于无人驾驶车辆的安全性,挑战更大,但时间窗口尚未到来。

4.我们应该采取什么姿势来担心?

如上所述,人工智能的许多具体风险可能尚不清楚。未知的性质会引起恐惧。

我们应该宽恕我们的恐惧吗?

在文章的开头,我提到了一辆汽车取代马车的故事。事实上,这个故事有更多细节:

150年前,这辆车刚刚被发明,它被认为是一个怪物。

那时,伦敦敦的所有街道都挤满了马车。从侧面看,他们无法杀死汽车,并经常挑战马的脆弱心脏。受惊的马引发了很多事故。汽车本身的安全性也令人担忧。打开一份英国报纸,一本漫画书进入视野:汽车爆炸了,汽车里的人们飞了起来。

有了这个危险的东西来取代伦敦优雅而精彩的10万匹马,人们不同意。

听到群众的声音,1858年英国实施了“红旗法”,规定郊区的车速限制为4码,城市的限速为2码(你不是错误,比走路慢,但也在车前,有一个人走路并拿着一面红旗,促使大家“危险就在附近”。

你看,今天到处都可以看到的普通汽车被视为洪水和野兽。当时对人们的恐惧几乎是后人眼中的笑声。

随着技术的落地,持续的后续研究是对人工智能安全最负责任的态度。正如马杰所说:“最可怕的问题来自于没有意识到。只要你意识到这一点,你终于可以解决它。”

除百度安全学生外,BSRC(百度安全应急响应中心)还有许多白帽帮助百度发现安全问题。因此,与白帽合作也是百度人工智能安全的重要组成部分。

说实话,即使是像白帽这样的职业黑客,人工智能也是一种相对陌生的技术。要研究人工智能的安全性,首先需要了解它。

在马杰看来,保安人员有一个“技能表”。找到漏洞至关重要。例如,CPU和系统内核的架构都是高端白帽的必备技能。人工智能很可能成为“技能表”的下一个焦点。“无论你是使用人工智能来发现漏洞还是找到人工智能的漏洞,你必须先完全理解它。而且这种学习越早开始越好。”他说。

在刚刚结束的BSRC年度活动中,百度安全还因杰出的白帽而获奖。今年,百度白帽年终奖已经达到一百万元,这是相当多的。

再说新技术。我们的恐惧最终可能不会改变任何东西,比如最终走进每个人车库的“危险”汽车:

19世纪末,卡尔·奔驰发明了内燃机汽车。有一次他在路上带着当地官员。由于类似“红旗法”的监管限制,德国汽车不能超过6公里,所以他们只能前进。

突然,一辆马车过去了,司机转过身来,嘲笑他们。

这位官员非常愤怒,并对Bentz大喊:“赶紧跟我来吧!”

Bentz的借口无助:“但政府有规定......”

“不关心规则是什么!我是规则!追逐!”官员喊道。

听着这句话,Bentz踩到了加速器。他们的车立刻超过了马车,从那时起,它就没有赶上。

马杰所说的只不过是八个字:拥抱比拥抱更好。









时间:2019-03-04 18:32:23 来源:时时彩平台推荐 作者:匿名