中国工程院院士方滨兴:内生安全问题可能成为人工智能“死穴”
原标题:中国工程院院士方滨兴:内生安全问题可能成为人工智能“死穴”
从自动驾驶到智能家居,近两年,人工智能技术和应用发展迅速,科幻电影中曾经描绘的“人机共存”时代,似乎离人类越来越近。然而,人工智能足够安全吗?4月20日,在2019西湖论剑·网络安全大会上,中国工程院院士倪光南、邬江兴、方滨兴和杨小牛,表达了他们对人工智能潜在风险的思考和隐忧。
中国工程院院士共话网络安全。
25年前的今年,中国全功能接入国际互联网,就此拉开中国互联网的发展序幕,全社会的经济、文化、生活方式迎来深刻变革。
中国工程院院士邬江兴仍然记得当年的场景。他说,大家感到“欢新鼓舞”,各行各业都在倡导“互联网+”。但在发展伊始,网络安全问题没有得到足够重视,导致了现在的很多遗留问题。
2014年,中共中央总书记习近平在中央网络安全和信息化领导小组第一次会议上强调,网络安全和信息化是一体之两翼、驱动之双轮,必须统一谋划、统一部署、统一推进、统一实施。做好网络安全和信息化工作,要处理好安全和发展的关系,做到协调一致、齐头并进,以安全保发展、以发展促安全,努力建久安之势、成长治之业。
邬江兴深以为然。但他也坦言,同步安全和发展,对于全人类而言都是挑战。如今,人工智能应用正像互联网一样进入日常生活,各行各业须及早考虑人工智能的安全问题,否则就会重走当年的老路。“不管是什么问题都会有副作用,必须在发展的初期来解决。”他说。
中国工程院院士杨小牛,也有类似担忧:“人工智能会不会又像互联网一样,刚开始不考虑它自身的安全,最后发现存在各种各样的问题,面临相当大的风险?”他认为,将来,如何让算法更加安全、可靠,是一个突出问题。
中国工程院院士方滨兴提出,人工智能的内生安全问题,可能成为其“死穴”。例如,一个被贴上几张小广告的停车标志牌,人看到标志牌会觉得毫无差别,但算法识别就会出现错误。
方滨兴介绍,这样的错误,与人工智能的内生原理有关。人工智能靠大量的数据和神经网络学习,人能够看到人工智能的处理结果,但神经网络中还有很多人看不到的隐含层。因此,几个小广告,甚至是像素点的改变,都会导致人工智能处理错误。
“现在要关注网络安全的新挑战”,中国工程院院士倪光南说,新技术带来了许多传统安全领域没有的新问题、新现象,必须予以重视。以自动驾驶汽车为例,如果黑客通过网络攻击获得了控制权,自动驾驶汽车就会变得非常危险。
采写:南都记者冯群星 蒋琳
作者:冯群星 蒋琳
(责任编辑:大马帮)
-
比如中邮基金(834344.OC),2015年11月挂牌以来到现在还没有流通股。...[详细]
-
二、痛点 魏小安曾经在一篇文章中说过这么一段话:“中国的旅游已经形成了很大的规模,但严格来说,旅游的财富创造不够,现在全国的旅游企业总体而言,经营状况不能说好,这是一...[详细]
-
好了就说这些吧,希望对大家有所帮助。...[详细]
-
习近平总书记在深度贫困地区脱贫攻坚座谈会上的重要讲话引起强烈反响
大家一退休,就是这种出海状态。...[详细]
-
现在,我们可以利用微信指数来了解某事、某人基于微信平台到底有多火。...[详细]
-
习近平同巴西联邦共和国总统举行会谈 两国元首一致同意推动中巴全面战略伙伴关系取得新的更大发展
我一直强调坦诚面对自己的实际情况的必要性:很多人以为不去想这些现实情况,就可以逃避过去,但这都是无法避免的,越早意识到现实情况,就会处理得越好。...[详细]
-
而保罗·格雷厄姆给出的定义和启发就相对准确、现实。...[详细]
-
在任何一次轮回中,市场都会进入某个亢奋的阶段。...[详细]
-
我经常问一些同行,甚至稍微后期一些基金的朋友,“投资人真的有可能比要投的创业者更懂这个行业吗?”,我惊讶于自己听到肯定答案的频率之高“当然啦,我们就是做这个的啊...[详细]
-
辨析:吴没有明说,但是联系上下文大概可以看懂,意思是平台出于自己的需要,在吹这个风,在把创业者往坑里带。...[详细]