财新传媒
财新网 > 科技 > 正文

AI·研究院|中科院曾毅:很多企业对AI安全风险视而不见

2019年11月01日 14:12 来源于 财新网
可以听文章啦!
曾毅强调禁用技术并不能解决风险问题,建议国家建立人工智能监管平台,呼吁人工智能从业者要有红线意识
10月31日,中国科学院自动化研究所研究员曾毅表示,实际上很多企业对存在的风险视而不见,人工智能的健康发展,一定是治理和发展双轮驱动,要保证它向着正确的方向发展。图为在中关村国际前沿科技成果展上,参观者与服务型机器人互动。图/视觉中国

  【财新网】(记者 叶展旗)在人工智能(AI)发展过程中,真正的风险并不是人们想象的超级智能,而是现已涌现的安全、伦理问题。10月31日,在2019北京智源大会上,中国科学院自动化研究所研究员曾毅接受财新等采访时表示,实际上很多企业对存在的风险视而不见,人工智能的健康发展,一定是治理和发展双轮驱动,要保证它向着正确的方向发展。

  曾毅举例称,当用对抗神经网络生成一个乌龟的3D模型,谷歌的分类系统就有80%的几率,把这个乌龟的模型识别成来福枪,另外20%的几率识别为其它的东西,但也绝对不会是乌龟。这也就是说,系统没有一次能把3D乌龟模型成功识别出来。因为对抗神经网络改变了3D乌龟模型的局部纹理,使得基于统计意义的分类系统,没有办法把它识别出来。

责任编辑:屈运栩 | 版面编辑:张柘
财新私房课
好课推荐
财新微信


热词推荐
中央军事委员会 冀中星 医学生 孟晚舟 第一集团军 全国人大常委会 存贷比 股灾 中远集团 人工心脏 敲诈勒索罪 五大战区 僭越 一致行动人 昆明火车站暴恐案