财新传媒 财新传媒

阅读:0
听报道

人工智能正以可预见、不可预见的种种形式无孔不入地涉足社会的各个层面,这既让人兴奋,也让人不安。我们能够预测到这样的情绪反应,但我们真的能够预测到人工智能所涉及的相关风险吗?

 

AI未来如何应对人类的欺骗?

假若现在是2022年,你乘坐一辆自动驾驶汽车,按照每日的常规路线行驶。你们来到了一处停车标志前,这个地方其实已走过了上百次。然而这一次,汽车竟直接开了过去。在你看来,这块停车标志看上去和往常一样。但对于汽车来说,它却和其它停车标志截然不同。你和汽车不知道的是,就在几分钟前,一名街头艺术家在这块标牌上贴了一张小贴纸。人眼或许注意不到,却逃不过机器的“眼睛”。换句话说,这张小小的贴纸使汽车将停车标志“看”成了完全不同的标志。

可能听起来很牵强。但近期研究显示,人工智能很容易被类似的方法糊弄,“看见”的东西与人眼产生巨大偏差。随着机器学习算法在交通、金融和医疗体系中运用得越来越多,计算机科学家希望在不法分子真正动手之前、找到对抗这些攻击的方法。俄勒冈大学计算机与信息科学助理教授丹尼尔·洛德(Daniel Lowd)说:“机器学习和人工智能领域对这一问题感到十分担忧,更何况这些算法被运用得越来越普遍。” 智能机器是否会失灵、或受到黑客控制,取决于机器学习算法“了解”世界的方法。若机器受到干扰,就可能将熊猫看成长臂猿,或是将校车看成鸵鸟。法国和瑞士研究人员开展的一项实验显示,这样的干扰可导致计算机将松鼠看成灰狐狸,或将咖啡壶看成鹦鹉。

AI未来如何应对人类的欺骗?

机器学习算法了解世界的过程其实与此类似。要使计算机探测到某种信息,科学家会先向计算机中输入成百上千条实例。机器筛查这些数据时(如:这是一个数字;这不是数字;这是一个数字;这不是数字),便可逐渐了解该信息的特征。很快,机器便能准确得出“图片上是数字5”这样的结论。怀俄明大学与康奈尔大学的进化人工智能实验室开展了类似研究,使人工智能产生了一系列视觉幻觉。这些图片中的抽象图案和色彩在人眼看来毫无意义,计算机却能迅速将其识别为蛇或步枪。这说明人工智能“眼中”的物体可能与实际情况大相径庭。各种机器学习算法都存在这一缺陷。不法分子只需将相应的机器学习算法弄到手,便可编写出用来进攻的数据。但要想骗过算法,其实并不一定要这样做。黑客可以强行发起攻击,反复调整同一封邮件、或同一张图片,直到混过过滤系统。长此以往,黑客便掌握了过滤系统搜查的关键信息,然后编写出可蒙骗这些系统的数据。

人们通常以准确度评价机器学习算法的好坏。正确识别物体的概率越高,程序就越出色。但一些专家认为,我们还应考察算法抵御攻击的能力,越不易被攻破就越出色。麦克丹尼尔建议:“机器学习系统是推理的工具,我们需要对机器反馈的信息作出聪明和理性的判断,而不是当作真理。”(科技新发现 康斯坦丁/文)

本文如需转载,请联系微信:khxx-wk

科技新发现官方微信公众号:kejxfx

 
 
话题:



0

推荐

康斯坦丁

康斯坦丁

2881篇文章 1年前更新

曾在多家IT知名企业就职,并担任过TECOMM副总,科幻星系团队创建人,多家媒体特约IT评论员,科幻作者,目前是自由撰稿人。在《科技日报》、《科幻大王》、《科学画报》、《漫友》、《中国动漫》、《看电影》、《飞碟探索》、《百科知识》、《奥秘》、《新希望》、《电脑报》、《计算机世界》、《软件世界》、《人民日报》等上百家刊物及新浪、搜狐、腾讯、网易、赛迪等多家网络媒体开有特邀专栏。

文章