有关 AI 的两则消息:
1. Google 开发了一个神经图像评估 AI,使用深度神经网络并经过训练后,AI 能够预测一个普通用户对某张图片的美学评价和判断,即图片是否好看。这项技术可能运用到图片处理中,以提升图片的美感。无论是否有参考图片,AI 都能够对图片的质量给出一个分数。结果发现,AI 的评价接近人类。未来,此技术还可能帮助人们挑选出最好的照片,或通过实时反馈改进摄影。
https://www.theverge.com/2017/12/21/16807118/google-ai-rate-photos-ai-users-preferences
2. MIT 的研究人员多次成功捉弄 Google 的 AI。
设计深度学习算法来进行图像识别,是很多公司正在进行的工作。这方面,Google、微软、百度的技术,甚至一度打败过人类。Facebook 最近也推出面部识别功能,即使你没有被标记,也能够从图片中认出你。
图像识别技术并不完美,可能会出错。更重要的是,如果使用 AI 的自动驾驶汽车也因此出错,结果就可能会非常严重。研究人员一直在想办法看看,如何可以骗过计算机,捉弄 AI。
首先,有一个名词:Adversarial Example,即对抗性示例。这是算法很难像人类一样准确把握的一类问题。比如,通过光学幻象,欺骗计算机把一张大熊猫的图片误认为是长臂猿的。
此前的对抗性示例,基于“白箱”设置,即科学家可以访问算法的底层机制。这意味着,研究人员可以知道系统是如何被训练的,然后想办法来欺骗它。这种对抗性示例不具备威胁性,因为现实世界攻击者是不了解算法的。
基于“白箱”设置,11 月,同样是 MIT 的研究人员,欺骗 Google 的神经网络把 3D 打印的乌龟误认为是步枪。实际上,研究人员可以让 AI 认为其判断的物体为任何东西。因为他们可以搞清楚 Google 的图像分类器是如何工作的。
对应于“白箱”设置的,是“黑箱”设置。研究人员设计出能够欺骗不同算法并迅速生成“黑箱”对抗性示例的办法,其中就包括欺骗 Google Cloud Vision API。AI 被欺骗将一排机枪认为是直升飞机,研究人员所做的,只是略微调整了一下图片中的像素,在人类看来可能两张图片没有差别。
研究人员不只是随机调整图片,他们使用了标准的方法。先是试图欺骗 AI,然后分析结果,一点点地欺骗计算机直到把某个物体误以为是其他的物体。上面案例中的“直升机”,也可以是其他标签,研究人员试图证明其系统是有效的。
这些研究说明,商用 AI 系统有被对抗性示例攻击的风险。Google 最先进的产品也不能例外。攻击者甚至可以利用 AI 的弱点,做一些坏事情,比如让行李扫描算法把炸弹误以为是玩具,或者面部识别系统把无辜者视为罪犯。
针对这方面的担心,Google 正在致力于寻找解决方案,包括举办对抗性示例竞赛。去年,来自 Google、宾夕法尼亚州立大学和美国陆军的研究人员,展示了针对深度学习系统的第一个实用的黑箱攻击。MIT 研究者创建对抗性示例的办法更新、更快。
算法可以帮助人们解决很多难以应付的现实问题,但也有很大的责任,要是我们不理解对抗性示例所能导致的算法失控的原因的话。“人类所创造出的 AI 看似以人类不同的方式去‘思考’,但没有人知道 AI 到底是如何工作的。现在有的是假设,没有定论”,MIT 参与此项研究的 Athalye 说。
https://www.wired.com/story/researcher-fooled-a-google-ai-into-thinking-a-rifle-was-a-helicopter/
1. Google 开发了一个神经图像评估 AI,使用深度神经网络并经过训练后,AI 能够预测一个普通用户对某张图片的美学评价和判断,即图片是否好看。这项技术可能运用到图片处理中,以提升图片的美感。无论是否有参考图片,AI 都能够对图片的质量给出一个分数。结果发现,AI 的评价接近人类。未来,此技术还可能帮助人们挑选出最好的照片,或通过实时反馈改进摄影。
https://www.theverge.com/2017/12/21/16807118/google-ai-rate-photos-ai-users-preferences
2. MIT 的研究人员多次成功捉弄 Google 的 AI。
设计深度学习算法来进行图像识别,是很多公司正在进行的工作。这方面,Google、微软、百度的技术,甚至一度打败过人类。Facebook 最近也推出面部识别功能,即使你没有被标记,也能够从图片中认出你。
图像识别技术并不完美,可能会出错。更重要的是,如果使用 AI 的自动驾驶汽车也因此出错,结果就可能会非常严重。研究人员一直在想办法看看,如何可以骗过计算机,捉弄 AI。
首先,有一个名词:Adversarial Example,即对抗性示例。这是算法很难像人类一样准确把握的一类问题。比如,通过光学幻象,欺骗计算机把一张大熊猫的图片误认为是长臂猿的。
此前的对抗性示例,基于“白箱”设置,即科学家可以访问算法的底层机制。这意味着,研究人员可以知道系统是如何被训练的,然后想办法来欺骗它。这种对抗性示例不具备威胁性,因为现实世界攻击者是不了解算法的。
基于“白箱”设置,11 月,同样是 MIT 的研究人员,欺骗 Google 的神经网络把 3D 打印的乌龟误认为是步枪。实际上,研究人员可以让 AI 认为其判断的物体为任何东西。因为他们可以搞清楚 Google 的图像分类器是如何工作的。
对应于“白箱”设置的,是“黑箱”设置。研究人员设计出能够欺骗不同算法并迅速生成“黑箱”对抗性示例的办法,其中就包括欺骗 Google Cloud Vision API。AI 被欺骗将一排机枪认为是直升飞机,研究人员所做的,只是略微调整了一下图片中的像素,在人类看来可能两张图片没有差别。
研究人员不只是随机调整图片,他们使用了标准的方法。先是试图欺骗 AI,然后分析结果,一点点地欺骗计算机直到把某个物体误以为是其他的物体。上面案例中的“直升机”,也可以是其他标签,研究人员试图证明其系统是有效的。
这些研究说明,商用 AI 系统有被对抗性示例攻击的风险。Google 最先进的产品也不能例外。攻击者甚至可以利用 AI 的弱点,做一些坏事情,比如让行李扫描算法把炸弹误以为是玩具,或者面部识别系统把无辜者视为罪犯。
针对这方面的担心,Google 正在致力于寻找解决方案,包括举办对抗性示例竞赛。去年,来自 Google、宾夕法尼亚州立大学和美国陆军的研究人员,展示了针对深度学习系统的第一个实用的黑箱攻击。MIT 研究者创建对抗性示例的办法更新、更快。
算法可以帮助人们解决很多难以应付的现实问题,但也有很大的责任,要是我们不理解对抗性示例所能导致的算法失控的原因的话。“人类所创造出的 AI 看似以人类不同的方式去‘思考’,但没有人知道 AI 到底是如何工作的。现在有的是假设,没有定论”,MIT 参与此项研究的 Athalye 说。
https://www.wired.com/story/researcher-fooled-a-google-ai-into-thinking-a-rifle-was-a-helicopter/
评论
发表评论