• 首页 首页 icon
  • 工具库 工具库 icon
    • IP查询 IP查询 icon
  • 内容库 内容库 icon
    • 快讯库 快讯库 icon
    • 精品库 精品库 icon
    • 知识库 知识库 icon
  • 更多 更多 icon
    • 服务条款 服务条款 icon

如果你能识别出这些图片的内容 说明你比AI聪明

武飞扬头像
xhjyxxw
帮助0

知行礼动

大家好,今日小科来聊聊一篇关于如果你能识别出这些图片中的内容 说明你比AI聪明的文章,现在让我们往下看看吧!

研究这些图像是非常必要的。当我们将机器视觉系统置于AI安全摄像头和自动驾驶汽车等新技术的核心时,我们相信计算机看待世界的方式与我们相同。敌对的图像证明他们没有。

对抗性图像利用了机器学习系统的弱点。

不过,虽然这一领域的很多注意力都集中在专门设计用来忽悠AI的图片上(就像谷歌的算法对于枪的3D打印龟是错误的一样),但这些混乱的视觉效果自然会出现。如果是这样,这种图像更令人担忧,因为它表明视觉系统会产生非受迫性误差。

为了证明这一点,来自加州大学伯克利分校、华盛顿大学和芝加哥大学的一组研究人员创建了一个由大约7500个“自然对立例子”组成的数据集。根据这些数据,他们测试了许多机器视觉系统,发现它们的准确率下降了90%,软件在某些情况下只能识别2%或3%的图像。

你可以在下图中看到这些“自然对抗的例子”是什么样子的:

在一篇附带的论文中,研究人员说,这些数据有望帮助培养一个更强大的视觉系统。他们解释说,这些图像利用了“深层缺陷”,这是由于软件“过度依赖颜色、纹理和背景线索”来识别它所看到的。

比如下图,AI误把左边的图片当成钉子,可能是因为木质背景。在右边的图片中,它们聚焦在蜂鸟喂食器上,却忽略了没有真正的蜂鸟这一事实。

在下面四张蜻蜓的图片中,AI的颜色和纹理都是彩色的,从左到右依次是臭鼬、香蕉、海狮和手套。在每一种情况下,你都可以看到为什么你会犯错误,但这并没有让它变得不那么明显。

AI系统犯这些错误并不是什么新闻。多年来,研究人员一直警告说,深度学习(机器学习的一种风格,是人工智能最近许多进步的原因)创建的视觉系统是“肤浅的”和“脆弱的”——这意味着他们不会理解一个与人有相同细微差别的世界的灵活性。

这些系统已经在数千个样本图像上进行了训练,以便了解事物的外观,但我们通常不知道图像AI中的哪些确切元素用于做出判断。

一些研究表明,考虑到整体形状和内容,该算法不会将图像视为一个整体,而是专注于特定的纹理和细节。该数据集提供的结果似乎支持这一解释。例如,在明亮的表面上显示清晰阴影的图片被错误地识别为白天.人工智能基本上缺少树。

但这是否意味着这些机器视觉系统无法恢复?一点也不。通常,所犯的错误都是微不足道的,例如将下水道盖识别为人孔,或将卡车误认为豪华轿车。

虽然研究人员说这些“自然对抗的例子”会愚弄各种视觉系统,但这并不意味着它们会欺骗所有人。许多机器视觉系统非常专业化,例如那些用于在医学扫描中识别疾病的系统。虽然他们有自己的缺点,但他们无法理解世界和人类,并不能阻止他们发现癌症。

机器视觉有时可能又快又脏,但它通常会产生结果。像这样的研究向我们展示了我们接下来需要填补的盲点。

这篇好文章是转载于:知行礼动

  • 版权申明: 本站部分内容来自互联网,仅供学习及演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系,请提供相关证据及您的身份证明,我们将在收到邮件后48小时内删除。
  • 本站站名: 知行礼动
  • 本文地址: /news/detail/tanhbihhce
系列文章
更多 icon
同类精品
更多 icon
继续加载