
联合人工智能中心导演的迈克尔·巨族龙族罗格,开展了关于国防部的新闻发布会'努力采用和规模人工智能能力,来自五角大楼,华盛顿州,11月24日,2020年11月24日。 DOD照片由美国空军员工SGT。杰克桑德斯
五角大楼必须更快地向标准化其数据来规范,采用云服务,并将AI整合到运营中,如果要继续在中国人工智能中,联合人工智能中心或JAIC的负责人周二表示。北京正在加速它 2025年中国制造 努力和 目的 “在2030年在AI空间中占据主导地位,” 迈克尔·峡谷 告诉国防工业协会受众。他指出,五角大楼的Budgeteers目前正在向2027年建立五年的计划目标备忘录。“你知道,对海洋,这是一个危险的危险,”呻吟说。
GROEN表示,整合跨国公司的网络并以新的企业级云功能向前推进,并将成为帮助美国军队前进的关键。
“如果我们不在综合企业中,我们将失败,”他说。 “如果我们仍然在硬盘驱动器中飞行[远程基地]因为它在硬盘中飞行更有效,然后连接我们的网络,这是我们不需要的症状,”他说。
呻吟还与五角大楼的谈话致力于他的谈话 AI的道德指南,这比行业球员使用的许多类似清单更详细和限制 - 而且肯定比任何名单都在中国的军队所公开。他拒绝了这些指导方针和限制的建议放缓了AI工具的发展和部署,争论只有道德系统将获得领域的指挥官的信任。
“从道德基地,信任AI系统。它来自一个信任和验证,测试和验证环境,在那里您实际上确保系统工作,他们在他们部署的领域工作,他们与其他类型的系统合作实现整体运营你正在努力实现的效果,“他说。 “如果AI在部门不受欢迎......指挥官等。那么它不会被使用,对吗?”
在与之谈话中 防守一 星期四到空气, 来自JAIC,CIA,国防情报局和国家情报署署长办公室的官员同意向道德注重关注,是通过政府采用AI工具的关键。
最大的道德挑战之一是检测和避免 偏见 在AI工具开发中,可以出于各种原因发生的效果,但通常是因为数据集用于培训AI的程序员并不足够广泛或多样化。 2018年,谷歌 部署了一张照片应用程序 几乎完全培训了白人的照片;它倾向于误解了其他种族的人作为非人类的照片。
JAIC的负责任AI负责任的Alka Patel表示,她的办公室正在记录他们使用的“数据周围的关键方面”:如何收集它,其出处,预期用途等。
监督吉利的决策科学研究计划的米克尔罗德里格兹表示,偏见不仅仅是一个政治关注,而且可能导致破碎的算法,最终放弃可能在战斗中毁容的工具。
Rodriguez将这些视为“剩余算法留下”的挑战,因为在甚至发布之前,许多AI工具在不良建设的数据集上培训。 “漏洞的所有这些潜力将被引入[通过]中毒数据集等。他说。
防止这种方法是具有更方便的编码团队。另一个是带来的 red teams 在进程中找到漏洞的早期。
“从安全的角度来看,您可以武器武器提出这种偏见,这是一个真正的问题,即我们使用的公司实际上生产令人难以置信的算法,但它们往往是在您拥有这些更平衡数据集的这些类型的问题猫对狗,“他说。 “这不是你正在寻找的,例如,珍稀目标,运输商或[对手]可能只有一两个人的发射器。”
Rodriguez称为它“很多现有的AI系统作物的阿基里斯脚跟。”
下一个故事: 海军表示,无人机可以有一天可以占载体空气翼的40%