青年先驱报:美国海军中可解释的人工智能

剪贴画说 AI

圣何塞青年委员会 是市长和市议会的官方青年咨询小组。 我们代表所有青年,并致力于:

  • 赋权青年追求自己的职业生涯,并鼓励他们通过当地和全市范围的活动和倡议参与公民活动。
  • 为圣何塞的年轻人营造一个安全、包容且易于使用的空间,以表达他们的热情和兴趣。
  • 为边缘化青年社区提供公平的机会和支持。
  • 提高圣何塞青年对各种问题和机会的认识。
  • 建议并提示市议会根据青年优先事项和意见采取行动。

作者:Aroshi Ghosh(利兰高中高级)

视频 无人系统自治 Amir Quayumi 在智能机器人方面的工作表明,智能系统已成为美国海军和海军陆战队运营不可或缺的一部分。 事实上,早在 1917 年,美国海军就使用无线电遥控无人机来对抗德国的 U 型潜艇。 在 11 年 2001 月 XNUMX 日的袭击之后,中央情报局还使用无人自主系统对激进组织进行了致命的秘密行动。 前国防部长詹姆斯·N·马蒂斯 (James N. Mattis) 预测,这些无人驾驶车辆背后的底层技术人工智能 (AI) 将改变“战争的基本性质”,我们的军队将成为看台tors的战斗。

为什么道德人工智能如此重要?

彼得帕克原则规定“能力越大责任越大”,伦理必须是决定我们军队如何部署人工智能技术的基石。 毕竟,使科幻小说栩栩如生的技术也因其独特的应用和不可预测的人类影响而给我们的部队带来了严峻的挑战。 好莱坞科幻电影,例如 2001:太空奥德赛“银翼杀手” 提出了一种危言耸听的反乌托邦 AI 愿景,该愿景并未充分考虑这些智能技术在解决气候变化、可持续性和救灾等问题的同时确保我们军队安全的可能性。

虽然使用机器人车辆和自主武器来保护人类战斗人员并简化分析师的决策令人相当兴奋,但对杀手机器人和错误标记目标的不准确面部识别技术也同样感到焦虑。 数据处理、数据记录不完善以及选择高质量的训练数据是人工智能在军队中有效部署所面临的一些挑战。 因此,在部署这项有前途的技术时,我们必须超越使用人工智能来实现卓越战斗,并考虑法律、社会和道德后果。

正如凯瑟琳鲍威尔上校在 2015 年的电影中所说 天眼, “比你在这张图片中看到的要危险得多”,这凸显了依赖自主飞机和技术的现代战争的道德困境。 电影中对青年党恐怖分子营地的无人机袭击不仅引发了关于可接受的附带损害的辩论,而且还引导我们在不断变化的现实中逐步完成决策过程,为查核人的生死谈判rac所涉及的人。

我们的海军面临着一个类似的难题,以定义有效的人工智能解决方案,以保护我们国家的“自由、维护经济繁荣、保持海洋开放和自由……(和)捍卫美国在全球的利益……”,同时确保该技术“负责任、公平, trac可行、可靠和可管理”。

人工智能当前存在哪些问题?

人们不禁怀疑,人工智能驱动的超级智能机器是否能够真正复制人类智能、情感、思想和感觉的本质,或者我们是否只是试图将计算解决方案投射到所有问题上,因为人工智能已经成为最时尚的流行词。科技世界。 我们经常忽略人工智能系统也可以用于部队中更平凡、重复的任务,例如预测车辆维护的时间表、防止敌人攻击的异常检测以及用于改进威胁检测的无人机部署。 通过特色视频,我了解了如何利用自主潜艇来绘制海床地图、探测水雷、识别海草入侵物种以及执行救援行动。 我受到专家系统及其应用程序的启发,以解决我们今天面临的现实问题。

上的视频 自主船舶 展示了 Bob Brizzolara 博士的工作的展览还展示了海军研究人员在开发特定结构特征以提高机动性、灵巧性和其自主系统的智能。 Brizzolara 博士解释了自动驾驶汽车如何在未知环境中发挥作用,并且由于其消耗性,可以部署在危险情况下。

尽管取得了这些开创性的成就,但在危急情况下的决策仍然涉及人类,因为人类天生更具有情境化和理解元数据的能力。 这些观察强化了我的信念,即必须适当且经济高效地利用人工智能来解决武装部队中的各种问题。 AI 不是灵丹妙药,但可以用来提高特定领域的效率,让我们的生活更轻松。 然而,在其他领域,人类智能仍然具有优势。

解决办法是什么?

在所有战斗情况下都可以信任 AI 开发之前,使海军现代化的最佳策略是通过规则和模式识别任务,以便我们可以自动化可预测且无中断的用例。 通过整合来自私营部门的技术tor 在非战斗和支持功能中,我们可以在野战训练、维护、管理、兵棋战略、供应链物流和个性评估等领域有效地使用人工智能,而不是从头开始设计。 通过优先将遗留数据库集成到云和 AI 系统中,我们可以确保输入 AI 系统的数据准确、可靠、成本低廉、可操作且安全。 最后,确定机器和人类如何无缝协作有助于创建理想的人工智能解决方案。 国防部与海军实验室合作发起了多项举措,例如复仇者海军人工智能大挑战tories,以及联合人工智能中心,以更好地将人工智能技术融入机队。

使用基于生物学的神经网络和“观察和学习”方法来“积累经验、知识和技能”的自学习 AI 具有一定程度的定义行动的能力,并提供解释这些行动必要性的背景。 尽管如此,这些机器学习 AI 算法也容易受到数据中毒和偏见的影响。

数据中毒和偏差的影响是什么?

基于机器学习的可行 AI 解决方案的基本要求是不断访问无错误和多样化的数据。 由于几个因素,这对海军来说是一个重大挑战tors,例如 stor旧数据库老化、互联网连接不良、依赖开源软件、过时的安全系统、糟糕的用户界面以及设计专有技术的成本。 训练深度学习模型也可能是一个缓慢且资源密集型的过程,需要大量的计算能力。

一种选择是最初实施从私营部门采用的 AI 解决方案tor 建立基础设施以采用人工智能技术。 视频在 Reece Koe 的数据科学 强调了创建更好的智能系统的努力。 由五角大楼发起的 Maven 项目使用机器学习对情报监视和侦察数据进行分类,其中包括无人系统视频、纸张、计算机硬盘、U 盘等,随后分析人员可以对其进行审查。

什么是黑盒效应?

在现场大规模部署自主系统之前,彻底了解决策过程的逻辑和顺序很重要。 “让机器学习向人类解释其决策过程”的挑战是下一个发展前沿。 没有控制,trac能力和问责制,军队无法可靠地使用人工智能技术。 当涉及到真正的战争时,决策不能轻易委托给机器。 正如机器人和无人机人工智能专家 Imagination Engines 的 Stephen Thaler 所说:“海军上将希望有人在出现问题时向军事法庭提起诉讼。” 此外,机器人的法律责任目前在国际法下尚不明确,机器人决策必须结合社会和国际法定义的道德标准。

围绕机器学习的黑匣子可以在一定程度上揭开神秘面纱。 决策树可用于运行具有大量数据点的模拟并与相应的操作相关联。 特定的神经网络可以根据其功能和分配的权重进行隔离,以识别决策逻辑。 但是,这种方法并没有解释AI决策的逻辑,而是根据某些条件绘制出可预测的路线。 因此,机器学习也会产生大量基于有限数据的误报和简单化、不可行的解释,这让人工智能的可靠性受到质疑。

信任是海军实现最佳人机协同的最重要组成部分,因为错误决策的成本要高得多。 今天,人工智能系统无法向人类用户充分解释他们的决定和行动,不准确的数据和不可靠的算法阻碍了人机之间的有效合作。

可解释的 AI 模型可以与智能人机界面技术和符号逻辑数学有效配对,在不影响预测准确性的情况下解释 AI 背后的心理racy 和性能。 如果我们能够成功地创建透明的人工智能解决方案,防止显性或非法偏见,了解操作的上下文和环境,与其他智能机器进行通信,并与终端进行可理解的解释对话,那么军队中人工智能的未来将会更加强大。用户。 现在是人工智能和自主系统领域激动人心的时刻,我们的任务必须是确定合乎道德地使用这项技术的适当机会。

观看更多视频,了解技术如何在军事中使用

引用