这款 圣何塞青年委员会 是市长和市议会的官方青年咨询小组。 我们代表所有青年,并致力于:
- 赋权青年追求自己的职业生涯,并鼓励他们通过当地和全市范围的活动和倡议参与公民活动。
- 为圣何塞的年轻人营造一个安全、包容且易于使用的空间,以表达他们的热情和兴趣。
- 为边缘化青年社区提供公平的机会和支持。
- 提高圣何塞青年对各种问题和机会的认识。
- 建议并提示市议会根据青年优先事项和意见采取行动。
作者:Aroshi Ghosh(利兰高中高级)
视频 无人系统自治 以阿米尔·夸尤米的智能机器人作品为特色,表明智能系统已成为美国海军和海军陆战队行动不可或缺的一部分。事实上,早在 1917 年,美国海军就使用无线电控制的无人机对抗德国 U 型潜艇。11 年 2001 月 XNUMX 日袭击事件后,中央情报局还使用无人驾驶自主系统对激进组织进行致命的秘密行动。前国防部长詹姆斯·马蒂斯 (James N. Mattis) 预测,人工智能 (AI),这些无人驾驶车辆背后的基础技术,将改变“战争的根本性质”,我们的军队将成为战斗的旁观者。
为什么道德人工智能如此重要?
彼得帕克原则规定“能力越大责任越大”,伦理必须是决定我们军队如何部署人工智能技术的基石。 毕竟,使科幻小说栩栩如生的技术也因其独特的应用和不可预测的人类影响而给我们的部队带来了严峻的挑战。 好莱坞科幻电影,例如 2001:太空奥德赛 和 “银翼杀手” 提出了一种危言耸听的反乌托邦 AI 愿景,该愿景并未充分考虑这些智能技术在解决气候变化、可持续性和救灾等问题的同时确保我们军队安全的可能性。
虽然使用机器人车辆和自主武器来保护人类战斗人员并简化分析师的决策令人相当兴奋,但对杀手机器人和错误标记目标的不准确面部识别技术也同样感到焦虑。 数据处理、数据记录不完善以及选择高质量的训练数据是人工智能在军队中有效部署所面临的一些挑战。 因此,在部署这项有前途的技术时,我们必须超越使用人工智能来实现卓越战斗,并考虑法律、社会和道德后果。
正如凯瑟琳鲍威尔上校在 2015 年的电影中所说 天眼, “这张照片中涉及的危险比你看到的要多得多”,这凸显了现代战争的道德困境,因为现代战争依赖于自主飞机和技术。电影中无人机袭击青年党恐怖分子营地不仅引发了关于可接受的附带损害的辩论,还引导我们在不断变化的现实中逐步做出决策,为相关角色的生死存亡进行谈判。
我们的海军面临着类似的难题,即定义有效的人工智能解决方案,以保护我们国家的“自由,维护经济繁荣,保持海洋开放和自由......(和)捍卫美国在全球的利益......”同时确保该技术“负责任,公平,可追溯,可靠和可治理”。
人工智能当前存在哪些问题?
人们不禁怀疑,人工智能驱动的超级智能机器是否能够真正复制人类智能、情感、思想和感觉的本质,或者我们是否只是试图将计算解决方案投射到所有问题上,因为人工智能已经成为最时尚的流行词。科技世界。 我们经常忽略人工智能系统也可以用于部队中更平凡、重复的任务,例如预测车辆维护的时间表、防止敌人攻击的异常检测以及用于改进威胁检测的无人机部署。 通过特色视频,我了解了如何利用自主潜艇来绘制海床地图、探测水雷、识别海草入侵物种以及执行救援行动。 我受到专家系统及其应用程序的启发,以解决我们今天面临的现实问题。
上的视频 自主船舶 展示了 Bob Brizzolara 博士的工作的展览还展示了海军研究人员在开发特定结构特征以提高机动性、灵巧性和其自主系统的智能。 Brizzolara 博士解释了自动驾驶汽车如何在未知环境中发挥作用,并且由于其消耗性,可以部署在危险情况下。
尽管取得了这些开创性的成就,但在危急情况下的决策仍然涉及人类,因为人类天生更具有情境化和理解元数据的能力。 这些观察强化了我的信念,即必须适当且经济高效地利用人工智能来解决武装部队中的各种问题。 AI 不是灵丹妙药,但可以用来提高特定领域的效率,让我们的生活更轻松。 然而,在其他领域,人类智能仍然具有优势。
解决办法是什么?
在人工智能发展在所有战斗情况下都值得信赖之前,实现海军现代化的最佳策略是确定具有规则和模式的任务,以便我们可以自动化可预测且无中断的用例。通过将私营部门的技术纳入非战斗和支持功能,而不是从头开始设计,我们可以有效地在实地训练、维护、管理、战争游戏策略、供应链物流和人格评估等领域使用人工智能。通过优先将遗留数据库集成到云和人工智能系统中,我们可以确保输入人工智能系统的数据准确、可靠、廉价、可操作且安全。最后,确定机器和人类如何无缝协作有助于创建理想的人工智能解决方案。国防部与海军实验室和联合人工智能中心合作发起了“复仇者海军人工智能大挑战”等多项计划,以更好地将人工智能技术融入舰队。
使用基于生物学的神经网络和“观察和学习”方法来“积累经验、知识和技能”的自学习 AI 具有一定程度的定义行动的能力,并提供解释这些行动必要性的背景。 尽管如此,这些机器学习 AI 算法也容易受到数据中毒和偏见的影响。
数据中毒和偏差的影响是什么?
基于机器学习的可行 AI 解决方案的基本要求是持续访问无错误和多样化的数据。这对海军来说是一个重大挑战,原因包括存储在旧数据库中、互联网连接不良、对开源软件的依赖、过时的安全系统、糟糕的用户界面以及设计专有技术的成本。训练深度学习模型也可能是一个缓慢且资源密集的过程,需要大量的计算能力。
其中一个选择是首先实施从私营部门采用的人工智能解决方案,以构建采用人工智能技术的基础设施。 Reece Koe 的数据科学 强调了创建更好的智能系统的努力。 由五角大楼发起的 Maven 项目使用机器学习对情报监视和侦察数据进行分类,其中包括无人系统视频、纸张、计算机硬盘、U 盘等,随后分析人员可以对其进行审查。
什么是黑盒效应?
在大规模部署自主系统之前,彻底了解决策过程的逻辑和顺序非常重要。“让机器学习向人类解释其决策过程”的挑战是下一个发展前沿。如果没有控制、可追溯性和问责制,武装部队就无法可靠地使用人工智能技术。当涉及到真正的战争时,决策不能轻易委托给机器。正如 Imagination Engines 的机器人和无人机人工智能专家 Stephen Thaler 所说,“当事情出错时,海军上将希望有人可以进行军事法庭审判。”此外,根据国际法,机器人的法律责任目前尚不明确,机器人决策必须与社会和国际法定义的道德标准相结合。
围绕机器学习的黑匣子可以在一定程度上揭开神秘面纱。 决策树可用于运行具有大量数据点的模拟并与相应的操作相关联。 特定的神经网络可以根据其功能和分配的权重进行隔离,以识别决策逻辑。 但是,这种方法并没有解释AI决策的逻辑,而是根据某些条件绘制出可预测的路线。 因此,机器学习也会产生大量基于有限数据的误报和简单化、不可行的解释,这让人工智能的可靠性受到质疑。
信任是海军实现最佳人机协同的最重要组成部分,因为错误决策的成本要高得多。 今天,人工智能系统无法向人类用户充分解释他们的决定和行动,不准确的数据和不可靠的算法阻碍了人机之间的有效合作。
可解释的人工智能模型可以有效地与智能人机界面技术和符号逻辑数学相结合,在不影响预测准确性和性能的情况下解释人工智能背后的心理学。如果我们能够成功创建透明的人工智能解决方案,防止明显或非法的偏见,了解操作的背景和环境,与其他智能机器进行通信,并与最终用户进行可理解的解释对话,那么人工智能在武装部队中的未来将更加强大。这是人工智能和自主系统领域激动人心的时刻,我们的任务必须是找到合乎道德地使用这项技术的适当机会。
添加评论:青年先驱报:美国海军中可解释的人工智能