青年先驅報:美國海軍中可解釋的人工智能

剪貼畫說 AI

聖何塞青年委員會 是市長和市議會的官方青年諮詢小組。 我們代表所有青年,並致力於:

  • 賦權青年追求自己的職業生涯,並鼓勵他們通過當地和全市範圍的活動和倡議參與公民活動。
  • 為聖何塞的年輕人營造一個安全、包容且易於使用的空間,以表達他們的熱情和興趣。
  • 為邊緣化青年社區提供公平的機會和支持。
  • 提高聖何塞青年對各種問題和機會的認識。
  • 建議並提示市議會根據青年優先事項和意見採取行動。

作者:Aroshi Ghosh(利蘭高中高級)

視頻 無人系統自治 Amir Quayumi 在智能機器人方面的工作表明,智能係統已成為美國海軍和海軍陸戰隊運營不可或缺的一部分。 事實上,早在 1917 年,美國海軍就使用無線電遙控無人機來對抗德國的 U 型潛艇。 在 11 年 2001 月 XNUMX 日的襲擊之後,中央情報局還使用無人自主系統對激進組織進行了致命的秘密行動。 前國防部長詹姆斯·N·馬蒂斯 (James N. Mattis) 預測,這些無人駕駛車輛背後的底層技術人工智能 (AI) 將改變“戰爭的基本性質”,我們的軍隊將成為看台tors的戰鬥。

為什麼道德人工智能如此重要?

彼得帕克原則規定“能力越大責任越大”,倫理必須是決定我們軍隊如何部署人工智能技術的基石。 畢竟,使科幻小說栩栩如生的技術也因其獨特的應用和不可預測的人類影響而給我們的部隊帶來了嚴峻的挑戰。 好萊塢科幻電影,例如 2001:太空奧德賽“銀翼殺手” 提出了一種危言聳聽的反烏托邦 AI 願景,該願景並未充分考慮這些智能技術在解決氣候變化、可持續性和救災等問題的同時確保我們軍隊安全的可能性。

雖然使用機器人車輛和自主武器來保護人類戰鬥人員並簡化分析師的決策令人相當興奮,但對殺手機器人和錯誤標記目標的不准確面部識別技術也同樣感到焦慮。 數據處理、數據記錄不完善以及選擇高質量的訓練數據是人工智能在軍隊中有效部署所面臨的一些挑戰。 因此,在部署這項有前途的技術時,我們必須超越使用人工智能來實現卓越戰鬥,並考慮法律、社會和道德後果。

正如凱瑟琳鮑威爾上校在 2015 年的電影中所說 天眼, “比你在這張圖片中看到的要危險得多”,這凸顯了依賴自主飛機和技術的現代戰爭的道德困境。 電影中對青年黨恐怖分子營地的無人機襲擊不僅引發了關於可接受的附帶損害的辯論,而且還引導我們在不斷變化的現實中逐步完成決策過程,為查核人的生死談判rac所涉及的人。

我們的海軍面臨著一個類似的難題,以定義有效的人工智能解決方案,以保護我們國家的“自由、維護經濟繁榮、保持海洋開放和自由……(和)捍衛美國在全球的利益……”,同時確保該技術“負責任、公平, trac可行、可靠和可管理”。

人工智能當前存在哪些問題?

人們不禁懷疑,人工智能驅動的超級智能機器是否能夠真正複製人類智能、情感、思想和感覺的本質,或者我們是否只是試圖將計算解決方案投射到所有問題上,因為人工智能已經成為最時尚的流行詞。科技世界。 我們經常忽視人工智能係統也可以用於部隊中更平凡、重複的任務,例如預測車輛維護的時間表、防止敵人攻擊的異常檢測以及用於改進威脅檢測的無人機部署。 通過特色視頻,我了解瞭如何利用自主潛艇來繪製海床地圖、探測水雷、識別入侵的海草物種以及執行救援行動。 我受到專家系統及其應用程序的啟發,以解決我們今天面臨的現實問題。

上的視頻 自主船舶 展示了 Bob Brizzolara 博士的工作的展覽還展示了海軍研究人員在開發特定結構特徵以提高機動性、靈巧性和其自主系統的智能。 Brizzolara 博士解釋了自動駕駛汽車如何在未知環境中發揮作用,並且由於其消耗性,可以部署在危險情況下。

儘管取得了這些開創性的成就,但在危急情況下的決策仍然涉及人類,因為人類天生更具有情境化和理解元數據的能力。 這些觀察強化了我的信念,即必須適當且經濟高效地利用人工智能來解決武裝部隊中的各種問題。 AI 不是靈丹妙藥,但可以用來提高特定領域的效率,讓我們的生活更輕鬆。 然而,在其他領域,人類智能仍然具有優勢。

解決辦法是什麼?

在所有戰鬥情況下都可以信任 AI 開發之前,使海軍現代化的最佳策略是通過規則和模式識別任務,以便我們可以自動化可預測且無中斷的用例。 通過整合來自私營部門的技術tor 在非戰鬥和支持功能中,我們可以在戰地訓練、維護、管理、兵棋戰略、供應鏈物流和個性評估等領域有效地使用人工智能,而不是從頭開始設計。 通過優先將遺留數據庫集成到雲和 AI 系統中,我們可以確保輸入 AI 系統的數據準確、可靠、成本低廉、可操作且安全。 最後,確定機器和人類如何無縫協作有助於創建理想的人工智能解決方案。 國防部與海軍實驗室合作發起了多項舉措,例如復仇者海軍人工智能大挑戰tories,以及聯合人工智能中心,以更好地將人工智能技術融入機隊。

使用基於生物學的神經網絡和“觀察和學習”方法來“積累經驗、知識和技能”的自學習 AI 具有一定程度的定義行動的能力,並提供解釋這些行動必要性的背景。 儘管如此,這些機器學習 AI 算法也容易受到數據中毒和偏見的影響。

數據中毒和偏差的影響是什麼?

基於機器學習的可行 AI 解決方案的基本要求是不斷訪問無錯誤和多樣化的數據。 由於幾個因素,這對海軍來說是一個重大挑戰tors,例如 stor舊數據庫老化、互聯網連接不良、依賴開源軟件、過時的安全系統、糟糕的用戶界面以及設計專有技術的成本。 訓練深度學習模型也可能是一個緩慢且資源密集型的過程,需要大量的計算能力。

一種選擇是最初實施從私營部門採用的 AI 解決方案tor 建立基礎設施以採用人工智能技術。 視頻在 Reece Koe 的數據科學 強調了創建更好的智能係統的努力。 由五角大樓發起的 Maven 項目使用機器學習對情報監視和偵察數據進行分類,其中包括無人系統視頻、紙張、計算機硬盤、U 盤等,隨後分析人員可以對其進行審查。

什麼是黑盒效應?

在現場大規模部署自主系統之前,徹底了解決策過程的邏輯和順序很重要。 “讓機器學習向人類解釋其決策過程”的挑戰是下一個發展前沿。 沒有控制,trac能力和問責制,軍隊無法可靠地使用人工智能技術。 當涉及到真正的戰爭時,決策不能輕易委託給機器。 正如機器人和無人機人工智能專家 Imagination Engines 的 Stephen Thaler 所說:“海軍上將希望有人在出現問題時向軍事法庭提起訴訟。” 此外,機器人的法律責任目前在國際法下尚不明確,機器人決策必須結合社會和國際法定義的道德標準。

圍繞機器學習的黑匣子可以在一定程度上揭開神秘面紗。 決策樹可用於運行具有大量數據點的模擬並與相應的操作相關聯。 特定的神經網絡可以根據其功能和分配的權重進行隔離,以識別決策邏輯。 但是,這種方法並沒有解釋AI決策的邏輯,而是根據某些條件繪製出可預測的路線。 因此,機器學習也會產生大量基於有限數據的誤報和簡單化、不可行的解釋,這讓人工智能的可靠性受到質疑。

信任是海軍實現最佳人機協同的最重要組成部分,因為錯誤決策的成本要高得多。 今天,人工智能係統無法向人類用戶充分解釋他們的決定和行動,不准確的數據和不可靠的算法阻礙了人機之間的有效合作。

可解釋的 AI 模型可以與智能人機界面技術和符號邏輯數學有效配對,在不影響預測準確性的情況下解釋 AI 背後的心理racy 和性能。 如果我們能夠成功地創建透明的人工智能解決方案,防止顯性或非法偏見,了解操作的上下文和環境,與其他智能機器進行通信,並與終端進行可理解的解釋對話,那麼軍隊中人工智能的未來將會更加強大。用戶。 現在是人工智能和自主系統領域激動人心的時刻,我們的任務必須是確定合乎道德地使用這項技術的適當機會。

觀看更多視頻,了解技術如何在軍事中使用

引用