聖何塞青年委員會 是市長和市議會的官方青年諮詢小組。 我們代表所有青年,並致力於:
- 賦權青年追求自己的職業生涯,並鼓勵他們通過當地和全市範圍的活動和倡議參與公民活動。
- 為聖何塞的年輕人營造一個安全、包容且易於使用的空間,以表達他們的熱情和興趣。
- 為邊緣化青年社區提供公平的機會和支持。
- 提高聖何塞青年對各種問題和機會的認識。
- 建議並提示市議會根據青年優先事項和意見採取行動。
作者:Aroshi Ghosh(利蘭高中高級)
視頻 無人系統自治 以 Amir Quayumi 在智慧機器人方面的工作為特色,這表明智慧系統已成為美國海軍和海軍陸戰隊作戰不可或缺的一部分。事實上,早在1917年,美國海軍就使用無線電遙控無人機對抗德國U艇。 11年2001月XNUMX日攻擊事件後,中情局也利用無人自主系統對激進組織進行致命的秘密行動。前國防部長詹姆斯·N·馬蒂斯預測,這些無人駕駛車輛背後的基礎技術人工智慧(AI)將改變“戰爭的基本性質”,我們的軍隊將成為戰鬥的旁觀者。
為什麼道德人工智能如此重要?
彼得帕克原則規定“能力越大責任越大”,倫理必須是決定我們軍隊如何部署人工智能技術的基石。 畢竟,使科幻小說栩栩如生的技術也因其獨特的應用和不可預測的人類影響而給我們的部隊帶來了嚴峻的挑戰。 好萊塢科幻電影,例如 2001:太空奧德賽 “銀翼殺手” 提出了一種危言聳聽的反烏托邦 AI 願景,該願景並未充分考慮這些智能技術在解決氣候變化、可持續性和救災等問題的同時確保我們軍隊安全的可能性。
雖然使用機器人車輛和自主武器來保護人類戰鬥人員並簡化分析師的決策令人相當興奮,但對殺手機器人和錯誤標記目標的不准確面部識別技術也同樣感到焦慮。 數據處理、數據記錄不完善以及選擇高質量的訓練數據是人工智能在軍隊中有效部署所面臨的一些挑戰。 因此,在部署這項有前途的技術時,我們必須超越使用人工智能來實現卓越戰鬥,並考慮法律、社會和道德後果。
正如凱瑟琳鮑威爾上校在 2015 年的電影中所說 天眼, “所面臨的風險比你在這張圖片中看到的要多得多”,這突顯了依賴自主飛機和技術的現代戰爭的道德困境。電影中無人機對青年黨恐怖分子營地的襲擊不僅引發了關於可接受的附帶損害的爭論,而且引導我們在不斷變化的現實中逐步製定決策過程,以協商相關人物的生死存亡。
我們的海軍面臨著類似的難題,即定義有效的人工智慧解決方案,保護我們國家的“自由,維護經濟繁榮,保持海洋開放和自由……(並)捍衛美國在全球的利益……”,同時確保該技術「負責任、公平」 、可追溯、可靠、可治理」。
人工智能當前存在哪些問題?
人們不禁懷疑,人工智能驅動的超級智能機器是否能夠真正複製人類智能、情感、思想和感覺的本質,或者我們是否只是試圖將計算解決方案投射到所有問題上,因為人工智能已經成為最時尚的流行詞。科技世界。 我們經常忽視人工智能係統也可以用於部隊中更平凡、重複的任務,例如預測車輛維護的時間表、防止敵人攻擊的異常檢測以及用於改進威脅檢測的無人機部署。 通過特色視頻,我了解瞭如何利用自主潛艇來繪製海床地圖、探測水雷、識別入侵的海草物種以及執行救援行動。 我受到專家系統及其應用程序的啟發,以解決我們今天面臨的現實問題。
上的視頻 自主船舶 展示了 Bob Brizzolara 博士的工作的展覽還展示了海軍研究人員在開發特定結構特徵以提高機動性、靈巧性和其自主系統的智能。 Brizzolara 博士解釋了自動駕駛汽車如何在未知環境中發揮作用,並且由於其消耗性,可以部署在危險情況下。
儘管取得了這些開創性的成就,但在危急情況下的決策仍然涉及人類,因為人類天生更具有情境化和理解元數據的能力。 這些觀察強化了我的信念,即必須適當且經濟高效地利用人工智能來解決武裝部隊中的各種問題。 AI 不是靈丹妙藥,但可以用來提高特定領域的效率,讓我們的生活更輕鬆。 然而,在其他領域,人類智能仍然具有優勢。
解決辦法是什麼?
海軍現代化的最佳策略是透過識別具有規則和模式的任務,以便我們能夠自動化可預測且無幹擾的用例,直到人工智慧開發在所有戰鬥情況下都值得信賴。透過將私部門的技術融入非戰鬥和支援功能中,而不是從頭開始設計,我們可以在野戰訓練、維護、管理、兵棋策略、供應鏈物流和個性評估等領域有效地使用人工智慧。透過優先將遺留資料庫整合到雲端和人工智慧系統中,我們可以確保輸入人工智慧系統的資料準確、可靠、廉價、可操作且安全。最後,確定機器和人類如何無縫協作有助於創建理想的人工智慧解決方案。國防部與國防部、海軍實驗室和聯合人工智慧中心合作發起了「復仇者海軍人工智慧大挑戰」等多項舉措,以更好地將人工智慧技術融入艦隊。
使用基於生物學的神經網絡和“觀察和學習”方法來“積累經驗、知識和技能”的自學習 AI 具有一定程度的定義行動的能力,並提供解釋這些行動必要性的背景。 儘管如此,這些機器學習 AI 算法也容易受到數據中毒和偏見的影響。
數據中毒和偏差的影響是什麼?
基於機器學習的可行人工智慧解決方案的基本要求是持續存取無錯誤和多樣化的資料。由於多種因素,例如遺留資料庫中的儲存、較差的網路連線、對開源軟體的依賴、過時的安全系統、糟糕的使用者介面以及設計專有技術的成本,這對海軍來說是一個重大挑戰。訓練深度學習模型也可能是一個緩慢且資源密集的過程,需要大量的運算能力。
一種選擇是首先實施私營部門採用的人工智慧解決方案,以建立採用人工智慧技術的基礎設施。影片於 Reece Koe 的數據科學 強調了創建更好的智能係統的努力。 由五角大樓發起的 Maven 項目使用機器學習對情報監視和偵察數據進行分類,其中包括無人系統視頻、紙張、計算機硬盤、U 盤等,隨後分析人員可以對其進行審查。
什麼是黑盒效應?
在現場大規模部署自主系統之前,徹底了解決策過程的邏輯和順序非常重要。 「讓機器學習向人類解釋其決策過程」的挑戰是下一個發展前沿。如果沒有控制、可追溯性和問責制,武裝部隊就無法可靠地使用人工智慧技術。當涉及到真正的戰爭時,決策不能輕易委託給機器。正如機器人和無人機人工智慧專家 Imagination Engines 的 Stephen Thaler 所說,“海軍上將希望在出現問題時有人上軍事法庭。”此外,國際法目前尚不清楚機器人的法律責任,機器人的決策必須符合社會和國際法定義的道德標準。
圍繞機器學習的黑匣子可以在一定程度上揭開神秘面紗。 決策樹可用於運行具有大量數據點的模擬並與相應的操作相關聯。 特定的神經網絡可以根據其功能和分配的權重進行隔離,以識別決策邏輯。 但是,這種方法並沒有解釋AI決策的邏輯,而是根據某些條件繪製出可預測的路線。 因此,機器學習也會產生大量基於有限數據的誤報和簡單化、不可行的解釋,這讓人工智能的可靠性受到質疑。
信任是海軍實現最佳人機協同的最重要組成部分,因為錯誤決策的成本要高得多。 今天,人工智能係統無法向人類用戶充分解釋他們的決定和行動,不准確的數據和不可靠的算法阻礙了人機之間的有效合作。
可解釋的人工智慧模型可以與智慧人機介面技術和符號邏輯數學有效結合,在不影響預測準確性和性能的情況下提供人工智慧背後的心理學解釋。如果我們能夠成功創建透明的人工智慧解決方案,防止明顯或非法的偏見,了解作戰背景和環境,與其他智慧機器進行通信,並與終端進行可理解的解釋對話,那麼人工智慧在武裝部隊中的未來將會更加強大。這是人工智慧和自主系統領域的令人興奮的時刻,我們的追求必須是找到合乎道德地使用這項技術的適當機會。
新增評論:青年先驅報:美國海軍中可解釋的人工智慧