ユースヘラルド:米海軍の説明可能なAI

AIと言っているクリップアート

  サンホセ青年委員会 市長と市議会の公式青年諮問委員会です。 私たちはすべての若者を代表し、次のことに取り組んでいます。

  • 若者が自分のキャリアを追求できるようにし、地元や市全体のイベントやイニシアチブを通じて市民として参加するよう奨励します。
  • サンノゼの若者が情熱と関心を表明するための、安全で包括的でアクセスしやすいスペースを育成します。
  • 疎外された若者のコミュニティに公平なアクセスとサポートを提供します。
  • サンノゼの若者にさまざまな問題や機会についての認識を促進します。
  • 市議会に、若者の優先事項と意見に基づいて行動するよう助言し、促します。

アロシ・ゴーシュ脚本(リーランド高校XNUMX年生)

ビデオ 無人システムの自律性 Amir Quayumiのスマートロボットとの連携により、インテリジェントシステムが米海軍と海兵隊の運用に不可欠になっていることが実証されました。 実際、1917年には、米海軍はドイツのUボートに対抗するためにラジコンドローンを使用していました。 11年の2001月XNUMX日の攻撃の後、CIAは無人自律システムを使用して、過激派グループに対して致命的な秘密作戦を実施しました。 元国防長官のジェームズ・N・マティスは、これらの無人機の背後にある基盤技術である人工知能(AI)が「戦争の基本的性質」を変え、私たちの軍隊が単なるスペクタクルになると予測しています。tor戦闘の。

なぜ倫理的AIはそれほど重要なのですか?

Peter Parkerの原則では、「大きな力には大きな責任が伴う」と規定されており、軍隊がAIテクノロジーをどのように展開するかを決定するための基礎は倫理でなければなりません。 結局のところ、サイエンスフィクションを実現するテクノロジーは、その独自のアプリケーションと予測できない人間への影響のために、私たちの軍隊にも深刻な課題をもたらします。 ハリウッドのSF映画など 2001年宇宙の旅 および ブレードランナー 私たちの軍隊を安全に保ちながら、気候変動、持続可能性、災害救援などの問題に対処するためのこれらのインテリジェントテクノロジーの可能性を正当化しないAIの警戒心の強いディストピアビジョンを提示しました。

ロボット車両と自律型兵器を使用して人間の戦闘員を保護し、アナリストの意思決定を簡素化することにはかなりの興奮がありますが、キラーロボットやターゲットを誤ってラベル付けする不正確な顔認識技術に対する不安も同様にあります。 データの操作、データの不完全な記録、および質の高いトレーニングデータの選択は、軍隊でのAIの効果的な展開が直面している課題の一部です。 したがって、AIを使用して戦闘の卓越性を達成することを超えて考え、この有望なテクノロジーを展開する際には、法的、社会的、および倫理的な影響を考慮することが不可欠です。

キャサリン・パウエル大佐が2015年の映画で言ったように スカイアイ, 自律型航空機と技術に依存する現代の戦争の道徳的ジレンマを浮き彫りにする「この画像に見られるよりもはるかに多くの問題があります」。 アル・シャバブのテロキャンプでの映画のドローン攻撃は、容認できる巻き添え被害についての議論を開くだけでなく、チャのために生と死を交渉するために現実が変化する中で段階的な意思決定プロセスを案内しますrac関係するター。

同様の難問が海軍に直面しており、技術が「責任があり、公平である」ことを保証しながら、我が国の「自由を守り、経済的繁栄を維持し、海を開いて自由に保つ…(そして)世界中のアメリカの利益を守る…」効果的なAIソリューションを定義しています。 、trac実行可能で、信頼性が高く、管理可能です。」

AIに関する現在の問題は何ですか?

AI駆動の超インテリジェントマシンが人間の知性、感情、思考、感情の本質を真に複製できるのか、それともAIが最もファッショナブルな流行語になっているため、すべての問題に対してコンピューティングソリューションを投影しようとしているだけなのか疑問に思わざるを得ません。テクノロジーの世界。 AIシステムは、車両のメンテナンスのスケジュールの予測、敵の攻撃を防ぐための異常検出、脅威の検出を改善するためのドローンの配備など、軍隊でのより平凡で反復的なタスクにも活用できることを見逃しがちです。 特集ビデオを通じて、自律型潜水艦を活用して海底の地図を作成し、地雷を検出し、侵入種の海草を特定し、救助活動を行う方法を学びました。 私は、今日私たちが直面している現実の問題を解決するためのエキスパートシステムとそのアプリケーションに触発されています。

上のビデオ 自律型の船とボート ボブ・ブリゾララ博士の作品を紹介したこの作品は、海軍の研究者が、移動性、器用さ、自律システムのインテリジェンス。 Brizzolara博士は、自動運転車が未知の環境でどのように機能し、その消耗性のために危険な状況で展開される可能性があるかを説明しました。

これらの先駆的な成果にもかかわらず、人間は当然、メタデータをコンテキスト化して理解する能力が高いため、危機的な状況での意思決定には依然として人間が関与します。 これらの観察結果は、軍隊のさまざまな問題を解決するためにAIを適切かつ費用効果の高い方法で活用する必要があるという私の信念を強化しました。 AIは万能薬ではありませんが、特定の領域の効率を改善し、私たちの生活を楽にするために使用できます。 しかし、他の分野では、人間の知性にはまだ優位性があります。

ソリューションとは何ですか?

AI開発がすべての戦闘状況で信頼できるようになるまで海軍を近代化するための最適な戦略は、ルールとパターンでタスクを特定することです。これにより、予測可能で中断のないユースケースを自動化できます。 プライベート秒からの技術を組み込むことによってtor 非戦闘およびサポート機能では、ゼロから設計するのではなく、フィールドトレーニング、メンテナンス、管理、ウォーゲーム戦略、サプライチェーンロジスティクス、パーソナリティ評価などの分野でAIを効果的に使用できます。 レガシーデータベースのクラウドおよびAIシステムへの統合を優先することで、AIシステムにフィードされるデータが正確で、信頼性が高く、安価で、運用可能で、安全であることを保証できます。 最後に、機械と人間がシームレスに連携する方法を特定することは、理想的なAIソリューションの作成に役立ちます。 Avenger Naval AI Grand Challengeなどのいくつかのイニシアチブは、国防総省がサービスである海軍研究所と協力して開始しました。torと、AI技術を艦隊にうまく組み込むための合同人工知能センター。

「経験、知識、スキルを蓄積する」ための「監視と学習」アプローチを備えた生物学ベースのニューラルネットワークを使用する自己学習AIには、アクションを定義し、それらのアクションの必要性を説明するコンテキストを提供するある程度の機能があります。 それにもかかわらず、これらの機械学習AIアルゴリズムは、データポイズニングやバイアスの影響も受けやすくなっています。

データ中毒とバイアスの影響は何ですか?

機械学習に基づく実行可能なAIソリューションの基本的な要件は、エラーのない多様なデータへの常時アクセスです。 これは、いくつかの要因のために海軍にとって重要な課題ですtorsなどtorレガシーデータベースの時代、貧弱なインターネット接続、オープンソースソフトウェアへの依存、時代遅れのセキュリティシステム、貧弱なユーザーインターフェイス、および独自技術の設計コスト。 ディープラーニングモデルのトレーニングは、膨大な計算能力を必要とする、時間とリソースを大量に消費するプロセスになる可能性もあります。

XNUMXつのオプションは、最初にプライベートセクションから採用されたAIソリューションを実装することですtor AIテクノロジーを採用するためのインフラストラクチャを構築します。 上のビデオ ReeceKoeによるデータサイエンス より優れたインテリジェントシステムを作成するためのこの取り組みを強調しました。 ペンタゴンによって開始されたProjectMavenは、機械学習を使用して、無人システムのビデオ、紙、コンピューターのハードドライブ、サムドライブなどを含むインテリジェンス監視および偵察データを分類します。これらのデータは、後でアナリストが確認できます。

ブラックボックス効果とは何ですか?

自律システムを現場に大規模に展開する前に、意思決定プロセスの論理と順序を完全に理解することが重要です。 「機械学習にその意思決定プロセスを人間に説明させる」という課題は、開発の次のフロンティアです。 制御なし、trac能力と説明責任のために、軍隊はAIテクノロジーを確実に使用することはできません。 実際の戦争に関しては、意思決定を機械に簡単に委任することはできません。 ロボットとドローンのAIの専門家であるImaginationEnginesのStephenThaler氏は、「提督は、事態が悪化したときに誰かに軍法会議を開くことを望んでいます」と述べています。 さらに、ロボットの法的説明責任は現在、国際法の下では不明確であり、ロボットの決定は、社会および国際法によって定義された倫理基準と関連している必要があります。

機械学習を取り巻くブラックボックスは、ある程度わかりやすく説明できます。 デシジョンツリーを使用して、多数のデータポイントでシミュレーションを実行し、対応するアクションに関連付けることができます。 特定のニューラルネットワークは、その機能と割り当てられた重みに基づいて分離し、意思決定のロジックを識別できます。 ただし、このアプローチではAIの決定の論理を説明せず、代わりに特定の条件に基づいて予測可能なルートを計画します。 したがって、機械学習は、限られたデータに基づいて多くの誤検知や単純で実行不可能な説明を生成する可能性もあり、AIの信頼性に疑問を投げかけます。

信頼は、海軍における最適な人間と機械の相乗効果にとって最も重要な要素です。これは、誤った決定のコストが大幅に高くなるためです。 今日、AIシステムは人間のユーザーに意思決定と行動を適切に説明することができず、不正確なデータと信頼性の低いアルゴリズムが人間と機械の間の効果的なパートナーシップを妨げています。

説明可能なAIモデルは、スマートなヒューマンコンピューターインターフェイス技術およびシンボルロジック数学と効果的に組み合わせて、予測精度を損なうことなくAIの背後にある心理学の説明を提供できます。racyとパフォーマンス。 明示的または違法なバイアスを防ぎ、操作のコンテキストと環境を理解し、他のインテリジェントマシンと通信し、エンドとの理解しやすい説明対話を行うことができる透明なAIソリューションを作成できれば、軍隊におけるAIの未来はより強くなります。ユーザー。 これらはAIと自律システムの分野でエキサイティングな時代であり、私たちの探求は、このテクノロジーを倫理的に使用する適切な機会を特定することでなければなりません。

もっとビデオを見て、テクノロジーが軍事でどのように使用されているかを確認してください

作品が引用