Youth Herald: IA explicable en la Marina de los EE. UU.

Clipart que dice AI

La Comisión Juvenil de San José es el grupo asesor juvenil oficial del alcalde y el concejo municipal. Representamos a toda la juventud y trabajamos para:

  • Empoderar a los jóvenes para que sigan sus carreras y anímelos a participar cívicamente a través de eventos e iniciativas locales y en toda la ciudad.
  • Fomentar un espacio seguro, inclusivo y accesible para que los jóvenes de San José expresen sus pasiones e intereses.
  • Brindar acceso y apoyo equitativos a las comunidades de jóvenes marginadas.
  • Promover la conciencia sobre diversos problemas y oportunidades entre los jóvenes de San José.
  • Aconsejar y motivar al Concejo Municipal para que actúe sobre las prioridades y aportes de los jóvenes.

Escrito por Aroshi Ghosh (estudiante de último año en Leland High School)

El video Autonomía para sistemas no tripulados La presentación del trabajo de Amir Quayumi con robots inteligentes demostró que los sistemas inteligentes se han convertido en parte integral de las operaciones de la Armada y el Cuerpo de Marines de los EE. UU. De hecho, ya en 1917, la Marina de los EE. UU. Utilizó drones controlados por radio para contrarrestar los submarinos alemanes. Después de los ataques del 11 de septiembre de 2001, la CIA también utilizó sistemas autónomos no tripulados para llevar a cabo operaciones encubiertas letales contra grupos militantes. El exsecretario de Defensa, James N. Mattis, predice que la inteligencia artificial (IA), la tecnología subyacente detrás de estos vehículos no tripulados, cambiará la "naturaleza fundamental de la guerra" y nuestro ejército se convertirá en un mero espectáculo.tors de combate.

¿Por qué es tan importante la IA ética?

El principio de Peter Parker estipula que "un gran poder conlleva una gran responsabilidad" y la ética debe ser la piedra angular para determinar cómo nuestras fuerzas armadas despliegan la tecnología de IA. Después de todo, la tecnología que hace que la ciencia ficción cobre vida también plantea serios desafíos para nuestras tropas debido a sus aplicaciones únicas y al impacto humano impredecible. Películas de ciencia ficción de Hollywood, como 2001: Una odisea del espacio y Blade Runner presentó una visión distópica alarmista de la inteligencia artificial que no hace justicia a las posibilidades de estas tecnologías inteligentes para abordar problemas, como el cambio climático, la sostenibilidad y la ayuda en casos de desastre, manteniendo a nuestras tropas a salvo.

Si bien existe un entusiasmo considerable por el uso de vehículos robóticos y armas autónomas para proteger a los combatientes humanos y simplificar la toma de decisiones para los analistas, existe la misma ansiedad por los robots asesinos y las tecnologías de reconocimiento facial inexactas que etiquetan incorrectamente a los objetivos. La manipulación de datos, el registro imperfecto de datos y la selección de datos de entrenamiento de calidad son algunos de los desafíos que enfrenta el despliegue efectivo de IA en el ejército. Por lo tanto, es imperativo que pensemos más allá del uso de la IA para lograr la excelencia en el combate y considerar las ramificaciones legales, sociales y éticas al implementar esta tecnología prometedora.

Como dijo el coronel Katherine Powell en la película de 2015 Ojo en el cielo, “Hay mucho más en juego de lo que ves en esta imagen” que resalta el dilema moral de la guerra moderna que depende de la tecnología y los aviones autónomos. El ataque con drones en la película en un campo terrorista de Al Shabaab no solo abre un debate sobre daños colaterales aceptables, sino que nos guía a través del proceso de toma de decisiones paso a paso en medio de realidades cambiantes para negociar la vida y la muerte por el cha.racters involucrados.

Un acertijo similar enfrenta nuestra Marina para definir soluciones efectivas de inteligencia artificial que protejan la "libertad de nuestra nación, preserva la prosperidad económica, mantiene los mares abiertos y libres ... (y) defiende los intereses estadounidenses en todo el mundo ..." al tiempo que garantiza que la tecnología sea "responsable, equitativa , traceable, confiable y gobernable ”.

¿Cuáles son algunos de los problemas actuales con la IA?

Uno no puede evitar preguntarse si las máquinas superinteligentes impulsadas por IA pueden realmente duplicar la esencia de la inteligencia, las emociones, los pensamientos y los sentimientos humanos o si simplemente estamos tratando de proyectar soluciones informáticas a todos los problemas porque la IA se ha convertido en la palabra de moda más de moda en el mundo de la tecnología. A menudo pasamos por alto que los sistemas de inteligencia artificial también se pueden aprovechar para las tareas más mundanas y repetitivas en las fuerzas, como predecir horarios para el mantenimiento de vehículos, detección de anomalías para prevenir ataques enemigos y despliegue de drones para una mejor detección de amenazas. A través de los videos destacados, aprendí cómo se pueden aprovechar los submarinos autónomos para mapear los fondos marinos, detectar minas, identificar especies invasoras de pastos marinos y realizar operaciones de rescate. Me inspiran los sistemas expertos y sus aplicaciones para resolver problemas del mundo real a los que nos enfrentamos hoy.

El video en Barcos y Embarcaciones Autónomos que mostró el trabajo del Dr. Bob Brizzolara también demostró cómo los investigadores navales se inspiraron para imitar formas de vida naturales, como el diseño de alas o aletas de aves, peces y delfines, al desarrollar características estructurales específicas para mejorar la movilidad, destreza y inteligencia de sus sistemas autónomos. El Dr. Brizzolara explicó cómo los vehículos autónomos funcionaban en entornos inexplorados y podían desplegarse en situaciones peligrosas debido a su naturaleza prescindible.

A pesar de estos logros pioneros, la toma de decisiones en situaciones críticas aún involucra a los seres humanos porque los seres humanos son naturalmente más capaces de contextualizar y comprender los metadatos. Estas observaciones reforzaron mi creencia de que la inteligencia artificial debe aprovecharse de manera adecuada y rentable para resolver varios problemas en las fuerzas armadas. La IA no es una panacea, pero se puede utilizar para mejorar la eficiencia en áreas específicas y hacernos la vida más fácil. Sin embargo, en otras áreas, la inteligencia humana todavía tiene una ventaja.

¿Cuál es la solución?

La estrategia óptima para modernizar la Marina hasta que se pueda confiar en el desarrollo de la IA en todas las situaciones de combate es identificar tareas con reglas y patrones para que podamos automatizar casos de uso que sean predecibles y no disruptivos. Incorporando tecnología del sector privadotor en funcionalidades que no son de combate y de soporte, en lugar de diseñarlas desde cero, podemos usar la IA de manera efectiva en áreas como entrenamiento de campo, mantenimiento, administración, estrategia de juegos de guerra, logística de la cadena de suministro y evaluaciones de personalidad. Al priorizar la integración de bases de datos heredadas en la nube y los sistemas de inteligencia artificial, podemos garantizar que los datos que ingresan a los sistemas de inteligencia artificial sean precisos, confiables, económicos, operativos y seguros. Finalmente, identificar cómo las máquinas y los seres humanos pueden trabajar juntos sin problemas ayuda a crear soluciones ideales de IA. Varias iniciativas, como el Avenger Naval AI Grand Challenge han sido lanzadas por el Departamento de Defensa en colaboración con el servicio naval laboratories y el Centro Conjunto de Inteligencia Artificial para incorporar mejor las tecnologías de IA en las flotas.

La IA de autoaprendizaje que utiliza redes neuronales basadas en biología con un enfoque de "observar y aprender" para "acumular experiencia, conocimiento y habilidades" tiene un cierto grado de capacidad para definir acciones y proporcionar un contexto que explique la necesidad de esas acciones. Sin embargo, estos algoritmos de inteligencia artificial de aprendizaje automático también son susceptibles al sesgo y al envenenamiento de datos.

¿Cuál es el efecto del sesgo y el envenenamiento de datos?

Un requisito fundamental de las soluciones de IA viables que se basan en el aprendizaje automático es el acceso constante a datos diversos y sin errores. Este es un desafío importante para la Marina debido a varios factors, como storantigüedad en las bases de datos heredadas, mala conectividad a Internet, dependencia del software de código abierto, sistemas de seguridad obsoletos, interfaces de usuario deficientes y el costo de diseñar tecnología patentada. El entrenamiento de modelos de aprendizaje profundo también puede ser un proceso lento y que requiere muchos recursos y requiere una gran cantidad de poder de cálculo.

Una opción es implementar inicialmente soluciones de IA adoptadas desde el sector privado.tor para construir la infraestructura para adoptar la tecnología de IA. El video en Ciencia de datos con Reece Koe destacó este esfuerzo por crear mejores sistemas inteligentes. El Proyecto Maven, iniciado por el Pentágono, utiliza el aprendizaje automático para clasificar los datos de reconocimiento y vigilancia de inteligencia que incluyen sistemas no tripulados de video, papel, discos duros de computadora, memorias USB, etc., que posteriormente pueden ser revisados ​​por analistas.

¿Qué es el efecto de caja negra?

Antes del despliegue a gran escala de sistemas autónomos en el campo, es importante una comprensión profunda de la lógica y la secuencia del proceso de toma de decisiones. El desafío de “hacer que el aprendizaje automático explique su proceso de toma de decisiones a un ser humano” es la próxima frontera del desarrollo. Sin control, tracresponsabilidad y responsabilidad, las fuerzas armadas no pueden utilizar la tecnología de inteligencia artificial de manera confiable. Cuando se trata de una guerra real, la toma de decisiones no se puede delegar fácilmente en las máquinas. Como dijo Stephen Thaler de Imagination Engines, un experto en inteligencia artificial para robots y drones, "los almirantes quieren a alguien en la corte marcial cuando las cosas van mal". Además, la responsabilidad legal de los robots actualmente no está clara según el derecho internacional, y las decisiones robóticas deben estar en conjunción con los estándares éticos definidos por la sociedad y el derecho internacional.

La caja negra que rodea al aprendizaje automático se puede desmitificar hasta cierto punto. Los árboles de decisión se pueden utilizar para ejecutar simulaciones con numerosos puntos de datos y asociarse con las acciones correspondientes. Se pueden aislar redes neuronales específicas en función de su funcionalidad y ponderaciones asignadas para identificar la lógica de la toma de decisiones. Sin embargo, este enfoque no explica la lógica de las decisiones de la IA y, en cambio, traza una ruta predecible basada en ciertas condiciones. Por lo tanto, el aprendizaje automático también puede producir muchos falsos positivos y explicaciones simplistas e inviables basadas en datos limitados, lo que cuestiona la confiabilidad de la IA.

La confianza es el componente más importante para una sinergia óptima entre humanos y máquinas en la Armada porque el costo de las malas decisiones es significativamente mayor. Hoy en día, los sistemas de inteligencia artificial no pueden explicar adecuadamente sus decisiones y acciones a los usuarios humanos y los datos inexactos y los algoritmos poco confiables impiden una asociación efectiva entre humanos y máquinas.

Los modelos de inteligencia artificial explicables pueden emparejarse de manera efectiva con técnicas inteligentes de interfaz humano-computadora y matemáticas de lógica de símbolos para proporcionar una explicación de la psicología detrás de la inteligencia artificial sin comprometer la precisión de la predicción.racy y rendimiento. El futuro de la IA en las fuerzas armadas será más fuerte si podemos crear con éxito soluciones de IA transparentes que eviten los prejuicios explícitos o ilegales, comprendan el contexto y el entorno de operación, se comuniquen con otras máquinas inteligentes y participen en diálogos explicativos comprensibles con el final. usuario. Estos son tiempos emocionantes en el campo de la inteligencia artificial y los sistemas autónomos, y nuestra búsqueda debe ser identificar las oportunidades adecuadas para usar esta tecnología de manera ética.

MIRA MÁS VIDEOS PARA VER CÓMO SE UTILIZA LA TECNOLOGÍA EN EL MILITAR

Trabajos Citados