Youth Herald: IA explicable en la Marina de los EE. UU.

Clipart que dice AI

El Comisión Juvenil de San José es el grupo asesor juvenil oficial del alcalde y el concejo municipal. Representamos a toda la juventud y trabajamos para:

  • Empoderar a los jóvenes para que sigan sus carreras y anímelos a participar cívicamente a través de eventos e iniciativas locales y en toda la ciudad.
  • Fomentar un espacio seguro, inclusivo y accesible para que los jóvenes de San José expresen sus pasiones e intereses.
  • Brindar acceso y apoyo equitativos a las comunidades de jóvenes marginadas.
  • Promover la conciencia sobre diversos problemas y oportunidades entre los jóvenes de San José.
  • Aconsejar y motivar al Concejo Municipal para que actúe sobre las prioridades y aportes de los jóvenes.

Escrito por Aroshi Ghosh (estudiante de último año en Leland High School)

El video Autonomía para sistemas no tripulados El trabajo de Amir Quayumi con robots inteligentes demostró que los sistemas inteligentes se han convertido en parte integral de las operaciones de la Marina y el Cuerpo de Marines de los EE. UU. De hecho, ya en 1917, la Marina de los EE. UU. utilizó drones controlados por radio para contrarrestar los submarinos alemanes. Después de los ataques del 11 de septiembre de 2001, la CIA también utilizó sistemas autónomos no tripulados para llevar a cabo operaciones encubiertas letales contra grupos militantes. El ex secretario de Defensa, James N. Mattis, predice que la inteligencia artificial (IA), la tecnología subyacente detrás de estos vehículos no tripulados, cambiará la "naturaleza fundamental de la guerra" y nuestros militares se convertirán en meros espectadores del combate.

¿Por qué es tan importante la IA ética?

El principio de Peter Parker estipula que "un gran poder conlleva una gran responsabilidad" y la ética debe ser la piedra angular para determinar cómo nuestras fuerzas armadas despliegan la tecnología de IA. Después de todo, la tecnología que hace que la ciencia ficción cobre vida también plantea serios desafíos para nuestras tropas debido a sus aplicaciones únicas y al impacto humano impredecible. Películas de ciencia ficción de Hollywood, como 2001: Una odisea del espacio y Blade Runner presentó una visión distópica alarmista de la inteligencia artificial que no hace justicia a las posibilidades de estas tecnologías inteligentes para abordar problemas, como el cambio climático, la sostenibilidad y la ayuda en casos de desastre, manteniendo a nuestras tropas a salvo.

Si bien existe un entusiasmo considerable por el uso de vehículos robóticos y armas autónomas para proteger a los combatientes humanos y simplificar la toma de decisiones para los analistas, existe la misma ansiedad por los robots asesinos y las tecnologías de reconocimiento facial inexactas que etiquetan incorrectamente a los objetivos. La manipulación de datos, el registro imperfecto de datos y la selección de datos de entrenamiento de calidad son algunos de los desafíos que enfrenta el despliegue efectivo de IA en el ejército. Por lo tanto, es imperativo que pensemos más allá del uso de la IA para lograr la excelencia en el combate y considerar las ramificaciones legales, sociales y éticas al implementar esta tecnología prometedora.

Como dijo el coronel Katherine Powell en la película de 2015 Ojo en el cielo, “Hay mucho más en juego de lo que se ve en esta imagen”, que pone de relieve el dilema moral de la guerra moderna, que depende de aeronaves y tecnología autónomas. El ataque con drones en la película contra un campamento terrorista de Al Shabaab no solo abre un debate sobre los daños colaterales aceptables, sino que nos guía paso a paso a través del proceso de toma de decisiones en medio de realidades cambiantes para negociar la vida o la muerte de los personajes involucrados.

Nuestra Armada enfrenta un dilema similar para definir soluciones de IA efectivas que protejan la “libertad de nuestra nación, preserven la prosperidad económica, mantengan los mares abiertos y libres… (y) defiendan los intereses estadounidenses en todo el mundo…”, al tiempo que garantizan que la tecnología sea “responsable, equitativa, rastreable, confiable y gobernable”.

¿Cuáles son algunos de los problemas actuales con la IA?

Uno no puede evitar preguntarse si las máquinas superinteligentes impulsadas por IA pueden realmente duplicar la esencia de la inteligencia, las emociones, los pensamientos y los sentimientos humanos o si simplemente estamos tratando de proyectar soluciones informáticas a todos los problemas porque la IA se ha convertido en la palabra de moda más de moda en el mundo de la tecnología. A menudo pasamos por alto que los sistemas de inteligencia artificial también se pueden aprovechar para las tareas más mundanas y repetitivas en las fuerzas, como predecir horarios para el mantenimiento de vehículos, detección de anomalías para prevenir ataques enemigos y despliegue de drones para una mejor detección de amenazas. A través de los videos destacados, aprendí cómo se pueden aprovechar los submarinos autónomos para mapear los fondos marinos, detectar minas, identificar especies invasoras de pastos marinos y realizar operaciones de rescate. Me inspiran los sistemas expertos y sus aplicaciones para resolver problemas del mundo real a los que nos enfrentamos hoy.

El video en Barcos y Embarcaciones Autónomos que mostró el trabajo del Dr. Bob Brizzolara también demostró cómo los investigadores navales se inspiraron para imitar formas de vida naturales, como el diseño de alas o aletas de aves, peces y delfines, al desarrollar características estructurales específicas para mejorar la movilidad, destreza y inteligencia de sus sistemas autónomos. El Dr. Brizzolara explicó cómo los vehículos autónomos funcionaban en entornos inexplorados y podían desplegarse en situaciones peligrosas debido a su naturaleza prescindible.

A pesar de estos logros pioneros, la toma de decisiones en situaciones críticas aún involucra a los seres humanos porque los seres humanos son naturalmente más capaces de contextualizar y comprender los metadatos. Estas observaciones reforzaron mi creencia de que la inteligencia artificial debe aprovecharse de manera adecuada y rentable para resolver varios problemas en las fuerzas armadas. La IA no es una panacea, pero se puede utilizar para mejorar la eficiencia en áreas específicas y hacernos la vida más fácil. Sin embargo, en otras áreas, la inteligencia humana todavía tiene una ventaja.

¿Cuál es la solución?

La estrategia óptima para modernizar la Armada hasta que se pueda confiar en el desarrollo de la IA en todas las situaciones de combate es identificar tareas con reglas y patrones para que podamos automatizar casos de uso que sean predecibles y no disruptivos. Al incorporar tecnología del sector privado en funcionalidades no relacionadas con el combate y de apoyo en lugar de diseñarlas desde cero, podemos usar la IA de manera efectiva en áreas como entrenamiento de campo, mantenimiento, administración, estrategia de juegos de guerra, logística de la cadena de suministro y evaluaciones de personalidad. Al priorizar la integración de bases de datos heredadas en sistemas de IA y en la nube, podemos asegurar que los datos que alimentan los sistemas de IA sean precisos, confiables, económicos, operativos y seguros. Finalmente, identificar cómo las máquinas y los seres humanos pueden trabajar juntos sin problemas ayuda a crear soluciones de IA ideales. El Departamento de Defensa ha lanzado varias iniciativas, como The Avenger Naval AI Grand Challenge, en colaboración con el servicio, los laboratorios navales y el Centro Conjunto de Inteligencia Artificial para incorporar mejor las tecnologías de IA en las flotas.

La IA de autoaprendizaje que utiliza redes neuronales basadas en biología con un enfoque de "observar y aprender" para "acumular experiencia, conocimiento y habilidades" tiene un cierto grado de capacidad para definir acciones y proporcionar un contexto que explique la necesidad de esas acciones. Sin embargo, estos algoritmos de inteligencia artificial de aprendizaje automático también son susceptibles al sesgo y al envenenamiento de datos.

¿Cuál es el efecto del sesgo y el envenenamiento de datos?

Un requisito fundamental de las soluciones de IA viables basadas en el aprendizaje automático es el acceso constante a datos libres de errores y diversos. Este es un desafío importante para la Armada debido a varios factores, como el almacenamiento en bases de datos heredadas, la mala conectividad a Internet, la dependencia de software de código abierto, los sistemas de seguridad obsoletos, las interfaces de usuario deficientes y el costo de diseñar tecnología patentada. El entrenamiento de modelos de aprendizaje profundo también puede ser un proceso lento y que consume muchos recursos y requiere una enorme cantidad de potencia computacional.

Una opción es implementar inicialmente soluciones de IA adoptadas por el sector privado para construir la infraestructura necesaria para adoptar la tecnología de IA. El video sobre Ciencia de datos con Reece Koe destacó este esfuerzo por crear mejores sistemas inteligentes. El Proyecto Maven, iniciado por el Pentágono, utiliza el aprendizaje automático para clasificar los datos de reconocimiento y vigilancia de inteligencia que incluyen sistemas no tripulados de video, papel, discos duros de computadora, memorias USB, etc., que posteriormente pueden ser revisados ​​por analistas.

¿Qué es el efecto de caja negra?

Antes de implementar a gran escala los sistemas autónomos en el terreno, es importante comprender a fondo la lógica y la secuencia del proceso de toma de decisiones. El desafío de “lograr que el aprendizaje automático explique su proceso de toma de decisiones a un ser humano” es la próxima frontera del desarrollo. Sin control, trazabilidad y rendición de cuentas, las fuerzas armadas no pueden utilizar la tecnología de IA de manera confiable. Cuando se trata de una guerra real, la toma de decisiones no se puede delegar fácilmente en las máquinas. Como dijo Stephen Thaler de Imagination Engines, un experto en IA para robots y drones, “los almirantes quieren que alguien haga un juicio militar cuando las cosas salen mal”. Además, la responsabilidad legal de los robots actualmente no está clara según el derecho internacional, y las decisiones robóticas deben estar en conjunción con los estándares éticos definidos por la sociedad y el derecho internacional.

La caja negra que rodea al aprendizaje automático se puede desmitificar hasta cierto punto. Los árboles de decisión se pueden utilizar para ejecutar simulaciones con numerosos puntos de datos y asociarse con las acciones correspondientes. Se pueden aislar redes neuronales específicas en función de su funcionalidad y ponderaciones asignadas para identificar la lógica de la toma de decisiones. Sin embargo, este enfoque no explica la lógica de las decisiones de la IA y, en cambio, traza una ruta predecible basada en ciertas condiciones. Por lo tanto, el aprendizaje automático también puede producir muchos falsos positivos y explicaciones simplistas e inviables basadas en datos limitados, lo que cuestiona la confiabilidad de la IA.

La confianza es el componente más importante para una sinergia óptima entre humanos y máquinas en la Armada porque el costo de las malas decisiones es significativamente mayor. Hoy en día, los sistemas de inteligencia artificial no pueden explicar adecuadamente sus decisiones y acciones a los usuarios humanos y los datos inexactos y los algoritmos poco confiables impiden una asociación efectiva entre humanos y máquinas.

Los modelos de IA explicables pueden combinarse eficazmente con técnicas de interfaz hombre-computadora inteligentes y matemáticas de lógica simbólica para proporcionar una explicación de la psicología detrás de la IA sin comprometer la precisión y el rendimiento de las predicciones. El futuro de la IA en las fuerzas armadas será más sólido si podemos crear con éxito soluciones de IA transparentes que eviten el sesgo explícito o ilegal, comprendan el contexto y el entorno de operación, se comuniquen con otras máquinas inteligentes y participen en diálogos explicativos comprensibles con el usuario final. Vivimos tiempos apasionantes en el campo de la IA y los sistemas autónomos y nuestra búsqueda debe ser la de identificar las oportunidades adecuadas para utilizar esta tecnología de manera ética.

MIRA MÁS VIDEOS PARA VER CÓMO SE UTILIZA LA TECNOLOGÍA EN EL MILITAR

Trabajos Citados