Mientras que los robots ya se utilizan en los conflictos armados, hasta ahora el hombre ha tenido que apretar el gatillo. ¿Qué pasaría si la inteligencia artificial rastreara, seleccionara y eliminara objetivos? ¿Suena como una visión de Terminator? La Junta de Innovación de Defensa, el grupo de expertos del Pentágono, cree que están listos para ello. ¿De dónde surgió esta idea? Los chinos ya están implementando armas autónomas, así que los yanquis no pueden quedarse atrás. DIB también cree que los estadounidenses tienen una larga historia de uso ético de las nuevas tecnologías, incluso en el campo de batalla, por lo que serán capaces de hacer frente a los nuevos desafíos.
El Pentágono encargó a la DIB la elaboración de un informe sobre el uso ético de la inteligencia artificial al servicio del ejército estadounidense, y los expertos desarrollaron varios principios y directrices que el Departamento de Defensa puede tener en cuenta al implementar la IS en el marco de las estructuras militares. Michael McQuade, experto de la Universidad Carnegie Mellon, dijo en una entrevista con Breaking Defense:
El Pentágono no planea implementar la inteligencia artificial para eliminar el factor humano del campo de acción. Nuestro objetivo no es tanto luchar en la misma batalla como en los sistemas de combate. Todo lo que es nuevo en términos de SI no significa que el hombre no sea responsable de ello. Seguramente no podemos decir: Bueno, bueno… Esta máquina se rompió.
El Pentágono tiene una enorme historia, potencial y cultura de operaciones complejas y peligrosas. También tiene principios éticos, un proceso de ingeniería especializado, mantenimiento regular del equipo después de la operación y es bueno para minimizar los daños al equipo. Este enfoque también se aplicará a la inteligencia artificial. Por ejemplo, los buques de guerra nucleares estadounidenses han navegado con seguridad durante más de cinco décadas sin que se produjera un solo accidente de reactor o un escape radioactivo que pudiera dañar la salud humana o el medio ambiente, agregó.
¿Estás convencido? Para los activistas, «Stop Killer Robots» es un uso absurdo y peligroso de la tecnología moderna. Stephen Hawking, o ahora Elon Musk, era escéptico sobre el uso de la IS y cree que incluso la inteligencia civil artificial puede representar una amenaza para los seres humanos. Sin embargo, los analistas de la DIB nos aseguran que no sólo está en juego el aspecto militar, y que la tecnología también puede utilizarse para mejorar la logística y la organización del ejército. Además, los chinos ya están implementando armas autónomas, por lo que los yanquis no deben quedarse atrás.
En la era de la digitalización, la industria alimentaria se enfrenta a retos que requieren…
Aunque originalmente nació como una plataforma para gamers, Discord se ha reinventado silenciosamente como una…
Colombia enfrenta un sistema de salud que funciona con información fragmentada y actores que operan…
Luis Alberto Valle Rueda, ingeniero en sistemas de la empresa Fortinet México, dio a conocer…
Desde el primer minuto quedó claro: la IA generativa no será solo una herramienta en…
La Inteligencia Artificial (IA) está transformando el panorama laboral en México y redefiniendo lo que…