Es posible que haya oído hablar de robots asesinos, robots de matanza o terminators -llamados oficialmente armas autónomas letales (LAW, por sus siglas en inglés)- en películas y libros. Y la idea de armas superinteligentes haciendo estragos sigue siendo ciencia ficción.

Pero a medida que las armas de IA se vuelven cada vez más sofisticadas, crece la preocupación pública por el temor a la falta de responsabilidad y el riesgo de fallos técnicos.

Ya hemos visto cómo las llamadas IA neutrales han creado algoritmos sexistas y sistemas de moderación de contenidos ineptos, en gran parte porque sus creadores no entendían la tecnología. Pero en la guerra, este tipo de malentendidos podrían matar a civiles o echar por tierra las negociaciones.

Por ejemplo, un algoritmo de reconocimiento de objetivos podría entrenarse para identificar tanques a partir de imágenes de satélite. Pero, ¿y si en todas las imágenes utilizadas para entrenar el sistema aparecieran soldados en formación alrededor del tanque?

Podría confundir un vehículo civil que atraviesa un bloqueo militar con un objetivo.

¿Por qué necesitamos armas autónomas?

La población civil de muchos países (como Vietnam, Afganistán y Yemen) ha sufrido a causa del modo en que las superpotencias mundiales construyen y utilizan armas cada vez más avanzadas. Mucha gente diría que han hecho más mal que bien, señalando más recientemente la invasión rusa de Ucrania a principios de 2022.

En el otro bando están las personas que dicen que un país debe ser capaz de defenderse por sí mismo, lo que significa mantenerse al día con la tecnología militar de otras naciones. La IA ya supera a los humanos en el ajedrez y el póquer. También supera a los humanos en el mundo real.

Por ejemplo, Microsoft afirma que su software de reconocimiento de voz tiene una tasa de error del 1%, frente a la tasa de error humano de alrededor del 6%. Así que no es de extrañar que los ejércitos vayan cediendo poco a poco las riendas a los algoritmos.

Pero, ¿cómo evitar añadir los robots asesinos a la larga lista de cosas que desearíamos no haber inventado nunca? En primer lugar: conoce a tu enemigo.

¿Qué son las armas autónomas letales (LAW)?

El Departamento de Defensa de EE.UU. define un sistema de armas autónomo como: «Un sistema de armas que, una vez activado, puede seleccionar y atacar objetivos sin más intervención de un operador humano».

Muchos sistemas de combate ya se ajustan a este criterio. Los ordenadores de los drones y los misiles modernos tienen algoritmos que pueden detectar objetivos y disparar contra ellos con mucha más precisión que un operador humano. La Cúpula de Hierro israelí es uno de los varios sistemas de defensa activa que pueden atacar objetivos sin supervisión humana.

Aunque está diseñada para la defensa antimisiles, la Cúpula de Hierro podría matar a personas por accidente. Pero el riesgo se considera aceptable en la política internacional porque la Cúpula de Hierro tiene en general un historial fiable de protección de vidas civiles.

También existen armas con inteligencia artificial diseñadas para atacar a personas, desde centinelas robóticos hasta drones kamikaze merodeadores utilizados en la guerra de Ucrania. Las armas de IA ya están aquí. Así que, si queremos influir en el uso de las LAW, tenemos que entender la historia de las armas modernas.

Las reglas de la guerra

Los acuerdos internacionales, como las convenciones de Ginebra, establecen las normas de conducta para el trato de prisioneros de guerra y civiles durante los conflictos.

Son una de las pocas herramientas que tenemos para controlar cómo se libran las guerras. Por desgracia, el uso de armas químicas por parte de Estados Unidos en Vietnam y por parte de Rusia en Afganistán son la prueba de que estas medidas no siempre tienen éxito.

Peor aún es cuando los actores clave se niegan a firmar. La Campaña Internacional para la Prohibición de las Minas Terrestres (CIPMT) lleva desde 1992 presionando a los políticos para que prohíban las minas y las municiones de racimo (que esparcen aleatoriamente pequeñas bombas por una amplia zona). En 1997, el tratado de Ottawa incluyó la prohibición de estas armas, que firmaron 122 países. Pero Estados Unidos, China y Rusia no se adhirieron.

Las minas terrestres han herido y matado al menos a 5.000 soldados y civiles al año desde 2015 y hasta 9.440 personas en 2017. Según el informe Monitor de Minas Terrestres y Municiones de Racimo 2022:

«Las bajas… han sido inquietantemente altas durante los últimos siete años, tras más de una década de reducciones históricas. El año 2021 no fue una excepción. Esta tendencia se debe en gran medida al aumento de los conflictos y a la contaminación por minas improvisadas observada desde 2015. Los civiles representaron la mayoría de las víctimas registradas, la mitad de las cuales eran niños.»

A pesar de los esfuerzos de la ICBL, hay pruebas de que tanto Rusia como Ucrania (miembro del tratado de Ottawa) están utilizando minas terrestres durante la invasión rusa de Ucrania. Ucrania también ha recurrido a drones para guiar ataques de artillería o, más recientemente, para «ataques kamikaze» contra infraestructuras rusas.

Nuestro futuro

Pero, ¿qué pasa con las armas más avanzadas con IA? La Campaña para Detener a los Robots Asesinos enumera nueve problemas clave con las armas de IA, centrándose en la falta de responsabilidad y la inherente deshumanización del asesinato que conlleva.

Aunque esta crítica es válida, una prohibición total de las LAW no es realista por dos razones. En primer lugar, al igual que ocurre con las minas, ya se ha abierto la caja de Pandora. Además, las fronteras entre las armas autónomas, las LAW y los robots asesinos son tan difusas que resulta difícil distinguirlas.

Los líderes militares siempre podrían encontrar un resquicio en la redacción de una prohibición y colar robots asesinos en servicio como armas autónomas defensivas. Incluso podrían hacerlo sin saberlo.

Es casi seguro que veremos más armas con IA en el futuro. Pero esto no significa que tengamos que mirar hacia otro lado. Unas prohibiciones más específicas y matizadas ayudarían a que nuestros políticos, científicos de datos e ingenieros rindieran cuentas.

Por ejemplo, prohibiendo:

IA de caja negra: sistemas en los que el usuario no tiene información sobre el algoritmo más allá de las entradas y salidas.

IA poco fiable: sistemas que no se han probado a fondo (como en el ejemplo del bloqueo militar mencionado anteriormente).

Y no hace falta ser un experto en IA para tener una opinión sobre las LEYES. Mantente al tanto de los nuevos desarrollos de IA militar. Cuando leas u oigas hablar del uso de IA en combate, pregúntate: ¿está justificado?

¿Preserva la vida de los civiles? Si no es así, colabora con las comunidades que trabajan para controlar estos sistemas. Juntos, tenemos la oportunidad de evitar que la IA haga más mal que bien.

Jonathan Erskine, estudiante de doctorado en Inteligencia Artificial Interactiva, Universidad de Bristol, y Miranda Mowbray, profesora de Inteligencia Artificial Interactiva, Universidad de Bristol.

Este artículo ha sido republicado de The Conversation bajo una licencia Creative Commons. Lea el artículo original.

¿Qué siente realmente?

Consulta ahora

LLAMA AHORA: 34932995769

LLAMA AHORA: 806488385


0 comentarios

Deja una respuesta

Marcador de posición del avatar

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *