Por la prohibición de los “robots asesinos”

11 enero, 2021 • Artículos, Asuntos globales, Portada • Vistas: 4167

Armed Figures

Daniel Zorrilla Velázquez

Enero 2021

Que ambas partes, por primera vez, formulen propuestas serias y precisas para la inspección y el control de armas y pongan el poder absoluto para destruir otros países bajo el control absoluto de todos los países. Que ambos lados busquen invocar las maravillas de la ciencia en lugar de sus terrores.

Fragmento del discurso de toma de posesión del presidente John F. Kennedy, enero de 1961.

No todos los avances científicos están siendo dirigidos al beneficio de la humanidad. Algunos de ellos, incluso, pueden ponerla al borde de su destrucción.

En los últimos años, múltiples aplicaciones computacionales, como la inteligencia artificial, han sido empleadas en la tecnología militar con la intención de desarrollar armas totalmente autónomas. Estas armas pueden identificar, seleccionar y atacar a un objetivo sin la necesidad de un control humano significativo. Evidentemente, la proliferación de este tipo de armas implica un sinfín de amenazas para la paz y la seguridad internacionales.

Al analizar este tema, inevitablemente surgen varias preguntas: ¿cómo podrían estas armas cumplir con los principios de distinción y proporcionalidad en los ataques, como lo establece el Derecho Internacional Humanitario? ¿Cómo programar en un algoritmo rasgos de la conducta humana, como el juicio, la moral o la razón? ¿Cómo se evitaría que caigan en manos de grupos terroristas? ¿Cuáles serían las consecuencias de un posible hackeo?

Dejar a las máquinas decidir quién vive y quién muere es absolutamente inaceptable desde un punto de vista moral.

Actualmente, hay sistemas armamentísticos semiautónomos que dependen de un controlador humano para aprobar un ataque o para tomar decisiones imprevistas. Un ejemplo es el asesinato del científico nuclear iraní Mohsen Fakhrizadeh en noviembre de 2020. Según informes de medios como CNN y BBC, Fakhrizadeh fue atacado por una ametralladora controlada remotamente e instalada al interior de un automóvil estacionado a 150 metros del objetivo. Después del tiroteo, el auto que contenía la ametralladora hizo explosión, en un ataque que duró apenas 3 minutos.

En contraste, los Sistemas de Armas Autónomas Letales (LAWS) pueden ser programados para atacar objetivos específicos, sin la necesidad de obtener la aprobación de un comando humano y tomando múltiples decisiones independientes. Los sistemas autónomos pueden ser implementados en tanques, buques militares, submarinos, aeronaves y drones de todo tipo. Su potencial de destrucción es simplemente aterrador.

Múltiples implicaciones

Aunque todavía no se han desplegado armas totalmente autónomas en los campos de batalla, hay múltiples implicaciones legales, morales y éticas para detener el avance de los “robots asesinos”. Dejar a las máquinas decidir quién vive y quién muere es absolutamente inaceptable desde un punto de vista moral. Los sistemas autónomos carecen de la capacidad de juicio para evaluar la proporcionalidad de un ataque, para distinguir a los civiles del personal militar y para adaptarse a situaciones cambiantes, tal como lo estableció el profesor Noel Sharkey, de la Universidad de Sheffield, en un reporte sobre las armas autónomas del Comité Internacional de la Cruz Roja. Por otro lado, no es claro quién sería responsable en el caso de la comisión de actos ilegales causados por los sistemas autónomos, dejando una laguna jurídica inadmisible que podría empantanar un virtual proceso legal por violaciones a los derechos humanos.

Algunos de los mayores peligros que implica el desarrollo de los robots asesinos, es que podrían llegar a manos de actores no estatales, ser víctimas de hackeo e incluso ser utilizados por terroristas, causando consecuencias devastadoras. Los ataques podrían ser dirigidos en contra de ciertas regiones, poblaciones, grupos étnicos e incluso contra personas que usen determinadas vestimentas de índole religiosa. Lo anterior, puede ocasionar acciones de limpieza étnica, desplazamiento forzado e incluso genocidio. Hay que tener presente que en el pasado reciente, la inacción en contra de un riesgo latente llevó a los genocidios de Ruanda y Yugoslavia.

Argumentos en torno al tema

No obstante, países como China, Estados Unidos, Israel, el Reino Unido y Rusia han estado invirtiendo cuantiosos recursos para el desarrollo y la producción de armas totalmente autónomas. El razonamiento fundamental de aquellos a favor de estos sistemas es que ofrecen ventajas sustanciales que superan a sus inconvenientes. Por ejemplo, sostienen que este tipo de tecnología reduciría el número de muertes —tanto de personal militar como de población civil—, reduciría los costos de los conflictos armados, incrementaría la eficiencia de los ataques —también actuando como un elemento de intimidación para prevenir conflictos futuros—, y argumentan que la duración de los enfrentamientos sería mucho menor, disminuyendo los daños colaterales.

Sin embargo, precisamente por los bajos costos de producción y despliegue del armamento totalmente autónomo es probable que aumenten el número de confrontaciones, debido a que los beneficios económicos y geopolíticos de las intervenciones fácilmente podrían superar la inversión. Además, los materiales necesarios para construir las armas autónomas se están volviendo cada vez más accesibles y baratos, por lo que el riesgo de la proliferación sería muy alto, lo que podría desencadenar una nueva carrera armamentística en el plano de la guerra automatizada.

Esfuerzos por una solución

En pos de una solución, ha habido numerosos esfuerzos por parte de la comunidad internacional para detener esta amenaza. El Grupo de Expertos Gubernamentales de las Naciones Unidas (GEG) se ha reunido anualmente desde 2016 para discutir los avances y las estrategias en el campo de los LAWS. El GEG es un cuerpo subsidiario de la Convención sobre Ciertas Armas Convencionales, y ha reunido los esfuerzos de los Estados parte de la Convención, algunos contratistas, organizaciones internacionales, académicos y organizaciones no gubernamentales, como Amnistía Internacional, Human Rights Watch y el Instituto del Futuro de la Vida.

Los gobiernos nacionales y sus cuerpos diplomáticos tienen que presionar de manera más enérgica y contundente para lograr una restricción comprehensiva de este tipo de armamento.

Hasta el momento, 30 países, el Parlamento Europeo, 140 organizaciones no gubernamentales, el Consejo de Derechos Humanos de las Naciones Unidas, 26 ganadores del premio Nobel y múltiples especialistas en la materia han expresado su apoyo para una prohibición total de las armas autónomas. En el pasado, el uso de armas biológicas y químicas fue prohibido por la comunidad internacional, al ser consideradas armas de destrucción masiva. Las armas autónomas tienen el mismo potencial funesto. Tristemente, los grandes intereses económicos están bloqueando los esfuerzos destinados a la regulación. El cabildeo de los grandes contratistas militares —que en 2019 facturaron 398 000 millones de dólares a nivel mundial— ha presionado reciamente a los tomadores de decisiones de los principales países productores de armas autónomas, entre ellos Estados Unidos y Rusia, para defender sus intereses, ocasionando un punto muerto que impide alcanzar el consenso.

Conclusión

Los gobiernos nacionales y sus cuerpos diplomáticos tienen que presionar de manera más enérgica y contundente para lograr una restricción comprehensiva de este tipo de armamento. Pero no debemos dejarles solamente a ellos esta importante responsabilidad. Los ciudadanos también podemos sumarnos a este esfuerzo. Podemos contactar a nuestros representantes para pedirles que impulsen este asunto en sus agendas. Podemos informarnos sobre este tema y correr la voz para crear una consciencia pública sobre este peligro creciente. También podemos unirnos a los esfuerzos de las organizaciones sin fines de lucro, por ejemplo, firmando una petición de la campaña para detener a los robots asesinos. Evitemos el profundo sufrimiento. Todavía estamos a tiempo de prevenir un desastre de magnitudes incalculables para la humanidad.

DANIEL ZORRILLA VELÁZQUEZ es maestro en Administración Pública por la Universidad de Texas, San Antonio. Fue becario en el Congreso de los Estados Unidos e investigador en el Instituto de Desarrollo Económico de Texas. Actualmente, es profesor e investigador en la Universidad Autónoma del Estado de Hidalgo.

Tags:, , ,

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.