En Utadeo se firmó el manifiesto contra los robots asesinos
“Ningún país puede disponer de soberanía absoluta para crear armas genocidas”. Con esta frase resumió Roser Martínez, miembro del Comité Internacional para el Control de Armas Robóticas, la batalla que libran más de 100 ONGs en 54 países, en contra del desarrollo de armas robóticas con autonomía plena para matar personas.
La frase la dijo como parte del Foro Stop Killer Robots, que se llevó a cabo en Utadeo el jueves 4 de abril y reunió a académicos de diferentes disciplinas, para discutir en torno a la postura que como país deberíamos tomar frente a este tipo de desarrollos tecnológicos.
Aunque el debate sobre los robots asesinos hasta ahora se lleva a la sociedad civil, fueron más de 200 los asistentes, quienes al final del Foro firmaron un Manifiesto en el que se rechaza el desarrollo y uso de estas armas y en el que se comprometen a no participar en ningún proyecto que las involucre.
¿Qué son los robots asesinos? Definitivamente, no son ciencia ficción
Actualmente, seis países han hecho pública su participación en la carrera por desarrollar y poner en funcionamiento armas autónomas letales: Estados Unidos, Rusia, Corea del Sur, Reino Unido, Israel y China. Si bien es cierto que todavía no existen maquinas que abran fuego contra seres humanos, la tecnología no está muy lejos de hacerse realidad.
Un ejemplo de desarrollos parecidos son los sistemas de defensa contra misiles, que ya actúan de manera autónoma a partir de sensores; o los drones de combate, que han sido usados por Estados Unidos en sus guerras en Afganistan y Yemen. La diferencia está en que los blancos humanos son mucho más pequeños que los misiles y que hasta el momento, los drones requieren de una aprobación final por parte de un ser humano antes de abrir fuego.
Los robots asesinos son entonces máquinas programadas para seleccionar blancos de manera autónoma, buscarlos y abrir fuego contra ellos. Una labor que llevan a cabo con sensores de reconocimiento facial o identificando características en las personas. Por supuesto, como todo sistema digital, serían hackeables.
Para muchos, son armas perfectas. Pero Adrian Cussins, profesor de la Universidad Nacional y panelista del Foro, es enfático en afirmar, que son máquinas hechas por seres humanos, son una proyección de lo humano y por consiguiente defectuosas.
El debate: máquinas vs. robots en las guerras
Gran parte de la población mundial ha manifestado su inconformidad con la existencia de armas que actúen completamente a partir de algoritmos y no incluyan ningún proceso de autorización por parte de un ser humano al momento de abrir fuego. ¿Por qué entonces muchos países justifican el desarrollo de esta tecnología?
La presencia de drones en la guerra permite bajar el número de bajas en el ejército que las usa, pues en caso de ser emboscados, no hay soldados que mueran. Salvar vidas es uno de los argumentos que hay detrás de estos desarrollos tecnológicos, pero que no contemplan que dicha tecnología también llegará a grupos terroristas o a actores no estatales.
Según explicó Olmar García, profesor del Departamento de Ingeniería de Utadeo, otro de los problemas que trae consigo el uso de maquinas autónomas en la guerra, es que para entrar en funcionamiento no se requiere de un 100 % de exactitud en la toma de decisiones.
García, experto en robots y vehículos autónomos, comenta que este tipo de máquinas toma sus decisiones a partir del consenso, por lo que son los mismos humanos quienes deben programar qué camino tomará la maquina en determinados contextos. ¿Estamos dispuestos a sacrificar civiles para lograr un mayor éxito militar? ¿Es preferible que queden enemigos con vida siempre y cuando se respeten los inocentes? ¿Cómo debe reaccionar el robot ante la rendición de un soldado enemigo?
Un nuevo problema jurídico
Son muchas las preguntas que continúan abiertas ante la posibilidad de las armas autónomas. La más importante de ellas es, quizás, ¿quién asume la responsabilidad antes eventuales fallos, errores o incluso aciertos de dichas máquinas?
Al respecto, William Martínez, profesor del Departamento de Ciencias Jurídicas de Utadeo, resalta que siempre es necesario tener a alguien a quien se pueda reclamar o exigir respuestas por una acción. Pero de cara a un escenario donde las máquinas podrán decidir sobre la vida o muerte de alguien, la responsabilidad se vuelve difusa. ¿Tiene la culpa el fabricante? ¿El Estado? ¿Los comandantes, así la acción haya sido ejecutada y decidida plenamente por el robot?
Para Juan Carlos Martínez, profesor de la Universidad Militar Nueva Granada, hay tres escenarios posibles para abordar el problema jurídico de la responsabilidad. La primera opción es que se cree una nueva regulación para la tecnología robótica, la segunda es que se flexibilicen las normas jurídicas para incluir en ellas a los robots y finalmente, que se cree una nueva disciplina jurídica encargada de abordar el problema.
De acuerdo a lo anterior, el profesor Martínez se pregunta si se debería crear una nueva forma jurídica como la persona natural y la persona jurídica: “la persona electrónica”. Pero todavía no es claro qué tipo de responsabilidad asumiría frente al daño y de qué manera sería punible. En cualquier caso, es claro que debe existir un código deontológico para la Inteligencia Artificial y que las máquinas siempre deben tener un botón de apagado.
¿Es posible detener a los robots asesinos? Una mirada histórica
Enjambres de drones armados, armas que se disparan solas cuando alguien camina sobre un terreno privado o drones que sobrevuelan y abren fuego a gusto representan un problema moral, jurídico y técnico que pone en tela de juicio nuestra misma existencia. Pero no es la primera vez que la humanidad se enfrenta a este reto.
Los láseres cegadores, las armas biológicas, las armas químicas, las bombas nucleares y las minas antipersona son algunas de las tecnologías que ya se encuentran prohibidas en el mundo por su letalidad o por sus repercusiones en la población civil.
En el caso de los láseres cegadores, esta arma fue prohibida desde antes de su creación, debido a que el efecto de ceguera es irreversible. Algo que lastimosamente no ocurrió con las minas antipersona, que solo hasta probar sus efectos nocivos en la población fueron prohibidas.
Justamente, la decisión de prohibir las minas provino de las protestas ciudadanas y de un movimiento que le valió a la norteamericana Judy Williams el premio nobel en 1997. De manera que la opinión pública juega un papel crucial frente al desarrollo armamentístico que tienen los países.
Es por esta razón que desde la Campaña Colombiana Contra Minas, el director y subdirector Álvaro Jiménez y Camilo Serna, respectivamente, hacen un llamado a la sociedad a tomar una postura y a firmar un manifiesto en contra de los robots asesinos. El objetivo final es que existe un acuerdo vinculante para su prohibición.
Este es el manifiesto firmado en Utadeo para aquellos interesados en esta iniciativa: