Los robots, posibles soldados del futuro
Durante esta semana, la ONU reúne en Ginebra a expertos y representantes de sesenta países miembros de la organización para estudiar todas las implicaciones de los llamados Sistemas de Armas Autónomas Letales o armas robóticas con capacidad de disparar sin intervención humana en la toma de decisiones.
Los investigadores quieren concienciar a la comunidad internacional para que se prohíba el uso de este tipo de armas. Es el objetivo principal de la reunión de expertos de la Convención sobre Prohibiciones o Restricciones del Empleo de Ciertas Armas Convencionales en Ginebra.
El debate gira en torno a varios temas consecuencia de la propuesta del uso de armas autónomas. Se van a tratar cuestiones técnicas, cuestiones éticas y sociológicas, cuestiones jurídicas del derecho internacional y derecho humanitario y aspectos operacionales y militares.
Los robots asesinos son armas totalmente autónomas que pueden elegir blancos humanos y disparar contra ellos por sí solos, sin intervención humana. Normalmente se denominan “letales” porque sus diseños se consideran armas militares para matar en conflictos armados. Hay empresas de Estados Unidos, Reino Unido, Alemania, Israel, Emiratos Árabes Unidos, Jordania y Sudáfrica que también están desarrollando armas robóticas “menos letales”, que se manejan por control remoto o que disparan automáticamente, para realizar labores policiales.
Desde una perspectiva de derechos humanos, las armas robóticas autónomas, tanto letales como menos letales, son objeto de debate por diversos motivos.
En primer lugar, la responsabilidad es uno de los temas más relevantes, el uso de armas sin un control humano efectivo aumentaría el riesgo y la probabilidad de que se produjeran lesiones y homicidios ilegítimos, tanto en el campo de batalla como en las operaciones policiales. Es evidente que un robot no tiene capacidad legal, moral o de cualquiera otro tipo y, por lo tanto, no puede ser responsable de sus acciones. Si hay un error o un acto de crimen de guerra, ¿quién será el responsable?
Algunos gobiernos y expertos en tecnología alegan que este tipo de armas robóticas podrían programarse para cumplir con el derecho internacional. Sin embargo, hay quienes mantienen la idea de que los sistemas de armas autónomas letales, sin un control humano significativo, no podrían valorar adecuadamente las situaciones de conflicto y cumplir con las normas pertinentes. Las normas relativas a la labor policial prohíben el uso de armas de fuego salvo como defensa frente a una amenaza inminente de muerte o lesiones graves, y resulta muy difícil imaginar una máquina que sustituya el criterio humano. Normalmente este criterio es decisivo en toda situación que implique el uso de fuerza letal.
Otro problema que presenta el uso de este tipo de armas es que ante un conflicto armado, los sistemas de armas robóticas, tendrían dificultades para cumplir de manera objetiva las leyes de la guerra. Incluida la norma que exige que las fuerzas armadas deben distinguir entre combatientes y civiles, deben tomar las precauciones necesarias para minimizar el daño a civiles, y deben evaluar la proporcionalidad de un ataque. El principio de proporcionalidad exige que, antes de atacar, se debe evaluar el daño que pueda causarse a la población civil con respecto a la ventaja militar obtenida con la acción.
También se discute el hecho de permitir que los robots estén facultados para tomar decisiones sobre la vida o muerte en los conflictos armados, pues traspasa una línea moral fundamental. Además, atenta contra los derechos humanos a la vida y la dignidad.
El Comité Internacional para el Control de los Robots Armados (ICRAC), formado por científicos, abogados y expertos en derechos humanos, ha desarrollado un listado de argumentos para la reunión de Ginebra con los problemas para la seguridad global que plantean las armas autónomas.
Fuente: www.stopkillerrobots.org / www.theguardian.com