{"id":3143,"date":"2018-07-24T11:21:05","date_gmt":"2018-07-24T14:21:05","guid":{"rendered":"https:\/\/www.nachodelatorre.com.ar\/mosconi\/?p=3143"},"modified":"2018-07-24T11:21:05","modified_gmt":"2018-07-24T14:21:05","slug":"drones-lo-moral-y-lo-etico-de-su-empleo","status":"publish","type":"post","link":"https:\/\/www.fie.undef.edu.ar\/ceptm\/?p=3143","title":{"rendered":"Drones. Lo moral y lo \u00e9tico de su empleo"},"content":{"rendered":"<p class=\"m_7826161868025791544gmail-m_-8512392841348617804ydp93deb368MsoNormal\"><b><\/b>Noel Sharkey, cient\u00edfico en computaci\u00f3n y experto en rob\u00f3tica nos se\u00f1ala que es dif\u00edcil definir responsabilidades\u00a0 en un\u00a0 armamento de caracter\u00edsticas rob\u00f3ticas y apunta que, por ello las \u201cacciones letales deben tener una l\u00ednea de responsabilidad muy clara\u201d. El robot no puede ser definido como responsable de sus acciones aunque haya desarrollado su IA.\u00a0La idea es que tomar una vida humana en forma intencional, aun cuando es justificada, constituye una acci\u00f3n que es siempre lamentable, sombr\u00eda y seria, que solo debe ejecutarse por una raz\u00f3n moralmente necesaria. Pero esa necesidad puede aparecer en la guerra moderna, particularmente en una causa justa contra aquellos que buscan activamente matar inocentes.<!--more--><\/p>\n<p>La llegada de los \u201cdrones\u201d o aviones no tripulados (UAV por sus siglas en ingl\u00e9s \u201c<em>unmanned aerial vehicle\u201d<\/em>) al teatro de guerra en los \u00faltimos a\u00f1os, que podr\u00eda ampliarse con exoesqueletos o retinas artificiales, da cuenta\u00a0 que en el futuro cercano la tecnolog\u00eda dominar\u00e1 mucho m\u00e1s a\u00fan el campo de batalla con sistemas de armas aut\u00f3nomos con poca o sin intervenci\u00f3n humana.<\/p>\n<p>Esta realidad, sin lugar a dudas, plantea tremendos desaf\u00edos \u00e9ticos y morales para los futuros comandantes y operadores\/pilotos de artefactos como robots y los ya conocidos UAV, que est\u00e1n siendo usados en diferentes escenarios de conflictos b\u00e9licos en\u00a0 casi todo el mundo.<\/p>\n<p>Ello, junto al probable uso de robots en el futuro, trae cuestiones morales y \u00e9ticas que hay que atender. \u00bfSer\u00e1 posible\u00a0 mantener el control de los \u201ccerebros\u201d de estos ingenios sin que ellos puedan\u00a0 desarrollar una inteligencia artificial (IA) que los capacite de un momento a otro, para tomar sus propias decisiones?<\/p>\n<p>Se podr\u00eda decir que estamos en un mundo diferente al de pocos a\u00f1os atr\u00e1s, ya que hemos entrado al dominio de la ciencia ficci\u00f3n de muchas maneras, por lo que se hace necesario que en la medida que aparezca nueva tecnolog\u00eda, deben fijarse nuevas reglas y leyes, y eso ser\u00eda un gran paso.<\/p>\n<p>La primera pregunta que habr\u00eda que responderse podr\u00eda plantearse as\u00ed: ante el surgimiento y empleo de UAV o drones sin piloto, o aut\u00f3nomos, \u00bfqui\u00e9n es entonces el responsable de su juicio ante la vida y la muerte?<\/p>\n<p>Noel Sharkey, cient\u00edfico en computaci\u00f3n y experto en rob\u00f3tica nos se\u00f1ala que es dif\u00edcil definir responsabilidades\u00a0 en un\u00a0 armamento de caracter\u00edsticas rob\u00f3ticas y apunta que, por ello las \u201cacciones letales deben tener una l\u00ednea de responsabilidad muy clara\u201d. El robot no puede ser definido como responsable de sus acciones aunque haya desarrollado su IA. Entonces, \u00bfqui\u00e9n es? \u00bfEs el comandante\u00a0 que dispuso su utilizaci\u00f3n? \u00bfEl pol\u00edtico que autoriz\u00f3 su uso?, \u00bfEl proceso de adquisiciones militares que lo seleccion\u00f3 y adquiri\u00f3?, \u00bfO finalmente la empresa que lo fabric\u00f3 que puede aducir \u201cfallas en el material\u201d?.<\/p>\n<p>Junto a Sharkey, hay otros que creen que los robots aut\u00f3nomos van a forzar el tipo de di\u00e1logo que, por ejemplo, se gener\u00f3 despu\u00e9s del uso del gas mostaza en la I GM as\u00ed como el desarrollo de armas nucleares. De hecho el Comit\u00e9 Internacional de la Cruz Roja ya se encuentra estudiando esta situaci\u00f3n. Tal como lo se\u00f1ala H\u00e9ctor L\u00f3pez Ar\u00e9stegui en su trabajo\u00a0<em>\u201cLa guerra justa y los UAV: \u00e9tica\u00a0 y legalidad de su empleo\u201d<\/em>, el Comisionado Especial de la Organizaci\u00f3n de las Naciones Unidas (ONU) Philip Alston, apunta en su informe a la Asamblea General sobre ejecuciones sumarias, extrajudiciales y arbitrarias que\u00a0<em>\u201cel uso de los drones (UAV) para asesinatos selectivos es controvertido y, seg\u00fan algunos especialistas, prohibido por las normas del derecho internacional humanitario pues originan \u2013 o tienen la capacidad de provocar \u2013 el asesinato de civiles en la vecindad del sujeto blanco del ataque\u201d.<\/em><\/p>\n<p>Tal y como lo advierte el\u00a0 mayor general (r) Charles J. Dunlap, ex Auditor Adjunto de la Procuradur\u00eda General de la Fuerza A\u00e9rea de los Estados Unidos y actual Director Ejecutivo del Centro de Estudios Jur\u00eddicos, \u00c9ticos y de Seguridad Nacional de la Universidad de Duke, \u201c<em>todas las leyes, en especial las leyes del conflicto armado, involucran necesariamente una subjetividad impl\u00edcita en el razonamiento humano que puede ser problem\u00e1tica para la mentalidad t\u00e9cnica acostumbrada a la precisi\u00f3n de su actividad acad\u00e9mica\u201d<\/em>.<\/p>\n<p>L\u00f3pez, citando a Singer, expresa que lo acotado hasta el momento sobre el despliegue\u00a0 de UAV armados genera temores en muchos especialistas sobre la ruptura de los fundamentos de la legalidad internacional y de los principios del sistema democr\u00e1tico.\u00a0 Un Estado que autoriza el quebrantamiento del principio de igualdad de los combatientes \u2013 origen de las restricciones de\u00a0 su conducta en el campo de batalla\u2013 rompe con m\u00e1s de centuria y media de progreso de las normas sobre la conducci\u00f3n de la guerra.<\/p>\n<p>Con ello podemos apreciar que la preocupaci\u00f3n m\u00e1s importante en relaci\u00f3n al empleo de los UAV, es el marco regulatorio de car\u00e1cter legal que se suma a la \u00e9tica y moralidad de su empleo, fundamentalmente, por la din\u00e1mica de su funcionamiento, tanto en la legislaci\u00f3n interna de los pa\u00edses como en el Derecho Internacional.<\/p>\n<p>Por otra parte los especialistas militares y en el Capitolio en este tipo de armamento, reconocen que los legisladores deben discutir y enfrentar los problemas \u00e9ticos mucho antes que los UAV aut\u00f3nomos y letales entren en servicio, que puede que est\u00e9 tan cercano\u00a0 como en una d\u00e9cada o un poco m\u00e1s.<\/p>\n<p>Ello entonces nos debe se\u00f1alar que deber\u00e1n desarrollarse, a lo menos, los siguientes esfuerzos para su\u00a0 control:<\/p>\n<ul>\n<li>Ingenios electr\u00f3nicos que puedan incrustar dentro de estos aparatos controladores de car\u00e1cter \u00e9tico.<\/li>\n<li>Un macizo cuerpo de normas legales que regule el empleo de ellos tanto en el campo de batalla como en otras aplicaciones donde puedan usarse como arma letal.<\/li>\n<li>Un sistema de control que permita ingresar al cerebro del robot y denegar acciones no deseadas.<\/li>\n<\/ul>\n<p>Ac\u00e1, junto con el problema \u00e9tico enunciado anteriormente, como ser\u00eda el env\u00edo de ingenios no tripulados a combatir\u00a0 en reemplazo de fuerzas convencionales, lo que permitir\u00eda que se \u201ceconomicen vidas humanas\u201d de los soldados o pilotos trae aparejado, por otra parte,\u00a0 otro problema moral y \u00e9tico que afecta a los operadores o \u201cpilotos\u201d a distancia de estos drones o UAV.<\/p>\n<p>Efectivamente, hoy d\u00eda cientos de drones son dirigidos desde instalaciones militares secretas en Maryland, Nevada o Virginia, las que operan en una intrincada red que une tomadores de decisiones, fuentes de inteligencia, controles satelitales, y las unidades donde se encuentran, frente a sus consolas, pilotos, asistentes y comandantes decidiendo qu\u00e9 hacer, de acuerdo a las directivas del momento y los blancos por reconocer o abatir.<\/p>\n<p><strong>El aspecto \u00e9tico: necesidad y causa justa<\/strong><\/p>\n<p>Bradley Strawser, analista de defensa y profesor adjunto de Filosof\u00eda de la Escuela Naval de Postgraduados de Monterey, California, cree que en ciertas situaciones el empleo de\u00a0 UAV armados es \u00e9ticamente obligatorio. Se sustenta en dos principios morales estructurales, el Principio de Riesgo Innecesario (PRI)\u00a0 y el Principio de Derroche Innecesario de Recursos Escasos (PDIRE). El PRI es un imperativo moral que obliga al individuo con autoridad, a no exponer a sus subordinados a riesgos potencialmente letales e innecesarios para llevar a cabo una acci\u00f3n justa en nombre de una causa de la misma calidad. En caso que deba incurrirse en una situaci\u00f3n peligrosa, \u00e9sta debe\u00a0 justificarse por una raz\u00f3n fundamentada. El PDIRE es la obligaci\u00f3n de gastar la menor cantidad de recursos comunes y escasos para la consecuci\u00f3n de una empresa militar. Ambos principios permiten que el Estado que cuente con sistemas de armas de control remoto en misiones de combate tenga la obligaci\u00f3n \u00e9tica de hacerlo. Su empleo es parte de un justificado esfuerzo de guerra que cumple con los criterios del\u00a0<em>jus in bello<\/em>\u00a0y del\u00a0<em>jus ad bellum<\/em>.<\/p>\n<p>Strawser afirma que la doctrina de igualdad moral de combatientes (MEC) por sus siglas en ingl\u00e9s de \u201c<em>Moral Equity of Combatants\u201d<\/em>\u00a0 no existe y propone un nuevo sistema de categorizaci\u00f3n de las partes en conflicto basado en una escala de responsabilidad y\/o involucramiento del adversario.<\/p>\n<p>Esta nueva escala permitir\u00e1 el estudio y redacci\u00f3n de Reglas de Enfrentamiento (ROE) que correspondan al nivel de amenaza que realmente representa el adversario. En el punto espec\u00edfico de la utilizaci\u00f3n de veh\u00edculos tripulados armados en el campo de batalla responde a las objeciones o argumentaciones (en negrita y cursiva)que le formulan sus detractores en los siguientes t\u00e9rminos:<\/p>\n<ol>\n<li><em>Es innoble e injusto matar a otro con medios tan dispares.<\/em>\u00a0\u201cNo veo el problema \u00e9tico en la materia. Lo que me interesa es que la causa sea justa. Si los objetivos de la operaci\u00f3n est\u00e1n justificados y se tiene el derecho de actuar, la asimetr\u00eda no existir\u00e1. La cuesti\u00f3n se reduce a una situaci\u00f3n de provecho y no de moral\u201d.<\/li>\n<li><em>El uso de UAV armados degrada el concepto tradicional de valor militar.<\/em>\u00a0\u201cEsta es una preocupaci\u00f3n com\u00fan a la opini\u00f3n p\u00fablica tanto como al personal militar. Lo reconozco como un problema y he tenido la oportunidad de conversar con los pilotos\/ operadores de estos veh\u00edculos\u2026. Muchos de ellos tienen PTSD. Piense lo que implica ver gente morir todos los d\u00edas. Hay que tener valor intelectual y moral para no perder la conciencia y creer en la misi\u00f3n que se est\u00e1 realizando\u2026\u2026 No arriesgamos la vida de un soldado cuando no hay necesidad de hacerlo, y si la causa es justa, esa fuerza normativa es muy poderosa\u201d.<\/li>\n<li><em>Los ataques de UAV armados producen un gran da\u00f1o colateral<\/em>. \u201cLa calidad moral de la pol\u00edtica que encuadra la utilizaci\u00f3n de un armamento no hace su tecnolog\u00eda ileg\u00edtima. Es irrelevante si se trata de UAV, rifles de precisi\u00f3n o ballestas. Solo las armas nucleares y las qu\u00edmicas son inherentemente malas porque no discriminan, tal y como s\u00ed ocurre con las UAV. El problema yace en la tentaci\u00f3n de hacer el mal. No creo que sea el caso de los UAV por su potencial de actuar con m\u00e1s justicia. Todas las acciones quedan grabadas. Para tomar una decisi\u00f3n dif\u00edcil el operador puede consultar con otras personas. Hay m\u00e1s espacio para la supervisi\u00f3n y el control. Esa es para m\u00ed una ganancia normativa\u201d.<\/li>\n<\/ol>\n<p>En otro de sus trabajos, el autor se\u00f1ala que los drones pueden constituir un arma preferente si son capaces de discriminar m\u00e1s que otras armas que son menos precisas y que exponen a sus operadores a mayores riesgos. \u201cPor supuesto que matar es lamentable en cualquier lugar o tiempo, sea en guerra o en otro contexto. Pero si una acci\u00f3n militar es moralmente justificable, debemos tambi\u00e9n ser morales en asegurar que es llevada a cabo con el menor da\u00f1o posible a gente inocente\u201d.<\/p>\n<p>Agrega que reconoce que algunos medios son errados en principio, sin importar el fin que se persigue. \u201cMantengo esta posici\u00f3n por ejemplo en la tortura. Y, por supuesto, existen muchas armas de combate que deben ser clasificadas como moralmente inaceptables por principio, sean o no usadas para una causa justa. Las minas antipersonales, por ejemplo, que no tienen la habilidad para distinguir entre un soldado enemigo o un ni\u00f1o inocente est\u00e1n dentro de esta categor\u00eda. Tambi\u00e9n pienso que los drones aut\u00f3nomos \u2013armas son inteligencia artificial- que pueden tomar decisiones por s\u00ed solas- son igualmente err\u00f3neas en principio\u201d.<\/p>\n<p>San Agust\u00edn, se\u00f1ala Strawser, es reconocido por haber escrito que en la Guerra uno debe dejar a \u201cla necesidad, y por lo tanto no a la propia voluntad, matar al enemigo que\u00a0 uno enfrenta\u201d. La idea es que tomar una vida humana en forma intencional, aun cuando es justificada, constituye una acci\u00f3n que es siempre lamentable, sombr\u00eda y seria, que solo debe ejecutarse por una raz\u00f3n moralmente necesaria. Pero esa necesidad puede aparecer en la guerra moderna, particularmente en una causa justa contra aquellos que buscan activamente matar inocentes.<\/p>\n<p>Algunos piensan que la guerra nunca puede ser justificada bajo ninguna circunstancia. Si uno tiene esa idea, la cuesti\u00f3n sobre si los drones son\u00a0 armas moralmente permitidas, constituye un asunto debatible. Desde este punto de vista, ning\u00fan arma deber\u00eda ser usada para matar a otro ser humano. Dada la historia de la guerra y sus atrocidades, este no es un tema cuestionable. Pero creo, nos se\u00f1ala el autor, que \u201cla guerra puede, en algunos casos y bajo ciertas circunstancias, ser justificada. Si las condiciones de guerra justa existen, es conveniente entonces, explorar si ciertas armas presentan problemas morales especiales, o tienen ventajas potenciales morales sobre otras armas alternativas. Los drones, concluye el autor, no obstante su actual y posible mal uso, tienen el potencial para una tremenda mejor\u00eda moral sobre los bombardeos a\u00e9reos de eras anteriores\u201d.<\/p>\n<p>Ello nos lleva nuevamente a la pregunta: \u00bfCu\u00e1nto tiempo tendr\u00e1 que pasar para el uso de drones aut\u00f3nomos, y cu\u00e1les son los riesgos al entregar esa capacidad de decidir, sin que estemos preparados para asumir las responsabilidades \u00e9ticas y morales para usar esa poderosa asimetr\u00eda que produce el enfrentamiento entre robots y seres humanos en el campo de batalla ya apresuradamente m\u00e1s cercano?<\/p>\n<p>Los desaf\u00edos morales y \u00e9ticos en el arte de la guerra, as\u00ed como la de los soldados del futuro, que deber\u00e1n convivir e incluso combatir contra ingenios con IA, abre una arista que hay que explorar, junto con los estudios que se est\u00e1n haciendo, con los actuales pilotos de drones o UAV, que ya est\u00e1n causando bajas a miles de kil\u00f3metros de distancia, sin siquiera sentir los efectos f\u00edsicos de \u201cestar en el campo de batalla\u201d, pero sufriendo quiz\u00e1s otros da\u00f1os que se deben analizar, desde un punto de vista fisiol\u00f3gico, psicol\u00f3gico y en lo que se refiere a nuestra preocupaci\u00f3n de sus valores y virtudes, que les fueron inculcados cuando abrazaron la carrera militar y que hoy pueden estar en conflicto.<\/p>\n<p>Nosotros estamos a\u00fan lejos de ese problema, pero nos debe preocupar, pues a veces las tendencias y las necesidades de su uso pueden llegar m\u00e1s temprano que tarde, y para ello debemos estar preparados.<\/p>\n<p class=\"m_7826161868025791544gmail-m_-8512392841348617804ydp93deb368MsoNormal\"><strong>Fuente:<\/strong>\u00a0<em><a href=\"https:\/\/www.anepe.cl\/la-moral-y-la-etica-en-el-uso-de-aviones-no-tripulados-uav-como-armas-letales\/\" target=\"_blank\" rel=\"noopener noreferrer\">https:\/\/www.anepe.cl<\/a><\/em><\/p>\n","protected":false},"excerpt":{"rendered":"<p>Noel Sharkey, cient\u00edfico en computaci\u00f3n y experto en rob\u00f3tica nos se\u00f1ala que es dif\u00edcil definir responsabilidades\u00a0 en un\u00a0 armamento de caracter\u00edsticas rob\u00f3ticas y apunta que,&hellip; <\/p>\n","protected":false},"author":1,"featured_media":0,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":[],"categories":[18,2,35,29],"tags":[],"_links":{"self":[{"href":"https:\/\/www.fie.undef.edu.ar\/ceptm\/index.php?rest_route=\/wp\/v2\/posts\/3143"}],"collection":[{"href":"https:\/\/www.fie.undef.edu.ar\/ceptm\/index.php?rest_route=\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.fie.undef.edu.ar\/ceptm\/index.php?rest_route=\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.fie.undef.edu.ar\/ceptm\/index.php?rest_route=\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/www.fie.undef.edu.ar\/ceptm\/index.php?rest_route=%2Fwp%2Fv2%2Fcomments&post=3143"}],"version-history":[{"count":0,"href":"https:\/\/www.fie.undef.edu.ar\/ceptm\/index.php?rest_route=\/wp\/v2\/posts\/3143\/revisions"}],"wp:attachment":[{"href":"https:\/\/www.fie.undef.edu.ar\/ceptm\/index.php?rest_route=%2Fwp%2Fv2%2Fmedia&parent=3143"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.fie.undef.edu.ar\/ceptm\/index.php?rest_route=%2Fwp%2Fv2%2Fcategories&post=3143"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.fie.undef.edu.ar\/ceptm\/index.php?rest_route=%2Fwp%2Fv2%2Ftags&post=3143"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}