{"id":2813,"date":"2018-03-26T15:48:41","date_gmt":"2018-03-26T18:48:41","guid":{"rendered":"https:\/\/www.nachodelatorre.com.ar\/mosconi\/?p=2813"},"modified":"2018-03-26T15:48:41","modified_gmt":"2018-03-26T18:48:41","slug":"pautas-legales-para-juzgar-a-una-inteligencia-artificial-asesina","status":"publish","type":"post","link":"https:\/\/www.fie.undef.edu.ar\/ceptm\/?p=2813","title":{"rendered":"Pautas legales para juzgar a una inteligencia artificial asesina"},"content":{"rendered":"<p>Expertos en derecho intentan decidir qu\u00e9 leyes deber\u00edan aplicarse a los cr\u00edmenes perpetrados por sistemas inteligentes. A nivel penal se plantean tres escenarios, y uno de ellos responsabiliza directamente a las m\u00e1quinas.<!--more--><\/p>\n<p><img loading=\"lazy\" class=\" alignright\" src=\"https:\/\/www.technologyreview.es\/sites\/default\/files\/mit-images\/feed_mit_image_artificial-intelligence-800px.png\" alt=\"\" width=\"310\" height=\"363\" \/>Aqu\u00ed va una pregunta curiosa. Imag\u00ednese que es el a\u00f1o 2023 y los coches aut\u00f3nomos han logrado dominar las calles. De repente, uno de ellos atropella y mata a un peat\u00f3n. Es probable que se interponga una importante demanda, pero\u00a0<strong>\u00bfqu\u00e9 leyes deber\u00edan aplicarse?<\/strong><\/p>\n<p>El investigador de la Universidad de Brighton (Reino Unido) John Kingston ha intentado responder a la pregunta dibujando un boceto para este incipiente campo legal. Su an\u00e1lisis plantea algunos<strong>\u00a0problemas importantes que los sectores automovil\u00edstico, inform\u00e1tico y legal ya deber\u00edan estar intentando resolver<\/strong>\u00a0en\u00e9rgicamente.<\/p>\n<p>El centro de este debate gira en torno a la premisa de\u00a0<strong>si un sistema de inteligencia artificial (IA) podr\u00eda ser penalmente responsable de sus acciones<\/strong>. Kingston ha explorado el trabajo del investigador de la Ono Academic College (Israel) Gabriel Hallevy, que ha analizado el asunto en detalle.<\/p>\n<p>La responsabilidad penal requiere una acci\u00f3n y una intenci\u00f3n mental (en t\u00e9rminos legales,\u00a0<em>actus reus<\/em>\u00a0y\u00a0<em>mens rea<\/em>). Kingston explica que Hallevy explora\u00a0<strong>tres escenarios que podr\u00edan aplicarse a los sistemas de inteligencia artificial.<\/strong><\/p>\n<ol>\n<li>El primero, conocido como &#8220;perpetrador por intermedio de terceros&#8221;, se aplica cuando una ofensa ha sido cometida por una persona mentalmente deficiente o animal , al que se considera inocente. Pero<strong>quien haya instruido a la persona\u00a0mentalmente deficiente o animal puede ser considerado responsable penalmente<\/strong>. Por ejemplo, el due\u00f1o de un perro que lo adiestr\u00f3 para otro individuo ser\u00eda considerado penalmente responsable. Eso tiene implicaciones para aquellos que dise\u00f1an m\u00e1quinas inteligentes y para quienes las usan. &#8220;Se podr\u00eda considerar que un programa de IA es un agente inocente, puesto que el perpetrador por intermedio de otros ser\u00eda el programador de software o el usuario&#8221;, dice Kingston.<\/li>\n<li>El segundo escenario, conocido como &#8220;consecuencia natural probable&#8221;, ocurre cuando las acciones normales de un sistema de inteligencia artificial pueden ser utilizadas de manera inapropiada para realizar un acto delictivo. Kingston pone como ejemplo a un robot inteligente en una f\u00e1brica japonesa de motocicletas que mat\u00f3 a un trabajador humano. &#8220;<strong>El robot identific\u00f3 err\u00f3neamente al empleado como una amenaza para su misi\u00f3n<\/strong>\u00a0y calcul\u00f3 que la forma m\u00e1s eficiente de eliminar esta amenaza era empuj\u00e1ndolo hacia una m\u00e1quina operativa adyacente. Mediante su poderoso brazo hidr\u00e1ulico, el robot aplast\u00f3 al trabajador sorprendido en la m\u00e1quina, mat\u00e1ndolo instant\u00e1neamente,\u00a0y luego reanud\u00f3 sus funciones&#8221;, explica Kingston. La pregunta clave aqu\u00ed es si el programador de la m\u00e1quina sab\u00eda que este resultado era una consecuencia probable de su uso.<\/li>\n<li>El tercer escenario es el de la &#8220;responsabilidad directa&#8221;, que requiere tanto de una acci\u00f3n como de una intenci\u00f3n. Una acci\u00f3n es una prueba directa si el sistema de inteligencia artificial realiza una acci\u00f3n o decide no hacerla cuando tiene la obligaci\u00f3n\u00a0y se produce un acto criminal como resultado. La intenci\u00f3n es mucho m\u00e1s dif\u00edcil de determinar, pero sigue siendo relevante, dice Kingston. &#8220;<strong>El exceso de velocidad es una ofensa de responsabilidad estricta.<\/strong>\u00a0Entonces, seg\u00fan Hallevy, si se descubre que un autom\u00f3vil que circulaba solo estaba rompiendo el l\u00edmite de velocidad de la carretera, la ley puede asignar responsabilidad penal al programa de inteligencia artificial que conduc\u00eda el autom\u00f3vil en ese momento&#8221;, a\u00f1ade el experto. En ese caso, el propietario puede no ser el responsable.<\/li>\n<\/ol>\n<p>Tambi\u00e9n est\u00e1 el tema de la defensa.\u00a0<strong>Si una inteligencia artificial puede ser penalmente responsable, \u00bfqu\u00e9 tipo de defensa podr\u00eda usar?\u00a0<\/strong>Kingston plantea una serie de posibilidades: \u00bfpodr\u00eda un programa que funciona mal reclamar una defensa por delirio similar a la defensa humana? \u00bfPodr\u00eda una IA infectada por un virus electr\u00f3nico reclamar una estrategia defensiva similar a la coerci\u00f3n o la intoxicaci\u00f3n?<\/p>\n<p>Este tipo de defensas no son en absoluto te\u00f3ricas. Kingston destaca una serie de casos en Reino Unido en los que\u00a0<strong>personas acusadas de delitos inform\u00e1ticos defendieron con \u00e9xito que sus m\u00e1quinas hab\u00edan sido infectadas<\/strong>\u00a0con malware y que este era el responsable del delito.<\/p>\n<p>En un caso, un pirata inform\u00e1tico adolescente, acusado de ejecutar un ataque de denegaci\u00f3n de servicio, afirm\u00f3 que un programa troyano era el responsable y que se hab\u00eda borrado del ordenador antes de que se analizara de manera forense.<strong>\u00a0&#8220;El abogado del acusado convenci\u00f3 al jurado de que tal situaci\u00f3n no estaba fuera de toda duda razonable&#8221;<\/strong>, dice Kingston.<\/p>\n<p>Finalmente, est\u00e1 el tema del castigo.\u00a0<strong>\u00bfQui\u00e9n o qu\u00e9 ser\u00eda castigado por un crimen cometido por un sistema de IA directamente responsable y qu\u00e9 forma tomar\u00eda este castigo?\u00a0<\/strong>Por el momento, no hay respuestas a estas preguntas.<\/p>\n<p>Es posible que la responsabilidad penal no se aplique, en cuyo caso el asunto tendr\u00eda que resolverse mediante leyes civiles. Entonces,\u00a0<strong>una pregunta crucial ser\u00e1 si un sistema de IA es un servicio o un producto.<\/strong>\u00a0Si se trata de un producto, la legislaci\u00f3n de dise\u00f1o del producto se aplicar\u00eda en funci\u00f3n de una garant\u00eda, por ejemplo. Si se trata de un servicio, entonces se aplica el agravio de negligencia. En este caso, el demandante generalmente tendr\u00eda que demostrar tres elementos para probar la negligencia. El primero es que el acusado ten\u00eda un deber de cuidado, por lo general sencillo de demostrar, aunque el nivel de atenci\u00f3n podr\u00eda ser dif\u00edcil de evaluar en el caso de una IA, dice Kingston. El segundo elemento es que el acusado incumpli\u00f3 ese deber. Y el tercero es que la violaci\u00f3n de dicho deber caus\u00f3 una lesi\u00f3n al demandante.<\/p>\n<p>Y si todo esto no fuera lo suficientemente complicado,<strong>\u00a0la situaci\u00f3n legal de los sistemas de inteligencia artificial podr\u00eda cambiar a medida que sus capacidades se vuelvan m\u00e1s humanas\u00a0<\/strong>y tal vez, incluso, sobrehumanas. Una cosa es segura:\u00a0en los pr\u00f3ximos a\u00f1os, es probable que los abogados empiecen a divertirse con todo esto, o los sistemas de IA que los reemplacen.<\/p>\n<p><strong>Fuente:\u00a0<\/strong><em><a href=\"https:\/\/www.technologyreview.es\/s\/10069\/pautas-legales-para-juzgar-una-inteligencia-artificial-asesina\" target=\"_blank\" rel=\"noopener noreferrer\">https:\/\/www.technologyreview.es<\/a><\/em><\/p>\n","protected":false},"excerpt":{"rendered":"<p>Expertos en derecho intentan decidir qu\u00e9 leyes deber\u00edan aplicarse a los cr\u00edmenes perpetrados por sistemas inteligentes. A nivel penal se plantean tres escenarios, y uno&hellip; <\/p>\n","protected":false},"author":1,"featured_media":0,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":[],"categories":[18,23,29],"tags":[],"_links":{"self":[{"href":"https:\/\/www.fie.undef.edu.ar\/ceptm\/index.php?rest_route=\/wp\/v2\/posts\/2813"}],"collection":[{"href":"https:\/\/www.fie.undef.edu.ar\/ceptm\/index.php?rest_route=\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.fie.undef.edu.ar\/ceptm\/index.php?rest_route=\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.fie.undef.edu.ar\/ceptm\/index.php?rest_route=\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/www.fie.undef.edu.ar\/ceptm\/index.php?rest_route=%2Fwp%2Fv2%2Fcomments&post=2813"}],"version-history":[{"count":0,"href":"https:\/\/www.fie.undef.edu.ar\/ceptm\/index.php?rest_route=\/wp\/v2\/posts\/2813\/revisions"}],"wp:attachment":[{"href":"https:\/\/www.fie.undef.edu.ar\/ceptm\/index.php?rest_route=%2Fwp%2Fv2%2Fmedia&parent=2813"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.fie.undef.edu.ar\/ceptm\/index.php?rest_route=%2Fwp%2Fv2%2Fcategories&post=2813"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.fie.undef.edu.ar\/ceptm\/index.php?rest_route=%2Fwp%2Fv2%2Ftags&post=2813"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}