{"id":3067,"date":"2018-06-18T10:16:11","date_gmt":"2018-06-18T13:16:11","guid":{"rendered":"https:\/\/www.nachodelatorre.com.ar\/mosconi\/?p=3067"},"modified":"2018-06-18T10:16:11","modified_gmt":"2018-06-18T13:16:11","slug":"los-siete-principios-de-google-para-evitar-criticas-a-sus-proyectos-militares","status":"publish","type":"post","link":"https:\/\/www.fie.undef.edu.ar\/ceptm\/?p=3067","title":{"rendered":"Los siete principios de Google para evitar cr\u00edticas a sus proyectos militares"},"content":{"rendered":"<p>&nbsp;<\/p>\n<p>Una docena de trabajadores ha renunciado y otros han firmado una carta quej\u00e1ndose de que el gigante est\u00e1 empleando sus tecnolog\u00edas de inteligencia artificial en iniciativas de defensa. El CEO ha respondido a la situaci\u00f3n con un nuevo c\u00f3digo \u00e9tico, pero este a\u00fan le deja margen para trabajar.<!--more--><\/p>\n<p><img loading=\"lazy\" class=\" alignright\" src=\"https:\/\/www.technologyreview.es\/sites\/default\/files\/mit-images\/feed_mit_image_googleai-01.png\" alt=\"\" width=\"439\" height=\"247\" \/>Google ha creado un c\u00f3digo \u00e9tico para la inteligencia artificial (IA) que proh\u00edbe el desarrollo de armas aut\u00f3nomas. Pero los principios que recoge\u00a0<strong>dejan suficiente margen de maniobra para que Google pueda seguir lucr\u00e1ndose con futuros proyectos de defensa.<\/strong><\/p>\n<p>El comunicado llega despu\u00e9s de\u00a0<strong>una protesta interna sobre el uso de la IA de Google<\/strong>\u00a0por parte de una iniciativa del Departamento de Defensa de Estados Unidos llamada Algorithmic Warfare Cross-Functional Team (Equipo Interfuncional de Guerra Algor\u00edtmica). El objetivo de esta empresa, conocida como\u00a0<a href=\"https:\/\/www.govexec.com\/media\/gbc\/docs\/pdfs_edit\/establishment_of_the_awcft_project_maven.pdf\" target=\"_blank\" rel=\"noopener noreferrer\">Project Maven<\/a>\u00a0(Proyecto Experto), consiste\u00a0<strong>mejorar la precisi\u00f3n de los ataques con drones<\/strong>, entre otras cosas.<\/p>\n<p>El mes pasado,\u00a0<strong>una docena de trabajadores de Google renunci\u00f3 a causa del esc\u00e1ndalo<\/strong>\u00a0y muchos m\u00e1s firmaron una carta de protesta.<\/p>\n<p>El alboroto es un reflejo de los temores que muchos tienen sobre c\u00f3mo la tecnolog\u00eda podr\u00eda llegar\u00a0<strong>a automatizar la guerra<\/strong>. Pero la situaci\u00f3n es a\u00fan m\u00e1s compleja.<\/p>\n<p>La inteligencia artificial podr\u00eda lograr que algunos sistemas de armas sean m\u00e1s seguros y menos propensos a errores. Y algunas aplicaciones sencillas de la tecnolog\u00eda ya se usan en \u00a0todo el sector defensa<strong>. Google no quiere desautorizar este enorme mercado potencial<\/strong>\u00a0para su tecnolog\u00eda de inteligencia artificial en la nube.<\/p>\n<p>El CEO de Google, Sundar Pichai, anunci\u00f3 el nuevo c\u00f3digo en una publicaci\u00f3n de blog en la que recomienda que\u00a0<strong>Google aplique la IA bajo siete principios b\u00e1sicos<\/strong>:<\/p>\n<ol>\n<li>Beneficiar a la sociedad<\/li>\n<li>Evitar el sesgo algor\u00edtmico<\/li>\n<li>Respetar la privacidad<\/li>\n<li>Someterse a pruebas de seguridad<\/li>\n<li>Ser responsable ante el p\u00fablico<\/li>\n<li>Mantener el rigor cient\u00edfico<\/li>\n<li>Estar disponible para otros de acuerdo con los mismos principios<\/li>\n<\/ol>\n<p>Pero Pichai tambi\u00e9n tambi\u00e9n asegur\u00f3 que Google\u00a0<strong>no permitir\u00eda que su tecnolog\u00eda de IA se use para desarrollar cualquier cosa que pueda causar da\u00f1o<\/strong>, como en &#8220;armas u otras tecnolog\u00edas cuyo principal prop\u00f3sito o implementaci\u00f3n sea causar o facilitar lesiones a las personas&#8221;.<\/p>\n<p>Pichai tambi\u00e9n dijo que\u00a0<strong>Google evitar\u00eda desarrollar tecnolog\u00eda de vigilancia que viole las normas internacionalmente aceptadas<\/strong>\u00a0en materia de derechos humanos o cualquier tecnolog\u00eda que contravenga las leyes internacionales.<\/p>\n<p>La inteligencia artificial avanza deprisa, y\u00a0<strong>Google ya se ha topado con otros problemas en sus distintos proyectos de IA<\/strong>. Uno de sus sistemas de visi\u00f3n artificial, por ejemplo, identific\u00f3 err\u00f3neamente en varias ocasiones a las personas de ascendencia africana como gorilas. La compa\u00f1\u00eda abandon\u00f3 su lema &#8220;<em>Do not be evil<\/em>&#8221; (No sea malvado) este abril, pero conserva una cultura idealista.<\/p>\n<p><strong>Los usos militares de la inteligencia artificial podr\u00edan ser cada vez m\u00e1s pol\u00e9micos<\/strong>\u00a0a medida que la tecnolog\u00eda adopte nuevas formas y las empresas sigan intentando vender su tecnolog\u00eda de IA en la nube lo m\u00e1s ampliamente posible.<\/p>\n<p>El aprendizaje autom\u00e1tico y la inteligencia artificial tendr\u00e1n cada vez m\u00e1s peso en los sectores de inteligencia y defensa. Otras compa\u00f1\u00edas tecnol\u00f3gicas de Estados Unidos, incluidas Amazon y Microsoft, han competido para lograr\u00a0<strong>un multimillonario proyecto de computaci\u00f3n en la nube con el Pent\u00e1gono.<\/strong><\/p>\n<p><strong>Fuente:<\/strong>\u00a0<em><a href=\"https:\/\/www.technologyreview.es\/s\/10297\/los-siete-principios-de-google-para-evitar-criticas-sus-proyectos-militares\" target=\"_blank\" rel=\"noopener noreferrer\">https:\/\/www.technologyreview.es<\/a><\/em><\/p>\n<p>&nbsp;<\/p>\n","protected":false},"excerpt":{"rendered":"<p>&nbsp; Una docena de trabajadores ha renunciado y otros han firmado una carta quej\u00e1ndose de que el gigante est\u00e1 empleando sus tecnolog\u00edas de inteligencia artificial&hellip; <\/p>\n","protected":false},"author":1,"featured_media":0,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":[],"categories":[23,29],"tags":[],"_links":{"self":[{"href":"https:\/\/www.fie.undef.edu.ar\/ceptm\/index.php?rest_route=\/wp\/v2\/posts\/3067"}],"collection":[{"href":"https:\/\/www.fie.undef.edu.ar\/ceptm\/index.php?rest_route=\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.fie.undef.edu.ar\/ceptm\/index.php?rest_route=\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.fie.undef.edu.ar\/ceptm\/index.php?rest_route=\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/www.fie.undef.edu.ar\/ceptm\/index.php?rest_route=%2Fwp%2Fv2%2Fcomments&post=3067"}],"version-history":[{"count":0,"href":"https:\/\/www.fie.undef.edu.ar\/ceptm\/index.php?rest_route=\/wp\/v2\/posts\/3067\/revisions"}],"wp:attachment":[{"href":"https:\/\/www.fie.undef.edu.ar\/ceptm\/index.php?rest_route=%2Fwp%2Fv2%2Fmedia&parent=3067"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.fie.undef.edu.ar\/ceptm\/index.php?rest_route=%2Fwp%2Fv2%2Fcategories&post=3067"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.fie.undef.edu.ar\/ceptm\/index.php?rest_route=%2Fwp%2Fv2%2Ftags&post=3067"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}