{"id":6414,"date":"2020-08-25T14:44:39","date_gmt":"2020-08-25T17:44:39","guid":{"rendered":"https:\/\/www.nachodelatorre.com.ar\/mosconi\/?p=6414"},"modified":"2020-08-25T14:44:39","modified_gmt":"2020-08-25T17:44:39","slug":"tecnica-entrena-a-la-ia-para-que-no-se-deje-enganar","status":"publish","type":"post","link":"https:\/\/www.fie.undef.edu.ar\/ceptm\/?p=6414","title":{"rendered":"T\u00e9cnica entrena a la IA para que no se deje enga\u00f1ar"},"content":{"rendered":"<p>Los sistemas de reconocimiento y reconstrucci\u00f3n de im\u00e1genes contin\u00faan siendo vulnerables a ataques destinados a confundirlos. Un nuevo m\u00e9todo ayuda a que el aprendizaje profundo falle menos enfrentando dos redes neuronales: una burla a la otra, que mejora a su vez para evitar el enga\u00f1o.<\/p>\n<hr \/>\n<p><strong>El contexto:<\/strong>\u00a0uno de los mayores defectos a\u00fan no resueltos del aprendizaje profundo consiste en su vulnerabilidad a los llamados\u00a0<a href=\"https:\/\/www.technologyreview.es\/s\/11050\/si-esta-tecnica-de-ia-cae-en-malas-manos-puede-destruir-su-seguridad\" target=\"_blank\" rel=\"noopener noreferrer\">ataques antag\u00f3nicos<\/a>.\u00a0Cuando estas perturbaciones, <strong>aparentemente<\/strong> aleatorias o indetectables para el ojo humano, se introducen en un sistema de inteligencia artificial (IA), pueden provocar que las cosas salgan bastante mal.\u00a0Unos adhesivos colocados estrat\u00e9gicamente en una se\u00f1al de <em>stop<\/em>, por ejemplo, pueden enga\u00f1ar a un coche aut\u00f3nomo para que detecte una se\u00f1al de l\u00edmite de velocidad de 70 kil\u00f3metros por hora, mientras que otros <strong>adhesivos en una carretera pueden\u00a0<\/strong><strong><a href=\"https:\/\/www.technologyreview.com\/2019\/04\/01\/65915\/hackers-trick-teslas-autopilot-into-veering-towards-oncoming-traffic\/\" target=\"_blank\" rel=\"noopener noreferrer\">confundir a un Tesla<\/a><\/strong>\u00a0para que se desv\u00ede por el carril equivocado.<\/p>\n<p><strong>Seguridad cr\u00edtica: <\/strong>la\u00a0mayor\u00eda de las investigaciones de redes antag\u00f3nicas se centran en los sistemas de reconocimiento de im\u00e1genes, pero <strong>los\u00a0sistemas de\u00a0reconstrucci\u00f3n de\u00a0im\u00e1genes<\/strong> basados \u200b\u200ben el aprendizaje profundo\u00a0tambi\u00e9n son vulnerables.\u00a0<em>Esto<\/em> es un problema especialmente grave para la atenci\u00f3n sanitaria, donde estos sistemas se <strong>suelen usar para\u00a0<\/strong><strong><a href=\"https:\/\/www.ncbi.nlm.nih.gov\/pmc\/articles\/PMC6443602\/\" target=\"_blank\" rel=\"noopener noreferrer\">reconstruir im\u00e1genes m\u00e9dicas<\/a><\/strong><strong>\u00a0como TAC<\/strong> o resonancias magn\u00e9ticas a partir de los datos de rayos X.\u00a0Un ataque antag\u00f3nico dirigido podr\u00eda provocar que dicho sistema reconstruya un tumor en una imagen donde no lo hay.<\/p>\n<p><strong>La investigaci\u00f3n:\u00a0<\/strong>una de las innovadoras menores de 35 a\u00f1os de <em>MIT Technology Review<\/em> de este a\u00f1o, <a href=\"https:\/\/www.technologyreview.com\/innovator\/bo-li\/\" target=\"_blank\" rel=\"noopener noreferrer\">Bo Li<\/a>\u00a0, y sus colegas de la Universidad de Illinois en Urbana-Champaign (EE. UU.) \u00a0proponen\u00a0<strong>ahora <\/strong><strong><a href=\"https:\/\/arxiv.org\/pdf\/2002.11821.pdf\" target=\"_blank\" rel=\"noopener noreferrer\">un nuevo m\u00e9todo<\/a><\/strong><strong>\u00a0para entrenar a estos sistemas de aprendizaje profundo<\/strong> con el fin de que fallen menos y, por lo tanto, para que sean m\u00e1s confiables en escenarios cr\u00edticos para la seguridad.\u00a0Para ello, enfrentan a la red neuronal que se ocupa de la reconstrucci\u00f3n de la imagen con otra red neuronal responsable de generar ejemplos antag\u00f3nicos, de forma similar a los\u00a0<a href=\"https:\/\/www.technologyreview.es\/s\/10789\/bienvenidos-la-hermosa-y-terrorifica-era-de-las-gan\" target=\"_blank\" rel=\"noopener noreferrer\">algoritmos de las redes generativas antag\u00f3nicas<\/a>\u00a0(GAN por sus siglas en ingl\u00e9s).\u00a0A trav\u00e9s de rondas iterativas, la<strong> red antag\u00f3nica intenta enga\u00f1ar a la red de reconstrucci\u00f3n para que genere algo<\/strong> que no forma parte de los datos originales o de la verdad fundamental.\u00a0La red de reconstrucci\u00f3n mejora continuamente para evitar ser enga\u00f1ada, por lo que resulta m\u00e1s seguro implementarla en el mundo real.<\/p>\n<p><strong>Los resultados:<\/strong>\u00a0cuando los investigadores probaron su red neuronal entrenada de esta forma antag\u00f3nica con dos populares conjuntos de datos de im\u00e1genes, fueron capaz de reconstruir la verdad fundamental mejor que otras redes neuronales que hab\u00edan sido &#8220;entrenadas contra los fallos&#8221; con diferentes m\u00e9todos.\u00a0Sin embargo, <strong>los resultados a\u00fan no son perfectos<\/strong>, lo que demuestra que este m\u00e9todo todav\u00eda necesita perfeccionarse m\u00e1s.\u00a0Este trabajo se presentar\u00e1 la pr\u00f3xima semana en la\u00a0<a href=\"https:\/\/icml.cc\/\" target=\"_blank\" rel=\"noopener noreferrer\">Conferencia Internacional sobre Aprendizaje Autom\u00e1tico<\/a>.<\/p>\n<p><strong>Fuente:<\/strong> <a href=\"https:\/\/www.technologyreview.es\/s\/12429\/esta-tecnica-entrena-la-ia-para-que-no-se-deje-enganar\" target=\"_blank\" rel=\"noopener noreferrer\"><em>https:\/\/www.technologyreview.es<\/em><\/a><\/p>\n","protected":false},"excerpt":{"rendered":"<p>Los sistemas de reconocimiento y reconstrucci\u00f3n de im\u00e1genes contin\u00faan siendo vulnerables a ataques destinados a confundirlos. Un nuevo m\u00e9todo ayuda a que el aprendizaje profundo&hellip; <\/p>\n","protected":false},"author":1,"featured_media":6415,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":[],"categories":[2,23],"tags":[],"_links":{"self":[{"href":"https:\/\/www.fie.undef.edu.ar\/ceptm\/index.php?rest_route=\/wp\/v2\/posts\/6414"}],"collection":[{"href":"https:\/\/www.fie.undef.edu.ar\/ceptm\/index.php?rest_route=\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.fie.undef.edu.ar\/ceptm\/index.php?rest_route=\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.fie.undef.edu.ar\/ceptm\/index.php?rest_route=\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/www.fie.undef.edu.ar\/ceptm\/index.php?rest_route=%2Fwp%2Fv2%2Fcomments&post=6414"}],"version-history":[{"count":1,"href":"https:\/\/www.fie.undef.edu.ar\/ceptm\/index.php?rest_route=\/wp\/v2\/posts\/6414\/revisions"}],"predecessor-version":[{"id":6416,"href":"https:\/\/www.fie.undef.edu.ar\/ceptm\/index.php?rest_route=\/wp\/v2\/posts\/6414\/revisions\/6416"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/www.fie.undef.edu.ar\/ceptm\/index.php?rest_route=\/wp\/v2\/media\/6415"}],"wp:attachment":[{"href":"https:\/\/www.fie.undef.edu.ar\/ceptm\/index.php?rest_route=%2Fwp%2Fv2%2Fmedia&parent=6414"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.fie.undef.edu.ar\/ceptm\/index.php?rest_route=%2Fwp%2Fv2%2Fcategories&post=6414"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.fie.undef.edu.ar\/ceptm\/index.php?rest_route=%2Fwp%2Fv2%2Ftags&post=6414"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}