{"id":1380,"date":"2016-09-27T14:07:10","date_gmt":"2016-09-27T17:07:10","guid":{"rendered":"https:\/\/www.nachodelatorre.com.ar\/mosconi\/?p=1380"},"modified":"2016-09-27T14:07:10","modified_gmt":"2016-09-27T17:07:10","slug":"un-nexo-extraordinario-une-las-leyes-del-universo-con-las-redes-neuronales-artificiales","status":"publish","type":"post","link":"https:\/\/www.fie.undef.edu.ar\/ceptm\/?p=1380","title":{"rendered":"Un nexo extraordinario une las leyes del universo con las redes neuronales artificiales"},"content":{"rendered":"<p>A partir de un trabajo denominado &#8220;Why Does Deep and Cheap Learning Work So Well?&#8221; de Henry W. Lin y Max Tegmark del Depto. de F\u00edsica de Harvard University &amp; MIT, se afirma que el secreto de las estructuras artificiales para resolver problemas complejos est\u00e1 encerrado en las leyes de la f\u00edsica.<!--more--><\/p>\n<p>Durante los \u00faltimos a\u00f1os, las t\u00e9cnicas de aprendizaje profundo han transformado el mundo de la inteligencia artificial. Una a una, las <strong>capacidades y t\u00e9cnicas que los humanos cre\u00edamos que eran \u00fanicamente nuestras<\/strong> han empezado a caer rendidas ante unas m\u00e1quinas cada vez m\u00e1s potentes. Las redes neuronales profundas ahora rinden mejor que los humanos en tareas como el reconocimiento de caras y de objetos. Han dominado el antiguo juego de Go y vencido a los mejores jugadores humanos.<\/p>\n<p>Pero hay un problema. No hay ninguna raz\u00f3n matem\u00e1tica que explique por qu\u00e9 las redes dispuestas por capas rinden tan bien ante estos retos. <strong>Los matem\u00e1ticos est\u00e1n desconcertados<\/strong>. A pesar del enorme \u00e9xito de las redes neuronales profundas, nadie tiene claro exactamente c\u00f3mo logran este \u00e9xito.<\/p>\n<p>Hoy eso cambia gracias al trabajo del investigador de la Universidad de Harvard (EEUU)\u00a0Henry Lin\u00a0y el del Instituto Tecnol\u00f3gico de Massachusetts (MIT, EEUU)\u00a0Max Tegmark. Afirman que la raz\u00f3n por la que los matem\u00e1ticos est\u00e1n perplejos es que<strong> la respuesta depende de la naturaleza del universo<\/strong>. En otras palabras, la respuesta est\u00e1 en el campo de la f\u00edsica y no en el de las matem\u00e1ticas.<\/p>\n<p>Primero, abordemos el problema con un ejemplo, el de clasificar una imagen en escala de grises de un megabit para <strong>determinar si muestra un gato o un perro<\/strong>.<\/p>\n<p>Tal imagen consta de un mill\u00f3n de p\u00edxeles, cada uno de los cuales puede adoptar uno de 256 valores de la escala de grises. As\u00ed que en teor\u00eda, <strong>existen 256<sup>1000000<\/sup> im\u00e1genes posibles<\/strong>, y para cada una es necesario analizar si presenta un gato o un perro. Pero las redes neuronales, con tan s\u00f3lo miles o millones de par\u00e1metros, de alguna manera logran esta clasificaci\u00f3n con facilidad.<\/p>\n<p>En el lenguaje de los matem\u00e1ticos, <strong>las redes neuronales funcionan al aproximar complejas funciones matem\u00e1ticas a otras m\u00e1s sencillas<\/strong>. Cuando se trata de clasificar im\u00e1genes de gatos y perros, la red neuronal debe implementar una funci\u00f3n que tome como entrada un mill\u00f3n de p\u00edxeles de la escala de grises y devuelva la probable distribuci\u00f3n de lo que podr\u00eda representar.<\/p>\n<p><img loading=\"lazy\" class=\" alignright\" src=\"https:\/\/www.technologyreview.com\/i\/images\/deep-learning-image.png?sw=600\" alt=\"\" width=\"492\" height=\"281\" \/><\/p>\n<p>El problema es que hay varios \u00f3rdenes de magnitud m\u00e1s de funciones matem\u00e1ticas que posibles redes para aproximarlas. Y <strong>aun as\u00ed, las profundas redes neuronales de alguna manera logran generar la respuesta correcta<\/strong>.<\/p>\n<p>Ahora Lin y Tegmark afirman haber averiguado por qu\u00e9. La respuesta es que el universo est\u00e1 gobernado por un diminuto subconjunto de todas las funciones posibles. En otras palabras, <strong>cuando las leyes de la f\u00edsica se representan matem\u00e1ticamente, todas pueden ser descritas <\/strong>por funciones que tienen un incre\u00edble conjunto de propiedades sencillas.<\/p>\n<p>As\u00ed que las redes neuronales profundas no necesitan aproximar todas las funciones matem\u00e1ticas posibles, sino s\u00f3lo un diminuto subconjunto de ellas.<\/p>\n<p>Para colocar esto en perspectiva, consideremos el orden de una funci\u00f3n polin\u00f3mica, que tiene el tama\u00f1o de su m\u00e1ximo exponente. As\u00ed que una ecuaci\u00f3n cuadr\u00e1tica como y=x<sup>2<\/sup> tiene un orden de 2, la ecuaci\u00f3n y=x<sup>24<\/sup> tiene un orden de 24 y as\u00ed sucesivamente.<\/p>\n<p>Obviamente, el n\u00famero de \u00f3rdenes es infinito y a\u00fan as\u00ed s\u00f3lo un diminuto subconjunto de polinomios aparecen en las leyes de la f\u00edsica. Lin y Tegmark escriben: &#8220;Por motivos que a\u00fan no se comprenden del todo, nuestro universo puede ser descrito con precisi\u00f3n por polinomios hamiltonianos de orden bajo&#8221;. Normalmente, <strong>los polinomios que describen las leyes de la f\u00edsica tienen \u00f3rdenes de entre 2 y 4<\/strong>.<\/p>\n<p>Las leyes de la f\u00edsica tienen otras propiedades importantes. Por ejemplo, normalmente<strong> son sim\u00e9tricas cuando se trata de la rotaci\u00f3n y escalado<\/strong>. Al rotar un gato o un perro 360\u00ba, tendr\u00e1 el mismo aspecto; al escalarlo en 10 metros o 100 metros o un kil\u00f3metro, tendr\u00e1 el mismo aspecto. Eso tambi\u00e9n simplifica la tarea de aproximar el proceso de reconocimiento de un gato o un perro.<\/p>\n<p>Estas propiedades implican que las redes neuronales <strong>no necesitan aproximar una infinidad de posibles funciones matem\u00e1ticas<\/strong> sino tan s\u00f3lo un diminuto subconjunto de las m\u00e1s sencillas.<\/p>\n<p>Existe otra propiedad del universo de la que se aprovechan las redes neuronales: la jerarqu\u00eda de su estructura. &#8220;Las part\u00edculas elementales forman \u00e1tomos que a su vez forman mol\u00e9culas, c\u00e9lulas, organismos, planetas, sistemas solares, galaxias, etc\u00e9tera&#8221;, detallan los investigadores. Y a menudo <strong>las estructuras m\u00e1s complejas son simplemente una secuencia de pasos m\u00e1s sencillos<\/strong>.<\/p>\n<p>Por eso la estructura de las redes neuronales tambi\u00e9n es importante: las capas de estas redes pueden aproximar cada paso de la secuencia causal.<\/p>\n<p>Lin y Tegmark ofrecen el ejemplo de l<strong>a radiaci\u00f3n de fondo c\u00f3smico de microondas, el eco del Big Bang <\/strong>que se propaga por el universo. En a\u00f1os recientes, varias naves espaciales han mapeado esta radiaci\u00f3n a una resoluci\u00f3n a\u00fan m\u00e1s alta. Y, por supuesto, los f\u00edsicos se han extra\u00f1ado por la forma que adoptan estos mapas.<\/p>\n<p>Tegmark y Lin se\u00f1alan que cualquiera que sea la raz\u00f3n, sin duda es el resultado de una jerarqu\u00eda causal. &#8220;Un conjunto de par\u00e1metros cosmol\u00f3gicos (la densidad de la materia oscura, etc\u00e9tera) determina el espectro de potencias de las fluctuaciones de densidad dentro de nuestro universo, lo que a su vez<strong> determina el patr\u00f3n de la radiaci\u00f3n de fondo c\u00f3smico de microondas que nos llega <\/strong>desde nuestro universo primigenio, lo que se une al ruido radioel\u00e9ctrico de primer plano procedente de nuestra galaxia para generar los mapas del cielo basados en la frecuencia que son grabados por un telescopio por sat\u00e9lite&#8221;, explican.<\/p>\n<p>Cada una de estas capas causales contiene cada vez m\u00e1s datos. Y aunque s\u00f3lo existen un pu\u00f1ado de par\u00e1metros cosmol\u00f3gicos, los mapas y el ruido que contienen est\u00e1n compuestos por miles de millones de n\u00fameros. <strong>El objetivo de la f\u00edsica es analizar los n\u00fameros grandes para que revelen los peque\u00f1os<\/strong>.<\/p>\n<p>Y cuando un fen\u00f3meno tiene esta estructura jer\u00e1rquica, las redes neuronales facilitan significativamente el proceso de analizarlo.<\/p>\n<p>Los investigadores contin\u00faan: &#8220;Hemos demostrado que <strong>el \u00e9xito del aprendizaje profundo y barato depende no s\u00f3lo de la matem\u00e1tica sino tambi\u00e9n de la f\u00edsica<\/strong>, que favorece determinadas clases de distribuciones de probabilidad excepcionalmente sencillas que solo el aprendizaje profundo est\u00e1 preparado para modelar&#8221;.<\/p>\n<p>Es un trabajo interesante e importante con serias implicaciones. Las redes neuronales artificiales se basan en la estructura de las biol\u00f3gicas. As\u00ed que la propuesta de Lin y Tegmark no solo explica por qu\u00e9 las m\u00e1quinas de aprendizaje profundo funcionan tan bien;<strong> tambi\u00e9n revelan por qu\u00e9 los cerebros humanos pueden entender el universo<\/strong>. De alguna manera, la evoluci\u00f3n ha producido una estructura cerebral que resulta ideal para desentra\u00f1ar la complejidad del universo.<\/p>\n<p><strong>Este trabajo permitir\u00e1 importantes progresos en la inteligencia artificial<\/strong>. Ahora que por fin entendemos por qu\u00e9 las redes neuronales profundas funcionan tan bien, los matem\u00e1ticos podr\u00e1n ponerse manos a la obra para explorar las propiedades matem\u00e1ticas espec\u00edficas que las hacen rendir tan bien. &#8220;Reforzar el entendimiento anal\u00edtico del aprendizaje profundo podr\u00eda ayudar a mejorarlo&#8221;, apuntan Lin y Tegmark.<\/p>\n<p>El aprendizaje profundo ha avanzado a pasos de gigante en los \u00faltimos a\u00f1os. Con este mejorado entendimiento, <strong>es probable que se acelere el ritmo de los avances.<\/strong><\/p>\n<p><strong>Fuente:<\/strong> <em><a href=\"http:\/\/www.technologyreview.es\/informatica\/51642\/un-nexo-extraordinario-une-las-leyes-del-universo\/\" target=\"_blank\" rel=\"noopener noreferrer\">http:\/\/www.technologyreview.es<\/a><\/em><\/p>\n","protected":false},"excerpt":{"rendered":"<p>A partir de un trabajo denominado &#8220;Why Does Deep and Cheap Learning Work So Well?&#8221; de Henry W. Lin y Max Tegmark del Depto. de&hellip; <\/p>\n","protected":false},"author":1,"featured_media":0,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":[],"categories":[23,29],"tags":[],"_links":{"self":[{"href":"https:\/\/www.fie.undef.edu.ar\/ceptm\/index.php?rest_route=\/wp\/v2\/posts\/1380"}],"collection":[{"href":"https:\/\/www.fie.undef.edu.ar\/ceptm\/index.php?rest_route=\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.fie.undef.edu.ar\/ceptm\/index.php?rest_route=\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.fie.undef.edu.ar\/ceptm\/index.php?rest_route=\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/www.fie.undef.edu.ar\/ceptm\/index.php?rest_route=%2Fwp%2Fv2%2Fcomments&post=1380"}],"version-history":[{"count":0,"href":"https:\/\/www.fie.undef.edu.ar\/ceptm\/index.php?rest_route=\/wp\/v2\/posts\/1380\/revisions"}],"wp:attachment":[{"href":"https:\/\/www.fie.undef.edu.ar\/ceptm\/index.php?rest_route=%2Fwp%2Fv2%2Fmedia&parent=1380"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.fie.undef.edu.ar\/ceptm\/index.php?rest_route=%2Fwp%2Fv2%2Fcategories&post=1380"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.fie.undef.edu.ar\/ceptm\/index.php?rest_route=%2Fwp%2Fv2%2Ftags&post=1380"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}