{"id":1985,"date":"2017-06-05T16:14:19","date_gmt":"2017-06-05T19:14:19","guid":{"rendered":"https:\/\/www.nachodelatorre.com.ar\/mosconi\/?p=1985"},"modified":"2017-06-05T16:14:19","modified_gmt":"2017-06-05T19:14:19","slug":"un-superordenador-y-un-chip-las-bazas-de-google-para-controlar-el-hardware-de-la-inteligencia-artificial","status":"publish","type":"post","link":"https:\/\/www.fie.undef.edu.ar\/ceptm\/?p=1985","title":{"rendered":"Un superordenador y un chip, las bazas de Google para controlar el hardware de la inteligencia artificial"},"content":{"rendered":"<p>La compa\u00f1\u00eda presenta nuevas tecnolog\u00edas pensadas para acelerar el desarrollo de las t\u00e9cnicas de aprendizaje autom\u00e1tico, en las que ya destacaba, y posicionarse frente a empresas como Nvidia, una de las m\u00e1s importantes en el desarrollo de hardware para IA<!--more--><\/p>\n<p><img loading=\"lazy\" class=\" alignright\" src=\"https:\/\/www.technologyreview.es\/sites\/default\/files\/articles\/images\/nuevo_chip_superordenador_cloud_tpu_acelerar_ia_google.jpg\" alt=\"\" width=\"399\" height=\"227\" \/>Si la inteligencia artificial (IA) est\u00e1 devorando r\u00e1pidamente el software, entonces puede que Google tenga el mayor apetito de todos.<\/p>\n<p>En la conferencia anual de desarrolladores de la empresa (Google I\/O 2017), el CEO de Google, Sundar Pichai, <strong>present\u00f3 un nuevo procesador dise\u00f1ado\u00a0para llevar a cabo el tipo de aprendizaje autom\u00e1tico que ha revolucionado la industria <\/strong>durante los \u00faltimos a\u00f1os\u00a0(ver <em><a href=\"https:\/\/www.technologyreview.es\/s\/3479\/aprendizaje-profundo\" target=\"_blank\" rel=\"noopener noreferrer\">Aprendizaje profundo<\/a><\/em>). El anuncio refleja la rapidez con la que la IA est\u00e1 transformando la propia empresa, y es la se\u00f1al m\u00e1s fiable de que Google tiene planes de liderar el desarrollo de cada aspecto relevante del software y el hardware.<\/p>\n<p>Puede que lo m\u00e1s importante, al menos para quienes trabajan en aprendizaje autom\u00e1tico, sea que <strong>el nuevo procesador no solo funciona a una velocidad vertiginosa, sino que tambi\u00e9n puede entrenarse con una eficiencia incre\u00edble.<\/strong> Llamado Cloud TPU (Unidad de procesamiento de tensor para la nube), el nombre del chip se refiere al\u00a0espacio\u00a0de aprendizaje autom\u00e1tico de fuente abierta de la compa\u00f1\u00eda, TensorFlow.<\/p>\n<p>El entrenamiento es una parte fundamental del aprendizaje autom\u00e1tico. Para desarrollar un algoritmo capaz de <a href=\"https:\/\/itunes.apple.com\/app\/not-hotdog\/id1212457521\" target=\"_blank\" rel=\"noopener noreferrer\">reconocer perritos calientes dentro de las im\u00e1genes<\/a>, por ejemplo, se le necesita preparar con miles de ejemplos de im\u00e1genes de perritos calientes -adem\u00e1s de ejemplos sin perritos calientes- hasta que aprenda a reconocer la diferencia. Pero los c\u00e1lculos necesarios para\u00a0entrenar un modelo de estas caracter\u00edsticas son tan sumamente complejos que hacerlo podr\u00eda llevar d\u00edas o semanas.<\/p>\n<p>Pichai tambi\u00e9n <strong>anunci\u00f3 el desarrollo de superordenadores de aprendizaje autom\u00e1tico a partir de varios Cloud TPU conectados <\/strong>a trav\u00e9s de conexiones de datos de alta velocidad. El CEO de Google tambi\u00e9n asegur\u00f3 que Google\u00a0ya est\u00e1 desarrollando la Nube de Investigaci\u00f3n con TensorFlow, la cual contendr\u00e1 miles de TPU accesibles por internet.<\/p>\n<p><strong>&#8220;Estamos desarrollando lo que nosotros consideramos los primeros centros de datos de &#8216;IA primero'&#8221;<\/strong>, explic\u00f3\u00a0Pichai durante su presentaci\u00f3n. &#8220;Los Cloud TPU est\u00e1n optimizados tanto para el entrenamiento como la inferencia. Esto sienta las bases para importantes progresos [en IA]&#8221;.<\/p>\n<p>Google pondr\u00e1 1.000 sistemas de Cloud TPU a disposici\u00f3n de investigadores de inteligencia artificial dispuestos a compartir en abierto los detalles de su trabajo.<\/p>\n<p>Pichai tambi\u00e9n\u00a0present\u00f3\u00a0varias iniciativas de investigaci\u00f3n en inteligencia artificial durante su ponencia. Estas iniciativas incluyen un esfuerzo dirigido a <strong>desarrollar algoritmos capaces de aprender a ejecutar el trabajo laborioso de afinar otros algoritmos <\/strong>de aprendizaje autom\u00e1tico. Pichai\u00a0coment\u00f3 que Google est\u00e1 desarrollando herramientas de IA para el an\u00e1lisis de im\u00e1genes m\u00e9dicas, el an\u00e1lisis gen\u00f3mico y el descubrimiento de mol\u00e9culas.<\/p>\n<p>Justo antes de los anuncios de Pichai, el investigador de Google\u00a0Jeff\u00a0Dean dijo que<strong> la nueva oferta de Google\u00a0podr\u00eda ayudar a acelerar los procesos de inteligencia artificial.<\/strong> &#8220;Muchos investigadores destacados no tienen acceso a tanta potencia computacional como les gustar\u00eda&#8221;, se\u00f1al\u00f3.<\/p>\n<p>La incursi\u00f3n de Google en hardware centrado en la IA\u00a0y servicios en la nube est\u00e1 siendo impulsada en parte por sus esfuerzos por acelerar sus propias operaciones.<strong> El propio Google ahora emplea TensorFlow para alimentar las b\u00fasquedas,<\/strong> el reconocimiento de voz, la traducci\u00f3n y el procesamiento de im\u00e1genes. Tambi\u00e9n fue utilizado por el programa\u00a0AlphaGo, desarrollado por otra\u00a0filial\u00a0de Google, Deep Mind<\/p>\n<p>Pero si act\u00faa de forma estrat\u00e9gica, <strong>Google podr\u00eda ayudar a impedir que otra empresa de hardware se vuelva demasiado dominante en el campo del aprendizaje autom\u00e1tico.<\/strong> Nvidia, la\u00a0empresa que produce los chips de procesamiento gr\u00e1fico que tradicionalmente se han utilizado para\u00a0el aprendizaje profundo, <a href=\"https:\/\/www.technologyreview.com\/s\/607831\/nvidia-ceo-software-is-eating-the-world-but-ai-is-going-to-eat-software\/?set=607882\" target=\"_blank\" rel=\"noopener noreferrer\">se est\u00e1 volviendo cada vez m\u00e1s destacada<\/a>\u00a0gracias a su cartera de productos.<\/p>\n<p>Para dar una idea del alcance que tiene la mejora del rendimiento que ofrecen sus Cloud TPU,\u00a0Google\u00a0asegura que sus propios algoritmos de\u00a0traducci\u00f3n podr\u00edan ser\u00a0entrenados mucho m\u00e1s r\u00e1pido con el nuevo hardware que con el actual.\u00a0Lo que requerir\u00eda un d\u00eda entero de entrenamiento con 32 de las mejores unidades de procesamiento gr\u00e1fico actuales puede hacerse en una tarde\u00a0con una octava parte de uno de sus POD con TPU.<\/p>\n<p>&#8220;Estos TPU proporcionan unos asombrosos 128 teraflops, y est\u00e1n dise\u00f1ados precisamente para el tipo de c\u00e1lculos que\u00a0impulsan el aprendizaje autom\u00e1tico hoy&#8221;, afirm\u00f3 el director cient\u00edfico de Google Cloud y director del Laboratorio de IA de la Universidad de Stanford (EEUU),\u00a0<a href=\"http:\/\/vision.stanford.edu\/feifeili\/\" target=\"_blank\" rel=\"noopener noreferrer\">Fei-Fei Li<\/a>, antes de la\u00a0intervenci\u00f3n de Pichai.<\/p>\n<p>Un teraflop se refiere a un bill\u00f3n de operaciones de &#8220;coma flotante&#8221; por segundo, una medida del rendimiento de los ordenadores obtenido al hacerles realizar\u00a0c\u00e1lculos matem\u00e1ticos. En contraste, el iPhone 6 es capaz conseguir\u00a0alrededor de 100 gigaflops, lo que equivale a 1.000 millones de operaciones de coma flotante por segundo.<\/p>\n<p>Google asegura que <strong>seguir\u00e1 siendo posible dise\u00f1ar algoritmos con otro hardware antes de trasladarlos a la nube de investigaci\u00f3n de TensorFlow<\/strong>.\u00a0&#8220;De esto trata la democratizaci\u00f3n del aprendizaje autom\u00e1tico, de\u00a0empoderar a los desarrolladores al proteger la libertad de dise\u00f1o&#8221;, a\u00f1adi\u00f3 Li.<\/p>\n<p>Un <a href=\"https:\/\/www.technologyreview.es\/s\/5396\/el-cerebro-de-inteligencia-artificial-de-google-sale-de-sus-laboratorios-con-permiso\" target=\"_blank\" rel=\"noopener noreferrer\">n\u00famero cada vez mayor<\/a>\u00a0de investigadores han adoptado TensorFlow desde que Google\u00a0lo lanzara\u00a0en 2015. Google\u00a0ya se jacta de que es el \u00e1mbito para aprendizaje autom\u00e1tico m\u00e1s utilizado del mundo.<\/p>\n<p><strong>Fuente:<\/strong> <em><a href=\"https:\/\/www.technologyreview.es\/s\/7843\/un-superordenador-y-un-chip-las-bazas-de-google-para-controlar-el-hardware-de-la-inteligencia\" target=\"_blank\" rel=\"noopener noreferrer\">https:\/\/www.technologyreview.es<\/a><\/em><\/p>\n","protected":false},"excerpt":{"rendered":"<p>La compa\u00f1\u00eda presenta nuevas tecnolog\u00edas pensadas para acelerar el desarrollo de las t\u00e9cnicas de aprendizaje autom\u00e1tico, en las que ya destacaba, y posicionarse frente a&hellip; <\/p>\n","protected":false},"author":1,"featured_media":0,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":[],"categories":[23,29],"tags":[],"_links":{"self":[{"href":"https:\/\/www.fie.undef.edu.ar\/ceptm\/index.php?rest_route=\/wp\/v2\/posts\/1985"}],"collection":[{"href":"https:\/\/www.fie.undef.edu.ar\/ceptm\/index.php?rest_route=\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.fie.undef.edu.ar\/ceptm\/index.php?rest_route=\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.fie.undef.edu.ar\/ceptm\/index.php?rest_route=\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/www.fie.undef.edu.ar\/ceptm\/index.php?rest_route=%2Fwp%2Fv2%2Fcomments&post=1985"}],"version-history":[{"count":0,"href":"https:\/\/www.fie.undef.edu.ar\/ceptm\/index.php?rest_route=\/wp\/v2\/posts\/1985\/revisions"}],"wp:attachment":[{"href":"https:\/\/www.fie.undef.edu.ar\/ceptm\/index.php?rest_route=%2Fwp%2Fv2%2Fmedia&parent=1985"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.fie.undef.edu.ar\/ceptm\/index.php?rest_route=%2Fwp%2Fv2%2Fcategories&post=1985"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.fie.undef.edu.ar\/ceptm\/index.php?rest_route=%2Fwp%2Fv2%2Ftags&post=1985"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}