{"id":9332,"date":"2022-01-21T10:18:55","date_gmt":"2022-01-21T13:18:55","guid":{"rendered":"https:\/\/www.fie.undef.edu.ar\/ceptm\/?p=9332"},"modified":"2022-01-28T20:57:29","modified_gmt":"2022-01-28T23:57:29","slug":"los-grandes-modelos-de-ia-han-disparado-el-consumo-de-potencia-informatica","status":"publish","type":"post","link":"https:\/\/www.fie.undef.edu.ar\/ceptm\/?p=9332","title":{"rendered":"Los grandes modelos de IA han disparado el consumo de potencia inform\u00e1tica"},"content":{"rendered":"<p>Hist\u00f3ricamente, la potencia computacional requerida para entrenar sistemas de inteligencia artificial se duplicaba cada dos a\u00f1os, pero ahora lo hace cada 3,4 meses, siete veces m\u00e1s r\u00e1pido, una tendencia que no hace m\u00e1s que aumentar la brecha de capacidades entre investigadores p\u00fablicos y privados.<\/p>\n<hr \/>\n<p>En 2018, OpenAI descubri\u00f3 que la cantidad de potencia computacional necesaria para entrenar modelos de inteligencia artificial (IA) m\u00e1s grandes se duplica cada 3,4 meses desde 2012.<\/p>\n<p>Un a\u00f1o despu\u00e9s, el laboratorio de investigaci\u00f3n de IA de San Francisco (EE. UU.)\u00a0<a href=\"https:\/\/openai.com\/blog\/ai-and-compute\/#addendum\" target=\"_blank\" rel=\"noopener\">a\u00f1adi\u00f3 nuevos datos<\/a>\u00a0a su an\u00e1lisis y demostr\u00f3 c\u00f3mo el aumento posterior a 2012 se compara con el tiempo de duplicaci\u00f3n hist\u00f3rica desde los inicios del campo.\u00a0<strong>Desde 1959 hasta 2012, la cantidad de energ\u00eda requerida se duplicaba cada dos a\u00f1os<\/strong>, siguiendo la Ley de Moore.\u00a0Esto significa que el aumento de la potencia de hoy en d\u00eda es m\u00e1s de siete veces mayor que la tasa anterior.<\/p>\n<figure id=\"attachment_9333\" aria-describedby=\"caption-attachment-9333\" style=\"width: 2160px\" class=\"wp-caption aligncenter\"><img loading=\"lazy\" class=\"size-full wp-image-9333\" src=\"https:\/\/www.fie.undef.edu.ar\/ceptm\/wp-content\/uploads\/2022\/01\/ai-and-compute-all.png\" alt=\"\" width=\"2160\" height=\"1575\" srcset=\"https:\/\/www.fie.undef.edu.ar\/ceptm\/wp-content\/uploads\/2022\/01\/ai-and-compute-all.png 2160w, https:\/\/www.fie.undef.edu.ar\/ceptm\/wp-content\/uploads\/2022\/01\/ai-and-compute-all-300x219.png 300w, https:\/\/www.fie.undef.edu.ar\/ceptm\/wp-content\/uploads\/2022\/01\/ai-and-compute-all-1024x747.png 1024w, https:\/\/www.fie.undef.edu.ar\/ceptm\/wp-content\/uploads\/2022\/01\/ai-and-compute-all-768x560.png 768w, https:\/\/www.fie.undef.edu.ar\/ceptm\/wp-content\/uploads\/2022\/01\/ai-and-compute-all-1536x1120.png 1536w, https:\/\/www.fie.undef.edu.ar\/ceptm\/wp-content\/uploads\/2022\/01\/ai-and-compute-all-2048x1493.png 2048w\" sizes=\"(max-width: 2160px) 100vw, 2160px\" \/><figcaption id=\"caption-attachment-9333\" class=\"wp-caption-text\">Gr\u00e1fico: El uso computacional para entrenar sistemas de IA demuestra dos \u00e9pocas distintas claramente diferenciadas. En la primera \u00e9poca, la energ\u00eda requerida se duplicaba cada dos a\u00f1os (de acuerdo con la Ley de Moore), ahora se duplica cada 3,4 meses. Cr\u00e9ditos: OpenAI.<\/figcaption><\/figure>\n<p>Este dr\u00e1stico aumento en los recursos computacionales necesarios subraya lo caros que se han vuelto los logros del campo.\u00a0Habr\u00e1 que tener en cuenta que el gr\u00e1fico anterior muestra una escala logar\u00edtmica.\u00a0En una escala lineal (abajo), se puede ver m\u00e1s claramente c\u00f3mo\u00a0<strong>el uso computacional se ha incrementado 300.000 veces en ese periodo de siete a\u00f1os.<\/strong><\/p>\n<p>El gr\u00e1fico no incluye algunos de los avances m\u00e1s recientes, como el modelo de lenguaje a gran escala de Google\u00a0<a href=\"https:\/\/www.technologyreview.es\/s\/13393\/google-plantea-un-revolucionario-motor-de-busqueda-que-responde-como-un-humano\" target=\"_blank\" rel=\"noopener\">BERT<\/a>, el modelo de lenguaje\u00a0<a href=\"https:\/\/www.technologyreview.es\/s\/13206\/tr10-gpt-3-representa-lo-mejor-y-lo-peor-de-la-ia-actual\" target=\"_blank\" rel=\"noopener\">GPT-3 de<\/a>\u00a0OpenAI\u00a0y el modelo de juego\u00a0<em>StarCraft II<\/em>\u00a0de DeepMind,\u00a0<a href=\"https:\/\/www.technologyreview.com\/s\/614650\/ai-deepmind-outcompeted-most-players-at-starcraft-ii\/\" target=\"_blank\" rel=\"noopener\">AlphaStar<\/a>, y\u00a0<a href=\"https:\/\/www.technologyreview.es\/s\/13901\/2021-el-ano-de-los-modelos-de-inteligencia-artificial-gigantes\" target=\"_blank\" rel=\"noopener\">los modelos a\u00fan m\u00e1s grandes desarrollados el a\u00f1o pasado<\/a>.<\/p>\n<p><img loading=\"lazy\" class=\"aligncenter size-full wp-image-9335\" src=\"https:\/\/www.fie.undef.edu.ar\/ceptm\/wp-content\/uploads\/2022\/01\/ai-and-compute-modern-linear.png\" alt=\"\" width=\"2160\" height=\"1575\" srcset=\"https:\/\/www.fie.undef.edu.ar\/ceptm\/wp-content\/uploads\/2022\/01\/ai-and-compute-modern-linear.png 2160w, https:\/\/www.fie.undef.edu.ar\/ceptm\/wp-content\/uploads\/2022\/01\/ai-and-compute-modern-linear-300x219.png 300w, https:\/\/www.fie.undef.edu.ar\/ceptm\/wp-content\/uploads\/2022\/01\/ai-and-compute-modern-linear-1024x747.png 1024w, https:\/\/www.fie.undef.edu.ar\/ceptm\/wp-content\/uploads\/2022\/01\/ai-and-compute-modern-linear-768x560.png 768w, https:\/\/www.fie.undef.edu.ar\/ceptm\/wp-content\/uploads\/2022\/01\/ai-and-compute-modern-linear-1536x1120.png 1536w, https:\/\/www.fie.undef.edu.ar\/ceptm\/wp-content\/uploads\/2022\/01\/ai-and-compute-modern-linear-2048x1493.png 2048w\" sizes=\"(max-width: 2160px) 100vw, 2160px\" \/><\/p>\n<p>Dada esta tendencia hacia modelos cada vez m\u00e1s grandes y, por tanto, con mayor consumo computacional, est\u00e1 provocando que\u00a0<strong>cada vez m\u00e1s investigadores alerten sobre los enormes costes del aprendizaje profundo<\/strong>.\u00a0En 2019,\u00a0<a href=\"https:\/\/www.technologyreview.es\/s\/11222\/entrenar-una-sola-ia-emite-tanto-co2-como-cinco-coches-en-su-vida-util\" target=\"_blank\" rel=\"noopener\">un estudio<\/a>\u00a0de la Universidad de Massachusetts en Amherst (EE. UU.), mostr\u00f3 c\u00f3mo estos crecientes costos computacionales se traducen directamente en emisiones de carbono.<\/p>\n<p>El art\u00edculo tambi\u00e9n se\u00f1ala c\u00f3mo esta tendencia\u00a0<strong>intensifica la privatizaci\u00f3n de la investigaci\u00f3n de inteligencia artificial\u00a0<\/strong>porque socava la capacidad de los laboratorios acad\u00e9micos de competir con los privados m\u00e1s ricos en recursos.<\/p>\n<p>En respuesta a esta creciente preocupaci\u00f3n, varios grupos de la industria han empezado a lanzar recomendaciones.\u00a0El Instituto Allen de Inteligencia Artificial, una empresa de investigaci\u00f3n sin \u00e1nimo de lucro en Seattle (EE. UU.), ha\u00a0<a href=\"https:\/\/www.technologyreview.com\/f\/614056\/ai-research-has-an-environment-climate-toll\/\" target=\"_blank\" rel=\"noopener\">propuesto<\/a>\u00a0que\u00a0<strong>los investigadores publiquen los costes econ\u00f3micos y computacionales\u00a0<\/strong>del entrenamiento de sus modelos junto con sus resultados de rendimiento, por ejemplo.<\/p>\n<p>En su propio blog, OpenAI sugiri\u00f3 que los formuladores de pol\u00edticas deber\u00edan aumentar los fondos para los investigadores acad\u00e9micos para\u00a0<strong>cerrar la brecha de recursos entre los laboratorios acad\u00e9micos y los de la industria.<\/strong><\/p>\n<p><strong>Fuente:<\/strong> <a href=\"https:\/\/www.technologyreview.es\/s\/11622\/los-grandes-modelos-de-ia-han-disparado-el-consumo-de-potencia-informatica\" target=\"_blank\" rel=\"noopener\"><em>https:\/\/www.technologyreview.es<\/em><\/a><\/p>\n","protected":false},"excerpt":{"rendered":"<p>Hist\u00f3ricamente, la potencia computacional requerida para entrenar sistemas de inteligencia artificial se duplicaba cada dos a\u00f1os, pero ahora lo hace cada 3,4 meses, siete veces&hellip; <\/p>\n","protected":false},"author":1,"featured_media":9334,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":[],"categories":[2,23],"tags":[],"_links":{"self":[{"href":"https:\/\/www.fie.undef.edu.ar\/ceptm\/index.php?rest_route=\/wp\/v2\/posts\/9332"}],"collection":[{"href":"https:\/\/www.fie.undef.edu.ar\/ceptm\/index.php?rest_route=\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.fie.undef.edu.ar\/ceptm\/index.php?rest_route=\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.fie.undef.edu.ar\/ceptm\/index.php?rest_route=\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/www.fie.undef.edu.ar\/ceptm\/index.php?rest_route=%2Fwp%2Fv2%2Fcomments&post=9332"}],"version-history":[{"count":1,"href":"https:\/\/www.fie.undef.edu.ar\/ceptm\/index.php?rest_route=\/wp\/v2\/posts\/9332\/revisions"}],"predecessor-version":[{"id":9336,"href":"https:\/\/www.fie.undef.edu.ar\/ceptm\/index.php?rest_route=\/wp\/v2\/posts\/9332\/revisions\/9336"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/www.fie.undef.edu.ar\/ceptm\/index.php?rest_route=\/wp\/v2\/media\/9334"}],"wp:attachment":[{"href":"https:\/\/www.fie.undef.edu.ar\/ceptm\/index.php?rest_route=%2Fwp%2Fv2%2Fmedia&parent=9332"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.fie.undef.edu.ar\/ceptm\/index.php?rest_route=%2Fwp%2Fv2%2Fcategories&post=9332"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.fie.undef.edu.ar\/ceptm\/index.php?rest_route=%2Fwp%2Fv2%2Ftags&post=9332"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}