ChatGPT, mitos de la innovación tecnológica y la necesidad de su reprogramación

Uno de los grandes mitos que rodea a la innovación tecnológica es su promesa sobre la creación de cosas nuevas. De esta forma, pareciera como si ChatGPT fuera la última expresión del desarrollo de la humanidad hacia lo más elevado de la historia. Lo que hoy llamamos “inteligencia artificial” no es ni artificial ni inteligente, ya que los primeros sistemas de IA estaban dominados por reglas y programas, de tal modo que, la palabra “artificial” estaba justificada. Pero los sistemas actuales, como el ChatGPT , no se basan en reglas abstractas, sino en el trabajo de seres humanos reales: como artistas, músicos, programadores y escritores, de cuya obra creativa y profesional se apropian esos sistemas con la excusa de querer salvar la civilización. En todo caso, es una “inteligencia no artificial”.


Uno de los grandes mitos que rodea a la innovación tecnológica es su promesa sobre la creación de cosas nuevas. De esta forma, pareciera como si ChatGPT fuera la última expresión del desarrollo de la humanidad hacia lo más elevado de la historia. Después de que el buscador de Google alterara la manera en que accedemos al conocimiento, creando una suerte de biblioteca digital universal, el prototipo de chatbot de Microsoft habría venido a reconfigurar nuestra relación con la educación, el mundo del trabajo y alterar radicalmente las relaciones humanas.

Al margen de que la lógica de ChatGPT es heredera de los tiempos de la Guerra Fría (la comparación de patrones, diseñada para predecir y reaccionar en los entornos de guerra), al igual que ocurre con el buscador o el sistema GPS de Google u otras tecnologías como el iPhone, la obsesión por clasificaciones de las ideas aparentemente racionales ilustra un suceso paradójico: la irracionalidad detrás de la forma en que entendemos la técnica.

De un lado, porque trata de solucionar los problemas que el mundo digital “anterior” había creado, lo cual termina creando más problemas. Es lo que Evgeny Morozov ha denominado solucionismo: dado que esta inteligencia artificial ha sido entrenada con miles de millones de páginas e información procedente de Internet, lo que hasta hace poco coincidíamos que era un océano de noticias falsas, muchas de las respuestas que entrega son poco atinadas. Si bien tiene capacidades para generar texto, esta herramienta representa algo así como una forma de institucionalizar la desinformación, aunque ahora con plugins y sofisticados prompts.

¿Pero, alguien cree que esta será la técnica que los libros de historia recuerden como la biblioteca del siglo XXI del mismo modo en que lo fueron, por ejemplo, instituciones culturales semejantes creadas en El Escorial por Felipe II? El problema es que ChatGPT trata de resolver cuestiones sobre nuestra sociedad que deberíamos afrontar de otra forma. Por ejemplo, en lo relacionado a la educación, ¿el problema es que una máquina sea capaz de crear disertaciones de manera automática o que los sistemas públicos de educación (que han sufrido los recortes primero, y la googelización después) sigan siendo incapaces de gozar de innovadoras infraestructuras digitales propias?

La problemática no es que los estudiantes tengan más herramientas para copiar, sino que la educación no disponga de un modelo de enseñanza y aprendizaje que dé primacía a la adquisición de capacidades analíticas y sintéticas sobre el dominio de la información. Como expresaba el filósofo Roberto Mangabeira Unger, la pregunta es cómo crear herramientas que ayuden a las personas a alcanzar cierta profundidad selectiva en detrimento de la superficialidad enciclopédica en el tratamiento de los contenidos, o que priorice el trabajo colaborativo (entre alumnos, profesores y centros) en lugar del individualismo y el autoritarismo en las aulas. Para abordar cada tema desde puntos de vista contrastados, veraces, necesitamos inteligencias artificiales muy distintas a ChatGPT: máquinas entrenadas con otros conjuntos de datos, diseñadas para aprender o descubrir autores y piezas de conocimiento nuevas, no para automatizar un modelo de enseñanza anticuado.

Algo similar ocurre con otros campos. En el libro “Trabajos de mierda”, el antropólogo estadounidense David Graber desplegaba una teoría donde afirma que la existencia de trabajos sin propósito alguno tiene efectos corrosivos para la sociedad y se vuelve psicológicamente destructivo. Entonces, ¿por qué creamos inteligencias artificiales que tratan de solucionar este problema mediante la automatización de dichos trabajos, en lugar de crear máquinas para reducir la carga laboral, distribuir las plusvalías derivadas mediante alguna forma de renta básica universal, como ha propuesto Francesca Bria, y permitir que la creatividad humana se exprese libremente?

Argumentaba Evgeny Morozov que ChatGPT no es inteligente ni artificial: extrae su fuerza del trabajo de humanos, sean estos artistas, músicos, programadores o escritores de cuya producción creativa y profesional se apropia en nombre de la salvación de la civilización. Dada esta realidad, cómo reprogramamos la inteligencia artificial para visibilizar la inteligencia humana, capaz de crear arte, ficciones culturales o nuevas historias, en lugar de gastar enormes cantidades de dinero y recursos energéticos en centros de datos y modelos de aprendizaje automático. ¿No sería más inteligente repensar la biblioteca digital del siglo XXI siguiendo criterios de sostenibilidad, crear herramientas para modelar futuros que nos gustaría vivir, con conocimiento sobre experiencias que han tenido éxito en el pasado, en lugar de algo así como automatizar el calentamiento global mientras elevamos dudas a un bot?

Fuente: https://elpais.com