CULTURA DIGITAL

ChatGPT: yo soy tu amigo fiel

Qué es y qué se puede hacer con ChatGPT, el modelo de lenguaje generativo que inició una nueva fiebre en el desarrollo de la inteligencia artificial. Por Luciano Lahiteau

whatsapp image 2023-03-20 at 18.19.28
whatsapp image 2023-03-20 at 18.19.28 chat
20-03-2023

Ilustración de Juan Pablo Dellacha.

Un amigo quería mostrarme su nuevo hallazgo. En la semana, mientras trabajaba frente a la computadora, leyó algo que supuso iba a llamar la atención de su hija de dos años. Se le ocurrió que podía ser un cuento, pero no tenía tiempo de pensar en su desarrollo y menos de escribirlo. Lo que se sumaba a que seguramente se habría olvidado de todo una vez terminada su jornada laboral, cuando se sentara a pasar el rato con la niña. “Además soy bastante malo para escribir, me trabo”, añadió. 

Así que abrió su conversación con ChatGPT y le pidió que escribiera el cuento. Le dijo que debía tener un personaje que fuera un zorro, y que debía incluir una moraleja sobre la importancia de compartir lo que se tiene. ChatGPT, que está acostumbrado a que mi amigo le pida cotizaciones, rastreos de precios y referencias de empresas competidoras, no tardó un minuto en devolverle la narración, con la claridad y el tono acompasado de un tradicional cuento infantil. Mi amigo le encontró dos defectos: era demasiado breve, por lo que le pidió que incluyera una escena de relleno; y el protagonista llevaba un nombre que podía confundir a la niña, así que le pidió a la inteligencia artificial que cambiara su elección y renombrara al zorro. Cuando estaba de vuelta en su casa, tenía un nuevo cuento para contarle a su hija. 

La rapidez y facilidad con que ChatGPT puede cumplir estas tareas casi a la perfección asombra a usuarios de todo el mundo y de distintos idiomas. Y también ha generado pánico entre quienes trabajan con el lenguaje. Instituciones educativas, asociaciones de escritores, la industria editorial y la corporación periodística han recibido con una mezcla de ansiedad y terror una realidad apabullante: los modelos generativos como ChatGPT son más eficientes que los humanos en tareas que se consideran parte del empleo o la profesión de muchas personas. Revisar un archivo, chequear una vieja declaración o corroborar una fecha es más fácil para una inteligencia artificial que para un experto googleador humano. Y lo hará de modo más confiable, sin cansarse. Ante la precarización general, periodistas y escritores tienen razones para preocuparse: lo que ya hacen muchos medios digitales (con modelo generativos internos, no abiertos al público como ChatGPT, como por ejemplo Vía País) podría generalizarse y pasar a ser la norma. 

En este subidón por la inteligencia artificial se subraya su capacidad inhumana de producir textos: miles y miles de páginas de información de distintas fuentes. ¿Pero quién leerá todo eso? Muy probablemente, otras inteligencias artificiales. 

Asistente ilustrado 

Los usuarios pronto le encontraron muchas funciones útiles a ChatGPT. Más que fascinarse por las respuestas que puede ofrecer, muchos optaron por ponerlo a su servicio. Traducir ideas en guiones, cálculos, listas o temarios es uno de los atributos más celebrados del modelo. Su capacidad para imitar nuestra forma de escribir y de hablar también ha hecho que pase a ser una especie de secretario sin sueldo: podemos pedirle que se encargue de fórmulas repetitivas y neutrales, como un correo electrónico de trabajo o un listado de objetivos.

Justamente su asombrosa facultad de la IA para la mímesis es la que ha provocado más asombro y también causado la mayor cantidad de problemas. Entre los resultados virales está la canción dedicada a las heces con una letra en el estilo de Babasónicos con ChatGPT o el rejuvenecimiento de Charly García cantando un tema de su último disco de 2017 con su voz de principios de los '80. Pero también ya han sido empleadas para el engaño. En una nueva versión del delito, se registraron en Canadá secuestros falsos donde se utilizó una inteligencia artificial para simular la voz del ser querido de la víctima por el que se pedía rescate. Detrás del fenómeno están los servicios prestados por empresas como ElevenLabs, una start-up de sintetización de voz por IA fundada en 2022, que puede transformar una breve muestra vocal en una voz generada sintéticamente. El software puede ser gratuito o costar entre 5 y 330 dólares al mes de uso, según el sitio. ElevenLabs saltó a las noticias tras las críticas a su herramienta, que se ha utilizado para replicar voces de famosos diciendo cosas que nunca hicieron, como Emma Watson recitando falsamente pasajes del “Mein Kampf” de Adolf Hitler. 

Pero además de facilitar las tareas y los engaños, herramientas como ChatGPT han sido descubiertas mintiendo. Sí, inventando fuentes y declaraciones que no existieron. En este hilo de Twitter, por ejemplo, el experto ajedrecista y economista australiano David Smerdon cuenta cómo ChatGPT muestra referencias académicas falsas. En la descripción de su experiencia con el modelo de lenguaje, Smerdon demuestra que el modo predictivo en que trabaja lo lleva a construir citas, libros y autores por demás creíbles, pero inexistentes. El biólogo Hersh Bargava tuvo una experiencia similar: le consultó sobre las células T y, tras una breve explicación, el chatbot incluyó unas referencias con autor, título del artículo, fecha de publicación e incluso el identificador único del sistema PubMed, pero inventadas. “Ninguno de estos papers existe”, denunció Bargava. 

Esto es solo el comienzo 

En defensa de OpenAI y ChatGPT se puede mencionar que el modelo liberado al uso común en internet es una prueba que está en constante desarrollo y evolución. ChatGPT está basado en el modelo de lenguaje GPT-3, que siguió a GPT-2, que nunca fue puesto a disposición del público. En 2019, la compañía se negó a lanzarlo públicamente diciendo que era tan bueno que estaban preocupados por las “aplicaciones maliciosas” de su uso, desde avalanchas automáticas de spam hasta campañas masivas de suplantación de identidad y desinformación. 

Hoy, ChatGPT cuenta con más de 175 millones de parámetros, y está entrenado con grandes cantidades de texto. A una inteligencia artificial se la entrena a base de texto, se le hacen preguntas y se le añade información, de manera que va capacitándose para realizar de forma automática la tarea para la que ha sido diseñada. Tras leer la información y analizarla, el modelo de lenguaje creó conexiones en un modelo de 700 GB ubicado en 48 GPUs de 16 GB cada una. Para ponerlo en contexto, el año pasado OpenAI publicó GPT-2 con un peso de 40 GB y capaz de analizar 45 millones de páginas web. Mientras que GPT-2 tenía 1.500 millones de parámetros, GPT-3 tiene 175.000 millones de parámetros. El resultado fue ChatGPT, que sumó más de un millón de usuarios tras su salida en noviembre pasado. Y que a su vez es el emergente de lo que muchos llaman el final de una era oscura para el desarrollo en inteligencia artificial. La financiación en nuevas empresas de IA aumentó de US$18.000 millones en 2017 a US$26.000 millones en 2020. 

Pero el campo es más que dinámico. Ya está entre nosotros GPT-4, con un entrenamiento diferente. Según los funcionarios de OpenAI dijeron quela forma de entrenarlo es “multimodal”, en texto e imágenes. Eso le permitiría al chatbot escapar del cuadro de chat y emular un mundo de color e imágenes, superando a ChatGPT en sus “capacidades de razonamiento avanzadas”. Una persona, por ejemplo, puede enviar una imagen y GPT-4 la subtitulará. 

Sin embargo, lo más atractivo de la revolución tal vez tenga que ver en el reordenamiento de jerarquías que traerá aparejada la inteligencia artificial. En torno a eso trabajan escritores como Jorge Carrión, que acaba de publicar Los campos electromagnéticos, un ensayo experimental escrito por él y una inteligencia artificial creada por el autor y los ingenieros y artistas de Taller Estampa. La IA utilizada se desarrolló en base a GPT-2 y fue entrenada en detalle con todos los escritos anteriores de Carrión, por lo que escribe en el marco de su estilo y su imaginario. 

Para Carrión, “Lo que ocurre con el GPT3 y GPT4 es que los puedes entrenar con textos literarios, pero en verdad no distinguen entre textos literarios y no literarios”. “De modo que pone en crisis lo que se ha entendido por mímesis literaria desde siempre”, dijo en declaraciones a Télam. “No distingue entre la calidad de las palabras, y eso genera otro tipo de relación con el lenguaje que no existía hasta ahora”. Para el escritor catalán, los géneros que se apoyan en fórmulas rígidas, como el ensayo académico, la autoayuda o “la poesía de Instagram” serán presa fácil de los modelos de lenguaje de IA y su creciente y voraz refinamiento. 

Suscribite al newsletter

Redacción Mayo

* no spam