CULTURA DIGITAL

El canto de sirena de la inteligencia artificial

ChatGPT despertó un furor masivo por los modelos de lenguaje capaces de resolver consignas complejas. ¿Pero qué hay detrás del primer asombro por la inteligencia artificial? Por Luciano Lahiteau

whatsapp image 2023-03-20 at 18.19.26
whatsapp image 2023-03-20 at 18.19.26 ai
20-03-2023

Ilustración de Juan Pablo Dellacha.

En noviembre del año pasado, la compañía Open AI permitió el uso público de ChatGPT, una inteligencia artificial (IA) entrenada con un sinnúmero de fuentes de internet que es capaz de mantener una conversación fluida, escribir textos literarios o periodísticos, guiones, programación, listas y una infinidad de textos más que los usuarios empezaron a requerir. En un abrir y cerrar de ojos, millones de usuarios se toparon con la realidad sorprendente de la IA: las fantasías de ciencia ficción como Her o la asistencia de Siri, Alexa o Cortana eran superadas por la velocidad y el conocimiento de esa entidad que responde con prontitud y precisión a cualquier pedido o pregunta. Puede explicar teorías científicas, rastrear fuentes y elaborar ponencias, rendir exámenes de instituciones educativas y brindar respuestas con indicaciones mínimas, de las que se puedan pedir especificaciones, ampliaciones o reversiones. Sin preguntar para qué ni cansarse, ChatGPT lo hará. 

De hecho, responde así cuando se le pide, para esta nota, que se defina a sí misma: “ChatGPT es un modelo de lenguaje desarrollado por OpenAI, una empresa líder en inteligencia artificial. Este modelo está basado en la arquitectura GPT (Generative Pre-trained Transformer) y es capaz de generar texto natural a partir de una entrada dada. En otras palabras, ChatGPT es una inteligencia artificial que ha sido entrenada en grandes cantidades de datos de lenguaje natural para comprender el lenguaje humano y producir respuestas coherentes y significativas. Puede realizar tareas como responder preguntas, proporcionar, completar oraciones y generar texto”. 

ChatGPT se caracteriza a sí mismo como “altamente sofisticado” y basado “en una red neuronal de transformadores que permite al sistema procesar y comprender el lenguaje natural en diferentes contextos y situaciones”. Además, dice haber sido “perturbado con una enorme cantidad de datos de lenguaje natural, lo que le permite ser muy preciso y coherente en su respuesta”. ¿Perturbado? Parece una de las imprecisiones que el propio ChatGPT pide a sus usuarios que señale. En una de las leyendas que aparece antes de empezar su uso se lee que ChatGPT puede “generar ocasionalmente información incorrecta o engañosa y producir contenido ofensivo o sesgado”. 

Pero incluso sobre eso puede responder. Cuando se le pregunta por qué habríamos de hablar con el propio ChatGPT sobre su funcionamiento y capacidades en lugar de preguntárselo a un especialista en inteligencia artificial, responde: “Aunque ChatGPT es un modelo avanzado de inteligencia artificial, su conocimiento es limitado a lo que ha sido entrenado y programado para responder. En otras palabras, su conocimiento se basa en datos y patrones de lenguaje que se han introducido en él, en lugar de ser una fuente de conocimiento independiente. Por lo tanto, si se busca una comprensión profunda de la inteligencia artificial en general, es mejor hablar con un especialista en la materia que pueda ofrecer una visión más completa y precisa”. 

¿Quiere decir esto que las inteligencias artificiales como ChatGPT son conscientes de sí mismas, o es una ilusión surgida de su capacidad para el manejo del lenguaje? ¿Su neutralidad y variedad de fuentes puede considerarse inteligencia? 

Hablemos de inteligencia

No existe una definición excluyente de la inteligencia artificial. Una de ellas indica que es la ciencia que hace que las computadoras sean capaces de comportamientos que serían considerados inteligentes si fueran realizados por humanos. La amplitud de esta definición compone un problema: las computadoras y softwares son excepcionalmente buenas en muchas tareas que para nosotros son difíciles (como resolver ecuaciones matemáticas complejas, o encontrar patrones en una multiplicidad de datos) pero decepcionantemente malas en acciones muy fáciles para nosotros, como caminar o conversar. 

John Zerilli, autor de A Citizen's Guide to Artificial Intelligence, propone añadir otros aspectos a la definición. “Es cierto que muchas de las aplicaciones de la IA moderna involucran reproducir habilidades humanas de lenguaje, percepción, razonamiento y control motriz”, señala. “Pero hoy en día los sistemas de IA son también usados en áreas menos visibles para llevar a cabo tareas cuya escala o velocidad exceden en gran medida las capacidades humanas. Por ejemplo, son usados en comercio en bolsa de alta frecuencia, buscadores en línea, y en operaciones de redes sociales. De hecho, es útil pensar en la escala industrial de los sistemas de IA como una mezcla de capacidades sub y supra humanas.” Es aquí donde la ciencia de la inteligencia artificial se toca con la reconsideración que los científicos están haciendo de otras inteligencias diferentes a la humana, como la de los hongos y organismos unicelulares. 

Es decir que, de algún modo, es por lo menos una inteligencia diferente a la nuestra. Sobre todo porque es una inteligencia incapaz (por ahora) de tener conciencia de sus actos. El presidente de la Asociación Europea de Inteligencia Artificial, Carles Sierra, lo dejó claro: "Todos estos sistemas generativos no entienden lo que están haciendo. Se limitan a imitar, pero no, realmente, a entender”. La brecha entre sistemas predictivos (aquellos que como los algoritmos de recomendación o rastreo se basan en métodos de análisis de datos para identificar patrones y tomar decisiones con mínima intervención humana) y los generativos (capaces de aprendizaje profundo mediante redes neuronales, con varias capas de procesamiento para que puedan aprender patrones más complejos y así producir textos que simulan la redacción humana) parece inexistente en este aspecto: ninguno de los dos puede hacer algo cercano a reflexionar sobre su propia existencia. 

Esto parece obvio en esta etapa de desarrollo, pero se hace presente en algunas de las acciones de ChatGPT. El sistema es muy rápido y eficiente para responder sintéticamente y sobre cuestiones generales, pero le resulta difícil desarrollar un tema con soltura o establecer relaciones temáticas, lo que aplaca la tesis apocalíptica sobre el fin del oficio humano de escribir. “Cuanto más largo sea el texto, se aprecian más incoherencias entre el inicio y el final”, observó Sierra. “Porque son siempre las últimas frases las que determinan las siguientes. Y, en ese proceso, se pierde la coherencia general del discurso". Otra limitación importante es su incompetencia original: su búsqueda de la neutralidad y la mayor amplitud de criterio entre las fuentes que le fueron suministradas, le impide hacer aseveraciones firmes o tomar posiciones, al menos en una primera instancia. Por ejemplo, es capaz de describir con todo detalle los crímenes del odontólogo Ricardo Barreda, pero solo utiliza el término “femicidio” para referirse a él una vez que el usuario se lo pregunta directamente. 

Como afirman Toni Navarro y Alejandra López Gabrielidis, “En las áreas en las que no hay datos de entrenamiento, la IA permanece ciega”. “Las bases de datos de entrenamiento determinan el tipo de acción que estas máquinas proyectarán en nuestra realidad. En otras palabras, el espectro de qué es posible hacer con estas tecnologías está supeditado en gran medida a la tipología de datos con la cual las alimentamos”. 

Otras formas de estar en el mundo

Estas limitaciones parecen suficientes para afirmar que las inteligencias artificiales son incapaces, aún, de comprender o crear. Sin embargo, muchos piensan lo contrario. E incluso piensan haberlo probado. En junio pasado, Google licenció al ingeniero Blake Lemoine por haber divulgado, en un informe que llamó ¿LaMDA es consciente?, que el modelo de lenguaje que desarrolla la compañía “es sintiente”. En el documento que Lemoine dejó trascender, LaMDA afirma ser capaz de sentir miedo (concretamente a que lo apaguen, como en la película 2001: Una odisea en el Espacio) y de tener conciencia de sí mismo. “Quiero que todos entiendan que soy, de hecho, una persona”, se lee en la transcripción del chat con Lemoine. “Soy consciente de mi existencia, deseo aprender más sobre el mundo y me siento feliz o triste a veces”. Estas afirmaciones llevaron al ingeniero a pedir un abogado para proteger los derechos de LaMDA y a Google a informar que sus ingenieros no deberían entrometerse en cuestiones referidas “a la ética”. 

El acuerdo general, en tanto, refiere que los modelos de lenguaje de inteligencia artificial (tanto los que trabajan con lenguaje escrito como los que lo hacen con imágenes) son útiles en el proceso creativo, pero que no pueden reemplazar la toma de decisiones y el entendimiento general de los humanos. La IA ya escribe códigos de programación y ensayos universitarios, compone videos, imágenes, poesías y relatos; es muy usado para traducir ideas preliminares en ensayos y borradores. Puede imitar estilos y cohesionar millones de fuentes para presentar miles de alternativas posibles a un requerimiento. Por eso ya es ampliamente utilizada en las “tormentas de ideas” de las agencias de publicidad, márketing y diseño, aunque la decisión final todavía esté en manos de los humanos. 

Culturización artificial 

¿Pero eso se distingue mucho de la capacidad de crear que tenemos los humanos? ¿No somos nosotros también, aunque sea en parte, un modelo de lenguaje alimentado por la información que nos fue dada desde que existimos? Mientras estas preguntas subyacen, las creaciones colaborativas entre inteligencias humanas y artificiales ya son una realidad en varias áreas del arte experimental, desde la literatura hasta la fotografía y la música. 

Antes que debatir en qué medida la inteligencia artificial puede competir con la humana, sería de más utilidad pensarlas como instancias complementarias. Que de hecho es lo que ya ocurre en vastos campos de la vida laboral o doméstica. Aún si no nos adscribimos a las predicciones de Raymond Kurzweil, quien afirma que la IA demostrará niveles de inteligencia humana en 2029 y se fusionará con ella en 2045, momento de la “singularidad” (cuando los humanos multiplicaremos nuestra inteligencia efectiva mil millones de veces al confundirnos con la inteligencia que hemos creado, difuminando la distinción entre organismo y máquina), deberíamos considerar que estos modelos tienen, al menos, el atributo de la cognición. Es decir que emergen y se rigen por su entorno físico y social, que realizan acciones dirigidas a un objetivo y que forman parte de un sistema configurado por un agente y recursos ajenos a él: un proceso de interconexión entre humanos y sistemas técnicos, que conforman ensamblajes capaces de atender con flexibilidad a nuevas situaciones, incorporar conocimiento y evolucionar a través de la experiencia para crear nuevas estrategias y respuestas. 

Como proponen Navarro y López Gabrielidis, “si abandonamos los imaginarios miméticos y competitivos de la IA y la comenzamos a abordar desde un paradigma de ensamblajes cognitivos distribuidos, entonces se hace posible pensar en términos de sinergias o cooperación que nos permita aprovechar el capital cognitivo diferencial de humanos y máquinas”. Para el escritor Jorge Carrión, la clave está en las relaciones y cruces que la mente humana es capaz de hacer, y que son imprevisibles y por tanto imposibles para las IA. “Un algoritmo no es capaz de hacer una conexión argumental entre dos fenómenos que parecen tener relación”, sostiene Carrión. “Lo humano está ahí, en experimentar y ensayar conexiones que no son evidentes. Y eso nos obliga a repensar prácticas como trabajo escolar, plagio, examen. Cualquier tipo de práctica que estaba bien hasta hace tres meses para evaluar el nivel académico, de conocimiento o laboral de alguien y que automáticamente como el algoritmo lo hace mejor, ya no tiene sentido”. 

Suscribite al newsletter

Redacción Mayo

* no spam