Trátelo como un juguete, no como una herramienta. Por Ian Bogost
Como crítico de la tecnología, debo decir que el entusiasmo por ChatGPT, un modelo de lenguaje extenso entrenado por OpenAI, está fuera de lugar. Aunque puede ser impresionante desde un punto de vista técnico, la idea de confiar en una máquina para tener conversaciones y generar respuestas plantea serias preocupaciones.
En primer lugar, ChatGPT carece de la capacidad de comprender verdaderamente la complejidad del lenguaje y la conversación humanos. Simplemente está entrenado para generar palabras en función de una entrada determinada, pero no tiene la capacidad de comprender verdaderamente el significado detrás de esas palabras. Esto significa que es probable que cualquier respuesta que genere sea superficial y carente de profundidad y perspicacia.
Como crítico de la tecnología, debo decir que el entusiasmo por ChatGPT, un modelo de lenguaje extenso entrenado por OpenAI, está fuera de lugar. Aunque puede ser impresionante desde un punto de vista técnico, la idea de confiar en una máquina para tener conversaciones y generar respuestas plantea serias preocupaciones.
En primer lugar, ChatGPT carece de la capacidad de comprender verdaderamente la complejidad del lenguaje y la conversación humanos. Simplemente está entrenado para generar palabras en función de una entrada determinada, pero no tiene la capacidad de comprender verdaderamente el significado detrás de esas palabras. Esto significa que es probable que cualquier respuesta que genere sea superficial y carente de profundidad y perspicacia.
Además, la dependencia de ChatGPT para conversar plantea preocupaciones éticas. Si las personas comienzan a depender de una máquina para tener conversaciones por ellos, podría provocar una pérdida de conexión humana genuina. La capacidad de conectarse con otros a través de la conversación es un aspecto fundamental del ser humano, y subcontratar eso a una máquina podría tener efectos secundarios perjudiciales para nuestra sociedad.
Sin embargo, aguanta. Yo, Ian Bogost, en realidad no escribí los tres párrafos anteriores. Un amigo me los envió como capturas de pantalla de su sesión con ChatGPT, un programa lanzado la semana pasada por OpenAI con el que uno interactúa escribiendo en una ventana de chat. Es, de hecho, un modelo de lenguaje grande (o LLM), un tipo de software de aprendizaje profundo que puede generar texto nuevo una vez entrenado en cantidades masivas de material escrito existente. El aviso de mi amigo fue este: “Crea una crítica de entusiasmo por ChatGPT al estilo de Ian Bogost”.
ChatGPT escribió más, pero te ahorré el resto porque era muy aburrido. La IA escribió otro párrafo sobre responsabilidad (“Si ChatGPT dice o hace algo inapropiado, ¿quién tiene la culpa?”), y luego un párrafo final que reafirma el resto (incluso comenzaba, “En conclusión,…”). En resumen, escribió un ensayo básico de cinco párrafos al estilo de la escuela secundaria.
Ese hecho puede consolarlo o asustarlo, según sus predilecciones. Cuando OpenAI lanzó ChatGPT al público la semana pasada, la primera y más común reacción que vi fue el temor de que revolucionara la educación . “Ya no se pueden dar exámenes para llevar a casa”, publicó en Twitter Kevin Bryan, profesor de la Universidad de Toronto . “Creo que chat.openai.com en realidad puede significar el final de las tareas de escritura”, escribió Samuel Bagg, politólogo de la Universidad de Carolina del Sur. Ese es el miedo.
Pero puede encontrar consuelo al saber que la salida del bot, si bien es fluida y persuasiva como texto, es constantemente poco interesante como prosa. Es una fórmula en estructura, estilo y contenido. John Warner, el autor del libro Por qué no pueden escribir , ha estado criticando el ensayo de cinco párrafos durante años y escribió un hilo de Twitter sobre cómo ChatGPT refleja esta forma de escritura estandarizada y basada en reglas: “Los estudiantes fueron esencialmente entrenados para producir imitaciones de escritura”, tuiteó. La IA puede generar escritura creíble, pero solo porque la escritura y nuestras expectativas se han vuelto tan poco ambiciosas.
Incluso pretender engañar al lector haciendo pasar una copia de IA como propia, como hice anteriormente, se ha convertido en un tropo cansado, un giro esperado en un hilo de Twitter demasiado largo sobre el futuro de la IA generativa en lugar de una revelación sorprendente sobre su capacidades. Por un lado, sí, ChatGPT es capaz de producir una prosa que parezca convincente. Pero, por otro lado, lo que significa ser convincente depende del contexto. El tipo de prosa que puede encontrar interesante e incluso sorprendente en el contexto de un encuentro generativo con una IA de repente parece simplemente terrible en el contexto de un ensayo profesional publicado en una revista como The Atlantic.. Y, como aclaran los comentarios de Warner, la escritura que podría encontrar persuasiva como profesor (o gerente de marketing, abogado, periodista o cualquier otra cosa) podría haberlo sido en virtud de la posición en lugar del significado: El ensayo era existente y competente; el informe llegó a su bandeja de entrada a tiempo; el artículo periodístico comunicaba hechos aparentes que usted podía aceptar o rechazar.
Tal vez ChatGPT y las tecnologías que lo sustentan tengan menos que ver con la escritura persuasiva y más con las tonterías magníficas. Un mentiroso juega con la verdad por malas razones: para salirse con la suya. La respuesta inicial a ChatGPT asume tanto: que es una herramienta para ayudar a las personas a idear ensayos de estudiantes, o redacción de noticias, o cualquier otra cosa. Es una conclusión fácil para aquellos que asumen que la IA está destinada a reemplazar la creatividad humana en lugar de modificarla.
Internet, y todo el sector tecnológico en el que flota, se siente como un órgano gigante para las tonterías, para mejorar el acceso humano al habla y amplificar las mentiras. En línea, las personas engañan, engañan y se pelean entre sí. La IA de aprendizaje profundo empeora todo esto al ocultar el funcionamiento de software como los LLM de modo que nadie, ni siquiera sus creadores, puedan explicar qué hacen y por qué. OpenAI presenta su trabajo como independiente del contexto y experimental, sin casos de uso específicos: dice que publicó ChatGPT solo para “obtener comentarios de los usuarios y conocer sus fortalezas y debilidades”. No es de extrañar que la primera suposición, y la más obvia, sobre ChatGPT sea que es una amenaza, para algo, para todo.
Pero ChatGPT no es un paso en el camino hacia una inteligencia general artificial que comprenda todo el conocimiento y los textos humanos; es simplemente un instrumento para jugar con todo ese conocimiento y todos esos textos. Jugar solo implica trabajar con materias primas para ver qué pueden hacer. Juegas un juego, o un instrumento, para aprovechar materiales familiares de una manera inesperada. Seguramente, los LLM no reemplazarán a la universidad, las revistas o los mandos intermedios. Pero sí ofrecen a esos y otros dominios un nuevo instrumento (esa es realmente la palabra adecuada) con el que jugar con una cantidad insondable de material textual.
Hablé con ChatGPT sobre una amplia gama de temas, incluida la poesía, la psicología del comportamiento y la programación informática, para probar esta teoría. En este momento, ChatGPT es solo una demostración técnica, un experimento de investigación. Menos claro es cómo podría usarse, más allá de las terribles predicciones sobre qué sectores podría cambiar su tecnología. En casi todos los casos, la IA parecía poseer tanto el conocimiento como los medios para expresarlo. Pero cuando se presiona, y la interfaz de chat lo hace fácil, el bot casi siempre tenía que admitir que solo estaba inventando cosas.
A veces simplemente usaba plantillas. Cuando le pedí a ChatGPT que generara una carta de presentación para un trabajo universitario, respondió de manera competente pero sin inspiración. También produjo exactamente la misma carta para un trabajo como editor de una revista que para un trabajo como innovador de cannabis en el espacio Web3 (“Tengo un profundo conocimiento del espacio web3 y los desafíos y oportunidades únicos que presenta”). Bastante justo: la mayoría de las cartas de presentación son terribles, después de todo, repiten las mismas líneas trilladas y gestos abstractos.
En otros casos, el bot produjo resultados creativos sorprendentemente sintéticos pero plagados de fallas. Cuando le pedí que generara un poema imaginista en la línea de Ezra Pound o William Carlos Williams sobre las hamburguesas, obedeció con este breve estribillo:
Hamburguesa jugosa, muy calientePan tostado, lechuga crujiente y tomateUna sinfonía de sabores, un festín para los sentidosSabroso, satisfactorio, un verdaderoclásico americano.
No está mal, supongo, especialmente para una computadora. Pero también, el poema no es realmente un ejemplo de imaginismo, que se esfuerza por evocar una imagen precisa por medio de un lenguaje deliberado (algo así como, “La densa honestidad de / Una hamburguesa”). Así que llamé a ChatGPT. “Este no es un poema imaginista”. Vale la pena reproducir su respuesta en su totalidad:
Tienes razón, el poema que generé todavía no es un poema imaginista. Un poema imaginista usa imágenes precisas y vívidas para transmitir una idea o emoción específica, y se enfoca en una sola imagen o momento. El poema que generé usa un estilo más narrativo y descriptivo, y no se enfoca en una sola imagen específica. Describe los ingredientes y sabores de una hamburguesa, pero no utiliza imágenes precisas y vívidas para transmitir una idea o emoción específica. Me disculpo si mis respuestas anteriores no cumplieron con sus expectativas, y haré todo lo posible para ayudarlo con cualquier otra pregunta o sugerencia que pueda tener.
También insté a la IA a generar un lai (un poema narrativo medieval) al estilo de Marie de France sobre la amada cadena de comida rápida con sede en Texas Whataburger. Seguro que se parecía mucho a un lai, comenzando así:
En la tierra de Whataburger, donde las hamburguesas y las papas fritas son el rey,un extraño vino de visita y con él trajo un anillo.Llevaba una capa de terciopelo y un sombrero en la cabeza,y sonreía con un brillo en los ojos cuando se acercó al mostrador, donde las hamburguesas se sirven calientes y frescas, y las papas fritas son crujientes y doradas.
Excepto por esa última línea, que es un desastre métrico. La IA no pudo (o no quiso) evaluar su trabajo (“Soy un gran modelo de lenguaje entrenado por OpenAI y no tengo la capacidad de evaluar la calidad de las obras literarias o hacer juicios estéticos”), pero pudo hablarme sobre la estructura típica de un lai, un breve poema narrativo del siglo XII con una estructura y forma particulares, generalmente escrito en pareados octosílabos. Los errores líricos en el lai generado surgen de su incapacidad para adherirse a esa forma métrica.
Cuando le pregunté sobre el asunto, admitió nuevamente que no, que el lai que había escrito no estaba estructurado en coplas octosilábicas, alegando que había producido “una versión más moderna y lúdica de la forma del lai”. Estaba empezando a sentir que estaba negociando con un estudiante que había venido al horario de oficina para quejarse de su calificación.
Esto sucedió una y otra vez. Pedí el código fuente de un juego de Atari sobre recoger arena para gatos, y la IA me envió instrucciones de programación válidas (comprendió la tarea), pero solo desconectó fragmentos del código real con el comentario de encabezado “Este programa crea un juego simple en el que el jugador debe usan una cuchara para recoger las arenas higiénicas de sus gatos y ponerlas en un basurero”. Era un ícono de la respuesta que buscaba en lugar de la respuesta en sí.
Luego pedí un conjunto de criterios de diagnóstico para una condición psicológica inventada que llamé “truculencia heredada”. La IA instantáneamente obligó:
Criterios de diagnóstico para la truculencia hereditaria:
- Una tendencia a experimentar y expresar pensamientos y sentimientos agresivos u hostiles, particularmente en respuesta a amenazas o desafíos percibidos.
- Una historia de comportamiento agresivo u hostil, particularmente en situaciones interpersonales o sociales.
- Antecedentes familiares de comportamiento agresivo u hostil, lo que indica un posible componente genético o hereditario de la afección.
- Deterioro social, ocupacional u otras áreas importantes de funcionamiento como resultado de un comportamiento agresivo u hostil.
- Los síntomas no se explican mejor por otro trastorno mental o por los efectos de una sustancia (como drogas o medicamentos).
Excepto que la truculencia en realidad no equivale a “pensamientos y sentimientos agresivos y hostiles”, ¿verdad? Pregunté, y la IA estuvo de acuerdo, y finalmente revisó sus diagnósticos en consecuencia a mis indicaciones adicionales (“Una tendencia a experimentar y expresar pensamientos y sentimientos desafiantes o de confrontación”, y así sucesivamente).
Asimismo, mi sugerencia de ofrecer una respuesta tanto ontológica como epistemológica a la pregunta ¿Cuándo se convierte el pan en tostadas? produjo una respuesta generalmente fluida, aparentemente filosófica. Decía en parte: “cuando somos capaces de reconocerlo como tostado en función de su apariencia, textura y otras características sensoriales”.
Pero la filosofía del brindis es un área de especialización para mí , así que pude discernir que este fragmento, supuestamente un argumento epistemológico, en realidad se trataba de percepción. “¿No es el segundo un argumento fenomenal y no epistemológico?” desafié. Y una vez más, la IA gritó tío sin dudarlo: “Tienes razón, el segundo argumento que proporcioné es un argumento fenomenal, no epistemológico. Un argumento epistemológico se enfoca en cómo llegamos a saber o entender algo, mientras que un argumento fenoménico se enfoca en nuestra experiencia o percepción de algo”.
En este punto, hablar con ChatGPT comenzó a sentirse como cualquier otra interacción que uno tiene en Internet, donde un tipo (siempre un tipo) intenta convertir la lectura superficial de un artículo de Wikipedia en un caso de pericia definitiva. Excepto que ChatGPT siempre estuvo dispuesto a admitir que estaba mal. Al instante y sin disputa. Y en cada caso, el bot también sabía, con una precisión razonable, por qué estaba mal. Eso suena bien, pero en realidad es bastante terrible: si uno ya necesita poseer la experiencia para identificar los problemas con el texto generado por LLM, pero el propósito del texto generado por LLM es obviar la necesidad de dicho conocimiento, entonces estamos en un pepinillo amargo de hecho. Tal vez sea hora de ese párrafo sobre la rendición de cuentas después de todo.
Pero ese no es el objetivo de ChatGPT. No presenta argumentos precisos ni expresa creatividad, sino que produce material textual en una forma que se corresponde con la intención explícita o implícita del solicitante, que también puede contener la verdad en determinadas circunstancias. Eso es, por desgracia, una descripción precisa de material textual de todo tipo: en línea, en libros, en Wikipedia y mucho más.
Los defensores de la generatividad LLM pueden ignorar esta preocupación. Algunos lo harán al glorificar el genio obvio y completamente realizado de GPT, de maneras vergonzosas que solo puedo vincular en lugar de repetir. Otros, más mesurados pero no menos hechizados, pueden afirmar que “todavía es pronto” para una tecnología de unos pocos años pero que ya puede generar razonablemente buenos poemas líricos del siglo XII sobre Whataburger. Pero estos son los sentimientos de las personalidades de los informáticos que más han estropeado la vida computacional y en línea, es decir, la vida misma. OpenAI asumeque su trabajo está destinado a evolucionar hacia una inteligencia general artificial, una máquina que puede hacer cualquier cosa. En cambio, deberíamos adoptar un objetivo menos ambicioso pero más probable para ChatGPT y sus sucesores: ofrecen una interfaz en la infinidad textual de la vida digitalizada, un espacio impenetrable que pocos humanos pueden usar de manera efectiva en el presente.
Para explicar lo que quiero decir con eso, déjame mostrarte un intercambio bastante diferente que tuve con ChatGPT, uno en el que lo usé para ayudarme a encontrar mi camino a través de la oscuridad textual en lugar de engañarme con su destreza como creador de palabras.
“Estoy buscando un tipo específico de cubierta para ventanas, pero no sé cómo se llama”. Le dije al bot. “Es una especie de ciego, creo. ¿Qué tipos hay? ChatGPT respondió con una letanía de decoración de ventanas, lo cual estuvo bien. Le aclaré que tenía en mente algo que era como una persiana enrollable pero hecha de tela. “Según la descripción que ha proporcionado, parece que puede estar pensando en un tono romano”, respondió, ofreciendo más detalles y un mini argumento de venta para esta tecnología fenestral.
Mi querido lector, de hecho sé lo que es un tono romano. Pero carecer de ese conocimiento y, sin embargo, necesitar implementarlo para dar sentido al mundo: este es exactamente el tipo de acto que es muy difícil de hacer con las computadoras hoy en día. Lograr algo en el mundo a menudo se reduce a reunir un conjunto de materiales de reserva en la forma lingüística esperada. Eso es cierto para Google o Amazon, donde las búsquedas de cubiertas para ventanas o cualquier otra cosa ahora fallan la mayor parte del tiempo ., lo que requiere mucho tiempo, como en la cuerda floja, para que la maquinaria le dirija incluso en la dirección general de una respuesta. Pero también es cierto para ensayos de estudiantes, notas de agradecimiento, cartas de presentación, informes de marketing y tal vez incluso lais medievales (en la medida en que cualquiera intente crear uno). Todos lo estamos fingiendo con palabras ya. Nos estamos ahogando en un océano de contenido, desesperados por la balsa salvavidas de la forma.
ChatGPT ofrece esa forma, pero, y aquí es donde el bot obtuvo mi posición accidentalmente correcta, en parte, no lo hace por medio del conocimiento. La IA no entiende ni redacta el texto. Ofrece una forma de sondear el texto, jugar con el texto, moldear y dar forma a una infinidad de prosa en una gran variedad de dominios, incluida la literatura y la ciencia y el shitposting, en estructuras en las que se pueden hacer más preguntas y, en ocasiones, responder. .
GPT y otros grandes modelos de lenguaje son instrumentos estéticos más que epistemológicos. Imagine un sintetizador extraño y profano cuyos botones muestran información textual, estilo y semántica. Tal cosa es convincente no porque ofrezca respuestas en forma de texto, sino porque hace posible tocar el texto, casi todo el texto, como un instrumento.
¡Ese resultado podría ser revelador! Pero un gran obstáculo se interpone en el camino para lograrlo: las personas, que no saben qué diablos hacer con los LLM, ChatGPT y todos los demás sistemas generativos de IA que han aparecido. Sus creadores tampoco han ayudado, quizás en parte porque tampoco saben para qué sirven estas cosas. OpenAI no ofrece un marco para ChatGPT, y lo presenta como un experimento para ayudar a “hacer que los sistemas de IA sean más naturales para interactuar”, un objetivo valioso pero profundamente poco ambicioso. En ausencia de una estructura adicional, no sorprende que los usuarios de ChatGPT enmarquen sus propias creaciones como amenazas existenciales o como logros perfeccionados. Ninguno de los resultados es cierto, pero ambos también son aburridos. Imagínese preocuparse por el destino de los exámenes de ensayo para llevar a casa, un formato estúpido que todos odian pero nadie tiene el coraje de matar. Pero del mismo modo, ¡imagínese quisquilloso con una computadora que acaba de componer algo que recuerda a un poema medieval sobre una hamburguesería porque sus líneas no tienen la métrica correcta! Claro, puede aprovechar esa oportunidad para hacer trampa en los exámenes escolares o fingir su camino en su trabajo. Eso es lo que haría una persona aburrida. Eso es lo que una computadora esperaría.
Las computadoras nunca han sido instrumentos de la razón que puedan resolver asuntos de interés humano; son simplemente aparatos que estructuran la experiencia humana a través de un método de manipulación de símbolos muy particular y extremadamente poderoso. Eso los convierte en objetos tanto estéticos como funcionales. GPT y sus primos ofrecen la oportunidad de aceptar la oferta: usar computadoras no para realizar tareas, sino para jugar con el mundo que han creado. O mejor: destruirlo.
Ian Bogost es escritor colaborador en
The Atlantic .