l usar muchos textos diferentes para generar uno nuevo, es fácil que el programa recombine segmentos de textos que conceptualmente son como el agua y el aceite y que cree una explicación con errores importantes. Así, ChatGPT nos ha recomendado un libro que no existe, cuyo supuesto título no es más que un “cadáver exquisito” construido con los títulos de dos libros diferentes y cuyo supuesto autor es un tercero no relacionado. O cuando le pedimos que resuma las diferencias y similitudes entre dos autores, acaba asignando, erróneamente, opiniones del primer autor al segundo o viceversa. El problema añadido es que las respuestas erróneas a estas preguntas solo son evidentes para quienes ya saben del tema.
El sistema puede resultar terco y recalcitrante de una manera muy curiosa. Si le pedimos que genere una nueva respuesta, nos ofrecerá respuestas que, manteniendo un tono de total certidumbre, pueden ser del todo o parcialmente contradictorias con las generadas anteriormente, y que habían sido comunicadas con similar firmeza y certidumbre.
La interacción con el sistema evoca los diálogos de Sócrates con el sofista Hipias. Tanto Hipias como ChatGPT muestran una perturbadora inconstancia en sus argumentos, pero, a diferencia de Hipias, ChatGPT no “concede” error alguno y lo suyo es más una simple violación del principio de no contradicción. Digamos que más que a un sofista, se parece más a un ‘enteradillo’ de Twitter.
La célebre frase “Si he podido ver más lejos que otros es porque me subí a hombros de gigantes”, frecuentemente atribuida a Newton —aunque existe una viva polémica sobre su origen— celebra y reconoce las deudas intelectuales que tenemos con quienes nos precedieron. Al presentar un batido, un remix, de conclusiones e ideas inestables, ChatGPT rompe radicalmente con esa valiosa tradición. Decimos radicalmente, porque incluso si nos topáramos con una idea que resulta prometedora o inspiradora, resultaría virtualmente imposible descubrir su origen.
Los peligros que en su momento aireó OpenAI —y que ahora la propia empresa parece haber olvidado— de cómo esta máquina sería una terrible generadora de noticias falsas también son muy exagerados. Cierto, la coherencia intrínseca del programa la hace ideal para generar ese tipo de textos, pero a los humanos también se nos da muy bien generarlos, así que no hay ningún tipo de escalada cualitativa de esos subproductos digitales.
Además, lo que hace que una noticia falsa sea problemática no es la habilidad incomparable de la entidad que la genere —la mayoría de noticias falsas o de textos de clickbaits son repetitivos y facilones— sino cómo se distribuyen en las redes sociales digitales y ahí ChatGPT no aporta nada novedoso en cuanto a la creatividad o el ingenio necesarios para crear estos contenidos. La diferencia, sin embargo, puede estar, de implementarse en la práctica e integrarse con otros sistemas, en la facilidad que ofrece para crear estos contenidos a gran escala.
Pero ello no significa que ChatGPT sea completamente inútil. A continuación un listado de posibles campos de actuación en su versión actual:
Estudiantes gandules que quieran un substituto al Rincón del Vago, con el extra de que el texto no será localizable por detectores de plagios. De manera más responsable, podría servir para generar borradores de documentos que contengan elementos estándar (por ejemplo un email para excusarse por no poder asistir a un congreso o un contrato de alquiler).
Poetas, letristas o novelistas mediocres que se encuentran en un bloqueo de escritor y piden unas líneas de texto a ChatGPT para así avanzar en su proyecto. Aunque naturalmente también es posible que artistas más serios lo puedan utilizar como ‘material creativo’.
Administradores de granjas de clicks que quieran ahorrarse el sueldo -probablemente mísero- que pagan a sus copys y tener un generador de noticias falsas y listados inanes, aunque por ahora la mano de obra para darle al botón de “publicar” seguirá siendo necesaria, ya que ChatGPT no está integrado con gestores de contenido.
Siendo optimistas, una futura versión de este sistema podría aportar cierto valor. Para ello debería ser más robusto y fiable, y sus creadores deberían ofrecernos maneras para verificar que esta robustez y fiabilidad es tal
Siendo optimistas, una futura versión de este sistema podría aportar cierto valor. Para ello debería ser más robusto y fiable, y sus creadores deberían ofrecernos maneras para verificar que esta robustez y fiabilidad es tal (por ejemplo, facilitando documentación acerca de los datos de entrenamiento además de fuentes verificables en los resultados). Lo que este sistema NO puede hacer es ser autor de argumentos, ya que para serlo, se requiere querer decir algo y comprender lo que uno está diciendo.
También hace falta tener una voz mínimamente constante en el tiempo, que por lo menos se haga cargo de lo que dice. En suma, poseer una cierta capacidad de juicio y una intención comunicativa.
Sin embargo, y dicho con cautela, no está nada claro que estos sistemas tengan estas capacidades. Mediante medios probabilísticos, ChatGPT sí que puede decirnos que Lincoln fue apuñalado, pero es incapaz de inferir mediante sentido común que para apuñalar a alguien es necesario estar a su lado. No debemos dejarnos llevar por el seductor encantamiento de la elocuencia basada en correlaciones. ChatGPT es un desarrollo experimental, técnicamente elogiable y ciertamente entretenido, pero, bien mirado, no justifica que a tantos les explote la cabeza y vean en dicho sistema el comienzo de una nueva era de la creatividad y la inteligencia.