Actualizado:
Hola. ¿Puedes escribir un artículo sobre las implicaciones sociales y educativas de ChatGPT con el estilo de la periodista Laura G. De Rivera? "Claro, aquí está", responde la inteligencia artificial cinco segundos después. Y las letras comienzan a brotar a borbotones en la pantalla:
"¡Bienvenidos a un nuevo día en la era digital! En esta ocasión, quiero hablarles sobre una herramienta revolucionaria que está cambiando la forma en que interactuamos con la tecnología. Como muchos de ustedes saben, ChatGPT es un modelo de lenguaje a gran escala desarrollado por OpenAI, que ha sido entrenado en millones de documentos y conversaciones en línea. Su capacidad para responder a preguntas y generar texto ha causado un gran impacto y también plantea algunos peligros a los que debemos prestar atención...".
El artículo "artificial" continúa escribiéndose solo, repasando los pros y los contras de la herramienta en cuestión, hasta terminar con un "¡Esto es solo el comienzo de una nueva era en la tecnología y estoy emocionada de ver lo que deparará el futuro!". Aparte de la inevitable sonrisa por haber sido parodiada por un programa de ordenador, junto a la tentación de enviar directamente a Público el artículo que ChatGPT acaba de generar en menos de 30 segundos, surge un incómodo resquemor. ¿De verdad colaría su texto?
Podría pasar por un texto humano, perfectamente. Podría haber sido escrito por un estudiante de periodismo de primer curso. Aunque su semántica repetitiva y llena de perífrasis hubiera hecho que mi jefa de redacción arrugara el ceño y, seguramente, pensara que comienzo a chochear. Al contenido le falta concreción: es una retahíla de ideas muy generales, lugares comunes, frases largas que ocupan mucho espacio, pero dicen poco. Le falta dinamismo, cercanía, intención. Humanidad.
Diferencias con un humano
Pero tal vez sea solo cuestión de tiempo. ChatGPT es un bebé de meses –con el nombre completo de Transformador Generativo Preentrenado–, que salió al mercado el pasado noviembre. Quizá solo necesite un par de años de entrenamiento más. "Es difícil de predecir exactamente cuándo los modelos de lenguaje serán capaces de escribir textos indistinguibles de los escritos por humanos. Es posible que pueda escribir artículos periodísticos o novelas de forma convincente, aunque adolece de la compresión profunda del contexto, la empatía y la capacidad de captar sutilezas emocionales y culturales", nos responde el propio protagonista de este artículo, cuando le interrogamos al respecto.
Eso sí, a pesar de sus carencias, lo que no le falta es un desparpajo admirable, que sus creadores describen como "fluidez y credibilidad". No se amedrenta ante ninguna petición. "Como un pájaro en la red,/ con su inteligencia en vuelo,/ vuela de pregunta o pregunta/ con un conocimiento inmenso. Sin cansarse, sin descanso/ siempre dispuesto a ayudar / como un amigo fiel, siempre/ está ahí para responder". Es lo que escupe, ni corto ni perezoso, cuando le pedimos que se describa a sí mismo al estilo de un poema de Miguel Hernández.
Aprendió a escribir devorando internet
La magia no es otra que un potente algoritmo alimentado con cientos de miles de millones de palabras sacadas de libros, foros y artículos en internet. No es que entienda lo que le preguntas. Tampoco piensa lo que te responde. Igual que tu programa de mensajería instantánea completa de forma automática las palabras o frases que vas a escribir, el modelo matemático de ChatGPT funciona en función de la probabilidad estadística de que una frase acabe de determinada manera o de que una palabra concreta siga a otra.
Sabe, también, aplicar las reglas básicas sobre cómo escribir un ensayo, un artículo, un programa informático o una canción. Domina los formatos y, a partir de ahí, solo tiene que rebuscar entre los terabytes de información que ha devorado en su entrenamiento, para vomitar respuestas con cierta cohesión y mucha impresión de credibilidad.
Una combinación explosiva que le ha permitido, incluso, aprobar exámenes de selectividad en España, según un experimento que publicó El País hace unos días, o pruebas universitarias en universidades estadounidenses. En la Universidad de Minnesota, por ejemplo, se pidió a los profesores de Derecho que calificaran 95 exámenes y 12 ensayos, sin saber cuáles eran de alumnos de carne y hueso y cuáles habían salido de ChatGPT. Estos últimos obtuvieron una calificación media de aprobado. En la Escuela Wharton de Empresariales, en Pensilvania, el bot sacó un notable por "su excelente trabajo en responder operaciones básicas de gestión de empresa. Aunque cometió también sorprendentes errores en matemáticas básicas", apuntaba Christian Terwiesch, uno de los profesores de Wharton, en CNN.
Vetado en universidades
De golpe y porrazo, muchas instituciones educativas se han visto obligadas a reaccionar para impedir que sus alumnos pasen de curso con trabajos que ChatGPT es capaz de producir como churros. Las escuelas públicas de las ciudades de Nueva York y Seattle ya han vetado el programa en sus redes y dispositivos académicos. Lo mismo han hecho en Australia, en el Instituto de Estudios Políticos de París, en la Universidad RV de Bangalore, en India, y en algunas clases de la Universidad de Sevilla.
También en las editoriales científicas han saltado las alarmas. "ChatGPT es divertido, pero no es un autor", escribía la semana pasada Holden Thorp, el editor jefe de Science. La prestigiosa revista científica ha sido una de las primeras en negarse a publicar artículos redactados con su ayuda. "Hay varios ejemplos que muestran los errores garrafales que puede llegar a cometer, entre ellos, incluir referencias a estudios científicos inexistentes", denuncia Thorp. Es la misma razón por la que Springer-Nature, productora de más de 3.000 revistas científicas, acaba de incluir en su política editorial una cláusula por la que prohíbe que ChatGPT aparezca como coautor de un artículo –como había empezado a suceder en muchos de los textos que, desde noviembre, estaban llegando a la revista Nature–.
Dios en una caja
¿Un problema con solución? Al parecer, los padres del invento, una fundación supuestamente sin ánimo de lucro fundada por Elon Musk, están trabajando en programar una especie de marca de agua que identifique los trabajos creados por el chatbot. "La idea es que pueda retocar sutilmente las palabras que utiliza de forma que no sea perceptible por el receptor, pero sí estadísticamente predecible para alguien que busque señales de que es un texto generado por ordenador", explica Scott Aaronson, investigador de OpenAI.
Mientras, gigantes tecnológicos como Microsoft, Google o Meta no pierden comba y han decidido implementar este programa en su software, reconociendo una gran oportunidad de negocio en la insaciable curiosidad humana, y en nuestra manía de buscar respuestas. ¿Imaginas tener a Dios en tus contactos de Whatsapp para poder pedirle consejo o charlar siempre que quieras? Es lo que ambiciosamente propone la aplicación God in a Box (Dios en una caja), que instala ChatGPT en la mensajería instantánea de Meta.
Pero mucho ojo. "Uno de los mayores problemas es que responde falsedades con gran confianza. No sabe lo que es verdadero o falso. No sabe nada del mundo. No debes confiar en lo que dice y siempre debes contrastarlo", advierte Michael Wooldridge, director del área de IA en el Instituto Alan Turing de Londres, en una entrevista en The Guardian.
¿Te ha resultado interesante esta noticia?
Comentarios
<% if(canWriteComments) { %> <% } %>Comentarios:
<% if(_.allKeys(comments).length > 0) { %> <% _.each(comments, function(comment) { %>-
<% if(comment.user.image) { %>
<% } else { %>
<%= comment.user.firstLetter %>
<% } %>
<%= comment.user.username %>
<%= comment.published %>
<%= comment.dateTime %>
<%= comment.text %>
Responder
<% if(_.allKeys(comment.children.models).length > 0) { %>
<% }); %>
<% } else { %>
- No hay comentarios para esta noticia.
<% } %>
Mostrar más comentarios<% _.each(comment.children.models, function(children) { %> <% children = children.toJSON() %>-
<% if(children.user.image) { %>
<% } else { %>
<%= children.user.firstLetter %>
<% } %>
<% if(children.parent.id != comment.id) { %>
en respuesta a <%= children.parent.username %>
<% } %>
<%= children.user.username %>
<%= children.published %>
<%= children.dateTime %>
<%= children.text %>
Responder
<% }); %>
<% } %> <% if(canWriteComments) { %> <% } %>