Desde que el chatbot ChatGPT irrumpió en el escenario público a fines del año pasado, el contenido generativo de IA se ha multiplicado.
Desde que el chatbot ChatGPT irrumpió en el escenario público a fines del año pasado, el contenido generativo de IA se ha multiplicado. AFP

¿Qué sucedió cuando un abogado estadounidense usó ChatGPT para preparar una presentación judicial? El programa de inteligencia artificial inventó casos y fallos falsos, dejando al abogado bastante rojo.

El abogado con sede en Nueva York, Steven Schwartz, se disculpó ante un juez esta semana por presentar un escrito lleno de falsedades generadas por el chatbot de OpenAI.

"Simplemente no tenía idea de que ChatGPT fuera capaz de fabricar citas de casos completos u opiniones judiciales, especialmente de una manera que pareciera auténtica", escribió Schwartz en un expediente judicial.

El error ocurrió en un caso civil ante un tribunal federal de Manhattan que involucra a un hombre que está demandando a la aerolínea colombiana Avianca.

Roberto Mata afirma que resultó herido cuando un plato de metal para servir le golpeó la pierna durante un vuelo en agosto de 2019 de El Salvador a Nueva York.

Después de que los abogados de la aerolínea le pidieran al tribunal que desestimara el caso, Schwartz presentó una respuesta en la que afirmaba citar más de media docena de decisiones para respaldar por qué el litigio debería continuar.

Incluyeron Petersen contra Iran Air, Varghese contra China Southern Airlines y Shaboon contra Egyptair. El caso Varghese incluso incluía citas y citas internas fechadas.

Sin embargo, había un gran problema: ni los abogados de Avianca ni el presidente del tribunal, P. Kevin Castel, podían encontrar los casos.

Schwartz se vio obligado a admitir que ChatGPT se lo había inventado todo.

"La corte se enfrenta a una circunstancia sin precedentes", escribió el juez Castel el mes pasado.

"Seis de los casos presentados parecen ser decisiones judiciales falsas con citas falsas y citaciones internas falsas", agregó.

El juez ordenó que Schwartz y su socio legal comparecieran ante él para enfrentar posibles sanciones.

En una presentación el martes, antes de la audiencia, Schwartz dijo que quería "disculparse profundamente" ante el tribunal por su "error profundamente lamentable".

Dijo que sus hijos con educación universitaria le habían presentado ChatGPT y que era la primera vez que lo usaba en su trabajo profesional.

"En el momento en que realicé la investigación legal en este caso, creía que ChatGPT era un motor de búsqueda confiable. Ahora sé que eso era incorrecto", escribió.

Schwartz agregó que "nunca fue mi intención engañar a la corte".

ChatGPT se ha convertido en una sensación global desde que se lanzó a fines del año pasado por su capacidad para producir contenido similar al humano, incluidos ensayos, poemas y conversaciones a partir de indicaciones simples.

Ha provocado una proliferación de contenido generativo de IA, lo que ha dejado a los legisladores luchando por descubrir cómo regular esos bots.

Un portavoz de OpenAI no respondió de inmediato a una solicitud de comentarios sobre el error de Schwartz.

La historia fue reportada por primera vez por The New York Times.

Schwartz dijo que él y su firma, Levidow, Levidow & Oberman, habían sido "ridiculizados públicamente" en la cobertura de los medios.

"Esto ha sido profundamente vergonzoso tanto a nivel personal como profesional, ya que estos artículos estarán disponibles en los próximos años", escribió.

Schwartz agregó: "Este asunto ha sido una experiencia reveladora para mí y puedo asegurarle a la corte que nunca volveré a cometer un error como este".

El desarrollador estadounidense OpenAI creó el programa de inteligencia artificial ChatGPT
El desarrollador estadounidense OpenAI creó el programa de inteligencia artificial ChatGPT AFP