ChatGPT

ChatGPT, diseñado para decir lo que queremos oir

Una de las primeras cosas que llama la atención de ChatGPT es que da la sensación de que al preguntarle por ti, por tu empresa o lo que quieras, la respuesta parece hecha sistemáticamente para agradar. ¿Cómo es esto? Sencillamente, porque es lo que busca ChatGPT: combinar lo que pueda deducir a partir de montones de información que se le suministró en su entrenamiento. Y todo para responder a preguntas de manera que quien la hizo quede satisfecho con la respuesta.

Para entenderlo mejor, recordemos un caso real: en un vuelo de Avianca, el pasajero, Roberto Mata, recibió un golpe en la rodilla con el carrito de la comida, golpe que resultó en una lesión. El pasajero pidió una indemnización por daños a través del abogado Steven A. Schwartz. Cuando Avianca pidió al juez que desestimase el caso, Steven se presentó con una alegación de diez páginas en la que citaba media docena de casos en los que demandas similares habían sido estimadas. Además, contaba con alegaciones sobre los efectos negativos que tendría dar la razón a la aerolínea.

Cuando los abogados de Avianca se pusieron a trabajar con la demanda, no encontraron ninguno de los casos que el abogado de Mata citaba en su escrito. Sorprendidos, pidieron aclaraciones al juez, quien tampoco pudo localizarlas. ¿Qué había pasado? Muy sencillo: Steven A. Schwartz, el experimentado abogado, había tenido la ocurrencia de pedir a ChatGPT que sustentase el caso. ChatGPT le contestó con una demanda aparentemente muy bien argumentada… que apuntaba a media docena de casos que el algoritmo se había inventado, dándoles además apariencia de verosimilitud y credibilidad.

Posibles sanciones por negligencia profesional

El abogado, sin comprobar nada, envió este escrito al juez. El juez, sin salir de su asombro, afirmó que estaba ante una caso sin precedentes y ordenó una audiencia para discutir posibles sanciones.

El abogado ha reconocido los hechos a posteriori, se ha disculpado y ha suministrado capturas de pantalla de ChatGPT. Todo para explicar que desconocía que el algoritmo se pudiera comportar de esa manera. Evidentemente esto no tiene por qué librarle de las correspondientes sanciones.

Hay que ser precavidos y pensar con lógica: lo que un algoritmo generativo hace es una versión avanzada de un autocomplete en función de los datos con los que contó en su entrenamiento y de los patrones que ha deducido a partir de ellos. ChatGPT no es una base de datos de jurisprudencia, y su función no es rebuscar en ella. Eso lo desarrolló IBM hace años, lo llamó Ross y era un asistente dedicado a revisar la jurisprudencia. Era, simplemente, un buen buscador bibliográfico. Y los textos legales, y particularmente los que recoge la jurisprudencia, no se «generan» jamás: se citan sencillamente.

El caso Mata vs. Avianca debe verse como una advertencia para aquellos que otorgan a los algoritmos generativos propiedades que no tienen. Y contra los que afirman que son «inteligentes»: no hay inteligencia en recombinar datos para producir una respuesta bien redactada y aparentemente correcta. Y quien quiera que un algoritmo generativo sea otra cosa distinta de lo que es, seguramente le genere muchos problemas. Además, el hecho de que lo que te conteste sea real o se lo invente es algo que está perfectamente especificado en las advertencias de uso.

Fuente: https://bit.ly/3N1re85

Related posts