Un abogado estadounidense, Steven Schwartz, se encuentra bajo la amenaza de posibles sanciones legales después de que se descubriera que utilizó la popular aplicación de inteligencia artificial ChatGPT para redactar un escrito legal que incluía precedentes legales completamente inventados. El caso se desarrolla en un tribunal de Nueva York y se trata de una demanda presentada por un pasajero contra la aerolínea Avianca, alegando haber sufrido una lesión durante un vuelo.
Schwartz, quien representa al demandante, empleó ChatGPT para elaborar un escrito en respuesta a la solicitud de la defensa de desestimar el caso. El documento de diez páginas citaba varias decisiones judiciales para respaldar sus argumentos, pero se descubrió que estas decisiones eran ficticias, creadas por el chatbot de OpenAI.
El juez Kevin Castel, al percatarse de esta situación inusual, programó una audiencia para el 8 de junio en la que Schwartz deberá explicar por qué no debería ser sancionado por utilizar precedentes falsos en su escrito.
En su declaración jurada, el abogado admitió haber usado ChatGPT para preparar el escrito y reconoció que solo verificó la autenticidad de los casos preguntando a la aplicación si eran reales. Schwartz argumentó que no tenía experiencia previa en el uso de esta tecnología y no era consciente de la posibilidad de contenido falso. Además, se disculpó profundamente por haber confiado en la inteligencia artificial y prometió verificar rigurosamente la autenticidad en el futuro.
El caso se hizo público debido a la utilización de la inteligencia artificial para crear ficticios precedentes legales, lo que destacó la importancia de verificar la autenticidad de la información obtenida de fuentes automatizadas. La audiencia programada para junio determinará si el abogado enfrentará sanciones por su conducta en el caso. Este incidente también pone de manifiesto la necesidad de una regulación más estricta y la vigilancia en el uso de tecnologías legales basadas en inteligencia artificial.