El abogado enfrenta una reacción violenta por la dependencia excesiva de ChatGPT en la corte

Un abogado de Nueva York, Steven Schwartz, del bufete de abogados Levidow, Levidow & Oberman, ha sido criticado por incorporar ChatGPT, un modelo de lenguaje de inteligencia artificial, en su investigación legal mientras manejaba una demanda contra Avianca Airlines. El caso involucra a Robert Mata, quien dice que sufrió una lesión en un carrito de servicio durante un vuelo con la aerolínea colombiana en 2019, informó CNN Business el 28 de mayo.

El abogado presentó registros incorrectos obtenidos de ChatGPT

La historia dio un giro inesperado cuando el juez a cargo del proceso encontró inconsistencias y errores de hecho en la documentación entregada. En una declaración jurada fechada el 24 de mayo, Schwartz admitió haber usado ChatGPT para su investigación legal y dijo que no estaba al tanto del potencial de información falsa dentro de su contenido. Dijo además que esta era la primera vez que usaba el modelo de IA para la investigación legal.

El examen del juez reveló que varios casos presentados por el abogado parecían ser ficticios, con citas inventadas y citas internas inexactas. Además, se encontró que algunos casos citados no existían y hubo un caso en el que un número de registro se asoció por error con otra declaración judicial.

El abogado lamentó haber confiado en el chatbot de IA sin realizar su diligencia debida. Su declaración jurada enfatizó que lamenta mucho el uso de IA generativa en el proceso de investigación y promete no repetir la práctica sin una verificación absoluta de la autenticidad.

Los analistas discuten el potencial de la IA para reemplazar a los humanos

La integración de ChatGPT en los flujos de trabajo profesionales ha provocado un debate continuo sobre su idoneidad y confiabilidad. A medida que la inteligencia de los modelos de IA como ChatGPT continúa avanzando, quedan dudas sobre su capacidad para reemplazar completamente a los trabajadores humanos. Syed Ghazanfer, un desarrollador de blockchain, reconoce el valor de ChatGPT pero cuestiona sus capacidades de comunicación como un sustituto completo de la interacción humana. Enfatice que los lenguajes de programación se crearon para cumplir con los requisitos que pueden no transmitirse de manera efectiva en el inglés nativo.

A medida que avanza la tecnología de IA, tanto los desarrolladores como los profesionales navegan por el delicado equilibrio entre aprovechar sus capacidades y garantizar la precisión y validez de la información que genera. El caso que involucra a Steven Schwartz y su uso de ChatGPT sirve como una advertencia, enfatizando la importancia de la supervisión humana y la evaluación crítica en la investigación legal y otros entornos profesionales.

Si bien los modelos de IA como ChatGPT pueden ayudar a agilizar ciertas tareas, deben usarse junto con la experiencia humana y procesos de verificación exhaustivos para minimizar el riesgo de inexactitudes e información falsa. A medida que se expanden los límites de las capacidades de la IA, sigue siendo esencial que los profesionales ejerzan la prudencia y el discernimiento al incorporar tales herramientas en su trabajo.