Pasar al contenido principal

Uso de ChatGPT para redactar fallos judiciales en Colombia es preocupante, porque no es confiable y su uso no es idóneo

ChatGPT
El reciente caso de un juez laboral del circuito de Cartagena que usó la herramienta ChatGPT para redactar parte de la motivación de su sentencia de tutela en segunda instancia es muy preocupante porque esta Inteligencia Artificial (IA) no es confiable y porque su uso no fue idóneo. Así lo afirma Juan David Gutiérrez, profesor de la Facultad de Estudios Internacionales, Políticos y Urbanos de la Universidad del Rosario.

Bogotá, febrero 2 de 2023.  Para Gutiérrez, experto en gobernanza de la inteligencia artificial, “por el tipo de datos a partir de los cuales fue entrenada ChatGPT y por la manera cómo funciona este modelo de lenguaje a escala, la herramienta tiende a ofrecer respuestas imprecisas, incorrectas y que incluyen información falsa”. 

ChatGPT tiende a inventar información y fuentes información -como normas y sentencias judiciales inexistentes- cuando se le consulta el soporte a partir del cual responde las preguntas, explicó el profesor de la Universidad del Rosario. 

“No es cierto que ChatGPT es capaz de ofrecer la mejor respuesta sobre alguna temática consultada, la herramienta lo único que puede hacer es predecir la probabilidad de un hilo de palabras dado el contexto que le precede, es decir, la consulta que el usuario hace”, anotó el académico. Como lo advierte la propia ChatGPT, se trata de un instrumento muy limitado y como lo reconoció el CEO de ChatGPT en diciembre de 2022, “es un error confiar en ella para algo importante en este momento... nos queda mucho trabajo por hacer en cuanto a solidez y veracidad”. 

Para el profesor Gutiérrez, “es positivo que el Estado colombiano busque incorporar tecnologías emergentes en sus procesos, pero es fundamental asegurar que el uso de la IA sea informado, ético, idóneo y responsable dados los riesgos que suponen estas herramientas”. 

Lo sucedido con la sentencia del juez de Cartagena que usó ChatGPT es una oportunidad para abrir un diálogo nacional necesario sobre cuáles son los usos adecuados de la IA en asuntos en los cuales está en juego los derechos de las personas, afirmó el profesor. Además, Gutiérrez invitó a la Rama Judicial a que “diseñe guías metodológicas para la aplicación de la IA en el sistema judicial y fortalezca la formación de los jueces y servidores judiciales en estos temas”. 

Inteligencia artificial y sus riesgos

La inteligencia artificial (IA) es usada consciente o inconscientemente por billones de personas todos los días. Empresas y gobiernos de todo el mundo están apostando significativos recursos para desarrollar nuevas herramientas y aplicaciones en diferentes ámbitos. 

“En Colombia, por ejemplo, el gobierno ha usado IA que procesa imágenes satelitales para identificar y mapear vías terciarias de todo el territorio nacional y para predecir la Índice de Pobreza Multidimensional (IPM) censal”, comentó el profesor de la Facultad de Estudios Internacionales, Políticos y Urbanos de la Universidad del Rosario. 

“Sin embargo, determinados usos de herramientas de IA pueden generar graves riesgos. Esos riesgos ya se han concretado en diferentes países del Mundo, como en Países Bajos y Estados Unidos, donde el uso inadecuado de herramientas con defectos estructurales ha generado daños y vulneraciones a los derechos fundamentales de personas”, destacó el experto en gobernanza de la inteligencia artificial.