2025-09-21

Abogados de Río Negro en la mira por citas judiciales falsas: sospecha de uso de inteligencia artificial

La Cámara Civil de Roca anuló la intervención de los letrados, los notificó al tribunal de ética y emitió un llamado de atención sobre el uso responsable de herramientas de inteligencia artificial en la abogacía.

Un tribunal de Río Negro identificó la existencia de 26 fallos inexistentes en escritos judiciales presentados por dos abogados, en el marco de una causa civil en la que un hombre reclamaba contra una concesionaria de autos por múltiples fallas en un vehículo 0 km. La situación abrió un debate sobre la responsabilidad profesional y la utilización de inteligencia artificial generativa en el ejercicio del derecho.

Detección de fallos falsos

Durante la revisión de la apelación en esta causa, la Cámara Civil de Roca constató que 26 precedentes citados en los escritos de los abogados no existían: 20 en el escrito del cliente y 6 en el de la codemandada. Antes de resolver la apelación, los jueces pidieron explicaciones a los letrados involucrados: uno alegó un “error de pluma” y el otro señaló dificultades para consultar la revista doctrinaria utilizada.

Tras una búsqueda exhaustiva en la Biblioteca del Poder Judicial y en los registros del Superior Tribunal de Justicia, la Cámara confirmó que ninguna de las citas podía verificarse. Por ello solicitó a los abogados que indicaran las fuentes precisas de las citas atribuidas a tribunales rionegrinos, algo que no lograron esclarecer satisfactoriamente.

Respuestas de los abogados

Las aclaraciones de los letrados no aportaron certeza. El representante del cliente reconoció un “error material de pluma o de redacción” y aseguró que las citas no eran esenciales para sus argumentos. En tanto, el abogado de la concesionaria manifestó que “no se pudo acceder a la revista doctrinaria utilizada” y pidió que se consideraran las citas como retiradas del expediente.

“Alucinaciones” y riesgo profesional

La Cámara consideró que ambos letrados podrían haber recurrido a herramientas de inteligencia artificial generativa, aunque no lo admitieran expresamente. El fallo subrayó que, si las citas fueron inventadas deliberadamente, la conducta constituiría un intento de inducir a error al tribunal con precedentes falsos, lo que se considera gravísimo.

“El uso de chatbots de inteligencia artificial generativa puede ser útil en el trabajo diario”, indicaron los jueces. Sin embargo, advirtieron que sus resultados deben ser siempre cotejados, ya que frecuentemente incluyen “alucinaciones”, es decir, fuentes inexistentes o inventadas.

Aunque no se aplicaron sanciones formales, la Cámara realizó un “severo llamado de atención” a ambos profesionales. Subrayó que la incorporación de nuevas tecnologías en la práctica legal requiere control humano, verificación responsable y respeto a las normas éticas. Además, se remitió copia de la resolución al Colegio de Abogados de Roca para informar a los colegiados y fomentar medidas preventivas.

El origen de la causa

El conflicto surgió cuando un hombre de Roca demandó a Peugeot Citroën Argentina S.A. y su concesionaria oficial, DMX2 S.A., luego de adquirir un vehículo 0 km de alta gama que presentó fallas mecánicas y electrónicas desde los primeros kilómetros. Pese a múltiples visitas al servicio técnico, los desperfectos persistieron, y el cliente reclamó judicialmente la devolución del valor del automóvil y daños y perjuicios.

En primera instancia, el tribunal falló a favor del comprador: declaró responsabilidad solidaria de las empresas, ordenó la devolución del valor actualizado del vehículo, otorgó una indemnización por daño moral y aplicó un daño punitivo por el trato recibido. Fue en la etapa de apelación cuando se detectaron las citas jurídicas falsas en los escritos de los abogados.

Finalmente, la Cámara confirmó casi todos los puntos de la sentencia, con una sola modificación en la cuantía del daño moral. Sin embargo, el debate que quedó abierto es sobre la responsabilidad profesional en la era de la inteligencia artificial.

Regulación y desafíos para abogados

El Poder Judicial de Río Negro cuenta con una acordada que regula el uso de inteligencia artificial, con protocolos específicos y capacitación continua del personal en distintas circunscripciones.

No obstante, estos lineamientos aplican únicamente al ámbito interno del Poder Judicial. Los profesionales de la abogacía que ejercen de forma privada carecen de normas específicas sobre cómo incorporar o supervisar el uso de herramientas de inteligencia artificial generativa en sus escritos judiciales, lo que plantea nuevos desafíos éticos y prácticos en la profesión.

Te puede interesar