El primer fallo que anuló una condena por uso indebido de ChatGPT. Reflexiones desde el derecho penal

Por Andrés García Vautrin
En un contexto donde la inteligencia artificial comienza a infiltrarse en los procesos judiciales, el fallo de la Cámara Penal de Esquel marca un hito: por primera vez, se anula una condena por el uso indebido de IA en su fundamentación.
El 15 de octubre de 2025, la Cámara en lo Penal de Esquel (Chubut) hizo justicia. Pero no en el sentido tradicional de resolver un caso de robo. Realizó algo que podría resultar más significativo para nuestro ordenamiento jurídico: anular una sentencia condenatoria por el uso incorrecto de inteligencia artificial en su redacción. De esta manera, fue la primera vez en el país que un tribunal declara la nulidad de una condena penal por esta causa.
Los hechos son simples: un juez penal utilizó ChatGPT para redactar los fundamentos de una sentencia condenatoria a dos años y medio de prisión. El error que lo delató no fue un cálculo sofisticado, sino un olvido brutalmente revelador: dejó en el texto la instrucción que le había dado a la máquina: «Aquí tienes el punto IV reeditado, sin citas y listo para copiar y pegar».
Lo que sigue es un análisis sobre qué significa esto para nosotros como abogados, como ciudadanos y como sociedad que aspira a tener un Estado de Derecho.
La máquina no piensa: apenas ejecuta
Cuando leí ese fragmento, se me viene a la mente una pregunta que atraviesa toda la jurisprudencia constitucional: ¿quién decide en una sentencia penal? No es una pregunta retórica. Es la pregunta central del Derecho Procesal Penal democrático.
El juez que condenó a R.A.P. no delegó una tarea administrativa. No utilizó la IA para revisar expedientes o para indexar jurisprudencia. La utilizó para redactar los fundamentos mediante los cuales rechazaba las excepciones de nulidad presentadas por la defensa, las mismas, cuestionaban dos piezas probatorias fundamentales: unos videos de cámaras de seguridad y una pericia criminalística comparativa.
En otras palabras: le pidió a una máquina que decidiera, disfrazado de «redacción complementaria», si la defensa del acusado tenía razón o no.
La Cámara de Esquel lo vio de esa manera . Y lo hizo con un rigor que debería servir de modelo. La jueza Carina Paola Estefanía, en su voto principal, y los jueces Martín Zacchino y Hernán Dal Verme, en sus coincidentes votos concurrentes, no permitieron sutilezas. Dijeron lo que tenía que decirse: esto viola el principio de juez natural, el debido proceso, y los estándares mínimos de fundamentación que requiere una sentencia penal en un Estado constitucional de derecho.
El Acuerdo Plenario N° 5435: un marco ético que fue ignorado
Aquí es donde el análisis se vuelve pertinente para entender la gravedad institucional de lo ocurrido. Chubut, a través de su Superior Tribunal de Justicia, había aprobado en 2025 el Acuerdo Plenario Nº 5435, que establece las «Directivas para el uso ético y responsable de inteligencia artificial generativa en el Poder Judicial de Chubut».
No se trata de una recomendación vaga. Es un protocolo claro que exige:
Control humano efectivo. La IA debe considerarse complementaria, nunca sustitutiva. Todas las respuestas generadas por IA deben ser supervisadas antes y después de su aplicación. El juez que escribió la sentencia no supervisó nada: copió y pegó directamente.
Transparencia obligatoria. El juez debe declarar el uso de IA, indicar cuál utilizó, qué datos volcó en ella, y qué instrucciones (prompts) le proporcionó. El juez de Esquel no declaró nada de esto. Si no fuera por ese renglón olvidado, habría sido completamente clandestino.
Confidencialidad de datos. Los sistemas de IA no deben procesar información sensible de las partes, testigos o peritos. Sin anonimización previa. El juez incumplió: volcó nombres de personas en el sistema.
Supervisión prohibitiva de delegación. La IA puede ayudar a redactar borradores. Nunca puede decidir. El juez decidió a través de la máquina.
El tribunal de Esquel concluyó que cada uno de estos principios había sido vulnerado. Y por ello anuló no solo la sentencia, sino también el juicio que la precedía, ordenando un nuevo juicio ante otro juez.
Las consecuencias: mucho más allá de un solo caso
Como abogados litigantes, debemos entender qué significa esto en el campo. Significa que ahora hay un precedente que va a resonar en los juzgados de todo el país. Significa que los colegas que han estado utilizando ChatGPT sin supervisión adecuada, sin transparencia, sin proteger confidencialidad, van a tener que replantearse.
Pero también significa algo más profundo: la jurisprudencia ha fijado un estándar. Y ese estándar es que la función de juzgar no es delegable. Ni a los pasantes. Ni a los secretarios. Ni a las máquinas.
Así se explicó con citas a los maestros del derecho: Couture, Calamandrei, Jerome Frank. La sentencia no es una «cadena de silogismos», como decía Couture, es una operación humana en la que «la función más importante incumbe al juez como hombre y como sujeto de voliciones».
Calamandrei lo resumió de este modo: «No queremos jueces hechos de pura lógica. Queremos jueces con alma, que sepan llevar con humano y vigilante empeño la enorme responsabilidad de hacer justicia».
Las alucinaciones de la máquina y nuestras defensas
Hay otra cuestión que los abogados litigantes deberíamos tener presente. Los sistemas de IA generativa son conocidos por producir «alucinaciones»: inventan fallos, citan jurisprudencia inexistente, generan referencias falsas.
En los Estados Unidos, un juez federal incluyó precedentes inventados en su fallo, que debió ser anulado. En España, en Rosario, en Río Negro, se han sancionado abogados que presentaron citas jurisprudenciales inexistentes generadas por ChatGPT.
¿Qué hubiera pasado en Esquel si ese renglón olvidado no hubiese estado allí? Se hubiese condenado a un hombre a dos años y medio de prisión sobre la base de una decisión que pudo haber sido parcialmente redactada por una máquina que inventó sus argumentos. Y hubiese pasado sin que nadie lo supiera.
Las implicaciones para Argentina y la región
La Cámara de Esquel no actuó en el vacío. Citó recomendaciones de la UNESCO, la OCDE, la Comisión Iberoamericana de Ética Judicial, la Corte Interamericana de Derechos Humanos. Todas estas instituciones han advertido sobre los riesgos de la «caja negra»: sistemas que procesan información sin que se conozca cómo lo hacen, generando decisiones opacas, potencialmente sesgadas, susceptibles de reproducir discriminaciones.
En Argentina, donde desde hace años discutimos cómo regular la inteligencia artificial en contextos sensibles, este fallo es un punto de referencia. Es jurisprudencia que nos dice: aquí hay un límite que no se puede cruzar.
Pero también es un llamado de atención. Porque el caso de Esquel revela que ya se estaba utilizando IA en decisiones judiciales. Otros jueces, otros magistrados, probablemente están utilizándola en este momento. ¿Bajo qué parámetros? ¿Con qué supervisión? ¿Con qué transparencia?
Lo que falta: la capacitación
La sentencia fue generosa en algo que debería preocuparnos: se reconoció que una «gran parte» de los magistrados en el país se formaron en épocas en que la tecnología no era omnipresente. Eso es verdad. Pero también es una invitación implícita a que nos capacitemos.
No se trata de que los jueces rechacen la tecnología. Se trata de que la utilicen responsablemente. Las directrices de Chubut son un modelo. Debería haber equivalentes en todas las provincias. Y debería haber formación continua para los operadores judiciales.
Como abogados, también tenemos responsabilidad aquí. No podemos permitir que nuestras estrategias defensivas se vuelvan inútiles porque un juez no supervisa adecuadamente lo que genera una máquina. Debemos cuestionar, argumentar, cuando veamos que una decisión no tiene la integridad intelectual que exige una sentencia penal.
El alma de la justicia
Lo que pasó en Esquel fue, en el fondo, un acto de defensa del Estado de Derecho. La Cámara protegió algo que va más allá del caso. Protegió la idea de que detrás de cada sentencia penal debe haber una persona responsable, pensante, capaz de justificar cada palabra.
Porque la justicia no es eficiencia. La justicia es legitimidad. Y la legitimidad requiere que alguien, un juez, una persona, esté dispuesto a responder por lo que decide.
El fallo de Esquel nos recuerda algo que en el derecho penal, donde está en juego la libertad de las personas, no hay atajos. No hay procesos que puedan ser completamente delegados. Hay decisiones que requieren un ser humano con una conciencia viva, sensible, vigilante.
La máquina puede ayudar a redactar. No puede elegir las premisas. No puede elegir los hechos. No puede decidir qué es justo.
Eso lo hace el juez. O debería hacerlo.
Este fallo no es solo una advertencia: es una oportunidad. Una oportunidad para repensar cómo integramos la tecnología en el derecho sin perder de vista lo esencial. Porque si la justicia pierde su humanidad, pierde su razón de ser.