Cargando ahora

Las oportunidades de la inteligencia artificial en la justicia y sus límites constitucionales

Las oportunidades de la inteligencia artificial en la justicia y sus límites constitucionales colombianews.co

Un foro internacional de derecho probatorio reunió en Bogotá a magistrados y exmagistrados de la Corte Suprema de Justicia, académicos internacionales y juristas especializados, para analizar las oportunidades que ofrece la inteligencia artificial en la justicia, así como los riesgos y límites que impone el debido proceso.

El encuentro académico contó con la participación de referentes internacionales como Jordi Nieva Fenoll, catedrático de Derecho Procesal de la Universidad de Barcelona y autoridad mundial en epistemología judicial, y Núria Borràs Andrés, profesora de la misma universidad, así como con la presencia de jueces, exjueces de altas cortes y abogados litigantes con amplia experiencia en materia probatoria.

Entre los juristas invitados estuvo José Moreno, socio de la firma MUVA Legal, quien participó en el intercambio técnico sobre los desafíos prácticos y normativos que plantea la incorporación de herramientas algorítmicas en los procesos judiciales.

La IA como aliada del juez

Uno de los ejes centrales del foro fue la ponencia presentada por Andrés Ávila Ávila, director de Ávila Arias y Asociados, quien abordó el tema “El impacto de la IA en la justicia: riesgos y límites” desde una perspectiva constitucional y probatoria.

Ávila planteó que la inteligencia artificial representa una oportunidad real para fortalecer la calidad de las decisiones judiciales, siempre que se entienda correctamente su función. En su criterio, la IA fue concebida para potenciar las capacidades humanas y liberar al juez de tareas mecánicas, como la organización de expedientes, la sistematización de información, el cruce de fechas o la identificación de precedentes relevantes.

“La inteligencia artificial permite que el juez no gaste su tiempo en recordar, sino en pensar; no en clasificar, sino en valorar; no en repetir, sino en decidir”, explicó.

El límite estructural: la prueba

No obstante, la ponencia subrayó que el uso legítimo de la IA encuentra su límite más sensible en la prueba judicial. Ávila sostuvo que la valoración probatoria no es un ejercicio meramente técnico o estadístico, sino un acto que exige inmediación, contradicción real, interpretación contextual de los hechos y, sobre todo, responsabilidad personal del juez.

En ese sentido, advirtió que la IA no es independiente, puede reproducir sesgos invisibles y no asume las consecuencias de una decisión injusta. “La IA optimiza; el ser humano juzga. La IA ejecuta una lógica; el juez interpreta una realidad”, afirmó.

La inmediación como frontera constitucional

Uno de los puntos más destacados de la intervención fue la referencia a la inmediación judicial como una frontera constitucional que la tecnología no puede reemplazar. Mientras el juez percibe silencios, dudas, quiebres emocionales y contextos vitales durante la práctica probatoria, la inteligencia artificial solo accede a representaciones: textos, audios o videos.

“La IA puede analizar una transcripción, pero no vivir el momento en que esa transcripción se produce. Por eso, nunca puede sustituir la experiencia humana del juzgamiento”, señaló.

Respaldo jurisprudencial y enfoque de gobernanza

Ávila recordó que este debate ya cuenta con un respaldo claro en la Sentencia T-323 de 2024 de la Corte Constitucional, que delimitó el uso válido de la inteligencia artificial en la justicia: apoyo a la gestión judicial y documental, siempre bajo control humano efectivo, sin sustitución del razonamiento judicial ni de la valoración probatoria.

El cierre de su ponencia retomó una advertencia citada por la propia Corte, atribuida a Klaus Schwab: “Nunca ha habido tanta promesa ni tanto peligro”. A partir de ello, concluyó que el desafío central no es tecnológico, sino jurídico, y que la respuesta está en establecer principios mínimos claros: control humano efectivo, transparencia, responsabilidad personal del decisor y protección reforzada de los derechos fundamentales.

“La inteligencia artificial puede ayudarnos a decidir mejor. Lo que no puede hacer es decidir por nosotros”, concluyó.

Share this content: