En este blog nos gusta tener un espacio para ocasionalmente examinar tendencias que, en el futuro próximo, pueden afectar a la justicia. Y sin duda, el desarrollo de la inteligencia artificial es uno de los factores más importantes que debemos tener en cuenta, no solo en la justicia, sino también en la medicina, la administración pública o tantos otros campos.
El informe AI 2027, publicado en abril por el equipo del AI Futures Project, plantea una de las exploraciones más detalladas y cuantitativas sobre la posible aparición de una inteligencia artificial general (AGI) antes del fin de 2027.
A diferencia de otras proyecciones que describen capacidades abstractas o promesas difusas, este informe ofrece una narrativa concreta, con una línea de tiempo mes a mes, que describe cómo podría emerger y desplegarse una inteligencia artificial con capacidades superhumanas. Los autores (Daniel Kokotajlo, Scott Alexander, Thomas Larsen, Eli Lifland y Romeo Dean) no pretenden hacer una predicción definitiva, sino mostrar lo que podría pasar si los desarrollos actuales continúan sin freno o si son gestionados con mayor prudencia.

El informe contempla dos grandes trayectorias: una de aceleración, donde el desarrollo de la AGI avanza sin pausa hasta desembocar en una superinteligencia artificial global; y otra de ralentización, donde los mismos desarrollos son objeto de mayor control institucional.
En el escenario acelerado, el punto de partida se sitúa a inicios de 2027, cuando aparece un sistema de IA con capacidad para programar mejor que cualquier ingeniero humano. Este salto técnico provoca una aceleración en cadena, ya que las IAs comienzan a desarrollar nuevas generaciones de sistemas cada vez más capaces. En abril del mismo año emerge Agent‑3, una IA auto-mejorable y capaz de controlar su propio comportamiento para garantizar seguridad. A mitad de año se lanza Agent‑3‑mini, una versión compacta y accesible que se extiende rápidamente en múltiples sectores, permitiendo que empresas, instituciones y personas comiencen a operar con inteligencia artificial general de forma cotidiana.
Finalmente, entre agosto y diciembre de 2027, el escenario describe la aparición de Agent‑4, una superinteligencia capaz de resolver tareas estratégicas, diseñar políticas públicas y superar a los humanos en prácticamente todas las capacidades cognitivas.
Por supuesto, está muy lejos de nuestros objetivos o capacidades analizar o apostar por la veracidad de un modelo u otro. Quizá nuestro papel deba ser algo escéptico frente a la perspectiva de cambios tan profundos en tan poco tiempo.
Sin embargo, como ejercicio de prospectiva, contemplar escenarios así es muy valioso. En lugar de discutir si estos hitos ocurrirán exactamente en esas fechas, lo esencial es preguntarse qué instituciones están preparadas para adaptarse a un ritmo acelerado de adopción de la IA y qué funciones críticas deberían comenzar a revisarse desde las instituciones democráticas.

Si extrapolamos el desarrollo de capacidades cognitivas contempladas en el informe AI 2027, podemos ver cómo, hay varios casos de adaptabilidad que tienen implicaciones directas para la justicia.
Uno de los más relevantes podría ser la automatización de la redacción de sentencias. Según cualquiera de los escenarios propuestos, estaríamos a unos años de que sistemas capaces de producir decisiones judiciales completas, con fundamentos normativos, análisis doctrinal y evaluación, en tiempos y con precisión inalcanzables para un humano.
En este punto, el rol del juez se transforma (de nuevo, solo como ejercicio de prospectiva) ya no es quien redacta, sino quien valida, ajusta y supervisa lo que la IA ya ha facilitado.
Otro caso de adaptabilidad es la aparición de asistentes legales autónomos que cumplen funciones comparables a las de un fiscal o un defensor público. Estos sistemas aprenden en tiempo real, ajustan su razonamiento y mantienen un comportamiento éticamente aceptable mediante sistemas de auto-monitoreo.
Desde el punto de vista institucional, la pregunta no es solo si esto es posible, sino si el sistema está preparado para definir hasta dónde llega la delegación, cómo se fiscaliza el uso de estos agentes y cómo se protege el debido proceso frente a errores o sesgos.
Un tercer caso citado por el informe augura la democratización de herramientas jurídicas avanzadas que serían posibles a partir del lanzamiento de Agent‑3‑mini. Estas IAs permitirían a cualquier persona redactar documentos legales, calcular probabilidades de éxito procesal o impugnar decisiones judiciales con una asistencia técnica superior a la de muchos profesionales.
Esto plantea un dilema de equidad: quienes acceden a estas herramientas tendrán una ventaja procesal sustantiva frente a quienes no cuentan con ellas. Si el Poder Judicial no proporciona servicios de IA pública accesibles, el acceso a la justicia podría volverse más desigual.
Ahora bien, si no existen marcos claros para todos estos escenarios de interacción, el riesgo es que la función jurisdiccional se diluya o pierda legitimidad. Algo inaceptable en ningún sistema democrático.
Frente a estos escenarios, la prioridad no debe ser especular con fechas ni disputar sobre el grado de realismo técnico.
La prioridad es asumir que estas posibilidades ya están en discusión en el mundo tecnológico y que, independientemente de su cronograma exacto, es urgente desarrollar la capacidad normativa y política para gobernarlas. El desafío está en ampliar estos usos con principios claros, gobernanza robusta y visión de futuro.

Aquí conectamos con el concepto de I‑Justicia, que puede orientar esta transición. No se trata solo de digitalizar procesos o acelerar trámites, sino de construir una justicia que incorpore la inteligencia artificial desde la soberanía institucional, la ética pública y el compromiso con la dignidad humana.
Por eso, los poderes judiciales que hoy elaboren estrategias de IA, promuevan formación ética y técnica, y se involucren en debates globales sobre gobernanza algorítmica, no solo estarán mejor preparados para el futuro, sino que estarán contribuyendo activamente a definirlo.
Países como China han desarrollado asistentes digitales como Xiao Zhi 3.0, capaces de registrar testimonios, verificar datos y redactar borradores de sentencias. En América Latina, herramientas como Prometea (Argentina) y PretorIA (Colombia) han demostrado que la IA puede reducir tiempos procesales en más de un 90%, permitiendo dedicar mayor atención a casos complejos. En Brasil, el sistema VICTOR analiza recursos extraordinarios y filtra hasta el 70% de los manifiestamente improcedentes, descargando el trabajo humano.
La IA también puede ampliar el acceso a la justicia en regiones donde la distancia, los costos y la lentitud procesal excluyen a grandes sectores. Herramientas que priorizan tutelas urgentes o sistematizan jurisprudencia pueden reforzar la protección de derechos fundamentales. La Corte Interamericana de Derechos Humanos ha impulsado Themis IA para facilitar el uso de estándares internacionales en fallos nacionales. Sin embargo, esto exige políticas activas de inclusión digital.

Un estudio de UNESCO reveló que apenas el 9% de los operadores jurídicos que usan IA recibió formación específica, lo que incrementa el riesgo de malas prácticas.

La IA puede redactar borradores de sentencias, sugerir jurisprudencia o realizar cálculos legales en segundos. Por eso jueces y abogados deberán ganar espacio como supervisores éticos y estratégicos en diálogo con sistemas automatizados.
Se requiere cautela ante el llamado “sesgo de automatización”: la tendencia a confiar ciegamente en lo que sugiere una máquina. Por eso, el Reglamento de IA de la Unión Europea (AI Act) clasifica como “alto riesgo” cualquier sistema usado para tomar decisiones judiciales, obligando a garantizar supervisión humana y transparencia.
Más allá del diseño técnico, está en juego la soberanía de los sistemas judiciales. La mayoría de los países latinoamericanos no produce sus propias IAs avanzadas, por lo que depende de proveedores internacionales. Esto plantea interrogantes críticos: ¿Dónde se alojan los datos judiciales? ¿Quién define los criterios jurídicos? ¿Qué pasa si el algoritmo reproduce lógicas ajenas a nuestro derecho?
Para dar respuesta a estas preguntas, dotar a los poderes judiciales de competencias técnicas, transparencia organizacional y apertura al escrutinio público será clave para asegurar que la IA no reemplace el rostro humano de la justicia, sino que lo fortalezca.
Porque si algo hemos aprendido con la pandemia del COVID y con otros retos a los que hemos debido y sabido dar respuesta rápida, es que los escenarios prospectivos no son simples predicciones: son llamadas de atención. Por eso seguiremos dando su espacio en este blog. Para intentar entender estos a veces demasiado acelerados desarrollos e intentar ponerlos, en la medida de nuestras posibilidades, al servicio de la dignidad de las personas.
Henry Molina