villatelab

Por: ÁNGELA CRISTINA VILLATE  & FÉLIX PALMA

Hemos entrado así, casi sin notarlo, en la era del humano que vigila a la máquina y la máquina que vigila al humano -aquí está la reciprocidad- .

En noviembre de 2021 fui invitada a participar como panelista en un foro sobre arbitraje y conciliación realizado en la ciudad de Bogotá. En aquella ocasión hablé de lo que siempre habló en esos espacios, del impacto de la tecnología en el sector legal y, además, aproveché para presentar a VITA, una red neuronal casera capaz de generar textos sobre asuntos arbitrales.

Alimentada con laudos nacionales e internacionales en materia de infraestructura que, no sobra señalar, son de acceso público, VITA logró identificar las temáticas procesales y sustanciales más relevantes. Pero eso no fue todo, también interactuó y respondió -por escrito- algunas preguntas sobre un tema que además de significativo resulta difícil y controvertido, la tasación e imposición de multas. Las respuestas fueron acertadas en su totalidad. Nada mal para una red neuronal casera creada con software libre, unas cuantas monedas, galletitas, litros de café y bastante trabajo de programación.

Para ese momento -año 2021- VITA representaba, al menos en el contexto local, uno de los primeros intentos por llevar la inteligencia artificial al sector legal, específicamente a los mecanismos alternativos de resolución de controversias.

Resulta necesario precisar que VITA no fue programada para reemplazar a los encargados de tomar decisiones, su tarea consistía y consiste en ayudar a resolver problemas concretos relacionados con la eficiencia en la administración de justicia, la transparencia de la información y la trazabilidad de las tendencias decisionales. Sin embargo, la recepción fue fría, indiferente, casi hostil.

Me tomó algo de tiempo, quizás unos cinco minutos, comprender lo que había ocurrido. Los árbitros, al igual que muchos profesionales, temen a la posibilidad, cada vez más cercana y real, de ser reemplazados por la tecnología; pero le temen mucho más a un observador de segundo orden, en este caso una inteligencia artificial, que entre a reexaminar las entretelas de su trabajo.

El miedo a ser reemplazados por la tecnología es en el corto plazo infundado. Decir “adiós” a los árbitros y, en general, a los abogados, no es tan sencillo como parece. Exige diferenciar entre lo posible y lo deseable. Es verdad que las grandes plataformas de inteligencia artificial que desarrollan los gigantes de la tecnología han abierto la posibilidad para decirles “adiós”, no obstante, debemos preguntarnos si esto resulta deseable, si estamos preparados para los turbulentos cambios -éticos, políticos, sociales, laborales, etc.- que la tecnología promete desencadenar en el sector legal.

Cambios respecto de los cuales conocemos el punto de partida, pero ignoramos por completo el puerto de llegada. Antes de decir “adiós” a los árbitros y abogados se debe contemplar la posibilidad de tender puentes entre el sector legal y la inteligencia artificial.

Resulta necesario entrar a investigar y reflexionar, en términos cuantitativos y cualitativos, sobre la capacidad potencial que poseen las tecnologías de inteligencia artificial generativa para mejorar el acceso a la administración de justicia, agilizar los tiempos de respuesta, promover la transparencia de la información y garantizar la imparcialidad de las decisiones.

El miedo o, mejor aún, la desconfianza que suscita un observador de segundo orden resulta en el corto plazo mucho más interesante, diciente y real. La posibilidad de una inteligencia artificial que entre a reexaminar las entretelas del trabajo que realizan los encargados de decidir debe ser explorada. Si la inteligencia artificial  no termina por reemplazar a quienes deciden, nada impide que entre como una observadora de segundo orden a revisar el trabajo que estos realizan, lo que resulta especialmente valioso en contextos marcados por la inseguridad jurídica, la desconfianza, los cambios abruptos en las tendencias decisionales y una relación edípica y no del todo clara entre la jurisdicción ordinaria y los mecanismos alternativos de resolución de controversias.

No estamos en presencia de una situación nueva, tanto los árbitros como la totalidad de quienes toman decisiones en el sector justicia han sido a lo largo de la historia objeto de especial atención e incluso vigilancia por parte del Estado, los gremios, los académicos, los comunicadores y las partes directamente interesadas en el sentido de la decisión. Se trata de una carga que, en cuanto administradores de justicia, están obligados a soportar. Lo novedoso radica en la potencia de análisis que aporta la inteligencia artificial al monitorear grandes volúmenes de información que con anterioridad escapaban al más experimentado de los observadores.

Se trata, además, de una posibilidad que no solo es valiosa sino también recíproca. Una hipotética máquina encargada de administrar justicia y tomar decisiones debe pasar necesariamente por la supervisión humana tanto en su programación como en sus resultados con el objetivo de eliminar, en cuanto, sea posible, los sesgos, las taras, las desviaciones, etc. No se puede perder de vista que todo desarrollo de la inteligencia artificial es, de alguna manera, un reflejo de las estructuras mentales de sus creadores y usuarios. Tomemos como ejemplo el caso de Tay, un experimento fallido de Microsoft, que tras interactuar unas pocas horas con los usuarios en la red terminó por emitir juicios racistas, xenófobos y machistas.

Hemos entrado así, casi sin notarlo, en la era del humano que vigila a la máquina y la máquina que vigila al humano -aquí está la reciprocidad- .

La primera posibilidad se da por descontada, todo desarrollo de la inteligencia artificial aplicable al sector legal debe ser recibido con cautela y sometido a la más minuciosa revisión. La segunda posibilidad es más polémica todavía, pero es también por la que apostamos, la máquina está llamada a revisar lo que hacen quienes toman decisiones en el sector legal.

La inteligencia artificial hace inteligible la actividad decisional en el sector legal gracias a su capacidad para cartografiar, con elevado nivel de precisión y detalle, las prácticas concretas que despliegan quienes deciden: prácticas textuales, argumentativas, comunicativas, institucionales, interpretativas, gremiales, etc.

Esto resulta especialmente interesante, además de necesario, cuando se considera que al interior del sistema jurídico no se ha desarrollado una teoría general de la decisión, tal como si se ha hecho en economía, administración o, incluso, ciencia política -esta última idea se la debo a Luhmann-.

Resulta fácil ceder ante el encanto contenido en el tópico sobre la tecnología como un ente maligno que llega para deshumanizar a la justicia y robarle el alma, sin embargo, existen ya en la actualidad muchos contextos en los cuales, sin ayuda de la tecnología, la administración justicia se las ha arreglado bastante bien para devenir inhumana.

Las cifras sobre percepción de la justicia son, en ciertos países y contextos, una señal desalentadora e inequívoca. La justicia, por sí sola, sin ayuda de la tecnología, se las ha ingeniado, de nuevo bastante bien, para alejarse de la gente y alejar a la gente.

La administración de justicia devino inhumana cuando olvido su naturaleza de servicio. Un servicio, esto no puede olvidarse, es una actividad que se realiza en beneficio de otros. La justicia en cuanto servicio público es una actividad que permite materializar el interés general, de lo contrario será cualquier cosa, pero nunca justicia.

Por más contradictorio que pueda sonar esto, la justicia materializa el interés general incluso cuando resuelve conflictos de estricto derecho privado. La inteligencia artificial abre la puerta para prestar mejores servicios en el sector legal al agilizar los tiempos de respuesta, orientar decisiones que atiendan al problema jurídico planteado, indicar los mecanismos y procedimientos más convenientes, emitir “campanazos de alerta” frente a posibles fraudes o desviaciones de poder, etc. 

La inteligencia artificial es, en este momento, una herramienta capaz de garantizar que la administración de justicia sea, por fin, humana.

VITA fue creada como parte de mi tesis doctoral en pensamiento complejo (Ángela Cristina Villate)

Leave a Reply

Your email address will not be published. Required fields are marked *