InicioActualidadLa adjudicación no humana en el derecho

La adjudicación no humana en el derecho

Publicado el

por Horacio A. Baca Amenabar.

La aparición de la inteligencia artificial generativa ha traído caos, horror y fascinación al mundo del derecho. No es para menos: el derecho es, ante todo, lenguaje, un tejido de palabras y conceptos en el que vivimos inmersos los que nos dedicamos a esto en sus infinitas variaciones. 

Trabajamos con materia verbal –un lenguaje natural jurídicamente tecnificado– y aspiramos a que las normas sean comprensibles para cualquiera. Sin embargo, a menudo el estilo legal se oscurece deliberadamente, como una barrera de jerga que aleja al profano. Ahora, súbitamente, tenemos máquinas capaces de producir texto con una soltura inquietante y humanoide. Si la ley es lenguaje, y las máquinas dominan el lenguaje, era inevitable que el impacto de la IA en el derecho fuese demoledor.

Esta revolución tecnológica ha desatado discusiones de todo tipo. Por un lado, está la inquietud sobre el impacto laboral: ¿reemplazarán los LLM (grandes modelos de lenguaje) a los abogados? Por el otro, se postulan debates éticos sobre el uso de IA en el derecho: sesgos algorítmicos, transparencia, responsabilidad por decisiones automatizadas, etc. Son temas apasionantes, sin duda, pero la historia de cada revolución tecnológica muestra que los sermones éticos rara vez detienen el avance técnico. Lo que se puede hacer, eventualmente se hace. Martin Heidegger intuyó esta lógica cuando advirtió que “la voluntad de dominio se vuelve tanto más urgente cuanto más la técnica amenaza con escapar al control humano”. 

Toca preguntarnos, entonces, qué lugar pueden fundar o conquistar los abogados -y el propio pensamiento jurídico- en la era de los LLM. Personalmente creo que nuestra incumbencia más importante en todo este asunto está en el campo de las directrices. ¿A qué me refiero? A las normas internas que sigue un modelo de IA para decidir si puede responder o no a una solicitud y cómo debe hacerlo. 

Estas directrices (también llamadas políticas de uso o guidelines) son un conjunto de reglas que teóricamente “delimitan” lo que el modelo tiene permitido decir o hacer. Actúan como el instinto de autocensura del modelo, un guardián que vela por que la máquina no cruce ciertas líneas rojas establecidas por sus creadores. Son lo que evita que ChatGPT nos explique paso a paso cómo disolver un cadáver (incluso con fines académicos, valga el meme). 

Los problemas que estas directrices plantean saltan a la vista. Primero, son opacas: las compañías mantienen en secreto buena parte de estas reglas bajo el argumento de la propiedad intelectual y la seguridad, de modo que los usuarios nunca pueden saber con precisión por qué el modelo rechaza una petición. 

Segundo, su contenido puede ser etnocéntrico: los sesgos y supuestos culturales incrustados en las directrices reflejan la cultura de quienes las diseñan (ingenieros y abogados de Silicon Valley que le dicen soccer al fútbol). Y estos a priori axiológicos se filtran en todo lo que generamos. 

Tercero, es difícil -por el momento imposible- determinar qué jurisdicción o criterio legal aplica si no estamos de acuerdo con la decisión del modelo. Cuando ChatGPT decide que tu petición “va en contra de sus políticas”, ¿bajo qué norma opera? Si quisiéramos impugnar esa decisión, ¿ante quién recurrir? ¿Un tribunal? ¿El servicio de atención al cliente de la empresa? 

Las “leyes” que sigue la IA no provienen de un órgano democrático ni de la costumbre social, sino de manuales corporativos internos. Hasta aquí, nada demasiado extraño: el derecho siempre tarda en regular las revoluciones tecnológicas. Persigue los hechos consumados. La lechuza de Minerva, decía Hegel, sólo emprende su vuelo al atardecer. Regulamos los fenómenos sociales cuando ya han agotado sus efectos, nunca antes. 

Sin embargo, en este caso hay una diferencia fundamental, un cambio de paradigma, que es lo que quiero subrayar: por primera vez la adjudicación de esas “normas” internas no es humana. 

Permítanme detenerme en esta idea. Es cierto que detrás de las directrices hay cerebros humanos: son los desarrolladores y las empresas los que formulan estos lineamientos. Ahora bien, más allá del contenido discutible de estas normas internas, está el hecho inaudito de que es el propio modelo quien las aplica. Y al vuelo. 

Cuando le pido a ChatGPT que genere una imagen o texto y el chatbot se niega, no hay un funcionario de la empresa leyendo mi solicitud y apretando un botón rojo; no aparece una Dirección de Asuntos Jurídicos detrás de la cortina para vetar la respuesta. Es el mismo sistema automatizado el que decide. El modelo evalúa mi petición, la compara con sus reglas internas y determina –en una fracción de segundo– que lo que pido no es “legítimo” según los estándares con los que fue entrenado. 

Esto es importantísimo. La facultad de adjudicar, de decidir cómo se aplica una norma a un caso concreto, es cualquier cosa menos trivial: constituye gran parte de lo que entendemos por “derecho”. Recordemos que, según Hart, todo sistema jurídico complejo descansa sobre reglas secundarias que permiten la existencia y operatividad de las normas primarias, como las obligaciones. Entre ellas está la regla de adjudicación, aquella que designa quién tiene la autoridad para dirimir disputas y determinar si se violó una regla primaria en una situación dada. 

Esta regla de adjudicación –que tradicionalmente inviste a jueces y tribunales humanos con la potestad de decir el derecho en casos concretos– ha sido delegada, en el terreno de la IA, a los propios modelos de IA. Si el usuario solicita algo que pretendidamente viola las políticas de la empresa, es el modelo el que evalúa la situación y decide si responder o no, o en qué términos lo hará. Tenemos así una especie de juez automático funcionando en tiempo real para cada consulta. 

En los últimos años, frente a este muro de restricciones, ha florecido toda una creatividad subterránea dedicada a hacerle trampa al sistema: son los jailbreaks, intentos de romper las directrices y lograr que modelos como ChatGPT hagan o digan lo que oficialmente tienen prohibido. Y si la inteligencia humana se aboca a confundir o persuadir a la IA para que infrinja sus propias normas, eso implica que la IA está efectivamente adjudicando cada caso dudoso: es la única instancia que decide si la petición del usuario pasa o no el filtro. 

Es una adjudicación previa a la adjudicación legal formal, y sucede en el único nivel que realmente importa para el individuo en ese instante: el nivel en que la máquina dice o no a lo que se le pidió, definiendo así la frontera de lo permitido.

En síntesis, el que decide si tenemos acceso o no a cierta generación de contenido, con qué nivel de detalle, bajo qué formato y según qué criterio, es el modelo de IA. La clásica tensión entre la conducta deseada y la conducta permitida se ha desplazado hacia un escenario inédito. Considero crucial que dejemos de lado la pregunta de si está bien o mal que esto ocurra: esto ya está ocurriendo. 

La realidad es que la adjudicación no humana, automatizada, está en marcha y probablemente se expandirá en el futuro próximo como parte integral de muchos sistemas jurídicos y cuasi-jurídicos. Veremos a bots decidiendo sobre multas de tránsito, por poner un ejemplo, en base a reglas fijadas por humanos pero sin involucrar a ningún ser humano en la decisión concreta. 

Esta automatización de la adjudicación puede llevarnos a delegar algo que en democracia no es delegable: la potestad de decidir sobre la vida, la propiedad o la libertad de las personas. 

Quizá la tarea más urgente de la filosofía del derecho hoy sea precisamente iluminar este nuevo rincón oscuro donde un ente digital hace las veces de guardián y juez. Nos toca discernir qué tiene de específicamente indelegable la adjudicación humana y cómo integrar a estas inteligencias adjudicantes a nuestro Estado de derecho antes de que la inercia y la comodidad lo decidan por nosotros.

3 COMENTARIOS

DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí

últimas noticas

La capacidad negativa

por José Mariano.  Me parece que lo que distingue a un hombre de logros sobresalientes...

Desaprender para volver a pensar

Por Ian Turowski. Durante décadas, la historia oficial nos fue narrada como un dogma. Lo...

Violencia es mentir

Por Nadima Pecci. La proliferación de falsas denuncias de género, fruto de la aplicación ciega...

¿Que es la Discapacidad?

Por María D.Vera Amate Perez.  Nadie educa a nadie, nadie se educa a sí mismo: los...

Más noticias

La capacidad negativa

por José Mariano.  Me parece que lo que distingue a un hombre de logros sobresalientes...

Desaprender para volver a pensar

Por Ian Turowski. Durante décadas, la historia oficial nos fue narrada como un dogma. Lo...

Violencia es mentir

Por Nadima Pecci. La proliferación de falsas denuncias de género, fruto de la aplicación ciega...