Por Rodrigo Fernando Soriano.
Últimamente escuché demasiado que con la Inteligencia Artificial nos encontramos en un proceso de “deshumanización”. Pienso totalmente lo contrario. A todo le encontramos forma humana. Basta con pensar como criamos a nuestras mascotas. Duermen como humanos, le hablamos como bebés, comen en la misma mesa que nosotros, y hasta lo entendemos como sujetos de derecho. Es natural en nosotros humanizar la realidad.
Entonces, encuentro casi imposible hablar de un proceso de deshumanización, sino por lo contrario, exacerbamos la humanización de la tecnología. En un juzgado de Santa Fe, una inteligencia artificial fue utilizada para analizar un contrato de seguro. El objetivo era noble: detectar lenguaje complejo, técnico, inaccesible para los consumidores. La máquina cumplió. Pero lo interesante no fue lo que hizo, sino lo que provocó.
Porque en ese acto se reveló una tendencia más inquietante que el avance tecnológico: la voluntad creciente de proyectar lo humano en lo que no lo es. El verdadero riesgo no es deshumanizarnos. Es humanizar demasiado.
Nos asusta que las máquinas se parezcan a nosotros, pero olvidamos que somos nosotros quienes las vestimos con nuestras formas, nuestras dudas, nuestras palabras. Les pedimos que redacten, que interpreten, que juzguen. Les atribuimos sensibilidad, moral, prudencia. Les concedemos el beneficio de la empatía que aún no pueden tener.
El juez santafecino que usó la Inteligencia Artificial para “interpretar” una cláusula del contrato, humanizó la tecnología. El juez hace eso: interpreta. Pero delegó tal potestad, función primordial en nuestra sociedad a una IA. No es la IA la que quiere entrar al derecho. Somos nosotros quienes la invitamos a sentarse en la silla del juez, como si fuera posible enseñarle a conmoverse, a indignarse, a reparar.
Una de las grandes innovaciones en el Código Civil y Comercial de la Nación fue el establecimiento de los artículos 1, 2 y 3: Constitucionalización del derecho privado a través del diálogo de fuentes; la interpretación del derecho con dimensiones teleológicas desechando quizá la vieja filosofía kelseniana; y el deber de los jueces en resolver conflictos mediante un procedimiento razonado de aplicación de la ley al caso concreto.
Fabio Pulido Ortiz insiste en que el derecho no es una técnica de aplicación, sino una ética de interpretación. No se trata de operar normas, sino de habitar conflictos. De mirar al otro y hacerse cargo. Ese ejercicio requiere tiempo, historia, lenguaje, cuerpo. Y sobre todo: requiere fallibilidad. De hecho, a las sentencias las nombramos como “fallos”. No es casual.
Pero en vez de hacer ese trabajo, buscamos quien lo haga por nosotros. Y elegimos una máquina. No es deshumanización. Es comodidad. La inteligencia artificial no es peligrosa porque piense como nosotros. Es peligrosa porque la tratamos como si pudiera hacerlo.
Byung-Chul Han temía que fuésemos expulsados de lo humano por una lógica de eficiencia sin pausa. Pero el escenario es más perturbador: no nos estamos rindiendo, nos estamos proyectando. Y al hacerlo, confundimos nuestra responsabilidad con su capacidad. Le damos voz a lo que no tiene intención. Le exigimos conciencia a lo que apenas tiene cálculo.
El precedente santafecino, que fue celebrado en la comunidad jurídica, nos deja en evidencia, y resulta por demás peligroso. Luciano Floridi, por su parte, habla de la infosfera. Un mundo ya completamente saturado de datos, donde la inteligencia artificial ya no es un objeto externo, sino parte de nuestro entorno. En ese espacio, la IA no puede excusarse de la ética. Toda decisión que afecte a un ser humano es, necesariamente, moral. ¿Quién asume la responsabilidad cuando una IA redacta una sentencia? ¿El juez que la firma? ¿El programador que la entrenó? ¿La empresa que la vendió?
El riesgo no es la deshumanización. El riesgo es esta nueva forma de antropomorfismo técnico, donde la máquina no imita al humano, sino que lo reemplaza en su peor parte: la de no querer elegir.
Y sobre todo, es no olvidar que en el centro de toda justicia hay una persona. No un dato.
¿Qué nombre le pusiste a tu Inteligencia Artificial?
Déjame tu comentario
Comparto tu análisis , excelente como nos tienes acostumbrados Dr.
Muchas gracias Ro!
Si bien el artículo dice «la máquina no imita al humano, sino que lo reemplaza en su peor parte: la de no querer elegir», a mi parecer, la peor parte es, en realidad, no querer aceptar la responsabilidad que corresponde sobre la elección que se hace.
Muy buena nota como cada semana!
Me gustó tu punto de vista
Excelente Rodrigo
Muchas gracias Marito!
Que importante es no ser ingenuos ante la aplicacion de la IA , ni tampoco alarmistas, sino mas conscientes del uso, de lo que puede colaborar a la vida. Gracias Rodri por el aporte. Excelente nota!
Gracias Vir!!