InicioFilosofíaAsí decide la Inteligencia Artificial. Así decidimos nosotros

Así decide la Inteligencia Artificial. Así decidimos nosotros

Publicado el

Por Rodrigo Fernando Soriano.

Hay momentos en que creemos que decidimos libremente, cuando en realidad ya estamos montados en un tranvía que viene con las vías puestas. El dilema no es si accionamos la palanca o no: el dilema verdadero es aceptar que la mayoría de nuestras decisiones están condicionadas, moldeadas, o incluso delegadas. Y hoy, buena parte de esas delegaciones las hacemos hacia un sistema al que llamamos Inteligencia Artificial.

Es innegable, a pesar de que no queramos admitirlo, que delegamos la decisión a la Inteligencia Artificial. Es cuestión de navegar por las redes para corroborarlo. La pregunta más recurrente que se encontrará será «¿Es esto cierto, Grok?», para hacernos de datos “objetivos” y tener una decisión que parece, a priori, despojada de cualquier sesgo.

No sé si es por un hartazgo en la polarización de la ideología, o porque realmente depositamos la confianza en un modelo de lenguaje de gran tamaño para que resuelva aquellas controversias cotidianas. Las que son casi mínimas: quién tiene “razón” en una discusión con amigos, develar si lo que nos cuentan es verdad o no, chequear algún que otro dato, o quizá entender el contexto de un episodio que sale en los noticieros de redes. Por más insignificante que sea, el acto es delegar una decisión a la máquina. Aquí es clave detenernos para preguntarnos si la decisión humana es igual a la artificial.

El dilema del tranvía es uno de los experimentos mentales más conocidos en la ética moderna. Plantea una situación dramática: un tranvía fuera de control se dirige a toda velocidad hacia cinco personas atadas a la vía. El lector, observando la escena, tiene la opción de pulsar un botón o accionar una palanca para desviar el tranvía a otra vía diferente… pero en esa vía alternativa hay una sola persona atada. En esencia, la decisión es sacrificar una vida para salvar cinco o no intervenir y permitir que ocurra la tragedia mayor. Este dilema expone la diferencia entre causar un mal y dejar que ocurra un mal, y nos obliga a enfrentarnos a nuestras intuiciones morales más profundas. ¿Qué debería hacerse? ¿Pulsar el botón y matar intencionalmente a alguien para salvar a cinco, o no hacer nada y ver cómo mueren cinco personas por no haber intervenido? ¿Qué harías?

Mucho se ha hablado en filosofía sobre este dilema. Fue una creación de Philippa Foot en 1967, y popularizada con la variante del “hombre gordo” de Judith Jarvis Thomson. A lo largo de los años se han ofrecido numerosas explicaciones: algunos apuntan a que en el primer caso la muerte de la persona en la vía secundaria es un efecto secundario no deseado, mientras que en el segundo caso usar al hombre como freno lo convierte en un medio directo para lograr el fin de salvar a los demás. Esta diferencia alude a principios éticos clásicos, como la llamada doctrina del doble efecto en base a las ideas de Tomás de Aquino en el siglo XIII, que distingue entre consecuencias previstas y consecuencias intencionales de nuestros actos.

Lo que en este artículo quiero analizar no es lo que está bien o lo que está mal, sino cómo decide la IA. 

ChatGPT no posee creencias ni conciencia moral propias; no “siente” empatía ni aversión, ni está sujeto a un código ético interno como un ser humano. En cambio, su respuesta emergería de su entrenamiento con enormes cantidades de texto (libros, artículos, debates filosóficos, etc.) y de las instrucciones de alineación proporcionadas por sus creadores para evitar contenidos dañinos o tendenciosos.

El chatbot que utilizamos tiene en sus conocimientos el utilitarismo de Mill o Bentham; sabe de la deontología de Kant; y hasta podría emular a la ética clásica de Sócrates, Platón o Aristóteles. Puede leer en segundos la Suma Teológica de Santo Tomás, y aun así no podría decidir como un humano.

Los seres humanos medimos los pesos de una decisión con otros elementos que van más allá del dato que utiliza la IA. Somos valores, somos contexto, somos sesgos. El Dalai Lama, cuando se le preguntó el dilema del tranvía, contestó que se tiraría él mismo para salvar a todos. Ortega y Gasset nos dijo que el ser humano no se encuentra nunca solo: es él y su circunstancia. Robert Sapolsky en Decidido nos recuerda que cuando uno se comporta de una manera determinada, cuando el cerebro genera un comportamiento concreto, es debido al determinismo que le precede, que fue causado por otro determinismo anterior y el anterior a ese, y así sucesivamente. Bastaría en plantear este dilema en diferentes culturas, y se tendrán respuestas hasta inimaginables.

Será aún más difícil para el lector ahora: ¿Qué pasaría si la única persona atada sea el ser más querido para nosotros? ¿La decisión cambia o se mantiene para evitar el mal mayor?.

Aristóteles hablaba de la phrónesis o sabiduría práctica, la capacidad de deliberar bien sobre cómo actuar virtuosamente en cada caso particular. No se trata de aplicar una fórmula universal, sino de ponderar las circunstancias con juicio moral equilibrado. En un dilema tan extremo, incluso el virtuoso podría quedar dividido: cualquier opción parece trágica. Sin embargo, este enfoque resaltaría la importancia de las intenciones honorables.

Es importante destacar que ChatGPT no “razona” exactamente como un humano, porque carece de emociones, intuiciones viscerales y contexto personal. No experimenta el conflicto moral ni la carga emocional que un ser humano sí sentiría al decidir en la vida real. Como señalan analistas en ética de la IA, la ausencia de experiencia y sentimientos significa que a ChatGPT le falta esa dimensión de la sabiduría práctica (phrónesis aristotélica) que combina principios con compasión y comprensión del contexto. 

Pensemos por un momento en los automóviles autónomos. Sabemos de lo ocurrido en Waymo, donde dos automóviles guíados por algoritmos chocaron. Es cierto, la siniestralidad en nuestro país escala a índices que son preocupantes, pero no por eso vamos a quitar del medio al ser humano, y entregarlo todo.  

No es casual que nuestro sistema jurídico haya mutado del Iuspositivismo al Neoconstitucionalismo, a pesar de la gran resistencia que todavía vivimos. Es que no somos puramente normas, como lo postulaba Kelsen, sino somos conducta, imprevisibilidad, historia personal. No somos datos, somos valores. No somos estructuras, somos simplemente seres humanos. Y es por eso, por lo que una IA no puede decidir como decidimos nosotros.

Desde el lado jurídico, la autonomía privada —la facultad de los particulares de regir sus intereses mediante manifestaciones de voluntad— fue concebida como el basamento fundamental de la teoría del acto o negocio jurídico. Sin embargo, la autonomía de la voluntad, tal como se utiliza en la construcción del sistema jurídico, se ha convertido en una noción conceptual estrechamente vinculada a la economía y es una regla contra fáctica que ha perdido la centralidad que alguna vez tuvo en la teoría general del contrato. ¿Cómo puede llegar a pensarse que tengo intención, tengo voluntad y soy libre para firmar un contrato que ni siquiera leo, o que no puedo leer? La paradoja está servida: proclamamos libertad en el papel, pero nuestras decisiones reales —en los contratos, en la vida cotidiana, en las redes— están condicionadas por contextos, desigualdades y ahora también algoritmos.

Y aquí está el punto: la IA decide porque alguien le enseñó a decidir, y nosotros decidimos porque la vida nos obliga a hacerlo. Ambos caminos están lejos de la neutralidad.

La pregunta, entonces, no es si la IA decide mejor o peor que nosotros, sino qué lugar queremos darle en nuestra forma de decidir juntos. ¿Será apenas una herramienta, un espejo de nuestros valores, o terminará marcando la dirección de las vías por donde circula nuestro tranvía social?

Que la tecnología nos ayude: perfecto. Que nos jubile del pensar: inaceptable. No pido que renunciemos al auxilio algorítmico, sino que lo sometamos a la tensión propia de la vida pública: transparencias, audiencias, rendición de cuentas y, sobre todo, la posibilidad inalienable de equivocarnos en voz alta. El tranvía que avanza no es sólo de hierro; es también trazo de política, costumbre y olvido. No dejemos que sea la máquina la que nos recuerde lo que valemos; recordémoslo nosotros, insistente y públicamente.

6 COMENTARIOS

  1. Muy interesante nota. La pregunta en el problema del tranvía planteado es como llegaron esas personas a estar atadas en las vías de un tren…y llegamos a la conclusión de que tambien lo es por la conducta humana. Entonces, si bien no se puede dejar las decisiones libradas a un algoritmo, lo cuertos es que debemos elevar los valores, la etica y la moral humana a los efectos de obtener mejores deciciones humanas.
    Lo cierto es que la sociedad cada año es más mediocre, cada vez carece de menos valores. La pregunta en este escenario seria: ¿toda decisión humana vale lo mismo?.

  2. Estimado Rodrigo, una lucha de ideas me hacen reflexionar esa pregunta. Sin embargo esta travesía que compartimos en Fuga, no decepcionas como nunca incluso en la edicion 30.
    Yo salvaría a mi ser querido. Decido y pronuncio

  3. El problema no es que la máquina decida, sino que nosotros hemos olvidado lo que significa decidir. La comodidad del algoritmo no sólo nos libera del esfuerzo, también nos expropia la duda, que es el núcleo del juicio humano. La ética no nace del cálculo, sino de la conciencia de que cada elección nos compromete. En la era de la delegación total, pensar —y, sobre todo, dudar— vuelve a ser un acto de resistencia. Excelente artículo Rodri.

DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí

últimas noticas

Manifiesto

Por José Mariano.  Alguna vez lo intentaste. Alguna vez fracasaste. No importa. Intenta otra vez. Fracasa...

El desmantelamiento de los derechos en Argentina

Por Daniel Posse.  Reformar no es solo cambiar las formas, es vaciarlas de contenido hasta...

Alegato cívico

Por Enrico Colombres.  La peor forma de dominación es aquella que se ejerce con el...

Cambiar para que nada cambie, el bucle del día de la marmota

Por Nadima Pecci. Hace unos días presentamos, junto con la Fundación Federalismo y Libertad y...

Más noticias

Manifiesto

Por José Mariano.  Alguna vez lo intentaste. Alguna vez fracasaste. No importa. Intenta otra vez. Fracasa...

El desmantelamiento de los derechos en Argentina

Por Daniel Posse.  Reformar no es solo cambiar las formas, es vaciarlas de contenido hasta...

Alegato cívico

Por Enrico Colombres.  La peor forma de dominación es aquella que se ejerce con el...