InicioActualidadRobots desbocados: ¿Estamos listos para la IA sin límites?

Robots desbocados: ¿Estamos listos para la IA sin límites?

Publicado el

por Fabricio Falcucci.

Durante un festival en China, un robot humanoide programado para entretener se convirtió en una pesadilla: atacó a los asistentes tras un «fallo del sistema». Esta escena, tan distópica como real, va más allá de una simple anécdota tecnológica; nos obliga a plantear una pregunta inquietante: ¿estamos preparados como sociedad para convivir con máquinas que no siempre entendemos ni controlamos?

Este incidente nos fuerza a enfrentar un debate que ya no es del futuro: ¿cómo regulamos, desde el derecho, la ética y la justicia, tecnologías tan poderosas como la inteligencia artificial (IA)? Y, más importante aún, ¿cómo nos protegemos —jurídica y humanamente— de sus riesgos inherentes?

¿Quién se hace cargo cuando una máquina lastima?

Imaginemos que este incidente hubiera ocurrido en Buenos Aires, Rosario o Tucumán. ¿A quién se llevaría a juicio? ¿Al programador? ¿A la empresa fabricante? ¿A la institución que lo contrató? En Argentina, como en la mayoría de los países, aún no existe una ley específica sobre IA que brinde claridad a estas preguntas.

En Europa, el debate está más avanzado: en 2025 se aprobó el Reglamento de Inteligencia Artificial, que establece categorías de riesgo y obligaciones legales claras para quienes desarrollan y usan IA. Mientras tanto, en América Latina, todavía discutimos si esto es solo una herramienta o también un sujeto capaz de «actuar» por sí mismo.

El caso chino debe servirnos de espejo: si no creamos marcos legales adecuados pronto, los vacíos se llenarán con improvisación, arbitrariedad o, peor aún, impunidad.

Ética: ¿pueden las máquinas entender el bien y el mal?

Aquí es donde entra un viejo conocido de la filosofía: Immanuel Kant, quien afirmaba que la ética no se trata de resultados, sino de principios. Para Kant, una acción es moral no porque produzca buenos efectos, sino porque se realiza por deber, guiada por una ley moral que pueda ser universalizada. En otras palabras, no basta con que una acción “funcione” o logre buenos resultados; debe poder justificarse ante todos como una norma válida para cualquiera.

Aplicado a la IA, esto significa que no alcanza con que un algoritmo sea eficiente o minimice errores: debe estar programado sobre principios éticos universales, como el respeto por la dignidad humana. La autonomía moral no puede delegarse en máquinas, porque la moralidad exige intencionalidad, conciencia del deber y respeto por el otro como fin en sí mismo y nada de eso es reproducible por una IA.

Sin embargo, hoy muchos algoritmos se entrenan con datos sesgados, lo que lleva a decisiones automatizadas que replican desigualdades o sistemas de vigilancia que no respetan la privacidad. ¿Quién decide qué es lo correcto cuando el código reemplaza al criterio humano? ¿Podemos programar una ética sin sujetos morales?

La filósofa española Adela Cortina ha advertido con razón que “la inteligencia artificial necesita ser guiada por una ética de la responsabilidad, porque sin responsabilidad no hay justicia ni democracia”. Esta advertencia no es abstracta: responde a un mundo donde los algoritmos ya deciden quién accede a un crédito, a una beca o a un tratamiento médico, y donde esas decisiones muchas veces se toman sin transparencia, sin control democrático y sin posibilidad real de defensa.

Cortina forma parte de una corriente que plantea que no basta con evitar daños: hay que preguntarse activamente por el bien que queremos construir con la tecnología. Su mirada —inspirada en la ética del discurso y el pensamiento de Habermas— propone que las normas que rigen nuestras sociedades (y, por tanto, también nuestras máquinas) deben poder ser justificadas racionalmente en un diálogo entre iguales. Es decir, ningún sistema de inteligencia artificial debería operar sin la posibilidad de rendir cuentas ante los seres humanos a los que afecta.

Además, la autora insiste en que no es éticamente neutro cómo se diseña, se entrena y se implementa la IA. Si no se incorporan de manera consciente valores como la equidad, la inclusión o la justicia social, los algoritmos reproducirán —o incluso agravarán— las estructuras de exclusión ya existentes. En ese sentido, retoma el espíritu kantiano: la justicia no puede ser una consecuencia casual, sino un principio rector del diseño tecnológico.

La UNESCO dio un paso importante al publicar en 2021 su Recomendación sobre la Ética de la Inteligencia Artificial, instando a que estas tecnologías promuevan el bienestar colectivo, la inclusión y el respeto a los derechos humanos. El problema es que estas recomendaciones no son vinculantes, y en la práctica, muchas empresas las ignoran o las reducen a simples eslóganes de marketing.

Justicia: que el futuro no sea un privilegio de pocos

Si la IA está cambiando el mundo, también puede alterar la distribución del poder. Existe una línea muy fina entre usar la inteligencia artificial para mejorar la vida de todos y reforzar los privilegios de unos pocos.

En un país con brechas sociales tan marcadas como Argentina, esto no es un detalle menor. ¿Quién accede a la tecnología? ¿Quién puede auditar los algoritmos que deciden becas, turnos médicos, créditos o sentencias judiciales? ¿Quién queda excluido?

La justicia —como valor y como sistema— debe garantizar que las decisiones automatizadas no sean opacas ni discriminatorias. La transparencia algorítmica y la participación ciudadana no son lujos técnicos: son garantías democráticas fundamentales.

Regular antes que lamentar

Lo que sucedió en China no es solo un problema técnico; es un síntoma cultural. Tendemos a creer que la tecnología se gobierna sola, pero esto no es así. Las decisiones humanas —de diseño, de negocio, de regulación— están detrás de cada línea de código.

Si no discutimos a tiempo cómo queremos que sea la relación entre humanos y máquinas, otros lo harán por nosotros. Y quizás no con criterios de equidad, justicia o dignidad, sino de eficiencia, control y ganancia.

El desafío es enorme, pero no es nuevo: como dijo Hannah Arendt, «la promesa del progreso técnico no puede reemplazar la necesidad de pensar lo que hacemos».

La inteligencia artificial puede ser una aliada formidable. Pero solo si decidimos —como ciudadanos y como sociedad— que no nos basta con que funcione: queremos que funcione bien, y para todos.

 

últimas noticas

CUANDO TODO ESTALLA A LA VEZ

por José Mariano.  El caos no se explica. Se transmite en vivo. Hay semanas que no...

Las Diatribas en las que navega el Poder

por Daniel Posse. En términos generales, el poder se define como la capacidad de influir,...

Irán e Israel ya están en guerra

por María José Mazzocato.  Mientras Israel e Irán protagonizan la escalada más violenta de las...

Argentina y Gaza: la obediencia se disfraza de diplomacia

por Enrico Colombres.  Otra vez sopa, la Argentina jugando con fuego. Hay que decirlo con...

Más noticias

CUANDO TODO ESTALLA A LA VEZ

por José Mariano.  El caos no se explica. Se transmite en vivo. Hay semanas que no...

Las Diatribas en las que navega el Poder

por Daniel Posse. En términos generales, el poder se define como la capacidad de influir,...

Irán e Israel ya están en guerra

por María José Mazzocato.  Mientras Israel e Irán protagonizan la escalada más violenta de las...