por Rodrigo Fernando Soriano.
El 11 de diciembre de 1970, John Lennon escribió una de sus canciones más extrañas -y más crudas.: “God”. Comienza con una frase que siempre me inquietó:
“Dios es un concepto por el cual medimos nuestro dolor.” Una declaración que podría haber firmado Nietzsche, o incluso Mainländer, aquel pensador que hablaba del sacrificio divino como acto de creación universal. Lennon no cantaba sobre religión, sino sobre creencias rotas. A lo largo de la canción, desmantela una a una las verdades en las que dejó de creer: en la Biblia, en el Tarot, en Buda, en los Beatles. Hasta que cierra con una declaración aún más potente: “El sueño terminó. Ahora creo solo en mí.” No era solo un grito de dolor, era una advertencia.
Hoy, más de medio siglo después, esa advertencia resuena en una clave que Lennon quizás no imaginó: ya no creemos en nada, o peor aún, creemos en todo aquello que parece real. En esta era de inteligencia artificial generativa, donde las imágenes, voces y videos creados por algoritmos cruzaron la frontera de lo indistinguible, el ver dejó de ser garantía de verdad.
Google acaba de lanzar Veo 3, una tecnología capaz de crear videos con un realismo casi perfecto. Ya no hace falta que algo haya ocurrido para que lo creamos. Basta con que parezca que sí. La IA no solo imita la realidad: la reemplaza. Y eso modifica algo fundamental. Lo que antes requería de prueba, ahora se valida por apariencia.
El límite entre lo verosímil y lo verdadero se desdibuja. El ejemplo más banal puede ser el del canguro: miles -me incluyo- creímos en un video viral donde un canguro bebé impedía a una pasajera abordar un vuelo en Australia. Era falso. Pero parecía cierto. ¿Importa?
Claro que importa. Porque lo que está en juego ya no es solo el contenido, sino nuestra capacidad para discernir. En la discusión reciente entre Elon Musk y Donald Trump, lo más inquietante no fueron las acusaciones cruzadas -drogas, pedofilia, listas negras-, sino la cantidad de bots generados por IA que participaban del debate con apariencia de usuarios reales. La desinformación ya no es obra de humanos: tiene rostro, voz y narrativa sintética.
Y entonces, ¿qué es la verdad? ¿Una prueba verificable? ¿Una emoción convincente? ¿Una ilusión compartida?
Como advertía Platón en su alegoría de la caverna, hoy seguimos viendo sombras, pero no en una pared, sino en pantallas. Encerrados en cavernas digitales, aplaudimos imágenes fabricadas, creemos en voces sintéticas, nos emocionamos con ficciones que no podemos distinguir de la experiencia. Ya no importa tanto si algo es, sino si nos parece.
La IA no necesita decir la verdad. Solo necesita parecer verdad. Y eso alcanza para instalarse como tal. Las consecuencias no son solo técnicas. Son políticas, jurídicas, culturales, filosóficas. ¿Cómo juzgar un hecho si no podemos probar que sucedió? ¿Cómo educar el pensamiento crítico cuando los sentidos son engañados con una eficiencia milimétrica?
No exagero al decir que la IA, sin supervisión, puede matar. Lo vimos en la génesis de movimientos radicales como QAnon, donde algoritmos, redes sociales y delirios colectivos se amalgamaron en una ficción peligrosa. El asalto al Capitolio en enero de 2021 no fue orquestado por una IA, pero sin duda fue amplificado por sus capacidades. Jacob Chansley, el hombre con cuernos, fue la cara visible de una red invisible: la desinformación automática.
La verdad ya no se impone por evidencia, sino por emoción. “Ver para creer” mutó en “Creer para ver”. Y en ese espejo subjetivo, vemos lo que deseamos, tememos o queremos que sea cierto. No porque sea verdad, sino porque nos da sentido.
La tecnología no inventó la mentira. Pero sí democratizó su fabricación. Hoy, cualquier persona con acceso a una computadora puede crear una imagen, una voz o una historia capaz de engañar incluso a los sentidos más entrenados. El problema dejó de ser técnico o ético: ahora es existencial.
La salida, entonces, no será técnica. Será cultural. Necesitamos una nueva alfabetización digital, una ética de la percepción y una filosofía de la verdad adaptada a este tiempo. Educar de nuevo la mirada. El oído. El juicio. Y no para volvernos escépticos paralizados, sino críticos activos.
La IA generativa no es el enemigo. Pero sí es el espejo donde nuestra relación con lo verdadero se vuelve incómoda. Tal vez, como anticipó Nietzsche, “el hombre es una cuerda tendida entre el animal y el superhombre, una cuerda sobre un abismo”. La grandeza, decía, no está en ser la meta, sino en ser tránsito. Y hoy, estamos cruzando un puente inestable entre lo real y lo simulado.
Como diría Dante, en pleno infierno:
«Considerad cuál es vuestro linaje:
no habéis nacido para vivir cual brutos,
sino para seguir virtud y ciencia.»
La crisis no es de tecnología. Es de verdad. Y nos toca, más que nunca, elegir qué hacer con ella.