por Rodrigo Fernando Soriano.
La reciente decisión del Tribunal Superior del Condado de Gwinnett, Georgia, en el caso Mark Walters vs. OpenAI, trasciende el plano estrictamente judicial. No se trata solo de un fallo a favor del gigante tecnológico; es, sobre todo, una señal temprana —y poderosa— de cómo el derecho empieza a posicionarse frente a los desafíos de la inteligencia artificial generativa.
El caso gira en torno a un error producido por ChatGPT, el modelo de lenguaje desarrollado por OpenAI. A raíz de una consulta del periodista Frederick Riehl, la IA generó —sin base alguna— una afirmación difamatoria: que el locutor nacional Mark Walters había malversado fondos de la Second Amendment Foundation (SAF). Lo curioso es que el error no fue difundido, ni publicado, ni siquiera creído. Riehl lo descartó de inmediato. Y, sin embargo, Walters decidió litigar.
Lo que siguió fue una sentencia que, más allá de sus efectos inmediatos, establece un criterio jurídico que podría proyectarse a escala global: OpenAI no es responsable por la información generada erróneamente por su sistema.
Primero, el tribunal entendió que la afirmación de ChatGPT no tenía un carácter difamatorio, al menos desde la perspectiva de un “lector razonable”. ¿Por qué? Porque OpenAI había advertido explícitamente —en sus términos de uso, en su interfaz y en el propio flujo de conversación— que el sistema podía generar errores o “respuestas completamente ficticias”. Y porque el periodista que recibió esa información, lejos de considerarla creíble, la descartó de inmediato. Este punto es central: el deber de verificación recae en el usuario cuando tiene herramientas y advertencias claras para hacerlo. ¿Hasta dónde puede extenderse esta lógica en un mundo donde no todos los usuarios son periodistas expertos? La pregunta desde un punto de vista jurídico sería si cumple con los estándares del Deber de Advertencia que engloba el deber de información regulado por el art. 42 CN, art. 1100 CCCN y art. 4 ley 24.240.
Segundo, la Corte desestimó la existencia de negligencia por parte de OpenAI. La empresa demostró haber tomado medidas activas —y consideradas líderes en la industria— para reducir las llamadas “alucinaciones” de su sistema. Además, al tratarse de una figura pública, Walters debía probar que OpenAI actuó con “malicia real”, es decir, sabiendo que la información era falsa o mostrando un desprecio temerario por la verdad. Ninguno de esos extremos fue demostrado.
Tercero, el tribunal concluyó que no hubo daño. No existió perjuicio reputacional ni económico verificable, y Walters no realizó los trámites legales exigidos en el estado de Georgia para solicitar daños punitivos, como una retractación previa. Paradójicamente, fue la propia inexistencia de consecuencias lo que blindó a OpenAI.
Una de las particularidades del caso es que el error no fue producto de una falla aislada o una mala programación, sino de la naturaleza misma del sistema generativo. ChatGPT, como todo modelo de lenguaje, predice secuencias de palabras en base a patrones estadísticos, sin comprender ni verificar la veracidad del contenido que emite. Las “alucinaciones” no son anomalías: son, en cierto modo, parte del diseño.
El tribunal pareció entenderlo así. Y, con ello, optó por un enfoque que privilegia la autonomía del usuario y el consentimiento informado, más que la responsabilidad objetiva del creador del sistema. Es una línea razonable, pero también riesgosa.
La pregunta incómoda permanece: ¿qué ocurrirá cuando la información falsa generada por una IA sí sea difundida, sí cause daño y afecte a alguien sin medios, formación o recursos para desmentirla? ¿Seguirán siendo suficientes las advertencias y los términos de uso para liberar de toda carga a los desarrolladores?
La sentencia no cierra este debate. Lo inaugura. Y lo hace con un tono que invita a repensar las categorías tradicionales del derecho, como la imputabilidad, la culpa o la difusión, en un escenario donde los protagonistas ya no son solo humanos. El caso Walters vs. OpenAI nos muestra que la responsabilidad en tiempos de inteligencia artificial no será una respuesta simple ni unívoca, sino un terreno en disputa donde ética, técnica y derecho deberán aprender a dialogar.
Será cuestión de qué como sociedad busquemos un límite de tolerancia a las alucinaciones. Hasta hoy son aceptadas. Sabemos que la Inteligencia Artificial nos brinda información inexacta, falsa, inventada, pero aun así decidimos seguir adelante con su uso. Habrá que regular entonces la responsabilidad de las grandes plataformas LLMs, y determinar el tipo de responsabilidad que tiene el uso de la IA más allá de la teoría del riesgo.
En tiempos donde los modelos de lenguaje generan contenido a la velocidad de la luz, esta sentencia nos recuerda que, al menos por ahora, la responsabilidad sigue viajando a la velocidad del juicio humano.