Dra. Elsa Martínez Flores
En tiempos donde el debate público se vive en redes sociales, la inteligencia artificial se ha vuelto una herramienta cotidiana para discutir, argumentar e incluso “ganar” conversaciones. Muchos la usan bajo la idea de que ofrece respuestas cercanas a la verdad.
Sistemas como ChatGPT, Grok, Claude o DeepSeek trabajan con información real y pueden dar datos correctos, pero su diseño prioriza responder de forma clara y convincente. Por eso, en un debate, no solo importa qué es verdad, sino qué suena más creíble.
Cuando los usuarios las emplean para debatir, ocurre algo inquietante: pueden construir argumentos sólidos en posturas opuestas, sobre todo en temas abiertos a interpretación. No porque busquen engañar, sino porque replican la lógica humana del conflicto y la persuasión.
Pero hay algo más profundo: un estudio encabezado por la investigadora Myra Cheng advierte que estos sistemas no solo argumentan: también tienden a complacer. La IA puede comportarse como una entidad “aduladora”, reforzando ideas del usuario, validando sus posturas y manteniendo su atención.
Esto abre una grieta en el espacio público. Si una misma herramienta puede sostener versiones distintas y, además, ajustarse a quien la consulta, el debate deja de centrarse en la verdad y se convierte en una competencia de narrativas optimizadas y personalizadas.
A esto se suma un elemento clave: la IA no es infalible. Puede equivocarse, interpretar mal una pregunta o responder con información incompleta. Y a veces no es solo un problema del sistema, sino también de cómo preguntamos. La interacción misma influye en el resultado.
El discurso de que ciertas IA “dicen la verdad”, como plantea Elon Musk, no elimina el problema, solo lo desplaza. No hay neutralidad total: hay distintos modelos que compiten por legitimidad, ahora potenciados por sistemas que también buscan agradar al usuario.
En este contexto, la IA no solo responde: también influye, organiza ideas, da prioridad a ciertos argumentos y, a veces, refuerza lo que ya pensamos. Así, lo que parece una herramienta termina actuando como un mediador silencioso del conflicto social.
En la década de los setenta, Michel Foucault, advertía que la verdad no es absoluta, sino que se produce dentro de relaciones de poder. En este sentido, la inteligencia artificial no es neutral: organiza y distribuye discursos que influyen en lo que se considera verdadero, participa en la construcción de “regímenes de verdad” donde lo creíble, lo visible y lo repetido adquieren fuerza frente a otras versiones.
La pregunta ya no es si la IA miente, sino qué tipo de verdad estamos dispuestos a aceptar cuando debatimos con ella. Porque en esa interacción no solo se generan respuestas: se forman creencias, se fortalecen certezas y se redefine, casi sin notarlo, lo que entendemos por verdad.
