Opinión

La inteligencia artificial no piensa: expone quién ha dejado de pensar


Escuchando artículo…

0:00 / 0:00


En los últimos meses se ha instalado en el debate público una idea tan seductora como equívoca: que la inteligencia artificial posee un lenguaje propio, una huella estilística inconfundible que delata su intervención desde las primeras líneas. Se habla de ritmo mecánico, de cadencia artificial, de una especie de coreografía lingüística que desnuda el origen no humano del texto. Sin embargo, esta afirmación, aunque intuitivamente atractiva, descansa sobre una premisa débil: no existe un lenguaje de la inteligencia artificial en sentido técnico, sino patrones de redacción que emergen cuando el usuario abdica de su rol crítico.

La inteligencia artificial —ya sea en plataformas como ChatGPT, Gemini o Grok— no produce un estilo homogéneo por naturaleza. Produce, más bien, lenguaje condicionado por la calidad de la instrucción, la precisión del requerimiento y, sobre todo, por la capacidad del usuario para dirigir, corregir y exigir. Cuando ese proceso de conducción intelectual está ausente, el resultado tiende a lo genérico, a lo predecible, a lo estilísticamente plano. Pero ese resultado no es una huella de la máquina: es la evidencia de una ausencia humana.

El verdadero problema, por tanto, no radica en la existencia de la inteligencia artificial, sino en la delegación acrítica del pensamiento. Aquí la preocupación es legítima y profundamente relevante. Cuando el usuario acepta sin cuestionar datos, interpretaciones o narrativas generadas por sistemas automatizados, se produce una erosión del ejercicio crítico que históricamente ha definido la racionalidad humana. No se trata de una sustitución tecnológica del pensamiento, sino de una renuncia voluntaria a ejercerlo.

Desde la perspectiva de la epistemología, el conocimiento no se reduce al resultado final, sino que implica un proceso de validación, contraste y justificación. La inteligencia artificial puede acelerar el acceso a la información, pero no sustituye ese proceso. Cuando se omite la verificación —como en el caso de datos económicos incorrectos o proyecciones asumidas como resultados— lo que falla no es la herramienta en sí, sino el uso que se hace de ella.

Es cierto que estos sistemas pueden incurrir en errores, imprecisiones o lo que técnicamente se conoce como «alucinaciones»: respuestas plausibles pero factualmente incorrectas. También es cierto que operan sobre ecosistemas de información donde determinadas fuentes —principalmente occidentales— tienen mayor peso estructural. Esto introduce sesgos, no necesariamente ideológicos en sentido estricto, pero sí contextuales. Sin embargo, de ahí a sostener que existe una manipulación deliberada o una voluntad de imponer relatos, hay un salto conceptual que no resiste un análisis riguroso.

La inteligencia artificial no tiene conciencia, ni intención, ni voluntad política. No «decide» favorecer narrativas ni «elige» justificar políticas públicas. Lo que hace es replicar patrones de información disponibles y construir respuestas coherentes en función de probabilidades. Cuando esas respuestas parecen justificar o defender posiciones, lo que observamos no es una intención, sino una estructura estadística interpretada erróneamente como voluntad.

Publicaciones relacionadas

Botón volver arriba