menu
menu
Tecnología

El peligro no es la IA, es dejar de pensar

Valeria M. Rivera Rosas
01/04/2026 19:41:00

El episodio podría parecer menor —una reseña, un puñado de frases repetidas, una disculpa pública— si no fuera porque encapsula uno de los grandes dilemas del periodismo contemporáneo. La decisión de The New York Times de poner fin a su relación con Alex Preston tras detectar similitudes con un texto previo de Christobel Kent publicado en The Guardian abre una grieta incómoda: ¿qué ocurre cuando el periodista deja de ser el último filtro?

La explicación de Preston —el uso de una herramienta de IA en un borrador que introdujo fragmentos ajenos sin que él lo advirtiera— no solo evidencia un error individual. Pone sobre la mesa una transformación estructural en la forma de producir contenidos. La inteligencia artificial, presentada como aliada, empieza a convertirse en coautora invisible, con todo lo que ello implica: opacidad en las fuentes, dilución de responsabilidades y, sobre todo, erosión del estilo propio.

No estamos ante un simple caso de plagio en sentido clásico. Es algo más resbaladizo. La IA no copia de manera consciente ni cita de forma deliberada; amalgama, recombina, reproduce patrones. Pero esa naturaleza híbrida no exime al periodista de su obligación esencial: verificar, contrastar y, en última instancia, responder por cada palabra firmada. El problema no es que la máquina “robe”, sino que el profesional renuncie a vigilarla.

Las frases coincidentes —la caracterización de un personaje como “perezoso y maquiavélico” o la definición de la novela como “una canción de amor a un país de contradicciones”— son más que simples coincidencias léxicas. Son la prueba de que la IA, alimentada por textos previos, puede replicar no solo ideas, sino también giros expresivos que forman parte de la identidad autoral. Y ahí es donde el periodismo entra en terreno peligroso: cuando el lenguaje deja de ser una huella personal para convertirse en un eco estadístico.

La reacción de The New York Times ha sido contundente, alineada con una tradición que coloca la credibilidad por encima de cualquier otra consideración. La nota del editor, reconociendo el uso de IA y señalando la infracción de sus estándares, no es solo una corrección puntual: es una declaración de principios en un momento en el que muchas redacciones aún navegan en la ambigüedad.

Sin embargo, conviene ir más allá de la sanción. Porque el verdadero debate no es disciplinario, sino cultural. El propio Preston había reflexionado meses antes sobre los riesgos y oportunidades de la inteligencia artificial, lo que añade una capa de ironía al caso. La cuestión es si el sector está realmente preparado para integrar estas herramientas sin sacrificar sus fundamentos.

El periodismo siempre ha convivido con la tecnología: de la máquina de escribir al CMS, del archivo físico al buscador digital. Pero la IA introduce una diferencia cualitativa: no solo facilita el acceso a la información, sino que participa en su redacción. Y eso altera la cadena de valor del oficio. Si el periodista se limita a aceptar lo que la herramienta propone, su papel se reduce a una mera validación superficial.

En este contexto, el caso Preston actúa como advertencia. No basta con declarar que no se usó IA en trabajos anteriores o pedir disculpas una vez detectado el problema. La cuestión de fondo es otra: ¿qué lugar ocupa el criterio humano en un entorno donde la producción de textos puede externalizarse parcialmente a algoritmos?

El riesgo es evidente. Si la velocidad y el volumen priman sobre la originalidad y el rigor, el periodismo corre el peligro de convertirse en una industria de contenidos indistinguibles, donde las voces se uniformizan y las ideas se reciclan. Y en ese escenario, la confianza del lector —ese intangible que sostiene a cabeceras como The Guardian o el propio The New York Times— se convierte en la primera víctima.

La lección es clara, aunque incómoda: la inteligencia artificial no es el problema, pero tampoco es la solución. Es una herramienta poderosa que exige un uso consciente, crítico y, sobre todo, responsable. Porque, al final, la firma sigue siendo humana. Y con ella, la responsabilidad de no convertir el periodismo en una copia de sí mismo. @mundiario

por KaiK.ai