menu
menu
Tecnología

Un estudio científico alerta: usar chatbots de IA puede estar cambiando nuestra forma de pensar y de hablar

el periodico
18/03/2026 18:15:00

Cada vez más personas recurren a la Inteligencia Artificial (IA) para que les ayude a escribir todo tipo de textos: desde correos electrónicos a mensajes comprometidos, trabajos universitarios o textos en trabajos creativos. Un uso de los chatbots de IA que amenaza con cambiar nuestra forma de pensar, hablar y escribir, en una homogeneización si control según alerta un estudio científico de la Universidad del Sur de California. Así, se corre el riesgo de reducir la sabiduría colectiva y la capacidad de adaptación de la humanidad, advierten científicos informáticos y psicólogos en un artículo de opinión publicado en la revista 'Trends in Cognitive Sciences' de Cell Press.

Miles de millones de personas utilizan los mismos chatbots de IA para un número cada vez mayor de tareas. Y usados los chatbots para pulir la escritura, como presentan menos variedad, los escritos pierden su individualidad estilística y las personas se sienten menos responsables de su producción creativa. Cierto es que los estudios muestran que los individuos a menudo generan ideas con más detalles al utilizar chatbots. Sin embargo, producen menos ideas y menos creativas con chatbots que cuando, simplemente, combinan sus poderes colectivos, señalan los investigadores.

Expresiones y pensamientos estandarizados

"Las personas difieren en su forma de escribir, razonar y ver el mundo", expone el primer autor y científico informático Zhivar Sourati, de la Universidad del Sur de California. "Cuando estas diferencias son mediadas por los mismos modelos de lenguaje amplios (LLM), su estilo lingüístico, perspectiva y estrategias de razonamiento distintivos se homogeneizan, produciendo expresiones y pensamientos estandarizados para todos los usuarios".

Mediante múltiples estudios, el equipo que ha llevado a cabo la investigación muestra que los resultados de los escritos sugeridos por la IA son menos variados que los escritos generados por humanos y tienden a reflejar el lenguaje, los valores y los estilos de razonamiento de las sociedades occidentales, educadas, industrializadas, ricas y democráticas.

"La preocupación no es sólo que los LLM moldeen la manera en que la gente escribe o habla, sino que redefinen sutilmente lo que cuenta como un discurso creíble, una perspectiva correcta o incluso un buen razonamiento", advierte Sourati.

Se debería incorporar mayor diversidad

Es por ello que los expertos abogan porque los desarrolladores de IA incorporen una mayor diversidad del mundo real en los conjuntos de entrenamiento de modelos de lenguaje amplios, no solo para preservar la diversidad cognitiva humana, sino también para mejorar la capacidad de razonamiento de los chatbots.

Más allá del lenguaje, estudios han demostrado que, tras interactuar con LLM sesgados, las opiniones de las personas se asemejan más al LLM que utilizaron. Los LLM también favorecen los modos de razonamiento lineal, como el razonamiento en cadena, que requiere que los modelos muestren el razonamiento paso a paso.

Los usuarios se dejan llevar

"En lugar de dirigir activamente la generación, los usuarios a menudo se dejan llevar por las continuaciones sugeridas por el modelo y seleccionan opciones que parecen 'suficientemente buenas' en lugar de crear las suyas propias, lo que gradualmente desplaza la iniciativa del usuario al modelo", explica Sourati.

"Si los LLM tuvieran formas más diversas de abordar ideas y problemas, apoyarían mejor la inteligencia colectiva y las capacidades de resolución de problemas de nuestras sociedades", agrega Sourati. "Necesitamos diversificar los propios modelos de IA y, al mismo tiempo, ajustar nuestra interacción con ellos, especialmente dado su uso generalizado en diversas tareas y contextos, para proteger la diversidad cognitiva y el potencial de ideación de las generaciones futuras".

por El Periódico