La rápida incorporación de la Inteligencia Artificial (IA) en las rutinas de producción informativa está transformando la forma en que se escribe, se analiza y se opina en los medios de comunicación. Pero, ¿hasta qué punto podemos identificar implicaciones éticas y profesionales, al delegar en sistemas automatizados un rol que históricamente ha sido responsabilidad del criterio, experiencia y conciencia de quien escribe?
Comencemos por dejar claramente establecido que no es la Inteligencia Artificial la que amenaza al pensamiento, sino la creciente disposición humana a apartarse del esfuerzo de pensar. Sustituir la mirada crítica por textos bien armados por la IA condena el intelecto a una jubilación precoz. Sería inútil discutir la eficiencia de la IA para procesar datos, ordenar información y generar textos con una coherencia sorprendente. Sin embargo, esa eficacia técnica solo responde a sugerencias resumidas en pocas palabras de quien luego funge como “autor” del texto resultante.
La IA no reflexiona, no duda, no se indigna ni asume responsabilidad ética por lo que escribe. Solamente reproduce patrones, aprende de lo ya escrito y lo reorganiza en función de las necesidades de sus usuarios, pero carece de experiencia, conciencia histórica y compromiso social. Como consecuencia, esos “análisis” tan frecuentes hoy provienen de sistemas automatizados que simplemente obedecieron órdenes de algún usuario que no siempre tiene la debida documentación (o ni siquiera dominio básico) del tema sugerido, porque para la IA esto último no es una condición sine quo non.
Escribir implica interpretar, ofrecer contexto lógico y atinado, contraste de ideas y, sobre todo, tomar posición responsable frente a la verdad. Pensar cansa, investigar toma tiempo, argumentar exige lectura, y la IA allana el camino a la tentación de quienes gustan hacer opinión pública tomando el atajo más fácil, obteniendo textos rápidos y “bien escritos”, pero sin producirlos.
![]()
![]()


