El curioso caso de Nick Lichtenberg o la inteligencia artificial como arma del periodista
La incorporación de la inteligencia artificial generativa a las redacciones ha alterado profundamente la forma en que se produce y distribuye la información. No se trata únicamente de una innovación técnica ni de una mejora de productividad. Lo que está en juego afecta al propio modelo de elaboración de noticias, a los estándares de verificación y, en última instancia, a la confianza pública en los medios de comunicación. Dentro de este escenario, el caso de Nick Lichtenberg, editor de Fortune, se ha convertido en uno de los ejemplos más representativos de esta transformación.
Su trayectoria reciente resulta especialmente reveladora por el volumen de contenidos publicados en un período muy breve. Desde su regreso a Fortune en julio de 2025 para dirigir la sección Fortune Intelligence, llegó a firmar más de 600 artículos en apenas 6 meses. En algunos días publicó hasta 7 piezas informativas. La cifra no es irrelevante. Refleja hasta qué punto la automatización puede alterar los ritmos tradicionales de trabajo en el periodismo profesional.
La cuestión adquiere mayor relevancia si se observa el impacto económico de esta dinámica. Cerca del 20 % del tráfico digital de Fortune durante el segundo semestre de 2025 procedió de contenidos elaborados con asistencia de inteligencia artificial, la mayoría asociados a Lichtenberg. El dato evidencia que la utilización de estas herramientas ya no ocupa un espacio experimental o marginal dentro de los medios, sino que empieza a integrarse en el núcleo mismo de sus estrategias editoriales.
II. Una nueva forma de producir noticias
El método de trabajo atribuido a Lichtenberg se aparta claramente de la lógica clásica del reporterismo. El modelo tradicional se construía sobre la relación continuada con fuentes humanas, la comprobación directa de los hechos y la elaboración pausada de la información. En cambio, el sistema empleado por el editor de Fortune se apoya en herramientas capaces de procesar grandes volúmenes de datos en pocos minutos.
Diversos reportajes explican que, ante una noticia de actualidad, suele introducir comunicados empresariales, informes financieros y notas de analistas en aplicaciones de inteligencia artificial como Perplexity o NotebookLM. Posteriormente revisa el resultado, realiza correcciones y publica el contenido con enorme rapidez. La velocidad es, precisamente, el rasgo que define este modelo.
Ahora bien, esta metodología plantea interrogantes evidentes desde el punto de vista jurídico y deontológico. El propio Lichtenberg ha reconocido públicamente que sus verificaciones no alcanzan el nivel de comprobación exhaustiva característico de medios como The New Yorker. La afirmación tiene importancia porque pone de manifiesto un posible debilitamiento de los mecanismos tradicionales de contraste informativo. Cuando la rapidez pasa a ocupar una posición central, el riesgo de errores, omisiones o inexactitudes aumenta de manera considerable.
Eso no significa que todo el proceso carezca de control humano. Lichtenberg sostiene que trabaja con documentos identificables y transcripciones verificables, lo que aporta cierta trazabilidad al contenido publicado. Además, defiende que la automatización de determinadas tareas le permite dedicar más tiempo a reportajes propios y entrevistas de mayor profundidad. La discusión, por tanto, no puede reducirse a una oposición simplista entre periodismo humano y automatización algorítmica. El fenómeno es bastante más complejo.
III. La presión económica sobre las redacciones
Resulta difícil comprender este tipo de prácticas sin atender al contexto económico que atraviesa el sector mediático. Los medios de comunicación operan desde hace años bajo fuertes tensiones financieras. La reducción de ingresos publicitarios, la competencia digital y el cambio de hábitos de consumo han obligado a muchas redacciones a producir más contenido con menos recursos.
En ese escenario, la inteligencia artificial aparece como una herramienta capaz de multiplicar la productividad sin incrementar proporcionalmente los costes laborales. Fortune, con una plantilla relativamente reducida, ha encontrado en este sistema una fórmula para mantener presencia constante en el flujo informativo digital. La propia directora editorial del medio, Alyson Shontell, resumió esa presión con una frase especialmente significativa: la inteligencia artificial obliga a los medios a diferenciarse o desaparecer.
La afirmación puede parecer dura, pero refleja una realidad evidente. Buena parte del público ya consume información a través de asistentes conversacionales, plataformas automatizadas y sistemas capaces de resumir noticias en segundos. Al mismo tiempo, las redes sociales y los vídeos breves han reducido la centralidad del artículo periodístico tradicional. En consecuencia, la rapidez y el volumen de producción adquieren un valor estratégico que muchos medios consideran indispensable para sobrevivir.
Desde esta perspectiva, el caso Lichtenberg no responde únicamente a una decisión individual. Es el resultado de un entorno empresarial que premia la inmediatez, el posicionamiento digital y la generación constante de tráfico web.
IV. Un fenómeno que supera el caso individual
La utilización de inteligencia artificial en tareas periodísticas no constituye una excepción aislada. Distintos estudios muestran que la automatización informativa se está extendiendo de forma acelerada en numerosos países. Investigaciones académicas publicadas en 2025 estimaban que alrededor del 9 % de los artículos difundidos por medios digitales incluían algún grado de intervención algorítmica.
La expansión de estas prácticas obliga a replantear cuestiones esenciales relacionadas con el derecho a la información. El problema no reside únicamente en la posible existencia de errores. También preocupa la progresiva homogeneización de contenidos. Cuando múltiples medios utilizan herramientas semejantes alimentadas por fuentes similares, el resultado puede ser una reducción efectiva de la pluralidad informativa.
A ello se añade otro elemento relevante. Los sistemas de inteligencia artificial tienden a reproducir patrones dominantes presentes en los datos con los que fueron entrenados. Esto puede reforzar sesgos, simplificar debates complejos o priorizar enfoques más rentables desde el punto de vista algorítmico que desde el interés público. El riesgo no siempre es visible de inmediato, pero afecta directamente a la calidad del debate democrático.
V. El debate ético dentro del periodismo
La expansión de estas herramientas ha provocado divisiones profundas dentro del propio sector periodístico. Algunos directivos consideran que la automatización es inevitable y que el verdadero desafío consiste en aprender a utilizarla de manera útil y controlada. Otros observan el fenómeno con preocupación y advierten sobre un deterioro progresivo de los estándares profesionales.
El presidente de The New York Times, Arthur Sulzberger, llegó a alertar sobre una avalancha de contenidos de baja calidad alimentados por inteligencia artificial. Desde posiciones sindicales también se ha insistido en que ninguna herramienta puede sustituir completamente el criterio humano, la experiencia profesional o la capacidad de contextualizar hechos complejos.
Sin embargo, existen posiciones más matizadas. Algunos responsables editoriales sostienen que estas tecnologías permiten cubrir áreas informativas que antes quedaban desatendidas por falta de recursos. En determinados contextos, la automatización puede facilitar borradores preliminares, resumir documentación extensa o acelerar procesos rutinarios sin eliminar necesariamente la supervisión humana.
La discusión, en realidad, gira alrededor de un punto esencial: hasta qué nivel puede delegarse la producción informativa en sistemas automatizados sin comprometer la credibilidad del medio.
VI. Riesgos jurídicos de la automatización informativa
Desde una perspectiva jurídica, la utilización intensiva de inteligencia artificial en el periodismo plantea problemas relevantes de responsabilidad. Uno de los más evidentes es la difusión de información falsa o inexacta generada por errores algorítmicos. Las denominadas “alucinaciones” de estos sistemas continúan siendo frecuentes y pueden afectar seriamente a derechos personales, reputación e imagen pública.
Diversas investigaciones realizadas en 2025 detectaron errores significativos en un porcentaje elevado de respuestas generadas por herramientas conversacionales. Esto adquiere especial gravedad cuando los contenidos se publican con apariencia de información contrastada y bajo la firma de medios de comunicación consolidados.
La cuestión afecta directamente a la diligencia exigible a las empresas periodísticas. Si un medio utiliza inteligencia artificial para redactar o resumir noticias, resulta razonable exigir mecanismos mínimos de revisión humana antes de la publicación. De lo contrario, podría abrirse un escenario de responsabilidad por difusión negligente de información incorrecta.
También emerge un problema de transparencia. Algunos medios han comenzado a advertir expresamente cuándo un contenido ha sido elaborado con asistencia algorítmica. Esa práctica podría convertirse progresivamente en una exigencia ética e incluso normativa, especialmente si el uso de inteligencia artificial influye de manera sustancial en el resultado final.
VII. Las nuevas relaciones entre medios y empresas tecnológicas
El auge de la inteligencia artificial también ha modificado las relaciones económicas entre medios de comunicación y compañías tecnológicas. Muchas plataformas desarrolladoras de modelos generativos dependen de contenidos periodísticos para entrenar sus sistemas. Esto ha dado lugar tanto a acuerdos comerciales como a litigios relevantes.
Algunos grupos mediáticos han optado por licenciar contenidos a empresas tecnológicas a cambio de compensaciones económicas. Otros, en cambio, han iniciado acciones judiciales por considerar que sus materiales fueron utilizados sin autorización para entrenar sistemas comerciales de inteligencia artificial.
La situación resulta especialmente paradójica en ciertos casos. Empresas periodísticas que mantienen litigios por uso indebido de contenidos negocian simultáneamente acuerdos de colaboración con desarrolladores de inteligencia artificial. Esta dualidad refleja la complejidad del momento actual. Los medios perciben riesgos evidentes, pero también saben que resulta extremadamente difícil mantenerse al margen de una transformación tecnológica de esta magnitud.
VIII. Reflexión final
El caso de Nick Lichtenberg simboliza una transición profunda dentro del periodismo contemporáneo. Su modelo de trabajo demuestra que hoy es técnicamente posible producir contenidos informativos a gran velocidad mediante herramientas automatizadas. La cuestión relevante ya no es si esta transformación llegará a las redacciones. La realidad demuestra que ya está ocurriendo.
El verdadero debate se sitúa en otro lugar. La discusión jurídica y ética gira alrededor de los límites que deben imponerse a esa automatización para preservar principios esenciales como la veracidad, la responsabilidad editorial y la transparencia informativa.
La inteligencia artificial puede convertirse en un instrumento útil para mejorar procesos y ampliar capacidades productivas. Sin embargo, cuando la velocidad y el volumen desplazan completamente a la verificación y al juicio crítico, el riesgo para la calidad del debate público resulta evidente.
Por eso, el problema no reside únicamente en la tecnología ni en quienes la utilizan. El desafío consiste en definir reglas claras que permitan integrar estas herramientas sin vaciar de contenido las garantías que históricamente han legitimado la función social del periodismo.