Este año, en tu Declaración de la Renta, no te imaginas quien va a estar a tu lado
La IA ha entrado en Hacienda sin estridencias, envuelta en lenguaje técnico, justificada en la eficiencia y presentada como una mejora del servicio al ciudadano. Pero algunos aspectos dan miedo.
Permíteme una confidencia. La Inteligencia Artificial (IA) no es algo nuevo para mí. Llevo siguiéndola de cerca desde hace años -ya en 2020 impulsábamos un proyecto interno en PQS– y siempre la he visto más como una oportunidad que como una amenaza.
Hasta febrero de este año. Ese mes leí el ensayo The Adolescence of Technology (enero de 2026), de Dario Amodei, fundador de Anthropic. Y, por primera vez, tuve la sensación de que algo podía estar fuera de control y conllevar peligros.
En su ensayo, Amodei plantea una idea inquietante: estamos entrando en una fase en la que la IA puede superar nuestra capacidad de comprenderla y controlarla. No es solo que sea más potente, es que empieza a escapar a nuestra supervisión. Ese día no dormí bien. Tampoco los siguientes.
Y quizá por eso, cuando observo cómo la IA se está inoculando en la Agencia Tributaria, no puedo evitar acordarme de Amodei.
La IA ha entrado en Hacienda sin estridencias, envuelta en lenguaje técnico, justificada en la eficiencia y presentada como una mejora del servicio al ciudadano. Y, en parte, lo es. Pero conviene no confundirse. No estamos ante una simple modernización administrativa, estamos ante un cambio de paradigma.
Por primera vez, Hacienda no espera a que el contribuyente actúe. Se adelanta.
El nuevo sistema para la campaña de renta 2025, que comienza hoy 8 de abril —Nudge IRPF— es el mejor ejemplo. Analiza en tiempo real las decisiones del contribuyente y le advierte de posibles errores. No comprueba: anticipa. Pero en esa sugerencia hay algo más que asistencia. Hay una forma sutil de vigilancia.

Porque cuando al cumplimentar la declaración se te indica que es “probable” que estés cometiendo un error, lo que realmente está haciendo es situarte en una categoría: la del contribuyente estadísticamente sospechoso.Y eso cambia las reglas del juego.
Durante décadas, el derecho tributario -con todos sus defectos y complejidad- se ha apoyado en una premisa básica: los hechos se prueban, no se infieren. El contribuyente declaraba, la Administración comprobaba y, en su caso, sancionaba. Pero siempre sobre la base de hechos acreditados. Es mi mantra profesional: los contenciosos con Hacienda se ganan o se pierden por una cuestión de prueba.
La Agencia Tributaria no solo conoce rentas y patrimonios; puede reconstruir comportamientos, identificar desviaciones y anticipar decisiones
Sin embargo, la IA introduce otra lógica: no trabaja con hechos, sino con probabilidades. No necesita certeza; le basta la correlación. Y en ese tránsito, casi imperceptible, aparece un riesgo evidente: que la sospecha preceda al comportamiento.
No es una exageración.
La propia Agencia Tributaria reconoce que sus sistemas detectan patrones ocultos, relaciones indirectas y riesgos de incumplimiento antes de que estos se materialicen.
Dicho de otro modo: el contribuyente deja de ser evaluado por lo que hace y empieza a serlo por lo que, según el modelo, probablemente hará. Es difícil imaginar un instrumento más poderoso al servicio de una administración pública.
El poder de la Agencia Tributaria y la IA
La defensa oficial es, además, sólida: la IA permite reducir el fraude sin aumentar la presión inspectora, mejora la eficiencia y facilita el cumplimiento voluntario.
Y, sí, en eso tienen razón. Pero hay una omisión relevante en ese relato: el ostensible desplazamiento del equilibrio entre el ciudadano y el Estado.

La Agencia Tributaria dispone hoy de una capacidad de información que, en desarrollo, podría rozar lo total desde el punto de vista tributario. No solo conoce rentas y patrimonios; puede reconstruir comportamientos, identificar desviaciones y anticipar decisiones.
El contribuyente, en cambio, no tiene acceso a los criterios que determinan esa evaluación.
Esta opacidad ha sido ya criticada públicamente por la Asociación Española de Asesores Fiscales (AEDAF), incluso ante el propio director de Informática de la Agencia Tributaria, José Borja Tomé, en su última Jornada Nacional de Estudio a la que tuve el placer de asistir hace unas semanas.
Ningún funcionario puede realmente auditar un modelo entrenado sobre millones de datos y miles de variables
El contribuyente no sabe qué datos se han utilizado. No sabe cómo se han ponderado. No sabe por qué ha sido señalado él y no su vecino. Y, lo que es más relevante, no puede discutir eficazmente una probabilidad.
Aquí es donde el debate deja de ser tecnológico y se vuelve político.
Porque no estamos hablando de algoritmos, sino de poder. De un poder que ya no se limita a aplicar la ley, sino que empieza a interpretar conductas y a orientar comportamientos. Un poder que no sanciona directamente, pero que condiciona.
El modelo es sofisticado. No necesita coerción abierta. Basta con introducir una fricción: un aviso, una alerta, una sugerencia. El contribuyente corrige. El sistema aprende. Y el ciclo se refuerza. Es, en términos económicos, un mecanismo de compliance extraordinariamente eficiente. Ya me gustaría tener algo parecido en PQS.
Hoy la IA sugiere; mañana propondrá; después decidirá
La Agencia insiste en que existe supervisión humana, en que la IA no decide por sí sola y en que se respetan los derechos fundamentales. Es lo que en la jerga se denomina human in the loop.
Pero esa garantía tiene un problema evidente: cuanto más complejos son los sistemas, más simbólica se vuelve la supervisión. Que le pregunten a Amodei.

Arcadi España recibe la cartera de ministro de Hacienda de manos de María Jesús Montero, el pasado 27 de marzo. MONCLOA
Ningún funcionario puede realmente auditar un modelo entrenado sobre millones de datos y miles de variables. En la práctica, la supervisión humana tiende a convertirse en una validación formal.
Es la paradoja de nuestro tiempo: mantenemos la apariencia de control humano mientras delegamos cada vez más en sistemas que no entendemos del todo.
El propio diseño institucional apunta hacia dónde vamos. La Agencia habla ya de agentes inteligentes capaces de realizar funciones más complejas, de automatizar procesos, de intervenir en la gestión administrativa.
Hoy la IA sugiere. Mañana propondrá. Pasado mañana decidirá. Y cuando eso ocurra, el debate ya no será si la tecnología funciona, sino si el marco jurídico está preparado para limitarla.
Conviene decirlo sin rodeos: la IA aplicada a la fiscalidad es una herramienta extraordinaria. Probablemente imprescindible. Permite hacer algo que hasta ahora era imposible: controlar de forma masiva sin desplegar fuerza masiva. P
ero precisamente por eso exige un nivel de control político y jurídico mucho más exigente que el actual.
Porque el riesgo no es que Hacienda se equivoque -siempre lo ha hecho-. El riesgo es que empiece a tener razón por defecto, simplemente porque el sistema así lo sugiere. Y en ese escenario, la presunción de inocencia no desaparece formalmente. Pero se debilita en la práctica.
España puede presumir de una Agencia Tributaria tecnológicamente avanzada. Incluso, en algunos aspectos, pionera y de la que he podido presumir muchas veces.
Pero ese liderazgo no debería medirse solo en términos de eficacia recaudatoria. También debería medirse en algo más difícil: la capacidad de imponer límites al propio poder que la tecnología otorga.
Porque cuando el Estado es capaz de anticipar comportamientos, el problema ya no es qué puede hacer. El problema es qué límites estamos dispuestos a imponerle, si es que todavía sea posible ponerle límites.