Donald Trump quiere una moratoria a la Ley de la IA

Solo puede haber un Código Único si queremos continuar con el liderazgo en IA. Estamos adelantado a TODOS LOS PAÍSES en el punto actual de la carrera, pero no podremos seguir así cuando 50 estados (…) se involucren en LA REGULACIÓN y en EL PROCESO DE APROBACIÓN”, publicó Donald Trump el 8 de diciembre de 2025 en su perfil de Truth Social.

Comienza la guerra federal-estatal por la batalla de la regulación (o desregulación) de la IA.

Debate político: ¿Moratoria a la IA estatal?

El objetivo de Trump de derogar la ley IA estatal no es una novedad en el debate legal americano. Desde el inicio del verano se ha pretendido introducir sin éxito una moratoria a la regulación estatal de la IA por parte del Congreso de los Estados Unidos. En primer lugar, mientras se debatía la One Big Beautiful Bill Act” (OBBBA), Ley de reconciliación presupuestaria, se propuso en la Cámara de Representantes una moratoria de 10 años a la regulación de Inteligencia Artificial desarrollada en los estados. El Senado desechó a principios de julio la propuesta con una abrumadora mayoría, 99 senadores en contra y 1 a favor, pese a haber acordado inicialmente reducir la moratoria a 5 años.

“No State or political subdivision thereof may enforce any law or regulation regulating artificial intelligence models, artificial intelligence systems, or automated decision systems during the 10- year period beginning on the date of the enactment of this Act.”

(House of Energy and Commerce Committee para la OBBBA)

Unas semanas más tarde tras la aprobación de la OBBBA sin la moratoria, el gobierno federal aprobó el Plan de Acción de IA. En este texto se incluía una provisión que limita el desembolso de fondos federales a los estados que aprueben leyes de Inteligencia Artificial que sean gravosas para la innovación. Más recientemente, conforme a la intención de este plan, se volvió a proponer la moratoria a la ley de IA estatal en la National Defense Authorization Act” (NDAA). No salió adelante.

El 11 de diciembre de 2025, el presidente Donald Trump firmó finalmente la Orden EjecutivaEnsuring a National Policy Framework for Artificial Intelligence”.  Se constituye así un nuevo cuerpo federal (“AI Litigatin Task Force”) en el Departamento de Justicia para impugnar en tribunales aquellas leyes estatales consideradas contrarias a la política federal. También se condiciona el acceso a fondos estatales, tal y como se señalaba en el Plan de Acción de IA.

Por tanto, esta orden no elimina automáticamente las normativas estatales, sino que introduce un arsenal normativo para desafiar cuanto antes la validez de la legislación estatal de la IA. En esta misma línea, David Sacks, el asesor especial para la IA de la Casa Blanca, ha compartido en X que la futura moratoria no incluirá en su ámbito de actuación la protección de menores o los derechos de copyright. El resultado es un escenario de litigiosidad creciente entre Washington y los estados a la víspera de una moratoria inminente.

Debate jurídico: ¿Qué es preemption?

Más allá de las implicaciones políticas, la propuesta abre un debate estrictamente jurídico sobre los límites de la supremacía federal al recurrir a la mencionada moratoria. En el lenguaje jurídico americano, este fenómeno se conoce como preemption que es una práctica habitual en el ordenamiento jurídico de los Estados Unidos (Ley de Derechos Civiles, Ley de Derechos de Voto, Ley de Libertad de Impuestos de Internet…).

Teniendo como fundamento último el artículo VI, cláusula 2 de la Constitución de los EEUU, se establece el principio de supremacía de la Ley Federal sobre la Ley de los Estados. Este precepto, también conocido como ‘Cláusula Suprema‘, produce efectos inmediatos al dejar sin aplicación cualquier norma nueva que entre en conflicto con la Ley Federal. La Corte Suprema ha aceptado que el Congreso, no solo pueda derogar normativa estatal que se considere contraria a la de la Federación, sino que también puede declarar que un ámbito competencial solo pueda ser desarrollado por las Cámaras Federales. En el campo de la IA, la doctrina del preemption permite al Congreso excluir de la competencia de los Estados el derecho a regular en esta materia.

Sin embargo, pese a que exista un consenso latente sobre la pertinencia de regular la IA de una manera uniforme, es inédita la forma en la que se ha pretendido introducir esta moratoria a las leyes estatales de IA. De acuerdo con Justin Curl del medio Lawfare, no es habitual el preemption sin una ley sustitutoria. El autor hace hincapié en la inseguridad jurídica que puede provocar la desregulación de la IA teniendo en cuenta la amplitud del concepto incluido en las proposiciones de ley tramitadas este año. Además, en una futura regulación debería existir una vinculación entre la materia regulada y el poder federal. En este sentido, las precedentes iniciativas de otras materias que han recurrido al preemption desarrollan solo contenido que afecte al comercio interestatal (interestate commerce), no hay una ocupación total del campo competencial.

Por ello, es posible derivar tres argumentos jurídicos contrarios al preemption:

  • Problema procedimental: La inclusión de la moratoria en la Ley de reconciliación o en la Ley de defensa genera dudas legales.
  • Problema material: La aprobación de la moratoria crearía un vacío legal sin una Ley federal previa o sustitutoria.
  • Problema constitucional: El texto presentado es incompatible con la regulación total de la IA (invasión competencial más allá del comercio interestatal).

Un ejemplo claro es la Ley de Desregulación de la Aviación de 1978. En ese caso, las Cámaras federales introdujeron esta regulación para tarifas, rutas y servicios a nivel federal, es decir, existía una conexión directa con el comercio interestatal. Como bien apunta Justin Curl, el caso concreto de la regulación del ruído en los aeropuertos muestra la compatibilidad de una regulación federal con la estatal. Así, mientras que el Congreso reguló los límites de ruidos de aeronaves (competencia federal), las Cámaras estatales regularon el uso del suelo alrededor del aeropuerto (competencia estatal).

En materia de IA, por ejemplo, si la Federación legisla sobre los requisitos de transparencia de los modelos de frontera (frontier models), los estados no deberían ver limitadas sus competencias no directamente relacionadas al comercio interestatal, como la prohibición de la discriminación algorítmica o el uso de la IA en la educación.

Debate territorial: ¿Qué regulan los estados?

Si bien es cierto que algunos estados han aprobado ya sus propias leyes sobre IA, no es todavía un fenómeno generalizado ni restrictivo. Además, aunque solamente algunos estados hayan aprobado leyes específicas de IA, similares a la regulación europea, la mayoría ha incluido disposiciones en otras leyes sectoriales (según el NYU Center on Tech Policy, en 2024 más de tres cuartos de los estados aprobaron leyes relacionadas con IA). En la mayoría de casos, se trata de leyes de protección al menor o de protección al consumidor.

En cualquier caso, las principales regulaciones de IA por Estado son:

  • Utah (AI Policy Act, SB-226): La primera regulación estatal de IA. Ha introducido modificaciones este año para precisar las obligaciones de la transparencia del uso de la IA en favor de consumidores. También se añade una regulación específica para “chatbots” de salud mental.

Entrada en vigor el 1 de mayo de 2024, modificada el 7 de mayo de 2025.

  • California (AB-2013, SB-942, SB-53): Las leyes están enfocadas a la regulación parcial de modelos de frontera, aunque no es tan gravosa como la propuesta SB-1047, finalmente rechazada. Incluye obligaciones de transparencia para los desarrolladores.

Entrada en vigor el 1 de enero de 2026.

  • Texas (Responsible Artificial Intelligence Governance Act): La regulación ahonda en obligaciones de transparencia para el uso responsable de los desarrollos de IA. Incluye prohibiciones de modelos que inciten al daño, así como obligaciones de transparencia para cualquier Administración o Agencia del Estado que utilice modelos de IA.

Entrada en vigor el 1 de enero de 2026.

  • Colorado (Consumer Protections for Artificial Intelligence Act): La regulación más completa que atribuye obligaciones concretas a los sistemas de IA utilizados en aplicaciones de alto riesgo. Se incluyen obligaciones de transparencia, de evaluación de riesgos, de notificación a consumidores, de discriminación algorítmica…

Entrada en vigor inicial el 1 de febrero de 2026, retrasada al 30 de junio de 2026.


Para más información, se recomienda acceder al directorio elaborado por iapp25 (US State Governance Legislation Tracker).

Conclusión

Por el momento, no existe una preocupación real sobre la regulación de la IA por los distintos estados. No obstante, a medida que nuevos estados desarrollen su propia normativa, es posible que se produzcan contradicciones legislativas. Dado que la IA se utiliza en todas las jurisdicciones, si finalmente existe una regulación distinta entre los 50 estados, es posible que esto suponga un freno a la innovación. Además, dada la naturaleza de esta tecnología, podría darse el caso en el que la regulación de un Estado deba aplicarse indirectamente a nivel nacional (el caso más evidente sería la regulación de California por la presencia de las grandes tecnológicas).

Esto no significa que deba aprobarse una moratoria inminente, pues provocaría un vacío legal perjudicial para los usuarios, incluso para la seguridad nacional. Por ello, Yiqin Fu y Alasdair Phillips-Robin, en su artículo para Carnegie Endowment, consideran que el Plan de Acción de IA presentado por el Ejecutivo ya apunta acertadamente a los ámbitos que deberían legislarse a nivel federal. Entre ellos, se menciona la creación de un ecosistema de evaluación de riesgos o la regulación de los modelos que supongan un alto riesgo de seguridad nacional.

Al peligro para el crecimiento de la innovación que supone una normativa multi-jurisdiccional, se añade la incertidumbre que provocaría una preemption absoluta.

En resumen, la falta de regulación federal de la Inteligencia Artificial en los Estados Unidos puede provocar efectos socio-económicos negativos para el país. Aunque exista una clara vocación política de las Cámaras federales por evitar la regulación de las nuevas tecnologías -más aún en la actual Administración Trump con su fuerte alineamiento con las BigTech– lo contrario puede suponer una deriva de inseguridad jurídica y un lastre económico ante la sobreposición normativa. Además, dada la presión de los lobbies tecnológicos, probablemente la regulación será más laxa que la de otros países.

La cuestión es cómo se va a producir y cuánta invasión competencial va a suponer.

ARTÍCULOS RELACIONADOS

DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí

spot_img

Latest Posts