Por primera vez, Washington está a punto de decidir cómo regular la inteligencia artificial. Y la batalla que está surgiendo no tiene que ver con la tecnología, sino con quién puede regularla.
En ausencia de un estándar federal significativo de IA centrado en la seguridad del consumidor, los estados han presentado docenas de proyectos de ley para proteger a sus residentes de los daños relacionados con la IA, incluida la Ley de Seguridad de la IA SB-53 de California y la Ley de Gobernanza Responsable de la IA de Texas, que prohíbe el uso indebido intencional de los sistemas de IA.
Los gigantes tecnológicos y las vibrantes empresas emergentes de Silicon Valley argumentan que tales leyes crean un mosaico inviable que amenaza la innovación.
“Nos ralentizará en la carrera contra China”, dijo a TechCrunch Josh Vlasto, cofundador del PAC pro-AI Leading the Future.
La industria y varios de sus trasplantes en la Casa Blanca están presionando para que se adopte una norma nacional o ninguna. En las trincheras de esta batalla de todo o nada, han surgido nuevos esfuerzos para prohibir a los estados aprobar sus propias leyes sobre IA.
Según se informa, los demócratas de la Cámara de Representantes están intentando utilizar la Ley de Autorización de Defensa Nacional (NDAA) para bloquear las leyes gubernamentales sobre IA. Al mismo tiempo, un borrador filtrado de una orden ejecutiva de la Casa Blanca también muestra un fuerte apoyo a impedir los esfuerzos gubernamentales para regular la IA.
Una medida preventiva amplia que despojaría a los estados del derecho a regular la IA es impopular en el Congreso, que votó abrumadoramente en contra de una moratoria similar a principios de este año. Los legisladores han argumentado que sin un estándar federal, bloquear a los estados perjudicaría a los consumidores y permitiría a las empresas de tecnología operar sin supervisión.
Evento tecnológico
san francisco
|
13 al 15 de octubre de 2026
Para crear este estándar nacional, el representante Ted Lieu (D-CA) y el grupo de trabajo bipartidista sobre IA de la Cámara de Representantes están preparando un paquete de leyes federales sobre IA que cubren una variedad de protecciones al consumidor, incluido el fraude, la atención médica, la transparencia, la seguridad infantil y el riesgo catastrófico. Probablemente pasarán meses, si no años, hasta que un megaproyecto de ley como este se convierta en ley. Esto subraya por qué la actual presión para limitar la autoridad estatal se ha convertido en una de las batallas más polémicas en la política de IA.
Las líneas de batalla: NDAA y EO
Los esfuerzos para impedir que los estados regulen la IA han aumentado en las últimas semanas.
La Cámara ha considerado incluir lenguaje en la NDAA que impediría que los estados regulen la IA, dijo el líder de la mayoría Steve Scalise (R-LA) a Punchbowl News. Según informes, el Congreso estaba trabajando para finalizar un acuerdo sobre el proyecto de ley de defensa antes del Día de Acción de Gracias, informó Politico. Una fuente familiarizada con el asunto dijo a TechCrunch que las negociaciones se centraron en reducir el alcance para preservar potencialmente la autoridad estatal en áreas como la seguridad infantil y la transparencia.
Mientras tanto, un borrador de EO de la Casa Blanca filtrado revela la posible estrategia preventiva de la administración. La EO, que supuestamente ha sido suspendida, crearía un “Grupo de Trabajo de Litigios sobre IA” para desafiar las leyes estatales de IA en los tribunales, ordenaría a las agencias que evalúen las leyes estatales consideradas “gravosas” y presionaría a la Comisión Federal de Comunicaciones y a la Comisión Federal de Comercio para que adopten estándares nacionales que prevalezcan sobre las normas estatales.
En particular, la EO le daría a David Sacks, el zar de la inteligencia artificial y las criptomonedas de Trump y cofundador de la firma de capital riesgo Craft Ventures, coautoridad para crear un marco legal unificado. Esto le daría a Sacks influencia directa sobre la política de IA, reemplazando el papel típico de la Oficina de Política Científica y Tecnológica de la Casa Blanca y su jefe, Michael Kratsios.
Sacks ha abogado públicamente por bloquear la regulación federal y mantener baja la supervisión federal, y aboga por la autorregulación de la industria para “maximizar el crecimiento”.
El argumento del mosaico
La posición de Sacks refleja el punto de vista de gran parte de la industria de la IA. En los últimos meses, han surgido varios súper PAC pro-IA, que han invertido cientos de millones de dólares en elecciones locales y estatales para oponerse a candidatos que apoyan la regulación de la IA.
Leading the Future, respaldado por Andreessen Horowitz, el presidente de OpenAI, Greg Brockman, y el cofundador de Perplexity y Palantir, Joe Lonsdale, ha recaudado más de 100 millones de dólares. Esta semana, Leading the Future lanzó una campaña de 10 millones de dólares para instar al Congreso a desarrollar una política nacional de IA que anule las leyes estatales.
“Cuando intentas impulsar la innovación en el sector tecnológico, no puedes tener todas estas leyes surgiendo una y otra vez de personas que no necesariamente tienen la experiencia técnica”, dijo Vlasto a TechCrunch.
Sostuvo que un mosaico de regulaciones gubernamentales “nos ralentizaría en la carrera contra China”.
Nathan Leamer, director ejecutivo de Build American AI, el grupo de defensa del PAC, confirmó que el grupo apoya la preferencia sin ninguna protección federal al consumidor específica de la IA. Leamer argumentó que las leyes existentes, como las que regulan el fraude o la responsabilidad de los productos, son suficientes para abordar los daños de la IA. Mientras que las leyes estatales a menudo apuntan a prevenir problemas antes de que surjan, Leamer prefiere un enfoque más reactivo: dejar que las empresas respondan rápidamente y abordar los problemas en los tribunales más tarde.
Sin derecho de tanteo sin representación

Alex Bores, un asambleísta de Nueva York que se postula para el Congreso, es uno de los primeros objetivos de Leading the Future. Apoyó la Ley RAISE, que exige que los grandes laboratorios de IA cuenten con planes de seguridad para evitar daños críticos.
“Creo en el poder de la IA y por eso es tan importante tener regulaciones sensatas”, dijo Bores a TechCrunch. “En última instancia, la IA que prevalecerá en el mercado será una IA confiable y, a menudo, el mercado subestima las inversiones en seguridad o ofrece pocos incentivos a corto plazo”.
Bores apoya una política nacional de IA, pero sostiene que los estados pueden actuar más rápidamente para abordar los riesgos emergentes.
Y es cierto que los Estados están actuando más rápido.
En noviembre de 2025, 38 estados habían aprobado más de 100 leyes relacionadas con la IA este año, principalmente dirigidas a deepfakes, transparencia y divulgación, y al uso gubernamental de la IA. (Un estudio reciente encontró que el 69% de estas leyes no tienen ningún requisito para los desarrolladores de IA).
La actividad en el Congreso proporciona más evidencia para el argumento de que son más lentos que los estados. Se han presentado cientos de proyectos de ley sobre IA, pero pocos se han aprobado. Desde 2015, el representante Lieu ha presentado 67 proyectos de ley al Comité Científico de la Cámara de Representantes. Sólo uno se convirtió en ley.
Más de 200 legisladores firmaron una carta abierta oponiéndose a la preferencia en la NDAA, argumentando que “los estados actúan como laboratorios de las democracias” que deben “conservar la flexibilidad para abordar nuevos desafíos digitales a medida que surjan”. Casi 40 fiscales generales estatales también enviaron una carta abierta oponiéndose a una prohibición gubernamental de la regulación de la IA.
El experto en ciberseguridad Bruce Schneier y el científico de datos Nathan E. Sanders – autores de Reconfigurando la democracia: Cómo la IA transformará nuestra política, gobierno y ciudadanía – argumentan que la queja sobre el mosaico es exagerada.
Señalan que las empresas de IA ya están cumpliendo con regulaciones más estrictas de la UE y la mayoría de las industrias están encontrando una manera de operar bajo diferentes leyes estatales. El verdadero motivo, dicen, es eludir la responsabilidad.
¿Cómo sería una norma federal?
Lieu está redactando un megaproyecto de ley de 200 páginas que le gustaría presentar en diciembre. Cubre una variedad de temas que incluyen sanciones por fraude, protección contra deepfake, protección de denunciantes, recursos informáticos para la ciencia y pruebas y divulgación obligatorias para grandes empresas de modelos lingüísticos.
Esta disposición final requeriría que los laboratorios de IA prueben sus modelos y publiquen los resultados, algo que actualmente la mayoría hace de forma voluntaria. Lieu aún no ha presentado el proyecto de ley, pero dijo que no ordena a las agencias federales que revisen directamente los modelos de IA. Esto difiere de un proyecto de ley similar de los senadores Josh Hawley (R-MS) y Richard Blumenthal (D-CN), que requeriría un programa federal de evaluación para sistemas avanzados de IA antes de su implementación.
Lieu reconoció que su proyecto de ley no sería tan estricto, pero dijo que tenía más posibilidades de convertirse en ley.
“Mi objetivo es convertir algo en ley esta legislatura”, dijo Lieu, señalando que el líder de la mayoría de la Cámara de Representantes, Scalise, se opone abiertamente a la regulación de la IA. “No estoy escribiendo un proyecto de ley que tendría si fuera rey. Estoy tratando de escribir un proyecto de ley que podría ser aprobado por una Cámara de Representantes controlada por los republicanos, un Senado controlado por los republicanos y una Casa Blanca controlada por los republicanos”.