Ley de IA: qué castiga, qué permite y qué no dice

El Senado propone regular la inteligencia artificial en México. Explicamos qué prohíbe, qué excluye y qué significan las categorías de infracción.

Resumen

El Senado de la República presentó el 30 de abril de 2026 la primera iniciativa de ley para regular el uso de la inteligencia artificial en México. La propuesta clasifica las faltas en tres niveles —leves, graves y gravísimas— y contempla sanciones que van desde amonestaciones hasta clausura de plataformas y penas de cárcel en los casos más severos. En redes sociales, la iniciativa detonó acusaciones de censura. Pero el texto legal contiene una cláusula que la mayoría de esas narrativas omite: la comunicación política, la publicidad y la difusión de ideas realizadas conforme a la ley quedan expresamente excluidas de las infracciones gravísimas.

Desarrollo de la información

La iniciativa surgió de la Comisión de Análisis, Seguimiento y Evaluación sobre la Aplicación y Desarrollo de la Inteligencia Artificial, presidida por el senador priista Rolando Zapata Bello. En su elaboración participaron legisladores de Morena, PAN, PVEM, PRI, PT y Movimiento Ciudadano, además de especialistas, académicos y representantes del sector privado consultados durante el Seminario Nacional “Inteligencia Artificial para el Desarrollo de la Nación”.

El proyecto establece un sistema de regulación escalonada. Los sistemas de IA clasificados como de alto riesgo —aquellos que incidan en derechos humanos, seguridad nacional o estabilidad democrática— estarán sujetos a registro obligatorio, auditorías y certificación. Los de uso personal o con impacto limitado solo deberán cumplir principios básicos de seguridad y transparencia.

Las tres categorías de infracción, explicadas

Para entender el alcance de esta ley es necesario distinguir qué tipo de conductas caen en cada nivel. La diferencia no es menor: determina si la sanción será una llamada de atención administrativa o una consecuencia penal.

Las infracciones leves se refieren a fallas administrativas menores que no comprometen derechos fundamentales ni la seguridad de un sistema. Por ejemplo: no actualizar a tiempo un registro técnico, retrasarse en entregar información no esencial que solicite la autoridad, o incumplir lineamientos de procedimiento interno. Son el equivalente a una falta administrativa menor: no causan daño directo, pero reflejan descuido en el cumplimiento de la norma.

Las infracciones graves implican un riesgo real para las personas. En esta categoría se encuentran conductas como operar un sistema de inteligencia artificial sin la certificación que exige la ley, negarse a cooperar con las auditorías ordenadas por la autoridad, destruir registros algorítmicos —es decir, borrar la evidencia de cómo un sistema tomó sus decisiones— u omitir las evaluaciones de impacto algorítmico cuando son obligatorias. Un ejemplo cotidiano: si una empresa usa IA para aprobar o rechazar créditos bancarios y se niega a explicar cómo funciona su algoritmo cuando la autoridad lo investiga, eso constituiría una infracción grave.

Las infracciones gravísimas son las que generaron la polémica en redes. Aquí entran las conductas que la ley considera de mayor daño potencial: emplear IA para manipulación cognitiva, política, electoral o social con fines ilícitos; operar sistemas autónomos letales sin supervisión humana —como armas que toman decisiones sin un humano detrás—; implementar vigilancia masiva sin respaldo legal; introducir código malicioso en sistemas de inteligencia artificial; o proveer herramientas diseñadas específicamente para el fraude, la extorsión o la suplantación de identidad. También se incluyen los deepfakes sexuales sin consentimiento, con protección reforzada para menores de edad.

Las sanciones van desde la amonestación pública o privada hasta multas, suspensión temporal o definitiva, retiro del mercado y clausura de plataformas. En los casos más graves, la iniciativa contempla consecuencias penales.

La cláusula de exclusión que las redes no leyeron

El punto más polémico de la ley es la tipificación como infracción gravísima de “emplear inteligencia artificial para manipulación cognitiva, política, electoral o social con fines ilícitos o contrarios a los principios democráticos, de manera deliberada“. Esta redacción fue la que detonó las acusaciones de censura.

Sin embargo, el mismo artículo contiene una acotación que cambia sustancialmente su lectura. La ley establece que no se considerarán dentro de esa infracción las actividades de comunicación política, publicidad o difusión de ideas realizadas conforme a la ley y los principios democráticos.

¿Qué significa eso en términos concretos? La comunicación política es un concepto jurídico que abarca toda actividad orientada a expresar, debatir, criticar o promover ideas sobre el ejercicio del poder público. Incluye desde la propaganda de un partido en campaña hasta la opinión que un ciudadano publica en redes sociales sobre una decisión del gobierno. La difusión de ideas, por su parte, cubre la actividad de medios de comunicación, creadores de contenido, organizaciones civiles y cualquier persona que participe en el debate público.

En la práctica, esto significa que hacer un meme que critique a la presidenta, publicar un video editorial cuestionando una política pública, o usar herramientas de IA para generar contenido de opinión política no encaja en la categoría de infracción gravísima, siempre que esas actividades se realicen dentro del marco legal vigente y los principios democráticos.

Lo que sí busca sancionar la ley es el uso deliberado de IA para fabricar realidades falsas con fines de manipulación. La diferencia es la intención y el método: no es lo mismo editar un clip de un discurso para resaltar una frase incómoda —algo legítimo en el periodismo y el debate público— que generar un audio falso donde un funcionario dice algo que nunca dijo, o crear un video manipulado para hacerlo parecer que confesó un delito.

Un caso concreto ayuda a ilustrarlo. Si un usuario toma un fragmento real de un discurso presidencial y lo comparte con un comentario crítico, eso es comunicación política. Si, en cambio, utiliza herramientas de IA para alterar el audio de ese discurso e inventar una declaración que la presidenta nunca hizo —y lo presenta como si fuera real—, eso es lo que la ley busca tipificar como infracción gravísima. La frontera no está en la opinión sino en la fabricación deliberada de contenido falso con apariencia de veracidad.

Violencia digital: otro eje central

Además de la manipulación política, la ley dedica un capítulo específico a la violencia digital de género. Las prácticas prohibidas incluyen la generación o difusión de deepfakes de contenido sexual o íntimo sin consentimiento, la manipulación de imágenes, audios o videos para humillar, acosar o extorsionar a mujeres, la automatización de campañas de odio basadas en género y el diseño de sistemas de IA destinados a facilitar el ciberacoso o la persecución digital.

El contexto de estas disposiciones no es abstracto. Datos del informe conjunto de Eon Institute y la Fundación Friedrich Naumann documentan que más de 10.6 millones de mujeres en México sufrieron ciberacoso entre 2020 y 2025, y que más del 84% de los casos de abuso con imágenes generadas por IA afectan a mujeres y niñas. Cuando las víctimas son menores de edad, la ley establece que el consentimiento será nulo e irrelevante, lo que significa que ningún argumento de autorización puede justificar la creación o difusión de ese tipo de contenido.

¿Qué dicen las fuentes?

Zapata Bello, presidente de la comisión que elaboró la iniciativa, afirmó que la ley “no censura opiniones ni críticas, ni establece sanciones por expresarse”.

Víctor Ruiz, director de la firma de ciberseguridad Silikn, señaló que el texto incluye conceptos sin definición precisa, como “manipulación de la narrativa” o “riesgos informativos”, y que sin parámetros claros podrían prestarse a interpretaciones amplias por parte de la autoridad. Sobre las posibles consecuencias de esa ambigüedad, Ruiz advirtió que el riesgo no necesariamente reside en la censura directa, sino en el uso del aparato regulatorio como mecanismo de presión o intimidación.

Claudia del Pozo, fundadora de Eon Institute, sostuvo que los contenidos sintéticos como los deepfakes son una forma de violencia que altera la participación pública y multiplica el costo de expresarse, denunciar o competir políticamente.

Un análisis de opinión publicado en Milenio por Héctor Romero Fierro plantea que la redacción actual no distingue con suficiente claridad entre crítica política, desinformación y noticias falsas, y que la calificación de esas conductas quedará en manos de funcionarios designados.

¿Por qué importa que se regule la IA en México?

México no opera en un vacío informativo. El Reporte de Riesgos Globales 2026 del Foro Económico Mundial ubica la información falsa y la desinformación como el segundo riesgo global más grave a corto plazo (2026-2028), solo por debajo de la confrontación geoeconómica. Reporteros Sin Fronteras clasificó a México en el puesto 122 de 180 países en su índice de libertad de prensa 2026, señalándolo como el país más letal para ejercer el periodismo en el continente americano, con más de 150 periodistas asesinados y 28 desaparecidos desde el año 2000.

En ese contexto, la manipulación de contenido mediante inteligencia artificial no es un riesgo teórico. Clips editados fuera de contexto, audios fabricados y narrativas construidas con herramientas de IA generativa han sido utilizados con fines partidistas documentados en múltiples países, incluyendo México. La ausencia de un marco legal que distinga entre crítica legítima y desinformación fabricada deja a las personas sin herramientas jurídicas para defenderse cuando son víctimas de contenido falso.

Al mismo tiempo, la experiencia institucional mexicana en la aplicación de leyes de violencia digital ofrece un precedente poco alentador. De las 3,205 investigaciones iniciadas por ese tipo de delitos entre 2020 y 2025, el 95% no llegó a juicio, solo el 3.6% de los presuntos responsables fue juzgado y apenas el 0.5% terminó en condena. Esto plantea una pregunta legítima: incluso con un buen texto legislativo, ¿tiene México la capacidad institucional para aplicarlo?

Señales que generan dudas

La frase “manipulación cognitiva” tampoco tiene una definición técnica precisa en el texto. En un escenario donde un algoritmo decide qué contenido es viral y cuál no, la frontera entre persuasión legítima y manipulación sancionable es difusa.

La creación de la Autoridad Nacional de IA como ente supervisor abre interrogantes sobre su independencia: quién la integrará, bajo qué mecanismos de rendición de cuentas operará y cómo evitará que sus decisiones respondan a intereses políticos coyunturales. La propuesta además faculta a la Agencia de Transformación Digital y Telecomunicaciones para ordenar la suspensión de sistemas de IA cuando representen un “riesgo grave o inminente”, una atribución que sin contrapesos claros podría funcionar como herramienta de presión.

La iniciativa tampoco resuelve un problema práctico: la mayoría de las empresas que desarrollan los sistemas de IA más utilizados en México operan fuera de la jurisdicción del país. Sin mecanismos de cooperación internacional, algunas disposiciones podrían resultar difíciles de aplicar.

Verificación de la información

Verificado:

La iniciativa fue presentada el 30 de abril de 2026 por la Comisión del Senado, tras diez meses de trabajo con participación de Morena, PAN, PVEM, PRI, PT y MC. El texto clasifica infracciones en tres niveles: leves (fallas administrativas menores), graves (riesgos a derechos o incumplimiento de obligaciones sustantivas) y gravísimas (conductas de alto daño como manipulación electoral, deepfakes sexuales o sistemas autónomos letales). Existe una cláusula de exclusión explícita que deja fuera de las infracciones gravísimas las actividades de comunicación política, publicidad y difusión de ideas conformes a la ley. Zapata Bello declaró que la ley no censura opiniones ni críticas. La desinformación figura como segundo riesgo global a corto plazo según el WEF 2026. México ocupa el puesto 122 de 180 en libertad de prensa según RSF 2026.

Razonablemente inferible:

La ambigüedad de términos como “manipulación cognitiva” o “riesgos informativos” podría generar un efecto inhibidor en la expresión pública si no se acotan mediante reglamentación secundaria o definiciones técnicas precisas. La capacidad institucional para aplicar la ley es limitada, considerando que el 95% de las investigaciones por violencia digital entre 2020 y 2025 no llegó a juicio. El debate en redes amplificó una lectura parcial del texto, omitiendo la cláusula de exclusión.

Suposiciones no verificadas:

Que la ley será utilizada como instrumento de censura contra ciudadanos o creadores de contenido: no hay evidencia de que esa sea la intención legislativa, pero tampoco de que los mecanismos de control sean suficientes para impedirlo. Que los memes, la sátira o la crítica política caerán bajo las sanciones: el texto excluye expresamente la difusión de ideas conforme a principios democráticos, pero la ausencia de definiciones operativas impide confirmarlo o descartarlo en la práctica. Que la ley resolverá el problema de desinformación en México: la brecha entre legislación y aplicación efectiva es amplia y los antecedentes institucionales no la respaldan.

Fuentes

Dejar un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

México Política Tecnología Salud Internacional Opinión Verificador Analytiks
Scroll al inicio