2026-05-07 13:35:46 - MUNDO
El que México pueda contar con una Ley para regular el uso de la inteligencia artificial (IA) aún se mantiene en pausa, si bien el proceso legislativo ha dado pasos agigantados, su aprobación e implementación enfrenta obstáculos técnicos, institucionales y sociales de gran magnitud.
A pesar de que se esperaba la presentación formal del dictamen final en el Senado el pasado 22 de abril, la sesión se pospuso y la Comisión de Análisis sobre IA informó que sigue afinando los detalles técnicos para armonizar las más de 20 iniciativas acumuladas desde 2023.
Expertos consultados por El Economista coinciden en que a pesar de que es urgente contar con una Ley que norme el uso la IA, hay retos significativos que se deben tomar en cuenta en su construcción, implementación y uso adecuado, entre los cuales se encuentran:
En entrevista, Abelardo Hernández, director de la Escuela de Ciencias Sociales y Gobierno del Tecnológico de Monterrey, señala que uno de los desafíos más críticos para la construcción de una Ley adecuada es la falta de capacitación técnica de los legisladores, ya que existe una "gran ignorancia" sobre cómo opera y razona la IA, comparando la situación actual con los intentos pasados de legislar sobre el ADN sin entender la bioquímica básica.
“Si quienes aprueban la Ley no comprenden el funcionamiento de los algoritmos, se corre el riesgo de crear un marco normativo demasiado general, ambiguo o inaplicable en la práctica”, señala el especialista.
Enfatiza que es necesario que los legisladores cuenten con la capacitación técnica necesaria para entender cómo opera la IA de lo contrario podría derivar en leyes demasiado generales o difíciles de aplicar operativamente.
Por su parte, el Mtro. Roberto Iván Colín Mosqueda, Integrante de la comisión técnica Fiscal del Colegio de Contadores Públicos de México enfatizó en la necesidad de contar con una normativa que regule el uso de la IA.
Cabe señalar que existe un temor fundado a que una regulación excesivamente rígida genere burocracia innecesaria, desincentive la inversión extranjera y frene la competitividad tecnológica del país. El reto consiste en diseñar una ley horizontal y flexible que permita la innovación pero que tenga "dientes" suficientes para sancionar usos malintencionados, como los deepfakes o la manipulación electoral.
“En un mundo donde la tecnología avanza a pasos agigantados, la lucha contra los deepfakes no es solo una cuestión de seguridad, sino también de justicia y protección de los derechos fundamentales”.
El Mtro. Mosqueda refiere que debido a que hoy en día es muy sencillo utilizar la inteligencia artificial a través de programas o aplicaciones que existen en el mercado, también deben existir instituciones que supervisen la aplicación de esta ley.
“La Ley debe ir en línea con una estrategia nacional para poder identificar riesgos, clasificarlos, crear instituciones necesarias que regulen el uso de la inteligencia artificial, pero también crear aquellas instituciones que protejan los derechos de los ciudadanos por el uso de estas tecnologías, que se contemplen en los derechos humanos”.
Señala que la propuesta exige la creación de organismos especializados, como la Agencia Nacional Reguladora del Desarrollo, Uso y Aplicación de la IA y el Consejo Mexicano de Ética sin embargo el reto aquí es triple:
1. Presupuesto: Dotar a estas nuevas instituciones de los recursos financieros necesarios.
2. Talento: Reclutar expertos que puedan realizar auditorías algorítmicas y evaluaciones de impacto técnico.
3. Autonomía: Garantizar que estos organismos operen con independencia técnica para supervisar tanto al sector privado como al público.
“Sin una regulación, los sistemas de IA pueden perpetuar discriminaciones. La ley debe buscar evitar que algoritmos utilizados en la contratación de personal, otorgamiento de créditos o procesos judiciales tomen decisiones basadas en prejuicios de género, raza o nivel socioeconómico”.
De acuerdo con el profesor Abelardo Hernández, otra de las razones por las que se está impulsado una Ley que regule la Inteligencia Artificial es por el proyecto de digitalización que el gobierno federal tiene para 2030 y que contempla centralizar datos biométricos y personales en una plataforma nacional gestionada por la supercomputadora Coatlicue.
Esta supercomputadora está diseñada para analizar millones de datos mediante miles de procesadores que operan de manera simultánea. “Al centralizar datos tan sensibles, existe una preocupación por la protección de datos personales y la necesidad de una normativa que regule cómo se comparte esta información entre instituciones, algo que anteriormente estaba limitado por ley”.
De acuerdo con el especialista en IA del Tec de Monterrey, el reto legislativo es asegurar que esta circulación masiva de información entre dependencias no vulnere la Ley Federal de Protección de Datos Personales, especialmente cuando la IA comience a operar con estos datos de manera autónoma.
Asimismo, el especialista señala que un tema poco discutido pero fundamental es que la IA es altamente contaminante debido al enorme consumo energético y de agua necesario para enfriar los servidores.
El doctor Abelardo Hernández advierten que el límite del desarrollo de la IA en México podría no ser tecnológico, sino ecológico, y que la ley actual no aborda con profundidad cómo mitigar esta huella de carbono.
“Un tema fundamental que la ley deberá abordar es cómo contrarrestar esta gran cantidad de contaminación, un gran tema que aún no tiene una solución regulatoria clara en las propuestas actuales”.
Por su parte, el Mtro. Mosqueda señala que México llega con un retraso de aproximadamente 10 años en normativa básica de IA respecto a modelos internacionales como los de la Unión Europea o Brasil, por lo que es necesario actualizarse constantemente.
Dado que la tecnología evoluciona de forma exponencial, el reto es que, para cuando la ley termine su proceso legislativo y se instale la Agencia Reguladora (un proceso que podría tomar meses), la normativa no sea ya obsoleta ante los nuevos avances del mercado.
Otro de los puntos más críticos que se están trabajando en la construcción de la nueva Ley es el principio de "Human-in-the-loop" (humano en el circuito). En la reglamentación es fundamental al aclarar que, ante cualquier decisión automatizada que afecte la vida de una persona (como un diagnóstico médico), exista siempre un responsable humano a quien acudir y que pueda explicar el razonamiento detrás de esa decisión.
Los especialistas refieren que actualmente, conductas como la creación de pornografía con Inteligencia Artificial sin consentimiento o el uso de algoritmos para extorsión no están plenamente contempladas en el Código Penal o la Ley Olimpia.
Por lo que el reto es lograr una armonización legislativa que permita sancionar penalmente estos actos sin vulnerar la libertad de expresión o la creación.
Finalmente, los especialistas señalan que actualmente, la propuesta de Ley se encuentra en etapa de análisis en el Senado, sin que exista aún una fecha definitiva para su aprobación final.
Por lo que es fundamental un debate profundo y multidisciplinario para una regulación de IA, que primero aborde los problemas digitales existentes y garantice la libertad de expresión, en lugar de crear una herramienta de censura bajo el pretexto de estabilidad democrática.
2026-05-07 14:52:46
2026-05-07 14:51:45
2026-05-07 14:46:45
2026-05-07 14:29:46
2026-05-07 14:26:46
2026-05-07 14:20:46
2026-05-07 14:17:46
2026-05-07 14:13:46
2026-05-07 14:13:45
2026-05-07 14:06:46
Powered by TURADIOINFO.COM