Skip to content Skip to footer

Inteligencia artificial: regular sí, pero por sectores

El reto central para los gobiernos no es decidir si regular o no, sino cómo hacerlo sin inhibir la innovación. Una de las voces más activas en esa discusión es la de Alejandra Lagunes, impulsora de la Alianza Nacional de Inteligencia Artificial (ANIA), que agrupa al sector privado, público, académico y social para promover una IA ética, centrada en las personas.

Por Mariano Garza-Cantú

Febrero 2026

Lagunes parte de una premisa clara: la inteligencia artificial es una tecnología de amplio propósito. “En la historia de la humanidad solo unas cuantas innovaciones han tenido ese carácter (la imprenta, la electricidad, el teléfono, el automóvil, Internet) por su capacidad de transformar simultáneamente todos los sectores. La IA pertenece a ese grupo. No hay industria, profesión ni ámbito de gobierno que no se vea afectado”, afirma.

¿Regular o no regular?

Dada esa transversalidad, regular la IA como si fuera una tecnología más resulta insuficiente. El riesgo es doble: no regular y permitir daños irreversibles a derechos humanos, o regular de manera torpe y frenar el desarrollo tecnológico. Esto ocurrió parcialmente en la Unión Europea, que hoy revisa su propio marco normativo tras detectar efectos adversos sobre la innovación.

Desde ANIA se ha promovido un enfoque que se aleja de las prohibiciones generalizadas y se apuesta por una regulación basada en riesgos y sectores. No todos los usos de la IA implican el mismo nivel de impacto. Aplicarla en entretenimiento no es equivalente a hacerlo en salud, justicia, educación o seguridad.

Según Lagunes, ciertos usos deben prohibirse de forma clara (como las armas autónomas que deciden a quién atacar), mientras que otros requieren controles estrictos por su potencial de afectar la dignidad humana: sistemas de perfilamiento laboral, reconocimiento facial masivo, manipulación de imágenes íntimas o decisiones automatizadas sin posibilidad de revisión humana.

El objetivo no es regular la tecnología en sí, sino la consecuencia de su uso. “Cuando el daño a derechos humanos es alto o irreversible, el Estado tiene la obligación de intervenir”, asegura.

Sandboxes regulatorios: probar antes de legislar

Uno de los aportes más relevantes del trabajo de ANIA ha sido el uso de sandboxes regulatorios, que son espacios acotados y controlados que someten las normas  pruebas. El modelo no es nuevo (se utiliza desde hace años en el sector financiero), pero cobra especial relevancia frente a sistemas complejos como la IA.

En un sandbox, reguladores, académicos, empresas, sociedad civil y autoridades gubernamentales sectoriales observan el funcionamiento real de una tecnología, identifican riesgos concretos y definen responsabilidades. Para Lagunes, legislar sin haber pasado por este proceso equivale a regular a ciegas.

Este enfoque también rompe con una práctica histórica en México: regulaciones diseñadas de forma vertical y aislada. La IA exige gobernanza colaborativa, no decisiones unilaterales.

La gobernanza

La propuesta de ANIA rechaza la idea de que el gobierno deba ser el único actor que defina el rumbo de la inteligencia artificial. Plantea en cambio un modelo distribuido que involucre a cuatro grandes sectores: gobierno, academia, industria y sociedad civil.

Lagunes explica que esta gobernanza abierta es especialmente relevante para países del llamado sur global, como México, que participan en una carrera tecnológica dominada por Estados Unidos y China. Frente a esa bipolaridad, la pregunta no es cómo competir de igual a igual, sino cómo aprovechar estratégicamente la IA para cerrar brechas estructurales.

Oportunidad para México: infraestructura, talento y datos

Alejandra Lagunes considera que la IA representa una oportunidad real para México, aunque no en modo automático. Requiere tres pilares básicos: infraestructura, talento y datos.

En infraestructura, la conversación ya no se limita al cómputo tradicional. El mundo avanza hacia el supercómputo y el cómputo cuántico, con demandas energéticas y de inversión significativas.

En talento, la pregunta es si el país está formando suficientes perfiles capaces de desarrollar y auditar sistemas de IA, no solo de usarlos.

Y en datos, el desafío es mayúsculo: sin una política nacional de gobernanza de datos, hablar de soberanía tecnológica es más retórica que realidad.

La soberanía tecnológica, insiste Lagunes, no significa aislarse del mundo ni crear una IA mexicana como gesto simbólico. Implica tener capacidad real de decisión: infraestructura propia, talento local y control sobre los datos estratégicos.

Hoy, una docena de grandes empresas concentra la mayoría de los datos y del desarrollo de modelos avanzados. Esa concentración no es solo económica. Es también política y cultural. Los sistemas se entrenan con datos que reflejan visiones del mundo específicas, reproduciendo sesgos históricos de género, raza y clase. Corregir eso no es solo un problema técnico, sino ético y social.

El trabajo de ANIA y la visión de Alejandra Lagunes apuntan a una conclusión: regular la inteligencia artificial es necesario, pero hacerlo mal puede ser tan dañino como no hacerlo. La clave está en entender la tecnología, probarla, escuchar a expertos y construir reglas flexibles que protejan derechos sin asfixiar la innovación.

Para México, el dilema no es si subirse o no a esta transformación. Ya está ocurriendo. El verdadero desafío es cómo navegar en ella sin perder el equilibrio entre desarrollo tecnológico, dignidad humana y bienestar social.

Si quieres participar con ANIA, visita su sitio web: https://www.ania.org.mx/participa

Haciendo clic en este vínculo puedes descargar la Propuesta de Agenda Nacional de la Inteligencia Artificial para México 2024 – 2030.

Facebook
LinkedIn
X