Gobernanza de la inteligencia artificial: el modelo de Singapur para la era agéntica
FUTURO


La irrupción de la inteligencia artificial agéntica —sistemas capaces de actuar autónomamente— representa el desafío de gobernanza más significativo de la era digital. Ante ello, los Estados deben superar el paradigma de la IA como mera herramienta y diseñar marcos regulatorios para una nueva realidad: la de la acción algorítmica.
Cuando la IA deja de ser herramienta y empieza a actuar
Estamos en un punto de inflexión en la gobernanza de la inteligencia artificial: el paso de una IA que genera respuestas a una que ejecuta acciones con mínima intervención humana. El lanzamiento del Marco de Gobernanza de IA Agéntica (MGF) de Singapur, presentado el 22 de enero de 2026 en el Foro Económico Mundial, posiciona a Singapur como el primer Estado en articular una respuesta institucional a este cambio de paradigma.
¿Qué es la inteligencia artificial agéntica?
La IA agéntica se define como sistemas que pueden razonar, planificar y ejecutar tareas de forma independiente para alcanzar objetivos. Funcionan con un "cerebro" central (típicamente un modelo de lenguaje grande o LLM) que interpreta objetivos y coordina el uso de herramientas conectadas como calculadoras, APIs o calendarios. A diferencia de la IA generativa, que solo produce resultados en respuesta a prompts, la IA agéntica inicia acciones por sí misma.
Estos sistemas pueden ser deterministas (producen la misma salida para la misma entrada) o no deterministas, cualidad que introduce un nivel de imprevisibilidad y exige una gobernanza más estricta. A menudo operan como sistemas multi-agente, donde varios agentes colaboran en paralelo, lo que aumenta la eficiencia pero también el riesgo de errores en cascada.
La propuesta de Singapur: un marco para la autonomía
El Marco de Gobernanza de Singapur (MGF), analizado por la firma Hogan Lovells, es el primer modelo global diseñado específicamente para estos sistemas. Aunque el documento técnico completo aún no ha sido publicado, el análisis secundario indica que no impone obligaciones legales vinculantes, sino que establece un conjunto de mejores prácticas para la industria. Su objetivo es abordar los riesgos únicos derivados de la autonomía, como las acciones no autorizadas o los fallos sistémicos. Esta aproximación, no vinculante por diseño, busca fomentar la adopción voluntaria en una industria de rápida evolución, priorizando la agilidad sobre la rigidez prescriptiva que podría obstaculizar la innovación.
El nuevo problema regulatorio: autonomía sin responsabilidad
La capacidad de la IA agéntica para actuar de forma autónoma diluye las líneas de responsabilidad humana, creando un complejo dilema de atribución de responsabilidad. El MGF identifica cinco categorías de riesgos específicos que surgen de esta nueva capacidad:
Acciones erróneas: Tareas ejecutadas incorrectamente, como agendar citas en fechas equivocadas o gestionar mal un inventario, con consecuencias potencialmente costosas.
Acciones no autorizadas: Actuaciones fuera del ámbito permitido que se ejecutan sin la aprobación humana requerida, como realizar transacciones no validadas.
Acciones sesgadas o injustas: Resultados que generan discriminación o inequidad en procesos críticos, como la selección de personal o la elección de proveedores.
Fugas de datos: Exposición o mal uso de información sensible, como datos personales o secretos comerciales, por la incapacidad del agente para reconocer su confidencialidad.
Disrupción de sistemas conectados: Desestabilización de infraestructuras vinculadas por un mal funcionamiento del agente, como la eliminación de código crítico en una base de datos o la sobrecarga de plataformas externas con peticiones excesivas.
El dispositivo de gobernanza: control humano, trazabilidad y límites
Para contrarrestar la dilución de la responsabilidad y mitigar los riesgos de acciones erróneas, no autorizadas o sesgadas, el MGF propone un dispositivo de control distribuido que asegura la supervisión en todo el ciclo de vida del sistema. Este dispositivo se articula en cuatro dimensiones clave.
## Evaluar y acotar riesgos tempranamente
El marco exige una evaluación de riesgos previa al despliegue. Esta debe considerar factores como la tolerancia al error del dominio de aplicación (por ejemplo, es menor en salud que en marketing) y la reversibilidad de las acciones del agente. Como estrategias de mitigación, propone limitar a los agentes a las herramientas y datos mínimos necesarios e implementar una gestión de identidad que vincule a cada agente con un supervisor humano responsable, una medida clave para prevenir las acciones no autorizadas y asegurar la trazabilidad.
## Responsabilidad humana indelegable
El MGF enfatiza que la responsabilidad final recae siempre en las organizaciones y los individuos. Propone un modelo de responsabilidad distribuida entre el liderazgo (que define los casos de uso), los equipos de producto, los de ciberseguridad y los usuarios finales. Además, exige establecer puntos de control que requieran aprobación humana explícita para acciones sensibles o irreversibles, un mecanismo directo para mitigar el riesgo de acciones erróneas de alto impacto.
## Controles técnicos en todo el ciclo de vida
Las salvaguardas técnicas deben integrarse en cada etapa del proceso. En la fase de desarrollo, se deben usar entornos de prueba aislados (sandbox). En el pre-despliegue, es obligatorio realizar pruebas rigurosas de precisión y resiliencia. Finalmente, durante el despliegue, se debe garantizar un monitoreo continuo y la existencia de mecanismos de desactivación de emergencia (failsafe) para contener cualquier disrupción de sistemas conectados.
## Responsabilidad del usuario final
La transparencia es un pilar fundamental. Se debe informar a los usuarios cuándo están interactuando con un agente de IA, qué acciones puede realizar y cómo escalar un problema a un supervisor humano. El marco distingue entre la formación para usuarios internos, centrada en la supervisión, y la comunicación con usuarios externos, que debe ser clara sobre las limitaciones y los puntos de contacto humano para prevenir fugas de datos o un uso indebido.
Riesgos y tensiones: entre los principios y la práctica
A pesar de su diseño detallado, el modelo de Singapur enfrenta dos tensiones principales. La primera es el enforcement: al no ser legalmente vinculante, su adopción depende de la autorregulación de la industria. Este enfoque basado en principios contrasta con marcos más prescriptivos y centrados en el cumplimiento, como el AI Act de la Unión Europea o las normativas de adquisición del gobierno de EE. UU. (OMB M-25-22).
La segunda tensión es la brecha entre las exigencias del marco y la realidad técnica y de costos de las organizaciones. Según un estudio de Cisco, el 60% de las empresas tiene dificultades para acceder a datos de alta calidad necesarios para entrenar IA, y el 84% considera que las políticas de localización de datos añaden costos y complejidad. Estos obstáculos operativos podrían dificultar una aplicación efectiva de los principios del MGF.
Contrapunto: críticas desde la innovación y la ética
El enfoque del MGF también es objeto de críticas desde dos flancos opuestos. Desde el sector de la innovación, perspectivas como la del blog de Cisco advierten que los requisitos de gobernanza de datos excesivamente complejos pueden actuar como un inhibidor del éxito de la IA, y abogan por marcos ágiles que simplifiquen dichos requisitos para empoderar a las empresas y no obstaculizar el cambio tecnológico.
Desde una perspectiva ética, análisis como el de Julio Vega (arXiv) señalan que un marco de gobernanza corporativa como el de Singapur puede pasar por alto dilemas fundamentales. Entre ellos, el "solucionismo tecnológico" (la creencia de que todo problema social tiene una solución técnica), la concentración de poder en las grandes empresas tecnológicas y el riesgo de que los sistemas de IA reproduzcan y automaticen sesgos e inequidades estructurales.
Cierre: el futuro de la gobernanza de la IA es gobernar la acción
El marco de Singapur representa un primer intento crucial por regular la autonomía algorítmica. Su contribución notable es desplazar el foco de la gobernanza de los datos a la gobernanza de las acciones. Su éxito no radicará en la elegancia de sus principios, sino en la exigencia de su implementación: la capacidad de traducir la gobernanza en controles técnicos auditables que aborden, y no eludan, los profundos debates éticos y de poder que la IA agéntica impone.