La denominada agentic AI, conocida en español como IA agéntica, es una forma avanzada de inteligencia artificial caracterizada por su capacidad para tomar decisiones de manera autónoma y adaptarse al entorno sin intervención humana constante. Este tipo de sistemas está empezando a recibir una atención regulatoria específica, y Singapur se ha situado a la vanguardia internacional con el primer marco institucional de gobernanza dedicado expresamente a la IA agéntica.
Un contexto de innovación regulatoria en inteligencia artificial
Singapur es conocido internacionalmente por su apuesta decidida por la innovación tecnológica, pero también por haber desarrollado, de forma paralela, un enfoque temprano y estructurado de gobernanza de la inteligencia artificial. En este marco, el país ha anunciado un plan quinquenal de más de mil millones de dólares para impulsar la investigación pública en IA hasta 2030.
Desde 2019, las autoridades singapurenses han ido construyendo un ecosistema normativo basado en instrumentos de soft law, entre los que destacan el Marco Modelo de Gobernanza de la IA, las guías de implementación para organizaciones, el sistema AI Verify o las directrices sobre el uso de datos personales en sistemas de recomendación y decisión. A ello se han sumado, en los últimos años, propuestas específicas para el sector financiero sobre gestión de riesgos de IA y proyectos piloto de aseguramiento técnico.
Este recorrido explica por qué, en el Foro Económico Mundial de Davos de 2026, la ministra de Desarrollo Digital y Tecnología de la Información, Josephine Teo, anunció el nuevo Marco Modelo de Gobernanza de la IA para la IA agéntica, el primer instrumento institucional diseñado específicamente para abordar sus riesgos. Aunque no tiene eficacia legal (soft law), las autoridades pueden verificar que los proveedores cumplen con la guía y sus principios.
¿Qué es la IA agéntica? Definición y características principales
Para comprender la relevancia de este nuevo marco, es necesario detenerse en la definición de IA agéntica, un término que comienza a consolidarse en español como traducción funcional de agentic AI. No se refiere a un único agente, sino a sistemas compuestos por uno o varios agentes de IA que actúan de forma coordinada y autónoma.
Desde un punto de vista institucional, Singapur define estos sistemas como aquellos capaces de planificar múltiples pasos para alcanzar objetivos específicos, mientras que la Unión Europea los describe como una forma avanzada de IA orientada a la toma de decisiones y a la acción autónoma.
Desde la academia jurídica y técnica, autores como Daniel Katz, Michael J. Bommarito y Jillian Bommarito del Chicago-Kent College of Law (Illinois Institute of Technology) han identificado los elementos operativos esenciales que caracterizan a estos sistemas de IA agéntica:
- Objetivo definido, con distintos grados de complejidad.
- Percepción del entorno, a través de datos, documentos o sensores.
- Capacidad de acción, incluida la modificación de ese entorno.
- Iteración, mediante la ejecución de acciones encadenadas.
- Adaptación a cambios contextuales.
- Finalización, cuando se alcanzan determinados umbrales o condiciones.
A estos elementos se añade el uso de modelos de lenguaje de gran escala (LLM), que permiten a la IA agéntica planificar, priorizar tareas y tomar decisiones sin intervención humana directa. La diferencia fundamental respecto de otros sistemas de IA es que no se limita a generar resultados, sino que actúa sobre el entorno de forma continuada.

Diferencias entre la IA agéntica y otros sistemas de IA
Aunque no exista una definición única, sí puede trazarse una distinción clara entre la IA agéntica y otros sistemas habituales:
- Los sistemas automatizados clásicos ejecutan tareas repetitivas conforme a reglas predefinidas, pero carecen de percepción y adaptación.
- Los sistemas basados en LLM tradicionales producen respuestas puntuales (one-shot) y no actúan de forma iterativa sin nuevas instrucciones humanas.
- Algunos sistemas de IA actuales operan de forma autónoma a través de mecanismos de categorización basados en etiquetas predefinidas; sin embargo, no pueden considerarse sistemas de IA agéntica en la medida en que carecen de memoria contextual, aprendizaje continuo y capacidad para modificar sus propias bases operativas.
La diferencia clave es que estos sistemas no se limitan a responder una vez, sino que toman varias decisiones seguidas, actúan mientras el proceso está en marcha y ajustan su comportamiento sin necesidad de intervención humana continua.
¿Por qué es necesario regular la IA agéntica?
La aparición de sistemas de IA agéntica plantea riesgos jurídicos específicos que justifican una atención regulatoria diferenciada:
- Decisiones automatizadas sin supervisión humana efectiva: Los agentes pueden producir efectos jurídicos o económicos relevantes sin puntos claros de control, lo que dificulta la atribución de responsabilidad.
- Pérdida de transparencia y explicabilidad: La multiplicidad de pasos y decisiones intermedias dificulta la trazabilidad, limitando así la capacidad de auditoría e impugnación.
- Desbordamiento en el uso de datos personales: La autonomía operativa facilita la reutilización de datos para fines no previstos inicialmente, o incluso la acumulación innecesaria de información sin conocimiento de los desarrolladores.
- Riesgos de seguridad y gestión de incidentes: Al conectarse a múltiples sistemas y servicios, los agentes amplían la posibilidad de ataque y complican la detección de incidentes o usos indebidos.
¿Qué propone Singapur?
1) Delimitación ex ante del riesgo y del alcance del agente.
El modelo de gobernanza parte de la necesidad de evaluar y acotar los riesgos desde la fase de diseño, antes del despliegue de sistemas de IA agéntica. Dado que estos sistemas pueden actuar de forma autónoma, resulta esencial definir con precisión qué objetivos persiguen, en qué contextos pueden operar, qué acciones están autorizadas y cuáles quedan expresamente excluidas.
Algunas de las preguntas que pueden ser planteadas son:
- ¿Tiene acceso a datos sensibles?
- ¿Tiene acceso a servidores externos?
- ¿Puede el agente leer y/o modificar la base de datos?
- ¿Cuántos pasos son necesarios para alcanzar el resultado final?
2) Responsabilidad humana significativa pese a la autonomía del sistema.
El marco subraya que la autonomía operativa de los sistemas de IA ágentica no desplaza la responsabilidad humana, sino que exige una asignación aún más clara de roles y deberes. En todo sistema agente debe poder identificarse quién es responsable de su diseño, despliegue, supervisión y corrección. La gobernanza no exige intervención humana constante, pero sí puntos de control significativos, especialmente antes de acciones irreversibles o de alto impacto, garantizando que la toma de decisiones automatizada siga siendo jurídicamente imputable.
3) Controles técnicos y organizativos a lo largo de todo el ciclo de vida.
A diferencia de los sistemas de IA tradicionales, los modelos de IA agéntica requieren controles continuos, no limitados a la fase previa al despliegue. El modelo propone integrar salvaguardias técnicas durante el diseño, la puesta en producción y la operación continuada, incluyendo pruebas, monitorización, registro de acciones y revisión periódica del comportamiento del agente.
4) Corresponsabilidad informada de los usuarios finales.
Finalmente, el marco reconoce que la gobernanza de la IA agéntica no puede recaer exclusivamente en desarrolladores u organizaciones, sino que debe extenderse a los usuarios que interactúan con ellos en la práctica. Para ello, se exige transparencia funcional sobre las capacidades y límites del agente, así como formación adecuada para que los usuarios comprendan cuándo confiar en el sistema, cuándo supervisarlo y cuándo intervenir.
¿Qué propone la Unión Europea?
La Unión Europea aborda la IA agéntica como una evolución significativa de la inteligencia artificial actual: sistemas que ya no se limitan a generar resultados puntuales, sino que planifican, actúan y se adaptan de forma iterativa en entornos reales. El informe Agentic AI: Leveraging European AI talent and regulatory assets to scale adoption (Comisión Europea, 2026) subraya que este cambio abre oportunidades relevantes para sectores como la industria, los servicios profesionales o la administración pública, pero también introduce nuevos riesgos derivados de la autonomía operativa y de la acumulación de decisiones a lo largo del tiempo.
Desde el punto de vista regulatorio, la propuesta europea es deliberadamente contenida. El informe deja claro que no se plantea crear una nueva normativa específica para la IA agéntica, sino aplicar de manera funcional el marco ya existente, en particular el AI Act, el RGPD y la normativa de ciberseguridad. La clave está en reconocer que los agentes de IA ya encajan en estas normas cuando tratan datos personales, toman decisiones con efectos jurídicos o se integran en sistemas críticos. El verdadero desafío no es normativo, sino operativo: cómo demostrar cumplimiento en sistemas que actúan en tiempo de ejecución, mediante trazabilidad, supervisión humana significativa y mecanismos claros de rendición de cuentas.
