El término Agentic AI agrupa a sistemas de inteligencia artificial diseñados para actuar de forma autónoma y orientada a objetivos: no solo responden a preguntas, sino que planifican, llaman herramientas, coordinan pasos y ejecutan tareas hasta completar metas complejas. Estos sistemas (a menudo llamados agentes) ya no son sólo experimentos: en 2025 pasaron a la fase de herramientas y plataformas empresariales.
1) ¿Qué es exactamente “Agentic AI”?
Un agente es un programa que percibe su entorno, decide y actúa. Agentic AI eleva esto: son arquitecturas compuestas por múltiples sub-agentes o “skills” que descomponen objetivos en pasos, usan memoria y contexto, llaman APIs o navegadores, y se reajustan con retroalimentación para completar flujos de trabajo de varias etapas sin supervisión constante. En la práctica combinan LLMs (modelos de lenguaje), motores de orquestación, conectores a datos y evaluaciones automáticas.
2) Estado actual (resumen corto)
-
De laboratorio a producto. Grandes proveedores lanzaron kits y SDKs específicos para construir agentes (es decir, ya no es sólo “hacks” con Auto-GPT). Empresas de infra y SaaS están integrando agentes en productos de negocio.
-
Enfoque empresarial y seguridad. Las compañías priorizan controles, orquestación y estándares (Model Context Protocol, MCP) para que los agentes accedan a datos sensibles de forma
-
Maduración del ecosistema. Existen frameworks (LangChain, AutoGen, Agent SDKs) y emergen servicios gestionados para desplegar agentes en producción.
3) Quién desarrolla (investigación y players principales)
-
Laboratorios y grandes players: OpenAI, Anthropic, Google DeepMind, Microsoft, IBM y otros laboratorios académicos y corporativos avanzan en investigación sobre planificación, seguridad de agentes y “tool use”.
-
Startups y proveedores especializados: hay muchas startups y proveedores que construyen plataformas, entornos de entrenamiento (RL environments) y conectores verticales para sectores como finanzas o salud.
-
Frameworks open / comunidad: LangChain, AutoGPT, AutoGen y proyectos OSS similares siguen siendo la base para experimentación y despliegue rápido.
4) Empresas que lo comercializan (ejemplos concretos)
A continuación, ejemplos recientes y representativos —no es exhaustivo— pero muestran la dirección del mercado:
-
OpenAI: lanzó herramientas y kits para construir agentes (AgentKit / Agents SDK y funciones para integrarlos en ChatGPT), orientados a desarrolladores y a la plataforma ChatGPT.
-
Anthropic: ofrece “Skills” y un Agent SDK para crear agentes basados en Claude, con enfoque en productividad empresarial y controles de seguridad.
-
Salesforce: lanzó Agentforce 360, una plataforma para crear, desplegar y gobernar agentes en entornos empresariales, integrando modelos de OpenAI y Anthropic para casos de CRM y comercio.
-
Workato (y otros de integración/automatización): anuncian plataformas MCP para convertir agentes en procesos empresariales seguros y auditable.
-
AutomationEdge y proveedores sectoriales: lanzamientos específicos (por ejemplo para banca/finanzas) que empaquetan capacidades agent-like para flujos regulatorios.
Además de éstos, abundan consultoras y “boutique” que empaquetan agentes verticales (soporte, ventas, analítica, código) para clientes específicos.
5) Casos de uso prometedores
-
Automatización de procesos complejos: revisiones documentales, cierre de tickets, conciliaciones financieras.
-
Asistentes de conocimiento y ventas: agentes que navegan CRM, generan propuestas y ejecutan campañas.
-
Soporte al desarrollador: agentes que escriben, prueban y despliegan código (IDE integration).
-
Operaciones (SRE/seguridad): diagnóstico, remediación y generación de runbooks.
Estos usos ya se ven en pilotos y primeras implementaciones empresariales; la tendencia es hacia soluciones verticales controladas.
6) Riesgos y retos (lo que falta resolver)
-
Seguridad y privacidad: permitir que un agente acceda y actúe sobre datos sensibles exige controles fuertes (autorizaciones, auditoría, limitación de acciones).
-
Robustez y alucinaciones: los agentes que toman decisiones múltiples pueden propagar errores si no hay chequeos intermedios.
-
Evaluación y gobernanza: falta estandarización en cómo evaluar agentes (métricas, pruebas, “evaluación en lazo cerrado”).
-
Aspectos legales y responsabilidad: ¿quién responde si un agente ejecuta acciones dañinas o contractuales? Reguladores y empresas aún definen marcos.
Organizaciones y proveedores están integrando marcos de seguridad y MCPs para mitigar algunos de estos riesgos.
7) ¿Qué esperar en los próximos 12–24 meses?
-
Más SDKs y “agent marketplaces” (kits reutilizables/skills).
-
Mayor adopción empresarial en flujos verticales (ventas, finanzas, soporte clínico) con control y auditoría.
-
Ecosistema de herramientas de gobernanza (MCPs, evaluaciones automatizadas, entornos de RL para tareas reales).
8) Conclusión (para el lector técnico)
Agentic AI no es una moda pasajera: es la convergencia entre modelos potentes, herramientas de orquestación y necesidades reales de automatización. Hoy el foco es pragmático: hacer que los agentes sean útiles y gobernables en producción, no perseguir agentes “generalistas” que operen sin restricciones. Si trabajas en un equipo de producto, operaciones o infra, vale la pena explorar SDKs (OpenAI, Anthropic) y frameworks (LangChain/AutoGen) —pero priorizando pruebas de seguridad, limits y trazabilidad desde el día 1.