El término Agentic AI agrupa a sistemas de inteligencia artificial diseñados para actuar de forma autónoma y orientada a objetivos: no solo responden a preguntas, sino que planifican, llaman herramientas, coordinan pasos y ejecutan tareas hasta completar metas complejas. Estos sistemas (a menudo llamados agentes) ya no son sólo experimentos: en 2025 pasaron a la fase de herramientas y plataformas empresariales.

1) ¿Qué es exactamente “Agentic AI”?

Un agente es un programa que percibe su entorno, decide y actúa. Agentic AI eleva esto: son arquitecturas compuestas por múltiples sub-agentes o “skills” que descomponen objetivos en pasos, usan memoria y contexto, llaman APIs o navegadores, y se reajustan con retroalimentación para completar flujos de trabajo de varias etapas sin supervisión constante. En la práctica combinan LLMs (modelos de lenguaje), motores de orquestación, conectores a datos y evaluaciones automáticas.

2) Estado actual (resumen corto)

  • De laboratorio a producto. Grandes proveedores lanzaron kits y SDKs específicos para construir agentes (es decir, ya no es sólo “hacks” con Auto-GPT). Empresas de infra y SaaS están integrando agentes en productos de negocio.

  • Enfoque empresarial y seguridad. Las compañías priorizan controles, orquestación y estándares (Model Context Protocol, MCP) para que los agentes accedan a datos sensibles de forma

  • Maduración del ecosistema. Existen frameworks (LangChain, AutoGen, Agent SDKs) y emergen servicios gestionados para desplegar agentes en producción.

3) Quién desarrolla (investigación y players principales)

  • Laboratorios y grandes players: OpenAI, Anthropic, Google DeepMind, Microsoft, IBM y otros laboratorios académicos y corporativos avanzan en investigación sobre planificación, seguridad de agentes y “tool use”.

  • Startups y proveedores especializados: hay muchas startups y proveedores que construyen plataformas, entornos de entrenamiento (RL environments) y conectores verticales para sectores como finanzas o salud.

  • Frameworks open / comunidad: LangChain, AutoGPT, AutoGen y proyectos OSS similares siguen siendo la base para experimentación y despliegue rápido.

4) Empresas que lo comercializan (ejemplos concretos)

A continuación, ejemplos recientes y representativos —no es exhaustivo— pero muestran la dirección del mercado:

  • OpenAI: lanzó herramientas y kits para construir agentes (AgentKit / Agents SDK y funciones para integrarlos en ChatGPT), orientados a desarrolladores y a la plataforma ChatGPT.

  • Anthropic: ofrece “Skills” y un Agent SDK para crear agentes basados en Claude, con enfoque en productividad empresarial y controles de seguridad.

  • Salesforce: lanzó Agentforce 360, una plataforma para crear, desplegar y gobernar agentes en entornos empresariales, integrando modelos de OpenAI y Anthropic para casos de CRM y comercio.

  • Workato (y otros de integración/automatización): anuncian plataformas MCP para convertir agentes en procesos empresariales seguros y auditable.

  • AutomationEdge y proveedores sectoriales: lanzamientos específicos (por ejemplo para banca/finanzas) que empaquetan capacidades agent-like para flujos regulatorios.

Además de éstos, abundan consultoras y “boutique” que empaquetan agentes verticales (soporte, ventas, analítica, código) para clientes específicos.

5) Casos de uso prometedores

  • Automatización de procesos complejos: revisiones documentales, cierre de tickets, conciliaciones financieras.

  • Asistentes de conocimiento y ventas: agentes que navegan CRM, generan propuestas y ejecutan campañas.

  • Soporte al desarrollador: agentes que escriben, prueban y despliegan código (IDE integration).

  • Operaciones (SRE/seguridad): diagnóstico, remediación y generación de runbooks.
    Estos usos ya se ven en pilotos y primeras implementaciones empresariales; la tendencia es hacia soluciones verticales controladas.

6) Riesgos y retos (lo que falta resolver)

  • Seguridad y privacidad: permitir que un agente acceda y actúe sobre datos sensibles exige controles fuertes (autorizaciones, auditoría, limitación de acciones).

  • Robustez y alucinaciones: los agentes que toman decisiones múltiples pueden propagar errores si no hay chequeos intermedios.

  • Evaluación y gobernanza: falta estandarización en cómo evaluar agentes (métricas, pruebas, “evaluación en lazo cerrado”).

  • Aspectos legales y responsabilidad: ¿quién responde si un agente ejecuta acciones dañinas o contractuales? Reguladores y empresas aún definen marcos.
    Organizaciones y proveedores están integrando marcos de seguridad y MCPs para mitigar algunos de estos riesgos.

7) ¿Qué esperar en los próximos 12–24 meses?

  • Más SDKs y “agent marketplaces” (kits reutilizables/skills).

  • Mayor adopción empresarial en flujos verticales (ventas, finanzas, soporte clínico) con control y auditoría.

  • Ecosistema de herramientas de gobernanza (MCPs, evaluaciones automatizadas, entornos de RL para tareas reales).

8) Conclusión (para el lector técnico)

Agentic AI no es una moda pasajera: es la convergencia entre modelos potentes, herramientas de orquestación y necesidades reales de automatización. Hoy el foco es pragmático: hacer que los agentes sean útiles y gobernables en producción, no perseguir agentes “generalistas” que operen sin restricciones. Si trabajas en un equipo de producto, operaciones o infra, vale la pena explorar SDKs (OpenAI, Anthropic) y frameworks (LangChain/AutoGen) —pero priorizando pruebas de seguridad, limits y trazabilidad desde el día 1.