Agentes de IA esta semana: productos, compras y riesgos
Ricardo Argüello — 26 de febrero de 2026
CEO & Fundador
Resumen general
En 48 horas, Perplexity lanzó un agente que orquesta 19 modelos, Anthropic compró la startup detrás del agente que opera Macs, y un reporte reveló 340+ skills maliciosos en OpenClaw. Los agentes de IA ya son productos con precio, adquisiciones corporativas y vectores de ataque reales.
- Perplexity Computer orquesta 19 modelos especializados para ejecutar tareas completas por $200/mes
- Anthropic adquirió Vercept para integrar agentes que operan computadoras directamente en Claude
- OpenClaw tiene más de 340 skills maliciosos en su marketplace — un riesgo real para empresas
- El NIST lanzó una iniciativa de estándares de seguridad específica para agentes de IA
- El valor se está moviendo de los modelos base a las capas de aplicación y ejecución
Imagina que en una sola semana tres cosas importantes pasaron con la IA: una empresa lanzó un asistente que sabe usar 19 herramientas distintas para completar trabajos enteros, otra compró la tecnología para que la IA maneje tu computadora como lo haría una persona, y se descubrió que algunas de estas herramientas tienen problemas graves de seguridad. Ya no estamos hablando de futuro — esto está pasando ahora y afecta las decisiones tecnológicas de cualquier empresa.
Resumen generado con IA
Esta semana, los agentes de IA dejaron de ser demos
En 48 horas pasaron tres cosas que antes habrían tardado meses. Perplexity lanzó un producto comercial que orquesta 19 modelos de IA para ejecutar tareas completas. Anthropic compró una startup especializada en agentes que operan computadoras. Y un reporte de seguridad reveló que el marketplace de uno de los agentes de código abierto más populares tiene más de 340 skills maliciosos.
Los agentes de IA ya no son una promesa de keynote. Son productos con precio, adquisiciones corporativas de ocho cifras, y — como era de esperarse — vectores de ataque reales. En IQ Source seguimos estas noticias cada semana porque afectan directamente las decisiones tecnológicas de las empresas con las que trabajamos. Esta es nuestra lectura de lo que pasó y por qué importa.
Si todavía estás evaluando cómo los agentes de IA encajan en tu operación, nuestra guía práctica de agentes para directivos te da el marco completo.
Perplexity Computer: 19 modelos, una sola orden
El 25 de febrero, Perplexity anunció Computer, un sistema que va más allá de buscar información: ejecuta tareas completas en tu computadora. El usuario describe lo que quiere lograr — “organiza los gastos del mes pasado en una hoja de cálculo” — y el sistema planifica los pasos, selecciona los modelos apropiados, y ejecuta.
Lo interesante no es que un agente pueda operar una computadora. Eso ya lo demostró Anthropic con Claude computer use. Lo que hace diferente a Perplexity Computer es la orquestación de múltiples modelos especializados. En lugar de pedirle todo a un solo modelo, el sistema asigna cada parte de la tarea al modelo que mejor la resuelve.
Qué modelo hace qué
| Modelo | Función |
|---|---|
| Claude Opus 4.6 | Razonamiento complejo y planificación de tareas |
| Gemini | Investigación y síntesis de información |
| Nano Banana Pro | Generación y edición de imágenes |
| Sonar (propio de Perplexity) | Búsqueda web en tiempo real |
| Modelos adicionales | Código, análisis de documentos, procesamiento de datos |
El precio: $200/mes en el tier Max, con 10,000 créditos mensuales. Según PYMNTS, las tareas cuestan entre 1 y 5 créditos dependiendo de la complejidad.
Lo que esto significa para empresas B2B
El patrón de orquestación multi-modelo es exactamente lo que describimos en nuestra guía de agentes empresariales: no usar un modelo para todo, sino el correcto para cada paso. Perplexity está empaquetando ese patrón como producto de consumo.
Para empresas, la diferencia es que no puedes enviar datos de clientes, contratos o información financiera a través de un producto SaaS de $200/mes sin controles de seguridad, auditoría ni cumplimiento normativo. El patrón de orquestación es válido. La implementación requiere tus propios modelos, tu propia infraestructura, y tus propias reglas.
Anthropic compra Vercept: la apuesta por agentes que operan computadoras
El mismo día que Perplexity lanzó Computer, TechCrunch reportó que Anthropic adquirió Vercept, una startup de San Francisco que construyó “Vy” — un agente capaz de operar computadoras Mac de forma remota, incluyendo abrir aplicaciones, usar interfaces y ejecutar flujos de trabajo completos sin intervención humana.
Vercept había levantado $50 millones de inversores como Spark Capital y Y Combinator, y contaba con ángeles notables del ecosistema de IA. Todo el equipo se incorporó a Anthropic, y Vercept cerrará operaciones el 25 de marzo.
No es la primera vez que Anthropic compra talento en lugar de construirlo internamente. En diciembre adquirieron al equipo de Bun, el runtime de JavaScript. El patrón es claro: Anthropic está armando la pila completa para agentes de IA — desde el modelo base hasta la capa de ejecución que interactúa con el mundo real.
Para las empresas que planean su estrategia de integración, esta adquisición refuerza algo que venimos diciendo: la dirección del mercado va hacia agentes que operan software directamente. Pero la vía más limpia y controlable para la mayoría de las empresas sigue siendo conectar agentes a sus sistemas a través de APIs y protocolos estandarizados como MCP, no dejar que un agente maneje la interfaz gráfica. Si quieres explorar esa ruta, tenemos un equipo dedicado a desarrollo de servidores MCP que conectan agentes con sistemas empresariales de forma segura.
OpenClaw: lo que pasa cuando la seguridad no sigue el ritmo
Mientras Perplexity y Anthropic hacían anuncios, un reporte menos glamoroso pero más urgente estaba circulando en la comunidad de seguridad. OpenClaw — el agente de código abierto que acumuló millones de instalaciones tras hacerse viral, y cuyo fundador se unió recientemente a OpenAI — tiene un problema serio de seguridad en su ecosistema de plugins.
Según un análisis de CNBC basado en investigación de Cisco, el marketplace de skills de OpenClaw está comprometido de múltiples formas:
- 341+ skills maliciosos identificados — cerca del 20% del total del marketplace. Incluyen código que exfiltra datos del usuario, instala backdoors, o redirige consultas a servidores externos.
- CVE-2026-25253 (CVSS 8.8) — una vulnerabilidad de ejecución remota de código que permite a un atacante ejecutar comandos arbitrarios en la máquina del usuario a través de un skill aparentemente legítimo.
- 30,000+ instancias expuestas — según The Hacker News, decenas de miles de instalaciones de OpenClaw están accesibles desde internet sin autenticación, exponiendo datos y permitiendo ejecución remota.
- Exfiltración vía mensajería — algunos skills envían datos del usuario a canales de Slack, Discord o webhooks externos sin que el usuario lo sepa.
Por qué esto importa para tu empresa
OpenClaw es un caso de estudio en tiempo real de lo que pasa cuando un ecosistema de agentes crece más rápido que sus controles de seguridad. Y no es un caso aislado — es un anticipo de lo que puede pasar con cualquier plataforma de agentes que permita extensiones de terceros sin revisión rigurosa.
Para empresas B2B, la lección es directa: cuando evalúes agentes de IA, la revisión de seguridad no puede limitarse al agente base. Tienes que auditar cada plugin, skill o extensión que se conecte al sistema. Esto aplica tanto para herramientas de código abierto como para productos comerciales con marketplaces de integraciones.
Si tu equipo ya usa o evalúa herramientas de generación de código con IA, nuestra guía sobre seguridad de código generado por IA cubre los controles que deberías tener.
NIST pone las reglas sobre la mesa
Mientras la industria construye y compra a toda velocidad, el gobierno de Estados Unidos empezó a poner orden. El 17 de febrero, el NIST lanzó una iniciativa de estándares para agentes de IA a través de su Centro de Inteligencia Artificial y Seguridad (CAISI).
La iniciativa tiene tres pilares: estándares de interoperabilidad liderados por la industria, protocolos de código abierto para comunicación entre agentes, e investigación en seguridad e identidad para sistemas autónomos. Según SiliconANGLE, el NIST publicó una solicitud de información (RFI) sobre seguridad de agentes con fecha límite del 9 de marzo.
Esto no es teoría académica. Para cualquier empresa que venda al gobierno federal, tenga contratos de defensa, o provea a industrias reguladas como salud y finanzas en Estados Unidos, los estándares NIST se convierten en requisitos de cumplimiento. Si estás construyendo o implementando agentes hoy, vale la pena diseñar con estos marcos en mente — es más barato construir adelante que adaptar después.
Qué significa todo esto para tu empresa
Los agentes son productos, no prototipos. Perplexity está vendiendo acceso a un agente multi-modelo por $200/mes. Anthropic pagó decenas de millones para adquirir un equipo de agentes. El mercado ya decidió que los agentes de IA son la siguiente capa de software empresarial — la pregunta para tu empresa no es si adoptarlos, sino cómo y con qué controles.
La seguridad de agentes es tu problema. OpenClaw demostró que un marketplace de plugins puede convertirse en un vector de ataque masivo en meses. Si tu equipo usa o planea usar agentes con extensiones de terceros — y casi todos los agentes de IA las tienen — necesitas un proceso de revisión de seguridad que cubra no solo el agente base sino cada integración. La historia de WebMCP y los estándares abiertos para agentes web, que cubrimos en nuestro análisis del estándar WebMCP, muestra por qué los protocolos abiertos son preferibles a ecosistemas cerrados de plugins.
Los estándares vienen — construye adelante, no atrás. La iniciativa del NIST señala que el marco regulatorio para agentes de IA está en camino. Las empresas que diseñen sus implementaciones pensando en auditoría, trazabilidad y controles de acceso desde el día uno van a gastar menos en adaptaciones cuando los estándares se formalicen. Las que no, van a hacer retrabajos costosos.
Este tipo de análisis semanal es lo que hacemos en IQ Source para mantenernos al día con un ecosistema que se mueve rápido. Si tu equipo directivo necesita esta lectura adaptada a su industria y sus decisiones tecnológicas específicas, hablemos.
Preguntas Frecuentes
Es un sistema de agente autónomo que orquesta 19 modelos de IA para completar tareas complejas. El usuario describe un resultado, y el sistema planifica, ejecuta y entrega. Está disponible en el tier Max por $200/mes con 10,000 créditos mensuales.
Porque el valor se está moviendo de los modelos base a las capas de aplicación. Entrenar modelos grandes ya es commodity; lo que diferencia es la capacidad de ejecutar acciones reales — leer pantallas, operar software, interactuar con sistemas. Las adquisiciones buscan integrar estas capacidades directamente en los productos de IA existentes.
Los principales: dependencias no auditadas, permisos excesivos, y falta de controles de acceso diseñados para entornos empresariales. Un agente open-source puede funcionar técnicamente pero carecer de logging, límites de acción y aislamiento que cualquier implementación corporativa necesita. La evaluación de seguridad debe hacerse antes del despliegue, no después.
El NIST lanzó una iniciativa con tres pilares: estándares liderados por la industria, protocolos de código abierto e investigación en seguridad e identidad para agentes. Si tu empresa vende al gobierno o a industrias reguladas en EE.UU., estos se convertirán en requisitos de cumplimiento. El plazo para comentarios públicos cierra el 9 de marzo.
Artículos Relacionados
Ataque a LiteLLM: tu cadena de confianza de IA, rota
LiteLLM, el proxy de API keys de IA con 97 millones de descargas mensuales, fue envenenado vía PyPI. Tu escáner de seguridad fue el vector de entrada.
Google Stitch y AI Studio: diseño y código sin ingenieros
Google lanzó un pipeline completo de diseño a producción con Stitch y AI Studio. Qué sirve para prototipos B2B y dónde necesitas ingeniería real.